Você está na página 1de 138

Introdução à Geometria Diferencial

Rui Albuquerque

Departamento de Matemática, Universidade de Évora, Portugal


Janeiro 2004
Prefácio

O presente trabalho pretende fazer uma apresentação breve e o mais consistente possı́vel, das
ideias, conceitos e instrumentos que hoje em dia se utilizam e fazem progredir o estudo da
geometria. Mais especı́ficamente, do ramo que é hoje conhecido por geometria diferencial.
Pensamos, naturalmente, que o estudo da geometria não se pode circunscrever a nenhuma
teoria única ou tratado global e final, e que tambem neste campo da criação humana e
conhecimento cientı́ficos as ideias fluem de forma diversa e têm de ser, e são, aprendidas de
muitas maneiras. Tanto da parte dos que ensinam como daquela dos que aprendem.
Sem dúvida, a geometria diferencial joga um papel excepcional, mesmo na matemática
toda se tal se pudesse considerar, porque afinal ela conjuga muitas e variadı́ssimas das
matérias da álgebra e da análise. Aparece nas soluções de problemas de várias variáveis reais
ou complexas, tratadas como espaços geométricos de dimensão qualquer, ou nos problemas
de variáveis discretas, tratadas como abstracções das anteriores (referimo-nos às variedades
algébricas); informa-nos sobre as propriedades intrı́nsecas da morfologia do espaço e suas
medidas. Esse é precisamente o caso do globo terrestre como o nome “geo+metria”indica.
A geometria diferencial obriga a profunda reflexão sobre os conceitos e leva-nos á formulação
de novas ideias e teorias, à descoberta de estruturas geométricas antes não imaginadas ou
sequer procuradas. E finalmente remete-nos para o puro gozo da busca da demonstração
ou para o recolhimento na procura da mais sincera construção estética ou da abstracção
intelectual.
Numa interpretação livre e pessoal da influência da matemática sobre tudo o que ao
homem diz respeito, a geometria mostra-nos de forma clarividente a força de uma teoria,
o poder das ideias consolidadas pelo pensamento e indústria humanos na descoberta e
explicação da realidade que nos rodeia ou como utensı́lio para a transformar; porque tem
de facto uma correspondência com a Natureza. Por exemplo, quando falamos da “esfera
de dimensão quatro”podemos não saber para o que servem os resultados a que chegamos,
ainda que estes nos permitam de imediato intuir novos caminhos a perseguir dentro da
matemática. Mas um fı́sico teórico poderá utilizar qualquer dos nossos teoremas para
explicar uma experiência que ocorra num “espaço-tempo com condições de curvatura nula
na fronteira”e que ele “compactifica”naquela esfera (ver [Ati79]). A realidade encarrega-se
de mostrar que ambos tinham razão, Fı́sicos e Matemáticos, mas cada um nos seus domı́nios
e com os seus critérios de verdade — assim se tem verificado através da história, de forma

iii
iv

mais preponderante desde que Newton e Leibniz descobriram o cálculo diferencial e com
que benefı́cios! Reafirmamos pois, com confiança num futuro sempre inteligı́vel e sempre
mais humano, que a geometria diferencial consolida a nossa certeza nos valores do ensino,
da ciência e da arte, como instrumentos para a elevação da cultura de cada um e melhoria
da condição e liberdade de todos.
Este livro tem por primeiro objectivo o ensino. Em particular uma apresentação da
geometria diferencial moderna aos alunos dos cursos de matemáticas aplicadas da Universi-
dade de Évora, que esperamos cativar para o prosseguimento do estudo no curso do quarto
ano “Análise em Variedades”.
Tem tambem o objectivo de dar um contributo, ou afirmar a necessidade de, elevar o
grau de conhecimento da geometria e o esforço da sua divulgação em Portugal e entre os
estudantes que não abdicam de estudar em português.
Aparte tudo o que já se disse de subjectivo, importa estar avisado que os resultados que
se apresentam são fruto de aturada e persistente busca dos seus autores, pelo que poderão
ser compreendidos sempre melhor se o estudante os acompanhar com incentivo, desejo,
abnegação e muita vontade crı́tica.
Conteúdo

Introdução 3

1 Material preparatório 5
1.1 Álgebra linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Espaços vectoriais e aplicações lineares . . . . . . . . . . . . . . . . . 5
1.1.2 Construção de espaços vectoriais . . . . . . . . . . . . . . . . . . . . 7
1.2 Topologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Espaços topológicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Aplicações contı́nuas . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Topologias produto e quociente . . . . . . . . . . . . . . . . . . . . . 14
1.3 Espaços métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.1 Noções principais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.2 Espaços métricos completos . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 Mais conceitos da topologia . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4.1 Duas questões sobre conexos . . . . . . . . . . . . . . . . . . . . . . 25
1.4.2 Várias propriedades definidas localmente . . . . . . . . . . . . . . . . 25
1.4.3 Espaços paracompactos . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5 Cálculo diferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.5.1 Propriedades fundamentais das funções diferenciáveis . . . . . . . . . 30
1.5.2 Funções de Rn em R . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.5.3 Funções de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.6 Teoremas da função inversa e da função implı́cita . . . . . . . . . . . . . . . 44

2 Variedades diferenciáveis 53
2.1 Definições e exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.1.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.1.3 Propriedades topológicas . . . . . . . . . . . . . . . . . . . . . . . . 58
2.2 Espaço tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.2.1 Definição e propriedades . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.2.2 Funções suaves com valores reais . . . . . . . . . . . . . . . . . . . . 64

1
2

2.2.3 Campos vectoriais e parêntesis de Lie . . . . . . . . . . . . . . . . . 65


2.3 Aplicações suaves entre variedades . . . . . . . . . . . . . . . . . . . . . . . 70
2.3.1 Curvas suaves . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.3.2 Aplicações suaves e suas propriedades . . . . . . . . . . . . . . . . . 71
2.4 Subvariedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.4.1 Subvariedades imersas . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.4.2 Subvariedades mergulhadas . . . . . . . . . . . . . . . . . . . . . . . 79
2.4.3 Exemplos e caracterização . . . . . . . . . . . . . . . . . . . . . . . . 82
2.4.4 Prolongamentos de funções e de campos vectoriais . . . . . . . . . . 83
2.5 Teoremas de construção de variedades . . . . . . . . . . . . . . . . . . . . . 87

3 Aplicações clássicas 93
3.1 Grupos de Lie e álgebras de Lie . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2 Acções de grupos de Lie em variedades . . . . . . . . . . . . . . . . . . . . . 102
3.2.1 Variedades homogéneas . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.2.2 Variedades quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.3 Variedades orientáveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.3.1 Orientação de um espaço vectorial . . . . . . . . . . . . . . . . . . . 112
3.3.2 Orientação de uma variedade diferenciável . . . . . . . . . . . . . . . 113
3.4 Introdução à geometria riemanniana . . . . . . . . . . . . . . . . . . . . . . 116
3.4.1 Espaços com produto interno . . . . . . . . . . . . . . . . . . . . . . 116
3.4.2 Variedades riemannianas . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.5 Breve referência ao estudo das curvas . . . . . . . . . . . . . . . . . . . . . . 122
3.5.1 Definições gerais em variedades riemannianas . . . . . . . . . . . . . 122
3.5.2 Estudo local das curvas em R3 ; a curvatura . . . . . . . . . . . . . . 123
3.5.3 Fórmulas de Frenet-Serret . . . . . . . . . . . . . . . . . . . . . . . . 126

Bibliografia 127
Introdução

Este livro de matemática está pensado da seguinte maneira.


Destina-se a alunos do terceiro ano de uma licenciatura em matemática, que se supõe
já terem tido contacto razoável mas não amadurecido com os temas expostos no primeiro
capı́tulo. Nomeadamente a álgebra linear e um pouco da teoria dos grupos, o cálculo
diferencial em várias variáveis até aos teoremas da função implı́cita e da função inversa, a
topologia e a métrica. Claro que nestes vastos campos se intersecta aqui ou ali com pontos
centrais da análise funcional que o leitor pode estranhar não serem perseguidos com a mesma
profundidade. É o caso, por exemplo, dos espaços completos1 . É que pretendemos avançar
pelas águas mais calmas desse rio turbulento que é a topologia e a análise para chegar ao
vasto oceano da geometria, onde perigos não menos avultosos nos poderão surpreender.
Enfim, para ir ao mar convem aprender a nadar.
No capı́tulo 1, a par do material apresentado que deve ser conhecido, tambem se prepara
o caminho para alguns pontos especı́ficos da geometria. Logo no inı́cio, a colecção de
resultados sobre espaços vectoriais dará lugar mais tarde a construções análogas na teoria
dos fibrados vectoriais. Depois, o teorema dos espaços métricos que relaciona conceitos como
(pré-)compacto, completo, limitado, fechado e existência de subsucessões convergentes, é
apresentado tendo em vista dar um bom avanço ao leitor no caminho que leva ao teorema
de Hopf-Rinow da geometria riemanniana, que infelizmente ainda está muito além das
possibilidades este livro. O conjunto de teoremas sobre topologia mais avançada tem em
vista a introdução de partições da unidade nas variedades, embora por esta altura apenas
de classe C 0 . O cálculo diferencial é exposto da forma mais sucinta que se encontrou. Por
exemplo o teorema de Schwarz podia ser mais facilmente demonstrado se se aligeirasse as
hipóteses e introduzisse o integral de Riemann e o teorema de Fubini. É que a demonstração
que se apresenta e que vimos em [DA89] não pede a continuidade das segundas derivadas,
aparecendo como um resultado de natureza pontual. No fim do capı́tulo 1 temos os famosos
teoremas da função inversa e da função implı́cita, que nos permitirão juntamente com os
teoremas da derivada injectiva ou da derivada sobrejectiva, produzir novas variedades ora
por imagem directa ora por imagem recı́proca.
No segundo capı́tulo temos uma introdução às variedades que julgamos a mais indicada
1
Pode o leitor interessado ver satisfeita, em parte, a sua curiosidade ficando a conhecer que existe tambem
uma geometria diferencial em dimensão infinita, onde se estudam as variedades de Banach, i.e. modeladas
num espaço vectorial de Banach.

3
4 Introdução

para os estudantes do terceiro ano. Note-se que a matéria central deste livro é precisamente
o estudo das variedades. A nossa introdução permite fazer construções como a garrafa de
Klein que não são de descrição fácil como subvariedades do espaço euclideano.
Tambem a introdução do espaço tangente se pensa ser a mais conveniente. Vamos do
global, ao local e finalmente ao pontual. Consideramos que o que faz a diferença em geo-
metria são as questões globais, e com isto julgamos estar mais próximos tanto de uma das
perspectivas originais da teoria (aquela de matemáticos como H. Weyl na Alemanha e E.
Cartan e A. Weyl em Françanos anos 20 do século passado) como das que fizeram escola
durante grande parte do século XX e ainda vigoram (as de H. Cartan, Grothendieck, M.
Atiyah). As questões locais podem sempre ser vistas como questões da análise e necessitam
de especial atenção no estudo da geometria riemanniana. Esta geometria, já agora convem
explicar, centra-se no estudo das variedades munidas de uma métrica, i.e. medida de com-
primento de vectores e ângulos, que se admite poder ser variável de espaço tangente para
espaço tangente. Este estudo antecede cronológicamente o das variedades, tendo surgido
com C. F. Gauss e B. Riemann. Mostrou a sua grandeza nos finais do século XIX com ma-
temáticos como T. Levi-Civita, Bianchi e Ricci e provou a sua importância, entre outras,
com a teoria da Relatividade de Einstein que provou a existência de curvatura no espaço-
tempo (R4 ). Talvez o leitor reconheça a referência aos exemplos clássicos de curvatura 0, 1
e −1, respectivamente, no plano, na esfera e ponto-de-sela. Nos dois últimos trata-se de
exemplos de geometrias não euclideanas em dimensão dois.
Note-se que a ideia de variedade provem de conceitos fı́sicos bem reais. Mas se a va-
riedade por vezes tem uma existência real concreta, o mesmo não se passa com o espaço
tangente, que sendo uma abstracção ‘um passo acima’, pode ser considerada de diversas
maneiras consoante o gosto do professor ou a necessidade do investigador. Ou seja, o espaço
tangente tem de ser construı́do pelo matemático que estuda variedades; ele não surge de
forma natural. Assim considerando, o que procurámos fazer no capı́tulo 2 deste livro foi
que essa construção fosse tanto o menos penosa possı́vel e a mais fácil de intuir para o
leitor, como aquela que permitisse fazer as demonstrações dos resultados seguintes com o
indispensável rigor que se reserva para a matemática.
Capı́tulo 1

Material preparatório

1.1 Álgebra linear


Começamos por recordar alguns fundamentos da geometria cartesiana no quadro mais vasto
da álgebra linear. Assumimos que o leitor domina as bases da teoria das matrizes, até à
teoria dos determinantes. Uma óptima referência para esta matéria é [DA83]. Ao longo
desta secção K designa um corpo.

1.1.1 Espaços vectoriais e aplicações lineares


Dá-se o nome de espaço vectorial sobre o corpo K a um conjunto V munido da seguinte
estrutura: (i) uma operação binária + em V , denominada adição, tal que (V, +) é um grupo
comutativo e (ii) uma operação de multiplicação por escalar K × V → V , denotada
(λ, v) 7→ λv, satisfazendo:

λ(ξv) = (λξ)v, (λ + ξ)v = λv + ξv,


(1.1)
λ(u + v) = λu + λv, 1v = v

para quaisquer λ, ξ ∈ K, u, v ∈ V . Os elementos de V são chamados de vectores, e os de


K de escalares. Tem-se que para qualquer número natural n o produto cartesiano Kn é
espaço vectorial sobre K. Em particular qualquer corpo é espaço vectorial sobre si próprio.

Sejam v1 , . . . , vj ∈ V . Estes vectores dizem-se linearmente independentes se não


existem escalares, não todos nulos, λ1 , . . . , λj ∈ K tais que

λ1 v1 + . . . + λj vj = 0, (1.2)

5
6 Capı́tulo 1. Material preparatório

isto é, tais que o vector nulo seja combinação linear dos v1 , . . . , vj com algum λi 6= 0. Caso
contrário aqueles vectores dizem-se linearmente dependentes.

Uma famı́lia {vα }α∈I de vectores de V , indiciada em I, diz-se geradora de V se qualquer


vector v é combinação linear de alguns dos vα , ie. existem escalares λαβ , com αβ ∈ I e
com o conjunto dos β finito, tais que
X
v= λαβ vαβ . (1.3)
β

Uma famı́lia minimal geradora de V chama-se uma base de V . Os vectores de uma base
são portanto linearmente independentes. Se uma base existe e forem em número finito os
seus elementos, dizemos que V tem dimensão finita; senão V tem dimensão infinita.
Se V tem dimensão finita, então quaisquer duas bases têm o mesmo número de elementos
(a demonstração deste facto não é nada imediata); número esse designado por dimensão
de V ou, abreviando, dim V .

Sejam V, W dois espaços vectoriais sobre o mesmo corpo K. Uma função f : V → W


diz-se uma aplicação (K-)linear ou uma transformação linear, se

f (u + v) = f (u) + f (v), f (λv) = λf (v) (1.4)

para quaisquer u, v ∈ V, λ ∈ K. É trivial verificar que a soma de duas aplicações lineares


f, g : V → W , definida por (f + g)(v) = f (v) + g(v), é também uma aplicação linear
V → W . O mesmo é verdade para a multiplicação λf de um escalar λ pela aplicação linear,
dado por (λf )(v) = λf (v). Designando então L(V, W ) = {f : V → W linear} prova-se
que este conjunto adquire uma estrutura de espaço vectorial sobre K, com aquela adição
e aquele produto por escalar, e que, se V e W têm dimensão finita respectivamente n e
m, então L(V, W ) tem dimensão finita nm. Tomam especial destaque o espaço vectorial
V ∗ = L(V, K), chamado dual de V , e o espaço End V = L(V, V ) dos endomorfismos.

Seja f : V → W uma aplicação linear. Dizemos que f é, respectivamente, um mono-


morfismo, um epimorfismo, ou um isomorfismo ('), se f é, respectivamente, injectiva,
sobrejectiva ou bijectiva. Dizemos que f é um endomorfismo se V = W e dizemos que é
um automorfismo se, além disso, f é também um isomorfismo.

Verifica-se imediatamente que a composição de aplicações lineares é linear e que a inversa


de um isomorfismo é também um isomorfismo linear. Com a composição como produto,
podemos falar do grupo linear GL(V ) de todos os automorfismos de V .
1.1 Álgebra linear 7

1.1.2 Construção de espaços vectoriais


Seja V um espaço vectorial sobre K. Um subconjunto F de V diz-se um subespaço
vectorial sobre K de V se F é um espaço vectorial com a estrutura induzida de V , ou
seja, quando restringimos a F a adição e multiplicação por escalares quaisquer. O mesmo
é dizer: F é subespaço vectorial de V se

∀u, v ∈ F, ∀λ ∈ K, então u + v ∈ F, λu ∈ F. (1.5)

Sejam V, W dois espaços vectoriais. Podemos então definir, formalmente, a soma di-
recta
© ª
V ⊕ W = v + w : v ∈ V, w ∈ W . (1.6)
que não é mais que o produto cartesiano V × W . Convem-nos porém utilizar a notação
aditiva, pelo que se atribui o nome de soma directa àquele conjunto, munido da operação
+
(v1 + w1 ) + (v2 + w2 ) = v1 + v2 + w1 + w2 , (1.7)
onde v1 + v2 está em V e w1 + w2 está em W , e da operação produto por escalar

λ(v + w) = λv + λw. (1.8)

É fácil verificar que a soma directa de V e W é um novo espaço vectorial sobre K, cuja
dimensão é finita e igual à soma das dimensões de V e de W se estas forem finitas. V
introduz-se de forma unı́voca e linear na soma directa, e esta projecta-se de novo em V
também de modo linear. Claro que V ⊕ W ' W ⊕ V .

Seja F ⊂ V um subespaço vectorial de V . Suponhamos que é imposta a relação ∼ em


V:
u ∼ v se v − u ∈ F. (1.9)
É trivial verificar que ∼ é uma relação de equivalência. Mais ainda, se u1 , u2 , v1 , v2 ∈ V, λ ∈
K e se u1 ∼ u2 , v1 ∼ v2 , prova-se também que u1 + v1 ∼ u2 + v2 e que λu1 ∼ λu2 . No
conjunto quociente V / ∼, conjunto das classes de equivalência v + F = {v 0 : v 0 ∼ v},
podemos definir então uma estrutura de espaço vectorial sobre K com as operações

(v + F ) + (u + F ) = (v + u) + F, λ(u + F ) = λu + F. (1.10)

A demonstração é um simples exercı́cio. Este espaço vectorial quociente sobre K é deno-


tado por V /F . Se V tem dimensão finita n, então F também tem e nesse caso, se v1 , . . . , vj
é uma base de F , que extendemos a uma base v1 , . . . , vj , vj+1 , . . . , vn como podemos sempre
fazer, então vj+1 + F, . . . , vn + F é uma base de V /F . Independentemente das bases, tem-se
então a relação
dim V = dim F + dim V /F. (1.11)
8 Capı́tulo 1. Material preparatório

A projecção p : V → V /F, p(v) = v + F , é uma aplicação linear2 .

Sejam V, W dois espaços vectoriais, f : V → W uma aplicação linear. Tem-se então que
© ª
ker f = v ∈ V : f (v) = 0 (1.12)

é um subespaço vectorial de V chamado núcleo ou kernel de f . Verifica-se sem dificuldade


que f é um monomorfismo se, e só se, ker f = 0. Também a imagem de f
© ª
imf = f (V ) = f (v) : v ∈ V (1.13)

é um subespaço vectorial de W .
Teorema 1.1.1 (do isomorfismo). Nas condições anteriores, suponhamos ainda V, W de
dimensão finita. Existe então um isomorfismo

φ : V / ker f ' imf. (1.14)

Em particular, dim V = dim ker f + dim imf .


Demonstração. Basta verificar que φ dada por v + ker f 7→ f (v) está bem definida, que é
linear, injectiva e sobrejectiva. ¤

Dada uma base e1 , . . . , en de V , qualquer aplicação K-linear f : V → W fica inteiramente


determinada pelas imagens f (e1 ), . . . , f (en ), pois qualquer vector v ∈ V se escreve de modo
único como combinação linear dos vectores da base e depois basta usar a linearidade de f .
Fixando também uma base e01 , . . . , e0m de W poderemos escrever
m
X
f (ei ) = bij e0j . (1.15)
j=1

Donde, a cada escolha de um par de bases temos uma e uma só matriz associada à aplicação
linear dada. Em suma, se fixarmos uma base teremos um isomorfismo V ' Kn ; se fixarmos
também uma base de W teremos um isomorfismo L(V, W ) ' L(Kn , Km ) ' Mn×m (K), o
espaço das matrizes n por m e coeficientes em K.
Contudo, para os fins da geometria diferencial, o estudo de Kn e das matrizes não se
pode identificar com o estudo dos espaços vectoriais e aplicações lineares.

Exercı́cios
2
Aqui temos um exemplo de uma sucessão exacta

0 −→ F −→ V −→ V /F −→ 0,

ou seja, cada flecha tem imagem igual ao núcleo da flecha seguinte (e 0 designa o espaço vectorial nulo {0}).
Este diagrama remete-nos para outro, análogo, que surge com a soma directa. Mas repare-se que não existe
forma canónica de escrever V = F ⊕ V /F ...
1.2 Topologia 9

1. Seja K0 um subcorpo de K e V um espaço vectorial sobre K. Mostre que V é espaço


vectorial sobre K0 . Mostre que Cn é espaço vectorial sobre R de dimensão 2n.

2. Mostre que Kn não é corpo, para n ≥ 2 e com produto definido pelo produto compo-
nente a componente em K.

3. Seja f : V → W uma aplicação linear entre dois espaços vectoriais sobre K. Seja
e1 , . . . , en uma base de V . Prove que f é um monomorfismo se, e só se, os vectores
f (e1 ), . . . , f (en ) são linearmente independentes; e que f é um epimorfismo se, e só se,
os vectores f (e1 ), . . . , f (en ) geram W .

4. Descreva um isomorfismo L(K, V ) ' V .

5. Seja V um espaço vectorial de dimensão n e seja p < n. Mostre que qualquer sistema
de p vectores linearmente independentes se pode extender a uma base de V .

6. Seja Mn (K) o espaço vectorial das matrizes quadradas de ordem n e coeficientes


em K. Mostre que S = {X ∈ Mn : X = X T } (X T representa a transposta) e
Λ = {X ∈ Mn : X = −X T } são subespaços vectoriais reais e que Mn = S ⊕ Λ.
(Sugestão: repare que X = (X + X T )/2 + (X − X T )/2.) Recordamos que as matrizes
de S se dizem simétricas e as de Λ se dizem anti-simétricas.
T
7. Dado X ∈ Mn×n (C), seja X ∗ = X . Mostre que Mn×n (C) é soma directa (sobre R)
dos subespaços vectoriais reais das matrizes X tais que X = X ∗ (matriz hermı́tica)
e das matrizes Y tais que Y = −Y ∗ (matriz anti-hermı́tica).

1.2 Topologia
As noções principais da teoria dos espaços topológicos dominam a geometria diferencial. A
generalidade com que queremos abordar este campo da matemática, obriga-nos não só a
recordar as noções principais como a conhecer algumas das suas mais fortes consequências.

1.2.1 Espaços topológicos


Dizemos que um conjunto X é um espaço topológico se a ele estiver atribuı́da uma
topologia, isto é, uma escolha de um subconjunto A do conjunto das partes de X tal que

∅, X ∈ A,
se {Uα } é uma famı́lia qualquer de elementos de A, então ∪α Uα ∈ A, (1.16)
e se U1 , . . . , Um são m (finito) elementos de A, então ∩m
i=1 Ui ∈ A.
10 Capı́tulo 1. Material preparatório

Os elementos de A dizem-se abertos; os seus complementares são os fechados. Devido


a esta dualidade prova-se que a topologia pode ser descrita pelos fechados, devendo estes
satisfazer: ∅, X são fechados, a intersecção de qualquer famı́lia de fechados é fechada e a
união finita de fechados é fechada. Aos subconjuntos de X que contêm abertos que contêm
um dado ponto ou elemento x de X dá-se o nome de vizinhanças de x.

Duas topologias ocorrem naturalmente sobre qualquer conjunto X: a discreta, PX ,


onde todos os subconjuntos de X são considerados abertos, e a caótica, onde apenas o
vazio e o espaço todo são abertos. Temos de facto duas topologias.

Dadas duas topologias A1 e A2 de X dizemos que A1 é mais fina que A2 , ou que esta
é menos fina que a primeira, se A1 ⊇ A2 . Note-se que a topologia mais fina é a que tem
mais abertos. Portanto, PX é a mais fina e a topologia caótica é a menos fina de todas.

Teorema 1.2.1. Para qualquer conjunto B de partes de um conjunto X existe uma topologia
em X com a propriedade de ser a menos fina que contém B.

Demonstração. Começamos por notar que a intersecção, A = ∩ι Aι , de qualquer famı́lia de


topologias de X é uma topologia de X. Com efeito, ∅, X ∈ A porque estão em todas; se
{Uα } é uma famı́lia3 de abertos em todas as topologias Aι , então ∪α Uα está em todos os
Aι e portanto em A; o mesmo sucede para a intersecção finita de abertos.
Agora, para demonstrar o teorema basta fazer a intersecção de todas as topologias de
X que contêm B. Tal famı́lia é não vazia: PX é uma dessas topologias. ¤

Aquela topologia minimal dada pelo teorema diz-se gerada por B.

Seja X um espaço topológico e M ⊂ X. x ∈ X diz-se aderente a M se cada vizinhança


de x contém pelo menos um ponto de M . Denota-se por M a aderência ou fecho de M ,
isto é, o conjunto dos pontos aderentes a M e tem-se que M é fechado se, e só se, M = M .
Dizemos que M é denso em X se M = X. Um ponto x ∈ X é um ponto de acumulação
de M se cada vizinhança de x contém pelo menos um ponto de M distinto de x.

Um conjunto B de abertos de X é uma base da topologia de X se qualquer aberto é


reunião de abertos de B. O mesmo é dizer

∀U aberto, ∀x ∈ U, existe Vx ∈ B : x ∈ Vx ⊂ U. (1.17)

É fácil mostrar que a topologia gerada por B coincide com a original. Estas duas últimas
asserções provam que uma topologia em X fica bem determinada se conhecermos um sis-
tema fundamental de vizinhanças de cada um dos seus pontos, isto é, um sistema Bx
3
Denotamos uma famı́lia qualquer por { }α , não nos interessando especificar onde é que os ı́ndices estão a
variar: por isso é que dizemos famı́lia e não conjunto. Se essa famı́lia for numerável, usamos então a notação
{ }n∈N .
1.2 Topologia 11

de vizinhanças de x com a propriedade de outra qualquer vizinhança conter sempre uma


das de Bx . Recı́procamente:

Proposição 1.2.1. Dada uma famı́lia B de subconjuntos de um conjunto X qualquer, B


é base da topologia gerada por si se, e só se: (i) X é união dos elementos de B; (ii) dados
V1 , V2 ∈ B, se x ∈ V1 ∩ V2 , então existe V3 ∈ B : x ∈ V3 ⊂ V1 ∩ V2 .

Demonstração. É fácil verificar que as condições (i) e (ii) são necessárias. Para ver que são
suficientes basta ver que B é a base de alguma topologia. Consideramos, mesmo, aquela em
que os abertos são as uniões de conjuntos de B. Isto é uma topologia porque ∅ é a união
vazia; porque se tem (i); porque a união de uma famı́lia de uniões de elementos de B é uma
união de elementos de B; e finalmente porque, se Ui = ∪α Vi,α , i = 1, 2, Vi,α ∈ B, então
[ [
U1 ∩ U2 = V3,α,α0 , (1.18)
α,α0 x∈V1,α ∩V2,α0

onde os V3,α,α0 são dados por (ii), o que prova que qualquer intersecção finita de abertos é
um aberto. ¤

Um espaço topológico que admite uma base numerável4 (diz-se que satisfaz o segundo
axioma da enumerabilidade) conterá necessariamente um subconjunto denso. Um espaço
topológico contendo um conjunto numerável e denso chama-se separável.

Uma famı́lia {Uα } de subconjuntos de X diz-se uma cobertura de X se X = ∪α Uα .


A cobertura diz-se aberta (respectivamente fechada, finita) se os conjuntos Uα forem
abertos (respectivamente fechados, em número finito). Se uma subfamı́lia dos {Uα } for
ainda uma cobertura de X, então diz-se que é uma subcobertura de X.

Proposição 1.2.2 (Lindelöf). Suponhamos que X tem uma base enumerável. Então de
qualquer cobertura aberta de X pode-se extrair uma subcobertura enumerável.

Demonstração. Seja {Oα } uma cobertura aberta e seja {Un } uma base numerável. Seja
x ∈ X. Como este ponto está nalgum dos abertos Oα , existe então algum Un,x tal que
x ∈ Un,x ⊂ Oα . A totalidade desses Un,x é ainda numerável e cobre X. A cada n associamos
agora um dos Oα que contêm Un,x , formando assim uma subcobertura da cobertura de X
inicial. ¤

Um subespaço topológico do espaço topológico X é um subconjunto Y de X munido


da topologia induzida, isto é, os abertos de Y são intersecções de Y com abertos de X.
4
Enumerável , numerável ou ainda contável são palavras sinónimas e significam que se pode contar, isto
é, que um dado conjunto é finito ou que está em correspondência biunı́voca com os números naturais.
12 Capı́tulo 1. Material preparatório

Mostra-se, com efeito, que tais restrições induzem uma estrutura de espaço topológico em
Y.

Uma topologia diz-se de Hausdorff se quaisquer dois pontos têm vizinhanças disjuntas5 .
Um subespaço de um espaço topológico de Hausdorff é um espaço topológico de Hausdorff,
como é imediato verificar.

As seguintes noções são fundamentais. Dizemos que um espaço topológico X é com-


pacto se X for de Hausdorff e se, de qualquer cobertura aberta de X, se puder extrair uma
subcobertura finita. Esta última é conhecida como a condição de Heine-Borel.

Proposição 1.2.3. Seja X um compacto e Y um subespaço topológico fechado. Então Y


é compacto.

Demonstração. Já vimos que Y também é Hausdorff. Supondo agora que {Vα } é uma
cobertura aberta de Y , tem-se que para cada α existe Uα aberto em X tal que Vα = Y ∩ Uα .
Então aqueles abertos de X juntamente com o aberto X\Y formam uma cobertura aberta
de X, donde, por hipótese, se pode extrair uma subcobertura finita. Voltando a intersectar
os elementos desta subcobertura com Y obtemos o resultado procurado. ¤

Igualmente esclarecedor é o seguinte resultado.

Proposição 1.2.4. Se X é um espaço de Hausdorff e Y um subespaço topológico compacto,


então Y é fechado em X.

Demonstração. Vejamos que o complementar de Y é aberto. Seja x um elemento de X\Y .


Como X é Hausdorff, para cada y ∈ Y existem vizinhanças abertas Uy de x e Vy de y que
não se intersectam. Estas vizinhanças dos pontos de Y formam uma sua cobertura e logo,
por ser compacto, podemos extraı́r uma subcobertura finita. Sendo então Y ⊂ Vy1 ∪. . .∪Vyk ,
fica provada a existência de um aberto Uy1 ∩ . . . ∩ Uyk contendo x e não intersectando Y ,
como querı́amos. ¤

Um espaço X é conexo se as suas únicas partes simultâneamente abertas e fechadas


são X e o vazio. De maneira equivalente, X é conexo se não for união de dois subconjuntos
abertos, não vazios e disjuntos. A demonstração resulta de pensarmos no complementar de
um conjunto simultâneamente aberto e fechado, pelo que a asserção anterior também vale
com o termo ‘fechados’.

5
Também se pode dizer que a topologia é separada.
1.2 Topologia 13

1.2.2 Aplicações contı́nuas


Seja f : X → Y uma aplicação entre dois espaços topológicos X e Y , e seja x ∈ X. Dizemos
que f é contı́nua em x se

∀V viz. de f (x) em Y, ∃U viz. de x em X : f (U ) ⊂ V. (1.19)

Dizemos que f é contı́nua em X se o for em todos os pontos de X. Não é demais salientar


que a noção de continuidade é uma noção local , ie. só depende da função numa vizinhança
de cada ponto.

Proposição 1.2.5. Uma função f : X → Y é contı́nua em X se, e só se, a imagem inversa
de qualquer aberto em Y é aberta em X.

Demonstração. Tem-se imediatamente que a condição é suficiente. Vejamos que é neces-


sária. Sendo V um aberto em Y , queremos ver que f −1 (V ) = {x ∈ X : f (x) ∈ V } é aberto
em X. Ora, para cada ponto x desta imagem inversa, como V é uma vizinhança de f (x) e
f é contı́nua, existe uma vizinhança U de x tal que f (U ) ⊂ V , ou seja, U ⊂ f −1 (V ) e logo
este conjunto é aberto em X. ¤

Uma vez que o conjunto f −1 (Y \A) é composto de elementos de X que têm imagem
em Y e não em A, ou seja, é igual a f −1 (Y )\f −1 (A), qualquer que seja o subconjunto A,
também podemos enunciar a proposição anterior dizendo que f é contı́nua em X se, e só se,
a imagem inversa de um fechado em Y é fechada em X. Supondo dadas funções contı́nuas
g : Y → Z e f : X → Y , vê-se logo, pela proposição, que g ◦ f : X → Z é uma função
contı́nua. Outra propriedade notável é a que segue.

Proposição 1.2.6. Se f : X → Y é contı́nua e X é conexo, então f (X) com a topologia


induzida de Y é conexo.

Demonstração. Seja Z ⊂ f (X) um subconjunto simultâneamente aberto e fechado, não


vazio. Existem então um aberto Z 0 e um fechado Z 00 de Y tais que Z = f (X) ∩ Z 0 =
f (X) ∩ Z 00 , como exigem as definições. De tais subconjuntos Z 0 e Z 00 descobre-se logo que
as suas imagens inversas são iguais à imagem inversa de Z por f . Assim f −1 (Z) = X, por
este ser conexo; o que implica por outro lado que Z = f (X). ¤

Uma aplicação diz-se aberta se a imagem directa de qualquer aberto é um aberto;


uma aplicação f : X → Y chama-se um homeomorfismo se f for bijectiva, contı́nua e se
f −1 : Y → X for contı́nua. Em virtude de 1.2.5, podemos dizer que um homeomorfismo é
uma aplicação que é bijectiva, contı́nua e aberta.

Igualmente importante é o resultado seguinte, cuja prova envolve manipulações seme-


lhantes à anterior.
14 Capı́tulo 1. Material preparatório

Proposição 1.2.7. Seja f : X → Y uma função contı́nua com espaço de chegada de


Hausdorff. Se X é compacto, então f (X) com a topologia induzida de Y é compacto.

Com a conhecida topologia da recta real gerada pelos intervalos abertos, temos o im-
portante resultado seguinte generalizando outro de Weierstrass:

Corolário 1.2.1 (Weierstrass). Seja f : X → R uma função contı́nua sobre um espaço X


compacto. Então f admite um máximo e um mı́nimo.

1.2.3 Topologias produto e quociente


Duas últimas definições que permitem produzir novos espaços. Dados dois espaços topo-
lógicos X e Y consideramos no produto cartesiano X × Y a topologia produto, que é
gerada pelos produtos cartesianos U × V de abertos U em X e V em Y . Daqui resulta sem
dificuldade que as duas projecções π1 : X × Y → X e π2 : X × Y → Y são contı́nuas e
abertas. Também, por exemplo fixando x ∈ X, a inclusão

Y −→ X × Y
(1.20)
y 7−→ (x, y)

é uma aplicação contı́nua.

Proposição 1.2.8. Dois espaços topológicos X, Y são ambos, respectivamente, de Haus-


dorff, separáveis, compactos ou conexos se, e só se, X × Y é um espaço, respectivamente,
de Hausdorff, separável, compacto ou conexo.

Demonstração. A condição é suficiente porque as projecções π1 , π2 são contı́nuas e abertas.


Assim, se o produto é de Hausdorff e x1 , x2 ∈ X, tomamos y ∈ Y e vizinhanças disjuntas
W1 , W2 respectivamente de (x1 , y), (x2 , y) em X × Y . Estas conterão por definição, respec-
tivamente, vizinhanças abertas U1 × V1 e U2 × V2 daqueles pontos. Claro que estas serão
disjuntas e U1 e U2 disjuntos serão, provando que X é de Hausdorff. O mesmo se faz,
mutatis mutandis, para Y . Quanto à separabilidade, se {(xj , yj )} é um conjunto numerável
denso, fazemos um truque como o anterior e provamos que {xj } é um conjunto denso em
X. Finalmente, se X × Y é compacto ou conexo, então π1 (X × Y ) = X é, respectivamente,
compacto ou conexo pelas proposições 1.2.6 e 1.2.7.
Vejamos que a condição é necessária. Suponhamos primeiro que {xj },{yj } são conjun-
tos numeráveis e densos respectivamente em X e Y . Então {(xi , yj )}i,j∈N também é um
conjunto numerável e é denso em X × Y : qualquer vizinhança W de (x, y) contém uma
vizinhança do tipo U × V , com U aberto em X e V aberto em Y , e por aı́ se vê que W
intersecta o conjunto numerável. Logo X × Y é separável. Agora suponhamos X, Y de
Hausdorff. Dados (x1 , y1 ), (x2 , y2 ) ∈ X × Y dois pontos distintos, podemos supôr sem perda
de generalidade que x1 6= X − 2. Como existem vizinhanças U1 de x1 e U2 de x2 em X
1.2 Topologia 15

tais que U1 ∩ U2 = ∅, resulta então que U1 × Y ∩ U2 × Y = ∅ o que prova que o produto


cartesiano é de Hausdorff.
Para finalizar suponhamos X, Y compactos e seja {Wα } uma cobertura aberta de X ×Y .
Então para cada x ∈ X existem α1x , . . . , αkxx dos α’s, em número finito, tais que os respectivos
Wαxi , i = 1, . . . , kx , cobrem {x} × Y . Prova-se sem grande dificuldade, usando de novo a
compacidade de Y , que existe vizinhança aberta Ux de x em X tal que

Ux × Y ⊂ Wαx1 ∪ . . . ∪ Wαxk .
x

Agora, a famı́lia dos Ux forma uma cobertura aberta de X, pelo que podemos extraı́r uma
subcobertura finita Ux1 , . . . , Uxl . Daqui resulta que a famı́lia finita {Wαxj }, j = 1, . . . , l, i =
i
1, . . . , kx , forma uma subcobertura de X × Y , como querı́amos. Deixamos como exercı́cio a
demonstração de que, se X, Y são conexos, então o produto cartesiano é conexo. ¤

Finalmente temos a definição de topologia quociente. Suponhamos que X é um espaço


topológico e f : X → Y é uma aplicação para um conjunto Y qualquer. Podemos então
munir Y de uma topologia: aquela que é gerada pelos subconjuntos V tais que f −1 (V ) é
aberto em X. Temos com efeito a topologia menos fina que faz f ser contı́nua.
Mais ainda, nesta topologia os abertos de Y são precisamente os W ⊂ Y tais que f −1 (W )
é aberto em X, pois se W = ∪α Vα com os Vα abertos em Y , então f −1 (W ) = ∪α f −1 (Vα ) é
aberto em X.

Exercı́cios
1. Seja B a base de uma topologia A. Mostre que a topologia gerada por B coincide
com A.

2. Sejam A, B dois subconjuntos conexos de um espaço topológico X. Mostre que A ∪ B


é conexo se, e só se, A ∩ B 6= ∅ ou A ∩ B 6= ∅. (Referimo-nos à topologia induzida).

3. Sejam A, B subconjuntos de um espaço topológico X. Suponha A conexo e A ⊂ B ⊂


A. Mostre que B é conexo. Conclua que A é conexo.

4. Seja f : X → Y uma aplicação entre dois espaços topológicos. Seja B uma base de Y .
Prove que f é contı́nua se, e só se, f −1 (U ) é aberto qualquer que seja U ∈ B.

5. Demonstre as proposições 1.2.6 e 1.2.7. Agora, sejam X compacto, Y de Hausdorff e


f : X → Y bijectiva e contı́nua. Prove que f é um homeomorfismo.

6. Descreva a topologia produto de Rn . Mostre que as funções (u, v) 7→ u + v e (λ, u) 7→


λu são contı́nuas, u, v ∈ Rn , λ ∈ R. Caso n = 1, mostre que u/v é contı́nua (v 6= 0).
16 Capı́tulo 1. Material preparatório

7. Mostre que todas as funções polinomiais Rn → R são contı́nuas. O mesmo para as


funções racionais (razão entre dois polinómios), no seu domı́nio.

8. Seja X um espaço topológico e W ⊂ X. x ∈ X diz-se um ponto interior a W se


existe uma vizinhança de x em X contida em W . x diz-se fronteiro a W se qualquer
sua vizinhança intersecta W e X\W . Um ponto x diz-se exterior a W se não for
interior nem fronteiro. Mostre que qualquer x ∈ X está somente num dos três casos
anteriores. Mostre que W é aberto se, e só se, todos os seus pontos são interiores.
Mostre que um ponto é interior a W se, e só se, é exterior a X\W . Mostre que
W = {pontos interiores ou fronteiros}.

9. Mostre que R é separável. O mesmo para Rn . Indique os pontos interiores, fronteiros,


exteriores, aderentes e de acumulação dos subconjuntos Q∩]0, 1] e {(1 + n1 )n }n∈N .

10. Seja f : X → Y uma função entre dois espaços topológicos. Seja a ∈ X. Dizemos
que b é o limite de f em a, e escrevemos limx→a f (x) = b, se qualquer que seja a
vizinhança V de b existe uma vizinhança U de a tal que f (U ) ⊂ V . Mostre que f é
contı́nua em a se, e só se, limx→a f (x) = f (a).

11. Defina o limite de sucessões num espaço topológico. Mostre que num espaço de Haus-
dorff o limite, quando existe, é único.

12. Sejam f : X → Rn uma função contı́nua em a ∈ X (cf. exercı́cio 6) e limitada numa


vizinhança U de a (ie. a imagem f (U ) está dentro de um intervalo limitado [−L, L]n ).
Seja g : X → R uma função tal que limx→a g(x) = 0. Mostre que limx→a (f g)(x) = 0.

13. Seja f : X → Y contı́nua e A ⊂ X, B ⊂ Y subespaços topológicos. Denotando


a restrição de f a A por f|A : A → Y , mostre que f|A é contı́nua. Agora suponha
f (X) ⊂ B e pense em f como função de X em B. Mostre que esta é contı́nua.

14. Demonstre que se X, Y são conexos então X × Y é conexo. Mostre que X, Y têm base
numerável de abertos se, e só se, X × Y tem base numerável de abertos.

15. Seja f : X → Y × Z. Verifique que f é contı́nua se, e só se, são contı́nuas as suas
componentes em Y e em Z. Mostre que a função de R2 em R = R ∪ ∞ = S 1 (!)
definida por f (s, t) = |s/t| se t 6= 0 e f (s, 0) = ∞ não é contı́nua embora o sejam cada
uma das funções s 7→ f (s, t) e t 7→ f (s, t) (quando se consideram, respectivamente, t
e s fixos).

16. Mostre que, com a topologia quociente em Y , se f : X → Y é injectiva então f é


aberta. Mostre que se f é aberta e X tem base numerável de abertos, então Y tem
base numerável de abertos.

17. Os dois ‘sólidos’ da figura 1.1 serão homeomorfos? Imagine agora que eles se moldam
como se de uma matéria plástica se tratasse. Mostre que os dois sólidos se podem
transformar um no outro.
1.3 Espaços métricos 17

Figura 1.1: Homeomorfos? E “homotópicos”? Também.

18. Mostre que (X × Y ) × Z é homeomorfo a Y × (X × Z).

19. Sabendo que os intervalos |a, b| de R são conexos (o sı́mbolo | denota ‘aberto’ ou
‘fechado’), mostre que os intervalos |a1 , b1 | × · · · × |an , bn | de Rn são conexos. O
mesmo para as intersecções de intervalos deste tipo. E ainda para os complementares
de um intervalo noutro, se n > 1.

20. Mostre que a união numerável de numeráveis é numerável.

1.3 Espaços métricos


A matéria apresentada nesta secção é um subcapı́tulo da anterior, cujo interesse será óbvio
quando construirmos métricas sobre certos espaços da geometria riemanniana. A teoria
mais geral dos espaços topológicos permite uma introdução rápida dos espaços métricos,
mas uns e outros mais tarde é que se revelarão.

1.3.1 Noções principais


Dá-se o nome de espaço métrico a um conjunto X fornecido de uma aplicação d : X ×X →
[0, +∞[, chamada distância, que satisfaz as seguintes propriedades:

d(x, y) = 0 se, e só se, x = y,


d(x, y) = d(y, x) (simetria), (1.21)
d(x, z) ≤ d(x, y) + d(y, z) (desigualdade triangular ),
18 Capı́tulo 1. Material preparatório

quaisquer que sejam os pontos x, y, z ∈ X. Fixada aquela estrutura, podemos considerar


em X a topologia (dita de espaço métrico) gerada pelas bolas abertas, isto é, pelo sistema
de vizinhaças de um ponto x ∈ X
© ª
B(x, r) = y ∈ X : d(x, y) < r , r ∈ R+ . (1.22)

Proposição 1.3.1. As bolas abertas formam um sistema fundamental de vizinhanças na


topologia da métrica. A função d é contı́nua.

Demonstração. Para a primeira parte basta-nos ver que as bolas formam uma base, já que
elas já foram definidas em função dos pontos de X. Vamos aplicar a proposição 1.2.1,
conferindo (i) e (ii) daquele resultado. Ora, tem-se X = ∪x∈X B(x, 1). E, se x ∈ B(a, r) ∩
B(b, s), tome-se δ = min{r − d(x, a), s − d(x, b)}. Ter-se-á então x ∈ B(x, δ) ⊂ B(a, r) ∩
B(b, s), pois, se y está na primeira bola, então

d(y, a) ≤ d(y, x) + d(x, a) ≤ r − d(x, a) + d(x, a) = r

e pela mesma razão se prova que d(y, b) ≤ s, ou seja, y está na intersecção B(a, r) ∩ B(b, s),
como querı́amos.
Para provar que d é contı́nua, seja (x, y) ∈ X × X e seja ² > 0. Queremos encontrar
uma vizinhança W de (x, y), na topologia produto, tal que

d(W ) ⊂ ]d(x, y) − ², d(x, y) + ²[ .

Tomamos então W = B(x, ²/2) × B(y, ²/2), donde virá para qualquer par (z, w) ∈ W

d(x, y) − d(z, w) ≤ d(x, z) + d(z, w) + d(w, y) − d(z, w) < ²,

bem como
d(z, w) − d(x, y) ≤ d(z, x) + d(x, y) + d(y, w) − d(x, y) < ²,
permitindo concluir |d(x, y) − d(z, w)| < ². ¤

Todo o espaço métrico é de Hausdorff. Mais ainda, todo o espaço métrico é normal,
ie. é um espaço topológico de Hausdorff tal que quaisquer dois fechados disjuntos possuem
vizinhanças disjuntas. Em geral, um qualquer espaço topológico diz-se metrisável se a
sua topologia provem de uma métrica. Se isto acontece, então ele tem de ser normal e
verificar o primeiro axioma da enumerabilidade: todo o ponto tem um sistema fundamental
de vizinhanças enumerável.

Já vimos que um espaço topológico com base numerável é separável. No capı́tulo dos
espaços métricos tem-se a recı́proca.

Proposição 1.3.2. Um espaço métrico X tem uma base numerável se, e só se, X é se-
parável.
1.3 Espaços métricos 19

Demonstração. Suponhamos que X é separável, ou seja, existe {xn }n∈N subconjunto denso
em X. Podemos então considerar a base de X definida por
© 1
ª
B(xn , m ) : n, m ∈ N

que é numerável porque N × N é equipotente a N. ¤

Dizemos que um espaço métrico X é pré-compacto6 se, qualquer que seja ² > 0, existe
uma cobertura finita de X por meio de bolas de raio ². Isto é equivalente à existência de um
subconjunto finito F tal que, ∀x ∈ X, a distância de x a F é menor que ². Naturalmente,
a distância entre dois subconjuntos A, B ⊂ X é definida por

d(A, B) = inf{d(x, y) : x ∈ A, y ∈ B}. (1.23)

Outra noção relevante é a de diâmetro de um conjunto A ⊂ X. Trata-se do valor, eventu-


almente infinito,
diam(A) = sup{d(x, y) : x, y ∈ A}. (1.24)
Diz-se, então, que A é limitado se o seu diâmetro é finito; o que é equivalente a A estar
contido nalguma bola. Prova-se facilmente que todo o espaço pré-compacto é limitado.

Lema 1.3.1. Todo o espaço métrico pré-compacto é separável.

Demonstração. Por definição, para cada n natural, existe An finito tal que, ∀x ∈ X, se tem
d(x, An ) < n1 . Tomando A = ∪n An vem que A é numerável e resulta que, para cada x,
existe an ∈ A tal que d(x, an ) < n1 , donde x ∈ A. Ou seja, A é numerável e denso em X. ¤

1.3.2 Espaços métricos completos


Nos espaços métricos convem abordar as questões relacionadas com infinitésimos. Dado
um tal espaço X, munido da habitual distância d, dizemos que uma sucessão {xn }n∈N de
pontos7 de X converge para x ∈ X se d(xn , x) → 0 (aqui trata-se da convergência na
topologia de R). Também se pode dizer que x é o limite de xn . É um exercı́cio, quase
imediato, verificar que S = {xn }n∈N ⊂ X contém alguma subsucessão8 convergente se, e só
se, S admite algum ponto de acumulação.

Numa sucessão convergente os seus pontos aproximam-se uns dos outros, tendo por
limite um determinado ponto. Podemos supôr, contudo, que existem sucessões cujos termos
6
Também se pode chamar totalmente limitado.
7
Consideraremos sempre que as sucessões têm infinitos pontos distintos entre si. Portanto não têm sequer
subsucessões constantes.
8
Recordamos que uma subsucessão de {xn } é uma escolha ordenada de alguns dos xn , ou seja, é uma
sucessão {xnk }k∈N com k 7→ nk crescente.
20 Capı́tulo 1. Material preparatório

se aproximam uns dos outros e das quais se desconhece à partida se têm ou não limite. São
as chamadas sucessões de Cauchy {xn }n∈N em X:

∀δ > 0, ∃p : n, m > p ⇒ d(xn , xm ) < δ. (1.25)

Se no espaço métrico X todas as sucessões de Cauchy são convergentes, então X diz-se


completo (recorde-se que esta propriedade é conhecida da construção da recta real, sendo
equivalente ao “teorema dos intervalos encaixados”).

Imediatamente se constata que qualquer subconjunto Y de um espaço métrico X herda


uma estrutura de espaço métrico: basta tomar a restrição da aplicação distância a esse
subconjunto. Claro que, então, a topologia de Y coincide com a topologia induzida pela
do espaço maior. Se X for completo e Y for fechado, então Y também é completo, pois
qualquer sucessão de Cauchy em Y é sucessão de Cauchy em X e, como tal, possui limite.
Como os limites são pontos aderentes e Y = Y , conclui-se que o limite está em Y .

Nos espaços completos reaparecem resultados fundamentais do caso especial, bem co-
nhecido, da recta real.

Teorema 1.3.1. Seja X um espaço métrico. As seguintes asserções são equivalentes:


(i) X é compacto;
(ii) de qualquer sucessão em X podemos extrair uma subsucessão convergente;
(iii) X é pré-compacto e completo.

Demonstração. (i)⇒(ii) Suponhamos que X é compacto e S = {xn }n∈N é uma sucessão


sem pontos de acumulação em X. Para cada k ∈ N, seja Sk = {xn }n≥k . Qualquer um
destes subconjuntos Sk é fechado porque não tem pontos aderentes além dos seus próprios
pontos. É claro que

[
X= X\Sk ,
k=1
pelo que daqui e da hipótese podemos extrair uma subcobertura finita:

X = X\Sk1 ∪ . . . ∪ X\Skl . (1.26)

Mas isto é absurdo, porque, sendo ki = max{k1 , . . . , kl }, vemos que Ski não está contido
no lado direito da igualdade (1.26). S tem de ter algum ponto de acumulação; logo de S
podemos extrair uma subsucessão convergente.
(ii)⇒(iii) É imediato que X é completo, pois uma sucessão de Cauchy, admitindo por
hipótese uma subsucessão convergente, tem de convergir e para o mesmo limite.
Provemos agora que X é pré-compacto. Seja ² um real > 0 qualquer. Escolhamos
x1 ∈ X, x2 ∈ X\B(x1 , ²), x3 ∈ X\(B(x1 , ²) ∪ B(x2 , ²)) e assim por diante. Supondo que
não se tem pré-compacidade, podemos construir uma sucessão {xn }n∈N tal que

xn+1 ∈
/ B(x1 , ²) ∪ . . . ∪ B(xn , ²). (1.27)
1.3 Espaços métricos 21

Existe, por hipótese, uma subsucessão {xnk }k∈N da sucessão construı́da, que é convergente.
Chamando x̂ ∈ X ao seu limite, existe então uma ordem k0 tal que xnk ∈ B(x̂, ²/2), ∀k > k0 .
Mas então teremos de ter xnk+1 ∈ B(xnk , ²), porque

d(xnk+1 , xnk ) ≤ d(xnk+1 , x̂) + d(x̂, xnk ) < ²,

em contradição com (1.27).


(iii)⇒(i) Suponhamos que X é pré-compacto e completo. Do lema 1.3.1 vem que X é se-
parável. Da proposição 1.3.2 resulta então que X tem uma base numerável, e da proposição
1.2.2 concluimos que nos basta considerar coberturas abertas de X enumeráveis, para ver
que X é compacto.
Tal como as anteriores, esta demonstração far-se-á por redução ao absurdo. Seja X =
∪n Un uma cobertura enumerável qualquer. Pensando naquela reunião como
∞ [
[ n
X= Ui ,
n=1 i=1

podemos já supôr que Un ⊂ Un+1 .


Tomemos agora, para cada natural n, um xn ∈ X\Un . Note-se que o caso estaria
resolvido se um destes conjuntos X\Un fosse vazio. Vejamos que S = {xn }n∈N tem um
ponto de acumulação. Existe uma cobertura
(1) (1)
X = B(y1 , 12 ) ∪ . . . ∪ B(yk1 , 21 ),
(1)
por X ser pré-compacto. Segue que S tem uma parte infinita S 1 nalgum B(yi1 , 21 ). Usando
de novo a pré-compacidade de X e excluindo logo as bolas distantes, vemos que se pode
considerar de novo uma união finita
(1) (2) (2) (1)
B(yi1 , 21 ) ⊂ B(y1 , 14 ) ∪ . . . ∪ B(yk2 , 41 ) ⊂ B(yi1 , 1),
(2)
e deduzir que S 1 tem uma parte infinita S 2 nalgum B(yi2 , 41 ). Podemos assim construir
uma sucessão de subconjuntos infinitos
(m) (m−1)
S m ⊂ B(yim , 21m ) ⊂ B(yim−1 , 2m−2
1
).
(m) (p) (q) 1
Como os pontos yim se aproximam uns dos outros, d(yip , yiq ) < 2p−2
se q > p, e como
(m)
X é completo, deduz-se que a sucessão {yim }
converge para algum ponto ŷ. Ora, também
m
se podem escolher pontos xim ∈ S , e construir uma subsucessão de {xn } que, estando
dentro daquelas bolas, terá de convergir; para o mesmo limite ŷ. Este é por isso um
ponto de acumulação de S. Repare-se que ŷ ∈ / Un , qualquer que seja n. Caso contrário,
se pertencesse a um Uk , viria xm ∈ Uk , ∀m a partir de certa ordem, o que é falso por
construção. Finalmente, devemos concluir que

\
ŷ ∈ X\Un .
n=1

Mas este conjunto é vazio, pelo que chegamos a um absurdo. ¤


22 Capı́tulo 1. Material preparatório

A condição (ii) apresentada no teorema9 é conhecida como o teorema de Bolzano--


Weierstrass.

Recorde-se que a topologia usual de R também vem de uma métrica e que, por construção
dos números reais, R é completo. Deixamos como exercı́cio a verificação de que a topologia
produto de Rn é também dada pela distância
© ª
d(x, y) = max |yi − xi | : i = 1, . . . , n (1.28)

∀x, y ∈ Rn . O exercı́cio é imediato já que B(x, ²) =]x1 − ², x1 + ²[× · · · ×]xn − ², xn + ²[.
Claramente obtemos um espaço completo pois uma sucessão é de Cauchy em Rn se, e só
se, as suas componentes são de Cauchy em R. Posto isto, temos o seguinte:

Corolário 1.3.1. A ⊂ Rn é compacto se, e só se, A é fechado e limitado.

Demonstração. Começemos por supôr A compacto. Então A é pré-compacto e logo limi-


tado. Seja a ∈ A; prova-se fácilmente que existe sucessão xk → a com os xk ∈ A. Pelo
teorema existe uma subsucessão de xk que converge em A; mas as subsucessões convergem
para o mesmo limite que as sucessões quando estas convergem. Logo só podemos ter a ∈ A.
Agora suponhamos A fechado e limitado. Então A é completo, como se observou antes do
teorema. Vejamos que A é pré-compacto. Seja ² > 0 qualquer. Uma vez que consideramos
a topologia induzida, só queremos ver que A está contido numa união finita de bolas de raio
². Seja e1 , . . . , en a base canónica de Rn e considere-se o conjunto
² ²
I = Ze1 + · · · + Zen .
4 4
Existe um subconjunto finito I = {yi } contido em I tal que A ⊂ ∪yi ∈I B(yi , ²/2), porque
A é limitado. Supomos desde já que cada uma das bolas tem intersecção não vazia com A.
Assim, para cada yi ∈ I podemos escolher xi ∈ B(yi , ²/2) ∩ A. Então a união das bolas
B(xi , ²) cobre A, pois sendo a ∈ A, existe algum yi ∈ I tal que d(yi , a) < ²/2. Logo
² ²
d(xi , a) ≤ d(xi , yi ) + d(yi , a) < + =²
2 2
como querı́amos. Encontrámos uma cobertura finita formada de bolas de raio ²; está provado
que A é pré-compacto. Como também é completo, concluimos que A é compacto pelo
teorema. ¤

Necessitaremos de considerar outros ‘espaços vectoriais topológicos’ além de Rn . Seja


V um espaço vectorial sobre K. Uma norma em V é uma aplicação k k : V → [0, +∞[ que
verifica:
kuk = 0 ⇔ u = 0, kλuk = |λ|kuk, ku + vk ≤ kuk + kvk (1.29)
9
Tendo surgido no século XIX a propósito do estudo dos subconjuntos compactos de C. A condição de
Heine-Borel é mais recente — uma nota cronológica pontual que talvez ajude no concerto das ideias.
1.3 Espaços métricos 23

∀u, v ∈ V, ∀λ ∈ K. O par (V, k k) diz-se então um espaço vectorial normado. Prova-se


fácilmente (exercı́cio 4) que toda a norma define uma distância em V e logo que, com a
topologia da métrica, as operações de adição e multiplicação por escalar são contı́nuas.

Corolário 1.3.2. Suponhamos que V é um espaço vectorial normado de dimensão finita


n. Seja v1 , . . . , vn uma base de V . Então o isomorfismo f : Rn → V definido por

f (x1 , . . . , xn ) = x1 v1 + · · · + xn vn (1.30)

é um homeomorfismo.

Demonstração. Por linearidade e pelas observações precedentes, é imediato verificar que


qualquer aplicação linear é contı́nua se, e só se, ela é contı́nua no ponto 0. Vejamos então
que f é contı́nua em 0. Tem-se
n
X
0 ≤ kf (x)k ≤ |xi |kvi k
i=1

pelo que o limite de f (x) quando x = (x1 , . . . , xn ) → 0 é nulo, ou seja igual a f (0). Usando
o critério dado no exercı́cio 1, concluı́mos que f é contı́nua.
Vejamos a continuidade de f −1 em 0 invocando o critério anterior. Seja {v k } uma
sucessão em V tal que v k → 0 e f −1 (v k ) = xk ∈ Rn . Podemos já supôr que todos os v k
são não nulos, ou que excluı́mos os vectores nulos daquela sucessão. Seja tk = max{|xki | :
i = 1, . . . , n}. Vamos denotar ainda pelo mesmo tk uma subsucessão dos tk , supondo que
existe, que não tem 0 como ponto de acumulação10 . Então
³ xk ´ ¯ xk ¯
¯ ¯
d , 0 = max¯ i ¯ = 1.
tk i tk

Pelo coroário anterior o conjunto fechado e limitado Q = {y ∈ Rn : d(y, 0) = 1} é compacto,


logo pelo teorema 1.3.1 a sucessão {xk /tk } admite uma subsucessão convergente em Q. Seja
então xkj /tkj essa subsucessão, com limite x ∈ Q. Então, por f ser linear e contı́nua, vem
que
³ xkj ´ v kj
lim f = lim = f (x) = u
j tkj j tk j

e logo, como x 6= 0, vem u 6= 0. Daqui resulta

kv kj k 0
lim tkj = lim = =0
j j v kj kuk
k tk k
j

o que é absurdo. Concluimos que todas as subsucessões têm 0 como ponto de acumulação.
Pelo exercı́cio 2 resulta que a sucessão tk → 0; o que implica que xk tende para 0, como
querı́amos demonstrar. ¤
10
Ou seja, existe um ² > 0, tal que todos os tk verificam |tk | ≥ ².
24 Capı́tulo 1. Material preparatório

Exercı́cios
1. Diz-se que uma sucessão S = {xn } num espaço topológico Y converge para x ∈ Y
se, ∀ vizinhança V de x, ∃p : n ≥ p ⇒ xn ∈ V . Usa-se então a notação xn → x
ou lim xn = x. Suponha agora que Y é um espaço métrico. a) Mostre que as
duas noções de convergência em Y já apresentadas coincidem. b) Mostre que uma
sucessão S = {xn } em Y tem alguma subsucessão convergente se, e só se, S admite
algum ponto de acumulação. c) Prove que entre espaços métricos X, Y a continuidade
de uma função f : X → Y num ponto a ∈ X é equivalente à seguinte condição:
∀{xn }, xn → a ⇒ f (xn ) → f (a).

2. Prove que se S = {xn } é uma sucessão num espaço métrico e todas as subsucessões
de S têm um mesmo ponto x ∈ S como ponto de acumulação, então xn → x.

3. Seja (X, d) um espaço métrico, A, B ⊂ X. Mostre que se A ∩ B 6= ∅, então d(A, B) =


0. Prove a recı́proca na hipótese de X ser compacto.

4. Seja V um espaço vectorial. Mostre que toda a norma definida em V induz uma
distância em V (sugestão: reflectir sobre (1.28)). Com essa topologia prove que
(u, v) 7→ u + v e (λ, v) 7→ λv são contı́nuas. Mostre que k(x1 , . . . , xn )k = maxi |xi |
define uma norma em Rn e que a topologia dada por esta norma é a usual (é chamada
a norma do máximo).

5. Sejam U, V, W três espaços vectoriais normados. Seja A ∈ L(V, W ) (espaço das


aplicações lineares de V para W ). Mostre que

kAk = sup kA(u)k (1.31)


kuk=1

define uma norma no subespaço vectorial L(V, W ) = {A ∈ L(V, W ) : kAk < +∞}.
Mostre que kA(u)k ≤ kAkkuk, ∀u ∈ V , e que, se B ∈ L(U, V ), então kA ◦ Bk ≤
kAkkBk. Em tendo tempo, mostre ainda que

kAk = inf{a ∈ R+ : kA(u)k ≤ akuk, ∀u ∈ V }. (1.32)

6. Seja V um espaço vectorial normado de dimensão finita. Utilize um argumento como


na demonstração do corolário 1.3.2 para mostrar que S = {v ∈ V : kvk = 1} é
compacto. (Sugestão: só falta ver que f −1 (S) é limitado, onde f : Rn → V é a
aplicação descrita em (1.30)).

7. Sejam V, W dois espaços vectoriais normados, com V de dimensão finita. Mostre


que L(V, W ) = L(V, W ). (Sugestão: utilize o corolário 1.3.2 para ver que qualquer
aplicação linear é contı́nua; depois use o exercı́cio 6). Conclua: independentemente
‘das bases’ ou das normas, todas as aplicações lineares partindo de um espaço de
dimensão finita são contı́nuas .
1.4 Mais conceitos da topologia 25

8. Mostre que quaisquer duas normas k k1 , k k2 em V de dimensão finita são equiva-


lentes, ou seja, existem constantes a, b > 0 tais que akuk1 ≤ kuk2 ≤ bkuk1 (sugestão:
estude Id : V → V ). Conclua pelo corolário 1.3.2 que V é completo. Mostre que se
L ⊂ V é limitado numa norma, então é limitado na outra.

9. Estude a norma euclidiana em Rn dada por k(x1 , . . . , xn )k2 = x21 + · · · + x2n .

1.4 Mais conceitos da topologia


Por vezes temos de ver as coisas com pormenor e com tempo; por exemplo para considerar
certas propriedades que são satisfeitas apenas localmente — este advérbio será usado para
criar muitos substantivos —, ou para encontrar condições que permitam construir funções
entre espaços. Falamos de tempo, além do mais, porque nesta secção optámos por suprimir
as demonstrações de certos resultados clássicos, que para a geometria nos pareceram de
somenos importância. O leitor sequioso de progredir na geometria poderá dispensar, por
agora, a presente exposição.

1.4.1 Duas questões sobre conexos


Começamos com duas noções globais. Um espaço topológico X é decomposto em partes
conexas. Para compreender isso estabelecemos uma relação entre os seus pontos

x ∼ y se existe um conexo A ⊂ X, x, y ∈ A, (1.33)

que é de equivalência (ver exercı́cio 2, secção 1.2 para provar a transitividade). A classe de
equivalência C(x) de cada ponto x ∈ X é chamada a componente conexa de x. É óbvio
que C(x) coincide com o maior subconjunto conexo de X ao qual x pertence. Como o fecho
de um conexo é conexo, cada componente conexa é um fechado.

Um espaço topológico diz-se conexo por arcos se quaisquer que sejam x, y ∈ X existe
uma aplicação contı́nua (uma curva) fx,y : [0, 1] → X tal que fx,y (0) = x, fx,y (1) = y. X
será em particular conexo porque as imagens fx,y ([0, 1]) são conexas e logo, ∀x, y ∈ X, y ∈
C(x). Donde C(x) = X, ∀x.

1.4.2 Várias propriedades definidas localmente


Seja de novo X um espaço topológico. Dizemos que X é localmente conexo (respecti-
vamente, localmente conexo por arcos) se cada ponto tem um sistema fundamental de
26 Capı́tulo 1. Material preparatório

vizinhanças conexas (respectivamente, conexas por arcos). Note-se que um espaço pode ser
conexo por arcos e não ser sequer localmente conexo.

Proposição 1.4.1. 1. Um espaço topológico é localmente conexo se, e só se, as componentes
conexas de qualquer aberto são abertas.
2. Um espaço topológico conexo e localmente conexo por arcos é conexo por arcos.

Demonstração. 1. A condição é necessária: seja U um aberto, A uma das suas componentes


conexas e x ∈ A. Por hipótese, existe uma vizinhança conexa de x contida em U . Logo
contida em A por definição, donde A é aberto. A condição é suficiente: tomamos para
sistema fundamental de vizinhanças de cada ponto x ∈ X as componentes conexas, que
contêm x, dos abertos que contêm x. Por hipótese elas são abertas, logo vizinhanças de
cada um dos seus pontos.
2. Fixamos x e consideramos o conjunto

X0 = {y ∈ X : existe curva ligando x a y}.

X0 é não vazio porque x ∈ X0 . A sua fronteira é vazia: se esta tivesse algum ponto z,
então ligávamo-lo ao interior de X0 usando uma vizinhança V de z conexa por arcos e logo,
por ‘colagem’ de curvas, qualquer ponto de V seria a fortiori ligado a x. Isto prova que z
estaria no interior de X0 . Como X é conexo e X0 é aberto e fechado, X = X0 . ¤

Um espaço topológico X diz-se localmente compacto se for de Hausdorff e se cada


x ∈ X tiver uma vizinhança compacta.

Proposição 1.4.2. Seja X um espaço topológico normal. X é localmente compacto se, e


só se, cada ponto tem um sistema fundamental de vizinhanças compactas.

Demonstração. Sendo trivial mostrar que a condição é suficiente, verifiquemos que ela é
necessária. Seja Kx a vizinhança compacta de x ∈ X. Seja U um aberto qualquer contendo
x. Uma vez que X é de Hausdorff, {x} é fechado. A segunda condição de X ser normal
assegura que os fechados X\U e {x} possuem vizinhanças abertas, respectivamente, A e
U1 que não se intersectam. Então V = X\A é fechado, é vizinhança de x por conter
U1 , e V ∩ Kx é vizinhança compacta de x contida em U . Encontrámos assim o sistema
fundamental de vizinhanças compactas. ¤

Dadas duas coberturas {Vβ }, {Uα } de X, dizemos que a primeira é um refinamento


da segunda se todo o Vβ está contido nalgum Uα . Uma cobertura {Uα } diz-se localmente
finita se cada ponto tem uma vizinhança W que encontra apenas uma quantidade finita de
Uα ’s, isto é, W ∩ Uα 6= ∅ apenas para um número finito de α’s.
1.4 Mais conceitos da topologia 27

1.4.3 Espaços paracompactos


Eis a propriedade que interessa para o desenvolvimento da teoria das ‘variedades topoló-
gicas’, que afinal a satisfazem de forma muito natural. Esta propriedade previne a ocorrência
de espaços com uma estrutura muito obstrusa, no sentido em que as funções reais e contı́nuas
deixam de ser raras. Dá-se o nome de paracompacto a um espaço topológico X que é
de Hausdorff e tal que, para qualquer cobertura aberta de X, existe uma cobertura que
é ao mesmo tempo um refinamento daquela e localmente finita. Por exemplo, todos os
compactos são paracompactos.

Apresentamos em seguida um conjunto de resultados fundamentais, cuja demonstração,


como dissemos, não nos parece essencial para o que segue.

Teorema 1.4.1 (Dieudonné). Todo o espaço paracompacto é normal.

Teorema 1.4.2 (Dieudonné). Se X é localmente compacto e é a união numerável de sub-


conjuntos compactos, então X é paracompacto. Em particular, todo o espaço localmente
compacto e com base numerável é paracompacto.

Teorema 1.4.3 (Urysohn). Seja X um espaço topológico com base numerável. Tem-se que
X é normal se, e só se, X é metrisável.

Teorema 1.4.4 (de extensão de Tietze-Urysohn). Seja Z um espaço métrico, A ⊂ Z um


fechado e f uma aplicação contı́nua e limitada de A em R. Então existe uma aplicação
contı́nua f˜ : Z → R que coincide com f em A (uma extensão) e tal que

sup f˜ = sup f, inf f˜ = inf f. (1.34)


Z A Z A

Corolário 1.4.1 (Urysohn). Seja Z um espaço métrico e sejam A, B ⊂ Z dois fechados,


não vazios e disjuntos. Então existe uma função contı́nua f : Z → [0, 1] tal que

f (x) = 1, ∀x ∈ A, f (x) = 0, ∀x ∈ B. (1.35)

Demonstração. Deduz-se este resultado aplicando o teorema anterior à função definida sobre
A ∪ B que vale 1 em A e 0 em B, e que é por isso contı́nua. ¤

O lema de Urysohn também vale num espaço normal com base enumerável. A im-
portância de tomar a classe, com intersecção mais restrita, dos espaços paracompactos
mostra-se a seguir. Vejamos mais um teorema devido a Dieudonné.

Teorema 1.4.5 (do encolhimento). Seja X um espaço normal. Seja I uma famı́lia de
ı́ndices e {Ui }i∈I uma cobertura aberta e localmente finita de X. Então existe uma cobertura
aberta {Vi }i∈I de X tal que V i ⊂ Ui , ∀i ∈ I.
28 Capı́tulo 1. Material preparatório

Dada uma função φ : X → R chamamos suporte de φ ao conjunto

supp φ = {x ∈ X : φ(x) 6= 0}. (1.36)

Este conjunto é portanto igual ao mais pequeno fechado fora do qual φ é nula.
Seja U = {Ui }i∈I uma cobertura aberta de um espaço topológico X. Uma famı́lia
{φi }i∈I de funções reais definidas em X e contı́nuas

φi : X −→ R (1.37)

constitui uma partição da unidade subordinada ou associada a U se 1) φi ≥ 0; 2)


supp φi ⊂ Ui ; 3) cada ponto x ∈ X tem uma vizinhança aberta que encontra os supp φi
P
apenas numa quantidade finita de i’s; 4) i∈I φi (x) = 1, ∀x ∈ X. Repare-se que o
somatório faz sentido por causa de 3).

Teorema 1.4.6. É condição necessária e suficiente para um espaço topológico ser para-
compacto, que ele seja de Hausdorff e que toda a cobertura aberta tenha uma partição da
unidade associada.

Demonstração. Suponhamos que X é paracompacto e seja U = {Ui }i∈I uma cobertura


aberta. Então X é normal e existe um refinamento U 0 = {Ui0 }i∈I localmente finito. Pelo
teorema do encolhimento existem ainda refinamentos V = {Vi }i∈I , tal que V i ⊂ Ui0 , e
W = {Wi }i∈I , tal que W i ⊂ Vi . Agora, pelo lema de Urysohn existe uma função φ0i
contı́nua, com valores em [0, 1], igual a 1 em W i e igual a 0 fora de Vi . Uma vez que V, W
P
são coberturas localmente finitas a soma ψ = i∈I φ0i é contı́nua e não nula em nenhum
ponto. As funções φi = φ0i /ψ satisfazem as propriedades 1), 2), 3), 4).
Recı́procamente suponhamos que toda a cobertura aberta U = {Ui }i∈I admite uma
partição da unidade associada {φi }i∈I . Sendo Vi o interior de supp φi , então os Vi cobrem
X (por 4) e são um refinamento de U (por 2) localmente finito (por 3). Logo X é paracom-
pacto. ¤

A demonstração do último teorema encontra-se em [Hir95]; ver também [Hir95, Die44]


a propósito dos teoremas de J. Dieudonné. Referências para o teorema de P. S. Urysohn
poderão ser encontradas em [KF82] e o teorema de Tietze-Urysohn está demonstrado em
[Die66].

Exercı́cios
1. Verifique as condições de partição da unidade das funções φi encontradas na demons-
tração do último corolário.

2. Mostre que propriedades topológicas como compacto, conexo, separável, localmente


conexo ou paracompacto são invariantes por homeomorfismo. Encontre outras.
1.5 Cálculo diferencial 29

3. Sabendo que os conexos de R são os intervalos, mostre que toda a função contı́nua
f : X → R num espaço conexo X, que tome os valores c e d, tem de tomar também
todos os valores entre c e d (resultado conhecido como teorema de Bolzano).

4. Mostre que R é localmente compacto. Encontre duas coberturas de R, uma localmente


finita e a outra não. Mostre que R é paracompacto.

5. Encontre um espaço métrico localmente compacto que não seja completo.

6. Mostre que {(x, sen x1 ) ∈ R2 : x ∈ R+ } ∪ {(x, y) : x = 0 ou y = 0} é conexo por arcos


mas não é localmente conexo.

7. Seja X um espaço localmente compacto. Mostre que um subespaço de X fechado é


localmente compacto. Mostre que se X é normal e U é um aberto então U também é
localmente compacto. Prove que todos os abertos ou fechados de R são paracompactos.

8. Seja X um espaço topológico. Um subespaço Y diz-se localmente fechado em X


se existem um aberto A e um fechado F em X tais que Y = A ∩ F . Mostre que os
subconjuntos abertos e os subconjuntos fechados são localmente fechados. Mostre que
se f : X → Y 0 é contı́nua e Y é localmente fechado em Y 0 , então f −1 (Y ) é localmente
fechado em X. Sendo Y ⊂ B ⊂ X mostre que Y é localmente fechado em X se, e só
se, Y é localmente fechado em B.

9. ([Die66]) Mostre que os subespaços localmente compactos de um espaço métrico são


localmente fechados.

10. Mostre que os abertos conexos de Rn são conexos por arcos.

11. Mostre que o produto cartesiano de espaços localmente compactos, com base nu-
merável, é paracompacto.

1.5 Cálculo diferencial


Esta secção aborda os principais conceitos e teoremas do cálculo diferencial, aqui servindo
para fundar a notação e para posterior referência.
O espaço vectorial Rn sobre o corpo dos números reais é um espaço métrico separável e
completo, com a distância d entre dois pontos x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ) definida
por p
d(x, y) = kx − yk = (x1 − y1 )2 + . . . + (xn − yn )2 . (1.38)
Com esta estrutura damos a (Rn , d) o nome de espaço euclidiano. O surgimento da
notação k·k deve-se ao facto de aquela distância provir de uma norma (ver exercı́cios 4,6,8,9
30 Capı́tulo 1. Material preparatório

da secção 1.3). É importante ter presente que as bolas fechadas e as esferas Srn−1 = {v ∈
Rn : kvk = r} são espaços compactos, com a topologia induzida de Rn e que, portanto,
quaisquer funções contı́nuas aı́ definidas são limitadas. Uma bola é um exemplo de um
conjunto convexo. Um subconjunto X do espaço euclidiano diz-se convexo se

∀x, y ∈ X, ∀t ∈ [0, 1], ty + (1 − t)x ∈ X. (1.39)

Rn é portanto normal, localmente conexo, localmente compacto e paracompacto.

1.5.1 Propriedades fundamentais das funções diferenciáveis


Essencialmente, o cálculo diferencial consiste na análise da ‘parte linear’ das funções de uma
certa classe, de modo a obter mais informação e diversa sobre essas funções e o seu domı́nio.
Consideremos um aberto U de Rn , uma função f : U → Rm e um ponto x ∈ U .
Dizemos que f é diferenciável em x se existe uma aplicação linear ξ : Rn → Rm tal que,
escrevendo11
f (x + v) = f (x) + ξ(v) + o(v), (1.40)
resulta12
o(v)
lim =0 (1.41)
v→0 kvk

(neste limite é claro que se exclui v = 0). Multiplicando (1.41) por kvk, segue de imediato
que também se tem limv→0 o(v) = 0 = o(0). A aplicação linear ξ é chamada aplicação
linear derivada, ou diferencial, de f em x e denota-se tanto por df (x) como por dfx .
A equação (1.40) toma assim o aspecto

f (x + v) = f (x) + dfx (v) + o(v). (1.42)

Os valores df (x)(v) são chamados de derivadas direccionais de f no ponto x segundo


a direcção v.

Proposição 1.5.1. Se uma função f é diferenciável em x, então ela é contı́nua em x.

Demonstração. Verifica-se que


¡ ¢
lim f (x + v) = lim f (x) + df (x)(v) + o(v) = f (x),
v→0 v→0
11
Relativamente a (1.40), é claro que se considera v suficientemente pequeno de tal modo que x + v ainda
está no domı́nio de f — só se pretende caracterizar f numa vizinhança de x. Note-se também que a equação
serve para definir a função o e que claramente ξ, o poderão mudar de ponto para ponto, isto é, dependem
de x.
12
Relativamente a (1.41), note-se que, pelos exercı́cios sobre normas anteriormente referidos, ficámos a
n
saber que todas as normas em R são equivalentes, pelo que o limite ser nulo não depende da norma
utilisada. Em particular, a noção de diferenciabilidade não depende da métrica. É esta propriedade que faz
a “geometria diferencial” ser independente da “geometria riemanniana”, onde a métrica em geral varia de
ponto para ponto.
1.5 Cálculo diferencial 31

entre outros, por todas as aplicações lineares entre espaços de dimensão finita serem con-
tı́nuas. ¤

Seja e1 , . . . , en a base canónica de Rn , isto é, para cada i = 1, . . . , n,

ei = (0, . . . , 0, 1, 0 . . . , 0) (1.43)

com 1 no i-ésimo lugar e o resto tudo zeros. As derivadas parciais de f em x são


(denotadas e) definidas por
∂f f (x + tei ) − f (x)
(x) = df (x)(ei ) = lim (1.44)
∂xi t→0 t
(no caso n = 1, denotamos ∂f 0 +
∂x (x) = dfx (1) por f (x)). Com efeito, fazendo v = tei , t ∈ R ,
vem que kvk = t e pelas definições vem que
1¡ ¢ 1¡ ¢
lim f (x + tei ) − f (x) = lim df (x)(tei ) + o(tei )
t→0 t t→0 t
(1.45)
o(tei )
= lim df (x)(ei ) + = df (x)(ei )
t→0 t
Em virtude desta igualdade, da unicidade do limite e do facto de uma aplicação linear
ficar determinada pelas imagens dos vectores de uma base, podemos concluir que, se f for
diferenciável, existe somente uma aplicação linear diferencial de f , ou seja, satisfazendo
(1.40) e (1.41).
Proposição 1.5.2. Sejam f, g : U → Rm duas aplicações diferenciáveis no mesmo ponto
x no interior de U . Seja λ ∈ R. Então:
1. f + g é diferenciável em x e d(f + g)(x) = df (x) + dg(x);
2. λf é diferenciável em x e d(λf )(x) = λdf (x);
3. (regra de Leibniz) Se f : U → R, então f g : U → Rm é diferenciável em x e
¡ ¢ ¡ ¢
d(f g)(x)(v) = df (x)(v) g(x) + f (x) dg(x)(v) (1.46)

Demonstração. Sendo triviais 1 e 2 resta-nos demonstrar 3. Ora, invocando serem satisfeitas


para f e g as condições (1.40) e (1.41), vem
¡ ¢¡ ¢
f g(x + v) = f (x + v)g(x + v) = f (x) + dfx (v) + o(v) g(x) + dgx (v) + õ(v)
= f (x)g(x) + dfx (v)g(x) + f (x)dgx (v) +
+dfx (v)dgx (v) + o(v)g(x + v) + f (x + v)õ(v)

e, tendo em conta que f e g são contı́nuas em x, deduz-se a diferenciabilidade de f g por se


verificar
dfx (v)dgx (v) + o(v)g(x + v) + f (x + v)õ(v)
lim
v→0 kvk
³ v ´ o(v) õ(v)
= lim dfx dgx (v) + g(x + v) + f (x + v) = 0.
v→0 kvk kvk kvk
32 Capı́tulo 1. Material preparatório

Note-se que os vectores v/kvk estão sobre a esfera S n−1 de raio 1, sobre a qual df (x) tem
imagem limitada, e que usámos novamente a continuidade, como aplicações lineares, dos
diferenciais de f e g. Cf. com exercı́cio 12 da secção 1.2. ¤

Teorema 1.5.1 (derivada da função composta). Sejam U ⊂ Rn , V ⊂ Rm abertos, x ∈


U, f : U → Rm uma função diferenciável em x, tal que f (x) ∈ V , e g : V → Rp uma
função diferenciável em f (x). Tem-se então que g ◦ f : U → Rp é diferenciável em x e
d(g ◦ f )x = dgf (x) ◦ dfx , (1.47)
ou seja, para qualquer vector v tem-se a igualdade d(g ◦ f )x (v) = dgf (x) (dfx (v)).
Demonstração. Da hipótese de diferenciabilidade de f e g resulta
g ◦ f (x + v) = g(f (x) + dfx (v) + o(v))
= g(f (x)) + dgf (x) (dfx (v) + o(v)) + õ(dfx (v) + o(v))
= g ◦ f (x) + dgf (x) (dfx (v)) + O(v),
onde o, õ são dados por (1.40), e satisfazem (1.41), e onde O(v) = dgf (x) (o(v)) + õ(dfx (v) +
o(v)). Falta-nos então verificar que O(v)/kvk é um infinitésimo com v. Ora, tomando o
limite em v e considerando desde já que w(v) = dfx (v) + o(v) 6= 0 — o único obstáculo
relevante —, vem que também w(v) → 0 e
O(v) 1 ¡ ¢
lim = lim dgf (x) (o(v)) + õ(w(v))
v→0 kvk v→0 kvk
dgx (o(v)) õ(w(v)) kw(v)k
= lim +
v→0 kvk kw(v)k kvk
¡ o(v) ¢ õ(w(v)) ° ¡ v ¢ o(v) °
= lim dgx kvk + kw(v)k °dfx kvk + kvk
° = 0,
v→0

por razões já conhecidas, como querı́amos demonstrar. ¤

Em diversas situações convem apresentar o diferencial de uma função de uma forma mais
explı́cita, em termos de coordenadas. Suponhamos que U é um aberto de Rn e f : U → R
é uma função diferenciável em x = (x1 , . . . , xn ) ∈ U . Visto que se pode escrever qualquer
vector v = (v1 , . . . , vn ) de Rn como v = v1 e1 + · · · + vn en , vem então por linearidade que
df (x)(v) = df (x)(v1 e1 + · · · + vn en )
∂f ∂f (1.48)
= v1 df (x)(e1 ) + · · · + vn df (x)(en ) = v1 (x) + · · · + vn (x).
∂x1 ∂xn
Suponhamos agora que f : U ⊂ Rn → Rm , f (x1 , . . . , xn ) = (y1 , . . . , ym ), é uma função
diferenciável em x. Então f é dada por um sistema de m funções reais


y = f1 (x1 , . . . , xn )
 1
..
. (1.49)



ym = fm (x1 , . . . , xn ).
1.5 Cálculo diferencial 33

Por (1.42), teremos para cada v ∈ Rn


¡ ¢
df (x)(v) = df1 (x)(v), . . . , dfm (x)(v)
µXn n
X ¶
∂f1 ∂fm (1.50)
= vi (x), . . . , vi (x) .
∂xi ∂xi
i=1 i=1

Assim, a matriz da aplicação linear df (x) : Rn → Rm , nas bases canónicas, é dada pela
matriz das derivadas parciais
 ∂f1 ∂f1

∂x1 ··· ∂xn
 
J(f ) =  ···  (1.51)
∂fm ∂fm
∂x1 ··· ∂xn

a chamada matriz jacobiana de f . Mais ainda, depreende-se logo, observando as defini-


ções, que a diferenciabilidade de f em x é equivalente à condição de serem diferenciáveis
em x cada uma das componentes fj , 1 ≤ j ≤ m.

Em lugar de um exemplo, recuperando o enunciado do teorema 1.5.1 e fazendo

f (x1 , . . . , xn ) = (y1 , . . . , ym ),
(1.52)
g(y1 , . . . , ym ) = (z1 , . . . , zp )

temos a sugestiva equação representando a regra da derivação da função composta


 ∂z1 ∂z1
  ∂z1 ∂z1
  ∂y1 ∂y1

∂x1 ··· ∂xn ∂y1 ··· ∂ym ∂x1 ··· ∂xn
     
 ···  = ···   ···  (1.53)
∂zp ∂zp ∂zp ∂zp ∂ym ∂ym
∂x1 ··· ∂xn ∂y1 ··· ∂ym ∂x1 ··· ∂xn x
x f (x)

— um resultado importado de simples álgebra linear. Em particular, vem

∂z ∂z ∂y1 ∂z ∂ym
= + ··· + (1.54)
∂x ∂y1 ∂x ∂ym ∂x

se n = p = 1.

Repare-se que a aplicação linear df (x) fica de facto determinada pelas derivadas parciais
∂fi
∂xj (x), mas a mera existência destas não implica que f seja diferenciável em x — esta
condição é mais forte. Veja-se a este propósito o exercı́cio 1. Temos todavia o resultado
seguinte, muito útil na prática.

Teorema 1.5.2. Seja U um aberto de Rn e x ∈ U . Suponhamos que uma dada função


∂f
f : U → R admite todas as derivadas parciais ∂x i
, 1 ≤ i ≤ n, em U e que n − 1 delas são
contı́nuas em x. Então f é diferenciável em x.
34 Capı́tulo 1. Material preparatório

Demonstração. Vamos assumir logo n = 2; porque o caso geral demonstra-se exactamente


da mesma forma, apenas com muito menos lisura na notação. Suponhamos então que
f (x1 , x2 ) é uma função de duas variáveis admitindo derivadas parcias em U , e que, por
∂f
exemplo, ∂x 2
é aquela que é contı́nua no ponto dado, aqui denotado por a = (a1 , a2 ).
Definimos então o diferencial de f em a exactamente como aquilo que desejamos que ele
seja:
∂f ∂f
df (a)(v1 , v2 ) = v1 (a) + v2 (a).
∂x1 ∂x2
Recordemos que a existência de derivadas parciais em U corresponde a podermos escrever
∂f
f (x1 + t, x2 ) = f (x1 , x2 ) + t (x1 , x2 ) + õ1 (t),
∂x1
∂f
f (x1 , x2 + t) = f (x1 , x2 ) + t (x1 , x2 ) + õ2 (t),
∂x2
com t ∈ R e õ1 , õ2 verificando limt→0 õit(t) = 0 (i = 1, 2). Queremos agora mostrar que é
satisfeita a condição (1.41):
1 ¡ ¢
lim f (a + v) − f (a) − df (a)(v) = 0.
v→0 kvk

Ora, sendo v = (s, t) ∈ R2 , vem


f (a + v) − f (a) − df (a)(v) = f (a1 + s, a2 + t)
∂f ∂f
−f (a1 + s, a2 ) + f (a1 + s, a2 ) − f (a1 , a2 ) − s (a1 , a2 ) − t (a1 , a2 )
∂x1 ∂x2
∂f ∂f ∂f ∂f
=t (a1 + s, a2 ) + õ2 (t) + s (a1 , a2 ) + õ1 (s) − s (a1 , a2 ) − t (a1 , a2 ),
∂x2 ∂x1 ∂x1 ∂x2
pelo que aquele limite é igual a
t ³ ∂f ∂f ´ õ (s) + õ (t)
1 2
lim (a1 + s, a2 ) − (a1 , a2 ) + .
(s,t)→0 k(s, t)k ∂x2 ∂x2 k(s, t)k
∂f
O resultado agora segue por continuidade de ∂x2 em (a1 , a2 ), por t/k(s, t)k ser limitada e
õi (t) õi (t) t
por k(s,t)k = t k(s,t)k → 0 quando (s, t) → 0. ¤

Seja de novo U um aberto de Rn . Uma função f : U → Rm diz-se diferenciável em U


se f for diferenciável em cada um dos pontos desse aberto. Supondo que assim é, dizemos
que f é duas vezes diferenciável num ponto x ∈ U se, para qualquer vector u ∈ Rn ,
for diferenciável em x a função x 7→ df (x)(u), com u fixado. O seu diferencial, dito de 2a
ordem, denota-se então por13
¡ ¢
d2 f (x)(u, v) = d x 7→ df (x)(u) (v), u ∈ Rn . (1.55)
Repare-se que este diferencial continua a ser linear em v, como resulta directamente da
proposição 1.5.2. Tem-se mais ainda.
13
Note bem: d2 não é o mesmo que d ◦ d.
1.5 Cálculo diferencial 35

Teorema 1.5.3 (de Schwarz ou da igualdade das derivadas mistas). Se f é duas vezes
diferenciável em x, então
d2 f (x)(u, v) = d2 f (x)(v, u) (1.56)
∀u, v ∈ Rn .

Este teorema, repleto de implicações para a Análise, é fácil de constatar em casos


práticos, mas a sua demonstração não é nada trivial. Deixamo-la para a subsecção 1.5.2
porque ela requer outro resultado fundamental.

Generalizando o que se fez acima, podemos definir por indução a diferenciabilidade de


ordem k de uma função. Pomos d0 f = f por comodidade. Para k ≥ 1, diremos que f é
k-vezes diferenciável em x se f é k−1-vezes diferenciável em U e se for diferenciável o dife-
rencial de ordem k−1 segundo qualquer multi-vector, ou seja, se x 7→ dk−1 f (x)(v1 , . . . , vk−1 )
for diferenciável, ∀v1 , . . . , vk−1 ∈ Rn . Finalmente, é também por indução que se prova o
seguinte resultado.

Proposição 1.5.3. Suponhamos que f é k-vezes diferenciável em x. Então:


1. dk f (x)(v1 , . . . , vk ) é linear em cada vi e totalmente simétrico, isto é,

dk f (x)(v1 , . . . , vi , . . . , vj , . . . , vk ) = dk f (x)(v1 , . . . , vj , . . . , vi , . . . , vk ), ∀i, j. (1.57)

2. Se a função x 7→ dk f (v1 , . . . , vk ) é l-vezes diferenciável para todos os vi , então f é


k + l-vezes diferenciável em x, e tem-se
¡ ¢
dl x 7→ dk f (x)(v1 , . . . , vk ) (vk+1 , . . . , vk+l ) = dk+l f (x)(v1 , . . . , vk+l ). (1.58)

3. Para todo o 0 ≤ i ≤ k − 1, di f é contı́nua14 em x.

Para o caso 2 fazemos indução em l. Note-se que o recı́proco é trivialmente verificado.


Para o resultado 3, aplica-se a proposição 1.5.1 no passo de indução. Se e1 , . . . , en é a base
canónica e m = 1, então
∂kf
dk f (x)(ei1 , . . . , eik ) = (x), (1.59)
∂xi1 · · · ∂xik
como é também trivial provar.

Dizemos que f é de classe C k no aberto U se f for k-vezes diferenciável em U e


dk fx (v1 , . . . , vk ) for contı́nua (como função de x) para todo o vi ∈ Rn . Naturalmente, as
funções de classe C 0 são as funções contı́nuas. Em virtude do teorema 1.5.2, tem-se logo:

Teorema 1.5.4. f é de classe C k em U se, e só se, as suas componentes fj admitem todas
∂ k fj
as derivadas parciais ∂xi1 ···∂xik até à ordem k e estas são contı́nuas em U .
14
Eis um abuso de linguagem: já estamos a ver di f como função em U e com valores num certo espaço
vectorial normado de aplicações multilineares. (cf. exercı́cio 4.)
36 Capı́tulo 1. Material preparatório

Denota-se por C k (U ; Rm ) ou por CUk (Rm ) o espaço vectorial sobre R das aplicações de
classe C k de U em Rm (cf. com exercı́cio 3). Abreviando a notação de forma óbvia, resulta
do ponto 3 da proposição 1.5.3 que C k ⊂ C k−1 . Note-se que se podem sempre dar exemplos
provando que esta inclusão é estrita. Denotamos C ∞ (U ; Rm ) = ∩∞ k m
k C (U ; R ) e dizemos
que os seus elementos são as funções de classe C ∞ ou funções suaves em U .

Proposição 1.5.4. A composição de duas funções de classe C k é de classe C k .

Demonstração. Sejam f, g funções de classe C k tais que a imagem de f está contida no


domı́nio de g. A demonstração far-se-á por indução. Para k = 0 o resultado é conhecido.
Queremos então ver que ∂g◦f
∂xi é de classe C
k−1 , para todo o i, admitindo que ∂g (y) e ∂f (x)
∂yj ∂xi
∂g
são de classe C k−1 . Ora o mesmo se passa logo, por hipótese de indução, com ∂yj (f (x)) e
temos que
∂g ◦ f ∂g ∂f1 ∂g ∂fm
= (f (x)) (x) + · · · + (f (x)) (x)
∂xi ∂y1 ∂xi ∂ym ∂xi
é também de classe C k−1 . Com efeito, como já se aludiu, as somas e produtos de funções
de C k estão em C k . ¤

Se uma função f : U → V é bijectiva, de classe C k e a sua inversa f −1 : V → U é


também de classe C k , então dizemos que f é um difeomorfismo de classe C k . Dizer que
dois abertos U e V são difeomorfos significa que existe um difeomorfismo entre eles. Do
teorema da derivada da função composta vem

Id = d Idx = d(f −1 ◦ f )x = dff−1


(x) ◦ dfx , (1.60)

¡ ¢−1
pelo que, sendo y = f (x), concluimos que dfy−1 = dfx . Daqui resulta, em particular,
que det dfx 6= 0 e que U e V têm de ser abertos do mesmo espaço euclidiano Rn , ie. da
mesma dimensão. Voltaremos a este assunto na secção 6.

O próximo resultado deve ser assinalado devido à sua importância. Assim é de facto,
apesar de não ter sido utilizado em toda a sua generalidade até agora. A sua demonstração,
trivial, é deixada como exercı́cio.

Proposição 1.5.5. Seja A : Rn → Rm uma aplicação linear. Então A é suave em qualquer


ponto x e
dAx (v) = A(v). (1.61)

Em particular, qualquer isomorfismo é um difeomorfismo suave.

Verifica-se imediatamente que d2 Ax = 0.


1.5 Cálculo diferencial 37

1.5.2 Funções de Rn em R
Como já é hábito, seja U um aberto de Rn . Uma função f = (f1 , . . . , fm ) : U → Rm
é diferenciável se, e só se, cada uma das componentes fi : U → R é diferenciável. Isto
é consequência imediata da definição, obtendo-se logo de seguida que as componentes do
diferencial de f são os diferenciais das componentes de f . Interessa-nos por isso estudar o
caso m = 1.

Em R faz-se uso da sua ordem total <, que já invocámos implı́citamente nos conceitos
de máximo e mı́nimo num resultado de Weierstrass (corolário 1.2.1).
Proposição 1.5.6. Se f : U → R é diferenciável em U e tem um máximo ou um mı́nimo
no ponto a ∈ U , então df (a) = 0.
Demonstração. Suponhamos que f tem um máximo em a e seja v ∈ Rn . Então, dos limites
à esquerda e à direita
f (a + tv) − f (a) f (a + tv) − f (a)
lim , lim
t→0− t t→0+ t
tem-se que o primeiro é ≥ 0 e o segundo é ≤ 0. Como ambos são iguais a df (a)(v),
cf. (1.44), este valor tem de ser 0. O caso do mı́nimo prova-se recorrendo ao anterior e à
função −f . ¤

Note-se que a proposição é válida para extremos locais, já que a questão da diferencia-
bilidade é local.
Teorema 1.5.5 (de Rolle). Seja U um aberto de Rn tal que U é compacto. Seja f : U → R
uma função diferenciável em U e contı́nua em U . Se f é constante na fronteira de U , então
existe x0 ∈ U tal que df (x0 ) = 0.
Demonstração. Por f ser contı́nua num compacto, f admite máximo e mı́nimo: existem
pontos x1 , x2 para os quais f (x1 ) ≤ f (x) ≤ f (x2 ), ∀x ∈ U . Se x1 , x2 estão ambos na
fronteira, então f é constante em U , e logo df = 0. Se um deles está em U , o interior de
U , então o resultado segue pela proposição anterior. ¤

Teorema 1.5.6 (de Lagrange ou do valor médio). Seja [a, b] um intervalo fechado e limitado
de R e seja f : [a, b] → R uma função contı́nua no intervalo e diferenciável no seu interior.
Então existe c ∈]a, b[ tal que

f (b) − f (a) = dfc (b − a) = f 0 (c) (b − a). (1.62)

Demonstração. Consideremos a função φ(t) = (b − a)f (t) − (f (b) − f (a))t. Vem então
φ(a) = bf (a) − f (b)a = φ(b), pelo que o teorema de Rolle garante a existência de c no
interior ]a, b[ tal que
φ0 (c) = (b − a)f 0 (c) − f (b) + f (a) = 0,
como querı́amos demonstrar. ¤
38 Capı́tulo 1. Material preparatório

a c b

Figura 1.2: O teorema de Lagrange.

Também podemos enunciar o teorema de Lagrange dizendo que, sob aquelas hipóteses,
qualquer que seja o h, existe θ ∈]0, 1[ tal que

f (a + h) = f (a) + hf 0 (a + θh). (1.63)

Esta expressão resulta simplesmente de tomar b = a + h. Daqui se deduz logo que qualquer
c ∈]a, b[ é igual a a + θh, com θ entre 0 e 1. Ao teorema de Lagrange pode-se dar uma
interpretação geométrica muito intuitiva, se tivermos em conta que a cada derivada f 0 (t)
corresponde uma recta tangente à curva (t, f (t)). Apresenta-se a recta tangente na figura
1.2.

Como corolário deste célebre teorema, temos que f é crescente se f 0 (t) ≥ 0, ∀t ∈]a, b[,
e decrescente ao longo do mesmo intervalo se f 0 (t) ≤ 0. Resulta, mais ainda, que f é
constante se f 0 = 0. As provas destes factos são triviais, tendo em conta a fórmula (1.62).

Proposição 1.5.7. Seja U aberto de Rn , conexo, e seja f : U → R uma função diferenciável


em U tal que df (x) = 0, ∀x ∈ U . Então f é constante.

Demonstração. Da proposição 1.4.1 ficamos a saber que U é conexo por arcos. Fixemos
x0 ∈ U e provemos que f (x) = f (x0 ), ∀x. Para cada x fixado, tomamos um caminho
γ de x para x0 . Basta agora aplicar as observações anteriores, tendo por base a função
φ(t) = f ◦ γ(t). Claro que se tem φ0 = dfγ (γ 0 ) = 0. ¤

Uma versão do teorema de Lagrange em várias variáveis é também possı́vel e conveniente.


A demonstração do próximo resultado apoia-se na anterior e no teorema de Lagrange ao
longo do segmento que une dois pontos do espaço euclidiano.

Teorema 1.5.7 (dos acréscimos finitos). Suponhamos V ⊂ Rn um subconjunto aberto e


convexo, f : V → R uma função real, diferenciável em V , e sejam a, b ∈ V . Existe então
t0 ∈ [0, 1] tal que
f (b) − f (a) = df (c∗ )(b − a), (1.64)

onde o ponto c∗ = a + t0 (b − a).


1.5 Cálculo diferencial 39

Estamos agora em condições de demonstrar o teorema de Schwarz.

Demonstração do teorema 1.5.3. Vamos admitir, desde já, que m = 1 pois o resultado é
válido se, e só se, é válido componente a componente. Visto também que d2 fx (u, v) é
linear em u e em v, basta-nos mostrar o resultado para dois vectores quaisquer ei , ej da
base canónica. Com efeito, se para esses vectores se tem dfx (ei , ej ) = dfx (ej , ei ) e se
P P
escrevermos u = ni=1 ui ei , v = nj=1 vj ej , então teremos também

³X
n n
X ´ n
X
dfx (u, v) = dfx ui ei , vj ej = ui vj dfx (ei , ej )
i=1 j=1 i,j=1
n
X
= ui vj dfx (ej , ei ) = dfx (v, u).
i,j=1

Afinal, tendo em conta a fórmula (1.59), ficamos limitados a mostrar que

∂2f ∂2f
=
∂xi ∂xj ∂xj ∂xi

nos pontos (x1 , . . . , xn ) onde f é duas vezes diferenciável. Escolhidos 1 ≤ i, j ≤ n, vamos


chamar x a xi e y a xj e esquecer as outras variáveis, porquanto estas em nada influem a
demonstração adiante. Considerem-se a seguir duas funções; a primeira, com y, h fixados,

φ(x) = f (x, y + h) − f (x, y),

e a segunda, com x, h fixados,

ψ(y) = f (x + h, y) − f (x, y).

Verificamos então que podemos escrever a seguinte quantidade,

∆2 f = φ(x + h) − φ(x) = ψ(y + h) − ψ(y)


¡ ¢
= f (x + h, y + h) − f (x + h, y) − f (x, y + h) + f (x, y) ,

das duas formas distintas que se apresenta. Agora, como as funções φ, ψ são claramente
diferenciáveis, o teorema de Lagrange garante-nos a existência de θ1 , θ2 ∈]0, 1[ tais que

φ(x + h) − φ(x) = hφ0 (x + θ1 h), ψ(y + h) − ψ(y) = hψ 0 (y + θ2 h).

Ou seja,
∆2 f
= φ0 (x + θ1 h) = ψ 0 (y + θ2 h). (1.65)
h
40 Capı́tulo 1. Material preparatório

Detemo-nos agora na primeira igualdade. Atendendo à expressão de φ e à diferenciabilidade


de ∂f
∂x no ponto (x, y), em conjunto com a fórmula (1.42), temos

∆2 f ∂f ∂f
= (x + θ1 h, y + h) − (x + θ1 h, y)
h ∂x ∂x
∂f ∂f h ∂f ∂f i
= (x + θ1 h, y + h) − (x, y) − (x + θ1 h, y) − (x, y)
∂x ∂x ∂x ∂x
³ ∂f ´ ³ ∂f ´
= d (θ1 h, h) − d (θ1 h, 0) + o(h)
∂x (x,y) ∂x (x,y)
∂2f ∂2f ∂2f
= θ1 h 2 (x, y) + h (x, y) − θ1 h 2 (x, y) + o(h)
∂x ∂y∂x ∂x
∂2f
= h (x, y) + o(h)
∂y∂x

Pensando agora na segunda igualdade de (1.65) e fazendo arranjo análogo ao anterior,


chegamos a
∆2 f ∂2f
=h (x, y) + õ(h).
h ∂x∂y
∆2 f
Para finalizar, tomamos o limite limh→0 h2
nas duas expressões encontradas — obtendo a
igualdade das derivadas mistas. ¤

1.5.3 Funções de matrizes


Debruçamo-nos agora sobre o caso especial das funções definidas em abertos de Mn =
Mn×n (R) — o espaço vectorial das matrizes quadradas de ordem n e coeficientes reais, que
2
se identifica com Rn . Lembramos que Mn pode também ser visto como um espaço vectorial
normado L(V, V ) onde V é um espaço vectorial real normado de dimensão n (cf. corolário
1.3.2). Com efeito, vimos então que, fixada uma base de V , o espaço euclidiano é isomorfo e
homeomorfo a V para qualquer norma que se use em V . O mesmo se passa por conseguinte
entre Mn e L(V, V ). Usamos a norma definida no exercı́cio 5 da secção 1.3 sempre que
necessitarmos.

Recordemos a função determinante det : Mn → R. Sejam i, j = 1, . . . , n, xij ∈ R, X =


(xij ) ∈ Mn . Por definição,
X
det(X) = sg(σ) x1σ(1) · · · xnσ(n) (1.66)
σ∈Sn

onde Sn é o grupo das permutações de {1, . . . , n}. Vemos então que det é uma função
polinomial e logo de classe C ∞ . Uma vez que é uma função contı́nua, a imagem inversa
det−1 (R\{0}) = GLn (R) é um aberto, chamado grupo linear geral, também denotado
GL(Rn ) ou simplesmente GLn (em particular é isomorfo e homeomorfo a qualquer grupo
1.5 Cálculo diferencial 41

linear GL(V )). Recordemos, de passagem, que se tem det(XY ) = det(X) det(Y ), para
quaisquer X, Y ∈ Mn .

Vamos denotar por 1 a matriz identidade.

Lema 1.5.1. Seja V ∈ Mn tal que kV k < 1, então 1 + V ∈ GLn (R). Mais ainda,

lim (1 + V )−1 = 1. (1.67)


V →0

Demonstração. Para a primeira parte basta ver que 1 + V é um monomorfismo. Ora, se


(1 + V )u = 0, então V u = −u e daqui resulta que kV k ≥ 1 o que é absurdo.
Vejamos a continuidade da função (1 + V )−1 em 0. Seja V ∈ Mn tal que kV k < 12 . Já
provámos que a função está bem definida nesta bola. Suponhamos então que para certos
vectores u, v ∈ Rn da esfera de norma 1 se tem (1 + V )−1 u = λv com λ ∈]0, +∞[. Então
kV vk = kv − λu k < 12 , e logo λ < 2 pois, caso contrário, viria
u u 1 1
1 = kvk = kv − + k< + ≤1
λ λ 2 λ
o que é absurdo. Deduz-se assim que k(1 + V )−1 k < 2.
Agora (cf. exercı́cio 5 da secção 1.3):

k(1 + V )−1 − 1k = k(1 + V )−1 (1 − (1 + V ))k ≤ k(1 + V )−1 kkV k < 2kV k

logo lim(1 + V )−1 = 1 quando V → 0. ¤

Outra função importante é a função ψ : GLn → GLn de passagem ao inverso, ie. definida
por ψ(g) = g −1 .

Proposição 1.5.8. A função ψ é de classe C ∞ e

dψg (X) = −g −1 Xg −1 (1.68)

∀g ∈ GLn , X ∈ Mn .

Demonstração. Analisemos a diferenciabilidade de ψ, num ponto g qualquer, acordando na


derivada dada pela fórmula (1.68). Sendo

ψ(g + V ) = ψ(g) + dψg (V ) + Og (V ),

vem que

Og (V ) = (g + V )−1 − g −1 + g −1 V g −1
¡ ¢
= (1 + g −1 V )−1 − 1 + g −1 V g −1
¡ ¢
= 1 + (−1 + g −1 V )(1 + g −1 V ) (1 + g −1 V )−1 g −1
¡ ¢
= 1 + (g −1 V )2 − 1 (1 + g −1 V )−1 g −1 = (g −1 V )2 (1 + g −1 V )−1 g −1
42 Capı́tulo 1. Material preparatório

Logo
kOg (V )k
lim ≤ lim kg −1 k3 kV kk(1 + g −1 V )−1 k = 0
V →0 kV k V →0

devido ao lema 1.5.1. Está demonstrado que ψ é diferenciável em GLn . Vejamos a segunda
derivada: fixado V , a função g 7→ dψg (V ) = −g −1 V g −1 toma o valor −ψ(g)V ψ(g) em g.
Logo esta função também é diferenciável em GLn e como a sua derivada se volta a escrever
à custa de ψ(g) com produtos e somas, deduz-se por uma simples indução que ψ é de classe
C i , ∀i ∈ N, como querı́amos. ¤

Outra função importante é a função traço: recordemos que se dá o nome de traço de
P
X = (xij ) ao valor tr(X) = ni=1 xii . É trivial verificar que tr : Mn → R é uma função
linear e por isso C ∞ . Uma propriedade importante diz que tr(XY ) = tr(Y X), ∀X, Y . (Por
exemplo, permite mostrar que o traço de um qualquer endomorfismo linear não depende
das bases).

Proposição 1.5.9. A função det : Mn → R é C ∞ e, para qualquer g ∈ GLn ,

d detg (V ) = det(g)tr(g −1 V ). (1.69)

Em particular, d det1 = tr.

Demonstração. A questão da suavidade do determinante já foi esclarecida. Vamos agora


calcular as derivadas parciais em g = 1. A base canónica de Mn é constituı́da pelas matrizes
E ij que valem 1 na entrada (i, j) e 0 em todas as outras entradas. Assim, é trivial verificar
que det(1 + tE ij ) = 1 se i 6= j, e que det(1 + tE ii ) = 1 + t. Posto isto,

∂ det det(1 + tE ij ) − det 1


(1) = lim = δij
∂xij t→0 t
P
e daqui resulta que, para qualquer combinação linear V = ni,j vij E ij ∈ Mn ,
n
X n
X
d det1 (V ) = vij d det1 (E ij ) = vii = tr(V )
i,j i=1

o que prova a fórmula pretendida. Para g invertı́vel qualquer tomamos a igualdade

det(gh) det(h−1 ) = det(g)

e derivamos em ordem a h no ponto h = 1. Usando a regra de Leibniz e a fórmula dψ1 (U ) =


−U vem, em qualquer direcção U :

d detg (gU ) det(1−1 ) + det(g)d det1 (−U ) = 0.

Fazendo gU = V , resulta então d detg (V ) = det(g)tr(g −1 V ), como querı́amos demonstrar.


¤
1.5 Cálculo diferencial 43

Exercı́cios
1. Estude a diferenciabilidade de 1a e 2a ordem da função f : R2 → R definida por
2 y2
f (x, y) = xx2 +y 2 se (x, y) 6= (0, 0) e f (0, 0) = 0.

2. Encontre uma função de duas variáveis em C k \C k+1 .

3. Demonstre as proposições 1.5.3 e 1.5.5, bem como o teorema 1.5.7. Mostre que
C k (U, R) é um espaço vectorial sobre R, fechado para o produto de funções.

4. a) Considere normas quaisquer em Rn , Rm e a norma induzida em L(Rn , Rm ) (ver


exercı́cios 5 e 8 da secção 1.3), seja Z um espaço topológico e considere uma função
z 7→ Az de Z em L(Rn , Rm ). Mostre que esta é contı́nua se, e só se, a função z 7→ Az (u)
é contı́nua, qualquer que seja u ∈ Rn . b) Seja U um aberto de Rn e f : U → Rm
diferenciável em U . Encarando a função df : U → L(Rn , Rm ) como qualquer outra
função com valores num espaço normado, mostre que df é diferenciável se, e só se, f
é duas vezes diferenciável.

5. Seja B : Rn × Rm → Rp uma função linear em cada variável: ora do primeiro factor


fixado o segundo, ora do segundo factor fixado o primeiro. Mostre que ∃K ≥ 0 :
kB(u, v)k ≤ Kkukkvk, ∀u ∈ Rn , v ∈ Rm . Mostre que B é diferenciável e deduza a
regra de Leibniz generalizada

dB(x,y) (u, v) = B(u, y) + B(x, v). (1.70)

Nota: está subentendido o isomorfismo Rn × Rm = Rn+m , donde se extrai a igualdade


k(u, v)k2 = kuk2 + kvk2 . Calcule ainda as 2a e 3a derivadas de B.
∂f ∂
6. Deduza a fórmula para funções diferenciáveis: ∂xi (x) = ∂t |t=0 f (x + tei ), na notação
habitual, cf. fórmula (1.44).

7. Utilize o cálculo diferencial para provar a desigualdade entre a média geométrica e a


média aritmética:
√ a1 + · · · + ak
k
a1 · · · ak ≤ (1.71)
k
∀a1 , . . . , ak ∈ [0, +∞[.

8. Mostre que tr(XY ) = tr(Y X) para qualquer par de matrizes quadradas. Agora, seja
V um espaço vectorial de dim n. Mostre que podemos definir o traço de uma aplicação
linear f ∈ L(V, V ) como o traço da matriz de f numa base qualquer de V . Idem para
o determinante.
p
9. Considere as coordenadas polares no plano R2 φ = (ρ, θ) = ( x2 + y 2 , arctg xy ). Esco-
lha uma determinação do arctg e mostre que φ é um difeomorfismo de R+ × R sobre a
44 Capı́tulo 1. Material preparatório

sua imagem. Mostre que uma rotação de θ radianos do plano em torno de 0 é descrita
pela matriz " #
cos θ −sen θ
Rθ = (1.72)
sen θ cos θ

e que {Rθ : θ ∈ [0, 2π[} é homeomorfo à circunferência S 1 . Mostre que Rθ00 + Rθ = 0.


Aplicando uma rotação Rθ1 ao vector (cos θ2 , sen θ2 ), demonstre as fórmulas

cos(θ1 + θ2 ) = cos θ1 cos θ2 − sen θ1 sen θ2 ,


(1.73)
sen (θ1 + θ2 ) = sen θ1 cos θ2 + cos θ1 sen θ2 .

10. Seja Mn o espaço das matrizes. Mostre que a função Mn × Mn → Mn , (X, Y ) 7→ XY


é suave. Calcule a derivada de f : GLn → Mn , f (g) = g 2 h + 4g −1 + 3hg T , onde
h ∈ Mn é uma constante e g T representa a matriz transposta de g.

11. Estude a função det : Mn×n (C) → C, que se define exactamente da mesma forma
que o determinante real. Justifique a sua suavidade e encontre a derivada. Mostre
que det g = det g. Repita o exercı́cio da alı́nea anterior pensando em matrizes com
coeficientes em C. (Note: em termos da sua topologia e estrutura real, C = R2 .)

1.6 Teoremas da função inversa e da função implı́cita


Ao longo desta secção admitimos sempre k ≥ 1. Seja U um aberto do espaço euclidiano.
Dizemos que uma função f : U → Rm é uma imersão de classe C k se f for de classe C k
e se a sua aplicação linear derivada dfx for injectiva, para todo o x ∈ U . (Recorde-se que
denotamos indistintamente o diferencial de uma função por df (x) ou dfx .)

Lema 1.6.1. Sejam U, W abertos de Rn . Seja f : U → W uma aplicação bijectiva, imersão


de classe C k . Verificam-se então as duas asserções equivalentes:
(i) a inversa f −1 : W → U é de classe C k , ou seja, f é um difeomorfismo C k .
(ii) seja g : W → Rp outra aplicação tal que g ◦ f : U → Rp é de classe C k . Então g é de
classe C k .

Demonstração. Basta mostrar a primeira parte já que a segunda segue por composição,
g = g ◦ f ◦ f −1 , e por a composta de funções de classe C k ser uma função de classe C k .
Também a primeira asserção decorre da segunda de modo trivial.
Façamos então a demonstração de (i). Note-se que df (x) também é sobrejectiva por ser
uma injecção de Rn em Rn . Fixemos agora um ponto a e mostremos que f −1 é diferenciável
em f (a). Para isso, vamos compor f com o isomorfismo linear A = (dfa )−1 de modo a
obter uma expressão da qual conhecemos a derivada em a. Seja então h = A ◦ f . Tem-se
1.6 Teoremas da função inversa e da função implı́cita 45

dhx = dAf (x) ◦ dfx = A ◦ dfx , pela proposição 1.5.5. Logo dha = Id e, por continuidade do
diferencial, podemos garantir que existe um δ > 0 tal que, escrevendo

J(h)x = Id + [²ij ]i,j∈{1,...,n} , ∀x ∈ B(a, δ),

as funções ²ij → 0 quando x → a. Aplicando agora o teorema dos acréscimos finitos em


cada uma das componentes de h = (h1 , . . . , hn ) e para cada x na bola, encontramos pontos
c∗1 , . . . , c∗n ∈ B(a, δ) (sobre o segmento que liga x a a) tais que
    
h1 (x) − h1 (a) ∂h1 ∗ ∂h1 ∗ x1 − a1
∂x1 (c1 )
··· ∂xn (c1 )
 ..    .. 
 . = ···  . 
∂hn ∗ ∂hn ∗
hn (x) − hn (a) (c
∂x1 n ) · ·· ∂xn (cn ) xn − an

Eventualmente modificando as funções ²ij por os pontos c∗i variarem de linha para linha,
mantendo-se ainda a propriedade de convergirem para 0 quando x → a, e sendo h(x1 , . . .
, xn ) = (y1 , . . . , yn ), h(a) = b, podemos escrever a equação matricial acima como
n
X
(yi − bi ) = (Id + [²ij ])(h−1 −1
j (y) − hj (b)).
j=1

Agora, como (Id + [²ij ])−1 = Id + [²̃ij ] com os ²̃ij → 0 se ²ij → 0 (ver lema 1.5.1 e o exercı́cio
1), resulta então que
h−1 (y) − h−1 (b) = (Id + [²̃ij ])(y − b),
bem como a condição
[²̃ij ](y − b)
lim = 0.
y→b ky − bk

Isto prova que h−1 é diferenciável em b com aplicação linear derivada a identidade. Como
qualquer isomorfismo linear é em particular uma aplicação diferenciável, vem que f −1 =
h−1 ◦ A é diferenciável em f (a) e tem derivada neste ponto igual a A = (dfa )−1 .
Designando por J(x) a matriz jacobiana de f , ou seja, a matriz de dfx na base canónica
de Rn , cujas entradas, por hipótese, são funções de classe C k−1 , resulta do que se viu que
dff−1 −1
(x) = (J(x)) . Ora, sabemos da álgebra linear (cf.[DA83]) que a inversa de uma matriz
invertı́vel J é igual à matriz com entradas

−1 Jij
Jji = , onde Jij = (−1)i+j |J(i;j) |
|J|

e J(i;j) representa a matriz quadrada, de ordem n − 1, que se obtém de J cortando a linha


i e a coluna j. Sendo o determinante uma função polinomial, logo C ∞ , e sendo o quociente
de duas funções polinomiais, com denominador não nulo, também de classe C ∞ , temos que
(J(x))−1 é da mesma classe de diferenciabilidade de J(x), como função de x.15
15
Esta asserção é consequência directa do que foi exposto na secção 1.5.3. A demonstração alternativa
vem apenas pretensamente completar o gosto do leitor.
46 Capı́tulo 1. Material preparatório

Finalmente, vamos deduzir que a função f −1 é de classe C k usando o método de indução.


Já vimos que é C 0 por ser diferenciável (recorde-se que k ≥ 1). Admitindo que é de classe
C k−1 , também resultará C k−1 a função em y
¡ ¢−1
dfy−1 = dff −1 (y)

por ser representada pela composição (J ◦ f −1 )−1 . Isto significa que f −1 é de classe C k . ¤

Estamos agora em condições de provar o teorema da função inversa, cujo alcance parece
ofuscar o do lema anterior: é que localmente, se a derivada for invertı́vel, teremos a garantia
da invertibilidade de f — então, pelo lema, com inversa de classe C k .
Teorema 1.6.1 (da função inversa). Seja U aberto de Rn e seja f : U → Rn uma função de
classe C k em U tal que, num certo ponto a ∈ U , det df (a) 6= 0. Então existe um aberto V ,
contendo a, e um aberto W , contendo f (a), tal que a restrição de f a V é um difeomorfismo
C k sobre W .
Demonstração. Fazendo o mesmo truque que na anterior demonstração, podemos já supôr
que df (a) = Id. Com efeito, os isomorfismos lineares A são difeomorfismos, portanto se
provarmos o teorema para A ◦ f também provamos para f .
Por continuidade da função determinante, podemos logo garantir que det df (x) 6= 0
para todo o x numa vizinhança de a. Já vimos mesmo que, numa bola de centro em a
suficientemente pequena, se tem J(f )(x) = Id + [²ij ] e invertı́vel, pelo que, se f (x1 ) = f (x2 )
em dois pontos x1 , x2 nessa bola, então pelo teorema dos acréscimos finitos vem

0 = f (x1 ) − f (x2 ) = (Id + [²ij ])(x1 − x2 )

Daqui resulta que x1 = x2 , por causa da invertibilidade de Id + [²ij ]. Fica provado que,
nalguma vizinhança de a, a aplicação f é injectiva. Não é assim tão fácil a demonstração
da sobrejectividade de f sobre uma vizinhança de f (a).
Para cada y ∈ B(f (a), δ) = W , com δ > 0 a determinar, consideremos a função

τ (x) = x + y − f (x).

Repare-se que encontraremos uma solução x da equação y = f (x) se, e só se, encontrarmos
um ponto fixo de τ , isto é, uma solução de τ (x) = x. Esta função é claramente de classe C k
e dτ (a) = Id − df (a) = Id − Id = 0. Por continuidade do diferencial e independentemente
de y, existe então um ε > 0 tal que
¯ ∂τ ¯ 1
¯ i ¯
¯ (x)¯ < , ∀x ∈ B(a, ε) = V.
∂xj 2n
Então, novamente invocando os acréscimos finitos dentro da bola, temos que
Xn X³ ∂τi ´2
kτ (x0 ) − τ (x00 )k2 = (τi (x0 ) − τi (x00 ))2 = (x∗(i) )(x0j − x00j )
∂xj
i=1 i,j
X 1 1 0
≤ 2
(x0j − x00j )2 = kx − x00 k2
(2n) 4n
i,j
1.6 Teoremas da função inversa e da função implı́cita 47

(a função τ é uma contracção). Agora é possı́vel encontrar δ > 0 tal que τ (V ) ⊂ V :

kτ (x) − ak ≤ kτ (x) − τ (a)k + kτ (a) − ak


≤ ckx − ak + ky − f (a)k ≤ cε + δ,

onde c = 2√1 n < 1, pelo que podemos tomar δ = (1 − c)ε.


Em seguida usamos a técnica da demonstração do ‘teorema do ponto fixo’ (já que não nos
propusemos apresentá-lo, cf. exercı́cio 2). Seja x0 ∈ V qualquer e x1 = τ (x0 ), x2 = τ (x1 ),
. . . , xp+1 = τ (xp ), . . .. Verifica-se então que

kxp+1 − xp k = kτ (xp ) − τ (xp−1 )k ≤ ckxp − xp−1 k ≤ cp kx1 − x0 k.

E tem-se também que {xp } é sucessão de Cauchy: se p > q,

kxp − xq k = kxp − xp−1 + xp−1 − · · · + xq+1 − xq k ≤ kxp − xp−1 k + · · · + kxq+1 − xq k


≤ (cp−1 + · · · + cq )kx1 − x0 k = cq (cp−1−q + · · · + 1)kx1 − x0 k
1 − cp−1−q+1 cq
= cq kx1 − x0 k ≤ kx1 − x0 k.
1−c 1−c
Como cq → 0, quando q → ∞, vem então que, para cada δ 0 > 0, existe uma ordem n0 a
partir da qual kxp − xq k < δ 0 , para todos os p, q > n0 . Por as bolas fechadas serem espaços
métricos completos podemos concluir que existe limite x = lim xq , o qual verifica τ (x) = x.
Está provado que, numa vizinhança V de a, para cada y ∈ W existe x tal que y = f (x) e,
portanto, f é bijectiva.
O resultado agora segue aplicando o lema anterior. ¤

Repare-se que o teorema admite uma generalização ao caso suave; a função inversa
resultando suave também. O teorema da função inversa deve ser confrontado com o seguinte
exemplo: φ : R → R definida por φ(x) = x3 é suave e invertı́vel, e não é uma imersão! Com
efeito, dφ(x)(u) = 3x2 u é idênticamente nula em x = 0.

Outro teorema que nos será útil mais tarde por permitir encontrar novas funções, é o
seguinte. Designamos adiante os pontos de Rn × Rm por (x, y).

Teorema 1.6.2 (da função implı́cita). Suponhamos que F : D ⊂ Rn × Rm → Rm é de


classe C k num aberto D. Suponhamos que num certo ponto (a, b) de D se tem F (a, b) = c
e que a matriz · ¸
∂Fi
(1.74)
∂yj i,j=1,...,m
é invertı́vel nesse ponto. Então existem um aberto U de Rn , com a ∈ U , e uma função
g : U → Rm de classe C k , com g(a) = b, tais que

F (x, g(x)) = c, ∀x ∈ U. (1.75)


48 Capı́tulo 1. Material preparatório

Rm D
F(x,y) =c

b g (x)

U
a xER
n

Figura 1.3: Função implı́cita.

Demonstração. Considere-se a função E : D → Rn × Rm definida por E(x, y) = (x, F (x, y)).


Claramente temos " #
1 0
J(E) = ∂Fi ∂Fi ,
∂xl ∂yj

donde resulta que det J(E) = (det 1) det ∂F


∂yj 6= 0 no ponto (a, b). O teorema da função
i

inversa garante então a existência de abertos D̃, contendo (a, b), e D̃0 , contendo (a, c), tais
que a restrição de E ao primeiro desses abertos é um difeomorfismo C k sobre o segundo.
Sendo a projecção para o primeiro factor, π1 : Rn+m → Rn , uma aplicação aberta, escre-
vendo U = π1 (D̃0 ) tem-se que U é um aberto contendo a e que, para cada x ∈ U , existe um
único g(x) ∈ Rm tal que

(x, g(x)) ∈ D̃ e E(x, g(x)) = (x, F (x, g(x))) = (x, c).

Uma vez que E −1 é de classe C k , assim o é também a função definida por π2 ◦ E −1 (x, c) =
g(x) onde π2 é a projecção para o segundo factor. ¤

Relembramos que os teoremas anteriores são válidos para o caso suave (C ∞ ). A partir
de agora vamos tratar apenas este caso, pois é suficiente para as aplicações da geometria
que temos em vista.

Teorema 1.6.3 (da derivada injectiva). Seja U aberto de Rn e f : U → Rm uma aplicação


suave em U tal que, num ponto a, a aplicação linear derivada df (a) é injectiva. Então
existem um aberto U 0 ⊂ U contendo a, um aberto V ⊂ Rm contendo f (a) e uma aplicação
suave g : V → Rn , tais que
g ◦ f (x) = x, ∀x ∈ U 0 . (1.76)

Demonstração. Uma vez que o diferencial dfa : Rn → Rm é injectivo, temos de ter p =


m − n ≥ 0. Seja w1 , . . . , wp uma base de um subespaço vectorial de Rm suplementar da
imagem de dfa (ie. esta e aquele estão em soma directa isomorfa a Rm ). É claro que a
aplicação que transforma y = (y1 , . . . , yp ) ∈ Rp em ỹ = y1 w1 + · · · + yp wp ∈ Rm é linear e
1.6 Teoremas da função inversa e da função implı́cita 49

n p
R f R
V

U f (a)
a f (U )
g
x

(x,o) R
n

n
a R

Figura 1.4: dfa injectiva, então existe g definida em V .

injectiva. Consideremos agora a aplicação suave

h : U × Rp −→ Rm
(x, y) 7−→ f (x) + ỹ.

Temos então que dh(a,0) é injectiva pois que, se (u, v) está no seu núcleo, isto é, se

dh(a,0) (u, v) = dfa (u) + ṽ = 0,

então de dfa (u) = −ṽ devemos concluir que ṽ está na imagem de dfa . Donde v = 0, por
construção, o que traz também u = 0 pela hipótese.
Contando as dimensões vemos que dh(a,0) é um isomorfismo. Podemos então aplicar o
teorema da função inversa para deduzir a existência de uma vizinhança de (a, 0) e de uma
vizinhança V de h(a, 0) = f (a) tal que a restrição de h à primeira é um difeomorfismo sobre
a segunda. Sendo h−1 = (g, g1 ), as componentes em Rn × Rp , temos que g é a aplicação
procurada, verificando
g(h(x, 0)) = g(f (x)) = x

como querı́amos. ¤

A demonstração anterior permite descrever intuitivamente aquilo que do teorema resulta.


É que, se a derivada é injectiva, então f identifica-se com a aplicação x 7→ (x, 0) a menos de
um difeomorfismo à chegada. Note-se que isto é verdade apenas localmente. Compare-se
com o caso da aplicação de R em R2 , t 7→ (cos t, sen t).

Um resultado dual do anterior prescreve também uma fórmula local para as aplicações
de derivada sobrejectiva.

Teorema 1.6.4 (da derivada sobrejectiva). Seja U um aberto de Rn e f : U → Rm uma


aplicação suave tal que, num dado ponto a ∈ U , df (a) : Rn → Rm é sobrejectiva. Existe
então um aberto V de Rn e um difeomorfismo suave g : V → g(V ) ⊂ U tal que a ∈ g(V ) e

f ◦ g(z, y) = y, ∀(z, y) ∈ V ⊂ Rn−m × Rm . (1.77)


50 Capı́tulo 1. Material preparatório

m
n f R
R

U f (a)
a
g y
V

(z,y)

Figura 1.5: dfa sobrejectiva então existe difeomorfismo g.

Demonstração. Neste caso, como dfa : Rn → Rm é sobrejectiva, devemos concluir que


n − m ≥ 0. Olhando para a matriz jacobiana J(f ) de f no ponto a, deduz-se logo que esta
tem m colunas linearmente independentes, ou seja, a famı́lia de vectores dfa (e1 ), . . . , dfa (en )
tem um número máximo de vectores linearmente independentes precisamente igual a m.
Escolhamos então m vectores nessa condição e sejam xi1 , . . . , xin−m as coordenadas em
Rn que dizem respeito aos restantes dfa (eij ). Seja x̃ o vector de Rp determinado por
(xi1 , . . . , xip ), onde p = n − m, e consideremos a aplicação suave

h: U −→ Rp × Rm
x 7−→ (x̃, f (x)).

Tem-se que    
∂xi1 ∂xi1
··· ei1
 ∂x1 ∂xn   . 
 ···   .. 
J(h) = 
 ∂xip ∂xip
=
 
.

 ∂x1 ··· ∂xn   eip 
J(f ) J(f )
Para efeitos de avaliação do determinante no ponto a, as colunas ij de J(f ), 1 ≤ j ≤ p,
podem ser consideradas nulas, pelo que a caracterı́stica (número máximo de linhas, ou
colunas, linearmente independentes) de J(h)a tem de ser igual a n, ou seja, o determinante
é não nulo. O resultado agora segue pelo teorema da função inversa; h é um difeomorfismo
numa vizinhança de a. A sua inversa, g, verifica

f ◦ g(z, y) = y

em algum aberto V . ¤

Novamente, o resultado anterior tem um âmbito estritamente local. Nada diz sobre
a função f em todo o seu domı́nio. Os últimos teoremas são úteis para a geometria: a
menos de difeomorfismo local, certas funções parecem-se muito ora com inclusões ora com
projecções canónicas; as outras estão algures entre esses dois casos extremos.

Exercı́cios
1.6 Teoremas da função inversa e da função implı́cita 51

1. Mostre que a inversa da matriz Id + [²ij ] é uma matriz do mesmo tipo Id + [²̃ij ], em
que os números ²̃ij → 0 se ²ij → 0 (cf. secção 1.5.3).

2. Demonstre o teorema do ponto fixo: Seja D um domı́nio completo e f : D ⊂ Rn → D


uma contracção (∀x, x0 ∈ D, kf (x) − f (x0 )k ≤ ckx − x0 k com 0 ≤ c < 1). Então
existe um, e um só, x ∈ D tal que f (x) = x.

3. Prosseguindo desde o meio da demonstração do teorema da função inversa e de acordo


com a sugestão, mostre que f −1 é contı́nua sem recorrer ao facto de f −1 vir a ser C k .
Sugestão: Repare que

kτ (f −1 (y)) − τ (a)k ≤ ckf −1 (y) − ak, ∀y ∈ B(b, δ).

4. Mostre que uma aplicação que tem uma inversa à esquerda é injectiva. Mostre que, se
uma aplicação tem uma inversa à direita, então ela é sobrejectiva. Mostre ainda que
estas condições são equivalências se se tratar de uma aplicação linear entre espaços
vectoriais de dimensão finita.

5. Mostre que, nas condições, ora do teorema da derivada injectiva, ora do teorema da
derivada sobrejectiva, a função f do enunciado é injectiva ou sobrejectiva, respectiva-
mente, numa vizinhança de a. Deduza de novo o teorema da função inversa a partir
daqueles dois teoremas.

6. Mostre que, nas condições do enunciado do teorema da função implı́cita e sendo [alk ]
£ k¤ ∂gi P
a matriz inversa de ∂F
∂yj , se tem ∂xj (x) = −
∂Fk
k aik ∂xj (x, g(x)).
52 Capı́tulo 1. Material preparatório
Capı́tulo 2

Variedades diferenciáveis

2.1 Definições e exemplos


Os espaços abstractos em cujo estudo estamos interessados são as chamadas variedades 16 .
Aparecendo como as estruturas fundamentais da Geometria Diferencial, assim venhamos
a verificar, apenas alguns exemplos de variedade se podem idealizar em situações comuns.
Mas a geometria moderna abandona aqui a sua existência ‘terrena’ e ‘sensı́vel’, para alcançar
soluções de problemas novos, que não mais podem ser apoiadas em explicações visuais ou
intuitivas. Não só pelas aplicações, est hoje bem estabelecida a profundidade e necessidade
da teoria das variedades diferenciáveis.
Na Fı́sica, o maior dos campos de aplicação, coloca-se a exigência de analisar os proble-
mas fora de um quadro em que as usuais coordenadas de um espaço euclidiano descreveriam
à partida todos os pontos do objecto fı́sico em causa. O exemplo mais óbvio é o do estudo
da própria superfı́cie terrestre (geo significa Terra), pois esta não é planificável. O estudo
das várias variáveis também é, já por si, fundamental. Se pensarmos no Sistema Solar,
pondo três variáveis de posição por cada um dos nove planetas, deveremos então estudar
uma variedade ‘espaço das órbitas’ de dimensão 27. Poderemos ser ainda mais exigentes
e perguntar se o espaço onde se encontram os tais planetas não será menor, isto é, se não
haverá posições por onde nunca passam os nove planetas ao mesmo tempo... E se olharmos
para o Universo munidos da teoria da Relatividade de Einstein, vemos que o espaço-tempo17
16
Do termo françês “variétés”, também conhecidas por “manifolds” na literatura inglesa e por “mannig-
faltigkeiten” na alemã.
17
O Espaço-tempo consiste num espaço afim de dimensão 4 (recorde-se que por este se entende um espaço
vectorial a menos do conhecimento da origem). Alguma reflexão sobre a teoria da Relatividade levar-nos-á
a uma óptima explicação de por que é que se devem estudar as variedades em termos abstractos e não
apelando a um famoso teorema de Whitney, que prova que todas as variedades riemannianas abstractas se
mergulham isómetricamente num espaço euclidiano (de uma dimensão muito maior).

53
54 Capı́tulo 2. Variedades diferenciáveis

é descrito com quatro variáveis reais e uma métrica especial, mudando-se de posição por
meio das chamadas transformadas de Lorentz — pelo que também devemos estar aptos a
trabalhar com as funções suaves definidas entre duas variedades. Por fim, lembramos que a
Mecânica Quântica ou a teoria do Electromagnetismo (equações de Maxwell) se estudam,
hoje em dia, no contexto das variedades.
Voltando aos problemas da Matemática, não sobra só o estudo, pois há muitas questões
em aberto. Ainda não se classificaram todos os “nós”, ie. as subvariedades de dimensão
1 contidas em R3 ou noutra variedade qualquer (que tantas implicações trazem para a
Mecânica Quântica). O mesmo se passa precisamente com as variedades de dimensão 2,
as denominadas “superfı́cies de Riemann”: razoavelmente conhecidas enquanto tal, não se
conhecem todos os seus mergulhos nas outras variedades. Já as variedades de dimensão 3 e
4, amplamente investigadas hoje em dia, apresentam dificuldades insondáveis em si mesmas.
Finalmente, o propósito deste segundo capı́tulo é tão somente lançar as bases da tal
geometria diferencial, que faz uso pleno do cálculo diferencial como estrutura intrı́nseca
de determinados espaços abstractos. Ideias intuitivas associadas às de variedade e suas
relações, como as de dimensão, de vector tangente ou aplicação suave, serão objecto de
formalização.
Desejamos que os fundamentos desta vasta teoria sejam compreendidos de forma tão
rápida quanto fecunda e rigorosa. Isso obrigar-nos-á a escolher alguns caminhos em detri-
mento de outros.

2.1.1 Definição

Vejamos um exemplo tı́pico e muito inspirador. Imagine o leitor um atlas do planeta


Terra, como há muitos nas nossas bibliotecas(!). O atlas é um conjunto de cartas, de
mapas e fotografias da superfı́cie terrestre. Observa-se então que não há nenhum mapa
que não apareça recortado ou truncado. Nenhuma página contém o globo inteiro sem
o recortar. Porém, ao mudar as páginas no nosso atlas, e portanto ao mudar de escala
ou de lugar cartografado, ou ainda ao mudar digamos da ‘projecção de Mercator’ para a
‘projecção azimutal’, para citar apenas duas técnicas cartográficas possı́veis, constatamos
que podemos encontrar uma correspondência biunı́voca entre as partes do primeiro mapa
e as do segundo, que dizem respeito à parte comum na Terra dos lugares retratados. Isto
obviamente é intencional. Os sı́tios que estavam à longitude x e latitude y continuam
exactamente com as mesmas coordenadas (se o atlas for de confiança, claro). Com alguma
intuição podemos ainda imaginar que tal mudança ou transição de cartas é o mais suave
possı́vel no sentido da ideia de suavidade da Análise Matemática. Resumindo, afirmamos
que é possı́vel descrever a Terra com certo grau de aproximação; fazêmo-lo por meio de um
conjunto de cartas cobrindo todas as áreas e de tal forma que as mudanças de uma carta
para outra são suaves.
2.1 Definições e exemplos 55

Seja M um espaço topológico de Hausdorff e com base numerável de abertos. Damos o


nome de atlas de M a uma famı́lia A = {(Uα , φα )} onde os Uα são subconjuntos abertos
de M constituindo uma cobertura e os φα são as cartas de M definidas nos Uα . As cartas
φα são homeomorfismos
φα : Uα −→ Vα ⊂ Rn (2.1)
sobre abertos Vα = φα (Uα ) do espaço euclidiano Rn , de tal sorte que as aplicações de
mudança de cartas

φβ ◦ φ−1
α : φα (Uα ∩ Uβ ) −→ φβ (Uα ∩ Uβ ) (2.2)

são suaves18 , quaisquer que sejam α, β. Ao espaço topológico M munido de um atlas A dá-
se o nome de variedade diferenciável de classe C ∞19 ou variedade suave. Chamamos
simplesmente variedade a uma qualquer variedade suave. O número natural n, comum a
todas as cartas, chama-se a dimensão de M .
À função inversa de uma carta dá-se o nome de parametrização.

2.1.2 Exemplos
1. Os abertos de Rn são variedades de dimensão n; qualquer espaço vectorial é uma va-
riedade. Mais geralmente, um aberto de uma variedade é uma variedade, e da mesma
dimensão.
2. A esfera de raio r, já referida na secção 1.5, definida por
© ª
Srn = (x0 , . . . , xn ) ∈ Rn+1 : x20 + · · · + x2n = r2 (2.3)

(com a topologia induzida de Rn+1 ) é uma variedade de dimensão n. Para ver isto tomamos
o atlas formado pelos abertos

U+,i = {(x0 , . . . , xn ) ∈ Srn : xi > 0}, U−,i = {(x0 , . . . , xn ) ∈ Srn : xi < 0}, (2.4)
18
Se exigı́ssemos a regularidade apenas de classe C k , dirı́amos então que M é uma variedade de classe
C . Uma variedade de classe C 0 também se diz uma variedade topológica. O leitor poderá ainda cruzar-se
k

noutro lugar com o conceito de variedade analı́tica real ou complexa, que se relaciona com aquele de função
analı́tica...
19
Uma nota importante no campo da Topologia Diferencial: dois atlas A1 , A2 sobre o mesmo espaço M
podem dar origem a duas estruturas de variedade distintas. Ao invés, diz-se que A1 e A2 induzem a mesma
estrutura diferenciável em M , ou que os dois atlas são compatı́veis, se A1 ∪ A2 é um atlas de M (ou
seja, as mudanças de cartas de um atlas para o outro são de classe C ∞ ). Tal relação é de equivalência sobre
a famı́lia de todos os atlas. Assim, com maior rigor, dizemos que uma variedade é um espaço topológico,
com base numerável e de Hausdorff, juntamente com a escolha de uma estrutura diferenciável. Note-se que
a dimensão é sempre a mesma, porque esta é um invariante topológico (a demonstração deste facto não é
nada trivial e deixamo-la para um curso não elementar de topologia).
Nos anos 60 do século passado, o matemático J. Milnor descobriu na esfera S 7 , sempre com a mesma
topologia, várias estruturas diferenciáveis diferentes da habitual. São as chamadas “esferas exóticas”. Em
4
1984 S. Donaldson encontrou toda uma famı́lia de estruturas diferenciáveis em R não compatı́veis entre si,
de que dificilmente se suspeitava existirem.
56 Capı́tulo 2. Variedades diferenciáveis

Figura 2.6: A mudança de cartas é suave.

i = 0, . . . , n, e pelos ‘mapas’ ou cartas (usamos a notação ± para distinguir ±xi > 0)


φ±,i : U±,i −→ B(0, r)
(2.5)
(x0 , . . . , xn ) 7−→ (x0 , . . . , xi−1 , xi+1 , . . . , xn )
onde B(0, r) é a bola aberta contida em Rn . A imagem de φ±,i é a bola aberta porque,
esquecendo a coordenada xi , que é não nula, obtém-se um vector de norma menor que r. É
S
claro que temos uma cobertura: Srn = ni=0 U+,i ∪U−,i . É também fácil ver que as aplicações
φ±,i são homeomorfismos. A inversa é dada por
q
φ−1 (y
±,i 1 , . . . , yn ) = (y1 , . . . , yi , ± r2 − y12 − · · · − yn2 , yi+1 , . . . , yn ), (2.6)
com a raı́z dando entrada no lugar i + 1. Menos trivial é verificar que a mudança de cartas
é suave. Ora supondo já i < j temos que
q
φ±,j ◦ φ−1 (y
±,i 1 , . . . , yn ) = (y1 , . . . , ± r2 − y12 − · · · − yn2 , . . . , yj−1 , yj+1 , . . . , yn ) (2.7)
e esta função é suave se as suas componentes o forem. O único problema que poderia surgir
é na raı́z de 0. Mas o domı́nio em causa é φ±,i (U±,i ∩ U±,j ), que não contém nenhum ponto
de norma r. Está provado que Srn é uma variedade suave. Também se denota simplesmente
por S n a esfera de raio 1.
3. Se M1 , M2 são variedades de dimensão n1 , n2 , respectivamente, então M1 × M2 é uma
variedade de dimensão n1 + n2 conhecida como o produto cartesiano de variedades.
Com efeito, este produto também é de Hausdorff e admite uma base numerável de abertos.
Se A1 = {(Uα , φα )} é um atlas de M1 e A2 = {(Vβ , ψβ )} é um atlas de M2 , então os abertos
Uα × Vβ cobrem M1 × M2 . Temos também que a aplicação
φα × ψβ : Uα × Vβ −→ Rn1 × Rn2 = Rn1 +n2 (2.8)
é um homeomorfismo sobre a sua imagem e que, se φα0 × ψβ 0 é outra carta, então
(φα × ψβ ) ◦ (φα0 × ψβ 0 )−1 = (φα × ψβ ) ◦ (φ−1 −1
α0 × ψβ 0 )
(2.9)
= (φα ◦ φ−1 −1
α0 ) × (ψβ ◦ ψβ 0 )
2.1 Definições e exemplos 57

Figura 2.7: A ordem da colagem é indiferente.

é uma aplicação suave por o serem as suas componentes.


4. (Construção de variedades por colagem) Podemos pensar nas variedades da se-
guinte maneira: consideremos uma famı́lia finita ou numerável {Ui } de abertos de Rn , cada
um deles contendo, para cada par ordenado (i, j), subconjuntos abertos Uij ⊂ Ui tais que
existem difeomorfismos fij : Uji → Uij com as seguintes propriedades:

fij−1 = fji
fij (Uji ∩ Ujk ) = Uij ∩ Uik (2.10)
fij ◦ fjk = fik

(estes difeomorfismos correspondendo às mudanças de cartas). A figura 2.7 sugere a ideia
das três propriedades. Agora, admitindo entre os elementos x, y de todos aqueles abertos a
relação
x ∼ y se x ∈ Uij , y ∈ Uji , y = fji (x), (2.11)

prova-se imediatamente que esta relação é de equivalência. Constrói-se então um espaço


topológico com base numerável e de Hausdorff no conjunto quociente
S
{i} × Ui
M= i (2.12)

e com a topologia quociente vinda da união disjunta dos abertos Ui (multiplicou-se cada Ui
pelo seu ı́ndice apenas para os distinguir). Note-se que cada um dos Ui define um aberto em
M , pois a aplicação de passagem ao quociente Ui ≡ {i} × Ui → M é uma aplicação aberta.
Por esta aplicação ser injectiva se restringida a cada um dos Ui , também denotamos por Ui
a imagem aberta contida em M .
5. Usando o exemplo anterior, podemos chegar a acordo rápida e diligentemente sobre a
viabilidade das seguintes construções.
O cilindro é uma variedade quando se pensa no quadrado ]0, 1[×]0, 1[ e se faz a colagem
de duas vizinhanças rectangulares e disjuntas de duas arestas opostas. Mas também se pode
pensar no cilindro como a variedade S 1 ×]0, 1[. Semelhante processo com um triângulo
aberto permite construir o cone (sem vértice). Tomando de novo um cilindro, podemos
ainda considerar vizinhanças das arestas que sobram e colá-las, como na figura 2.8. Obtemos
58 Capı́tulo 2. Variedades diferenciáveis

Figura 2.8: O quadrado, o cilindro e o toro.

Figura 2.9: A banda de Möbius e a garrafa de Klein.

assim uma variedade compacta chamada toro. Ela é compacta porque é homeomorfa (e de
facto difeomorfa) a S 1 × S 1 . Todas estas variedades têm dimensão 2.
O toro de dimensão n é definido como

Tn = S 1 × · · · × S 1 (n factores). (2.13)

6. Olhando novamente para o quadrado ou, para simplificar os cálculos, olhando para
o rectângulo ]0, 4[×] − 1, 1[ e identificando duas arestas opostas por meio da aplicação
f :]0, 1[×] − 1, 1[−→]3, 4[×] − 1, 1[, f (x, y) = (x + 3, −y), obtemos a chamada banda de
Möbius. Fazendo o mesmo no cilindro, ou seja, identificando as arestas de uma forma que
‘inverte o sentido’ numa delas obtemos a garrafa de Klein (figura 2.9).
7. É útil considerar as variedades suaves M de dimensão 0. As condições topológicas iniciais
obrigam então M a ser um conjunto numerável, munido da topologia discreta.

2.1.3 Propriedades topológicas


Finalmente, para clarificação da topologia das variedades temos os seguintes resultados.

Teorema 2.1.1. 1. Toda a variedade M admite um atlas numerável.


2. Toda a variedade é um espaço localmente compacto e localmente conexo por arcos.
3. Qualquer variedade conexa é conexa por arcos.
4. As componentes conexas de uma variedade são variedades.

Demonstração. 1. Repare-se que restringindo as cartas de um atlas aos abertos de uma


subcobertura aberta, obtém-se um atlas, pois também são suaves as respectivas restrições de
2.1 Definições e exemplos 59

mudança de cartas. Usamos então a base numerável de M para encontrar uma subcobertura
numerável de qualquer atlas de M , daı́ se obtendo um atlas numerável.
2. Seja x ∈ M . Então x pertence ao domı́nio aberto U de alguma carta φ. Como as cartas
são homeomorfismos e o ponto φ(x) tem um sistema fundamental de vizinhanças compactas
e conexas (as bolas fechadas) contidas em φ(U ) ⊂ Rn , a imagem inversa desse sistema de
vizinhanças é um sistema de vizinhanças de x, que são compactas e conexas como vimos no
exercı́cio 2 da secção 1.4.
3. Este resultado é devido ao anterior e à proposição 1.4.1.
4. Deve-se à mesma proposição 1.4.1 e ao facto dos abertos de variedades serem variedades.
¤

Corolário 2.1.1. Qualquer variedade é um espaço topológico paracompacto; logo um espaço


normal e metrisável.

Demonstração. As variedades são espaços topológicos de Hausdorff, têm base numerável e


são localmente compactas. Basta então aplicar os teoremas de Dieudonné e de Urysohn da
secção 1.4. ¤

O último corolário está de acordo com um certo e preciso resultado da geometria rieman-
niana, que nos leva à construção explı́cita de uma aplicação distância sobre uma qualquer
variedade (cf. teorema 3.5.1).

Exercı́cios
1. Justifique as afirmações do exemplo 1 acima.

2. Como já mencionámos, dois atlas A1 , A2 sobre o mesmo espaço topológico M dizem-se
compatı́veis se A1 ∪ A2 é um atlas de M . Mostre que tal relação é de equivalência.

3. Em X = R2 \{0} cole os vectores v com −v. Mostre que obtém uma variedade X/ ∼
homeomorfa a X. Tente explicar por que é que não se pode fazer o mesmo com o
plano todo.

4. Faça a colagem de um disco B(0, 1) ⊂ R2 a uma banda de Möbius pelas suas arestas
únicas. Como interpreta? Justifique que o espaço assim obtido é compacto.

5. (Projecção estereográfica) Considere a esfera S n ⊂ Rn+1 . Considere a norma


© ª
usual em Rn , cf. (1.38). Mostre que S n = (x, t) ∈ Rn × R : kxk2 + t2 = 1 . Sejam
PN = (0, 1), PS = (0, −1) os pontos da esfera conhecidos por pólo norte e pólo sul.
Mostre que a função
x
fN : S n \{PN } −→ Rn , fN (x, t) = (2.14)
1−t
60 Capı́tulo 2. Variedades diferenciáveis

Figura 2.10: A projecção estereográfica.

satisfaz a propriedade geométrica representada na figura 2.10. Prove que fN é um


homeomorfismo e defina a projecção estereográfica fS a partir do pólo sul. Mostre que
© ª
o sistema composto por duas cartas A = (S n \{PN }, fN ), (S n \{PS }, fS ) constitui
um atlas de S n . Mostre ainda que é suave a aplicação de mudança destas cartas, para
aquelas introduzidas nos exemplos20 .

6. Considere dois abertos U1 = C e U2 = C distintos ou ‘distinguidos’. Cole os abertos


U12 = U1 \{0} e U21 = U2 \{0} por meio do difeomorfismo z 7→ z1 . Que variedade
obtém?

7. Considere a esfera S 2 ⊂ R3 e uma semicircunferência L fechada, com o mesmo centro,


ligando os dois pólos (aquilo que se chama um meridiano). Mostre que M = S 2 \L
pode ser parametrizada como na figura 2.11 ou por coordenadas esféricas

(cos v cos u, cos v sen u, sen v) ∈ R3 tal que u ∈]0, 2π[, v ∈] − π2 , π2 [ (2.15)

Mostre que ψ(cos v cos u, cos v sen u, sen v) = (u, sen v) define uma carta de M . Mostre
que a mudança de cartas desta carta para aquela dos exemplos (exemplo 2) é suave.
Sendo a, k constantes, verifique que a curva γ ≡ {ψ −1 (t, a + kt) : −1 < a + kt < 1}
corta as projecções dos meridianos no cilindro sempre pelo mesmo ângulo e que, pro-
jectada no plano da linha do equador , a curva γ é fechada. Nota: este exercı́cio serve
para chamar a atenção da diferença entre aquela curva e a célebre curva loxodrómica 21
que, essa sim, corta sempre os meridianos pelo mesmo ‘ângulo’ (este mede-se nas tan-
gentes às curvas no ponto em questão, sobre S 2 ) e nunca chega aos pólos! Devemos
então concluir que a carta ψ não preserva os ângulos — mas isto não é matéria para
a geometria diferencial sózinha...
20
Quer dizer que o presente atlas dá a mesma estrutura diferenciável à esfera, no sentido já explicado em
nota de roda-pé anterior.
21
O português Pedro Nunes Salaciensis (Alcácer do Sal 1502, Coimbra 1578) foi o primeiro matemático
da História a considerar e a estudar as loxodrómicas ou curvas de rumo.
2.2 Espaço tangente 61

Figura 2.11: A projecção cilı́ndrica.

2.2 Espaço tangente


2.2.1 Definição e propriedades
Vamos associar a cada variedade M um espaço que se caracteriza por ser uma reunião
disjunta de espaços vectoriais ‘variando suavemente’ com os pontos de M . Tanto esse
espaço total como cada um dos espaços vectoriais tomarão o nome de espaço tangente; mas
o primeiro, T M , está associado à variedade como um todo, enquanto o outro é o espaço
tangente em cada ponto x ∈ M , denota-se por Tx M , e depende apenas de uma vizinhança
de x. Ter-se-á então [
TM = Tx M. (2.16)
x∈M

Por exemplo, se M é um aberto de R , então T M = M × Rn . Podemos interpretar a


n

introdução do espaço tangente como a necessidade de coordenar as ‘funções suaves entre


variedades’ tanto pelas suas imagens como pelas suas derivadas em cada ponto — daı́ o
produto cartesiano. Passemos então à construção rigorosa do espaço tangente.

Repare-se que podemos construir um espaço topológico por colagem de abertos usando
homeomorfismos, tal como se construiu uma variedade por colagem de abertos de Rn por
meio de difeomorfismos22 .
Seja M uma variedade de dimensão n e A = {(Uα , φα )} um atlas composto por todas as
cartas definidas em abertos de M . Ou seja, tomamos a famı́lia de todos os homeomorfismos
de abertos de M para abertos de Rn tais que as aplicações de mudança de cartas são suaves.
O espaço tangente T M é o espaço definido por colagem da famı́lia de abertos Uα × Rn
pelos seus subconjuntos
Wαβ = Wβα = (Uα ∩ Uβ ) × Rn (2.17)
22
A construção pode-se fazer mesmo quando tomamos uma famı́lia infinita de abertos, como mostra a
teoria dos limites indutivos. O problema está na existência ou não de um conjunto suporte. Na construção
de T M poderı́amos usar um atlas com um número de cartas não mais que numerável, mas convém-nos fazer
o ‘caminho’ com as cartas todas ao mesmo tempo — o leitor, estamos certos, convencer-se-á por si das
vantagens do infinito!
62 Capı́tulo 2. Variedades diferenciáveis

e por intermédio dos homeomorfismos


¡ ¡ ¢ ¢
fαβ : Wβα −→ Wαβ , fαβ (x, v) = x, d φα ◦ φ−1
β φ (v) (2.18)
β (x)

(recorde-se que o diferencial de um difeomorfismo é um isomorfismo linear).


Teorema 2.2.1. O espaço tangente é um espaço topológico, tem uma base numerável e é
de Hausdorff. Mais ainda, T M é uma variedade suave de dimensão 2n.
Demonstração. Para ver que T M está bem definido vamos provar que os homeomorfismos
fαβ verificam as equações (2.10). A segunda equação é imediata,

fαβ (Wαβ ∩ Wβγ ) = fαβ ((Uα ∩ Uβ ∩ Uγ ) × Rn ) = Uα ∩ Uβ ∩ Uγ × Rn = Wαβ ∩ Wβγ .

Tendo em conta que fαα = Id, basta-nos justificar a terceira equação. Usamos a regra da
derivada da função composta:
¡ ¢
fαβ ◦ fβγ (x, u) = fαβ x, d(φβ ◦ φ−1
γ )φγ (x) (u)
¡ ¢
= x, d(φα ◦ φ−1 −1
β )φβ (x) ◦ d(φβ ◦ φγ )φγ (x) (u)
¡ ¢
= x, d(φα ◦ φ−1 −1
β ◦ φβ ◦ φγ )φγ (x) (u)
¡ ¢
= x, d(φα ◦ φ−1
γ )φγ (x) (u) = fαγ (x, u).

A primeira equação resulta então, de modo trivial, de fαβ fβα = fαα = Id. Tendo em conta
o que se disse antes, temos uma relação de equivalência
¡ ¢
(α, x, u) ∼ (β, y, v) se x = y e v = d φβ ◦ φ−1 α φα (x) (u)
¡F n
¢
e logo um espaço topológico T M = α Uα × R / ∼ bem definido (união disjunta, módulo
∼). Cada Uα × Rn é homeomorfo a um aberto de T M (veja-se o exercı́cio 16 da secção
1.2). Por isso, se {(Ui , φi )}i∈N é um atlas numerável de M , então {Ui × Rn } dá lugar a
uma cobertura numerável de T M . Resulta desta cobertura que T M é de Hausdorff; e se
fizermos ainda o produto cartesiano de uma base numerável de abertos de M por uma
base numerável de abertos de Rn , esta projectar-se-á numa base de abertos de T M que é
numerável. Estão verificadas as duas condições topológicas exigidas para o espaço tangente
poder ser uma variedade. Finalmente, para ver que assim é, definimos as cartas de T M
como
φα : Uα × Rn ⊂ T M −→ Rn × Rn
(2.19)
[α, x, v] 7−→ (φα (x), v)
onde [α, x, v] representa a classe de (x, v) ∈ Uα × Rn em T M . A aplicação de mudança
da carta φα para a carta φβ está então definida do aberto φα (Uα ) × Rn para o aberto
φβ (Uβ ) × Rn e verifica
¡ ¢
φβ ◦ φ−1
α
(y, u) = φ β
[α, φ −1
α (y), u]
¡ ¢
= φβ [β, φ−1 −1
α (y), d(φβ ◦ φα )y (u)]
¡ ¢
= φβ ◦ φ−1 −1
α (y), d(φβ ◦ φα )y (u) ,
2.2 Espaço tangente 63

que é uma aplicação suave por o serem as suas componentes. ¤

Como já dissemos, cada aberto Uα × Rn , onde Uα é o domı́nio de uma carta, é ho-
meomorfo a um aberto de T M . Então a projecção de cada {x} × Rn em T M dá lugar a
um espaço Tx M — que não depende da escolha da carta; tendo em vista a linearidade das
funções fαβ nas suas segundas componentes, está bem definida uma soma e um produto por
escalares reais em Tx M que transformam este conjunto num espaço vectorial sobre R. Este
espaço vectorial recebe o nome de espaço tangente a M no ponto x. Os seus elementos
são os vectores tangentes. Tendo em conta a cobertura de T M pelos Uα × Rn , vem que
[
TM = Tx M. (2.20)
x∈M

Proposição 2.2.1. Tx M depende apenas de uma vizinhança aberta de x em M . Ou seja,


para qualquer aberto U com x ∈ U , tem-se

Tx M ⊂ T U ⊂ T M. (2.21)

Demonstração. Basta lembrar que obtemos um atlas de U se intersectarmos as cartas de


um atlas de M com U e que, recı́procamente, todas as cartas de U são cartas de M . Isso
permite também identificar Tx U = Tx M . ¤

Proposição 2.2.2. Sejam N, M variedades suaves. Então T (N × M ) = T N × T M . Em


particular, T(x,y) (N × M ) = Tx N × Ty M .
Demonstração. Tomemos, tal como no exemplo 3 de 2.1.2, um atlas {(Uα , φα )} de N
e um atlas {(Vβ , ψβ )} de M . Quaisquer vectores tangentes [α, x, u] ∈ T N e [β, y, v] ∈
T M , descritos como na demonstração do teorema 2.2.1, representam um vector tangente
[(α, β), (x, y), (u, v)] ∈ T (N × M ) por meio da carta (Uα × Vβ , φα × ψβ ) do produto car-
tesiano das duas variedades. Então podemos dizer que o par ordenado constituı́do pelos
dois primeiros vectores é igual ao terceiro (tal ambiguidade não constitui um verdadeiro
obstáculo). Está provado que T N × T M ⊂ T (N × M ).
Recı́procamente, seja ϕ : Z → ϕ(Z) ⊂ Rn+m uma carta definida num aberto Z de
N × M qualquer. Seja (x, y) ∈ Z e [(x, y), w] um vector tangente a N × M descrito pela
carta ϕ (omitimos os ı́ndices por simplicidade). Uma vez que esta variedade tem a topologia
produto, existem vizinhanças abertas U de x em N e V de y em M tais que U × V ⊂ Z.
Podemos mesmo supô-las tão pequenas de tal modo que sejam o domı́nio de cartas (U, φ)
de N e (V, ψ) de M . Visto que (U × V, φ × ψ) é uma carta da variedade produto, o vector
dado [(x, y), w] na carta ϕ, escreve-se na nova carta como [(x, y), (w1 , w2 )] onde
¡ ¢
(w1 , w2 ) = d (φ × ψ) ◦ ϕ−1 (w) ,

de acordo com a decomposição canónica Rn × Rm = Rn+m e o resultado segue, exprimindo


de novo o vector dado como um par ordenado.
Note-se que a transformação [(x, y), w] = ([x, w1 ], [y, w2 ]) é linear, fixadas as cartas
ϕ, φ, ψ. Donde a identificação também linear dos espaços tangentes em cada ponto (x, y). ¤
64 Capı́tulo 2. Variedades diferenciáveis

2.2.2 Funções suaves com valores reais


Vamos agora dizer o que se entende por funções suaves23 definidas numa variedade e com
valores reais. Esta noção parte de uma definição local tal como na secção 1.5.1.

Dada uma variedade suave M de dimensão n, seja W um aberto de M e f : W → R


uma função. Dizemos que f é suave em W se para cada carta φ : U → Rn , com U ⊂ W , a
função
f ◦ φ−1 : φ(U ) −→ R (2.22)

é suave. Note-se desde já que a noção de suavidade é uma noção local .

Recordemos que pela demonstração do teorema 2.2.1 ficámos a conhecer como associar
vectores tangentes [x, v] ∈ Tx M a cartas φ quaisquer (omitimos o ‘ı́ndice α’ para não
sobrecarregar a notação). Se f é uma função suave, define-se então a aplicação linear
derivada ou diferencial de f
dfx : Tx M −→ R (2.23)

por
dfx ([x, v]) = d(f ◦ φ−1 )φ(x) (v) (2.24)

que é de facto uma aplicação R-linear: lembrar que [x, v1 ] + c[x, v2 ] = [x, v1 + cv2 ] ∀v1 , v2 ∈
Rn , ∀c ∈ R. Para que a aplicação linear dfx esteja bem definida em cada Tx M ela não pode
depender da escolha das cartas (note-se que depende das cartas, mas no sentido em que já
Tx M dependia). Com efeito, se ψ : V → Rn é outra carta de M tal que x ∈ U ∩ V , então a
condição da aplicação f ◦ ψ −1 ser suave em U ∩ V é equivalente a f ◦ ψ −1 ◦ ψ ◦ φ−1 = f ◦ φ−1
ser suave (recorde que ψ ◦ φ−1 : φ(U ∩ V ) → ψ(U ∩ V ) é um difeomorfismo), o que concorda
com a definição dada.
Agora, sendo aquele vector tangente [x, v] igual a [x, u] na carta ψ, portanto verificando
u = d(ψ ◦ φ−1 )φ(x) (v), resulta
¡ ¢
d(f ◦ ψ −1 )ψ(x) (u) = d(f ◦ ψ −1 )ψ(x) d(ψ ◦ φ−1 )φ(x) (v) = d(f ◦ φ−1 )φ(x) (v) (2.25)

pelo que
dfx ([x, v]) = dfx ([x, u]) (2.26)

como querı́amos provar.


Denotamos por CU∞ ou C ∞ (U, R) o conjunto das funções reais e suaves definidas num
aberto U de uma variedade.

Seja {e1 , . . . , en } a base canónica de Rn . Dada uma carta φ : U → Rn , com componentes


φ(x) = (φ1 (x), . . . , φn (x)), os vectores [x, e1 ], . . . , [x, en ] formam uma base de Tx M que se
23
A generalização para classe C k é trivial.
2.2 Espaço tangente 65

denota por
∂ ∂
(x), . . . , (x). (2.27)
∂φ1 ∂φn
Se f : U → R é uma função suave, então denotamos
∂f ³ ∂ ´
(x) = df (x) = df ([x, ei ]) = d(f ◦ φ−1 )φ(x) (ei ) (2.28)
∂φi ∂φi

Claramente todas estas construções generalizam o espaço euclidiano Rn , onde por hábito
φ = Id.

2.2.3 Campos vectoriais e parêntesis de Lie


Note-se que cada vector tangente v ∈ T M pertence a um e um só espaço tangente nalgum
ponto x, pois a união (2.20) é uma união disjunta. Logo está bem definida uma aplicação

π : T M −→ M (2.29)

tal que π(v) = x, ou seja, π −1 (x) = Tx M . Esta aplicação é chamada de projecção


canónica.

A uma função X : M → T M tal que Xx ∈ Tx M dá-se o nome de campo vectorial


sobre M . Definem-se igualmente campos vectoriais sobre os abertos de M . Um campo
vectorial é portanto uma aplicação caracterizada por satisfazer π ◦ X(x) = x, ∀x ∈ M . Por
exemplo, dada uma carta φ : U → Rn temos, para cada i, um campo vectorial definido por

x 7→ ∂φ i
(x); mas este campo vectorial está só definido sobre o aberto U . Usando a estrutura
de espaço vectorial sobre R em cada espaço tangente Tx M podemos definir a soma X + Y
de dois campos vectoriais X, Y ; basta fazer (X + Y )x = Xx + Yx . Também podemos
multiplicar um campo vectorial X por uma função f com o mesmo domı́nio, fazendo muito
naturalmente (f X)x = f (x)Xx .
Um campo vectorial actua nas funções suaves induzindo uma nova função pela fórmula

X ·f = df (X) (2.30)

ou, mais explı́citamente, (X·f )(x) = df (Xx ). Dizemos que o campo vectorial X é suave num
aberto V se se verifica a condição X ·f ∈ CV∞ , para qualquer função f ∈ CV∞ . Denotamos
por XV o conjunto dos campos vectoriais suaves sobre V :
© ª
XV = X : V −→ T V ⊂ T M : X é um campo vectorial suave .

É claro que se X, Y ∈ XV e f ∈ CV∞ , então X + Y, f X também são suaves, pelo que XV


herda uma estrutura de espaço vectorial real24 .
24
Mais precisamente, uma estrutura de módulo sobre o anel das funções suaves.
66 Capı́tulo 2. Variedades diferenciáveis

Figura 2.12: Um campo vectorial sobre S 2 .

Seja n a dimensão de M . Um conjunto de n campos vectoriais X1 , . . . , Xn definidos num


aberto U e tal que X1x , . . . , Xnx é uma base de Tx M, ∀x ∈ U , chama-se um referencial.
Um referencial diz-se suave se os Xi são todos suaves. Tendo em conta (2.27) podemos
sempre encontrar referenciais suaves definidos localmente, cf. exercı́cio 6. (A questão de
saber se existe um referencial suave e global , isto é, definido sobre M , é uma questão difı́cil
e depende da variedade. Por exemplo, para as esferas provou-se que só em S 0 , S 1 , S 3 e S 7
é que existe um tal referencial.)

Continuemos a designar por M uma variedade qualquer e por n a sua dimensão. Vejamos
como se define outra operação binária entre campos vectoriais, o parêntesis de Lie, que tem
propriedades muito especiais. Seja φ : U → Rn uma carta, definida num aberto U de M .
Vamos denotar as componentes de φ por (x1 , . . . , xn ) (note bem: cada xi é uma função
U → R). Já vimos que está definido sobre U um referencial suave ∂x∂ 1 , . . . , ∂x∂n . Logo,
sendo Z, W ∈ XU dois campos vectoriais suaves, podemos escrever
n
X n
X
∂ ∂
Z= ai , W = bi (2.31)
∂xi ∂xi
i=1 i=1

com ai , bi : U → R funções reais e suaves. Chamamos parêntesis de Lie de Z com W ao


campo vectorial suave [Z, W ] definido por
X³ ∂bi ∂ai ´ ∂
[Z, W ] = aj − bj (2.32)
∂xj ∂xj ∂xi
i,j

(aqui, e de agora em diante, todos os ı́ndices variam de 1 a n).

Proposição 2.2.3. O parêntesis de Lie de dois campos vectoriais é um campo vectorial


suave, e não depende das cartas.

Demonstração. Vamos usar os exercı́cios 2,3,5,6,7,8,9 que generalizam propriedades conhe-


cidas da secção 1.5, pelo que o leitor poderá facilmente resolvê-los. O campo vectorial [Z, W ]
é suave porque as suas componentes são suaves (exercı́cio 6). Em relação à independência
do parêntesis de Lie das cartas só temos de ver que se (2.32) é calculado recorrendo a outra
2.2 Espaço tangente 67

carta, então o resultado é igual. Seja ψ : V → Rn outra carta qualquer com componentes
(y1 , . . . , yn ). Então em U ∩ V vem

∂ X ∂yj ∂ ∂ X ∂xi ∂
= , =
∂xi ∂xi ∂yj ∂yj ∂yj ∂xi
j i

(exercı́cio 7) e logo, substituindo em (2.31),


X ∂yj ∂ X ∂yj ∂
Z= ai , W = bi .
∂xi ∂yj ∂xi ∂yj
i,j i,j

P ∂yj P ∂yj
Então, escrevendo ãj = i ai ∂xi , b̃j = i bi ∂xi , temos por definição

X³ ∂ b̃i ∂ãi ´ ∂
[Z, W ] = ãj − b̃j
∂yj ∂yj ∂yi
i,j
X ³ ∂yj ∂ b̃i ∂xl ∂yj ∂ãi ∂xi ´ ∂xm ∂
= ak − bk (2.33)
∂xk ∂xl ∂yj ∂xk ∂xl ∂yj ∂yi ∂xm
i,j,k,l,m
X ³ ∂ b̃i ∂xl ∂ãi ∂xl ´ ∂xm ∂
= ak − bk .
∂xl ∂xk ∂xl ∂xk ∂yi ∂xm
i,k,l,m

Note que nesta última passagem se respeitaram muito bem os factores em evidência. O
mesmo se faz a seguir, tomando a soma no ı́ndice l. Uma vez que, pelo exercı́cio 5, se tem
∂xl
∂xk = δlk , resulta que (2.33) é igual a

X ³ ∂ b̃i ∂ãi ´ ∂xm ∂


ak − bk
∂xk ∂xk ∂yi ∂xm
i,k,m
X ³ ∂bp ∂yi ∂ 2 yi ∂ap ∂yi ∂ 2 yi ´ ∂xm ∂
= ak + ak bp − bk − bk ap .
∂xk ∂xp ∂xk ∂xp ∂xk ∂xp ∂xk ∂xp ∂yi ∂xm
i,k,m,p

Usando o teorema de Schwarz (ver exercı́cio 9), temos que o somatório em k e p de


2y 2y
ak bp ∂x∂k ∂x
i
p
− bk ap ∂x∂k ∂x
i
p
é nulo. Continuando o cálculo anterior encontramos então o vector

X ³ ∂bp ∂ap ´ ∂yi ∂xm ∂


ak − bk
∂xk ∂xk ∂xp ∂yi ∂xm
i,k,m,p
X ³ ∂bp ∂ap ´ ∂xm ∂
= ak − bk
∂xk ∂xk ∂xp ∂xm
k,m,p
X³ ∂bm ∂am ´ ∂
= ak − bk ,
∂xk ∂xk ∂xm
k,m

que é exactamente a expressão que nos dá o parêntesis de Lie [Z, W ] na carta φ, como
querı́amos demonstrar. ¤
68 Capı́tulo 2. Variedades diferenciáveis

Dados dois campos vectoriais suaves definidos sobre a variedade M , definimos o seu
parêntesis de Lie como o campo vectorial sobre M que em cada carta da variedade tem a
expressão dada por (2.32). Decorre directamente da proposição acima o resultado seguinte:

Teorema 2.2.2. Se X, Y ∈ XM , então está bem definido o parêntesis de Lie [X, Y ] ∈ XM .

Sejam X, Y, Z campos vectoriais suaves quaisquer sobre M . Vejamos três propriedades


do parêntesis de Lie; primeiro, este actua nas funções f ∈ C ∞ pela fórmula

[X, Y ]·f = X ·(Y ·f ) − Y ·(X ·f ) (2.34)

que nos ajuda a ver rapidamente que o parêntesis de Lie é anti-simétrico, ou seja,

[X, Y ] = −[Y, X], (2.35)

e que verifica a identidade de Jacobi:

[[X, Y ], Z] + [[Z, X], Y ] + [[Y, Z], X] = 0. (2.36)

Com efeito, um campo vectorial fica determinado pela forma como actua nas funções. Dei-
xamos a demonstração destes factos como exercı́cio.

Exercı́cios
M denota sempre uma variedade de classe C ∞ e dimensão n. Denotamos por U um
aberto de M .

1. Mostre que para M = Rn resulta da construção do espaço tangente que T U = U × Rn .


Identifique o espaço tangente em cada ponto x ∈ U . Estude o espaço tangente de uma
variedade de dimensão 0.

2. Mostre que CU∞ é um espaço vectorial sobre R e que sendo f, g ∈ CU∞ então f g ∈ CU∞ .
Mostre que d(f + g) = df + dg, d(λf ) = λdf, λ ∈ R.

3. Deduza a regra de Leibniz para o produto de funções suaves em U : d(f g) = (df )g +


f dg.

4. Diga se são verdadeiras ou falsas: a) T M tem dimensão 2n; b) Tx M não depende de


T M mas apenas de uma vizinhança de x; c) para qualquer aberto U ⊂ M , T U = U ×
Rn ; d) a noção de função suave depende das cartas; e) a noção de função suave depende

¡ ∂ ¢
da escolha das cartas; e) ∂φ i
(x) é definido como o vector tal que dφ ∂φ i
(x) = ei .

5. Considere uma carta de M e veja as suas componentes como funções num aberto.
∂φi
Mostre que essas funções são diferenciáveis e que, na notação de (2.28), temos ∂φ j
= δij
(δ designa o sı́mbolo de Kronecker : vale 1 se i = j, vale 0 se i 6= j).
2.2 Espaço tangente 69

© ª
6. Considere o referencial local ∂
∂φj j=1,...,n
induzido por uma carta φ : U → Rn .
∂ ∂f
Verifique que ∂φ j
· f = ∂φ j
e que o referencial é suave. Mostre também que um
campo vectorial X está em XU se, e só se, X se escreve como combinação linear
X = a1 ∂φ∂ 1 + · · · + an ∂φ∂ n , com as funções ai ∈ CU∞ .

7. (Uma notação prática). Sejam φ, ψ duas cartas de M de domı́nios U, V , tais que


U ∩ V 6= ∅. Denotamos as suas componentes por: φ(x) = (x1 (x), . . . , xn (x)), ψ(x) =
(y1 (x), . . . , yn (x)). Cada yi e cada xj definem então funções reais e suaves. Mostre
que na intersecção dos seus domı́nios se tem
n
X ∂yi ∂ n
X
∂ ∂xj
= , dxj = dyi (2.37)
∂xj ∂xj ∂yi ∂yi
i=1 i=1
∂f Pn ∂f ∂yi
e conclua que ∂x j
= i=1 ∂yi ∂xj . Prove que, se tivessemos principiado por definir
(2.37) como as ‘regras de mudança de carta’, então estaria bem definida a expressão
n
X ∂f
df = dxi , (2.38)
∂xi
i=1

∀f ∈ CM∞ , independentemente da escolha das cartas. Verifique ainda que (2.38) coin-

cide com a aplicação linear derivada de f definida em (2.23).


∞ , X, Y ∈ X . Mostre que (X+Y )·f = X·f +Y·f e que (gX)·f = g(X·f ).
8. Sejam f, g ∈ CM M
Demonstre a regra de Leibniz X ·(f g) = f X ·g + g X ·f . Prove que, se X ·h = Y ·h
para todo o aberto U ⊂ M e para toda a função h ∈ CU∞ , então X = Y .

9. Generalize o teorema de Schwarz às cartas de uma variedade, ie., mostre que
∂2f ∂2f
(x) = (x) (2.39)
∂φi ∂φj ∂φj ∂φi

na notação habitual. Calcule [ ∂φ , ∂ ].
i ∂φj

10. Mostre que o parêntesis de Lie é bilinear, ou seja,

[aX + bY, Z] = a[X, Z] + b[Y, Z], [X, aY + bZ] = a[X, Y ] + b[X, Z] (2.40)

quaisquer que sejam X, Y, Z ∈ XM , a, b ∈ R.

11. Demonstre as fórmulas (2.34),(2.35) e a identidade de Jacobi (2.36).

12. Prove que [f X, Y ] = f [X, Y ] − (Y ·f )X.

13. Represente gráficamente os campos vectoriais X, Y e [X, Y ] nalguns pontos de R2 ,


∂ ∂ ∂
onde X = y ∂x + x ∂y , Y = x2 ∂y .
70 Capı́tulo 2. Variedades diferenciáveis

2.3 Aplicações suaves entre variedades


Começamos por ver o caso particular do que se deve entender por curvas ou caminhos suaves
numa variedade. Depois generalizamos estes resultados.

2.3.1 Curvas suaves


Seja M uma variedade suave de dimensão n. Seja I um intervalo aberto de R e γ : I → M
uma curva. Dizemos que γ é suave se, para todo o aberto U tal que U ∩ γ(I) 6= ∅
e para toda a função f ∈ CU∞ , a função f ◦ γ : I → R é suave. Sob esta condição tem lugar
o seguinte resultado.

Proposição 2.3.1. Para cada t ∈ I, existe um e um só vector tangente vt ∈ Tγ(t) M tal que

df ◦ γ
dfγ(t) (vt ) = (t), (2.41)
dt
qualquer que seja f ∈ C ∞ .

Demonstração. Seja φ = (φ1 , . . . , φn ) uma carta definida num aberto contendo γ(t). Seja
n
X dφi ◦ γ ∂
vt = (t) (γ(t)). (2.42)
dt ∂φi
i=1

É claro que este vector está em Tγ(t) M e que para cada φj satisfaz
n
X dφi ◦ γ ³ ∂ ´ dφ ◦ γ
j
dφj (vt ) = dφj = ,
dt ∂φi dt
i=1

pelo que, cf. (1.47) e (2.28),


³ dφ ◦ γ dφn ◦ γ ´
1
dfγ(t) (vt ) = d(f ◦ φ−1 )φ(γ(t)) ,...,
dt dt
d ¡ ¢
= d(f ◦ φ−1 )φ(γ(t)) φ1 ◦ γ, . . . , φn ◦ γ
dt
d −1 df ◦ γ
= f ◦φ ◦φ◦γ =
dt dt
para qualquer f . Quanto à unicidade, se ṽ é outro vector satisfazendo (2.41), então dφi (ṽ) =
© ∂ ª
(φi ◦ γ)0 (t) e logo as componentes de ṽ no referencial ∂φ i
são as mesmas. ¤

Ao vector vt dado pela proposição anterior dá-se o nome de velocidade de γ no ponto


t e denota-se por γ 0 (t) ou dγ
dt (t). A equação que o caracteriza é simplesmente a regra da
derivada da função composta:

df ◦ γ ³ dγ ´
(t) = dfγ(t) (t) . (2.43)
dt dt
2.3 Aplicações suaves entre variedades 71

Deixamos como exercı́cio a demonstração de que, dados x ∈ M e v ∈ Tx M quaisquer, existe


sempre uma curva que passa em x com velocidade v.

Dizemos que uma curva (ou arco) é seccionalmente suave se assim o for no seu
domı́nio subtraı́do de um número finito de pontos.

Proposição 2.3.2. Qualquer variedade conexa M é conexa por arcos seccionalmente sua-
ves.

Demonstração. Em virtude do teorema 2.1.1, M é conexa por arcos. Sejam x, y dois quais-
quer pontos de M e fx,y : [0, 1] → M um caminho C 0 ligando x e y. Como o caminho
em si é um compacto (imagem directa de um intervalo compacto) e este está coberto pelas
cartas de M , existe um conjunto finito I de cartas que o cobrem. Podemos supôr que
cada uma dessas cartas tem imagem na bola de centro 0 e raio 1 de Rn , pelo que é muito
fácil construir um arco, ou caminho, suave que ligue dois pontos nessa mesma carta. Basta
tomar a imagem inversa do segmento de recta que liga as imagens desses pontos.
Agora, partindo de x, chamamos U1 a um elemento de I que contenha x. Se y ∈ U1 ,
está provado. Se não, existe um aberto U2 ∈ I que intersecta U1 (porque o caminho inicial
é conexo). Seja x1 ∈ U1 ∩ U2 . Se y ∈ U2 , o caminho seccionalmente suave de x para
y é feito passando em x1 , por justaposição de dois caminhos construı́dos como se indicou
anteriormente. Se não, existe um terceiro aberto U3 ∈ I\{U1 , U2 } com intersecção não vazia
com U1 ∪ U2 e voltamos a repetir o processo anterior, dando mais um passo no caminho
para y. Como o processo é finito, o resultado está provado. ¤

2.3.2 Aplicações suaves e suas propriedades


Já vimos três exemplos de funções suaves entre variedades: as funções com valores reais,
os campos vectoriais e as curvas. Não nos deve ser difı́cil agora generalizar esta definição.
Para começar recordamos que se pode sempre considerar o caso mais geral das variedades
de classe C k e das funções de classe C i , 1 ≤ i ≤ k, obtendo-se então o espaço tangente como
variedade de classe C k−1 e as derivadas de funções de uma classe 1 grau inferior. É por
causa desta descida de ordem de diferenciabilidade que se usa a classe C ∞ , que evita esta
preocupação (e que não parece ser muito restritiva em termos de exemplos pertinentes).

Sejam M, N variedades suaves de dimensões m e n respectivamente. Dizemos que uma


aplicação Φ : N → M é suave se, para todo o aberto V de M e toda a função f ∈ C ∞ (V, R),
para todo o aberto U de N tal que Φ(U ) ⊂ V , se tem f ◦ Φ ∈ C ∞ (U, R).

Proposição 2.3.3. Nas condições anteriores, as seguintes são equivalentes:


(i) Φ : N → M é suave.
(ii) para qualquer aberto U ⊂ N e qualquer carta φ : U → Rn , para qualquer aberto V ⊂ M
72 Capı́tulo 2. Variedades diferenciáveis

Figura 2.13: Suavidade entre variedades corresponde a suavidade entre cartas.

domı́nio de uma carta ψ : V → Rm , tal que Φ(U ) ⊂ V , a função ψ ◦ Φ ◦ φ−1 : φ(U ) → ψ(V )
é suave.
(iii) existe um atlas de N com cartas (Uα , φα ) e um atlas de M com cartas (Vβ , ψβ ) tal que,
para cada α, β com Φ(Uα ) ∩ Vβ 6= ∅, a função ψβ ◦ Φ ◦ φ−1α : φα (Uα ) → ψβ (Vβ ) é suave.

Demonstração. (i)⇒(ii) Supondo dadas cartas (U, φ) e (V, ψ) quaisquer, vejamos que a
composição ψ ◦ Φ ◦ φ−1 é suave. Ora, para cada componente ψi temos por hipótese que
ψi ◦Φ é suave, ou seja, usando a carta dada, a função ψi ◦Φ◦φ−1 : φ(U ) → R é suave (note-se
que para funções reais já provámos a independência da escolha das cartas). Lembrando que
uma função com valores em Rm é suave se e só se o forem as suas componentes, temos o
resultado. A figura 2.13 representa a situação criada.
(ii)⇒(iii) Os atlas existem sempre, de modo que a implicação é trivial.
(iii)⇒(i) Seja V um aberto de M , f ∈ C ∞ (V, R) e seja U aberto de N tal que Φ(U ) ⊂ V .
Queremos ver que f ◦Φ ∈ C ∞ (U, R). Ora, como se vê na definição, a suavidade é uma noção
local (cf. exercı́cio 1), pelo que podemos tomar uma cobertura {Uα ∩ U } de U e analisar
a suavidade em cada um desses abertos. Nesta situação, sendo β tal que Φ(Uα ) ∩ Vβ 6= ∅,
deduz-se então das hipóteses que
−1
f ◦ Φ ◦ φ−1 −1
α = f ◦ ψβ ◦ ψβ ◦ Φ ◦ φα

é suave. ¤

Claro que uma aplicação suave é contı́nua (exercı́cio 2).


Note-se que, pensando em R como uma variedade, uma função f definida num aberto de
uma variedade, com valores reais, é suave segundo a definição já apresentada se, e só se, ela
é suave segundo a nova definição. O mesmo se passa com as curvas. E resulta por definição
que qualquer carta é uma aplicação suave. Já para os campos vectorias a equivalência das
definições carece de demonstração.
2.3 Aplicações suaves entre variedades 73

Proposição 2.3.4. 1. Um campo vectorial X : U → T N é suave se, e só se, a aplicação


X é suave.
2. A projecção canónica π : T N → N é suave.
Demonstração. 1. Usamos o exercı́cio 6 da secção anterior: como campo vectorial, X é
suave se e só se, dada uma carta φ = (φ1 , . . . , φn ) qualquer, quando X é escrito localmente
como combinação linear X = a1 ∂φ∂ 1 + · · · + an ∂φ∂ n as funções ai ∈ C ∞ .
Consideremos a carta de T N induzida por φ, que já descrevemos na demonstração do
teorema 2.2.1, fórmula (2.19):
φ : U × Rn ⊂ T N −→ Rn × Rn
[x, v] 7−→ (φ(x), v).
Aplicando então o caso (iii) da proposição precedente e tendo em conta (2.27), temos
φ ◦ X ◦ φ−1 (y) = (y, a1 ◦ φ−1 (y), . . . , an ◦ φ−1 (y))
∀y ∈ φ(U ). Logo X é suave se, e só se, todas as funções ai são suaves.
2. Para a projecção canónica usamos as mesmas cartas que em 1. A suavidade de π resulta
imediatamente de φ ◦ π ◦ φ−1 (y, v) = y ser suave. ¤

Sejam N, M variedades suaves de dimensões n, m, respectivamente. Se Φ : N → M é


uma aplicação suave então, no contexto das variedades, tem lugar uma nova definição de
aplicação linear derivada ou diferencial no ponto x como sendo a aplicação linear
dΦx : Tx N −→ TΦ(x) M (2.44)
que, numa carta (U, φ) de N tal que x ∈ U e numa carta (V, ψ) de M tal que Φ(x) ∈ V ,
satisfaz
³ ∂ ´ X m
∂ψj ◦ Φ ∂
dΦ (x) = (x) (Φ(x)). (2.45)
∂φi ∂φi ∂ψj
j=1

É claro que existe somente uma aplicação nestas condições. Vejamos que está bem definida.
Lema 2.3.1. A aplicação linear derivada dΦx é independente da escolha das cartas em M
ou em N .
Demonstração. Vamos só demonstrar o caso em que se toma outra carta (V 0 , ψ 0 ) de M e
deixamos o caso das cartas em N como exercı́cio, que se resolve da mesma forma25 . Então
∂ Pm ∂ψk0 ∂
em V ∩ V 0 , temos ∂ψ j
= k=1 ∂ψj ∂ψ 0 . Logo k
m
X m
X
∂ψj ◦ Φ ∂ ∂ψj ◦ Φ ∂ψ 0 ∂
(x) (Φ(x)) = (x) k (Φ(x)) 0 (Φ(x))
∂φi ∂ψj ∂φi ∂ψj ∂ψk
j=1 j,k=1
Xm
∂ψk0 ◦ Φ ∂
= (x) 0 (Φ(x))
∂φi ∂ψk
k=1
25
Há ainda outra via: resolvendo primeiro o exercı́cio 4 e em particular a fórmula (2.48).
74 Capı́tulo 2. Variedades diferenciáveis

pelo importantı́ssimo exercı́cio 7 da secção 2.2. ¤

Alguma literatura denota dΦx por dΦ(x). Ainda neste contexto, também se define o
diferencial total (cf. exercı́cio 10).

Vejamos dois simples exemplos. Primeiro, sendo {e1 , . . . , en } a base canónica de Rn ,


¡ ∂ ¢
finalmente faz sentido dizer que, para uma carta φ, se tem dφ ∂φ i
(x) = ei , mas tal não
passa de uma tautologia. Segundo, se γ : I → M é uma curva suave, então a sua velocidade
¡ d ¢ dγ
em cada ponto t é dada por dγ dt = dt . Tambem se deduz das demonstrações anteriores
que a aplicação de I para o espaço tangente definida como t 7→ dγdt é uma aplicação suave
(cf. exercı́cios 9,10).

Veremos a seguir alguns resultados generalizando os das funções diferenciáveis entre


abertos de Rn .

Teorema 2.3.1 (da derivada da função composta — entre variedades). Sejam N, M e P


variedades. Sejam Φ : N → M e Ψ : M → P duas funções suaves. Tem-se então que
Ψ ◦ Φ : N → P é suave e
d(Ψ ◦ Φ)x = dΨΦ(x) ◦ dΦx , (2.46)
∀x ∈ N .

Demonstração. Sejam (U, φ), (V, ψ) e (W, ϕ) cartas quaisquer de N, M, P respectivamente.


Tendo em conta (ii) da proposição 2.3.3, temos que ψ ◦ Φ ◦ φ−1 e ϕ ◦ Ψ ◦ ψ −1 são suaves nos
seus domı́nios. Então também é suave a aplicação

ϕ ◦ Ψ ◦ Φ ◦ φ−1 = ϕ ◦ Ψ ◦ ψ −1 ◦ ψ ◦ Φ ◦ φ−1

por ser suave a aplicação composta de duas funções entre abertos do espaço euclidiano. Isto
mostra que Ψ ◦ Φ é suave. A segunda parte da proposição segue do seguinte cálculo:
³ ∂ ´ p
X ∂ϕj ◦ Ψ ◦ Φ ∂
d(Ψ ◦ Φ) =
∂φi ∂φi ∂ϕj
j=1
Xp
∂ϕj ◦ Ψ ◦ ψ −1 ◦ ψ ◦ Φ ∂
=
∂φi ∂ϕj
j=1
Xp Xm
∂ϕj ◦ Ψ ∂ψk ◦ Φ ∂
=
∂ψk ∂φi ∂ϕj
j=1 k=1
³ ∂ ´
= dΨ ◦ dΦ ,
∂φi
onde 1 ≤ i ≤ n, n é a dimensão de N , m = dim M e p = dim P . Recorde-se que duas
aplicações lineares são iguais se coincidem nas imagens dos vectores de uma base. ¤

É claro que a derivada da função constante entre variedades é nula. Recı́procamente:


2.3 Aplicações suaves entre variedades 75

Proposição 2.3.5. Sejam N, M duas variedades, com N conexa. Seja Φ : N → M uma


aplicação suave tal que dΦx = 0, ∀x ∈ N . Então Φ é constante.
Demonstração. Basta lembrar o caso real e pensar que, tomando cartas, Φ tem de ser local-
mente constante, isto é, constante numa vizinhança aberta de cada ponto de N . Fixando
x0 ∈ N , verifica-se então que o subespaço {x ∈ N : Φ(x) = Φ(x0 )} é aberto e fechado, logo
coincidente com N . Daqui resulta que Φ é constante. ¤

Sejam N, M duas variedades suaves e da mesma dimensão e seja Φ : N → M uma


aplicação suave. Dizemos que Φ é um difeomorfismo suave se existe e é suave a aplicação
inversa Φ−1 : M → N . Resulta do teorema da derivada da função composta que
d(Φ−1 )Φ(x) = (dΦx )−1 (2.47)
para todo o x em N . O conjunto dos difeomorfismos de uma variedade M para si mesma
denota-se por Diff (M ).
Teorema 2.3.2 (da função inversa — entre variedades). Sejam N, M duas variedades da
mesma dimensão n e Φ : N → M uma aplicação suave tal que, num certo ponto a ∈ M ,
a aplicação linear dΦa é um isomorfismo. Então existem U aberto de N , contendo a, e V
aberto de M , contendo Φ(a), tais que a restrição de Φ a U é um difeomorfismo suave sobre
V.
Demonstração. Seja (U1 , φ) uma carta de M com a ∈ U1 e seja (V1 , ψ) uma carta de N
com Φ(a) ∈ V1 . Por hipótese temos que a matriz
· ¸
∂ψj ◦ Φ
∂φi i,j=1,...,n

é invertı́vel. Ou seja, d(ψ ◦ Φ ◦ φ−1 )φ(a) : Rn → Rn é um isomorfismo. Logo, pelo teorema


da função inversa entre abertos de Rn , existe a inversa f −1 : Ṽ → Ũ de ψ ◦ Φ ◦ φ−1 entre
vizinhanças abertas Ṽ , Ũ de ψ(Φ(a)) e φ(a), respectivamente, e essa inversa é suave. Sendo
U = φ−1 (Ũ ) e V = ψ −1 (Ṽ ) vem então que a aplicação φ−1 ◦ f −1 ◦ ψ : V → U satisfaz
φ−1 ◦ f −1 ◦ ψ ◦ Φ = φ−1 ◦ f −1 ◦ ψ ◦ Φ ◦ φ−1 ◦ φ = φ−1 ◦ φ = Id
e logo é uma inversa suave de Φ : U → V . ¤

Exercı́cios
1. Mostre que a noção de aplicação suave é local , ie. sendo Φ : N → M uma aplicação
entre variedades suaves N e M , tem-se que: (i) se Φ é suave, então a sua restrição
a qualquer aberto U de N é suave (conclua que os diferenciais, neste contexto, são
os mesmos) e (ii) se {Uα } é uma cobertura aberta de N e cada uma das restrições
Φ|Uα : Uα → M é suave, então Φ é suave. (Sugestão: começe pelo caso M = R).
76 Capı́tulo 2. Variedades diferenciáveis

2. Prove que uma aplicação suave é contı́nua.

3. Sejam x ∈ M e v ∈ Tx M quaisquer. Seja φ : U → Rn uma carta, com x ∈ U . Dado


w ∈ Rn estude a curva γ(t) = φ−1 (φ(x) + tw). Mostre que existe ² > 0 e uma curva
γ :] − ², ²[→ M tal que γ(0) = x e γ 0 (0) = v.

4. Seja Φ : N → M uma aplicação suave entre variedades suaves. Sejam (U, φ) uma carta
de N , (V, ψ) uma carta de M e suponha já U tão pequeno que Φ(U ) ⊂ V . Considere
as cartas (U × Rn , φ) de T N e (V × Rm , ψ) de T M definidas como em (2.19). Mostre
que dΦx : Tx N → TΦ(x) M corresponde à aplicação

[x, u] 7−→ [Φ(x), d(ψ ◦ Φ ◦ φ−1 )φ(x) (u)] (2.48)

qualquer que seja [x, u] ∈ Tx N . Ou seja, verifique que ψ ◦ dΦ ◦ φ−1 (y, ei ) = (ψ ◦ Φ ◦


φ−1 (y), d(ψ ◦ Φ ◦ φ−1 )y (ei )), ∀y = φ(x), ∀ei vector da base canónica de Rn .

5. Mostre que o diferencial de uma aplicação suave não depende da escolha das cartas
finalizando a prova do lema 2.3.1 e conclua que a velocidade de uma curva, tal como
foi descrita na fórmula (2.42), é independente das cartas.

6. Generalize à teoria das variedades os teoremas da derivada injectiva e da derivada


sobrejectiva.

7. Mostre que Diff (M ) tem uma estrutura de grupo.

8. Considere uma função suave f : M → R definida sobre uma variedade suave. Encare
f como uma aplicação entre duas variedades e esclareça a diferença (quase de mera
notação) entre o diferencial df : Tx M → R, definido em (2.23), e o diferencial df :
Tx M → Tf (x) R dado por (2.44). (Sugestão: como variedade, R tem um referencial
d
global induzido pela carta Id e que se denota por dt ).
d
9. Sendo dt o referencial global de qualquer intervalo aberto I ⊂ R, mostre que qualquer
¡d¢
curva suave γ : I → M verifica vt = dγ dt .

10. Mostre que, sendo Φ : N → M suave, a aplicação dΦ : T N → T M que a cada v ∈ Tx N


associa dΦx (v) ∈ TΦ(x) M é suave. Prove que se X ∈ XN , então dΦ(X) representa
uma aplicação suave. Conclua que se Φ é um difeomorfismo, então dΦ(X) ∈ XM .

11. Seja Φ : N → M suave e sejam X ∈ XN , Y ∈ XM . X e Y dizem-se Φ-relacionados


se dΦ(Xx ) = YΦ(x) . Seja agora h ∈ CM∞ . Mostre que (Y ·h) ◦ Φ = X ·(h ◦ Φ). Suponha

X1 , Y1 outros dois campos vectoriais suaves Φ-relacionados. Mostre que

(Y1 ·(Y ·h)) ◦ Φ = X1 ·(X ·(h ◦ Φ)) (2.49)

e conclua que [X, X1 ] é Φ-relacionado a [Y, Y1 ].


2.4 Subvariedades 77

2.4 Subvariedades
Na teoria das variedades existem dois conceitos que concorrem na designação de subvarie-
dade. Existe a classe geral das subvariedades imersas, que contem a classe das subvariedades
mergulhadas. Neste livro distinguimo-las sobretudo pela qualidade de não serem ou serem
do tipo mergulhadas26 .

2.4.1 Subvariedades imersas


Seja N uma variedade suave de dimensão n e Z um conjunto qualquer.

Proposição 2.4.1. Seja f : N → Z uma aplicação injectiva. Então o subconjunto f (N )


de Z, com a topologia quociente, adquire uma estrutura de variedade suave.

Demonstração. f induz uma aplicação f : N → f (N ). Por f ser injectiva, a aplicação


induzida é aberta e logo um homeomorfismo. Podemos então transportar, além da topo-
logia, a estrutura de variedade diferenciável de N para f (N ). A única que faz f ser um
difeomorfismo. ¤

Na proposição anterior, se Z é uma variedade suave e f é uma aplicação suave, será que
existe alguma relação entre as variedades f (N ) e Z? Por exemplo, poderı́amos pedir que
as cartas de Z restringidas a f (N ) dessem origem a cartas nesse subconjunto. Na secção
2.4.2 veremos que assim é, quando se impõem três condições sobre a aplicação f .

O próximo lema consiste numa revisitação ao teorema da derivada injectiva.

Lema 2.4.1. Seja D um aberto de Rn e f : D → Rm uma imersão suave. Então existe


uma cobertura {Uα } de abertos de D tal que, para cada α, existe um aberto Wα de Rm e
um difeomorfismo ϕ : Wα → ϕ(Wα ) ⊂ Rm tal que
© ª
f (Uα ) = y ∈ Wα : ϕn+1 (y) = · · · = ϕm (y) = 0 . (2.50)

Demonstração. Basta provar que para cada x0 ∈ D existem abertos U e W , o primeiro


contendo x0 , satisfazendo as propriedades pedidas para Uα e Wα , respectivamente.
Pelo teorema da derivada injectiva, existe V vizinhança aberta de (x0 , 0) em D× Rp , com
p = m − n, existe W vizinhança aberta de f (x0 ) em Rm e existe um difeomorfismo suave
h : V → W tal que h(x, 0) = f (x), ∀(x, 0) ∈ V . Logo existe uma vizinhança aberta U de x0
em Rn tal que f|U : U → W é injectiva: U é dada pela condição U × {0} = V ∩ (Rn × {0}).
Finalmente, sendo ϕ = h−1 : W → V , temos que esta é a aplicação suave procurada. E é
−1
trivial mostrar que f (U ) coincide com ∩mi=n+1 ϕi (0). ¤
26
Chama-se a atenção que, talvez por as primeiras em geral não serem variedades do modo que se esperaria,
alguns autores preferem fazer outra distinção: chamam subvariedades imersas às da classe geral e reservam
o nome subvariedade para a classe mais restrita.
78 Capı́tulo 2. Variedades diferenciáveis

Resulta então do lema que f (D) ⊂ ∪α Wα e que, localmente, o subconjunto imagem da


imersão é descrito como o conjunto dos zeros de m − n funções.
Agora, sejam N, M duas variedades suaves de dimensões n, m respectivamente. Seja
f : N → M uma aplicação suave. Diz-se que f é uma imersão se dfx : Tx N → Tf (x) M é
injectiva, qualquer que seja x ∈ N .

Proposição 2.4.2. Seja f : N → M uma imersão suave. Então existe uma cobertura
aberta {Uα } de N tal que, para cada α, existem um aberto Wα de M e um difeomorfismo
suave ϕα : Wα → ϕα (Wα ) ⊂ Rm (portanto uma carta de M ) tais que
© ª
f (Uα ) = y ∈ Wα : ϕα,n+1 (y) = · · · = ϕα,m (y) = 0 . (2.51)

Demonstração. De novo, basta provar que para cada x0 ∈ N existem um aberto U ⊂ N ,


vizinhança de x0 , um aberto W ⊂ M e uma carta (W, ϕ) satisfazendo a condição (2.51).
Ora tal resultado é consequência imediata do lema por ser um resultado local. De qualquer
forma, vamos percorrer os detalhes da demonstração. Seja φ : U 0 → φ(U 0 ) uma carta de N ,
com x0 ∈ U 0 , e ψ : W 0 → ψ(W 0 ) uma carta de M com f (x0 ) ∈ W 0 . Podemos já supor U 0
tão pequeno de tal modo que f (U 0 ) ⊂ W 0 . Por hipótese temos que a derivada em qualquer
ponto φ(x)
d(ψ ◦ f ◦ φ−1 )φ(x) : Rn → Rm
é um monomorfismo já que os diferenciais das cartas induzem isomorfismos, ou seja, a
composição ψ ◦ f ◦ φ−1 : φ(U 0 ) → ψ(W 0 ) é uma imersão suave entre abertos de espaços
euclidianos. Pelo lema, existem então abertos Ũ ⊂ φ(U 0 ), W̃ ⊂ ψ(W 0 ) e existe um difeo-
morfismo suave ϕ̃ : W̃ → ϕ̃(W̃ ) tais que
© ª
ψ ◦ f ◦ φ−1 (Ũ ) = z ∈ W̃ : ϕ̃n+1 (z) = · · · = ϕ̃m (z) = 0 .

Logo, sendo U = φ−1 (Ũ ) e W = ψ −1 (W̃ ), resulta que um ponto y ∈ W está em f (U )


se, e só se, ϕ̃n+1 (ψ(y)) = · · · = ϕ̃m (ψ(y)) = 0. Significa isto que ϕ = ϕ̃ ◦ ψ|W é a carta
pretendida. ¤

Nas condições anteriores, notamos pela demonstração acima que f é injectiva nos abertos
Uα . Porém, se pensarmos no cruzamento de duas rectas em R2 dado por

f : R × {1, 2} −→ R2
(x, 1) −→ (x, 0) (2.52)
(y, 2) −→ (0, y)

vemos que a imagem de f não é uma variedade, embora f seja uma imersão. Aqui, o
problema está no facto de a aplicação não ser injectiva: f (0, 1) = f (0, 2). Por tudo o que
está em causa torna-se conveniente fazer a seguinte definição.

Sejam N, M variedades suaves de dimensões n e m. Chamamos subvariedade imersa


de M à imagem f (N ) de uma imersão suave e injectiva f : N → M .
2.4 Subvariedades 79

Figura 2.14: Nem todas as subvariedades são variedades.

Será que, como o nome parece indicar, as subvariedades são variedades? Neste ponto,
as coisas dependem da topologia que tomarmos em f (N ). Se for a da proposição 2.4.1,
então a resposta é sim. Mas não podemos garantir a priori mais relações com as cartas de
M . Se, por outro lado, tomamos a topologia induzida em f (N ) da topologia de M , então o
subespaço f (N ) é, localmente, o lugar geométrico das raı́zes de m − n funções suaves em M ,
tal como mostra a proposição anterior. Mas o conjunto f (N ) pode não ser uma variedade!
A figura 2.14 mostra uma curva suave e injectiva imersa no plano (a curva passa no ponto
x0 e retorna a x0 somente em tempo infinito, ou seja, volta a x0 no sentido dos limites). A
curva é injectiva e supõe-se que a sua velocidade nunca se anula. No entanto ela não pode
ser uma variedade, quando a vemos munida da topologia induzida da topologia usual do
plano.
Todas as questões anteriores ficam esclarecidas e respondidas pela afirmativa se se tiver
a coincidência das topologias quociente e induzida. Para este caso necessitamos de uma
nova definição.

2.4.2 Subvariedades mergulhadas


Sejam N, M variedades suaves de dimensões n e m respectivamente. Chamamos subvarie-
dade mergulhada de M à imagem de uma imersão suave f : N → M que seja também um
homeomorfismo sobre o subespaço f (N ) ⊂ M (cf. exercı́cio 1). Tambem se diz que f é um
mergulho. Vamos confirmar que as subvariedades mergulhadas são de facto variedades.

Teorema 2.4.1. Nas condições acima, seja f um mergulho em M . Então:


1. f (N ) é uma variedade suave de dimensão n e a aplicação de inclusão i : f (N ) →
M, i(y) = y, é suave. Sendo x ∈ N e y = f (x), o espaço vectorial Ty (f (N )) identifica-se
com
diy (Ty (f (N ))) = dfx (Tx N ), (2.53)

que é um subespaço vectorial real do espaço tangente Ty M .


2. Admitindo pelo resultado anterior que T (f (N )) = ∪x∈N Tf (x) (f (N )) ⊂ T M , temos
que T (f (N )) é uma subvariedade mergulhada de T M e a restrição da projecção canónica
80 Capı́tulo 2. Variedades diferenciáveis

π| : T (f (N )) → M é suave.
3. Se P for outra variedade e g : P → M uma aplicação tal que g(P ) ⊂ f (N ), então g é
suave se, e só se, a aplicação induzida g : P → f (N ) é suave.

Demonstração. 1. Em f (N ) tomamos a topologia induzida da topologia de M (coincidente


com a topologia quociente transportada de N ). Temos então um subespaço topológico que
é de Hausdorff e tem uma base numerável de abertos. A proposição 2.4.2 dá-nos uma
cobertura {Uα } de N e cartas (Wα , ϕα ) de M cobrindo f (N ) tais que
© ª
f (Uα ) = y ∈ Wα : ϕα,n+1 (y) = · · · = ϕα,m (y) = 0 .

Agora seja π1 : Rn × Rm → Rn a projecção para o primeiro factor e seja

θα = π1 ◦ ϕα |f (Uα ) : f (Uα ) −→ Rn . (2.54)

Por f ser uma aplicação aberta sobre a sua imagem, f (Uα ) é um aberto de f (N ) — eis
a diferença essencial. Logo θα (y) = (ϕα,1 (y), . . . , ϕα,n (y)) determina um homeomorfismo
sobre um aberto de Rn , porque as últimas m − n coordenadas de ϕα (y) são nulas (cf.
exercı́cio 3). Temos assim um atlas de f (N ) constituı́do por {(f (Uα ), θα )}. Vejamos que
são suaves as aplicações de mudança de cartas. Ora

θβ ◦ θα−1 (z1 , . . . , zn ) = π1 ◦ ϕβ ◦ ϕ−1


α (z1 , . . . , zn , 0, . . . , 0)

é claramente suave como função dos zi ’s.


Quanto à aplicação de inclusão i : f (N ) → M temos

ϕα ◦ i ◦ θα−1 (z1 , . . . , zn ) = ϕα ◦ i ◦ ϕ−1


α (z1 , . . . , zn , 0, . . . , 0) = (z1 , . . . , zn , 0, . . . , 0),

logo i é suave. Vemos também que diy : Ty (f (N )) → Ty M satisfaz

³ ∂ ´ m
X ∂ϕα,k ◦ i ∂
m
X ∂ϕα,k ◦ i ◦ θα−1 ∂
di (y) = (y) = (y)
∂θα,j ∂θα,j ∂ϕα,k ∂zj ∂ϕα,k
k=1 k=1
Xn n
X
∂zk ∂ ∂ ∂
= (y) = δkj (y) = (y)
∂zj ∂ϕα,k ∂ϕα,k ∂ϕα,j
k=1 k=1

qualquer que seja y = f (x) ∈ f (Uα ), j = 1, . . . , n. Usando então o monomorfismo diy


podemos identificar de forma natural Ty (f (N )) com um subespaço vectorial de Ty M . Dito
de outra forma: os vectores ∂θ∂α,j tangentes a f (N ) identificam-se com os vectores ∂ϕ∂α,j .
Por outro lado, distinguindo por fˆ a aplicação fˆ : N → f (N ) induzida de f , ou seja,
tal que fˆ(x) = f (x), resulta que fˆ é suave. Com efeito, sendo (U, φ) uma carta qualquer de
N , então sobre o aberto φ(U ∩ Uα ) temos a igualdade

θα ◦ fˆ ◦ φ−1 = ϕα ◦ f ◦ φ−1
2.4 Subvariedades 81

e logo fˆ também é suave. Uma vez que f = i ◦ fˆ e por hipótese

dfx = diy ◦ dfˆx : Tx N −→ Ty (f (N )) −→ Ty M

é injectiva, também se tem de ter dfˆx injectiva. Contando as dimensões vemos que dfˆx
é um isomorfismo. Logo pelo teorema da função inversa entre variedades, fˆ : N → f (N )
é um difeomorfismo. Daqui resulta que dfx (Tx N ) = Ty (f (N )) com a identificação feita
anteriormente.
2. Usando as cartas acima vemos que a aplicação di : T (f (N )) → T M , que a cada vector
v ∈ Ty (f (N )) associa diy (v) ∈ Ty M , se descreve localmente como (ver (2.19))

f (Uα ) × Rn −→ Wα × Rm
[α, y, v] 7−→ [α, y, (v, 0)]

usando a inclusão canónica Rn ⊂ Rn × Rm−n . Como f (Uα ) ⊂ Wα tem a topologia induzida,


di é uma aplicação aberta e é suave porque

ϕα ◦ di ◦ θ−1 −1
α (z1 , . . . , zn , v1 , . . . , vn ) = (ϕα ◦ θα (z1 , . . . , zn ), v1 , . . . , vn , 0, . . . , 0)
= (z1 , . . . , zn , 0, . . . , 0, v1 , . . . , vn , 0, . . . , 0).

Não é preciso muito mais para concluir que di é um homeomorfismo sobre a sua imagem e
uma imersão suave. Logo T (f (N )) ⊂ T M é uma subvariedade mergulhada de T M . É claro
que π| = π ◦ di : T (f (N )) → M é suave.
3. Se a aplicação induzida ĝ : P → f (N ) é suave, então i ◦ ĝ = g também é suave. O
recı́proco deduz-se pelo mesmo método que mostrou ser suave a aplicação fˆ. ¤

Corolário 2.4.1. Nas condições anteriores, a estrutura de variedade da subvariedade mer-


gulhada f (N ) coincide com aquela que é dada na proposição 2.4.1. Em particular, f : N →
f (N ) é um difeomorfismo.

Demonstração. Como dissemos na demonstração do teorema, a aplicação fˆ : N → f (N )


induzida de f , tal como a distinguimos na referida proposição, é um difeomorfismo. Logo a
estrutura de variedade é uma e a mesma. ¤

Outra implicação que se extrai do teorema é que a projecção canónica do espaço tangente
de f (N ) para a variedade f (N ) se identifica com a restrição da projecção canónica do espaço
tangente π : T M → M . Contudo devemos ter sempre em conta o diagrama comutativo
di
T (f (N )) −→ T M
π↓ ↓π (2.55)
i
f (N ) −→ M

composto de aplicações suaves.


82 Capı́tulo 2. Variedades diferenciáveis

2.4.3 Exemplos e caracterização


Sejam N, M variedades suaves.

Proposição 2.4.3. Seja f : N → M uma imersão suave e injectiva. Se N é um compacto,


então f (N ) é uma subvariedade mergulhada.

Demonstração. Pelo exercı́cio 5 da secção 1.2 temos a garantia de que f é um homeomor-


fismo sobre a sua imagem. ¤

Vejamos agora alguns exemplos.


1. A situação mais comum em que encontramos uma subvariedade mergulhada é quando
N ⊂ M com a topologia induzida. A aplicação f neste caso é a inclusão i : N → M, i(x) =
x, que é claramente um homeomorfismo sobre a sua imagem. Na prática, só carece de
verificação a suavidade de i. Veremos que este é de facto um modo muito cómodo de
encontrar exemplos de variedades (cf. teorema 2.4.2 a seguir).
2. Considerando a variedade produto cartesiano de N e M e um ponto y ∈ M , temos uma
inclusão canónica de N em N × {y} ⊂ N × M . A imagem é uma subvariedade mergulhada.
3. A aplicação diagonal ∆ : N → N ×N, x 7→ (x, x), define uma subvariedade mergulhada.
O seu espaço tangente identifica-se com
© ª
T (∆(N )) = (v, v) ∈ T (N × N ) : v ∈ T N (2.56)

tendo em conta que T (N × N ) = T N × T N .


4. Qualquer curva suave de um intervalo aberto de R para uma variedade, com velocidade
não nula e que não se intersecte a si mesma, é uma subvariedade. Como já mostrámos no
exemplo da figura 2.14, existem curvas que não são subvariedades mergulhadas.
5. Seja γ : R → M uma curva suave, com velocidade não nula e periódica, ie. existe l ∈ R
tal que γ(x + l) = γ(x), ∀x ∈ R. Suponhamos ainda que γ é injectiva em cada intervalo
[x, x+l[. Então a sua imagem é uma subvariedade compacta e mergulhada em M . Podemos
justificá-lo verificando que uma tal curva induz outra aplicação

R
γ̃ : −→ M, γ̃(x + lZ) = γ(x), (2.57)
lZ
que facilmente se vê ser contı́nua quando se considera a topologia quociente no espaço
quociente. Como este coincide com S 1 , resulta que γ(R) = γ̃(S 1 ) é compacta (com a
topologia induzida de M). Logo γ̃ é um homeomorfismo sobre a sua imagem. Deixamos
como exercı́cio a prova de que γ̃ é uma imersão suave e injectiva da variedade ‘colagem’ S 1
para M .
© ª
6. Se f : N → R é uma função suave, então o seu gráfico Γf = (x, f (x)) : x ∈ N é uma
© ª
subvariedade mergulhada de N × R. Temos também que Tx Γf = (u, dfx (u)) : u ∈ Tx N .

Teorema 2.4.2. Seja M uma variedade suave de dimensão m e seja Z um subespaço


topológico de M . Então Z é uma subvariedade mergulhada de M se, e só se, existe uma
2.4 Subvariedades 83

famı́lia de cartas {(Wα , ϕα )} de M tal que Z ⊂ ∪α Wα e, para cada α,


© ª
Wα ∩ Z = x ∈ Wα : ϕα,n+1 (x) = · · · = ϕα,m (x) = 0 (2.58)

com n independente de α.

Demonstração. A condição é suficiente por causa da proposição 2.4.2 e por a topologia de


Z ser a induzida. Para ver que também é necessária, primeiro temos de ver que Z tem uma
estrutura de variedade e, depois, que a inclusão em M é suave. Para cartas de Z tomamos
os abertos Vα = Wα ∩ Z e os homeomorfismos (já utilizados em (2.54))

θα = π1 ◦ ϕα |Vα : Vα −→ Rn (2.59)

onde π1 : Rn × Rm−n → Rn é a projecção canónica. Facilmente se verifica que a mudança


de cartas θβ ◦ θα−1 é suave, que a inclusão i : Z → M satisfaz

ϕα ◦ i ◦ θα−1 (z1 , . . . , zn ) = ϕα ◦ i ◦ ϕ−1


α (z1 , . . . , zn , 0, . . . , 0) = (z1 , . . . , zn , 0, . . . , 0),

e logo que é uma imersão suave. ¤

Note-se que o enunciado do teorema 2.4.2 poderia mesmo servir como definição de
subvariedade mergulhada27 .

Vejamos um exemplo: consideremos a carta ϕ de Rn+1 , definida no aberto W = Rn × R+


por ϕ(x1 , . . . , xn+1 ) = (x1 , . . . , xn , x21 + · · · + x2n + x2n+1 − 1) e com imagem
© ª
ϕ(W ) = (x1 , . . . , xn , z) : z + 1 − x21 − · · · − x2n > 0 . (2.60)
p
A inversa é dada por ϕ−1 (x1 , . . . , xn , z) = (x1 , . . . , xn , z + 1 − x21 − · · · − x2n ), donde ϕ
é mesmo um difeomorfismo. Então W ∩ S n = {x ∈ Rn+1 : ϕn+1 (x) = 0}=hemisfério
Norte da superfı́cie esférica, o que mostra que S n é uma subvariedade mergulhada de Rn+1 .
Claro que nos falta verificar o mesmo para 2n hemisférios cobrindo a subvariedade toda,
tal como se fez no exemplo 2 da secção 2.1.2, o que decorre facilmente como nesse exemplo
reproduzindo as alterações convenientes do domı́nio W acima. Posto isto, ganhamos uma
nova prova de que S n é uma variedade suave sem ter que verificar que as aplicações de
mudança de carta são suaves. É claro que as estruturas de variedade suave sobre o espaço
topológico S n dadas antes e agora pelo teorema 2.4.2, coincidem.

2.4.4 Prolongamentos de funções e de campos vectoriais


Consideremos uma conjuntura em que é dada uma subvariedade mergulhada N no espaço
‘ambiente’ Rm , para não ir mais longe. Deixamos como exercı́cio a generalização do que
segue a qualquer par N, M .
27
Como acontece nalguma literatura.
84 Capı́tulo 2. Variedades diferenciáveis

Podemos estudar objectos definidos em N de uma forma muito natural. Neste caso
particular, uma vez que T Rm = Rm × Rm , temos que a cada x ∈ N está associado um
subespaço vectorial Tx N ⊂ Rm de dimensão n (ter em conta a nota de roda-pé28 ).
Suponhamos agora que U é um aberto de N e f : U → R é uma dada função. Por
um prolongamento de f a um aberto W de Rm , W contendo U , entendemos uma função
f : W → R tal que f (x) = f (x) se x ∈ U . Por exemplo, se {(Wα , ϕα )} é uma das cartas
dadas pelo teorema 2.4.2 e U = B ∩ N 6= ∅, com B uma bola contida em Wα , então
f : B → R definida como

f (x) = f (ϕ−1
α (ϕα,1 (x), . . . , ϕα,n (x), 0, . . . , 0)) (2.61)

é um prolongamento de f . Claro que nesta situação f é suave se, e só se, f é suave. Mas
para estudar f podemos supôr um prolongamento qualquer!

Proposição 2.4.4. Nas condições acima, f : U → R é uma função suave se, e só se, existe
uma cobertura aberta {Vβ } de U e existem prolongamentos f β : Wβ → R de f|Vβ , com os
Wβ abertos em Rm e as funções f β suaves. Neste caso,

dfx = df β | : Tx N −→ R (2.62)

∀x ∈ Vβ ⊂ U .

Demonstração. Em virtude do teorema 2.4.2 a condição é necessária. Falta ver que também
é suficiente. Seja iβ : Vβ → Wβ a inclusão, ou seja, a restrição a Vβ da inclusão de N em
Rm . Sendo uma propriedade local, a suavidade de iβ está assegurada. Agora f β ◦ iβ = f|Vβ
logo f também é suave e df (u) = df|Vβ (u) = df β (diβ (u)), ∀u ∈ Tx N . ¤

Também devemos analisar o caso dos prolongamentos de campos vectoriais: dado um


campo vectorial X : U → T N definido num aberto U de N dizemos que X : W → T Rm é
um prolongamento de X a um aberto W de Rm se X x = Xx , ∀x ∈ N . Tomando um refe-
rencial local, vemos pela proposição 2.4.4 que se podem sempre encontrar prolongamentos
locais e suaves de campos vectoriais em N . O que pode não parecer tão óbvio é a seguinte
proposição.

Proposição 2.4.5. Sejam X, Y : U → T N dois campos vectoriais suaves sobre um aberto


U de N e sejam X, Y dois prolongamentos suaves quaisquer de X e Y , respectivamente.
Então
[X, Y ]x = [X, Y ]x (2.63)
∀x ∈ U . Dito de outra forma, o parêntesis de Lie de X e Y define um prolongamento do
parêntesis de Lie [X, Y ] em N .
28
Uma vez que se provou que T N é a união disjunta dos Tx N , melhor será dizer que Tx N = {x} × Fx
m
onde Fx é um subespaço vectorial real de R . Porém, este sobrecarrego da notação está subentendido e por
isso abandona-se sempre que não haja perigo de confusão.
2.4 Subvariedades 85

Demonstração. Tomamos em conta o exercı́cio 8 da secção 2.2. Denotemos por f o prolon-


gamento suave de uma função suave f em U qualquer. Queremos ver que [X, Y ]·f = [X, Y ]·f
sobre o aberto U . Ora a proposição 2.4.4 diz-nos que (X·f )x = df (Xx ) = df (Xx ) = (X ·f )x
em U . Daqui resulta, usando a fórmula (2.34), que

[X, Y ]·f = X ·(Y ·f ) − Y ·(X ·f ) = X ·Y ·f − Y ·X ·f = [X, Y ]·f ,

o que é equivalente ao que querı́amos demonstrar. ¤

Em virtude da sua caracterização local, os resultados anteriores generalizam-se a sub-


variedades mergulhadas de variedades suaves quaisquer.

Exercı́cios

1. Sejam X, Y espaços topológicos e f : X → Y uma aplicação contı́nua. Qual a topolo-


gia mais fina em f (X): a induzida ou a quociente? Justifique. Prove que f é injectiva
e as duas topologias coincidem se, e só se, f : X → f (X) é um homeomorfismo sobre
f (X) com a topologia induzida de Y .

2. Justifique que a imagem da imersão (2.52) não é uma variedade. O mesmo para a
figura 2.14. Dê um exemplo de uma imersão de um conexo para R2 , cuja imagem não
é uma variedade (sugestão: mostre que a figura do sı́mbolo ∞ é parametrizada por
(cos t, sen 2t)).

3. Seja φ : W → V um difeomorfismo entre abertos W, V de Rm = Rn × Rp . Suponha que


φ tem componentes (φ1 , φ2 ) de acordo com aquele produto cartesiano. Considerando
o subconjunto N = {x ∈ W : φ2 (x) = 0} mostre que φ1 (N ) é um aberto de Rn .
Mostre que N munida da topologia induzida de W é uma subvariedade mergulhada
de W .

4. Mostre que a composição de dois mergulhos é um mergulho.

5. Mostre N ⊂ M é uma subvariedade mergulhada de M se, e só se, existe uma famı́lia
{Uα } de abertos de M tal que N ⊂ ∪α Uα e N ∩ Uα é uma subvariedade mergulhada
de M .

6. Prove que um subespaço vectorial de Rn é uma subvariedade mergulhada e descreva


o seu espaço tangente.

7. Tome conta dos pormenores dos exemplos 5 e 6. Generalize este último a uma
aplicação suave f : N → M . Mostre que N é difeomorfo a Γf . E que esta é di-
feomorfa a f (N ) se f (N ) é uma subvariedade mergulhada de M .
86 Capı́tulo 2. Variedades diferenciáveis

Figura 2.15: Subvariedade mergulhada ou imersa dependendo de α.

8. Sejam M, P variedades e N uma subvariedade (mergulhada) de M . Seja g : M → P


uma aplicação suave. Mostre que g|N : N → P é suave e que d(g|N )x = dg|Tx N . (cf.
com o exercı́cio 13 em que vemos g como um prolongamento de g|N num quadro ainda
mais geral.)

9. Considere o toro T2 descrito como o ‘quadrado colado pelas arestas’ do modo indicado
na figura 2.8. Considere a curva γ representada na figura 2.15. Demonstre que são
equivalentes as seguintes três asserções: (i) imγ é um subconjunto fechado do toro;
(ii) γ pode ser parametrizada por uma função periódica; (iii) o ângulo α verifica
tg α ∈ Q (sugestão: tomando em conta a sucessão de pontos xi ∈ R/Z, verifique que
xk = kx1 modZ, ∀k e descubra quando é que voltamos a ter xk = x1 ). Conclua que
verificada uma dessas condições, e logo qualquer uma delas, imγ é uma subvariedade
mergulhada. Mostre que no caso contrário a curva é densa em T2 e está apenas imersa
no toro.

10. Mostre que, no contexto das variedades imersas, também podemos falar do espaço
tangente a uma subvariedade.

11. Diga se são ou não subvariedades de R2 : Z; Q; {(x, y) : x = 0 ou xy = 1};


{(et cos t, et sen t) : t ∈ R}.

12. Explique por que é que a função f (x, y, z) = (zx − x)/(z − 1) definida sobre S 2 \{PN }
é suave. Mostre que f se prolonga a S 2 . Tendo em conta a parametrização h(x, y) =
p
(x, y, 1 − x2 − y 2 ) de um hemisfério da esfera, encontre o espaço tangente Th(x,y) S 2
e calcule df nesse ponto.

13. Generalize a proposição 2.4.4 no contexto das subvariedades N mergulhadas numa


variedade suave M qualquer.

14. Sejam N, M, P, Q variedades suaves tais que N ⊂ M e P ⊂ Q como subvariedades


mergulhadas. Seja f : N → P uma aplicação e f : M → Q um prolongamento de f ,
ou seja, f (x) = f (x), ∀x ∈ N . Suponhamos que f é suave. Mostre que f é suave e
que dfx (u) = df x (u), ∀u ∈ Tx N .
2.5 Teoremas de construção de variedades 87

15. Seja N ⊂ Rm uma subvariedade e seja c ∈ R uma constante não nula. Mostre que
existe um difeomorfismo de Rm para si mesmo, levando N para cN = {cx : x ∈ N }
(esta imagem chama-se uma homotetia de N ).

2.5 Teoremas de construção de variedades


Seja M uma variedade suave de dimensão m. Já vimos que uma subvariedade N de M de
dimensão n é localmente descrita como o locus, ie. conjunto das raı́zes, de m − n funções
suaves. Mediante certas condições podemos utilizar esta ideia para encontrar subvariedades
a partir de funções.

Sejam L, M variedades suaves de dimensões l, m respectivamente. Seja f : L → M uma


aplicação suave. Diz-se que f é uma submersão se dfx : Tx L → Tf (x) M é sobrejectiva,
qualquer que seja x ∈ L.

Teorema 2.5.1 (de construção de variedades como imagem recı́proca). Nas condições
anteriores, seja f : L → M uma submersão. Seja N ⊂ M uma subvariedade mergulhada
de dimensão n. Então
P = f −1 (N ) (2.64)

é uma subvariedade mergulhada em L de dimensão l + n − m e


© ª
Tx P = v ∈ Tx L : dfx (v) ∈ Tf (x) N = (dfx )−1 (Tf (x) N ). (2.65)

Demonstração. Tomando a topologia induzida de L em P queremos encontrar uma carta


b de L em torno de cada um dos pontos de P que verifique a condição do teorema
c , φ)
(W
2.4.2.
Seja x0 ∈ P, y0 = f (x0 ) ∈ N . Seja (U, φ) uma carta de L, com x0 ∈ U , e (W, ϕ)
uma carta de M , com y0 ∈ W e tal que W ∩ N = ∩i>n ϕ−1 i (0) — que sabemos existir
por aquele mesmo teorema. Supomos U tão pequeno de tal modo que f (U ) ⊂ W . Então
ϕ ◦ f ◦ φ−1 : φ(U ) → ϕ(W ) é suave. Uma vez que os diferenciais das cartas φ e ϕ dão
isomorfismos dos espaços tangentes Tx0 L e Ty0 M , respectivamente, para Rl e Rm , e uma
vez que dfx : Tx L → Tf (x) M é sobrejectiva, podemos já concluir que ϕ ◦ f ◦ φ−1 também é
uma submersão. Então, pelo teorema da derivada sobrejectiva, cf. secção 1.6, que aplicamos
no ponto φ(x0 ), deduzimos que existe um aberto V ⊂ Rl e um difeomorfismo suave g : V →
g(V ) ⊂ φ(U ) tal que

ϕ ◦ f ◦ φ−1 ◦ g(z1 , . . . , zl ) = (zl−m+1 , . . . , zl ), ∀(z1 , . . . , zl ) ∈ V.


88 Capı́tulo 2. Variedades diferenciáveis

Figura 2.16: P tem dimensão 3 − 2 + 1.

Sendo Wc = φ−1 (g(V )) um aberto de L e φb = g −1 ◦ φ : W


c → V uma carta, reescrevemos a
última igualdade como

ϕ ◦ f ◦ φb−1 (z1 , . . . , zl ) = (zl−m+1 , . . . , zl ). (2.66)

Por outro lado, Wc ∩ P consiste exactamente nos pontos x ∈ W c tais que ϕn+1 (f (x)) = · · · =
b−1
ϕm (f (x)) = 0. Fazendo x = φ (z1 , . . . , zl ) e combinando com a fórmula (2.66), resulta que
x ∈ P se, e só se,

ϕ ◦ f ◦ φb−1 (z1 , . . . , zl ) = (zl−m+1 , . . . , zl−m+n , 0, . . . , 0).

Donde a condição equivalente

φbl−m+n+1 (x) = · · · = φbl (x) = 0,

como querı́amos demonstrar. P é uma subvariedade mergulhada em L de dimensão p =


l − m + n. (A figura 2.16 ajuda a entender esta situação.)
Agora, é conhecido que os vectores ∂b , i = 1, . . . , p, formam uma base do espaço
∂ φi
tangente a P (cf. demonstração do teorema 2.4.1). Então
³ ∂ ´ Xm
∂ϕj ◦ f ∂
df =
∂ φbi j=1 ∂ φbi ∂ϕj

m
X b
∂ϕj ◦ f ◦ φ−1
∂ 0 se i ≤ l − m,
= =
∂zi ∂ϕj  ∂ caso contrário,
j=1 ∂ϕji

com ji tal que l − m + ji = i. Como, pelas mesmas razões que anteriormente, também se

tem ∂ϕ j
tangente a N se j ≤ n, vemos que ji ≤ n se, e só se, i ≤ l − m + n = p. Pondo de
parte a referência às bases, fica provada a condição (2.65). ¤

Note-se que no teorema acima não é necessária a condição de sobrejectividade de df


nos pontos fora de P , como a demonstração acaba de mostrar. Com efeito, o teorema da
derivada sobrejectiva resulta de uma condição pontual.
2.5 Teoremas de construção de variedades 89

De novo, seja f : L → M uma aplicação suave entre variedades suaves. Um ponto


x ∈ L tal que dfx : Tx L → Tf (x) M é uma aplicação linear sobrejectiva chama-se um ponto
regular de f . Portanto uma submersão é uma aplicação em que todos os pontos do domı́nio
são regulares. Os pontos x ∈ L tais que dfx ≡ 0 chamam-se pontos crı́ticos. Um ponto
y ∈ M diz-se um valor regular se, ∀x ∈ f −1 (y), dfx é sobrejectiva.

Corolário 2.5.1. Seja f : L → M uma aplicação suave e y ∈ M um valor regular de f .


Então P = f −1 (y) é uma subvariedade mergulhada de L de dimensão l−m e Tx P = ker dfx .

Vejamos dois exemplos:


1. Sejam a1 , . . . , an , an+1 ∈ R\{0} e consideremos a aplicação f : Rn+1 → R definida por

f (x1 , . . . , xn+1 ) = a21 x21 + · · · + a2n+1 x2n+1 . (2.67)

Então dfx (u1 , . . . , un+1 ) = 2a21 x1 u1 + · · · + 2a2n+1 xn+1 un+1 e por isso f é regular em todos
os x 6= 0. A subvariedade E = f −1 (1) é chamada de elipsóide de dimensão n. No caso em
que todos os ai são iguais a 1 voltamos a encontrar a esfera e resulta então que
© ª
Tx S n = u ∈ Rn+1 : x1 u1 + . . . + xn+1 un+1 = 0 (2.68)

ou seja, Tx S n identifica-se com o subespaço vectorial ortogonal ao vector x.


2. Seja M uma variedade suave e π : T M → M a projecção canónica do seu espaço tangente.
Então π é uma submersão, como se pode ver tomando uma carta de M qualquer e a
respectiva carta de T M descrita em (2.19), que localmente exprimem π como uma projecção.
Ou como resulta directamente de, para cada v ∈ Tx M , tomar a derivada de π ◦ X = Id,
com X um campo vectorial local tal que Xx = v, obtendo-se então dπv ◦ dXx = Id e logo a
sobrejectividade de dπv : Tv (T M ) → Tx M . Daqui resulta que π é uma aplicação aberta e
que π −1 (x) = Tx M é uma subvariedade mergulhada em T M de dimensão 2n − n = n.

Teorema 2.5.2 (mais geral de construção de variedades como imagem recı́proca). Sejam
L e M variedades suaves de dimensões l e m, respectivamente, e seja N ⊂ M uma sub-
variedade mergulhada de dimensão n. Seja f : L → M uma aplicação suave verificando a
seguinte condição de transversalidade29 :

dfx (Tx L) + Tf (x) N = Tf (x) M, (2.69)

∀x ∈ P = f −1 (N ). Então P é uma subvariedade mergulhada em L de dimensão l + n − m


e
© ª
Tx P = v ∈ Tx L : dfx (v) ∈ Tf (x) N = (dfx )−1 (Tf (x) N ). (2.70)
29
Trata-se de uma soma de subespaços vectoriais, não forçosamente uma soma directa.
90 Capı́tulo 2. Variedades diferenciáveis

Demonstração. Como é conhecido, com a topologia induzida de L em P , basta provar que


existem abertos U de L cobrindo P e tais que P ∩ U é uma subvariedade mergulhada.
Seja x0 ∈ P um ponto qualquer. Consideremos primeiramente uma carta (W, ϕ) de M ,
em torno de f (x0 ) e tal que N ∩ W = ∩i>n ϕ−1
i (0); carta esta cuja existência o teorema 2.4.2
nos assegura. Sendo ϕ um difeomorfismo, a aplicação h = (ϕn+1 , . . . , ϕm ) = π2 ◦ ϕ : W →
Rm−n é uma submersão porque a projecção canónica π2 de Rn × Rm−n para o segundo
factor tem derivada sobrejectiva. Como já se viu em anteriores demonstrações (e como até
resulta do teorema 2.5.1), Ty N coincide com o subespaço de Ty M gerado pelos vectores

∂ϕi , i ≤ n, qualquer que seja y ∈ N ∩ W . Ou seja, o espaço tangente a N em y coincide
com ker dhy .
Tomemos agora um aberto U ⊂ L contendo x0 , suficientemente pequeno de tal forma
que f (U ) ⊂ W , e denotemos fb = h ◦ f| : U → Rm−n . Tem-se que
© ª © ª
fb−1 (0) = x ∈ U : h ◦ f| (x) = 0 = x ∈ U : f (x) ∈ N = P ∩ U.

Vejamos que a derivada dfbx : Tx L → Rm−n é sobrejectiva em todos os pontos x ∈ fb−1 (0).
Denotamos y = f (x). Dado u ∈ Rm−n , existe w ∈ Ty M tal que dhy (w) = u, logo, pela
condição de transversalidade (2.69), podemos escrever

w = dfx (v) + w1

com algum v ∈ Tx L e algum w1 ∈ Ty N . Verifica-se então que

dfbx (v) = dhy (dfx (v)) = dhy (w − w1 ) = dhy (w) − dhy (w1 ) = u

como se pretendia. Portanto 0 é um valor regular de fb. Finalmente, pelo corolário 2.5.1,
concluimos que P ∩ U é uma subvariedade mergulhada de L de dimensão l − m + n e
Tx P = ker d(h ◦ f| )x . Pelas considerações prévias, esta condição é equivalente àquela dada
em (2.70). ¤

Corolário 2.5.2. Seja L uma variedade suave de dimensão l e sejam M, N duas subvarie-
dades mergulhadas em L de dimensões m, n respectivamente. Suponhamos que é verificada
a condição de transversalidade:

Tx M + Tx N = Tx L, ∀x ∈ M ∩ N. (2.71)

Então M ∩ N é uma subvariedade mergulhada de L de dimensão m + n − l e o seu espaço


tangente em cada ponto é igual à intersecção dos espaços tangentes de M e de N nesse
mesmo ponto.
Demonstração. Seja i : M → L a aplicação de inclusão. i−1 (N ) = M ∩ N pelo que o
resultado segue. ¤

Exercı́cios
2.5 Teoremas de construção de variedades 91

1. Seja S n ⊂ Rn+1 a superfı́cie esférica. Descreva as inclusões S 0 ⊂ S 1 ⊂ . . . ⊂ S n


de modo que cada uma delas seja um mergulho. Para n ≥ 3 mostre que o campo
vectorial Xx = (−x1 , x0 , −x3 , x2 , 0, . . . , 0) representa um campo vectorial suave de
S n . Encontre um referencial de S 1 . Calcule o máximo e o mı́nimo de f : S n × S n →
kx+yk
R, f (x, y) = 1+kx+yk .

2. Para diferentes f ’s, descreva as partes dos conjuntos f −1 (0) que são subvariedades
de R3 , nomeadamente as componentes conexas, a dimensão e o espaço tangente: a)
f (x, y, z) = x2 − y 2 ; b) f (x, y, z) = z − x2 − y 2 — o parabolóide de dimensão 2; c)
f (x, y, z) = (y 3 − y 2 x2 + 2y 2 + x2 y − x4 + 2x2 , z) (sugestão: decomponha o polinómio
em factores).

3. Mostre que uma submersão é uma aplicação aberta (tome em consideração o exercı́cio
6 da secção 2.3).

4. Sejam M, N, P variedades suaves de dimensões m, n, p respectivamente. Sejam f :


M → P, g : N → P duas submersões suaves. Mostre que Q = {(x, y) ∈ M × N :
f (x) = g(y)} é uma subvariedade mergulhada de dimensão m + n − p e que
© ª
T(x,y) Q = (u, v) ∈ Tx M × Ty N : dfx (u) = dgy (v) (2.72)

(sugestão: estude a aplicação produto f × g : M × N → P × P e tenha em conta a


diagonal de P ).

5. Nas condições do exercı́cio anterior, mas com as aplicações f, g satisfazendo apenas


a hipótese de dfx (Tx M ) + dg(Ty N ) = Tf (x) P, ∀(x, y) ∈ Q, prove que se chega
exactamente às mesmas conclusões (sugestão: tomando uma famı́lia de abertos {Uα ×
Vβ } de M × N cuja união contem Q e suficientemente pequenos de tal modo que
(f × g)(Uα × Vβ ) ⊂ W , onde W é o domı́nio de uma carta (W, φ) de P , considerar a
aplicação ξ(x, y) = φ(f (x)) − φ(g(y))).
92 Capı́tulo 2. Variedades diferenciáveis
Capı́tulo 3

Aplicações clássicas

As quatro secções deste capı́tulo afloram temas antigos, muito ilustrativos e fundamentais,
que hoje podem ser vistos à luz da teoria das variedades diferenciáveis. Trata-se, todavia,
de um conjunto de aplicações que nos permitirão mais tarde aprofundar o conhecimento de
todas as variedades. Com isto esperamos justificar a disparidade dos temas abordados.
Nas duas primeiras secções introduzem-se os espaços homogéneos, com particular ênfase
nos grupos de Lie, que são indispensáveis para o prosseguimento da geometria seja ela de
que ramo for (afim, algébrica, riemanniana, complexa, simpléctica, hiperbólica, etc). Nas
secções seguintes damos inı́cio ao estudo da geometria riemanniana com as definições gerais
principais e dois casos particulares: os das subvariedades de R3 de dimensões 1 e 2.

3.1 Grupos de Lie e álgebras de Lie


Suponhamos que G denota um conjunto que simultâneamente suporta a estrutura de um
grupo e de uma variedade suave. Dizemos que G é um grupo de Lie se se verificam ainda
as seguintes condições: (i) o produto30 G × G → G, (g, h) 7→ gh, é uma aplicação suave e
(ii) a passagem ao elemento inverso G → G, g 7→ g −1 , é uma aplicação suave.

Um subgrupo H de um grupo de Lie G que simultâneamente seja uma subvariedade


mergulhada em G chama-se um subgrupo de Lie. Como é de esperar, um subgrupo de
Lie é um grupo de Lie (exercı́cio 14 da secção 2.4).

Seja K um corpo qualquer e g um espaço vectorial sobre K. Diz-se que g é uma álgebra
30
Usamos a notação multiplicativa pela razão de que muitos grupos de Lie são subgrupos de GL(Rn ).

93
94 Capı́tulo 3. Aplicações clássicas

de Lie sobre K se está definida em g uma operação bilinear (ie. K-linear em cada variável)

[ , ] : g × g −→ g (3.1)

com as propriedades de anti-simetria [X, Y ] = −[Y, X] e da identidade de Jacobi:

[[X, Y ], Z] + [[Y, Z], X] + [[Z, X], Y ] = 0 (3.2)

quaiquer que sejam X, Y, Z ∈ g. O parêntesis [ , ] recebe então o nome de parêntesis de


Lie da álgebra de Lie g.
Um K-subespaço vectorial h ⊂ g chama-se uma subálgebra de Lie de g se, ∀X, Y ∈ h,
o parêntesis [X, Y ] ∈ h. Claro que h herda então uma estrutura de álgebra de Lie.
Sejam g1 , g2 duas álgebras de Lie sobre o mesmo corpo K. Seja d : g1 → g2 uma aplicação
K-linear. d diz-se um homomorfismo de álgebras de Lie se d([X, Y ]) = [d(X), d(Y )],
∀X, Y ∈ g1 .

Por exemplo, dada uma variedade suave M , o espaço dos campos vectoriais suaves XM
constitui uma álgebra de Lie sobre R com o parêntesis de Lie introduzido em 2.2.3. E
se tivermos uma subvariedade N ⊂ M , os campos vectoriais que se restringem a campos
vectoriais de N vão ter parêntesis de Lie tangente à subvariedade N (proposição 2.4.5), logo
esse subconjunto31 forma uma subálgebra de Lie de XM .

Eis um exemplo fundamental em dimensão finita. Seja gln (K) = Mn×n (K) o espaço
vectorial das matrizes quadradas de ordem n e coeficientes no corpo K. Para quaisquer
X, Y ∈ gln considere-se a operação

[X, Y ] = XY − Y X (3.3)

onde XY designa o produto usual de matrizes. Então o parêntesis [ , ] define uma operação
bilinear gln × gln → gln .
Proposição 3.1.1. gln é uma álgebra de Lie com o parêntesis de Lie dado em (3.3).
Demonstração. A propriedade de anti-simetria é imediata. Para confirmar a bilinearidade
da operação basta então averiguá-la de um lado. Sejam a, b ∈ R, X, Y, Z ∈ gln . Temos que

[aX + bY, Z] = (aX + bY )Z − Z(aX + bY )


= a(XZ − ZX) + b(Y Z − ZY ) = a[X, Z] + b[Y, Z].

Agora verifiquemos a identidade de Jacobi:


[[X, Y ], Z] + [[Y, Z], X] + [[Z, X], Y ] =
= [X, Y ]Z − Z[X, Y ] + [Y, Z]X − X[Y, Z] + [Z, X]Y − Y [Z, X]
= XY Z − Y XZ − ZXY + ZY X + Y ZX − ZY X
−XY Z + XZY + ZXY − XZY − Y ZX + Y XZ = 0
31
Que se há-de provar ser igual a XN .
3.1 Grupos de Lie e álgebras de Lie 95

Figura 3.17: A acção de Lg em G.

como querı́amos. ¤

Num grupo de Lie G cada elemento g dá lugar a um difeomorfismo de G em si mesmo,


Lg : G → G, definido por Lg (h) = gh. São as multiplicações à esquerda, que como veremos
são muito eficientes. Note que Lg é suave, que Lg ◦ Lh = Lgh e que L−1
g = Lg −1 . De seguida
vamos denotar o elemento neutro de G por 1. Tem-se que Lg (1) = g.
Um campo vectorial tangente X : G → T G sobre o grupo de Lie G diz-se invariante à
esquerda se
Xg = dLg (X1 ), ∀g ∈ G. (3.4)
Denotamos por g o espaço vectorial sobre R dos campos vectoriais invariantes à esquerda:
claro que a soma e o produto por um escalar de campos vectoriais invariantes à esquerda
ainda é um campo vectorial invariante à esquerda.

Proposição 3.1.2. g é uma subálgebra de Lie de XG e dim g = dim G como variedade.

Demonstração. Dado X ∈ g temos de ver que X é suave. Seja U um aberto de G e f ∈ CU∞ .


Então, sobre o aberto U ,
¡ ¢
X ·f g = df (Xg ) = df (dLg (X1 )) = d h 7→ f ◦ Lg (h) (X1 )
¡ ¢
= d h 7→ f (gh) 1 (X1 ) = d(f ◦ p)(g,1) (0, X1 ),

onde p representa o produto em G, ie. p(g, h) = gh, e vemos (0, X1 ) ∈ T(g,1) (G × G) =


Tg G × T1 G. Uma vez que a função f ◦ p : G × G → R é suave, a função em g que se
encontrou do lado direito da equação acima também é suave (cf. exercı́cio 1). Logo X ·f é
suave e está provado que X ∈ XG .
Falta verificar que g é fechada para o parêntesis de Lie. Note-se que X é Lg -relacionado
consigo mesmo, para todo o g ∈ G, pois

dLg (Xh ) = dLg (dLh (X1 )) = d(Lg ◦ Lh )(X1 )


= dLgh (X1 ) = Xgh = XLg (h)
96 Capı́tulo 3. Aplicações clássicas

para todo o h ∈ G. Agora, pelo que foi visto no exercı́cio 11 de 2.3, resulta então que

[X, Y ]g = dLg ([X, Y ]1 )

para X, Y campos vectoriais invariantes à esquerda, ou seja, [X, Y ] ∈ g. Daqui se conclui


que g é uma subálgebra de Lie de XG . Vemos ainda que cada X fica determinado pelo
valor que toma em 1, isto é, pelo vector X1 ∈ T1 G. Logo dim g = dim T1 G = dim G como
variedade. ¤

A álgebra de Lie g diz-se associada a G ou simplesmente que é a álgebra de Lie de G.

Recordemos que um homomorfismo Φ : G → H entre dois grupos é uma aplicação tal que
Φ(gg 0 ) = Φ(g)Φ(g 0 ), ∀g, g 0 ∈ G. Se os grupos G, H forem grupos de Lie e o homomorfismo
for uma aplicação suave entre variedades, então Φ diz-se um homomorfismo de grupos de
Lie. Sendo g, h as álgebras de Lie de G e de H, respectivamente, temos que Φ induz uma
aplicação
dΦ : g −→ h. (3.5)

Com efeito, notando que Φ(1) = 1, basta tomar o diferencial dΦ1 : T1 G → T1 H.

Proposição 3.1.3. Se Φ : G → H é um homomorfismo de grupos de Lie, então dΦ é um


homomorfismo de álgebras de Lie.

Demonstração. É suficiente provar que, sendo h = Φ(g),

dLh (dΦ(X1 )) = dΦ(Xg )

para todo o g ∈ G, X ∈ g. Isto mostrará que o campo vectorial H-invariante à esquerda Z


tal que Z1 = dΦ(X1 ), por isso definido como no lado esquerdo da equação, é Φ-relacionado
a X. Então, sendo W = dΦ(Y ) outro vector nas mesmas condições, concluı́mos novamente
pelo exercı́cio 11 de 2.3 que [Z, W ] = dΦ([X, Y ]).
Provemos então a igualdade acima. Para todo o g 0 ∈ G, tem-se

Lh ◦ Φ(g 0 ) = hΦ(g 0 ) = Φ(g)Φ(g 0 ) = Φ(gg 0 ) = Φ ◦ Lg (g 0 )

donde se conclui que dLh (dΦ(X1 )) = d(Lh ◦ Φ)(X1 ) = dΦ(dLg (X1 )) = dΦ(Xg ). ¤

Muito mais há para dizer sobre álgebras e grupos de Lie do que aquilo que podemos
apresentar aqui. Para se perceber um pouco como as duas estruturas estão relacionadas
atente-se no seguinte:

Proposição 3.1.4. Se G é um grupo de Lie abeliano então a sua álgebra de Lie é abeliana,
isto é, [X, Y ] = 0, ∀X, Y ∈ g.
3.1 Grupos de Lie e álgebras de Lie 97

Demonstração. É trivial mostrar que G × G é sempre um grupo de Lie e que a sua álgebra
de Lie é g × g com o produto directo da estrutura de g (cf. exercı́cios 16 e 17). Mais ainda,
[(X, 0), (0, Y )] = 0, ∀X, Y ∈ g.
Agora, seja p : G × G → G a aplicação produto. Pela hipótese, p é um homomorfismo
de grupos, porque

p((g1 , g2 )·(g3 , g4 )) = p(g1 g3 , g2 g4 ) = g1 g3 g2 g4


= g1 g2 g3 g4 = p(g1 , g2 )p(g3 , g4 ).

Então pela proposição precedente dp : g × g → g é um homomorfismo de álgebras de Lie.


Como é trivial provar, dp(1,1) (X, 0) = d(g 7→ p(g, 1))(X) = dId1 (X) = X ∈ T1 G. Logo,
para quaisquer X, Y ∈ g, temos

[X, Y ] = [dp(X, 0), dp(0, Y )] = dp([(X, 0), (0, Y )]) = 0

como querı́amos demonstrar. ¤

Passemos de imediato a um resultado prático que nos permite apresentar e estudar vários
exemplos de grupos de Lie. Considere-se o espaço vectorial Mn = Mn×n (R) das matrizes
quadradas de ordem n. Lembremos que a topologia que se usa em Mn permite identificar
2
Mn = L(Rn , Rn ) = Rn , primeiro como espaços topológicos e depois como variedades suaves.
Logo, podemos escrever
T Mn = Mn × Mn . (3.6)

Repare-se ainda que, como espaço vectorial, Mn coincide com gln (R). Recordemos que o
grupo linear GL(Rn ) (definido na secção 1.1) é um grupo com a operação de composição
de aplicações. Trata-se de um aberto isomorfo e difeomorfo ao grupo GLn (R) das matrizes
invertı́veis, que é um aberto de Mn , com o produto usual de matrizes.

Proposição 3.1.5. GLn (R) é um grupo de Lie e a sua álgebra de Lie é gln (R).

Demonstração. Que o produto de matrizes e a passagem ao inverso são aplicações suaves


já foi visto na secção 1.5.3. Provam-se assim as condições (i) e (ii) exigidas para grupos
de Lie. Quanto à determinação da álgebra de Lie de GLn (R) é preferı́vel neste momento
introduzir um resultado de carácter geral, cuja demonstração só requer a suavidade das
aplicações referidas acima. ¤

Teorema 3.1.1 (receita para diversos casos práticos). Seja V um espaço vectorial real e
N ⊂ V uma subvariedade mergulhada. Seja f : Mn → V uma aplicação suave. Suponhamos
que G = f −1 (N ) é um subgrupo de GLn (R) e que os pontos de G são pontos regulares de
f . Então:
98 Capı́tulo 3. Aplicações clássicas

1. G é um subgrupo de Lie de GLn e uma subvariedade mergulhada em Mn .


2. A multiplicação à esquerda Lg : G → G, com g ∈ G qualquer, é a restrição da multi-
plicação à esquerda Lg : Mn → Mn .
3. Tg G = gT1 G = {gX ∈ gln : df1 (X) ∈ Tf (1) N }.
4. Para quaisquer X, Y ∈ T1 G ⊂ T1 Mn = Mn o parêntesis de Lie dos respectivos campos
vectoriais invariantes à esquerda sobre G é dado por

[X, Y ] = XY − Y X (3.7)

ou seja, a álgebra de Lie de G é uma subálgebra de Lie de gln (R).

Demonstração. Pelo teorema 2.5.1 deduz-se que G é uma subvariedade mergulhada de Mn .


Logo as restrições a G de quaisquer aplicações suaves em abertos de Mn , como sejam o
produto de matrizes, a passagem ao inverso ou as multiplicações à esquerda, são suaves
como aplicações definidas em G e com valores em G. Em particular, temos a garantia de
que Lg : G → G tem derivada dLg (Xg0 ) = Lg (Xg0 ) = gXg0 , ∀Xg0 ∈ Tg0 G, pois o seu
prolongamento natural a Mn é uma aplicação linear. Com efeito, Lg : Mn → Mn está
definida e é linear. Só nos resta então demonstrar 4.
Seja w : G → R uma função suave qualquer. Vamos começar por calcular a derivada
da função g 7→ dwg (gY ) com Y ∈ Mn fixo. Tal função é igual à composição de ξ : G →
G × Mn , ξ(g) = (g, gY ), com η : (g, X) 7→ dwg (X) e repare-se que

dη(g,X) (U1 , U2 ) = d2 wg (X, U1 ) + dwg (U2 )

por se ter a decomposição T(g,X) (G × Mn ) = Tg G × TX Mn = Tg G × Mn . Assim, numa


direcção U ∈ Mn qualquer,
¡ ¢
d g 7→ dwg (gY ) g (U ) = d(η ◦ ξ)g (U ))
= dηξ(g) (dξg (U ))
= dη(g,gY ) (U, U Y ) = d2 wg (gY, U ) + dwg (U Y ).

Tomemos agora dois campos vectoriais invariantes à esquerda X, Y . Pelo que já se viu,
Xg = gX1 , ∀g ∈ G, e o mesmo se passa com Y . Para calcularmos [X, Y ], que já sabemos
ser de novo um campo vectorial suave invariante à esquerda, basta ver como actua numa
∞ . Basta então avaliar o resultado no ponto 1. Tem-se
função w ∈ CG
¡ ¢
(X ·(Y ·w))1 = d g 7→ dwg (gY1 ) (X1 ) = d2 w1 (Y1 , X1 ) + dw1 (X1 Y1 ).

Logo, pelo teorema da igualdade das derivadas mistas,


¡ ¢
([X, Y ]·w)1 = X ·(Y ·w) − Y ·(X ·w) 1
= d2 w(Y1 , X1 ) + dw(X1 Y1 ) − d2 w(X1 , Y1 ) − dw(Y1 X1 )
¡ ¢
= dw1 (X1 Y1 − Y1 X1 ) = (XY − Y X)·w 1

E está demonstrada a fórmula (3.7) que faltava. ¤


3.1 Grupos de Lie e álgebras de Lie 99

Note-se que os resultados do teorema anterior são válidos para todo o subgrupo de GLn
que seja subgrupo de Lie.

Vejamos alguns exemplos:


1. GLn (R) é um grupo de Lie e a sua álgebra de Lie é gln (R), a única subálgebra de Lie
de gln (R) que tem dimensão igual à do grupo. O subconjunto aberto em GLn das matrizes
com determinante positivo é um subgrupo denotado GLn,+ . Este é portanto um grupo de
Lie e da mesma dimensão que o primeiro.
2. O grupo especial é o grupo SLn = {g ∈ GLn : det(g) = 1}. Pela proposição 1.5.9
vemos que det é regular sobre SLn . A álgebra de Lie do grupo linear especial é denotada
sln e consiste na subálgebra {X ∈ gln : trX = 0}, que tem dimensão n2 − 1.
3. O grupo ortogonal On é formado pelo conjunto das matrizes ortogonais, ou seja,
On = {g ∈ GLn (R) : gg T = 1}. É fácil ver que On é um grupo. Seja S o espaço vectorial
das matrizes simétricas (cf. exercı́cio 6 da secção 1.1) e seja f : GLn → S definida por
f (g) = gg T . Então dfg (X) = Xg T + gX T = Xg T + (Xg T )T , ∀X ∈ Mn . Uma vez que, para
g invertı́vel, X 7→ Xg T é um isomorfismo e que pelo referido exercı́cio qualquer Y ∈ Mn é
soma de uma matriz simétrica e de uma matriz anti-simétrica, vemos que a aplicação linear
dfg : Mn → S é uma projecção e logo uma aplicação sobrejectiva. Ou seja, dado Y ∈ S,
fazemos X = Y g/2, e logo virá

Yg T (Y g) T Y Y
dfg (X) = g +g = gg T + gg T = Y. (3.8)
2 2 2 2
Pelo teorema 3.1.1 concluı́mos que On = f −1 (1) é um grupo de Lie e que a sua álgebra
de Lie é son = {X ∈ gln (R) : X = −X T }, ou seja, o espaço vectorial das matrizes anti-
simétricas. Logo a dimensão de On é n(n − 1)/2.
4. Note-se que, sendo gg T = 1, então det(g) = ±1. Logo SOn = On ∩ SLn = On ∩ GLn,+
é um grupo de Lie, chamado grupo ortogonal especial. A sua álgebra de Lie é son
também.
5. Outro grupo de Lie clássico é o grupo simpléctico Sp2n (R) cuja apresentação relegamos
para o exercı́cio 10. A sua álgebra de Lie denota-se por sp2n (R).
2
6. Pensando em Mn×n (C) como R2n e lembrando que o determinante complexo goza das
mesmas propriedades que o determinante real, podemos definir os grupos de Lie GLn (C),
SLn (C), On (C) e Sp2n (C) tal como acima. Tendo em conta o isomorfismo canónico entre C
e R2 , bem como o exercı́cio 5, as álgebras de Lie dos três primeiros grupos são as subálgebras
de Lie de gl2n (R), respectivamente, gln (C), sln (C) e son (C). Para o grupo simpléctico te-
mos sp2n (C) ⊂ gl4n (R). Estes grupos de Lie, que são variedades suaves, recebem o epı́teto
de complexos 32 .
7. Continuando a pensar na estrutura meramente real de Mn×n (C), temos ainda o grupo
unitário Un = {g ∈ GLn (C) : gg ∗ = 1}. (Recorde que g ∗ é a matriz transconjugada
32
E são de facto variedades analı́ticas complexas, cujo estudo este livro não abarca. Repare-se que o
determinante complexo é uma função holomorfa...
100 Capı́tulo 3. Aplicações clássicas

de g, cf. exercı́cio 7 da secção 1.1.) Neste caso as matrizes g ∈ Un verificam a condição


| det(g)| = 1. Como existe uma circunferência de números complexos com módulo 1, o
subgrupo SUn = Un ∩ SLn (C) tem dimensão igual a dim Un − 1.

Exercı́cios
1. Sejam M, N, P três variedades suaves e f : M × N → P uma aplicação suave. Seja
X ∈ XM e considere y ∈ N e u ∈ Ty N fixados. Prove que a aplicação de M em T P

x 7−→ df(x,y) (Xx , u) (3.9)

é suave.

2. Mostre que a aplicação ig : G → G, ig (h) = ghg −1 é um homomorfismo de grupos


de Lie. Mostre que é um difeomorfismo.

3. Mostre que On é um grupo e que g T g = 1, ∀g ∈ On . Verifique que SO2 é o conjunto


das rotações do plano e que O2 = SO2 ∪ g0 SO2 onde g0 representa a matriz de uma
simetria de R2 por um eixo, como por exemplo (x, y) 7→ (x, −y).

4. Descreva as álgebras de Lie de SO3 e de SL2 , encontrando uma base {X1 , X2 , X3 } e


calculando os parêntesis [Xi , Xj ], i, j = 1, 2, 3.

5. Mostre que Cn é isomorfo a Rn ⊕ −1Rn , e logo isomorfo a R2n . Sob a influência do

segundo isomorfismo, mostre que um endomorfismo complexo X + −1Y , com X, Y
reais, é um endomorfismo de R2n representado matricialmente por
" #
X −Y
. (3.10)
Y X

6. Mostre que o conjunto das transformações afins Aff (Rn ) = {f ∈ Diff (Rn ) :
f (x) = Ax + b, A ∈ GLn , b ∈ Rn } é um grupo de Lie e que GLn é um seu subgrupo
de Lie. Se conhece bem a teoria dos grupos, descreva Aff (Rn ) como um produto
semi-directo.

7. Seja e1 , e2 ∈ R2 uma base. Mostre que a operação bilinear gerada por [e1 , e2 ] = e1
fornece uma estrutura de álgebra de Lie a R2 . Será a álgebra de Lie de algum grupo
de Lie33 ? Encontre-o.
33
A resposta afirmativa a este problema, mas para todas as álgebras de Lie, é um dos grandes teoremas
de Sophus Lie (matemático norueguês, 1842-1899).
3.1 Grupos de Lie e álgebras de Lie 101

8. Mostre que Un é um grupo e um grupo de Lie. (Sugestão: considere o espaço vectorial


real H = {X ∈ gln (C) : X = X ∗ } e a função f : GLn (C) → H definida por
f (g) = gg ∗ ; de seguida confronte com o exercı́cio 7 da secção 1.1.) Mostre que a
dimensão de Un é n2 . Prove a fórmula | det(g)| = 1 para as matrizes unitárias, ie.
tais que gg ∗ = 1. Mostre que SUn é um grupo de Lie e que tem dimensão n2 − 1.

9. Mostre que SU2 é difeomorfo à esfera S 3 .


" #
0 −1
10. Seja J = ∈ GL2n (R). Mostre que J 2 = −1 e que J T = −J. Seja
1 0
Sp2n (R) = {g ∈ GL2n (R) : gJg T = J}. Mostre que este conjunto é um grupo de Lie.
(Sugestão: estude a função f : GL2n → AS, f (g) = gJg T para o espaço das matrizes
anti-simétricas.) Sp2n (R) é chamado de grupo simpléctico. Encontre a sua álgebra
de Lie e calcule a sua dimensão.

11. Tendo em conta o exercı́cio 5, mostre que GLn (C) ∩ Sp2n (R) = GLn (C) ∩ SO2n = Un .

12. Determine as equações do grupo SOn (C) em termos das entradas das matrizes que o
compõem, para n = 1 e n = 2. Serão compactos tal como os grupos ortogonais reais
SOn ?

13. Demonstre a fórmula Gy = gGx g −1 para uma acção G em M e y ∈ Gx.

14. Mostre que a álgebra de Lie h de um subgrupo de Lie H ⊂ G é uma subálgebra de


Lie da álgebra de Lie g de G.

15. Um isomorfismo de grupos de Lie é uma aplicação f : G1 → G2 entre dois grupos de


Lie que é, simultâneamente, um homomorfismo de grupos e um difeomorfismo entre
variedades. Mostre que se f é um isomorfismo de grupos de Lie, então df : g1 → g2
é um isomorfismo de álgebras de Lie34 .

16. Sejam g1 , g2 duas álgebras de Lie com parêntesis de Lie [ , ]1 e [ , ]2 respectivamente.


Mostre que g1 × g2 é uma álgebra de Lie com o parêntesis dado por

[(X, W ), (Y, Z)] = ([X, Y ]1 , [W, Z]2 ). (3.11)

Mostre que g1 , g2 se identificam naturalmente com duas subálgebras de Lie de g1 × g2


e que [g1 , g2 ] = 0.

17. Prove que o produto directo G1 × G2 de dois grupos de Lie é um grupo de Lie. Mostre
que a álgebra de Lie associada àquele produto é o produto das respectivas álgebras
de Lie de G1 e G2 descrito no exercı́cio anterior.
34
Outro grande teorema de S. Lie: se duas álgebras de Lie são isomorfas, os seus respectivos grupos de Lie
são localmente isomorfos (isomorfos numa vizinhança de 1). Assim, as álgebras de Lie determinam unı́voca
e infinitésimalmente os grupos de Lie.
102 Capı́tulo 3. Aplicações clássicas

3.2 Acções de grupos de Lie em variedades


3.2.1 Variedades homogéneas
Recordemos mais alguns conceitos da teoria dos grupos. Dá-se o nome de acção de um
grupo G sobre um conjunto M a uma aplicação

α : G × M −→ M (3.12)

tal que

α(g1 g2 , x) = α(g1 , α(g2 , x)) e α(1, x) = x, ∀g1 , g2 ∈ G, ∀x ∈ M. (3.13)

Por vezes abrevia-se a notação e escreve-se α(g, x) = gx. Denotamos por αg : M →


M, αg (x) = gx, a aplicação induzida de α por um elemento g ∈ G. Fixado x0 ∈ M ,
chama-se órbita de x0 ao subconjunto Gx0 = {gx0 : g ∈ G}. Chama-se subgrupo de
isotropia em x0 ao subgrupo Gx0 = {g ∈ G : gx0 = x0 }. As propriedades (3.13) da acção
mostram logo que Gx0 é de facto um subgrupo.

Uma acção α de um grupo G sobre o conjunto M diz-se transitiva se

∀x, y ∈ M, ∃g ∈ G : y = gx (3.14)

ou seja, a órbita de cada ponto x ∈ M é igual a M . Tem-se neste caso que o subgrupo de
isotropia de y, digamos tal que y = gx, verifica Gy = gGx g −1 , isto é, é igual ao conjugado
por g do subgrupo de isotropia de x.

Suponhamos agora que G é um grupo de Lie e M é uma variedade suave35 . Denotemos


por M/G o conjunto das órbitas. Existe então uma projecção natural
π : M −→ M/G
(3.15)
x 7−→ Gx
que permite dar a M/G a topologia quociente. Tem-se então:
Proposição 3.2.1. 1. A aplicação π é aberta.
2. M/G tem uma base numerável de abertos.
Demonstração. 1. Seja U um aberto em M . π(U ) é aberto se π −1 (π(U )) for aberto. Ora,
este último é igual a [
{x ∈ M : x ∈ GU } = GU = gU
g∈G
que é um aberto por assim o serem cada um dos gU .
2. É consequência imediata de π ser aberta e de M ter uma base numerável de abertos (cf.
exercı́cio 16 da secção 1.2). ¤
35
Tudo o que conseguiremos demonstrar nas proposições 3.2.1 e 3.2.2 será de natureza topológica. Po-
derı́amos aligeirar as hipóteses para o quadro dos grupos topológicos e acções contı́nuas.
3.2 Acções de grupos de Lie em variedades 103

Uma acção de G em M diz-se suave se a aplicação α é suave. Resulta de imediato desta


hipótese que as aplicações αg são suaves, ∀g ∈ G.

Vamo-nos agora deter sobre um exemplo fundamental.


Seja G um grupo de Lie e seja H um subgrupo de Lie, ie. um subgrupo de G que
simultâneamente é uma subvariedade mergulhada em G. Então a multiplicação à esquerda
de H em G define uma acção suave de H sobre a variedade G. Mas, por uma inconveniência
de notação, esta acção não nos interessa por agora... Consideramos antes uma acção ‘dual’
daquela, definida por α : H × G → G, α(h, g) = gh−1 . É trivial verificar que α é de facto
uma acção. As suas órbitas36 são os subconjuntos gH = {gh : h ∈ H}. Os seus subgrupos
© ª
de isotropia resumem-se ao grupo trivial. Denotemos por G/H = gH : g ∈ G o espaço
das órbitas. Define-se então a aplicação de projecção

π : G −→ G/H
(3.16)
g 7−→ gH

pelo que G/H está munido da topologia quociente (vinda de G por π). Define-se em seguida
uma nova acção, agora de G em G/H, escrevendo

α : G × G/H −→ G/H
(3.17)
(g, g1 H) 7−→ gg1 H

(se g1 H = g2 H, então gg1 H = gg1 (g1−1 g2 )H = gg2 H; logo α está bem definida). Repare-se
que o subgrupo de isotropia de g1 H coincide com g1 Hg1−1 .

Proposição 3.2.2. 1. A acção α é contı́nua e transitiva.


2. G/H tem uma base numerável de abertos.
3. Se H é fechado, então G/H é um espaço topológico de Hausdorff.

Demonstração. 1. Seja p : G × G → G a aplicação produto de elementos em G e Id a


aplicação identidade de G. Temos que

α ◦ (Id × π) = π ◦ p

como é imediato verificar. Seja V um aberto em G/H. Então π −1 (V ) é aberto em G.


Tem-se que α−1 (V ) é aberto em G × G/H se, e só se, (Id × π)−1 (α−1 (V )) é aberto em
G × G. Mas este subconjunto é igual a p−1 (π −1 (V )) que é aberto. Logo α é contı́nua. A
transitividade da acção é óbvia.
2. É consequência imediata de 3.2.1.
3. Suponhamos g1 , g2 ∈ G tais que g1 H 6= g2 H ou seja g1 H ∩ g2 H = ∅. Queremos
encontrar U1 , U2 vizinhanças de g1 , g2 , respectivamente, tais que π(U1 ) ∩ π(U2 ) = ∅, ou
seja, U1 H ∩ U2 H = ∅. De novo, seja p a aplicação produto em G. Por continuidade e por
36
Repare-se no contraste da notação...
104 Capı́tulo 3. Aplicações clássicas

H ser fechado, p−1 (H) também é fechado. Por hipótese, (g1 , g2−1 ) não pertence a p−1 (H).
Existe então uma vizinhança W × U2 daquele par ordenado que não intersecta p−1 (H).
Agora, tomando uma vizinhança U0 de 1 tal que U0 = U0−1 — lembrar que a passagem ao
inverso é um homeomorfismo e que aplica 1 em 1, pelo que existe tal U0 —, podemos já
supôr que W = U0 g1−1 . Temos então, de forma equivalente, a condição U0 g1−1 U2 ∩ H = ∅.
Note-se que também U1 = g1 U0 é uma vizinhança de g1 . Finalmente, suponhamos que
U1 H ∩ U2 H 6= ∅. Então existem h1 , h2 ∈ H, u0 ∈ U0 , u2 ∈ U2 tais que g1 u0 h1 = u2 h2 . E
daqui resulta u−1 −1 −1
0 g1 u2 = h1 h2 ∈ H, o que é absurdo. ¤

No caso em que H é fechado, estão, pelo menos, verificadas as condições topológicas


exigidas para G/H poder ser uma variedade. Ao leitor atento pode mesmo surgir a ideia de
munir G/H com uma estrutura de variedade diferenciável de tal modo que π venha a ser
uma submersão. Vamos enunciar este resultado, que se verifica de facto, mas para o qual
ainda não temos os instrumentos necessários para provar. Para construir tais variedades
homogéneas, como se denominam, basta tomar um grupo de Lie e um seu subgrupo
fechado!

Teorema 3.2.1. Todo o subgrupo fechado de um grupo de Lie é um subgrupo de Lie.

Teorema 3.2.2. Seja H um subgrupo fechado de um grupo de Lie G. Então o espaço G/H
tem uma estrutura de variedade suave de tal modo que α é suave e π é uma submersão.
Mais ainda, podemos identificar

TH (G/H) = T1 G/T1 H. (3.18)

Em particular, dim G/H = dim G − dim H.

A demonstração destes dois últimos teoremas envolve resultados profundos da análise


matemática.

Suponhamos agora que α : G × M → M é uma acção suave e transitiva. Também se


diz que M é uma variedade homogénea de G. Seja x0 ∈ M e K = {g : gx0 = x0 } o
subgrupo de isotropia. Claramente K é fechado, pelo que podemos admitir os resultados
do teorema 3.2.2. A aplicação

f : G/K −→ M
(3.19)
gK 7−→ gx0

é suave porque f ◦ π(g) = α(g, x0 ) e π é uma submersão. Por construção f é bijectiva.


Agora, os métodos referidos acima também provam:

Lema 3.2.1. dfgK : TgK (G/K) → Tgx0 M é bijectiva, ∀g ∈ G.


3.2 Acções de grupos de Lie em variedades 105

Concluı́mos pelo teorema da função inversa entre variedades que f é um difeomorfismo.


Portanto a variedade homogénea M de G coincide com o exemplo fundamental de variedade
homogénea G/K, com K fechado em G. Este é o ponto de partida para a classificação de
todas as variedades homogéneas, tarefa que deixamos para melhor ocasião.
Adiamos para o capı́tulo 4 a demonstração dos teoremas 3.2.1 e 3.2.2, bem como a do
lema 3.2.1.

Mostramos, finalmente, alguns exemplos fundamentais.


Exemplo 1. Consideremos a acção canónica de SOn+1 no espaço euclidiano Rn+1 , ou seja,

(g, u) 7−→ g(u), ∀(g, u) ∈ SOn+1 × Rn+1 . (3.20)

Prova-se que o grupo ortogonal transforma subespaços ortogonais em subespaços ortogo-


nais e preserva a norma dos vectores (ver secção 3.3 para recordar estes conceitos e re-
sultados elementares). Se fixarmos o vector u = (0, . . . , 0, 1) e pensarmos noutro vector
v = (v0 , . . . , vn ) ∈ S n de norma 1, então a transformação linear que envia u para v ou −v
(conforme o sinal do determinante), que envia v para u e fixa o ortogonal do plano gerado
por u e v, é uma transformação ortogonal, ou seja, a sua matriz é uma matriz ortogonal. As-
sim se prova que existe g ∈ SOn+1 tal que g(v) = u. Por outras palavras, a acção canónica
de SOn+1 em S n é transitiva. Claramente, uma matriz ortogonal fixa o vector u se, e só se,
a sua última linha e a sua última coluna são iguais a [0, . . . , 0, 1] (porque ela tem de fixar ao
mesmo tempo o hiperespaço ortogonal a u). Logo o subgrupo de isotropia da acção é igual a
SOn , visto como subgrupo das transformações ortogonais de Rn × {0} ⊂ Rn+1 . Concluı́mos
que também se pode ver a “superfı́cie” esférica como uma variedade homogénea:

SOn+1 /SOn = S n . (3.21)

Exemplo 2. Pensemos agora no conjunto de todos os subespaços vectoriais reais de RN


de dimensão n. Este conjunto tem uma estrutura de variedade homogénea, chamada de
grassmaniana e denotada
© ª GLN (R)
Gr(n, N ) = W ⊂ RN : dim W = n = , (3.22)
GLn,N −n (R)

onde GLn,N −n (R) é o subgrupo das matrizes invertı́veis do tipo


" #
A B
(3.23)
0 D

com A ∈ GLn , D ∈ GLN −n , B ∈ Mn×(N −m) .


Justifiquemos então a última igualdade. É verdade que GLN actua em Gr(n, N ) porque
os isomorfismos preservam a dimensão dos subespaços. A acção é transitiva, pois cada
base de um ponto W ∈ Gr(n, N ) pode ser extendida a uma base de RN . Por outro lado,
sendo {e1 , . . . , en , en+1 , . . . , eN } a base canónica de RN , a matriz de transformação da base
106 Capı́tulo 3. Aplicações clássicas

canónica para a tal base de RN cujos primeiros n vectores formam uma base de W , é um
isomorfismo linear. Portanto, para todo o W existe g ∈ GLN tal que g(Re1 +· · ·+Ren ) = W ;
logo a acção é transitiva.
Vejamos agora o subgrupo de isotropia e o espaço tangente. Para cada ponto W fixado,
um isomorfismo g ∈ GLN fixa W se, e só se, a composição

g| p RN
W −→ RN −→ (3.24)
W
¡ N¢
é nula. Sendo X 7→ X = p ◦ X| um epimorfismo de MN sobre L W, RW , vemos que o
subgrupo de isotropia da acção é H = {g ∈ GLN : g = 0}. Recorrendo a uma base de RN
que contenha uma base de W apercebemo-nos de imediato que H é isomorfo a GLn,N −n (R),
como querı́amos provar. Finalmente
µ ¶
glN (R) RN
TW (Gr(n, N )) = ' L W, (3.25)
{X : X = 0} W

(cf. teorema do isomorfismo) e, em particular, a dimensão de Gr(n, N ) é n(N − n).


Exemplo 3. A variedade grassmaniana Gr(1, m + 1) é um caso à parte. Denota-se por
Pm (R) e é chamada de espaço projectivo. A sua dimensão é igual a m. Temos assim uma
representação geométrica do conjunto das rectas de Rm+1 passando pela origem. Há dois
tipos de coordenadas usuais no espaço projectivo. As chamadas ‘coordenadas’ homogéneas
são as coordenadas rectilı́neas em Rm+1 \{0} sob a condição

(x0 , x1 , . . . , xm ) ∼ (λx0 , λx1 , . . . , λxm ), (3.26)

ou seja, cada ponto identifica a recta por si gerada. Tais coordenadas são indicadas para
quando se quer estudar, por exemplo, as funções homogéneas...
Outro tipo de coordenadas é dado pelo seguinte atlas com m + 1 cartas. Estas estão
definidas nos abertos
© ª
Ui = [x0 , . . . , xi , . . . , xm ] ∈ Pm (R) : xi 6= 0 (3.27)

onde i = 0, . . . , m. As aplicações
³x xi−1 xi+1 xm ´
0
[x0 , . . . , xm ] 7−→ ,..., , ,..., (3.28)
xi xi xi xi
representam homeomorfismos de Ui , com a topologia quociente, para Rm . Verifica-se que
qualquer aplicação de mudança de cartas, entre as cartas daquele tipo, é suave37 . Os ‘mapas’
(3.28) tomam o nome de coordenadas afins de Pm (R).

Com o primeiro dos exemplos acima podemos provar um importante resultado.


37
Fica provado que o espaço projectivo Pm (R) é uma variedade suave de dimensão m, sem recorrer à
teoria precedente.
3.2 Acções de grupos de Lie em variedades 107

Figura 3.18: Variedades conexas (logo conexas por arcos).

Proposição 3.2.3. Para todo o n ∈ N, os grupos ortogonais especiais SOn são conexos;
os grupos ortogonais On têm duas componentes conexas.

Demonstração. Usamos o método de indução. O caso n = 1 é trivial; por isso, suponhamos


já o resultado como verdadeiro para n e passemos à demonstração do caso n + 1. Seja W0
uma componente conexas de SOn+1 . Seja π : SOn+1 → S n a projecção canónica para o
espaço das órbitas da acção de SOn em SOn+1 . Lembremos que π é uma aplicação aberta
e que as componentes conexas de uma variedade são abertas na variedade. Logo S n é
igual à união dos π(Wi ) onde os Wi são as componentes conexas de SOn+1 . Vejamos que
essas imagens são disjuntas: sejam g0 , g1 ∈ SOn+1 pertencentes a diferentes componentes
conexas. Então g0 e g1 estão em diferentes órbitas, porque os subespaços gSOn são conexos,
∀g ∈ SOn+1 , por hipótese de indução. Logo π(g0 ) 6= π(g1 ). Conclui-se que S n é a união dos
abertos disjuntos π(Wi ). Como a esfera é conexa, só pode existir uma componente conexa
em SOn+1 . A figura 3.18 tenta dar a ideia do que se está a passar...
Agora, para provar que On tem duas componentes conexas, basta pensar que se g0 ∈ On
e det g0 = −1, então g0 SOn é a componente conexa de g0 . Se um outro g ∈ On está numa
terceira componente conexa e det g = −1, então g ∈ gSOn = g0 g0−1 gSOn = g0 SOn porque
det g0−1 g = 1. Daqui se deduz que apenas existem duas componentes conexas em On . ¤

3.2.2 Variedades quociente


Do que se vai expôr em seguida podemos dizer que se trata de um caso extremo, distante
do das variedades homogéneas não na forma mas na essência. Vamos analisar aqui uma das
mais simples situações em que é não transitiva (se dim M > 0) a acção de um grupo de Lie
sobre uma variedade suave M .

Recordemos da teoria dos grupos que uma acção de um grupo G num espaço M se diz
livre se não tem pontos fixos, ie., ∀x ∈ M, g ∈ G, se gx = x, então g = 1. O mesmo é
108 Capı́tulo 3. Aplicações clássicas

dizer, todo o subgrupo de isotropia é trivial.

Consideremos um grupo de Lie Γ que tenha a topologia discreta (eg. o grupo dos inteiros
Z). Suponhamos que Γ actua suavemente numa variedade suave M . Tal é simplesmente
equivalente à suavidade de cada um dos difeomorfismos g : M → M , g ∈ Γ. De novo,
denotamos por M/Γ o conjunto das órbitas, que herda a topologia quociente por meio de
π : M → M/Γ. Na proposição 3.2.1 vimos que π é aberta .
Para cada subconjunto U ⊂ M vamos denotar
© ª
ΓU = g ∈ Γ : g(U ) ∩ U 6= ∅ . (3.29)

Dizemos que a acção de Γ em M é propriamente descontı́nua se todo o ponto x ∈ M


tem uma vizinhança U tal que ΓU é finito.

Lema 3.2.2. Seja Γ × M → M uma acção propriamente descontı́nua e livre. Então, para
todo o x ∈ M existe uma vizinhança U0 de x em M tal que ΓU0 = {1}.

Demonstração. Por hipótese existe uma vizinhança U de x onde ΓU é finito. Agora, para
cada g ∈ ΓU \{1} existe uma vizinhança Vg de x tal que g(Vg ) ∩ Vg = ∅. Se tal não fosse
verdade e toda a vizinhança V de x tivesse intersecção não vazia com g(V ), então existiriam
sucessões {yl }l∈N e {yl0 }l∈N convergindo para x e tais que g(yl ) = yl0 . Tomando o limite em
l encontrarı́amos x como um ponto fixo de g, o que é impossı́vel por a acção ser livre. Como
ΓU é finito, pomos V1 = U e tomamos
\
U0 = Vg
g∈ΓU

que é a vizinhança de x procurada. De facto, se y = h(y 0 ) ∈ U0 para algum h ∈ Γ, com


y 0 ∈ U0 , então tem de ser h ∈ ΓU . Mas daqui se deduz facilmente que g = 1. ¤

Proposição 3.2.4. Se a acção de Γ em M é propriamente descontı́nua e livre, então M/Γ


é um espaço topológico de Hausdorff.

Demonstração. Sejam x, y ∈ M tais que Γx∩Γy = ∅, ou seja, π(x) 6= π(y). Tomamos então
as vizinhança U0 de x e V0 de y dadas pelo lema 3.2.2, as quais, por M ser de Hausdorff,
podemos supôr tão pequenas de tal modo que U0 ∩ V0 = ∅. Em seguida, admitindo já que
V0 é uma vizinhança compacta38 , provamos que existe um número finito de g ∈ Γ tais que
V0 ∩gU0 6= ∅. Com efeito, se existisse uma sucessão infinita de pontos vi ∈ V0 ∩gi U0 , com os
gi distintos, então existiria uma subsucessão convergente vij em V0 , por este ser compacto.
Mas, então, a partir de certa ordem j0 ter-se-ı́a gij U0 ∩ gij0 U0 6= ∅ e logo gij = gij0 , ∀j ≥ j0 ,
o que é absurdo.
38
As variedades são localmente homeomorfas ao espaço euclidiano, logo podemos invocar o teorema 1.3.1.
3.2 Acções de grupos de Lie em variedades 109

Finalmente, se necessário restringindo ainda mais as vizinhanças já encontradas, pode-


mos concluir que existem vizinhanças U0 de x e V0 de y tais que

ΓU0 ∩ ΓV0 = ∅

Como π é aberta, isto significa que M/Γ é de Hausdorff. ¤

Sob as mesmas hipóteses dos resultados precedentes, podemos definir as variedades


quociente M/Γ com um teorema, provando a existência de uma estrutura diferenciável
C ∞.

Teorema 3.2.3. O espaço das órbitas M/Γ admite uma e uma só estrutura de variedade
suave tal que
π : M → M/Γ (3.30)
é um difeomorfismo local. Mais precisamente, π| : U → π(U ) é um difeomorfismo em cada
aberto U tal que ΓU = {1}. Em particular, dim M/Γ = dim M .

Demonstração. Já vimos que são satisfeitas as condições topológicas exigidas em geral para
um espaço topológico poder ser uma variedade.
Vejamos a questão magna da cartografia. Seja n a dimensão de M ; tomamos em cada
ponto π(x), para x ∈ M , a carta

τ = φ ◦ π|U −1 : π(U ) −→ Rn

onde (U, φ) é uma carta de M com um domı́nio aberto suficientemente pequeno de tal
modo que ΓU = {1}. Tal carta existe, como o lema 3.2.2 permite mostrar. Note-se que π|U
é um homeomorfismo porque é bijectiva, contı́nua e, já se viu, aberta. Agora, analisemos as
aplicações de mudança de cartas τ 0 ◦ τ −1 induzidas por cartas (U, φ), (V, ψ) de M tais que
π(U ) ∩ π(V ) 6= ∅. Para x ∈ U tal que π(x) aparece nesta última intersecção — suponhamos
já π(U ) = π(V ) ou restrinja-se o domı́nio — existe um único g ∈ Γ tal que gU = V . Sendo
Lg : U → V esta multiplicação, verifica-se então que
−1
τ 0 ◦ τ −1 = ψ ◦ π|V ◦ π|U ◦ φ−1 = ψ ◦ Lg ◦ φ−1 (3.31)

é de facto uma aplicação suave. Note-se que pode acontecer g = 1 e então o resultado segue
por M ser uma variedade suave. Como x é qualquer, está provado que τ 0 ◦ τ −1 é suave no
seu domı́nio.
Resulta por construção que π|U é um difeomorfismo sobre π(U ), em cada aberto U onde
π for bijectiva. ¤

Repare-se que M/Γ pode ser vista como uma “colagem”de M consigo própria. De facto
a acção de Γ dá lugar a difeomorfismos g : M → M e podemos afirmar que as equações
(2.10) são trivialmente satisfeitas. Ou seja, dados x, y ∈ M pomos x ∼ y se y = gx para
algum g...
110 Capı́tulo 3. Aplicações clássicas

Figura 3.19: Um domı́nio fundamental a sombreado.

Exemplo 1. Em Rn tomamos uma base v1 , . . . , vn e o subgrupo aditivo Γ = Zv1 +


· · · + Zvn . Cada elemento g de Γ actua como uma translacção: x ∈ Rn , x 7→ x + g. Prova-
se de imediato que temos uma acção, que é livre e propriamente descontı́nua. Como se
infere da figura 3.19, que representa o caso n = 2, a variedade quociente que se obtém é o
toro Tn = S 1 × · · · × S 1 . Repare-se que os lados opostos de um domı́nio fundamental se
identificam preservando o ‘sentido’.
Exemplo 2. Em S n identificamos x e −x obtendo o espaço das rectas de Rn+1 que passam
por 0, ou seja, o espaço projectivo. Podemos assim dizer que

Sn
Pn (R) = (3.32)
{±Id}

é uma variedade quociente.

A construção das variedades quociente obtidas da forma que se explicou acima são parte
de outro tema da geometria e topologia, a saber, os espaços de cobertura.

Exercı́cios
1. Mostre que o conjunto das matrizes invertı́veis do tipo (3.23) define um subgrupo de
Lie GLn,N −n (R) ⊂ GLN (R).

2. Mostre que Gr(n, N ) também é igual a ON /(On × ON −n ). (Sugestão: recorra aos co-
nhecimentos sobre ortogonalidade já invocados.) Sabendo que On é compacto deduza
que Gr(n, N ) é compacto. Mostre que as grassmanianas têm apenas uma componente
conexa, ie. são conexas (sugestão: lembrar que On tem duas componentes e que a
projecção para Gr(n, N ) é contı́nua e logo aplica conexos em conexos).

3. Mostre que Gr(n, N ) é difeomorfo a Gr(N − n, N ), para todos os naturais n ≤ N .


Explique o isomorfismo (3.25).
3.2 Acções de grupos de Lie em variedades 111

4. Recorde que um subgrupo H de um grupo G se diz normal se gHg −1 = H, ∀g ∈ G.


Prove que neste caso G/H também é um grupo com o produto (g1 H, g2 H) 7→ g1 g2 H.
Conclua que no caso em que G é um grupo de Lie e H é um subgrupo fechado, então
G/H é um grupo de Lie.

5. Considere uma acção de um grupo G×M → M e seja H = {g ∈ G : gx = x, ∀x ∈ M }.


Mostre que H é um subgrupo normal. Mostre que existe uma acção induzida de G/H
em M e que esta é efectiva (uma acção diz-se efectiva se todos os elementos de G\{1}
realizam algum ‘trabalho’, ou seja, se H é trivial).

6. Seja Aff (Rn ) o grupo das transformações afins de Rn . Mostre que Aff (Rn )/GLn =
Rn (cf. exercı́cio 6 de 3.1) e conclua que Rn também é uma variedade homogénea.
Descreva a álgebra de Lie g do subgrupo
© ª
E(2) = f ∈ Aff (Rn ) : f (x) = g(x) + b, g ∈ On , (3.33)

chamado grupo dos movimentos rı́gidos do espaço euclidiano. (Sugestão: como


espaço vectorial, g é isomorfa a son × Rn ; procure uma base composta de campos
vectoriais invariantes à esquerda do tipo (Xi , 0), (0, e1 ), . . . , (0, en ), com Xi = −XiT
uma base de son , e calcule os parêntesis de Lie entre pares de vectores daquela base.)

7. Seja R+ = {λ1 ∈ GLn : λ > 0}. Mostre que GLn,+ /R+ é um grupo de Lie isomorfo
a SLn .

8. Seja 0 ⊂ F1 ⊂ . . . ⊂ Fn−1 ⊂ Rn uma famı́lia de subespaços vectoriais de Rn tais que


dim Fi = i, ∀i. Mostre que o grupo ∆n (R) das matrizes triangulares superiores se
identifica com o subgrupo das matrizes g ∈ GLn (R) tais que

g(Fi ) ⊂ Fi (3.34)

para todo o i = 1, . . . , n. Encontre a dimensão e descreva o espaço tangente da


variedade de bandeira F (n) = GLn (R)/∆n (R).

9. Verifique que as coordenadas afins (3.28) do espaço projectivo estão bem definidas e
que são suaves as mudanças de carta.

10. Mostre que uma função homogénea f : Rm+1 → Rl+1 de grau α ≥ 0, ie. tal que

f (λ(x0 , x1 , . . . , xm )) = λα f (x0 , x1 , . . . , xm ), ∀x0 , . . . , xm , λ ∈ R, (3.35)

e não nula define uma e uma só função f˜ : Pm (R) → Pl (R) tal que π ◦ f = f˜ ◦ π, onde
π representa qualquer uma das projecções de Rk+1 para Pk . Mostre que se f é suave,
então f˜ é suave.

11. Seja Γ × M → M uma acção numa variedade M . Verifique que, se U ⊂ V , então


ΓU ⊂ ΓV — ver fórmula (3.29).
112 Capı́tulo 3. Aplicações clássicas

12. Mostre que um subgrupo Γ de um grupo de Lie G que actua sobre uma variedade M ,
actua própria descontı́nuamente sobre M se, e só se, Γ tem a topologia discreta.

13. Justifique que P2 (R) contem uma banda de Möbius. Mostre que P2 (R) é a variedade
que se procurava no exercı́cio 4 da secção 2.1. Prove de novo, usando (3.32), que todos
os espaços projectivos são compactos e conexos.

14. Mostre que {±1} actua livre e própria descontı́nuamente em SL2n . A variedade
quociente que se obtém denota-se por P SL2n .

15. Prove que o conjunto de todas as rectas de R2 está em bijecção com R2 \{0} ∪ S 1 .

16. Sejam v1 , . . . , vk ∈ Rn vectores linearmente independentes seja Γ = Rv1 + · · · + Rvk .


Mostre que Rn /Γ é difeomorfo a Tk × Rn−k .

3.3 Variedades orientáveis


3.3.1 Orientação de um espaço vectorial
Dizemos que um espaço vectorial real V de dimensão n está orientado se nele estiver feita
a escolha de uma base {u1 , . . . , un } e se estiver fixada uma ordenação total deste conjunto
finito.
Outra base qualquer de V dada como um sistema ordenado de vectores v1 , . . . , vn diz-se
orientada no sentido positivo ou directo se a matriz de mudança da base {ui }1≤i≤n
para a base {vi }1≤i≤n tem determinante positivo. Também se diz que a base é directa.
Caso contrário, a base diz-se orientada no sentido negativo ou retrógrado.

Existe então uma relação de equivalência entre as bases de um espaço vectorial orientado,
com duas classes de equivalência: dadas duas bases ordenadas elas estão orientadas no
mesmo sentido ou não; não há terceira hipótese (cf. exercı́cio 1). Damos, finalmente, o
nome de orientação de V à escolha de uma destas classes — em princı́pio, a classe que
contém uma base directa. Chama-se orientação inversa à outra classe.

Dado um isomorfismo f : V → V de um espaço vectorial orientado V , diz-se que f


preserva a orientação se aplica bases directas em bases directas; diz-se, por outro lado,
que f inverte a orientação se aplica bases directas em bases retrógradas.
Claro que um isomorfismo preserva a orientação se, e só se, fixada uma base qualquer
em V a matriz de f está em GLn,+ .
3.3 Variedades orientáveis 113

3.3.2 Orientação de uma variedade diferenciável


Seja M uma variedade diferenciável. M diz-se uma variedade orientável se cada espaço
tangente Tx M tem uma orientação, ∀x ∈ M , satisfazendo a seguinte condição de conti-
nuidade: para qualquer aberto conexo U ⊂ M e qualquer referencial suave sobre U , este
constitui, ∀x ∈ U , uma base de Tx M orientada no sentido positivo, ou constitui, ∀x ∈ U ,
uma base de Tx M orientada no sentido negativo.
A orientação de cada espaço tangente numa variedade orientável é chamada de ori-
entação da variedade.

Por exemplo, a orientação canónica de Rn é a que toma a base canónica (1.43), que é
um referencial suave e global, como base directa.

Dada uma variedade orientável M , para cada carta φ = (φ1 , . . . , φn ) definida num aberto
conexo U de M , podemos dizer que é uma carta que preserva a orientação ou inverte
a orientação, conforme o referencial
∂ ∂
1
,..., n (3.36)
∂φ ∂φ
é directo (ie. directo em cada ponto), ou retrógrado. Repare-se que se a carta φ preserva a
orientação, então a carta (−φ1 , φ2 , . . . , φn ) inverte a orientação.
Lema 3.3.1. Uma variedade M é orientável se, e só se, cada Tx M tem uma orientação e
é verificada a seguinte condição de continuidade: cada x ∈ M tem uma vizinhança U na
qual está definido um referencial X U suave e directo.
Demonstração. Usando cartas em torno de cada ponto x, já vimos que a condição descrita
no lema é necessária. Vejamos que é suficiente. Seja, por hipótese, W um aberto conexo de
M onde está definido um referencial suave X qualquer. Seja x0 ∈ W e suponhamos, sem
perda de generalidade, que esse referencial é directo em x0 . Seja
© ª
W 0 = x ∈ W : o referencial X é directo em x .
Um ponto x1 ∈ W está em W 0 se, e só se, a componente conexa contendo x1 da vizinhança
U ∩ W , onde U é dado pelo enunciado, está contida em W 0 . Com efeito, o determinante é
uma função contı́nua, logo a matriz de mudança do referencial X para o referencial X U tem
determinante positivo num ponto x1 se, e só se, tem determinante positivo na componente
conexa que contém esse ponto. Ou seja, tanto W 0 como o seu complementar em W são
abertos em W . Como x0 ∈ W 0 e W é conexo, concluı́mos que W 0 = W . Ou seja, concluı́mos
que o referencial X é directo em todo o seu domı́nio. ¤

Não existem dúvidas sobre o número de orientações de uma variedade suave e conexa:
ou há duas orientações, uma inversa da outra, ou não há nenhuma! Tal é consequência do
próximo lema.
114 Capı́tulo 3. Aplicações clássicas

Lema 3.3.2. Seja M uma variedade conexa e orientável. Então existe apenas uma outra
orientação em M .

Demonstração. Obviamente, a outra orientação de M consiste na escolha para bases direc-


tas precisamente as que eram inversas na primeira orientação.
Já se viu que uma orientação é uma entidade global na variedade. Pelo lema anterior
existe um referencial local, suave e directo em torno de cada um dos pontos de M . Assim,
duas orientações de M coincidem no maior aberto conexo de M , ou não coincidem de
todo. ¤

A definição precedente de cartas que preservam a orientação é um caso particular da


seguinte. Dizemos que um difeomorfismo f : M → N entre duas variedades orientáveis
preserva a orientação se, em cada ponto x ∈ M , o isomorfismo dfx : Tx M → Tf (x) N
preserva a orientação.

O seguinte critério é muito útil na prática.

Proposição 3.3.1. Uma variedade M é orientável se, e só se, M admite um atlas A =
{(Uα , φα )} tal que as mudanças de carta

φβ ◦ φ−1
α : φα (Uα ∩ Uβ ) −→ φβ (Uα ∩ Uβ ) (3.37)

satisfazem a condição det(d(φβ ◦ φ−1


α )) > 0, ∀α, β.

Demonstração. Basta considerar, ou assumir, que as cartas de um tal atlas são as que
preservam a orientação. ¤

Como a esfera S n admite um atlas com duas cartas apenas — as projecções estere-
ográficas (2.14) — e, para n > 1, a intersecção dos domı́nios destas duas cartas é conexo, é
claro pela proposição que S n é uma variedade orientável. A orientabilidade de S 1 também
é válida e deixa-se como exercı́cio a sua verificação.

Proposição 3.3.2. Seja M uma variedade orientável e Γ × M → M uma acção livre e


propriamente descontı́nua em M . É condição suficiente para M/Γ ser orientável que todos
os difeomorfismos g : M → M , com g ∈ Γ, preservem a orientação. Se M é conexa, esta
condição é necessária.

Demonstração. Aplicamos a proposição 3.3.1. Olhando para o teorema 3.2.3 e sua demons-
tração, vemos que as cartas positivamente orientadas de M induzem cartas positivamente
orientadas de M/Γ e, pela fórmula (3.31), concluı́mos que esta definição é coerente se todos
os g : M → M preservam a orientação.
Recı́procamente, suponhamos que M é conexa e M/Γ é orientável. Então o difeomor-
fismo local π : M → M/Γ preserva ou inverte a orientação, localmente. Por M ser conexa,
3.3 Variedades orientáveis 115

podemos admitir já que dπ transforma cada referencial suave e directo num aberto de M em
um outro sobre um aberto de M/Γ. Mas como π(gx) = π(x) e portanto dπgx ◦ dgx = dπx
para todo o x ∈ M , devemos concluir que dgx : Tx M → Tgx M preserva a orientação. ¤

Vejamos um caso prático.

Corolário 3.3.1. Pn (R) é orientável se, e só se, n é ı́mpar.

Demonstração. Como se trata do quociente S n /{±Id} e S n é conexa, basta analisar quando


é que o difeomorfismo −Id : S n → S n , que leva x para39 −x, preserva a orientação. Já
vimos que SOn+1 é conexo e actua na esfera, pelo que todos os seus elementos (em particu-
lar a identidade) induzem difeomorfismos de S n que preservam a orientação. Recorrendo a
exemplos simples prova-se que existem elementos em On+1 que não preservam a orientação,
ou seja, a outra componente conexa do grupo ortogonal actua em S n invertendo a ori-
entação. Assim, −Id preserva a orientação se, e só se, a sua matriz está em SOn+1 . Como
o determinante de −1 é (−1)n+1 o resultado segue. ¤

Exercı́cios

1. Prove que é de equivalência a relação entre as bases de um espaço vectorial real:


B1 ∼ B2 se a matriz de mudança de base M (Id, B1 , B2 ) tem determinante positivo.

2. Mostre que, se M, N são variedades conexas e f : M → N é um difeomorfismo, então


basta avaliar o sinal de det dfx num ponto x0 para decidir se f preserva ou inverte as
orientações.

3. Mostre que se M, N são variedades orientáveis, então M × N é uma variedade ori-


entável.

4. Seja M uma variedade com m componentes conexas e orientáveis. Calcule o número


de orientações possı́veis de M .

5. Mostre que todo o grupo de Lie é orientável.

6. Mostre que a banda de Möbius não é orientável. Usando este resultado verifique de
novo que P2 (R) não é orientável.

39
Chamado o antı́poda de x.
116 Capı́tulo 3. Aplicações clássicas

3.4 Introdução à geometria riemanniana


Neste capı́tulo introduzimos os conceitos básicos da geometria riemanniana, aquela a que
já nos referimos por diversas vezes. Sendo uma área fundamental e vastı́ssima da geometria
interessa-nos apenas suscitar o interesse no seu estudo. Comecemos por recordar alguma
álgebra vectorial.

3.4.1 Espaços com produto interno


Dizemos que um espaço vectorial real V está munido de um produto interno se estiver
definida em V uma aplicação bilinear

h , i : V × V −→ R (3.38)

com as propriedades: (i) hu, vi = hv, ui, ∀u, v ∈ V , (chamada de simetria) e (ii) hu, ui ≥
0, ∀u ∈ V , com igualdade se, e só se, u = 0 (chamada propriedade de definida positiva).

Todo o espaço vectorial de dimensão finita n possui um produto interno, na medida em


que, usando um isomorfismo para Rn , podemos ‘copiar’ o produto interno euclidiano

h(x1 , . . . , xn ), (y1 , . . . , yn )i = x1 y1 + · · · + xn yn (3.39)

que é o produto interno canónico do espaço euclidiano. Por esta razão também se dá o nome
de euclidiano a qualquer espaço vectorial munido de um produto interno (cf. corolário
1.3.2).

Associada a um produto interno está sempre uma norma. Com efeito, verifica-se ime-
p
diatamente que kuk = hu, ui tem as propriedades requeridas para ser uma norma. Em
particular, a norma associada ao produto interno euclidiano é a norma euclidiana.

Dois vectores u, v ∈ V dizem-se perpendiculares ou ortogonais, e denota-se u ⊥ v,


se hu, vi = 0. Dado um subconjunto F ⊂ V , denota-se por F ⊥ = {u ∈ V : u ⊥ v, ∀v ∈ F },
que é sempre um subespaço vectorial. Em dimensão finita, se F é um subespaço vectorial,
então (F ⊥ )⊥ = F e tem-se a soma directa

V = F ⊕ F ⊥. (3.40)

Tudo isto é de verificação imediata. Dois subconjuntos A, B ⊂ V dizem-se ortogonais se


todo o elemento de A é ortogonal a todo o elemento de B.

Proposição 3.4.1. 1. (identidade do paralelogramo) Para quaisquer u, v ∈ V , ku +


vk2 + ku − vk2 = 2kuk2 + 2kvk2 .
3.4 Introdução à geometria riemanniana 117

2. (teorema de Pitágoras) Se u ⊥ v, então ku + vk2 = kuk2 + kvk2 .


3. (desigualdade de Cauchy-Schwarz) Para quaisquer u, v ∈ V ,

|hu, vi| ≤ kuk kvk, (3.41)

com igualdade se, e só se, u, v são linearmente independentes.


Demonstração. 1. e 2. sendo imediatas, passamos à demonstração de 3. Suponhamos já
que v 6= 0. Uma vez que para todo o λ ∈ R se tem ku + λvk2 ≥ 0, vem

0 ≤ hu + λv, u + λvi = hu, ui + 2λhu, vi + λ2 hv, vi.

Olhando então para o binómio descriminante desta inequação polinomial na variável λ,


temos de ter
(2hu, vi)2 − 4kvk2 kuk2 ≤ 0
e logo (3.41). Se se dá a igualdade, então existe um zero do referido polinómio. Ou seja,
existe λ tal que u + λv = 0. A recı́proca prova-se com um cálculo trivial. ¤

Um vector diz-se unitário ou normado se kuk = 1. Uma base {u1 , . . . , un } de V


diz-se ortonormada se os ui são todos normados e são ortogonais entre si. Em dimensão
finita existe sempre uma tal base, como se deduz logo por indução natural, começando por
normalizar um vector v ∈ V \{0} qualquer e pensando em seguida no subespaço {v}⊥ . Mais
explı́citamente, o chamado processo de ortonormalização de Gram-Schmidt permite ver que,
dada uma qualquer base {v1 , . . . , vn }, o sistema de vectores definido de forma recorrente

u1 = v1 /kv1 k
j−1
X (3.42)
e, para j = 2, . . . , n, uj = ûj /kûj k onde ûj = vj − hvj , ui iui ,
i=1

dá lugar a uma base ortonormada {u1 , . . . , un } de V . Para a demonstração de que ûj 6= 0
deve-se usar o ponto 3 da proposição 3.4.1.

Repare-se que um subespaço vectorial F de um espaço vectorial V com produto interno,


herda o produto interno de V por restrição de h , i a F × F .

Dados dois espaços vectoriais V1 , V2 com produtos internos h , i1 , h , i2 prova-se imedi-


atamente que o produto cartesiano V1 × V2 está munido de um produto interno

h , i : V1 × V2 × V1 × V2 −→ R (3.43)

definido pela fórmula h(u1 , u2 ), (v1 , v2 )i = hu1 , v1 i1 + hu2 , v2 i2 .

Uma aplicação linear f : V1 → V2 entre dois espaços com produto interno diz-se
isométrica se kf (u)k = kuk, ∀u ∈ V1 . A aplicação f diz-se uma isometria se for bi-
jectiva e isométrica.
118 Capı́tulo 3. Aplicações clássicas

Teorema 3.4.1. Se V é um espaço vectorial de dimensão finita com produto interno, então
existe um isomorfismo natural entre V e o seu dual V ∗ . Explicitamente, v 7→ hv, i é um
isomorfismo que não depende das bases.

A demonstração do teorema é trivial. Note-se que hv, i denota a aplicação u 7→ hv, ui.
Lembremos ainda que os elementos de V ∗ se chamam formas lineares.
Podemos agora transportar o produto interno de V para V ∗ , fazendo deste último um
espaço vectorial com produto interno. O isomorfismo do teorema torna-se uma isometria e,
em particular, kvk = khv, ik.

Outra consequência do teorema é a seguinte. Seja f : U → V uma aplicação linear entre


dois espaços vectoriais com produto interno. Para cada v ∈ V existe um único f ad (v) ∈ U
tal que
hf (u), vi = hu, f ad (v)i, ∀u ∈ U. (3.44)
Com efeito, u 7→ hf (u), vi é uma forma linear, ie. um elemento de U ∗ . Fica então definida
uma aplicação f ad : V → U , chamada adjunta de f , que se vê de imediato ser linear. A
própria passagem à adjunta é uma transformação linear

·ad : L(U, V ) −→ L(V, U ). (3.45)

Com pouco trabalho prova-se também a seguinte:

Proposição 3.4.2. 1. Idad = Id.


2. Tem-se que (f ad )ad = f , ou seja, a passagem à adjunta é uma involução.
3. Se W é outro espaço vectorial com produto interno e g : V → W uma aplicação linear,
então (g ◦ f )ad = f ad ◦ g ad .

A demonstração dos resultados precedentes é deixada como exercı́cio.

Podemos descrever um produto interno por intermédio do cálculo matricial. Consi-


deremos uma base u1 , . . . , un qualquer do espaço vectorial V com produto interno. Seja
gij = hui , uj i, para i, j = 1, . . . , n. Agora suponhamos que
n
X n
X
u= xi ui , v= yi ui . (3.46)
i=1 i=1

Então X X
hu, vi = xi yj hui , uj i = xi gij yj = X t GY. (3.47)
i,j i,j

onde, em notação matricial, suposemos


   
x1 y1
   
G = [gij ], X =  ...  , Y =  ...  . (3.48)
xn yn
3.4 Introdução à geometria riemanniana 119

Note-se que G é uma matriz simétrica e invertı́vel, pois GY = 0 implica Y t GY = 0 e logo


hv, vi = 0. Daqui resulta v = 0 e por isso Y = 0. Ou seja, ker G = {0}. À matriz G dá-se o
nome de matriz da métrica.

P
Agora, se f : V → V é uma aplicação linear e f (ui ) = j aij uj , então, escrevendo
ad ad
A = [aij ] e sendo A a matriz de f , a equação (3.44) escreve-se

(AX)t GY = X t G(Aad Y ), (3.49)

ou seja, Aad = G−1 At G. Em particular, numa base ortonormada, G = 1 e a matriz da


aplicação adjunta é a transposta da matriz da aplicação inicial.

Teorema 3.4.2. Um isomorfismo linear f : V → V é uma isometria se, e só se, f −1 = f ad .


Numa base ortonormada, cada isometria é representada por uma matriz ortogonal. Logo o
grupo de Lie das isometrias de V é isomorfo a On e este é um compacto.

Demonstração. A primeira parte segue das considerações anteriores ou da igualdade

hf (u), f (v)i = hu, f ad (f (v))i

em conjunto com o exercı́cio 3. Numa base ortonormada vê-se logo que a matriz de f −1 é
a transposta da matriz de f . Sendo o grupo das isometrias de V um subconjunto fechado
da superfı́cie esférica do espaço normado L(V, V ), concluı́mos que é compacto. ¤

Repare-se que o espaço C dos produtos internos num mesmo espaço vectorial V é um
cone convexo (cf. exercı́cio 4). Mais ainda, dados dois produtos internos x0 , x1 ∈ C fixe-
mos uma base ortonormada para o primeiro; como existe uma base ortonormada para o
segundo e existe uma aplicação linear de mudança de base, vemos que GLn actua transitiva
e suavemente40 em C e que o subgrupo de isotropia é On . Em conclusão, temos

C = GLn /On = GLn,+ /SOn (3.50)

como mais um exemplo de uma variedade homogénea. A segunda igualdade resulta sim-
plesmente de se fixar uma orientação em V e de pensar que, se existem bases ortonormadas,
também existem bases ortonormadas directas.

Corolário 3.4.1. O grupo de Lie GLn dos isomorfismos lineares tem duas componentes
conexas: GLn,+ = det−1 (]0, +∞[) e det−1 (] − ∞, 0[).

Demonstração. A demonstração repete a ideia usada na proposição 3.2.3, provando que não
pode haver mais que uma componente conexa que se projecte no conexo C. Referimo-nos à
projecção
π : GLn,+ −→ C
40
C está contido no espaço das aplicações bilineares simétricas, que é um espaço vectorial e por isso tem
uma topologia canónica dada por alguma norma.
120 Capı́tulo 3. Aplicações clássicas

que é uma aplicação contı́nua. Suponhamos então g1 , g2 ∈ GLn,+ pertencentes a diferentes


componentes conexas W1 , W2 . Como SOn é conexo, esses elementos também pertencem a
diferentes órbitas. Logo π(g1 ) 6= π(g2 ), donde π(W1 ) ∩ π(W2 ) = ∅ criando um absurdo.
Para a outra componente descrita no enunciado, basta pensar que é homeomorfa à
anterior. ¤

3.4.2 Variedades riemannianas


Seja M uma variedade diferenciável de classe C ∞ . Dizemos que M possui uma estrutura de
variedade riemanniana se existe, em cada ponto x ∈ M , um produto interno no espaço
vectorial tangente no ponto x

h , ix : Tx M × Tx M −→ R

verificando a seguinte condição de suavidade: ∀U aberto de M , ∀X, Y ∈ XU , a função


hX, Y i : M → R é suave. Claro que esta última está definida por hX, Y i(x) = hXx , Yx ix .
À aplicação bilinear assim definida sobre os campos vectoriais dá-se o nome de métrica.
A métrica também induz uma aplicação norma, que mede a norma dos campos vectoriais
p
ponto a ponto, ie. se X ∈ XU , falamos de kXk ∈ CU∞ definida como kXkx = hXx , Xx ix .

As noções descritas nos espaços vectoriais com p.i. generalizam-se às variedades rie-
mannianas. Podemos falar de campos vectoriais perpendiculares ou ortogonais X e
Y como aqueles para os quais hX, Y i = 0. Podemos também falar de um campo vectorial
unitário ou de um referencial ortonormado, com definições óbvias.
No seguimento do que se disse anteriormente, se A : T M → T M é um endomorfismo
do espaço tangente, isto é, A aplica de forma linear cada Tx M em cada Tx M , então sendo
M uma variedade riemanniana podemos falar do adjunto de A extrapolando da definição
(3.44). Mais ainda, todas as proposições encontradas na secção 3.4 têm um equivalente no
contexto actual.

Se M, N são duas variedades riemannianas, podemos somar as suas métricas ponto a


ponto para produzir uma nova métrica na variedade M × N , de acordo com a decomposição
do espaço tangente descrita na proposição 2.2.2. Define-se como em (3.43) por

h(X1 , X2 ), (Y1 , Y2 )i = hX1 , Y1 iN + hX2 , Y2 iM , (3.51)

∀X1 , Y1 ∈ XN , X2 , Y2 ∈ XM . Esta estrutura canónica é chamada estrutura riemanniana


produto.

Para falarmos de isometrias temos de ser mais cuidadosos. Dizemos que uma aplicação
suave f : M → N entre duas variedades riemannianas é uma aplicação isométrica se
3.4 Introdução à geometria riemanniana 121

dfx : Tx M → Tf (x) N é uma aplicação linear isométrica em todos os pontos x ∈ M . Se as


variedades M e N são da mesma dimensão, então f diz-se uma isometria.

Se M é uma variedade riemanniana e N ⊂ M é uma subvariedade imersa, então a


métrica de M pode-se restringir a N , ou, mais precisamente, a T N ⊂ T M . É imediato
verificar que N munida de tal métrica passa a ser uma variedade riemanniana. Dizemos
então que N é uma subvariedade riemanniana de M . Deixamos como exercı́cio a prova
de que a definição anterior se pode extender a qualquer imersão f : N → M — a única
definição para a qual f passa a ser uma imersão isométrica (cf. exercı́cio 7).
Finalmente temos um resultado importante que só mais tarde, com a construção de
partições da unidade de classe C ∞ , poderemos provar em toda a generalidade. É frequente
usar letras para designar as métricas h , i. A seguir usamos g0 para designar o p.i. de Rn
definido em (3.39).

Teorema 3.4.3. Toda a variedade suave admite uma estrutura riemanniana.

Demonstração. (dependente da existência de partições da unidade de classe C ∞ , ainda não


demonstrada) Seja {Uα , φα } um atlas de uma variedade M qualquer de dimensão n. Como
sabemos, M é paracompacta, pelo que admite uma partição da unidade {λα } subordinada
à cobertura dada pelos Uα (cf. secção 1.4.3). Recordemos que λα : M → [0, 1] tem suporte
P
contido em Uα e que α λα = 1. Seja agora gα = φ∗α g0 , a métrica em cada Uα , a única que,
de acordo com o que se disse acima, faz φα ser uma isometria. É então trivial verificar que
P
g = α λα gα define uma estrutura de variedade riemanniana sobre M (cf. exercı́cio 4). ¤

Veremos na secção seguinte que todas as variedades riemannianas trazem consigo a


estrutura de um espaço métrico. Portanto, em todas as variedades podemos construir
estruturas de espaços métricos.

Exercı́cios
1. Demonstre a fórmula de soma directa (3.40). Mostre que o processo de ortonorma-
lização de Gram-Schmidt (3.42) é legı́timo e conduz ao resultado esperado.

2. Verifique que o produto interno do produto cartesiano, construı́do em (3.43), é de


facto um produto interno. Conclua que o p.i. canónico de Rn é a soma de n p.i.’s de
R.

3. Mostre que f : V1 → V2 é uma aplicação linear isométrica se, e só se, f é uma aplicação
que verifica hf (u1 ), f (u2 )i = hu1 , u2 i, ∀u1 , u2 ∈ V1 .

4. Sejam h , i1 , h , i2 dois produtos internos. Mostre que th , i1 + sh , i2 é um produto


interno quaisquer que sejam s, t ≥ 0.
122 Capı́tulo 3. Aplicações clássicas

5. Mostre que SOn é o subgrupo das isometrias que preservam uma orientação fixada
em Rn . Descreva a acção referida antes do corolário 3.4.1. (Sugestão: sendo G0 a
matriz de uma métrica, mostre que outra métrica qualquer é igual a g t G0 g para algum
g ∈ GLn .) Conclua que C também é igual a GLn,+ /SOn .

6. Recorrendo a fórmulas deduzidas no texto, mostre que det f ad = det f . Conclua que
a adjunta de um isomorfismo é um isomorfismo. O mesmo para o traço.

7. Prove que se f : N → M é uma imersão de uma variedade suave numa variedade


riemanniana M então N adquire uma estrutura de variedade riemanniana: pomos
hu, vix = hdfx (u), dfx (v)if (x) , ∀x ∈ N, u, v ∈ Tx N .

8. Defina a função coseno do ângulo descrito por dois campos vectoriais numa variedade
riemanniana.

3.5 Breve referência ao estudo das curvas


3.5.1 Definições gerais em variedades riemannianas
Na secção 2.3 mencionámos a ideia de curva dentro de uma variedade como uma aplicação
de um intervalo real na variedade, sem cuidar de averiguar o sentido usual dessa noção. Po-
derı́amos pois dizer que uma curva de classe C ∞ ou suave é uma subvariedade de dimensão
1 imersa noutra variedade.

Suponhamos que M é uma variedade riemanniana com métrica g = h , i e que r :


[a, b] → M é a restrição de uma parametrização de uma curva γ ⊃ im r. Portanto, podemos
falar, de acordo com o exposto na proposição 2.3.1, da velocidade de r em todos os pontos
¡d¢
do intevalo fechado. Trata-se da função v = r0 : [a, b] → T M definida por dr dt .

O primeiro invariante da curva im r = γ é o seu comprimento. Trata-se do escalar


L(γ) = s(b), onde s é a função comprimento de arco, ou seja, a primitiva41 da norma da
velocidade: Z t
s(t) = kr0 (τ )kdτ. (3.52)
a
Isto é, s é a função que tem kr0 k como derivada42 e vale 0 em a. Com efeito, s(b) não
depende da parametrização. Se r1 : [c, d] → M é outra dessas aplicações, representando
41
A função primitiva será estudada mais tarde, em particular a prova da sua existência.
42
A razão de ser desta definição vem do comprimento de uma curva no espaço euclidiano, que é aı́ definido
n
como o supremo dos comprimentos das linhas poligonais com vértices inscritos na imagem γ ⊂ R . Faz
sentido falar em linhas poligonais por haver um espaço euclidiano ambiente, sendo óbvio o que se quer dizer
pelo seu comprimento — que coincide com o da presente definição! Uma vez que tomamos o supremo e que
3.5 Estudo das curvas 123

apenas o excerto de γ entre r(a0 ) e r(b0 ), com a ≤ a0 < b0 ≤ b, então admitimos que a
curva é percorrida por r1 no mesmo sentido que r e que, sendo ξ a mudança de carta, temos
r = r1 ◦ ξ, ξ(a0 ) = c, ξ(b0 ) = d. Daqui resulta que r0 = r10 ◦ ξ ξ 0 e que ξ é crescente. Logo
teremos as respectivas funções de comprimento de arco s, s1 a verificar s1 ◦ ξ = s se, e só
se, as suas derivadas forem iguais. Mas isto é evidente:

s01 (ξ)ξ 0 = kr10 (ξ)kξ 0 = kr10 (ξ)ξ 0 k = kr0 k = s0

já que ξ 0 ≥ 0. Note-se que resulta da definição que s ≥ 0.

Claro que também se define o comprimento de uma curva seccionalmente suave: é a


soma dos comprimentos das curvas suaves que a compõem.

Considere-se agora a função definida entre pares de pontos x, y de M


© ª
d(x, y) = inf L(γx,y ) : γx,y curva seccionalmente C ∞ de x para y . (3.53)

Teorema 3.5.1. Toda a variedade riemanniana e conexa (M, g) admite a estrutura de um


espaço métrico, com a função distância definida em (3.53).

Demonstração. Pela proposição 2.3.2, M é conexa por arcos seccionalmente suaves, pelo que
a função distância d está definida em M × M . d é simétrica, porque qualquer caminho pode
ser percorrido no sentido inverso, com isso não alterando o seu comprimento (cf. exercı́cio
1). A condição d(x, y) = 0 ⇔ x = y também é de demonstração imediata. Vejamos a
desigualdade triangular. Sejam x, y, z ∈ M . Uma vez que para cada par de curvas γx,y , γy,z
temos uma curva γ̃x,z construı́da por justaposição daquelas duas, é claro que se vai ter

d(x, z) ≤ inf L(γ̃x,z ) = inf L(γx,y ) + inf L(γy,z ) = d(x, y) + d(y, z)


γx,y ,γy,z

como querı́amos demonstrar. ¤

3.5.2 Estudo local das curvas em R3 ; a curvatura


Agora é dada uma curva γ = im r como uma subvariedade riemanniana de R3 (alguns con-
ceitos fazem sentido noutras dimensões ou mesmo noutras variedades ambiente). Estamos
a tomar a métrica euclidiana usual, fixa em cada espaço tangente a R3 . Portanto está
implı́cita uma carta canónica deste espaço canónico.
as rectas minimizam o comprimento, uma vez que a recta r(b) + t r0 (b) é infitésimalmente próxima da curva
no ponto r(b), teremos
ds d d
(b) = L({r(b) + t r0 (b)}) = tkr0 (b)k = kr0 (b)k,
dt dt dt
assim explicando a imposição de (3.52).
124 Capı́tulo 3. Aplicações clássicas

Os pontos de uma curva onde a sua velocidade se anula dizem-se pontos singulares.
Uma curva diz-se regular se não tem pontos singulares (cf. ponto crı́tico e ponto regular na
seccção 2.5) e, de facto, esta definição não depende da parametrização escolhida (exercı́cio
2).

Dada r : [a, b] → R3 suave e regular e definido o comprimento de arco s : [a, b] →


[0, L(γ)], uma vez que s0 (t) = kr0 (t)k 6= 0, podemos inverter s, obtendo também uma
função s−1 de classe C ∞ . Esta permite-nos passar à parametrização por comprimento
de arco, l = r ◦ s−1 : [0, L(γ)] → R3 , que é muito simpática pelo facto de ter velocidade de
norma unitária: sendo s(t) = τ ,
0 1
l0 (τ ) = r0 (t)s−1 (τ ) = r0 (t)
kr0 (t)k
donde kl0 (t)k = 1. Note-se que tal parametrização pode sempre ser tomada numa vizinhança
de um ponto não singular da curva dada.

É importante ter presente que uma curva pode ser representada de diversas maneiras.
As mais comuns são a paramétrica — aquela a que estamos habituados — e a implı́cita,
se tivermos uma função suave f : U ⊂ R3 → R2 que tome um valor regular (y1 , y2 ). Tal é
consequência imediata do corolário 2.5.1.

Vejamos três exemplos:


1. A curva de representação paramétrica r(t) = (t, t2 , 32 t3 ) tem velocidade (1, 2t, 2t2 ), pelo
que se trata de uma curva regular. Note que a imagem também admite a representação
√ 3
r2 (t) = ( t, t, 32 t 2 ), mas esta não é sequer diferenciável em 0. O leitor verificará que mesmo
nos exemplos aparentemente mais simples é difı́cil calcular o comprimento de arco. Porém,
não é este o caso.
2. Dada f (x, y, z) = (x2 y, yz + z 3 ), temos df(x,y,z) (u, v, w) = (2xyu + x2 v, zv + yw +
3z 2 w), donde (1, 0, 1) é um ponto regular. Perto deste ponto, a curva f −1 (0, 1) tem uma
parametrização t 7→ (c(t), 0, 1) para cada função c(t) real suave, regular se c0 (t) 6= 0.
3. Em coordenadas polares, no plano, temos descrições muito elegantes de algumas curvas
clássicas: por exemplo, a cisóide de Diócles ρ = sen θtg θ, a cardióide ρ = a(1 + cos θ), a
espiral ρ = aθ (a constante), etc.

Dispomos de outros instrumentos para o estudo das curvas regulares. A curvatura ~k é


a segunda derivada da representação por comprimento de arco de uma dada curva regular
γ. Numa qualquer parametrização r da mesma curva, temos
00 0 2 0 0 00
~k = r kr k − r hr , r i (3.54)
kr0 k4
Deixamos como exercı́cio (importante) a demonstração de que a expressão acima não de-
pende da escolha de r. Na parametrização l por comprimento de arco, já vimos que kl0 k = 1.
3.5 Estudo das curvas 125

P1
P0

Figura 3.20: Interpretação da curvatura para uma curva plana.

Derivando a igualdade hl0 , l0 i = 1, resulta hl00 , l0 i + hl0 , l00 i = 0 e logo hl0 , l00 i = 0. Assim se vê
que ~k = l00 .

Em norma, a curvatura mede quão curva é a curva: curvatura nula significa que temos
uma recta. Basta ver que, sendo l00 (τ ) = 0, ∀τ , só podemos ter uma recta l(τ ) = l0 +
v0 τ, l0 , v0 constantes. Por outro lado, no plano, curvatura não nula constante em norma
significa que estamos em presença de uma circunferência. Vejamos primeiro o seguinte
resultado.
Proposição 3.5.1. No plano R2 seja dada a curva regular p(x) = (x, y(x)), com x a
variar em certo intervalo aberto, e suponhamos fixado um ponto p0 = p(x0 ). Seja α(x) =
R x1 0
arctg y 0 (x) e seja Lpd
0 p1 = L(p|[x ,x ] ) = x0 kp (t)kdt. Então
0 1

|α(x1 ) − α(x0 )|
k~kp0 k = lim (3.55)
x1 →x0 Lpd 0 p1

Demonstração. Note-se que para qualquer parametrização temos


kp00 k2 kp0 k4 − 2hp0 , p00 i2 kp0 k2 + kp0 k2 hp0 , p00 i2 kp00 k2 kp0 k2 − hp0 , p00 i2
h~k, ~ki = = .
kp0 k8 kp0 k6
Em particular para a parametrização em causa, uma vez que p0 = (1, y 0 ), p00 = (0, y 00 ), vem
y 002 (1 + y 02 ) − y 02 y 002 y 002
h~k, ~ki = =
(1 + y 02 )3 (1 + y 02 )3
3
Assim temos uma fórmula k~kk = |y 00 |/(1 + y 02 ) 2 , útil para certos momentos da prática.
R x1 p
Note-se também que o comprimento Lpd 0 p1 = x0 1 + y 02 dt, pelo que a derivada desta
1
função no ponto x0 é (1 + y 02 ) 2 . Por uma famosa regra de Cauchy, consequência do teorema
dos acréscimos finitos demonstrado na secção 1.5.2, podemos calcular o limite (3.55) muito
facilmente derivando ambos os termos da fracção. Temos assim
|α(x1 ) − α(x0 )| |y 00 | ~
lim = 1 = kkk,
x1 →x0 Lpd 0 p1 (1 + y 02 )(1 + y 02 ) 2
posto que é bem conhecida a derivada da função arctg. ¤
126 Capı́tulo 3. Aplicações clássicas

Para facilitar a escrita vamos denotar κ = k~kk, função escalar que também toma o nome
de curvatura e que é igualmente um invariante geométrico.

Podemos agora justificar que a norma da curvatura da circunferência de raio R é igual


a 1/R em todos os pontos. Tal é consequência da fórmula (3.55) e do raio ser directamente
proporcional ao perı́metro.

É fácil de advinhar que uma hélice circular r(t) = (R cos t, Rsen t, ct) tem k~kk constante,
portanto a conclusão de que, sendo a curvatura constante, a curva é uma circunferência,
não é lı́cita no espaço R3 ; apenas no plano.

3.5.3 Fórmulas de Frenet-Serret


Seja γ uma curva parametrizada pelo comprimento de arco l. Já vimos que kl0 k = 1 e que
hl0 , l00 i = 0. Então denotamos esse mesmo vector unitário l0 por ~t e atribuı́mos-lhe o nome
de vector tangente. Faa̧mos a suposição extra de que κ 6= 0 em todos os pontos. Ao vector
~
unitário perpendicular à tangente ~n = κk damos o nome de normal. Dito de outra forma,

~t0 = l00 = ~k = κ~n.

Em R3 existe ainda um único vector ~b tal que {~t, ~n, ~b} forma uma base ortonormada com
a orientação directa. ~b é a binormal. É trivial verificar que aquele referencial é suave ao
longo da curva γ (definido apenas na condição de κ 6= 0). Tem-se h~b, ~ti = 0, donde se obtém

0 = h~b0 , ~ti + h~b, ~t0 i = h~b0 , ~ti + h~b, ~ni = h~b0 , ~ti.

Então só podemos concluir que ~b0 = −τ~n para alguma função escalar. A esta função τ
definida sobre a curva dá-se o nome de torsão; com efeito, τ é um invariante da parametriza-
ção e mesmo do sentido em que a curva é percorrida (exercı́cio 6).

Com raciocı́nio análogos aos anteriores chegamos às fórmulas de Frenet-Serret:

Exercı́cios
1. Justifique cabalmente que qualquer curva suave r : [a, b] → M tem uma orientação
induzida pela orientação de R, ie. tem um sentido, e que pode ser parametrizada no
sentido inverso, mantendo o comprimento.

2. Mostre que a noção de curva regular não depende da escolha da sua carta (ie. da
parametrização).
127

3. Mostre que (3.54) não depende da escolha da parametrização (Sugestão: supondo


r1 = r ◦ ξ outra parametrização, regular pelo exercı́cio anterior, começe pelos cálculos
auxiliares de r10 , r100 ).

4. Seja A : R3 → R3 uma aplicação linear. Mostre que ~k(A(γ)) = A(~k(γ)) para qualquer
curva γ se, e só se, A é uma isometria.

5. Calcule a curvatura da hélice circular descrita nesta secção.

6. Mostre que a torsão é a mesma se mudarmos a parametrização l(t) por l(−t).


128
Bibliografia

[Ahl79] L. V. Ahlfors. Complex analysis. Mc Graw Hill, 1979.

[Ati79] M. Atiyah. Geometry of Yang-Mills fields. Scuola Normale Superiore, Pisa, 1979.

[BG88] M. Berger and B. Gostiaux. Differential geometry: manifolds, curves and surfaces.
Springer, Berlin, 1988.

[Boo86] W. M. Boothby. An introduction to differentiable manifolds and riemannian geo-


metry. Academic Press, 2 edition, 1986.

[DA83] F. R. Dias Agudo. Introdução à álgebra linear e geometria analı́tica I e II. Escolar
Editora, Lisboa, 1983.

[DA89] F. R. Dias Agudo. Análise real, volume I. Escolar Editora, Lisboa, 1989.

[Die44] J. Dieudonné. Une généralisation des espaces compacts. J. Math. Pures Appl.,
23:65–76, 1944.

[Die66] J. Dieudonné. Fundamentos de análisis moderno. Reverté, S.A., Argentina, Espa-


nha, México, 1966.

[Hel78] S. Helgason. Differential geometry, Lie groups, and symmetric spaces. Academic
Press, California, 1978.

[Hir95] F. Hirzebruch. Topological methods in algebraic geometry. Springer-Verlag, Berlin,


1995.

[KF82] A. N. Kolmogorov and S.V. Fomin. Elementos da teoria das funções e de análise
funcional. Mir, Moscovo, 1982.

[Mac91] A. Machado. Geometria diferencial uma introdução fundamental. Cosmos, Lisboa,


1991.

[Pre00] A. Pressley. Elementary Differential Geometry. Springer, 2000.

[Spi65] M. Spivak. Calculus on manifolds. Addison-Wesley, 1965.

[Wol84] J. A. Wolf. Spaces of constant curvature. Publish or Perish, Inc., 1984.

129
Índice

álgebra de Lie, 94 livre, 107


abeliana, 96 propriamente descontı́nua, 108
associada, 96 suave, 103
órbita, 102 transitiva, 102
contável, 11 aderência, 10
enumerável, 11 adição, 5
esferas exóticas, 55 adjunta, 118
espaço-tempo, 53 aplicação
famı́lia, 10 (K-)linear, 6
invariante topológico, 55 aberta, 13
limite indutivo, 61 diagonal, 82
métrica, 30 linear derivada, 30, 64, 73
numerável, 11 atlas, 55
separada, 12 compatı́veis, 55
sucessão exacta, 8 automorfismo, 6
totalmente limitado, 19
variedade analı́tica, 55 banda de Möbius, 58
1o axioma da enumerabilidade, 18 base
2o axioma da enumerabilidade, 11 canónica de Rn , 31
anti-simétrico, 68 directa, 112
definida positiva, 116 orientada, 112
endomorfismo, 120 ortonormada, 117
global, 66 base de um espaço vectorial, 6
homomorfismo, 96 binormal, 126
kernel, 8 bolas, 18
localmente constante, 75
local, 13, 64, 75 campo vectorial
locus, 87 relacionados, 76
meridiano, 60 campo vectorial, 65
nós, 54 suave, 65
subgrupo normal, 111 unitário, 120
superfı́cies de Riemann, 54 campos vectoriais
totalmente simétrico, 35 perpendi. ou ortogonais, 120
cardióide, 124
abertos, 10 carta, 55
acção cilindro, 57
de um grupo, 102 cisóide de Diócles, 124
efectiva, 111 classe C k , C ∞ , 35

130
131

cobertura, 11 difeomorfismo, 36, 75


aberta, 11 diferenciável
fechada, 11 k-vezes, 35
finita, 11 em U , 34
localmente finita, 26 em x, 30
subcobertura, 11 estrutura, 55
combinação linear, 6 diferencial, 30, 64, 73
compacto, 12 de 2a ordem, 34
localmente, 26 de ordem k, 35
completo, 20 total, 74
comprimento, 122 dimensão, 6
de arco, 122 duma variedade, 55
de curva sec. C ∞ , 123 finita, 6
condição infinita, 6
de Heine-Borel, 12 distância, 17
de transversalidade, 89, 90 entre dois conjuntos, 19
cone, 57 dual, 6
conexo, 12 duas vezes diferenciável, 34
componente, 25
elipsóide, 89
localmente, 25
endomorfismo, 6
por arcos, 25
epimorfismo, 6
contı́nua em X, 13
equador, 60
contı́nua em x, 13
escalar, 5
contracção, 47, 51
esfera, 30, 55
converge, 19, 24
espaço
convexo, 30
euclidiano, 29, 116
coordenadas
métrico, 17
afins, 106
projectivo, 106
homogéneas, 106
tangente, 61
coordenadas esféricas, 60
tangente no ponto x, 63
coordenadas polares, 43
topológico, 9
curva, 122
vectorial, 5
de rumo, 60
normado, 23
periódica, 82
orientado, 112
regular, 124
quociente, 7
seccionalmente C ∞ , 71
espiral, 124
sentido, 126
curvatura, 124, 126 fechados, 10
fecho, 10
denso, 10 forma linear, 118
derivada função homogénea, 111
direccional, 30
parcial, 31 garrafa de Klein, 58
desigualdade de Cauchy-Schwarz, 117 geradora, famı́lia, 6
determinante, 40 gráfico, 82
diâmetro, 19 grassmaniana, 105
132

grupo de Lie matriz da, 119


complexo, 99 mais fina, 10
grupo de Lie, 93 matriz
grupo linear, 6 anti-hermı́tica, 9
especial, 99 anti-simétrica, 9
geral, 40 hermı́tica, 9
grupo ortogonal, 99 ortogonal, 99
especial, 99 simétrica, 9
grupo simpléctico, 101 unitária, 101
grupo unitário, 99 menos fina, 10
mergulho, 79
hélice circular, 126 metrisável, 18
Hausdorff, 12 monomorfismo, 6
homeomorfismo, 13 movimentos rı́gidos, 111
homomorfismo de á.s de Lie, 94 mudança de cartas, 55
homomorfismo de grupos de Lie, 96 multi-vector, 35
homotetia, 87 multilinear, 35
multiplicação por escalar, 5
identidade de Jacobi, 68, 94
identidade do paralelogramo, 116 núcleo, 8
imagem, 8 norma, 22, 29, 120
imersão, 44, 78 associada ao p.i., 116
invariante à esquerda, 95 do máximo, 24
inverte a orientação, 112 equivalentes, 25
isométrica, 117, 120 euclidiana, 25
isometria, 117, 121 normal, 18, 126
isomorfismo, 6
de grupos de Lie, 101 orientação, 112
de uma variedade, 113
jacobiana, matriz, 33 n
canónica de R , 113
Kronecker, sı́mbolo de, 68 inversa, 112
ortogonal, 89, 116
Leibniz, regra de, 31, 43, 68, 69 ortonormalização de Gram-Schmidt, 117
limitado, 19
limite, 16, 19 pólo norte; pólo sul, 59
linearmente parêntesis de Lie, 66, 68, 94
dependentes, 6 parabolóide, 91
independentes, 5 paracompacto, 27
localmente parametrização, 55
compacto, 26 parametrização por compri. de arco, 124
conexo, 25 partição da unidade, 28
conexo por arcos, 25 ponto, 10
fechado, 29 aderente, 10
finita, cobertura, 26 crı́tico, 124
loxodrómica, 60 crı́tico, 89
de acumulação, 10
métrica, 120 exterior, 16
133

fronteiro, 16 Lagrange, 37
interior, 16 Lindelöf, 11
regular, 89 Pitágoras, 117
singular, 124 Rolle, 37
pré-compacto, 19 Schwarz, 34
preserva a orientação, 112, 114 Tietze-Urysohn, 27
produto interno, 116 Urysohn, 27
euclidiano, 116 Weierstrass, 14
produto riemanniano, 120 Whitney, 53
projecção canónica, 65 topologia, 9
projecção estereográfica, 59 base, 10
prolongamento, 84, 86 caótica, 10
de espaço métrico, 18
referencial, 66 discreta, 10
ortonormado, 120 gerada por, 10
suave, 66 induzida, 11
refinamento, 26 produto, 14
relacionados; campos vectoriais, 76
quociente, 15
rotação, 44
toro, 58
torsão, 126
sentido negativo ou retrógrado, 112
traço, 42
sentido positivo ou directo, 112
separável, 11 transformação
soma directa, 7 afim, 100
suave, 36, 64, 70, 71 transformação linear, 6
subálgebra de Lie, 94
valor regular, 89, 124
subespaço
variedade
topológico, 11
colagem, 57
vectorial, 7
de classe C k , 55
subgrupo de isotropia, 102
subgrupo de Lie, 93 diferenciável de classe C ∞ , 55
submersão, 87 homogénea, 104
subvariedade, 77–79 orientável, 113
imersa, 78 produto cartesiano, 56
mergulhada, 79 quociente, 109
riemanniana, 121 riemanniana, 120
sucessão suave, 55
de Cauchy, 20 topológica, 55
subsucessão, 19 variedade de bandeira, 111
suporte, 28 vector, 5
normado, 117
tangente, 126 tangente, 63, 126
teorema unitário, 117
Bolzano, 29 vectores
Bolzano-Weierstrass, 22 perpendi. ou ortogonais, 116
Dieudonné, 27 velocidade, 70, 122
do ponto fixo, 51 vizinhanças, 10
134

sistema fundamental de, 10

Você também pode gostar