Você está na página 1de 29

S Í LV I O R .

D A H M E N

F U N D A M E N T O S D A T E O R I A D A R E L AT I V I D A D E

U M A I N T R O D U Ç Ã O À T E O R I A D O E S PA Ç O E D O T E M P O
2

Hypothesen sind Netze, nur der wird fangen, der auswirft.


Hipóteses são redes: só pega algo aquele que as lança.
Novalis (Friedrich v. Hardenberg, 1772-1801)

Dancing with Gravity. © Laurent Taudin, com permissão do autor.


Copyright © 2021 por S.R. Dahmen

s.r. dahmen
instituto de física
ufrgs

Versão de Setembro 2021


1
Tensores

Todos já ouviram falar de vetores covariantes e vetores contravariantes,


mas poucos tem uma noção clara do que isso representa em termos da
geometria destes vetores. Se consultarmos os bons livros do assunto,
encontraremos as seguintes definições: suponha que um tenhamos
dois sistemas de coordenadas ( x1 , x2 , · · · x n ) e ( x 01 , x 02 , · · · x 0n ) para
descrever um mesmo espaço físico. Além disso, suponhamos que estes
dois sistemas estejam relacionados via x 0 j = x 0 j ( x1 , x2 , · · · x n ) e que
existe uma inversa, ou seja x j = x j ( x 01 , x 02 , · · · x 0n ).

DEFINIÇÃO 1. Um vetor é contravariante se suas coordenadas (v01 , v02 , · · · v0n )


estão relacionadas às coordenadas (v1 , v2 , · · · vn ) através da equação
n
∂x 0i j
v 0i = ∑ ∂x j
v (i = 1, 2, · · · n). (1.1)
j =1

DEFINIÇÃO 2. Um vetor é covariante se suas coordenadas (v10 , v20 , · · · v0n )


está relacionadas às coordenadas (v1 , v2 , · · · vn ) através da equação
n
∂x j
vi0 = ∑ ∂x 0i
vj (i = 1, 2, · · · n). (1.2)
j =1

Olhando para estas definições a primeira coisa que percebemos é que


as duas derivadas aparecem invertidas, mas fora isto não temos uma
idéia muito clara do que esta diferença representa geometricamente
ou sequer o motivo de termos os prefixo contra e co associados aos
vetores. Contra e a favor do quê, exatamente? A idéia que temos de
vetores é muito baseada em nossa experiência de vetor como uma seta
que aponta em uma certa direção e sentido do espaço. Porém, a coisa pode
se complicar bastante: há situações em física na qual precisamos fazer
uso de objetos mais complexos que vetores e quando isto acontece
nossa capacidade de visualização pode falhar. Um exemplo e quando
estudamos a polarização ~ P de um dielétrico causada pela ação de um
~
campoo elétrico externo E. Experimentalmente observa-se que os dois
6 uma introdução à teoria do espaço e do tempo

vetores estão relacionados via

~P = χ~E , (1.3)

onde χ é a susceptibilidade dielétrica do material em questão. Em


alguns casos, mais notadamente para materiais anisotrópicos, os dois
vetores não são colineares, pois ~E pode provocar uma polarização não
nula nas direções ortogonais a ele. Nestas situações nos vemos forçados
a escrever as equações que relacionam as componentes dos dois vetores
na forma:

Px = χ xx Ex + χ xy Ey + χ xz Ez
Py = χyx Ex + χyy Ey + χyz Ez
Pz = χzx Ex + χzy Ey + χzz Ez ; (1.4)

ou, usando uma notação mais conveniente


    
Px χ xx χ xy χ xz Ex
P = yz   Ey  . (1.5)
    
 y   yxχ χ yy χ
Pz χzx χzy χzz Ez

Sabemos que as componentes dos dois vetores dependem da maneira


como escolhemos os eixos de nosso referencial, escolha esta arbitrá-
ria. Porém, sendo ~E e ~ P vetores, sabemos como suas componentes
mudam quando escolhemos um outro referencial que nos pareça mais
conveniente. Esperamos obviamente que a equação acima continue
válida em sua forma no novo referencial, mas como muda a matriz
que representa χ, se é que ela muda? E que tipo de grandeza física é
representada por uma matriz, se ela não é obviamente um escalar e
muito menos um vetor? Em algum momento ao longo do nosso curso
já ouvimos falar que vetores são casos particulares de tensores e como
sabemos ser possível representar um vetor por uma matriz linha ou
coluna, uma matriz quadrada deve pela lógica ser a generalização do
vetor: um tensor. Não há nada de errado quando imaginamos vetores
e tensores como setas, matrizes ou coisas do tipo, pois isto é essencial
na resolução de muitos problemas. No entando, se nos atermos muito
a estas representações, podemos nos deparar com as situações descritas
abaixo:

1. em algum momento encontraremos tensores de três índices Tijk . É


natural que imaginemos este tensor de ordem 3 como sendo uma
matriz “tridimensional”, mas a pergunta que fica é: como fazer
contas com uma “matriz” assim? Existe em matemática uma técnica
chamada de flattening cujo objetivo é achatar para uma representação
bidimensional uma matriz de dimensão superior. Porém não existe
uma única técnica e as que existem são muito limitadas em seu

©s.r. dahmen 2020


tensores 7

escopo de aplicação. Se o tensor tiver n índices Ti1 ,i2 ,···in a coisa


fica muito pior. Situações como estas obviamente extrapolam nossa
capacidade de imaginar um ente matemático para descrever tais
tensores, quanto mais de fazer contas com ele.

2. Nem toda matriz representa um tensor ou um vetor. Como saber a


diferença?

3. Na Relatividade Geral lidamos com espaços curvos. Como definir


vetores e suas projeções nestes espaços?

Embora esta nossa maneira usual visualizarmos vetores e tensores


seja prática e intuitiva, as limitações são muitas. O problema deste
modus operandi é que temos a tendência de confundir a representação
de uma grandeza física com sua definição, quer dizer, aquilo que ela
realmente é. Um exemplo é o nosso conceito de espaço, gravado em
nossa consciência pela experiência de que objetos tem um comprimento,
ocupam uma certa posição no espaço e tem uma posição em relação a
outros objetos neste mesmo espaço. Representamos o espaço através
da idéia de ocupação por corpos materiais. Mas se não houver corpos,
o espaço ainda está lá? Como definí-lo?
Precisamos assim entender como vetores e tensores de um modo
geral realmente são definidos, independentemente da maneira como
os visualisamos. Visualização não é definição. A solução ao dilema
está em entender que as grandezas físicas descritas por vetores ou
tensores têm uma realidade objetiva acessível experimentalmente mas
as coordenadas que escolhemos para representá-las são meros rótulos e
não devem alterar a física que estes objetos descrevem. Assim, qualquer
mudança do sistema de coordenadas exige que vetores e tensores
mudem de tal forma que a física não se altere. Portanto é na maneira
como as grandezas físicas mudam quando fazemos uma transformação
nos eixos de coordenadas que podemos classificá-las como escalares,
vetores ou tensores. Por este motivo as duas definições acima para
vetores são definições baseadas em suas propriedades de transformação.
Sendo assim procuremos então entender as transformações do sistema
de coordenadas e suas consequências.

1.1 Uma abordagem intuitiva

Vamos tentar entende sobre aquilo que estamos falando de uma forma
mais intuitiva.
Quanto mapeamos um espaço nós o fazemos usando um sistema
de coordenadas. Quando pensamos nas componentes de um vetor,
ou seja, em suas projeções no eixo de coordenadas, devemos ter em
mente que os valores numéricos destas projeções só fazem sentido

©s.r. dahmen 2020


8 uma introdução à teoria do espaço e do tempo

em relação aos eixos escolhidos e não têm um significao intrínsico


independende destes eixos. Um vetor não pode deixar de ser um vetor
quando escolhemos bases diferentes. Para ilustrar esta idéia, tomemos
o caso simples de um espaço plano bidimensional. Vamos supor então
que optemos por uma outra base {e10 , e20 } em substituição a uma base
original {e1 , e2 }. A relação entre os vetores da base antiga e os da base
nova pode ser escrita na forma

e10 = a11 e1 + a12 e2


e20 = a21 e1 + a22 e2 (1.6)

ou, se preferirmos
! ! !
e10 a11 a12 e1
= . (1.7)
e20 a21 a22 e2
Em palavras poderíamos descrever a matriz acima como

! ! !
e10 projeção de e10 sobre e1 projeção de e10 sobre e2 e1
=
e20 projeção de e20 sobre e1 projeção de e20 sobre e2 e2

Por outro lado, um vetor v de componentes v1 e v2 pode ser escrito na


nova base em termos de duas componentes v10 e v20 que representam
suas projeções nos versores e10 e e20 respectivamente. Ou seja, partindo
da representação na base original

v = v1 e1 + v2 e2 (1.8)

precisamos expressar e1,2 em termos de e1,20 substituindo-os na expres-

são acima. Em outras palavras, escrevemos uma relação matricial cujos


elementos são os vetores da base antiga expresso em termos dos vetores da
base nova:

! ! !
v10 projeção de e1 sobre e10 projeção de e2 sobre e10 v1
=
v20 projeção de e1 sobre e20 projeção de e2 sobre e20 v2

Primeiro, podemos constatar que as duas matrizes são diferentes. Na


verdade, uma análise um pouco mais detalhada nos mostra que a
segunda matriz é a transposta do inverso da primeira. Chamando a
primeira matriz de Λ, a segunda é (Λ−1 ) T . Resumindo
! ! ! !
e10 e1 v10 −1 T v1
=Λ ; = (Λ ) (1.9)
e20 e2 v20 v2
Vetores “usuais” são por este motivo chamados de contravariantes pois 1
Há vetores que se transformam da
mesma maneira que a base e por isso
eles se transformam de maneira inversa àquela pela qual os vetores da
são chamadados de covariantes. Nós os
base se transformam 1 . discutiremos a seguir.

©s.r. dahmen 2020


tensores 9

Um exemplo simples onde podemos ver isto claramente é na trans-


formação de referenciais segundo a seguinte regra:
1
e10 = e ; e20 = e2 , (1.10)
2 1
ou, em forma matricial:
! ! !
e10 1
2 0 e1
= (1.11)
e20 0 1 e2

Nesta nova base temos um vetor e10 cuja magnitude é metade do vetor
e1 ao passo que e20 = e20 . Portanto, um vetor v tem, segundo a regra
v0 = (Λ−1 ) T v, a seguinte forma:
! " ! −1 # T !
v10 1
2 0 v1
=
v20 0 1 v2
! !
2 0 v1
= (1.12)
0 1 v2

Isto implica que por exemplo um vetor v = (v1 , v2 ) = (1, 1) = e1 + e2


tem, na nova base, a forma v0 = (v10 , v20 ) = (2, 1) = 2e10 + e20 . Este
resultado é fácil de interpretar: para que o vetor continue o mesmo, se
diminuimos o vetor da base pela metade, a componente v10 tem que ter
o dobro do tamanho para que o vetor continue igual. A figura abaixo
ilustra esta situação.

Figura 1.1: Ao transformarmos uma base


em outra, para que o vetor não mude, so-
mos obrigados a mudar suas componen-
tes de maneira contrária à mudança do
vetor da base. Assim, se e10 tem a metade
v = (1,1) v = (2,1) da magnitude do vetor e1 , a componente
v10 tem que ter o dobro da magnitude
e e’ para que o vetor não mude de tamanho.
2 2

e e’
1 1

A pergunta que nos fazemos agora é se haveria vetores que mudam


da mesma maneira que a base. Considerando ainda o exemplo acima:
seria possível achar um vetor cuja componente v1 mudasse para v10 =
1 0
2 v1 e v2 = v2 ? A resposta é sim: na verdade é exatamente isto o
que ocorre com o gradiente de uma função. O gradiente nada mais
é que um vetor cujas componentes medem a variação da função por
unidade de comprimento na direção dos vetores da base. Se a unidade
encolhe como no caso ilustrado acima, a variação também deve encolher.
Portanto o gradiente é um vetor que muda da mesma maneira que a

©s.r. dahmen 2020


10 uma introdução à teoria do espaço e do tempo

base, razão pela qual é mais apropriadamente chamado de um vetor


covariante ou covetor. Tomemos um exemplo simples ao considerar a
função f ( x, y) = x + y cujo gradiente é dado por
∂f ∂f
∇ f ( x, y) = ı̂ + ̂ = f x ı̂ + f y ̂ = ı̂ + ̂ (1.13)
∂x ∂y
Aplicando as regras de derivação parcial temos
∂f ∂x ∂f 1
= = × fx
∂x 0 ∂x 0 ∂x 2
∂f ∂y ∂f
= = 1 × fy. (1.14)
∂y0 ∂y0 ∂y
Em notação matricial
! ! !
f x0 0 1
2 0 fx
= , (1.15)
f y0 0 0 1 fy
Ou seja, o gradiente de transforma pela mesma matriz Λ da transfor-
mação dos vetores da base. Resumindo temos então:

! !
e10 e1
= Λ −→ mudança da base.
e20 e2
v0 = Λv −→ vetor covariante ou covetor.
0 −1 T
v = (Λ ) v −→ vetor contravariante
O motivo de quase nunca distinguirmos entre vetores contravariantes
e covetores se deve ao fato que quando fazemos a mudança de uma
base ortonormal para outro também ortonormal, temos Λ = (Λ−1 ) T
e portanto não há diferença entre vetores e covetores. Um exemplo
típico é da rotação de eixos ortonormais por um ângulo θ, na qual a
partir da base original ı̂ e ̂ obtemos os versores ı̂0 e ̂0 . A matriz desta
transformação é dada por:
! ! ! !
ı̂0 cos θ sin θ ı̂ ı̂
= = R( θ ) , (1.16)
̂0 − sin θ cos θ ̂ ̂
onde R é a chamada matriz rotação. Já para um vetor v, ao rodarmos os
eixos da base, as coordenadas (v x , vy ) passam a valer (v0x , v0y ). Segundo
a regra acima, devemos substituir R por [R−1 (θ )] T . Porém, um cálculo
simples mostra que [R−1 (θ )] T = [R(−θ )] T = R(θ ). Logo, a transporta
da inversa da matriz R(θ ) é ela própria e ficamos com
! ! ! !
v0x cos θ sin θ vx vx
= = R( θ ) (1.17)
v0y − sin θ cos θ vy vy

Ou seja, para o caso de rotações de eixos Λ = [Λ−1 ] T e com isto a dife-


rença entre vetores contravariantes e covetores deixa de existir. Porém
existe uma maneira geométrica de ilustrarmos esta idéia, maneira esta
que discutiremos a seguir.

©s.r. dahmen 2020


tensores 11

1.2 Vetores contravariantes e covariantes

Um vetor é um vetor. Quando dizemos isto estamos nos referindo sistema de eixos ortogonais

2 2
ao fato que um vetor representa uma grandeza física e tem uma exis- x x
~
sistema de eixos nao ortogonais
tência independente do sistema de coordenadas que escolhemos para
representá-lo. As propriedades de um vetor não podem depender do sistema de ortogonal

par. = ort.
coordenadas escolhido. Coordenadas são etiquetas, nada mais que isso. Porém,
1
x
em se tratando de um sistema de coordenadas arbitrário, arbitrária tam- paral.

bém é a maneira como projetamos o vetor nos eixos ordenados. É em ortogonal

função da maneira como fazermos esta projeção que estão relacionados paralelo
1
x
os conceitos de vetores contravariantes e covariantes. paralelo = ortogonal

Na representação de Minkowski para dois referenciais inerciais que


se movem com velocidade relativa v, o referencial que se “move” é Figura 1.2: As duas maneiras de se pro-
jetar um vetor sobre dois eixos de coor-
representado por um sistema de coordenadas oblíquo, ao passo que denadas que não são ortogonais entre si.
o referencial “parado” como eixos perpendiculares entre si. Quando A projeção pode ser paralela (contravari-
temos um sistema de coordenadas oblíquas (skew coordinates) é impor- ante) ou ortogonal (covariantes). Quando
os eixos são ortogonais entre si, a proje-
tante definirmos como as projeções de um vetor devem ser feitas, pois ção paralela e ortogonal coincidem.
há duas maneiras de fazê-las: ou projetamos o vetor paralelamente ou
perpendicularmente aos eixos. A projeção de um vetor paralela aos
eixos recebe o nome de contravariante e as respectivas coordenadas são
designadas por sobrescritos x1 e x2 . A projeção perpendicular recebe o
2
x
nome de covariante e as respectivas coordenadas são designadas por
índices subscritos x1 e x2 . Quanto os eixos são ortogonais entre si,
não há diferença entre projeções covariantes e contravariantes. Logo
ficará claro como estas diferentes projeções eles estão relacionados às T
2 cova
riante

propriedades de transformação dos eixos discutidos na seção anterior. T


2
T
contravariante

covariante
te
rian
1.2.1 Como calcular as componentes
a
rav
t
con 1
Componentes Contravariantes. Antes de discutirmos de forma mais T
1 T
x
1

geral as definições de vetores contravariantes e covariantes como encon-


tradas nos livros, que tendem muitas vezes a serem bastante abstratas,
Figura 1.3: As projeções paralelas de um
vamos ver num exemplo simples como calcular as diferentes compo- vetor T sobre os eixos x1 e x2 dão origem
nentes dado um vetor r. Achar as componentes contravariantes de um à componentes contravariantes ( T 1 , T 2 ).
As projeções ortogonais sobre estes mes-
mos eixos geram as componentes covari-
r sin
(α −
Figura
antes ( T1.4: Relações entre ângulos e di-
1 , T2 ) .
θ)
x 1 cos α
α I
ferentes triângulos que nos permitem
achar as componentes contravariantes x1
x1
x
e x2 projetadas paralelalmente aos ei-
2 .
r sin
x 1 cos α (α −
θ)
xos oblíquos gerados pelos versores a1
α
x
2
I
x
2 e a2 . o vetor r pode ser escrito como
r
II
r sin θ
r
r = x1 a1 + x2 a2 , ou seja, a regra do para-
α
α−θ
II
r sin θ 2
x a
2
lelogramo é válida.
a
2 θ α x 2 cos α θ
.

a x1 x x1 a
1
α 1 α 1

x 2 cos α

©s.r. dahmen 2020


12 uma introdução à teoria do espaço e do tempo

vetor, dado o módulo r de r, o ângulo α formado pelos eixos gerados


pelos versores a1 e a2 e o ângulo θ que o vetor r faz com o eixo x1 é
uma questão de simples geometria.

r sin(α − θ )
x1 sin α = r sin(α − θ ) −→ x1 =
sin α
r sin θ
x1 sin α = r sin θ −→ 2
x = (1.18)
sin α
Um detalhe muito importante desta decomposição é que o vetor r é
dado pela soma dos vetores x1 a1 e x2 a2 como era de se esperar. Em
outras palavras, a regra do paralelogramo para soma de vetores é
mantida e podemos então escrever

r = x 1 a1 + x 2 a2 (1.19)

Exemplo. Consideremos o caso onde r = 5.0, θ = 30° e α = 70°. Neste


caso temos
sin(70˚ − 30˚)
x1 = 5.0 × = 3.42
sin 70˚
sin 30˚
x2 = 5.0 × = 2.66
sin 70˚

r = 3.42 a1 + 2.66 a2 (1.20)

É fácil verificar também que, pela lei dos cossenos


q
r = ( x1 )2 + ( x2 )2 − 2 x1 x2 cos(π − α)
q
r = (3.42)2 + (2.66)2 − 2 × 3.42 × 2.66 × cos 110˚
r = 5 (1.21)

Componentes Covariantes.O caso covariante é também simples se pen-


sarmos em termos de como calcular as componentes. Porém, devemos
ter bastante cuidado na hora de escrever o vetor como a soma de duas
componentes, pois neste caso, tomando os vetores da base a1 e a2 que
geram os eixos x1 e x2 , ficamos com

r 6 = x1 a1 + x2 a2 (1.22)

ou seja, a regra do paralelogramo quando aplicada à soma dos dois


vetores x1 a1 e x2 a2 não mais reproduz o vetor r original mas um outro
vetor, como podemos ver explicitamente na figura abaixo. Por este
motivo, para que possamos ter duas diferentes maneiras de representar
o mesmo vetor r, a forma contravariante e a forma covariante, e de
tal maneira que suas componentes se somem corretamente, somos

©s.r. dahmen 2020


tensores 13

Figura 1.5: As componentes x1 a1 e x2 a2


definidas a partir das componentes cova-
riantes (projeções ortogonais) não repro-
x
2 .
duzem o vetor r quando somadas, mas
um outro vetor, representado na figura
à direita por uma linha azul claro ponti-
x a
2 2
r
r lhada.
x a
2 2

a
2 θ θ
.
x x a
a 1
1 1
1
α α

obrigados a definir dois novos vetores a1 e a2 para que a regra do


paralelogramo se aplique às componentes covariantes, ou seja

r = x1 a1 + x2 a2 (1.23)

A regra para definir estes vetores é bastante simples: projetamos a


linha que define a componente x2 até um eixo paralelo à linha que
define a projeção x1 e vice-versa. Como podemos facilmente ver na
figura abaixo, o novo eixo x2 é perpendicular ao vetor a1 e o novo
eixo x1 é perpendicular ao vetor a2 . Notem que definimos dois vetores
unitários e1 e e2 , e não a1 e a2 pois uma razão que ficará clara em
breve. Podemos obter as componentes covariantes x1,2 em função das

x
2 x
2
Figura 1.6: As componentes x1 e x2 proje-
2 2
x x tadas nos eixos definidos pelos versores
L
2 x x / sin α
e1 e e2 . Note que os vetores sobre es-
2 2 x
. 2 tes eixos, cuja soma reproduz o vetor r,
α
não é dado por x1 e1 + x2 e2 mas sim por
( x1 / sin α)e1 + ( x2 / sin α)e2 . Isto é expli-
r
a
2 a
r cado em mais detalhes no texto.
2

θ e
2
. 1 1
a x a x
1
x 1
1 x
1
α e α
α 1

L x / sin α
1 1

x
1 x
1

componentes contravariantes x1,2 diretamente da figura (??):

x1 = x1 + x2 cos α
x2 = x2 + x1 cos α , (1.24)

ou, o que é mais simples ainda (vide fig. ??),

x1 = r cos θ
x2 = r cos(α − θ ). (1.25)

©s.r. dahmen 2020


14 uma introdução à teoria do espaço e do tempo

Também, da figura acima podemos ver que as projeções L1 e L2 até os


novos eixos definidos pelos vetores unitários e1 e e2 valem respectiva-
mente
x x2
L1 = 1 ; L2 = (1.26)
sin α sin α
E portanto podemos escrever o vetor r em termos de componentes
covariantes como
x1 1 x2 2
r = e + e
sin α sin α
 1   2 
e e
r = x1 + x2
sin α sin α
| {z } | {z }
≡ a1 ≡ a2

r = x1 a1 + x2 a2 (1.27)

Notem que podemos expressar o vetor em componentes covariantes da


mesma forma que a equação (??) mas não podemos nos esquecer que
os vetores a1 e a2 não são unitários.
Portanto ao expressarmos um vetor r na forma covariante, devemos
ter sempre o cuidado de escolhermos as expressões apropriadas caso
estejamos usando a base de versores {e1 , e2 } ou a base {a1 , a2 }. Daqui
para frente usaremos sempre a base de versores nos dois casos e utiliza-
remos a notação {e1 , e2 } para a base contravariante e a notação {e1 , e2 }
para a base covariante. Estas duas bases são também chamadas de base
direta e base recíproca.

Exemplo. Consideremos o caso onde r = 5.0, θ = 30° e α = 70°. Vamos


achar a representação deste vetor na forma de componentes covariantes.
Pela definição temos

x1 = r cos θ = 5.0 × cos 30˚ = 4.33


x2 = r cos(α − θ ) = 5.0 × cos 40˚ = 3.83 (1.28)

de onde segue que

r = 4.33 a1 + 3.83 a2
e1 e2
r = 4.33 + 3.83
sin 70˚ sin 70˚
r = 4.08 e1 + 3.61 e2 (1.29)

É fácil verificar também que, pela lei dos cossenos que r = 5.0.

1.2.2 A relação entre as projeções e as transformações


Vamos mostrar agora como as projeções paralelas (contravariantes) e
perpendiculares (covariantes) estão de fato relacionados à transforma-
ção contrária à base e junto com ela, respectivamente 2 . A figura abaixo 2
S.R. Deans, Covariant and Contravariant
Vectors, Mathematics Magazine, vol. 44,
no. 1, January 1971.
©s.r. dahmen 2020
tensores 15

diz respeito às variáveis que definiremos.

Figura 1.7: O plano representado por


2 2
um sistema de coordenadas ortogonais
x y
( x1 , x2 ) e por um sistema de coordenadas
oblíquo (y1 , y2 )

K G P
B

y1
φ θ
F
J
C
E
φ

θ
1
x
O H A

Denotaremos as projeções do ponto P sobre o eixos ortogonais x pela


letra α e aquelas sobre os eixos oblíquos y pela letra β. Vamos olhar
primeiro para as coordenadas contravariantes sobre os dois sistemas de
eixos e as relações entre elas.

Componentes contravariantes. No caso das componentes contravarian-


tes temos, pela figura acima:

(α1 , α2 ) = (α1 , α2 ) = (OA, OB);


( β1 , β2 ) = (OE, OF );
( β 1 , β 2 ) = (OC, OD ) (1.30)

Desta figura podemos claramente ver que

α1 = OH + GP = β1 cos θ + β2 sin φ
α2 = HE + EG = β1 sin θ + β2 cos φ (1.31)

onde usamos o fato que ( GP) = ( H A). Podemos destas expressões


calcular os valores de β1 e β2 em função das variáveis dos eixos ortogo-
nais:
α1 cos φ − α2 sin φ
β1 =
cos(θ + φ)
−α1 sin θ + α2 cos θ
β2 = (1.32)
cos(θ + φ)
Em notação matricial podemos escrever isto como:
! ! !
β1 1 cos φ − sin φ α1
= (1.33)
β2 cos(θ + φ) − sin θ cos θ α2

©s.r. dahmen 2020


16 uma introdução à teoria do espaço e do tempo

Componentes covariantes. No caso das componentes covariantes, as


equações se tornam:

β1 = OC = OJ + JC = OJ + JP sin θ
= α1 sec θ + ( AP − AJ ) sin θ
= α1 sec θ + α2 sin θ − α1 sin θ tan θ
= α1 cos θ + α2 sin θ , (1.34)

e também

β2 = OD = OK + KD = OK + KP sin φ
= α2 sec φ + ( BP − BK ) sin φ
= α2 sec φ + α1 sin φ − α2 tan φ sin φ
= α1 sin φ + α2 cos φ . (1.35)

Em notação matricial:
! ! !
β1 cos θ sin θ α1
= (1.36)
β2 sin φ cos φ α2

Agora, se olharmos para as transformações das coordenadas dos eixos


(em outras palavras, dos vetores da base), teremos

x1 = y1 cos θ + y2 sin φ
x2 = y1 sin θ + y2 cos φ (1.37)

onde seguimos a regra

x1 = y1 cos( x1 , y1 ) + y2 cos( x1 , y2 )
x2 = y1 cos( x2 , y1 ) + y2 cos( x2 , y2 ) (1.38)

sendo que cos( xi , y j ) representa o cosseno entre os eixos xi e y j . Se-


guindo as definições formais (??) e (??) aplicadas ao nosso caso temos
2
∂yi
βi = ∑ ∂x j α j (componentes contravariantes)
j =1
2
∂x j
βi = ∑ α
i j
(componentes covariantes)
j=1 ∂y

Da equação (??) podemos calcular


!
∂x j
 
cos θ sin φ
= , (1.39)
∂yi sin θ cos φ

bem como sua inversa


 i !
∂y 1 cos φ − sin φ
j
= . (1.40)
∂x cos(θ + φ) − sin θ cos θ

©s.r. dahmen 2020


tensores 17

Aplicando esta definição às componentes contravariantes temos

∂y1 1 ∂y1 2 α1 cos φ − α2 sin φ


β1 = α + α =
∂x1 ∂x2 cos(θ + φ)
∂y2 1 ∂y2 2 −α1 sin θ + α2 cos θ
β2 = α + α = (1.41)
∂x1 ∂x2 cos(θ + φ)

Já para as componentes covariantes

∂x1 ∂x2
β1 = 1
α1 + 1 α2 = α1 cos θ + α2 sin θ
∂y ∂y
∂x1 ∂x2
β2 = α 1 + α2 = α1 sin φ + α2 cos φ (1.42)
∂y2 ∂y2

Estas equações são idênticas à (??), (?? e (??).

Em resumo, a construção geométrica de projeções paralelas ou or-


togonais das componentes de um vetor sobre os eixos ordenados é
equivalente às definições formais (??) e (??) de vetores contravariantes
e covariantes, respectivamente.

1.3 Formalismo matemático

Sempre que estivermos lidando com vetores, covetores, etc. é con-


veniente “otimizarmos” a notação evitando escrever um vetor como

n
A= ∑ Ai ei (1.43)
i =1

pois sempre teremos que lidar com muitas somatórias e podemos nos
perder nas contas. Por isso usaremos a partir de agora a notação de
Einstein, ou seja, sempre que dois índices aparecem repetidos numa
expressão, significa que sobre eles é feita uma soma, isto é

de f . n
A = Ai ei ≡ ∑ Ai ei (1.44)
i =1

Um vetor arbitrário A pode ser expandido, como vimos anterior-


mente, numa base de vetores não colineares eµ :

A = Aµ eµ (1.45)

As grandezas Aµ são as componentes do vetor A projetadas paralela-


mente aos eixos (componentes contravariantes). Se fizermos o produto
escalar usual entre os vetores A e eµ obtemos a projeção perpendicular
ao eixo que, por definição, é a componente covariante do vetor

Aµ = A · eµ (1.46)

©s.r. dahmen 2020


18 uma introdução à teoria do espaço e do tempo

Se definirmos agora o produto escalar dos vetores da base, sendo eles


unitários, obtemos:

eµ · eν = keµ kkeν k cos(e[


µ , eν ) = gµν (1.47)

onde cos(e[µ , eν ) é o cosseno do ângulo formado entre os versores eµ


e eν . Uma das propriedades do chamado tensor métrico gµν é ele ser
simétrico nos índices, isto é gµν = gνµ e no caso de um sistema de
coordenadas de eixos ortogonais gµν = constante. Isto no leva a um
resultado interessante pois podemos através de gµν relacionar direta-
mente as coordenadas covariantes e as coordenadas contravariantes de
um vetor arbitrário A:

Aν = A · eν = Aµ eµ · eν = gµν Aµ (1.48)
| {z }
gµν

Esta expressão nos mostra como passar de coordenadas contravariantes


para coordenadas covariantes.

Este resultado tem consequências na Relatividade Restrita pois no caso


do espaço-tempo sabemos que o intervalo

ds2 = c2 dt2 − dx2 − dy2 − dz2 = gµν dx µ dx ν (1.49)

é um invariante, onde
 
1 0 0 0
0 −1 0 0 
gµν = (1.50)
 
−1

0 0 0 
0 0 0 −1

A métrica acima define um espaço dito pseudo-euclideano. Podemos


definir neste espaço um vetor quadridimensional – um quadrivetor –
da seguinte forma:

A = ( A0 , A1 , A2 , A3 ) ou A = ( A0 , A1 , A2 , A3 ). (1.51)

Pela equação (??) sabemos, em função da métrica gµν , que a relação


entre as componentes covariantes e contravariantes vale:

A0 = A0 ; A1 = − A1 ; A2 = − A2 ; A3 = − A3 (1.52)

e portanto

A2 = ( A0 )2 − ( A1 )2 − ( A2 )2 − ( A3 )2 (1.53)
2 0 2 1 2 2 2 3 2
A 6= ( A ) + ( A ) + ( A ) + ( A )

Na TER a norma de um quadrivetor é dada pela primeira das equações


acima e nunca pela segunda! Discutiremos no próximo capítulo a

©s.r. dahmen 2020


tensores 19

abordagem de quadrivetores na TER.

Para fazer a transição de coordenadas covariantes para contravariantes,


definamos primeiro as quantidades através da condição

1, if ν = µ ,
gµρ = δµν , δµν = (1.54)
0, if ν 6= µ .

e façamos o produto

Aρ = gρσ Aσ = δσν Aσ = Aµ (1.55)

Com isto ficamos então com as expressões que relacionam uma repre-
sentação do vetor à outra representação:

Aµ = gµν Aν , Aµ = Aν (1.56)

Estas equações gerais nos mostram que num sistema de coordenadas


ortonormais, eµ eν = δµν , gµν = δµν e portanto Aµ = Aµ : simplesmente
a diferença entre coordenadas covariantes e contravariantes desaparece.
O produto escalar de dois vetores A e B é, por definição

A · B = ( Aµ eµ ) · ( Bν eν ) = Aµ Bν (eµ · eν ) = gµν Aµ Bν = Aν Bν (1.57)


| {z }
gµν

Disto segue também que o norma de um vetor é dada por

A2 = A · A = gµν Aµ Aν = Aν Aν (1.58)

Chamamos anteriormente a grandeza gµν de tensor métrico. Isto se deve


ao fato que o quadrado de um deslocamento que conecta dos pontos
infinitamente próximos no espaço, deslocamento este representado por
dr cujas componentes são os dx ν , vale

dr2 = ds2 = gµν dx µ dx ν (1.59)

Esta equação é das mais fundamentais da relatividade geral e nos


permite calcular qualquer distância dado a curvatura do espaço sub-
jacente (as Equações de Einstein nada mais são que equações para se
determinar gµν dada uma distribuição de massa e energia) 3 . 3
Uma questão de convenção acerca da
notação para a métrica: os livros voltados
É importante não confundirmos o tensor métrico gµν com a matriz para a TGR costumam fazer nos primei-
ros capítulos uma revisão rápida da TER
de transformação Λ entre vetores de diferentes sistemas de coordena- antes de entrarem na teoria geral. Como
das. Os elementos da primeira são dados pelos projeções dos vetores na TGR os espaços são curvos, alguns
autores preferem usar gµν para denotar a
de uma mesma base entre si e são importantes, entre outras coisas,
métrica destes espaços, reservando para
na definição da métrica do espaço. No segundo caso, a projeção se dá o espaço pseudo-euclideano da TER a
entre vetores de bases diferentes, mas que representam uma mesmo notação ηµν .

©s.r. dahmen 2020


20 uma introdução à teoria do espaço e do tempo

espaço subjacente.

Vamos discutir agora como transformações entre diferentes bases


se refletem nos resultados discutidos até aqui. A transformação dos
vetores de base e para os vetores e0 é dada, como vimos anteriormente,
por
e0µ = Λνµ eν (1.60)

onde os elementos da matriz, como pudemos ver em alguns casos aqui


discutidos, dependem do tipo de transformação entre os eixos. Disto
segue também que a transformação inversa pode ser escrita como

e0ν = Λµ eλ
λ
(1.61)

λ
Qual a relação entre Λνµ da transformação direta e Λµ da transformação
inversa? Podemos achar isto combinando (??) e (??) para escrever:

e0µ = Λνµ eν = Λνµ Λν e0λ


λ

= Λν e0λ = Λν Λλ eµ
λ λ µ
eν (1.62)

Esta igualdade só pode ser satisfeita se

λ
Λνµ Λν = δµλ
λ
Λν Λλ
µ µ
= δν , (1.63)

que é na verdade um resultado já esperado: uma matriz é o inverso da


outra.
Vamos agora entender como um vetor posição r muda por uma
transformação arbitrária como a que discutimos acima. Vamos projetá-
lo em termos de variáveis contravariantes, o seja, paralelas aos eixos
ordenados. Podemos escrever este vetor de duas formas:

x ν eν = x 0µ e0µ , (1.64)

pois o vetor é o mesmo, o que muda são suas projeções nos diferentes
eixos. De novo, das equações (??) e (??) podemos escrever

x ν Λν e0µ = x 0µ e0µ
µ

x ν eν = x 0µ Λνµ eν (1.65)

Disto vemos claramente que as coordenadas do vetor r se transformam


de maneira inversa que os versores da base eµ

x 0µ = Λν x ν ; x ν = Λνµ x 0µ
µ
(1.66)

©s.r. dahmen 2020


tensores 21

Disto se origina o nome contravariante: as componentes de um vetor


A são chamadas de contravariantes quando elas mudam segundo as
equações acima, ou seja, de maneira inversa (contrária) àquela pela qual
os versores mudam. Colocando as equações lado-a-lado podemos ver
isto claramente:

e0µ A0µ = Λν Aν
µ
= Λνµ eν
= Λν e0µ Aν = Λνµ A0µ
µ
eν (1.67)

Já para as componentes covariantes temos:

e0µ = Λνµ eν A0µ = Λνµ Aµ


= Λν e0µ Aν = Λν A0µ
µ µ
eν (1.68)

Isto foi ilustrado com alguns exemplos simples acima. Deste modo
podemos definir quaisquer grandezas (vetores, tensores, etc) em termos
de componentes covariantes, contravariantes ou mixtas:
0 0
DEFINIÇÃO 3. As grandezas T ab0 c0 d ··· ··· são componentes de um tensor se
para cada índice superior (contravariante) elas se transformam como um vetor
contravariante e para cada índice inferior (covariante) se transformam como
um vetor covariante:

0 0 ··· a0 d0
T ab0 c0 d ··· = T abc d ··· b c
··· Λ a Λb0 Λc0 Λd · · · (1.69)
A ordem (rank) de um tensor é igual ao número de índices que possui.
Por isto que um vetor nada mais é que um tensor de ordem 1 e um
escalar um tensor de ordem 0. Lembremos que quando estamos lidando
com referenciais ortonormais, a diferença entre tensores covariantes e
contravariantes não existe.

©s.r. dahmen 2020


2
Quadrivetores

Por força de hábito costumamos lidar com as transformações de Lorentz


usuais diretamente a partir das equações que as definem
 v 
ct0 = γ ct − x
c
 v 
x0 = γ x − (ct)
c
y0 = y
z0 = z, (2.1)

ou, seguindo nossas definições em termos das quatro variáveis (x0 , x1 , x2 , x3 )

x0 0 = γ( x0 − β x1 )
x0 1 = γ( x1 − β x0 )
x0 2 = x2
x0 3 = x3 . (2.2)

Podemos escrever esta equação numa forma mais conveniente, isto é

x0 0 x0
     
γ −γβ 0 0
 x0 1  −γβ γ 0 0  x1 
=
     
 0 2  2
x  x 
 
 0 0 1 0
x0 3 0 0 0 1 x3

x0 µ
µ
= Lν x ν (2.3)

Esta notação tem em si uma vantagem pois, como sabemos, ela também
se aplica aos deslocaments infinitesimais no espaço-tempo da TER

dx 0 µ = Lν dx ν
µ
(2.4)

Na base da TER está a invariância do intervalo

ds2 = dx µ dx ν = dxν dx ν (2.5)


24 uma introdução à teoria do espaço e do tempo

que pode ser facilmente obtida através das transformações

dxµ0 = Lνµ dxν → dxν = Lν dxµ0


µ
(covariante)
dx 0 µ = → dx ν = Lνµ dx 0 µ
µ
Lν dx ν (contravariante), (2.6)

temos

ds2 = dxν dx ν
= (Lν dxµ0 ) (Lνσ dx 0σ )
µ

= (Lν Lνσ ) dxµ0 dx 0 σ


µ

= δσ dxµ0 dx 0 σ
µ

= dxµ0 dx 0 µ (2.7)
µ µ
Convém lembrar que a inversa Lν (v) = Lν (−v), ou seja é dada sim-
plesmente com a troca de v por −v. Com isto é fácil demonstrar que
µ
Lν Lνσ = 1.
Mas talvez o mais interessante é notarmos que há outras grandezas
que se transformam de uma maneira semelhante. Quanto estudamos
as relações entre energia e momentum para chegarmos à famosa equa-
ção E = m(γ)c2 mostramos que para estas grandezas obtivemos as
equações

 
p0x = γ p x − vE/c2
p0y = py
p0z = pz
0
E = γ ( E − vp x ) (2.8)

Este resultado é bastante significativo pois se olharmos mais atenta-


mente veremos que as grandezas

E
, p x , py , pz . (2.9)
c
se transformam exatamente como as coordenadas (ct, x, y, z). Portanto,
da mesma maneira que o intervalo

c2 t2 − x 2 − y2 − z2 = c2 t 02 − x 02 − y 02 − z 02 (2.10)

é um invariante, a grandeza

E2 E 02
− p 2
= − p02 = m20 c2 (2.11)
c2 c2

também é um invariante e tem o valor igual à m20 c2 ( para chegar à


última expressão usamos o fato que E2 = m2 c4 e p2 = γ2 m20 u2 ). Com

©s.r. dahmen 2020


quadrivetores 25

isto chegamos à famosa relação relativística entre energia e momentum


q
E2 = ( pc)2 + (m0 c2 )2 −→ E = p2 c2 + m20 c2 (2.12)
O que estes resultados ressaltam é o fato que, sendo o espaço-tempo
quadridimensional, podemos definir vetores que “vivem” neste espaço
e que se transformam exatamente da mesma maneira que os intervalos,
µ
ou seja, pela mesma matriz Lν . Definimos assim os quadrivetores
como o 4-tuplo de números A = ( A0 , A1 , A2 , A3 ) que se transformam
segundo:

A0 0 = γ ( A0 − β A1 )
A0 1 = γ ( A1 − β A0 )
A0 2 = A2
A0 3 = A3
A0µ = Lν A0ν
µ
(2.13)

com
A2 = Aµ Aν = Aν Aν = A0ν A0ν
ou

( A0 )2 − ( A1 )2 − ( A2 )2 − ( A3 )2 = ( A 00 )2 − ( A 01 )2 − ( A 02 )2 − ( A 03 )2
(2.14)
A filosofia por trás dos quadrivetores é que eles são os entes matemá-
ticos “naturais” no espaço pseudo-euclideano da relatividade restrita,
transformando-se de um referencial para outro de maneira “trivial”.
Vamos então tentar achar quem são estes quadrivetores pois uma vez
familiarizados com estas novas grandezas, muitos dos resultados da
TER podem ser estendidos de maneira simples para áreas correlatas,
como por exemplo a eletrodinâmica e a óptica. Comecemos então pela
quadrivelocidade.

2.1 A quadrivelocidade

Partindo da definição do quadrivetor posição R = (ct, r) = (ct, x, y, z) =


( x0 , x1 , x2 , x3 ) parece natural definir a quadrivelocidade V como
dR
V= (2.15)
dt
O problema com esta definição é o fato que dt não é um escalar invari-
ante por transformações de Lorentz. O intervalo temporal invariante
é o tempo próprio, ou seja, o tempo medido por um relógio que se
move junto à partícula de velocidade u, isto é o tempo medido no
referencial no qual a partícula está parada. Recordando brevemente

©s.r. dahmen 2020


26 uma introdução à teoria do espaço e do tempo

o conceito, lembremos que se uma partícula tem um deslocamento


p
dl = dx2 + dy2 + dz2 segundo um referencial inercial, no referencial
da partícula dl 0 = 0. Porém, devido à invariância do intervalo ds2
temos que
c2 dt2 − dx2 − dy2 − dz2 = c2 dt0 2 = ds2 , (2.16)
de onde segue que
r
0 de f . dx2 + dy2 + dz2
dt ≡ dτ = 1− dt
s c2 dt2
1 dl 2
 
= 1− 2 dt
c dt
r
u2
= 1 − 2 dt
c
dt
= (2.17)
γ
  1
2 −2
onde lembramos que γ = 1 − uc2 se refere explicitamente ao fator
de Lorentz devido ao referencial que se move com a partícula (comoving
frame. Daqui pra frente reservaremos a notação Γ = γv para o fator
de Lorentz associado à mudanças entre referenciais inerciais que se
movem entre si com velocidade relativa v). Deste modo, no lugar de
(??) definimos o vetor quadrivelocidade como
de f . dR
U ≡ (2.18)

ou, explicitamente
dx α dx α
Uα = =γ = γ uα ,
dτ dt
dx0
U0 = γ = γc,
dt
ou
U = (γc, γu x , γuy , γuz ) (2.19)

Notamos que no limite não relativístico γ → 1 temos U = (c, u x , uy , uz ) =


(c, u), a componente espacial recai na velocidade clássica . Qual o sig-
nifica físico da componente temporal U 0 = c ? Basicamente podemos
entendê-la como o fato que o tempo flui e não pode ser parado. É
simples também mostrarmos que U 2 = c2 . Agora, um dos pontos da
vantagem de se definir quadrivetores, como frisamos acima, é o fato
que eles são os vetores “naturais” do espaço-tempo e se transformam
µ
naturalmente segundo Lν , ou seja
µ
L
ν
U = (γc, γu) −→ U 0 = (γ0 c, γ0 u0 ), (2.20)

e esta definição deve levar, inexoravelmente, às transformações de


velocidade por nós já obtidas por outros métodos. Notem porém

©s.r. dahmen 2020


quadrivetores 27

que devemos ter o cuidado, ao escrever as equações acima, de definir


um novo γ0 pois o fator γ é definido em termos da velocidade u da
partícula em relação a um referencial inercial I. Ao passarmos para um
referencial I 0 , a velocidade da partícula passa a ser u0 e um comoving
frame em I 0 tem um outro fator de Lorentz definido por
− 12
u0 2

0
γ = 1− 2 . (2.21)
c
Vamos mostrar como as transformações entre velocidades saem natu-
ralmente da transformação da quadrivelocidade. Para evitar confusão,
vamos definir o fator de Lorentz e a razão entre a velocidade v dos
referenciais e c através de
− 21
v2

v
Γ = 1− 2 ; B= (2.22)
c c
para não confundirmos com γ e β. Temos assim, segundo a definição da
transformação de quadrivetores de referencial inercial para referencial
inercial, as equações

γ0 u0 x = Γ[γu x − B(γc)]
γ0 u0 y = γuy
γ0 u0 z = γuz
γ0 c = Γ[γc − B(γu x )] (2.23)

Da última equação obtemos


γ 1
=  (2.24)
γ0

vu x
Γ 1− c2

Disto segue que


γ ux − v
u0 x = Γ ( u x
− v ) = x
γ0 1 − vu
c2
γ y uy
u0 y = 0
u =  x

γ Γ 1 − vu
c 2

γ z uz
u0 z = u =
γ0
 x

Γ 1 − vu
c 2

(2.25)

Recuperamos assim as transformações para a velocidade que havíamos


obtido anteriormente diretamente das equações de Lorentz.

2.1.1 Outros quadrivetores da mecânica


Podemos agora de maneira direta obter os quadrivetores aceleração A,
momentum P , e força F simplesmente partindo das definições acima.

©s.r. dahmen 2020


28 uma introdução à teoria do espaço e do tempo

A quadriaceleração é definida via

dU
 
d d
A = = ( γ c ), (γ u)
dτ dτ dτ
 
d d
= γ ( γ c ), γ ( γ u ) (2.26)
dt dt

É comum encontrar na literatura da TER esta expressão escrita de outra


forma. Sendo
1 E
γc = m0 γ c2 · = , (2.27)
m0 c m0 c
podemos reescrever A como
 
γ dE d
A= , γ (γ u) (2.28)
m0 c dt dt

O momentum é trivial, obtido pela multiplicação direta da quadrivelo-


cidade U pela massa de repouso, um invariante relativístico:

P = m0 U = (m0 γ c, m0 γ u) (2.29)

Disto segue que a quadriforça vale

dP
 
d d
F= = γ ( m0 γ c ), γ ( m0 γ u ) (2.30)
dτ dt dt

Destas expressões, com o devido cuidado ao definirmos Γ e B, chega-


mos às transformações de Lorentz para a aceleração, força e momentum
tridimensionais. As grandezas acima, pela definição de quadrivetores,
se transformam de maneira trivial.

©s.r. dahmen 2020


Referências Bibliográficas

V. Ugarov, The Theory of Relativity, Mir Publishers, Moscow, 1979.

E. Rebhahn, Theoretische Physik: Relativitätstheorie und Kosmologie, Spek-


trum Akademischer Verlag, Berlin, 2012.

Você também pode gostar