Escolar Documentos
Profissional Documentos
Cultura Documentos
D A H M E N
F U N D A M E N T O S D A T E O R I A D A R E L AT I V I D A D E
U M A I N T R O D U Ç Ã O À T E O R I A D O E S PA Ç O E D O T E M P O
2
s.r. dahmen
instituto de física
ufrgs
~P = χ~E , (1.3)
Px = χ xx Ex + χ xy Ey + χ xz Ez
Py = χyx Ex + χyy Ey + χyz Ez
Pz = χzx Ex + χzy Ey + χzz Ez ; (1.4)
Vamos tentar entende sobre aquilo que estamos falando de uma forma
mais intuitiva.
Quanto mapeamos um espaço nós o fazemos usando um sistema
de coordenadas. Quando pensamos nas componentes de um vetor,
ou seja, em suas projeções no eixo de coordenadas, devemos ter em
mente que os valores numéricos destas projeções só fazem sentido
ou, se preferirmos
! ! !
e10 a11 a12 e1
= . (1.7)
e20 a21 a22 e2
Em palavras poderíamos descrever a matriz acima como
! ! !
e10 projeção de e10 sobre e1 projeção de e10 sobre e2 e1
=
e20 projeção de e20 sobre e1 projeção de e20 sobre e2 e2
v = v1 e1 + v2 e2 (1.8)
! ! !
v10 projeção de e1 sobre e10 projeção de e2 sobre e10 v1
=
v20 projeção de e1 sobre e20 projeção de e2 sobre e20 v2
Nesta nova base temos um vetor e10 cuja magnitude é metade do vetor
e1 ao passo que e20 = e20 . Portanto, um vetor v tem, segundo a regra
v0 = (Λ−1 ) T v, a seguinte forma:
! " ! −1 # T !
v10 1
2 0 v1
=
v20 0 1 v2
! !
2 0 v1
= (1.12)
0 1 v2
e e’
1 1
! !
e10 e1
= Λ −→ mudança da base.
e20 e2
v0 = Λv −→ vetor covariante ou covetor.
0 −1 T
v = (Λ ) v −→ vetor contravariante
O motivo de quase nunca distinguirmos entre vetores contravariantes
e covetores se deve ao fato que quando fazemos a mudança de uma
base ortonormal para outro também ortonormal, temos Λ = (Λ−1 ) T
e portanto não há diferença entre vetores e covetores. Um exemplo
típico é da rotação de eixos ortonormais por um ângulo θ, na qual a
partir da base original ı̂ e ̂ obtemos os versores ı̂0 e ̂0 . A matriz desta
transformação é dada por:
! ! ! !
ı̂0 cos θ sin θ ı̂ ı̂
= = R( θ ) , (1.16)
̂0 − sin θ cos θ ̂ ̂
onde R é a chamada matriz rotação. Já para um vetor v, ao rodarmos os
eixos da base, as coordenadas (v x , vy ) passam a valer (v0x , v0y ). Segundo
a regra acima, devemos substituir R por [R−1 (θ )] T . Porém, um cálculo
simples mostra que [R−1 (θ )] T = [R(−θ )] T = R(θ ). Logo, a transporta
da inversa da matriz R(θ ) é ela própria e ficamos com
! ! ! !
v0x cos θ sin θ vx vx
= = R( θ ) (1.17)
v0y − sin θ cos θ vy vy
Um vetor é um vetor. Quando dizemos isto estamos nos referindo sistema de eixos ortogonais
2 2
ao fato que um vetor representa uma grandeza física e tem uma exis- x x
~
sistema de eixos nao ortogonais
tência independente do sistema de coordenadas que escolhemos para
representá-lo. As propriedades de um vetor não podem depender do sistema de ortogonal
par. = ort.
coordenadas escolhido. Coordenadas são etiquetas, nada mais que isso. Porém,
1
x
em se tratando de um sistema de coordenadas arbitrário, arbitrária tam- paral.
função da maneira como fazermos esta projeção que estão relacionados paralelo
1
x
os conceitos de vetores contravariantes e covariantes. paralelo = ortogonal
covariante
te
rian
1.2.1 Como calcular as componentes
a
rav
t
con 1
Componentes Contravariantes. Antes de discutirmos de forma mais T
1 T
x
1
a x1 x x1 a
1
α 1 α 1
x 2 cos α
r sin(α − θ )
x1 sin α = r sin(α − θ ) −→ x1 =
sin α
r sin θ
x1 sin α = r sin θ −→ 2
x = (1.18)
sin α
Um detalhe muito importante desta decomposição é que o vetor r é
dado pela soma dos vetores x1 a1 e x2 a2 como era de se esperar. Em
outras palavras, a regra do paralelogramo para soma de vetores é
mantida e podemos então escrever
r = x 1 a1 + x 2 a2 (1.19)
r 6 = x1 a1 + x2 a2 (1.22)
a
2 θ θ
.
x x a
a 1
1 1
1
α α
r = x1 a1 + x2 a2 (1.23)
x
2 x
2
Figura 1.6: As componentes x1 e x2 proje-
2 2
x x tadas nos eixos definidos pelos versores
L
2 x x / sin α
e1 e e2 . Note que os vetores sobre es-
2 2 x
. 2 tes eixos, cuja soma reproduz o vetor r,
α
não é dado por x1 e1 + x2 e2 mas sim por
( x1 / sin α)e1 + ( x2 / sin α)e2 . Isto é expli-
r
a
2 a
r cado em mais detalhes no texto.
2
θ e
2
. 1 1
a x a x
1
x 1
1 x
1
α e α
α 1
L x / sin α
1 1
x
1 x
1
x1 = x1 + x2 cos α
x2 = x2 + x1 cos α , (1.24)
x1 = r cos θ
x2 = r cos(α − θ ). (1.25)
r = x1 a1 + x2 a2 (1.27)
r = 4.33 a1 + 3.83 a2
e1 e2
r = 4.33 + 3.83
sin 70˚ sin 70˚
r = 4.08 e1 + 3.61 e2 (1.29)
É fácil verificar também que, pela lei dos cossenos que r = 5.0.
K G P
B
y1
φ θ
F
J
C
E
φ
θ
1
x
O H A
α1 = OH + GP = β1 cos θ + β2 sin φ
α2 = HE + EG = β1 sin θ + β2 cos φ (1.31)
β1 = OC = OJ + JC = OJ + JP sin θ
= α1 sec θ + ( AP − AJ ) sin θ
= α1 sec θ + α2 sin θ − α1 sin θ tan θ
= α1 cos θ + α2 sin θ , (1.34)
e também
β2 = OD = OK + KD = OK + KP sin φ
= α2 sec φ + ( BP − BK ) sin φ
= α2 sec φ + α1 sin φ − α2 tan φ sin φ
= α1 sin φ + α2 cos φ . (1.35)
Em notação matricial:
! ! !
β1 cos θ sin θ α1
= (1.36)
β2 sin φ cos φ α2
x1 = y1 cos θ + y2 sin φ
x2 = y1 sin θ + y2 cos φ (1.37)
x1 = y1 cos( x1 , y1 ) + y2 cos( x1 , y2 )
x2 = y1 cos( x2 , y1 ) + y2 cos( x2 , y2 ) (1.38)
∂x1 ∂x2
β1 = 1
α1 + 1 α2 = α1 cos θ + α2 sin θ
∂y ∂y
∂x1 ∂x2
β2 = α 1 + α2 = α1 sin φ + α2 cos φ (1.42)
∂y2 ∂y2
n
A= ∑ Ai ei (1.43)
i =1
pois sempre teremos que lidar com muitas somatórias e podemos nos
perder nas contas. Por isso usaremos a partir de agora a notação de
Einstein, ou seja, sempre que dois índices aparecem repetidos numa
expressão, significa que sobre eles é feita uma soma, isto é
de f . n
A = Ai ei ≡ ∑ Ai ei (1.44)
i =1
A = Aµ eµ (1.45)
Aµ = A · eµ (1.46)
Aν = A · eν = Aµ eµ · eν = gµν Aµ (1.48)
| {z }
gµν
é um invariante, onde
1 0 0 0
0 −1 0 0
gµν = (1.50)
−1
0 0 0
0 0 0 −1
A = ( A0 , A1 , A2 , A3 ) ou A = ( A0 , A1 , A2 , A3 ). (1.51)
A0 = A0 ; A1 = − A1 ; A2 = − A2 ; A3 = − A3 (1.52)
e portanto
A2 = ( A0 )2 − ( A1 )2 − ( A2 )2 − ( A3 )2 (1.53)
2 0 2 1 2 2 2 3 2
A 6= ( A ) + ( A ) + ( A ) + ( A )
e façamos o produto
Com isto ficamos então com as expressões que relacionam uma repre-
sentação do vetor à outra representação:
Aµ = gµν Aν , Aµ = Aν (1.56)
A2 = A · A = gµν Aµ Aν = Aν Aν (1.58)
espaço subjacente.
e0ν = Λµ eλ
λ
(1.61)
λ
Qual a relação entre Λνµ da transformação direta e Λµ da transformação
inversa? Podemos achar isto combinando (??) e (??) para escrever:
= Λν e0λ = Λν Λλ eµ
λ λ µ
eν (1.62)
λ
Λνµ Λν = δµλ
λ
Λν Λλ
µ µ
= δν , (1.63)
x ν eν = x 0µ e0µ , (1.64)
pois o vetor é o mesmo, o que muda são suas projeções nos diferentes
eixos. De novo, das equações (??) e (??) podemos escrever
x ν Λν e0µ = x 0µ e0µ
µ
x ν eν = x 0µ Λνµ eν (1.65)
x 0µ = Λν x ν ; x ν = Λνµ x 0µ
µ
(1.66)
e0µ A0µ = Λν Aν
µ
= Λνµ eν
= Λν e0µ Aν = Λνµ A0µ
µ
eν (1.67)
Isto foi ilustrado com alguns exemplos simples acima. Deste modo
podemos definir quaisquer grandezas (vetores, tensores, etc) em termos
de componentes covariantes, contravariantes ou mixtas:
0 0
DEFINIÇÃO 3. As grandezas T ab0 c0 d ··· ··· são componentes de um tensor se
para cada índice superior (contravariante) elas se transformam como um vetor
contravariante e para cada índice inferior (covariante) se transformam como
um vetor covariante:
0 0 ··· a0 d0
T ab0 c0 d ··· = T abc d ··· b c
··· Λ a Λb0 Λc0 Λd · · · (1.69)
A ordem (rank) de um tensor é igual ao número de índices que possui.
Por isto que um vetor nada mais é que um tensor de ordem 1 e um
escalar um tensor de ordem 0. Lembremos que quando estamos lidando
com referenciais ortonormais, a diferença entre tensores covariantes e
contravariantes não existe.
x0 0 = γ( x0 − β x1 )
x0 1 = γ( x1 − β x0 )
x0 2 = x2
x0 3 = x3 . (2.2)
x0 0 x0
γ −γβ 0 0
x0 1 −γβ γ 0 0 x1
=
0 2 2
x x
0 0 1 0
x0 3 0 0 0 1 x3
x0 µ
µ
= Lν x ν (2.3)
Esta notação tem em si uma vantagem pois, como sabemos, ela também
se aplica aos deslocaments infinitesimais no espaço-tempo da TER
dx 0 µ = Lν dx ν
µ
(2.4)
temos
ds2 = dxν dx ν
= (Lν dxµ0 ) (Lνσ dx 0σ )
µ
= δσ dxµ0 dx 0 σ
µ
= dxµ0 dx 0 µ (2.7)
µ µ
Convém lembrar que a inversa Lν (v) = Lν (−v), ou seja é dada sim-
plesmente com a troca de v por −v. Com isto é fácil demonstrar que
µ
Lν Lνσ = 1.
Mas talvez o mais interessante é notarmos que há outras grandezas
que se transformam de uma maneira semelhante. Quanto estudamos
as relações entre energia e momentum para chegarmos à famosa equa-
ção E = m(γ)c2 mostramos que para estas grandezas obtivemos as
equações
p0x = γ p x − vE/c2
p0y = py
p0z = pz
0
E = γ ( E − vp x ) (2.8)
E
, p x , py , pz . (2.9)
c
se transformam exatamente como as coordenadas (ct, x, y, z). Portanto,
da mesma maneira que o intervalo
c2 t2 − x 2 − y2 − z2 = c2 t 02 − x 02 − y 02 − z 02 (2.10)
é um invariante, a grandeza
E2 E 02
− p 2
= − p02 = m20 c2 (2.11)
c2 c2
A0 0 = γ ( A0 − β A1 )
A0 1 = γ ( A1 − β A0 )
A0 2 = A2
A0 3 = A3
A0µ = Lν A0ν
µ
(2.13)
com
A2 = Aµ Aν = Aν Aν = A0ν A0ν
ou
( A0 )2 − ( A1 )2 − ( A2 )2 − ( A3 )2 = ( A 00 )2 − ( A 01 )2 − ( A 02 )2 − ( A 03 )2
(2.14)
A filosofia por trás dos quadrivetores é que eles são os entes matemá-
ticos “naturais” no espaço pseudo-euclideano da relatividade restrita,
transformando-se de um referencial para outro de maneira “trivial”.
Vamos então tentar achar quem são estes quadrivetores pois uma vez
familiarizados com estas novas grandezas, muitos dos resultados da
TER podem ser estendidos de maneira simples para áreas correlatas,
como por exemplo a eletrodinâmica e a óptica. Comecemos então pela
quadrivelocidade.
2.1 A quadrivelocidade
γ0 u0 x = Γ[γu x − B(γc)]
γ0 u0 y = γuy
γ0 u0 z = γuz
γ0 c = Γ[γc − B(γu x )] (2.23)
γ z uz
u0 z = u =
γ0
x
Γ 1 − vu
c 2
(2.25)
dU
d d
A = = ( γ c ), (γ u)
dτ dτ dτ
d d
= γ ( γ c ), γ ( γ u ) (2.26)
dt dt
P = m0 U = (m0 γ c, m0 γ u) (2.29)
dP
d d
F= = γ ( m0 γ c ), γ ( m0 γ u ) (2.30)
dτ dt dt