Você está na página 1de 300

ELEMENTOS DE GEOFÍSICA

E. Ivo Alves

DCT-UC-2005
2
1. INTRODUÇÃO
A Geofísica é uma ciência cuja origem remonta ao Renascimento. É possível
encontrar o seu embrião no tratado De Magnete, da autoria de Sir William Gilbert,
“físico” da Rainha Isabel I de Inglaterra, no séc. XVI. Já nesse tratado estava bem
claro que a Geofísica (naturalmente, antes de uma definição explícita da palavra) seria
a aplicação dos métodos da Física a um objecto muito particular: a Terra.
Se se tomasse esta definição no seu sentido mais lato, ela englobaria ciências
hoje perfeitamente individualizadas como a Meteorologia, a Climatologia, a
Oceanografia, a Geografia Física e partes importantes de muitos ramos da Geologia
como a Tectónica, a Radiocronologia, a Sedimentologia, a Hidrogeologia, só para dar
alguns exemplos. Esta perspectiva generalista da Geofísica pode encontrar-se ainda
hoje na mais importante publicação periódica da especialidade, o Journal of
Geophysical Research, que tem séries para a Terra sólida, para a hidrosfera, para a
atmosfera, para a Física do Espaço e para a Planetologia.
E quanto ao método desta ciência?
O método nunca levantou dúvidas: sempre foi e será, como já se disse, o
método da Física, fundamentado na linguagem da Matemática. Seria de esperar,
portanto, que novas descobertas na Física e na Matemática pudessem conferir novo
fôlego à Geofísica. Esse alento renovador veio na forma de duas teorias globais,
integradoras, estreitamente relacionadas: a teoria do caos e a geometria fractal. Assim
que estas teorias começaram a ser divulgadas para além dos meios restritos em que se
desenvolveram tornou-se evidente o imenso interesse da sua aplicação à Geofísica
como bases estruturantes da compreensão de “como funciona a Terra”. Na década de
sessenta do século passado só faltavam as ferramentas que permitissem fazer essa
aplicação.
As duas décadas seguintes foram tempos de viragem nas mentalidades do séc.
XX. O choque petrolífero de 1973 teve como consequência directa a necessidade de
investir em técnicas cada vez mais sofisticadas de prospecção geofísica. Como
consequência indirecta, o grande reforço da consciência ecológica dos cidadãos e das
nações mostrou a importância da Geofísica na monitorização ambiental.
Paralelamente, a necessidade de optimizar os recursos financeiros obrigou a que a
exploração espacial passasse a basear-se em pequenos veículos não tripulados, sempre
equipados com equipamento de detecção remota de parâmetros geofísicos.
O princípio “small is beautiful” estendeu-se ao tratamento de dados, com a
introdução dos computadores pessoais. Isto permitiu uma daquelas coincidências raras
entre teoria e prática que fazem evoluir a ciência e a técnica em paralelo, cada uma
alimentando-se da outra e alimentando-a: sem a grande expansão do uso de
computadores teria sido impossível o desenvolvimento das teorias e das aplicações do
caos e dos fractais a áreas aparentemente tão díspares como as engenharias, a
medicina, as artes e, claro, a Geofísica.
Assim, a História cumpre mais um ciclo. William Gilbert era um Homem do
Renascimento: poeta, físico, médico, espantou-se com a Natureza e procurou
comprendê-la toda. Hoje é natural que engenheiros leiam trabalhos de medicina,
matemáticos se interessem pelas artes, geofísicos usem equações provenientes da
demografia.

3
4
2. A GRAVIDADE NA TERRA
2.1. Introdução. Gravimetria e Geodesia. Fractais.
O conhecimento físico de um objecto pressupõe o seu conhecimento
geométrico. Se quisermos, por exemplo, saber a densidade da Terra temos que
conhecer uma sua grandeza física, a massa, e uma grandeza geométrica, o volume.
Deixaremos para mais tarde a estimação da massa da Terra; a determinação da sua
forma (na qual se inclui, é claro, o volume, mas não exclusivamente) é do âmbito da
geodesia.
Neste capítulo demonstrar-se-á que o conhecimento da forma da Terra é
indissociável do conhecimento do seu campo gravitacional. Em suma, gravimetria e
geodesia são ciências estreitamente complementares.
2.1.1. Como medir o perímetro da Terra?
Aparentemente deveria ser bastante simples medir as dimensões da Terra, já
que nos encontramos sobre ela. Assim, para determinar o seu volume temos que
determinar o raio e, para saber este, bastaria medir directamente o perímetro, ou
circunferência, da Terra. Este raciocínio é errado, tal como a maioria dos raciocínios
simples sobre objectos complexos. As causas do erro são duas:
a) pressupõe-se que a Terra é esférica, o que se sabe ser falso: este ponto será
desenvolvido mais tarde;
b) pressupõe-se que, ainda que a Terra fosse esférica, seria possível conhecer
o seu perímetro por medição directa.
Vamos agora debruçar-nos sobre esta última questão.
2.1.2. Relação entre o comprimento da medida e o comprimento da régua:
uma história das 1001.1 noites.
Há muito, muito tempo, nas Arábias, um rei riquíssimo e algo louco desejava
conhecer com exactidão a circunferência da Terra. Para esse fim contratou dois
ingleses: o senhor Long, conhecido por empregar grandes meios e obter resultados
rapidamente, e o senhor Short, de quem se dizia ser extremamente minucioso embora
um pouco lento a obter resultados. O rei decretou que a circunferência da Terra seria
a média das medidas obtidas pelos dois.
Ambos os “geodesistas” estavam de acordo num ponto: para evitar distorções
nas medidas estas teriam que ser feitas com uma régua. Fazendo juz à sua fama o
senhor Long decidiu usar uma régua rígida, indeformável, com 100 Km de
comprimento; o senhor Short, por seu lado, fiel aos seus princípios, começou
imediatamente a medir usando uma régua com 10m.
Ao fim de um ano, tempo devido essencialmente aos problemas logísticos
causados pela necessidade de transportar uma régua com 100 km, o Sr. Long
regressou ao ponto de partida e foi principescamente recompensado. Resultado da
medida: 43598 km.
O reino esperou ansiosamente o regresso do Sr. Short, que partira sozinho
com a sua régua.
Ao fim de vinte anos, quando já toda a gente havia esquecido o
empreendimento, um nómada veio ao Palácio dizer que tinha avistado um velho no
deserto, magérrimo e esfarrapado, que transportava consigo um bordão

5
excessivamente longo para ter qualquer utilidade; pior, o bordão devia ser tão
pesado que o velho era obrigado a pousá-lo no chão a cada dez ou doze passos
enquanto fazia preces a divindades estranhas que residiam no seu medalhão (veio-se
a saber mais tarde que o medalhão era uma bússola).
O rei mandou engalanar a capital para receber Short, pois era dele que se
tratava. Preparou uma grande festa, para a qual convidou todos os dignitários
estrangeiros que se haviam rido deste empreendimento que parecia fracassado. Não
se esqueceu de convidar também o emir Al-Long (antigo geodesista britânico) para
que este pudesse assistir à cerimónia da atribuição do verdadeiro valor da
circunferência da Terra que, recorda-se, seria a média das duas medidas.
Assim que chegou aos portões do palácio de onde tinha partido há mais de
vinte anos, Short gritou aos quatro ventos: “A Terra mede 502311 km!”
O rei era louco mas não completamente ignorante: não era possível calcular
uma média com significado entre dois valores tão díspares. Para evitar uma polémica
científica que se arrastasse por outros vinte anos mandou decapitar Long e Short. E
decretou que a verdadeira circunferência da Terra era de 70000 km, porque este lhe
pareceu um bom número, redondo e santo.
2.1.3. Qual é o comprimento de uma costa?
Passemos agora à realidade, sem esquecermos, contudo, que esta é
frequentemente mais estranha qua a ficção.
Este problema de o comprimento de uma linha crescer à medida que o
comprimento da régua diminui é conhecido há muitos anos. Mais importante: o
crescimento não tem limite, ou seja, a sequência dos comprimentos de uma linha
‘irregular’ obtidos com réguas decrescentes, é continuamente crescente. Este facto
não é intuitivo nem é compreensível à luz da geometria euclideana, na qual o
comprimento é uma constante. Para o compreendermos temos que recorrer ao
conceito de dimensão fraccionária.
Lewis Richardson, em 1961, formula a seguinte regra de proporcionalidade:

(comprimento total) ∝ (comp. da régua) -α (2.1)

e determinou valores do seu α para os comprimentos de várias costas (Cornualha,


Austrália, África do Sul).
Vejamos o exemplo do próprio Richardson para a costa da Cornualha (tabela
2.1).
Tabela 2.1 – Relação entre o comprimento de uma costa e da régua de medida.
Comp. da régua (Km) 971 490 200 100 30 10
Nº de passos 1 2 5.9 15.4 69.1 293.1
Comp. total (Km) 971 980 1180 1540 2073 2931

Neste caso, Richardson determinou que α = 0.13.

6
Note-se que, num mundo perfeitamente euclideano, o comprimento total é
igual ao produto do comprimento da régua por um número que é um racional positivo,
e α = 0.
2.1.4. Dimensão inteira e dimensão fraccionária – fractais.
Esta observação levou Mandelbrot a reconhecer que haveria alguma relação
entre o α de Richardson e uma dimensão.
Uma recta tem dimensão 1. Também uma curva, qualquer curva contínua e
continuamente diferenciável, tem dimensão 1. Uma superfície plana tem dimensão 2.
Qual será a dimensão de uma linha de tal maneira ‘tortuosa’ que se aproxima de
preencher todo um plano? Mandelbrot verificou que, entre as dimensões euclideanas
inteiras, ideais, podiam existir infinitas dimensões não-inteiras, ou fraccionárias, a que
mais tarde veio a chamar fractais.
A partir da relação de Richardson, Mandelbrot obteve a sequinte equação:

L=NyD (2.2)

em que L, um ‘comprimento’, é um factor de proporcionalidade, N é o número de


passos de comprimento y (a régua), e D é a dimensão fractal. Note-se que

D=1+α (2.3)

Para uma linha euclideana pura, claro, D = 1 e L = N y.


Se escrevermos a relação de Mandelbrot de outra forma,

L y -D = N (2.4)

e usarmos logaritmos, vem

L – D log y = log N (2.5)

que é a equação de uma recta. Isto permite-nos usar dados experimentais como os de
Richardson para, por regressão linear, obtermos os valores de D:

n ∑(log( y ) log( N )) − ∑ log( y ) ∑ log( N )


D=− (2.6)
n ∑ log( y ) 2 − (∑ log( y )) 2

Esta é uma das formas de determinar experimentalmente a dimensão fractal de


um objecto. As técnicas mais usadas são as seguintes:
a) método dos divisores, já visto, actualmente evoluído para o chamado
método da contagem de caixas;
b) método do semi-variograma;
c) método do espectro de potências.
Para ilustrar os três métodos, vamos aplicá-los a um único exemplo: a
determinação da dimensão fractal de um contorno da ria de Aveiro, obtido por
tratamento de uma imagem do satélite LANDSAT (figura 2.1).

7
Figura 2.1 – A Ria de Aveiro. LANDSAT.

600 800 1000 1200 1400 1600 1800


0

200

400

600

800

1000

1200

1400

Figura 2.2 – Contorno da Ria de Aveiro obtido a partir da imagem da figura 2.1. Coordenadas
arbitrárias.
O tratamento realizado foi muito simples: consistiu na conversão da imagem
original de 8 bits numa escala de 256 cinzentos (0=negro; 255=branco) – como
representada na figura 2.1. Depois, a imagem foi limiarizada para preto-e-branco e,
num programa comum de visualização, marcaram-se “à mão” pontos que parecessem
em número suficiente para delimitar a ria. O resultado é o gráfico da figura 2.2.

8
2.1.4.1. Método da contagem de caixas.
A figura é dividida em “caixas” quadradas, de lado R, e conta-se o número de
caixas, N, que é necessário para a cobrir. Neste caso, como estamos interessados em
obter a dimensão do contorno da ria contam-se apenas as caixas que cobrem esse
contorno. Se pretendêssemos a dimensão da superfície, contar-se-iam as caixas
necessárias para cobrir toda a figura. A contagem é iterada para caixas de dimensão
cada vez menor (ou maior), em progressão geométrica. O processo ilustra-se na figura
2.3.

Figura 2.3 – Esquema da contagem de caixas.

Tabela 2.2 – Resultados da contagem de caixas.


R N log R log N
1600 1 3.204 0.000
800 4 2.903 0.602
400 11 2.602 1.041
200 22 2.301 1.342
100 53 2.000 1.724
50 112 1.699 2.049
25 245 1.398 2.389

A partir das equações 2.5 e 2.6 e dos dados da tabela 2.2 pode-se
simplesmente construir um diagrama de correlação (figura 2.4) que nos dá

d log N
D=− (2.7)
d log R

No caso em estudo vem que D = 1.27.

9
2.5
y = -1.27x + 4.24
R2 = 0.99
2.0

1.5
log (n)

1.0

0.5

0.0
1.0 1.5 2.0 2.5 3.0 3.5
log (R)

Figura 2.4 – Determinação da dimensão fractal do contorno da Ria de Aveiro a partir da


contagem de caixas.

2.1.4.2. Método do semi-variograma.


A função semi-variograma é profusamente utilizada em geoestatística para
analisar a variação espacial de variáveis cujo valor está dependente da posição, como
teores de elementos químicos em rochas, por exemplo.
Seja z(sp) um valor observado na localização número p, sp, onde sp=(xp, yp) é o
vector definido nas coordenadas x e y. Defina-se h como o vector entre dois pontos, s1
e s2, de tal forma que h=s2-s1.
O semi-variograma define-se, assim, como a metade do quadrado das
diferenças em z para todos os h possíveis entre todos os sp e sq

2
1 n
[
γ (h) = ∑ z (s p ) − z (s q )
2 h =1
] (2.8)

Verifica-se que, se se projectar num gráfico cartesiano log[γ(h)] contra log[h],


o declive da recta de regressão permite-nos obter a dimensão fractal:

d log[γ (h )]
= 4 − 2D (2.9)
d log[h]

como se pode ver na figura 2.5.

10
5.0

4.0

log [ (h)] 3.0

2.0

1.0 y = 1.67x + 2.27


R2 = 1.00

0.0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6
log (h)

Figura 2.5 –Semi-variograma experimental para o contorno da Ria de Aveiro.

A partir da equação (2.9) vem que D=1.17.

2.1.4.3. Introdução à análise espectral. Método do espectro de potências.


A análise espectral é uma das ferramentas mais poderosas de que se dispõe
para o tratamento de dados geofísicos – na verdade, para o tratamento de qualquer
tipo de dados que possam ser representados como uma sucessão de valores.
Não vamos poder abordar aqui em pormenor o tema riquíssimo da análise
espectral o que não impede, contudo, que se introduzam alguns conceitos essenciais.
Quando se percute uma tecla de piano produz-se um som. Esse som não é
“puro”: não se traduz num gráfico perfeitamente sinusoidal. É, antes, a soma de um
número muito grande de funções sinusoidais, as harmónicas, cuja resultante nos
permite distinguir o timbre de cada instrumento.
Jean-Baptiste Fourier, pouco antes da Revolução Francesa (em consequência
da qual, aliás, foi decapitado) formulou um teorema importantíssimo onde
demonstrava que qualquer sinal (função) pode ser representado por uma soma,
eventualmente infinita, de funções trigonométricas. Chama-se análise espectral à
determinação do peso relativo (potência) de cada uma dessas funções no sinal total.
Seja dada uma função f(t), ou um sinal experimental f(t) amostrado a períodos
de tempo regulares ∆t. Se f(t) é periódica, o seu espectro pode ser representado como
uma combinação linear de oscilações cujas frequências são múltiplos inteiros de uma
frequência básica ω (a fundamental – mais um termo da música). Essa combinação
linear tem o nome de série de Fourier. Quando f(t) é não-periódica, caso mais
frequente para os sinais experimentais, o espectro das frequências componentes varia
continuamente e usa-se a chamada transformada de Fourier para representar f(t) em
função das frequências ω. A transformada de Fourier de f(t) escreve-se f(ω), de tal
modo que

11
+∞

∫e
− iωt
f (ω ) = f (t ) dt (2.10)
−∞

onde e é a base dos logaritmos neperianos e i = (-1)1/2. O espectro de potências P(ω)


define-se como o quadrado do módulo de f(ω):

P(ω) = | f(ω)|2 (2.11)

No caso de maior interesse prático, em que a série temporal é finita e discreta,


a transformada de Fourier pode ser estimada por uma série, tal que,

1 N
 2πjk 
xˆ k =
N
∑x j =1
j exp i
 N 
 , k = 1, 2, ..., N . (2.12)

A transformada de Fourier é sempre invertível, de tal modo que

1 N
 2πjk 
xj =
N
∑ xˆ k =1
k exp − i

,
N 
j = 1, 2, ..., N . (2.13)

Mais tarde, desenvolveram-se algoritmos que permitem estimar a


transformada de Fourier, na prática, de forma simples: é a chamada transformada
rápida de Fourier (FFT – Fast Fourier Transform) que se encontra implementada
em inúmeros pacotes de software, mesmo nas folhas de cálculo mais comuns.
Note-se que o desenvolvimento teórico inicial analiza funções que variam no
tempo, mas nada nos impede de fazer uma análise idêntica no espaço, mutatis
mutandis.

12

10

8
log[P(ω)]

y = -1.39x + 4.73
2 2
R = 0.44

0
-2 -1.5 -1 -0.5 0 0.5 1
log[ω]

Figura 2.6 –Espectro de potências para o contorno da ria de Aveiro.


Voltemos agora à determinação da dimensão fractal. Se se projectar num
gráfico cartesiano logarítmico o espectro de potências de uma função, contra as
frequências de amostragem para as respectivas potências, o declive da recta de
regressão, β, permite-nos obter a dimensão fractal, tal como no caso anterior:

12
D = (5+β) / 2 (2.14)

Isto pode ver-se no gráfico da figura 2.6.


A partir do declive da recta de regressão da figura 2.6 podemos determinar a
dimensão fractal: D = 1.81.
2.1.4.4. Será indiferente o uso de qualquer método para determinar a
dimensão fractal?
Da comparação dos três exemplos anteriores torna-se bem evidente que não!
Para o mesmo objecto, um contorno da Ria de Aveiro, temos três valores
diferentes consoante o método utilizado:
a) Contagem de caixas: D = 1.27
b) Semi-variograma: D = 1.31
c) Espectro de potências: D = 1.81
Na verdade, aconselham-se métodos específicos para grupos específicos de
problemas:
a) Contagem de caixas: para problemas geométricos, como o nosso.
Determinação da dimensão da forma de um objecto, da distribuição de
objectos no espaço.
b) Semi-variograma: é o método mais genérico. O seu uso concomitante com
os outros dois métodos permite-nos levantar uma indeterminação como a
que encontrámos aqui.
c) Espectro de potências: genericamente para problemas de tratamento de
sinal. Note-se, na figura 2.6, um indicador de que não seria adequado para
este problema: o coeficiente de determinação, não significativo, R2 = 0.44.
No caso do contorno da Ria de Aveiro, portanto, podemos dizer que a sua
dimensão fractal se encontra entre 1.27 e 1.31. Um bom estimador será a média: D =
1.29.
2.1.5. Formas auto-semelhantes e formas auto-afins
Se observarmos cartas a diversas escalas de uma região costeira muito
irregular, como a da Cornualha, vamos encontrar seguramente troços dessa costa que
se assemelham entre si, mesmo a diferentes escalas. No extremo, se virmos uma linha
com dimensão próxima de 2, esta assemelha-se, qualquer que seja a escala de
observação: a linha, só por si, não nos permite inferir a escala. Diz-se então que a
linha possui homotetias internas a todas as escalas – é auto-semelhante, ou auto-
similar.
Neste momento já deve ser claro qual foi o problema que levou à perdição dos
nossos dois geodesistas contratados pelo rei das Arábias: o perfil topográfico da Terra
é uma linha de dimensão fractal, pelo que a sua medição directa não permite uma
estimativa útil da circunferência do planeta. Será que um perfil topográfico é também
auto-semelhante? Na verdade, não.
As homotetias internas que permitem transformar um perfil topográfico em si
próprio não são as mesmas em cota e em distância horizontal. Diz-se, portanto, que
um perfil topográfico é auto-afim.
Daqui se poderá inferir que o método a utilizar para medir a dimensão fractal
de um objecto geométrico não é indiferente. Em particular, recomenda-se o uso do

13
método dos divisores para objectos auto-semelhantes e os métodos do semi-
variograma e do espectro de potências para objectos auto-afins.
O conceito de dimensão fractal, como medida da complexidade de uma forma,
é um dos mais importantes a surgir em toda a ciência da 2ª metade do séc. XX. Basta
pensar que não existem objectos naturais com dimensão estritamente euclidiana, ela
sim uma abstracção.
Voltaremos a encontrar este conceito várias vezes ao longo do curso de
Geofísica, e a sua importância ir-se-á tornando então cada vez mais clara.
2.1.6. História das medidas da Terra
A história das medidas da Terra começou provavelmente quando alguém
compreendeu pela primeira vez o que era um eclipse da Lua. Ao inferir que a sombra
projectada sobre a Lua era a da Terra, pode-se inferir que esta é esférica.
Já Aristóteles referia que a forma da Terra seria a de uma esfera e a sua
“dimensão” seria de 40000 estádios (aproximadamente 74000 km).
Eratóstenes, no séc. III a.C., foi o primeiro autor conhecido a tentar estimar o
raio da Terra de forma científica. Vejamos o seu método.
Este insigne geógrafo soube, das suas leituras (era director da biblioteca de
Alexandria), que uma vez por ano, no dia do solstício de Verão, o Sol se reflectia no
fundo de um poço em Siena, no alto Egipto. Isto, contudo, nunca acontecia em
Alexandria. Sabia também a distância entre Siena e Alexandria – 5000 estádios –
dado que as caravanas de mercadores faziam a viagem entre as duas cidades em 50
dias, a 100 estádios por dia.
Fez ainda algumas assumpções: que a Terra era esférica; que Siena e
Alexandria se encontravam no mesmo meridiano; que os raios solares são paralelos ao
atingir a Terra (figura 2.7).

Figura 2.7 – Método de Eratóstenes para determinar o perímetro da Terra.


Assim, fez as suas medidas. No dia do solstício mediu o comprimento da
sombra de uma vara vertical e determinou o ângulo de incidência dos raios solares
(1/50 da circunferência, ou seja, 7º 12’), de onde derivou o perímetro da Terra:
50 × 5000 = 250000 estádios (aproximadamente 40000 km).

14
Este resultado é notável ainda hoje, tanto mais que foram cometidos vários
erros: a distância entre as duas cidades era de 729 km e não 800 km; Siena e
Alexandria não se encontram no mesmo meridiano, mas distam quase 3º em
longitude; Siena não se encontra exactamente sobre o trópico de Câncer; a distância
angular segundo o meridiano não é de 7º 12’ mas de 7º 05’.
No séc. XVII equacionou-se o problema: tratava-se de determinar o
comprimento do arco interceptado pela superfície da Terra (conceito que já sabemos
ser difícil de definir) por um ângulo ao centro de 1°. O primeiro valor, obtido por
Snell em 1617, foi de 107 Km/grau (um erro da ordem de 0.1). Este valor foi obtido
por triangulação e o erro explica-se pelas limitações instrumentais, dado que os
azimutes eram medidos usando alidades de pinos.
Foi Picard, em 1669, o primeiro a adaptar à alidade uma luneta de Galileu.
Este grande progresso instrumental permitiu a Picard obter uma medida de 111.212
km/grau (um erro, excelente para a época, da ordem de 0.001).
É interessante referir que Newton havia feito a formulação inicial da sua lei da
gravitação universal (a que voltaremos mais tarde) em 1666 mas, como só conhecia o
resultado de Snell, a verificação numérica da sua lei fê-lo pensar que esta poderia
estar errada. Só publicou os resultados em 1676, depois de conhecer o valor obtido
por Picard.
Só nos finais do séc XVII se intuiu que a Terra não seria exactamente esférica.
Richer, relojoeiro parisiense, transportou em 1672 o seu melhor relógio de pêndulo
para Caiena, onde verificou que este se atrasava cerca de 2’30” por dia. Newton, ao
tomar conhecimento deste facto, atribui-o imediatamente a uma diminuição da
atracção gravitacional à medida que o relógio se aproximou do Equador, o que
implica que a Terra seria, não uma esfera, mas um elipsóide de revolução oblato
(achatado nos polos).
2.2. A gravidade na Terra
2.2.1. Bases matemáticas
Recordemos alguns conceitos da teoria matemática do campo (Apêndice 1).
Seja dado um campo escalar U(x, y, z), definido em todo o ponto M(x, y, z) de
uma região Ω do espaço. Uma das formas de caracterizar o campo escalar U consiste
em definir nele superfícies de nível tais que f(x, y, z) = k, constante.
Diz-se que um campo vectorial A(M) é um campo potencial se puder ser
representado como um campo de gradientes de um campo escalar U(M), definido no
mesmo domínio Ω, ou seja, A = grad U. Note-se agora que, da definição de gradiente,
decorre que o vector A é, em todos os pontos M de Ω, normal à superfície de nível
que passa por M. A direcção do vector A é, portanto, a direcção da mais rápida
variação do campo escalar U.
2.2.2. Leis de Newton
Newton enunciou duas leis fundamentais para a nossa compreensão do campo
gravítico:
a) Lei fundamental da dinâmica

f=ma (2.15)

15
em que f = força, m = massa e a = aceleração
b) Lei da atracção universal

f = G(mm’/r2) (2.16)

duas massas m e m’ atraem-se com uma força f cuja magnitude é directamente


proporcional ao produto das massas e inversamente ao quadrado da distância entre
elas.
Das equações (2.15) e (2.16) deduz-se facilmente que

GM/R2 = a = g = 9.8 m.s-2 (2.17)

onde M e R são, respectivamente, a massa e o raio da Terra, e g é a aceleração média


da gravidade. Deste modo, para estimar a massa da Terra bastará conhecer o valor da
constante G.
A primeira medida conhecida do valor de G foi feita no séc. XVIII pelo físico
inglês Cavendish, usando uma balança de torção (figura 2.8).

Figura 2.8 – Balança de torção de Cavendish.


Suspende-se de um fio fino uma barra rígida, horizontal, aos extremos da qual
estão presas duas pequenas massas. Se se aproximarem duas grandes massas das
massas pequenas a barra sofrerá uma ínfima torção que é proporcional ao valor de G,
função da constante elástica de torção do fio.
O valor actual dado a G, a chamada constante de Cavendish, constante de
gravitação ou “constante de Newton” (que não a conhecia) é de aproximadamente
6.672×10-11 N.m2.kg-2, valor finalmente devido a Eötvös.
Daqui é possível, como se disse, estimar a massa da Terra, arbitrando um valor
médio para R (6.378 × 106m):
M ≈ 5.98 × 1024 kg
e uma densidade média, ρ
ρ ≈ 5.52
Se pretendermos representar o efeito associado a uma só massa m
introduzimos o conceito de campo gravitacional de m:

g = (Gm/r3).r (2.18)

16
e, assim, outra massa, m’, sujeita à acção de m sofrerá uma atracção

f = g m’ (2.19)

Note-se, por comparação entre (2.19) e (2.15), que g é uma aceleração.


2.2.3. Teorema de Gauss. Equação de Laplace e equação de Poisson.
Para calcular o campo gravitacional criado por uma distribuição de (várias)
massas, “bastaria” calcular os campos criados por cada uma dessas massa e somá-los
vectorialmente. Um teorema importante devido a Gauss permite, contudo, simplificar
esses cálculos se a distribuição de massas possuir certas propriedades de simetria.
O campo num ponto M(x, y, z) devido a uma massa m localizada noutro ponto
M0(x0, y0, z0) pode ser representado como uma força F tal que

 x−x y− y z−z 
F =  Gm 3 0 , Gm 3 0 , Gm 3 0  (2.20)
 r r r 

em que r é a distância MM0.


Calculemos a divergência do campo F.

∂  x − x0  r 3 − 3( x − x0 ) 2 r r 2 − 3( x − x0 ) 2
 Gm  = Gm = Gm (2.21)
∂x  r3  r6 r5

e analogamente para ∂/∂y( ) e ∂/∂z( ). Somando os três resultados obtém-se

3r 2 − 3( x − x0 ) 2 − 3( y − y0 ) 2 − 3( z − z0 ) 2
divF = Gm =0 (2.22)
r5

ou seja, o campo gravítico é solenoidal.


Outra consequência de (2.22), que tem importantes implicações práticas, é a
seguinte: seja U o potencial de F,

div F = div grad U = ∇ .∇ U = ∇2U = ∆U = 0 (2.23)

ou seja, o campo gravitacional obdece à equação de Laplace.


Note-se, porém, que estes cálculos não se aplicam para o ponto M0 (a origem
do campo), no qual a divergência não se define, pelo que o integral triplo no lado
direito da fórmula de Ostrogradsky

∫∫ F dσ = ∫∫∫ divF dv
Σ Ω
(2.24)

é um integral impróprio e não pode ser obtido por integração directa se o domínio Ω
contiver a origem. Isto é evidente da análise da eq. (2.20) pois para M≡M0, r=0 e os
quocientes são indeterminados. Podemos, contudo, encontrar facilmente a quantidade
no lado esquerdo, que é o fluxo do vector F através da superfície Σ que delimita o

17
domínio, e atribuir o valor assim calculado ao integral triplo, quando a origem está
contida em Ω.
Calculemos então o fluxo. Tomemos como superfície Σ a esfera de raio r com
centro em M0. A direcção do vector F coincide em todos os pontos da esfera com a
normal à sua superfície. Portanto, neste caso, a projecção de F sobre a normal é igual
ao comprimento do próprio vector F, ou seja,

m
∫∫ F dσ = G r
Σ
n 2
4π r 2 = 4π Gm (2.25)

o que significa ser o fluxo do vector atracção gravitacional através de qualquer


superfície apenas proporcional à massa. Ora, como o fluxo de uma soma de campos é
igual à soma dos fluxos dos campos individuais, infere-se que o fluxo do campo
gravitacional produzido por um sistema de massas pontuais através de uma superfície
fechada é simplesmente igual à soma das massas contidas no interior dessa superfície,
multiplicada por 4π, ou seja, se chamarmos φ a esse fluxo,

φ = 4π G Σmi = 4π G M (2.26)

que é uma forma da equação de Poisson.


As equações (2.23) e (2.26) significam, respectivamente, que o campo
gravítico obedece à equação de Laplace no vazio e à equação de Poisson numa região
do espaço contendo massa.
2.2.4. Campo de peso. O geóide.
O campo que se tem estado a descrever, campo gravitacional, não coincide
com o campo de pesos que existe à superfície da Terra.
Para definir o peso, consideremos um pêndulo ideal: uma massa pontual m
suspensa no extremo de um fio indeformável, sem massa nem atrito. A posição de
equilíbrio estável do pêndulo define a vertical. Três forças agem sobre o ponto M
onde se localiza a massa m: a tensão do fio, a atracção da Terra, a atracção do resto do
Universo. Note-se que a soma destas forças não é nula uma vez que a Terra se desloca
no espaço, arrastando consigo o ponto M. Pelo princípio fundamental da dinâmica,

Σ F = m γM (2.27)

A aceleração γM é a aceleração da massa m, mas, como o pêndulo está em


repouso relativamente à Terra, γM é de facto a aceleração da Terra no ponto M.
A tensão do fio, T, é, por definição, de módulo igual e sentido oposto ao peso
P da massa m:

P = mg = -T (2.28)

em que g é o campo de peso.

18
A atracção exercida sobre o ponto M, quer pela Terra, quer pelos outros astros,
é proporcional a m. Sejam AT e Aa os campos de atracção devidos à Terra e aos outros
astros, respectivamente:

mγM = mAT + mAa – mg (2.29)

donde,

g = AT + Aa - γM (2.30)

O deslocamento do ponto M é a soma de dois deslocamentos:


a) a rotação da Terra, com velocidade angular ω, que produz uma aceleração
axípeta ω2ρ, em que ρ é a distância de M ao eixo de rotação;
b) a translacção da Terra, que produz uma aceleração cujo valor é idêntico em
M e no centro de inércia, O, da Terra (γM = γO).
Assim, a aceleração devida ao deslocamento vem,

γM = ω2ρ + γO (2.31)

Como o movimento do centro de inércia da Terra é devido à acção dos outros


astros, pode escrever-se que

MγO = M Aa(O) (2.32)

onde M é a massa total da Terra. Assim, a expressão que define o campo de peso vem,

g = [AT - ω2ρ] + [Aa(M) – Aa(O)] = gP + M (2.33)

onde gP é constante no tempo e representa o peso, no sentido normal do termo, que


compreende a atracção gravitacional da Terra e a aceleração devida à componente de
rotação; M é variável no tempo (depende das posições relativas dos astros e do ponto
M) e representa o termo de maré que se encontra na origem quer das marés oceânicas
quer das marés terrestres que veremos mais tarde. Para a maioria dos efeitos práticos,
o primeiro termo é a maior componente do campo de peso. Vejamos este termo com
maior detalhe. Tal como o campo gravítico, o campo de peso é um campo potencial,
pelo que se pode dizer com propriedade que

AT = grad UT (2.34)

em que UT, potencial do campo de peso, é um campo escalar. Por outro lado, também
a componente devida à rotação é um gradiente:

ω2ρ = grad (ω2ρ2 / 2) (2.35)

Portanto, o campo vectorial de peso deriva de um potencial

19
UP = UT + (ω2ρ2 / 2) (2.36)

e as superfícies equipotenciais de UP são, em todos os pontos, ortogonais a g. Uma


destas superfícies equipotenciais, que corresponde aproximadamente ao nível médio
da superfície dos oceanos, tem o nome de geóide e é a melhor visualização de que
dispomos da forma da Terra (figura 2.9).
Compreender-se-á agora, decerto, a necessidade de, para compreender a forma
da Terra (geodesia), compreender as características do campo gravítico (gravimetria).

Figura 2.9 – O geóide, segundo o modelo GGM1998. NOAA.

2.2.5. Expansão do potencial gravítico.


2.2.5.1. O teorema de Clairaut.
Clairaut, em 1943, a partir da observação da forma da Terra, propôs uma
teoria que supõe que o Planeta foi outrora uma massa líquida que só solidificou depois
de tomar a sua forma de equilíbrio gravitacional. Partindo deste princípio, deveria ser
possível deduzir a forma aproximada da Terra a partir das equações da hidrostática.
Supondo-se a Terra líquida, a sua superfície estaria submetida à atracção
mútua exercida pelos seus próprios constituintes (a força aglutinadora, afinal) e à
força axípeta devida à rotação. Nesse caso, a superfície da Terra deve ser uma
equipotencial do peso. Por outras palavras: como a superfície da Terra é, em todos os
pontos, perpendicular à direcção do peso (vertical, por definição), ela é em todos os
pontos horizontal.

20
Se o líquido for homogéneo, a forma de equilíbrio nas condições mencionadas
é um elipsóide oblato. Se o líquido não for homogéneo, a forma não será simples e
dependerá da distribuição de densidades.
A dedução do teorema de Clairaut é densa e extensa, mas não só conduz a
resultados essenciais em gravimetria, como a sua técnica vai ser essencial no
desenvolvimento de outros conceitos, em campos aparentemente tão dispares como o
geomagnetismo e a sismologia. Por estes motivos, vamos acompanhá-la com algum
pormenor.
Imaginemos um esferóide que envolva toda a massa da Terra e consideremos
o potencial num ponto P, exterior ao esferóide, que roda solidário com a Terra com
uma velocidade angular ω em torno do eixo z (Figura 2.10)

Figura 2.4 – Condições para o teorema de Clairaut.


Considerando a gravitação e a aceleração centrípeta como as forças em acção,
podemos dizer que

1 1 2 2 2 2
U = G∫
ρ
dm +
2
( )
x' + y ' + z ' ω (2.37)

onde dm é um elemento de massa e a integração é feita sobre o volume da Terra.


Este integral não pode ser calculado directamente, pelo que é necessário
expandi-lo numa série. Isto pode fazer-se, neste caso, de duas maneiras:
• Expande-se o termo 1/ ρ , e a série resultante é integrada termo a termo.
• Exprime-se directamente U em termos de soluções da equação de Laplace
em coordenadas esféricas – a expansão em harmónicas esféricas.
A dedução do teorema de Clairaut baseia-se na primeira técnica.
A quantidade 1/ ρ pode escrever-se

21
1 1 r r 2  − 12
= 1 − 2 cos α + 2  (2.38)
ρ r '  r' r' 

Desde que a quantidade entre parênteses seja maior que zero, pode ser
expandida pelo teorema binomial como

1 1 r r2 
= P
 0 cos α + P1 cos α + P cos α + L
2 2
(2.39)
ρ r'  r' r' 

onde

P0 cos α = 1
P1 cos α = cos α
P2 cos α = (3/2)(cos2 α - 1/3)
...
n/2
1× 3 × L× (2n − 2k − 1)(−1) k cos n −2 k α
Pn cos α = ∑ (2.40)
k =0 2 k k!(n − 2k )!

As funções (Pncos α) são os chamados polinómios de Legendre.


Para passarmos de coordenadas cartesianas (x, y, z) para coordenadas polares
(φ − latitude, λ − longitude, r − distância), podemos escrever

xx'+ yy '+ zz '


cos α = = cos φ cos φ ' (cos λ − λ ' ) + sin φ sin φ ' (2.41)
rr '

E, assim, na expressão do potencial (2.37)

G 1 1  1
U=  ∫ dm + ∫ P1 cos α r dm + 2 ∫ P2 cos α r 2 dm + L + (x'2 + y '2 )ω 2 (2.42)
r'  r' r'  2

O primeiro integral dá-nos a massa da Terra. O segundo, reduz-se a uma série


de momentos em torno de O e, portanto, anula-se, dado que O é o centro de massa.
O terceiro integral é uma soma de momentos e produtos de inércia. Dado que
o eixo z é o eixo de maior inércia, escolhamos os eixos x e y de tal modo que os
produtos de inércia se anulem, e façamos A, B e C os momentos de inércia em torno
dos eixos x, y e z, respectivamente:

3 A+ B  1 3
∫ P cos α r
2
2 dm =  − C   sin 2 φ '−  + ( B − A) cos 2 φ ' cos 2λ ' (2.43)
2 2  3 4

Se fizermos

22
A+ B
C−
K= 2 (2.44)
M

e abandonarmos os termos de grau mais alto na expansão, o potencial vem

MG  K 3( B − A) ω 2r 3 
U= 1 +
r  2r 2
1 − 3(sin 2
φ +) 4 Mr 2
cos 2
φ cos 2λ +
2 MG
cos 2 φ  (2.45)

(Note-se que já podemos abandonar os termos x’, y’ e r’, dado que a


integração foi resolvida.)
A equação (2.45) exprime o potencial gravítico em função da longitude e dos
momentos equatoriais de inércia. Ora, estes podem ser realistamente considerados
iguais, o que simplifica a equação:

MG  K ω 2r 3 
U= 1 +
r  2r 2
1 − 3(sin 2
φ +)2 MG
cos 2 φ  (2.46)

Tendo visto o caso mais geral, não esqueçamos que a situação que mais nos
interessa é aquela em que a superfície externa do nosso esferóide é uma equipotencial,
U=U0, e o ponto P se encontra sobre essa superfície. A forma dessa equipotencial é
dada por

MG  K 1 ω 2a3 
r= 1 +
U 0  2a 2
1(− 3 sin 2
φ)+
2 MG
cos 2 φ  (2.47)

tendo-se, adequadamente, substituido r por a, o raio da Terra, nos segundo e terceiro


termos. Se chamarmos m ao quociente que afecta o co-seno, podemos simplificar
ainda mais, e com a vantagem de m ter um significado físico preciso:

aω 2 aceleração centrípeta no equador


m= 2
= (2.48)
MG / a atracção gravitacional no equador

Substituindo em (33)

MG  K m    3K m  2 
r= 1 + 2 +  1 −  2 +  sin φ  (2.49)
U 0  2a 2    2a 2 

Note-se agora que a equação (2.49) é da forma

r = a(1 – f sin2 φ) (2.50)

onde a quantidade f é

23
3K m raio equatorial - raio polar
f = + = (2.51)
2a 2 2 raio equatorial

e significa, portanto, o chamado achatamento polar ou elipticidade do esferóide.


A atracção gravitacional à distância r é dada, com precisão até à primeira
ordem por

g = – ∂U/ ∂r (2.52)

ou seja,

MG  3K 
g= 2 
1 + 2 (1 − 3 sin 2 φ ) + m cos 2 φ  (2.53)
r  2r 

e a gravidade sobre o esferóide, g0, obtém-se pela substituição na equação (2.53) do


valor de r encontrado na equação (2.49):

U 02  K   3K  2 
g0 = 1 + 2 − m  1 +  2m − 2  sin φ  (2.54)
MG  2a   2a  

Tal como antes, verifica-se que esta equação é de forma

g0 =gequador [1 + B2 sin2 φ] (2.55)

onde

3 K
B2 = 2m − (2.56)
2 a2

se reconhece ser a relação entre a gravidade equatorial e a gravidade polar. Se


compararmos as equações (2.56) e (2.51), verificamos imediatamente que

5
B2 = m− f (2.57)
2

Esta é a formulação do teorema de Clairaut em f, numa aproximação de


primeira ordem.
Estas relações foram verificadas experimentalmente, tendo-se obtido valores
de f = 1/298.25 e B2 = 1/189.43, o que conduz a um valor de f + B2 = 1/115.85. A
discrepância, pequena, pode explicar-se pelo facto de o valor de ω usado nos cálculos
ser o actual, e este valor ter certamente variado ao longo do tempo.
2.2.5.2. Expansão do potencial gravítico em harmónicas esféricas.
Vimos acima que o valor do potencial criado por uma massa pontual M, ou
por uma distribuição simétrica de massas, é dado pela expressão

24
U = GM / r

a uma distância r do centro da massa. Ter-se-á notado que não demos uma expressão
para o campo criado pela Terra como um todo, por motivos que agora devem ser
evidentes: a forma da Terra é demasiado complexa. Assim, o valor do potencial a
diferentes distâncias do centro de inércia da Terra tem que ser aproximado por
superfícies equipotenciais obtidas a partir de um modelo ideal.
O potencial do campo gravítico, U, é um campo estacionário: g, em cada
ponto, não varia no tempo. Por esse motivo, U obedece à equação de Laplace

∇2U = 0 (2.58)

Vamos procurar soluções para a equação de Laplace em coordenadas polares

∂  2 ∂U  1 ∂  ∂U  1 ∂ 2U
r +  sin θ + =0 (2.59)
∂r  ∂r  sin 2 θ ∂θ  ∂θ  sin 2 θ ∂λ2

em que r é a distância à origem, θ é a co-latitude e λ é a longitude.


Se quisermos uma solução da forma

U = R(r) P(θ ) Q(λ ) (2.60)

as funções das diversas variáveis devem satisfazer as seguintes condições:

d 2R dR
r2 2
+ 2r − l (l + 1) = 0 (2.61)
dr dr

1 d  dP   m2 
 sin θ  +  l (l + 1) − P = 0 (2.62)
sin θ dθ  dθ   sin 2 θ 

d 2U
2
+ m 2Q = 0 (2.63)

onde l e m são inteiros positivos tais que l ≥ m.


Qualquer solução da equação (2.63) será da forma

Q = A sin mλ + B cos mλ (2.64)

onde A e B são constantes. A função P escreve-se habitualmente como função de


cosθ, e depende dos valores particulares das constantes l e m:

1 − cos 2 θ d l + m (cos2 θ − 1)l


Pl m (cosθ ) = (2.65)
2l l! d (cosθ ) l + m

25
Estas funções são os polinómios de Legendre associados.
Repare-se que as soluções em P e Q, em conjunto, descrevem as propriedades
do potencial sobre uma equipotencial. Para conhecermos a variação do potencial entre
equipotenciais distintas temos que recorrer às soluções em R, que são da forma

d 2R dR
r2 2
+ 2r − l (l + 1) = 0 (2.66)
dr dr

As soluções possíveis de (2.66) são

R=rl (2.67)

ou

R = r -(l+1) (2.68)

de tal maneira que, para o potencial, vêm também duas soluções possíveis, se
combinarmos (2.66), (2.67) e (2.68):

m
U = rl Pl (cosθ )(A cos mλ + B sin mλ) (2.69)

ou

m
U = r -(l+1) Pl (cosθ )(A cos mλ + B sin mλ) (2.70)

A escolha da solução mais conveniente depende das condições-limite de cada


caso, dado que (2.69) é limitada na origem e (2.70) no infinito.
Este desenvolvimento tem o nome de expansão do potencial em harmónicas
esféricas e é da maior importância para o conhecimento rigoroso das trajectórias dos
satélites, que seria impossível pela aplicação simples das leis de Kepler. Mas a sua
importância, digamos técnica, para a Geofísica é ainda maior. Vamos encontrar
desenvolvimentos do mesmo tipo no estudo do geomagnetismo e, em geral, em
qualquer situação em que se pretenda conhecer detalhadamente um campo potencial
originado num planeta.
Será interessante fazer uma interpretação semi-quantitativa da expansão em
harmónicas esféricas, que nos auxiliará na compreensão do seu significado físico.
Imaginemos que observamos a Terra de uma distância r, muito maior que o
seu raio, a fim de que as diferenças entre a nossa esfera (a mais próxima da forma da
Terra que contém toda a sua massa) e a forma real do Globo sejam negligenciáveis.
Deste modo é possível assimilar o Planeta a uma massa pontual concentrada no seu
centro de gravidade (o que, aliás, é permitido pelo teorema de Gauss); o potencial é
dado por uma expressão em 1/r (a primeira harmónica, ou fundamental).
À medida que nos aproximamos de O as diferenças entre a esfera e o planeta
começam a tornar-se sensíveis, de tal modo que O já não coincide necessariamente
com o centro da Terra. Num ponto de observação P, para além do termo referido em
1/r, vai aparecer um termo em 1/r2 (que antes também existia, mas era desprezável

26
dado o grande valor de r). O coeficiente que afecta o termo en 1/r2 depende do ângulo
θ entre a direcção de observação e a direcção de O, pelo que o potencial será
proporcional a
cos(θ)/r2
Este coeficiente é dado pelo polinómio de Legendre associado à segunda
harmónica.
Aproximemo-nos mais: a Terra já não parece uma esfera mas sim um
elipsóide de revolução oblato e os termos anteriores do potencial já não bastam para
descrever o achatamento polar, pelo que se torna necessário introduzir um termo em
1/r3. À medida que nos aproximamos cada vez mais da forma ‘real’ da Terra, vai
sendo necessário introduzir termos em 1/r4, 1/r5, e assim sucessivamente.
Para a Geofísica é na maioria das vezes suficiente a aproximação conferida
pelo elipsóide de revolução. O termo correspondente do potencial é proporcional a

1 3 cos 2 θ − 1
r3 2

O coeficiente que afecta o termo em 1/r2 mostra a diferença entre o elipsóide


de revolução e a esfera e traduz um achatamento polar de cerca de 1/298.25 pelo que
o raio equatorial é de cerca de 6378km e o raio polar de cerca de 6357km. Não será
demais insistir que estes valores são os do elipsóide que mais se aproxima da Terra; a
sua forma verdadeira, por ser fractal, é-nos inacessível, e a forma do geóide só pode
ser obtida experimentalmente, por medição directa. Por curiosidade, resta referir que o
coeficiente que afecta o termo em 1/r3 traduz o facto de a Terra não ser simétrica em
relação ao Equador: o hemisfério Sul é ligeiramente mais volumoso.

2.2.6. Efeitos sensíveis da rotação da Terra: acelerações de Eötvös e de


Coriolis.
O efeito mais directamente sensível da rotação da Terra é, claro está, a
sucessão dos dias e das noites. Mas há outras consequências da rotação que são menos
evidentes. Qualquer corpo em movimento sobre a Terra está sujeito à aceleração
centrífuga e, além dessa, a outras acelerações relacionadas com a velocidade e a
direcção do movimento e com a latitude a que se encontra. Atente-se na figura 2.11.
À latitude λ, a distância de um ponto ao eixo, na perpendicular a este, é dada
por

d = R cos λ (2.71)

Se, em vez de um ponto fixo na superfície, considerarmos um corpo em


movimento na superfície terrestre, a sua velocidade pode ser decomposta numa
componente para Norte, vN, e outra para Este, vE.

vE = ωR cosλ (2.72)

27
A componente para Este adiciona-se à velocidade linear da rotação da Terra, o
que tem como efeito um aumento da aceleração centrífuga, um factor de ∆a, tal que

∆a = 2ωR cosλ ∆ω = 2ω vE (2.73)

Podemos também decompor este ∆a numa componente vertical, ∆av,

∆av = ∆a cosλ = 2ω vE cosλ (2.74)

e uma componente horizontal, ∆ah,

∆ah = ∆a sinλ = 2ω vE sinλ. (2.75)

A componente vertical tem como efeito principal diminuir a aceleração da


gravidade de um corpo em movimento para Este, e tem o nome de aceleração de
Eötvös. É um efeito que tem que ser considerado quando se fazem medidas de
gravidade a bordo de veículos em movimento (navio, avião) e voltaremos a ele
quando estudarmos as correcções às medidas gravimétricas.

Figura 2.11 – Componentes da aceleração devidas à rotação.

A componente horizontal tem o nome de aceleração de Coriolis (às vezes


chamada efeito Coriolis). Esta aceleração faz com que um corpo em movimento na
Terra (ou em qualquer planeta em rotação) tenha o sentido do seu movimento
desviado, de acordo com a tabela 2.3.
Tabela 2.3 – Efeito Coriolis
Hemisfério Norte Hemisfério Sul
Movimento para Este Desvio para Sul Desvio para Norte
Movimento para Oeste Desvio para Norte Desvio para Sul

28
A consequência mais importante da aceleração de Coriolis é produzir os
padrões bem nossos conhecidos da circulação atmosférica (figura 2.12) e das
correntes oceânicas. A gravidade é determinante, portanto, no nosso clima.

Figura 2.12 – Circulação atmosférica sobre a Europa Ocidental. EUMETSAT, 2004.

2.2.6. Latitude, longitude e altitude. Nutação livre.


Para além dos efeitos de Eötvös e de Coriolis, há outros efeitos da rotação – e
outras componentes de rotação da Terra – que são menos perceptíveis.
A latitude de um lugar da superfície da Terra pode ser determinada
simplesmente e com rigor apreciável pela observação das estrelas. Esta técnica é
conhecida, pelo menos, desde a Antiguidade Clássica, e foi usada extensamente pelos
nossos Navegadores, com os resultados de todos conhecidos.
Já a determinação da longitude é um pouco mais delicada, instrumentalmente,
dado que assenta na comparação da hora solar de um ponto com a hora de um relógio
estável de referência. Não surpreende, portanto, que a técnica só tenha sido dominada
mais tarde (pelo relojoeiro inglês John Harrisson, em 1735), o que explicará, por
exemplo, que Colombo, ao atingir as Antilhas, pensasse estar na Índia.
Parece intuitivo, portanto, que latitude e longitude são invariantes. Será assim?
Como muitas inferências intuitivas, também esta não é inteiramente verdade.
Vejamos agora o caso da latitude deixando o da longitude para o ponto
seguinte.
A latitude define-se como a distância angular ao equador, segundo um
meridiano. O equador, por outro lado, só se pode definir como a intersecção de um
plano perpendicular ao eixo de rotação da Terra com a superfície desta. Ora, sucede
que a posição do eixo rotacional da Terra não é constante em relação a ela: sofre uma

29
variação, conhecida como nutação livre, ou movimento de oscilação de Chandler,
com uma amplitude máxima de poucas dezenas de metros (figura 2.13).

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
-0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4

0.1'' ~ 3m
N geográfico

Figura 2.13 – Nutação livre entre 1994.0 e 2004.0. Dados International Earth Rotation And
Reference Systems Service (http://hpiers.obspm.fr/eoppc/eop/eopc01/eopc01.1900-2004).
A nutação livre já havia sido prevista por Euler: os seus cálculos para uma
Terra ideal, rígida, apontavam um período de rotação do polo de cerca de 305 dias
(período de Euler). As medidas de Chandler, contudo, mostraram que o período real
é de cerca de 435 dias (período de Chandler). Esta discrepância deve-se ao facto de
a Terra não ser um corpo indeformável.
Repare-se na conclusão lógica: se a latitude é definida em relação ao equador e
este em relação ao polo, e se a posição do polo varia, então a latitude de um ponto
também varia no tempo. Esta variação pode atingir uma amplitude de 0.5” num ano e
geralmente é desprezada.
O raciocínio que se fez sobre a latitude é em tudo aplicável à longitude. A
longitude de um ponto é definida como o ângulo ao centro entre esse ponto e um
meridiano arbitrado, de referência (meridiano de Greenwich), medido sobre um plano
paralelo ao equador. Esse ângulo é definido por duas verticais: uma que passa pelo
ponto e outra na intersecção do paralelo com o meridiano de Greenwich. Ora, já
vimos que a posição do equador não é fixa devido à nutação livre dos polos.

30
Ainda não são inteiramente claros os mecanismos que produzem a nutação
livre. As hipóteses mais seriamente consideradas incluem:
a) a precessão do núcleo interno;
b) a turbulência magneto-hidrodinâmica no núcleo externo;
c) a acoplagem mecânica entre os movimentos do núcleo externo e do manto;
d) efeito gravitacional da Lua;
e) a deformação permanente da Terra causada por grandes sismos;
f) o atrito das correntes dos fundos oceânicos.
Veja-se a beleza do problema: as hipóteses englobam contributos de todas as
áreas da Geofísica!
Também muito complexa é a determinação da altitude, ou cota, de um ponto:
o nivelamento.
A altitude de um ponto define-se como a distância, na vertical, entre esse
ponto e a superfície do geóide. Parece ser evidente que a distância vertical entre dois
pontos é uma constante: evidente, mas falso. Vejamos porquê (Figura 2.14).
Consideremos dois pontos distintos M e M’, sobre a mesma vertical, próximo
do polo, e dois outros pontos N e N’, sobre a mesma vertical, próximo do Equador.
Suponhamos ainda que M e N estão sobre a mesma horizontal (superfície equidistante
do geóide), tal como M’ e N’. Sucede que as horizontais não são paralelas – do
exposto anteriormente deduz-se facilmente que estão mais próximas nos polos que no
Equador, pelo que a distância MM’ é necessariamente menor que NN’.
Há, contudo, uma constante: o trabalho realizado pela queda de uma massa m
de M para M’ é igual ao trabalho realizado pela queda da mesma massa de N para N’.
Isto implica a necessidade de usar técnicas gravimétricas para uma medição muito
rigorosa de cotas.
M

M’

N’ N

Figura 2.14 – A diferença de cotas entre duas horizontais é variável!

2.2.7. Distribuição de massas na Terra. Marés.


Definimos o geóide pela direcção do campo de peso. Por outro lado, a
variação da intensidade desse campo vai-nos permitir estudar a distrubuição das
massas nas camadas superficiais da Terra. Vejamos em primeiro lugar os fenómenos
das marés.
Vimos atrás que o campo de peso pode ser representado como a soma de dois
termos

31
g = gP + M (2.76)

em que gP é um termo constante no tempo, o peso em sentido estrito, e M é um


termo variável no tempo, a que se chama termo de maré. Viu-se então que o termo de
maré era devido às acções combinadas das atracções dos astros. Sem dúvida que dois
astros, apenas, contribuirão com a quase totalidade para esta componente: o Sol e a
Lua.
Vejamos, por exemplo, o caso da Lua. Um ponto A, na superfície da Terra,
que tenha a Lua no seu zénite será o mais atraído; o centro da Terra será um pouco
menos atraído; o ponto diametralmente oposto ao primeiro, B, terá a Lua no nadir e
será o menos atraído de todos. Se raciocinarmos em relação ao centro da Terra
veremos que quer o ponto A quer o ponto B tendem a afastar-se do centro da Terra.
De facto, o ponto A aproxima-se da Lua por ser por ela atraído; o centro da Terra
tende a afastar-se do ponto B por ser mais atraído que este. Assim, ainda que a Terra
fosse tendencialmente esférica, a atracção da Lua tenderia a aproximá-la de um
elipsóide.
Um raciocínio em todos os pontos idêntico pode fazer-se para o efeito do Sol.
Seja γ a atracção gravitacional produzida por um astro. Demonstra-se que os
termos de maré no zénite e no nadir são iguais e valem

M = 2γ (R/D) (2.77)

em que R é o raio terrestre e D a distância ao astro. Embora a massa da Lua seja, na


prática, infinitamente inferior à do Sol, aquela encontra-se bastante próxima da Terra
para que a sua contribuição para o termo de maré seja o dobro da deste.
O potencial gerador de marés, V, num ponto da Terra é dado pela seguinte
expressão:

3  M  a2 R2   2 1  2 1 
V= g  2 2
3 sin δ − 3  sin ϕ − 3  + sin 2δ sin 2ϕ cos Θ + cos δ cos ϕ cos 2Θ
4  M e  r 3     
(2.78)

onde M é a massa do corpo gerador do potencial, Me a massa da Terra, a a distância


do centro da Terra ao ponto, R o raio médio da Terra, r a distância ao corpo, δ a
declinação do corpo, ϕ a latitude e Θ o seu ângulo horário.
Como será fácil de imaginar, o simples efeito combinado do Sol e da Lua
conduz a cálculos complicadíssimos, pelo que é habitual decompor as variações de V
no que se chama as marés componentes, por expansão do potencial em harmónicas
esféricas. As componentes encontram-se listadas na tabela 2.4.
É evidente que os efeitos produzidos por esta atracção dependem do material
que a ela está sujeito. Não é de admirar, portanto, que sejam os oceanos a sofrer os
principais efeitos das marés. Mas a parte sólida da Terra também os sofre, embora o
módulo de elasticidade da Terra (veja-se, a seguir, o capítulo sobre sismologia),
tomada como um todo, seja da mesma ordem de grandeza que o do aço, as chamadas
marés terrestres têm uma amplitude média de cerca de 20cm.

32
Tabela 2.4 – Marés componentes.
Amplitude
Símbolo Nome Período
Relativa
M2 lunar principal 12.42 h 0.454
S2 solar principal 12.00 h 0.212
N2 lunar elíptica maior 12.66 h 0.088
K2 segunda luni-solar 11.97 h 0.058
K1 primeira luni-solar 23.93 h 0.266
O1 lunar maior 25.82 h 0.189
P1 solar maior 24.07 h 0.088
Mf lunar quinzenal 13.66 dias 0.078
Ssa solar semi-anual 0.5 anos 0.037
S19 solar de dezanove anos 19 anos 0.033

Os estudos mais recentes das marés terrestres continuam a sua modelação


através do desenvolvimento em harmónicas – actualmente mais de 1000
componentes. Verifica-se, não surpreendentemente, que a distribuição destas
harmónicas é fractal.

1000

500
aceleração (nm.s-2)

-500

-1000

-1500
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

dia

Figura 2.15 – Marés terrestres medidas durante o mês de Dezembro de 1997 em Schiltach
(Áustria).
A figura 2.15 mostra a aceleração provocada pelas marés terrestres numa
estação europeia que mede a aceleração da gravidade em contínuo.
Um efeito importante das marés sólidas na Terra é o alongamento progressivo
da duração do dia, da ordem dos 2.4 ms/século.
As marés sólidas são imperceptíveis na Terra, excepto para os instrumentos
mais sensíveis. Mas não é assim noutros locais do Sistema Solar, em particular nas
proximidades dos planetas gigantes.

33
Io, o satélite galileano mais próximo de Júpiter é, na verdade, um pequeno
planeta um pouco maior que a nossa Lua. A sua característica mais distintiva é ser o
lugar, em todo o Universo conhecido, onde se pode observar um mais intenso
vulcanismo – com mais de cem vulcões activos já catalogados (figura 2.16).

Figura 2.16 – A erupção do vulcão Prometeu. Imagens Galileo, JPL, NASA.


A razão para Io ser tão diferente de todos os outros corpos do Sistema Solar –
só se conhecia vulcanismo silicatado activo na Terra – é a proximidade do planeta-
mãe: Júpiter. De facto, pensa-se que são as poderosas forças gravitacionais de Júpiter,
combinadas com as de Europa e Ganimedes (os outros grandes satélites mais
próximos) que, deformando Io, lhe causam um aumento de temperatura suficiente
para fundir as rochas. Estima-se que as marés sólidas (que na Terra, recorda-se,
atingem amplitudes de poucas dezenas de cm) poderão ter em Io amplitudes da ordem
dos 100 m.
2.2.8. Outras perturbações da rotação da Terra: nutação forçada e
precessão.
A sujeição da Terra às atracções combinadas do Sol e da Lua tem também
efeitos sobre a rotação do Planeta. Já vimos o movimento de oscilação de Chandler,
ou nutação livre; livre, porque as suas causas são internas. Mas há outras formas de
perturbação da rotação, de causa externa.
Se pensarmos no efeito das marés, que tende a deformar o globo, será fácil de
comprender que essa deformação, de posição variável no tempo, causará um binário
em torno do eixo que poderá tender a travar a rotação. Atente-se na figura 2.17.

34
Figura 2.17 – Rotação, precessão e nutação forçada.
No lado da Terra virado para a Lua (ou o Sol) a atracção gravitacional A1 na
proeminência equatorial é maior que a força A2 exercida no lado mais distante. Note-
se, além disso, que devido à inclinação do eixo da Terra em relação à eclíptica, A1 e
A2 não são colineares, o que produz um binário. Esse binário é mínimo (até zero) nos
equinócios e máximo nos solstícios.
A resposta de um sistema em rotação a um binário aplicado exteriormente é
adquirir uma componente adicional de momento angular paralela ao binário. No
exemplo da figura 2.17, essa componente será perpendicular ao momento angular da
Terra, h. É sempre possível decompor o binário numa componente paralela à linha dos
equinócios, τ, e outra normal contida no plano equatorial.
τ causa uma rotação e um incremento ∆h no vector momento angular; se
repetirmos este processo para posições continuamente variáveis do Sol, por exemplo,
verificamos que o eixo de rotação se move segundo um cone cujo eixo contém o polo
da eclíptica. O polo geográfico terrestre P, portanto, descreve um círculo no sentido
oposto à rotação da Terra: a precessão retrógrada, com um período de cerca de
25700 anos.
A precessão é conhecida há séculos. O seu efeito mais dramático é a variação
da estrela polar: actualmente é a Polaris, na Ursa Menor, mas para os astrónomos
egípcios, cerca de 3000 A.C. era a Alfa Draconis, a estrela mais brilhante da
constelação do Dragão.
A já referida componente de binário contida no plano equatorial é a
responsável pelas nutações forçadas: a de causa solar de período semi-anual e a lunar
de período quinzenal. Uma análise muito detalhada dos movimentos do eixo terrestre

35
mostra que há outras componentes de nutação, muito menores, causadas pelos
planetas.
É importante notar que as nutações livres são movimentos polares em torno do
eixo de rotação da Terra enquanto que as nutações forçadas e a precessão
correspondem a movimentos do próprio eixo.

2.3. A fuga ao campo gravitacional da Terra: foguetes e


satélites artificiais.
2.3.1. Órbitas. Leis de Kepler.
Baseado nos dados muito rigorosos do astrónomo dinamarquês Ticho Brahe
(1546-1601), o alemão Johannes Kepler (1571-1630) deduziu aquilo a que chamou as
três leis do movimento planetário, hoje conhecidas como leis de Kepler:
1. Todos os planetas se movem em órbitas elípticas, com o Sol num dos
focos.
2. Uma linha que una um planeta ao Sol varre áreas iguais em tempos iguais.
3. O quadrado do período da órbita de qualquer planeta é proporcional ao
cubo da distância média entre esse planeta e o Sol.
Estas leis podem ser deduzidas das leis de Newton, do movimento e da
gravitação universal mas, curiosamente, o processo histórico foi inverso: Newton
baseou-se nos trabalhos de Kepler para deduzir as suas leis.
2.3.2. Movimento circular uniforme.
Um satélite artificial em órbita livre (sem propulsão) em torno da Terra sofre
apenas as forças da gravidade. Se desprezarmos os efeitos de maré e a massa do
satélite em relação à massa da Terra, M, a aceleração centrípeta sofrida pelo satélite,
g, é dada por

v2
g= (2.79)
r

onde v é a velocidade do satélite e r a sua distância ao centro da Terra. Ora, da lei da


gravitação universal,

GM
g= (2.80)
r2

pelo que, igualando (2.79) e (2.80), vem

GM
v= (2.81)
r

o que permite determinar a velocidade de um satélite em órbita circular, sabendo


apenas a sua altitude.

36
Vejamos agora o caso de dois corpos de massas M e m em órbitas circulares,
sujeitos apenas à mútua atracção gravitacional. O centro de massa, C, deste sistema de
dois corpos encontra-se sobre a linha que une os seus centros, de tal modo que mr =
MR (veja-se a figura 2.18).

Figura 2.18. – Dois corpos em movimento circular.


Como se trata de um sistema binário simples, as velocidades de rotação de
ambos os corpos em torno de C são ambas iguais a ω. Para isto acontecer, a força
gravitacional que se exerce sobre cada um dos corpos produz as necessárias
acelerações centrípetas, que têm que ser de módulos iguais e sentidos opostos, ou seja,

m ω 2r = Mω 2R (2.82)

portanto,

mM
G 2
= mω 2 r (2.83)
(r + R )
No caso, já referido em que M é muito maior que m e, portanto, R muito maior
que r, (2.83) transforma-se em

GM = ω 2 r3 (2.84)

Se expressarmos a velocidade angular em função do período de revolução, P,


pois ω=2π/P, vem que

GM = 4 π2 r3 / P2 (2.85)

pois ω = 2π / P, ou seja, afinal,

4π 2 r 3
P= (2.86)
GM

que é, afinal, a 3ª lei de Kepler a menos de GM, e permite determinar o período orbital
de um satélite sabendo apenas a altura da sua órbita.

37
2.3.3. Elementos orbitais.
Uma elipse é uma cónica com a seguinte propriedade: a soma das distâncias de
qualquer dos seus pontos aos focos é uma constante. As linhas maior e menor que se
podem traçar entre dois pontos da elipse são, respectivamente, os seus eixos maior e
menor. Para descrever uma órbita elíptica no espaço é útil conhecer seis quantidades,
os elementos orbitais (figura 2.19):
• Eixo semi-maior
• Excentricidade
• Inclinação
• Argumento do periapse
• Tempo de passagem no periapse
• Longitude do nodo ascendente
O eixo semi-maior (metade do eixo maior) tem uma propriedade importante:
é a distância média entre cada ponto da elipse e cada um dos focos, ou seja, em termos
orbitais, é a distância média de um satélite ao seu primário. A excentricidade de uma
elipse (órbita) é a distância entre os focos dividida pelo comprimento do eixo maior, e
é um número entre zero e um. Um círculo é uma elipse de excentricidade zero.

Figura 2.19 – Elementos orbitais.


O ponto na órbita mais próximo do primário chama-se periapse e o mais
distante apoapse. Estes nomes adaptam-se geralmente ao nome do primário: periélio
e afélio para o Sol, perigeu e apogeu para a Terra, perilúnio e apolúnio para a Lua.
A inclinação orbital é a distância angular entre o plano orbital de um satélite
e o plano equatorial do seu primário (no caso de uma órbita heliocêntrica, o plano da
eclíptica), como se mostra na figura 2.18. i = 0º indica que o sentido do movimento
orbital é o mesmo da rotação do primário, caso em que se diz que esse sentido é
directo. i = 180º define-se como sentido retrógrado. i = 90º indica um órbita polar.
Os nodos são pontos em que a órbita cruza um plano de referência, como a
eclíptica: nodo ascendente, se o cruzamento se faz de Sul para Norte e nodo
descendente no caso oposto.

38
A longitude do nodo ascendente é a longitude celestial desse nodo. A
longitude celestial define-se da mesma forma que a longitude na Terra: mede-se em
graus, no sentido directo, a partir do zero que é a direcção do equinócio vernal.
O argumento do periapse é a distância angular entre o nodo ascendente e o
ponto do periapse e o tempo de passagem no periapse é o momento em que um
satélite passa no periapse.
2.3.4. Determinação de alguns elementos orbitais.
A definição do conceito de eixo semi-maior tem grandes vantagens. Por
exemplo, a equação (2.86) também é verdadeira se r for o eixo semi-maior. Vejamos
agora o caso geral de uma órbita elíptica. Consideremos um satélite de massa m em
dois pontos da sua órbita, P1 e P2, com raios vectores r1 e r2, onde tem as velocidades
v1 e v2 (figura 2.20).

Figura 2.20 – Caso geral.


Como φ é o ângulo entre r e v,

v sinφ = r ω (2.87)

r v sinφ = r2 ω (2.88)

que é constante. Assim, para os pontos P1 e P2,

r1 v1 sinφ1 = r2 v2 sinφ2 (2.89)

Ora, pelas propriedades geométricas da elipse, quer no periapse quer no


apoapse φ = 90º pelo que

rp vp = ra va (2.90)

Pelo princípio da conservação da energia, a soma da energia cinética com a


energia potencial (gravitacional) nos pontos referidos será constante, ou seja,

mv12 Mm mv 22 Mm
−G = −G (2.91)
2 r1 2 r2

39
1 1
v 22 − v12 = 2GM  −  (2.92)
 r2 r1 

Assim, das equações (2.90) e (2.92) obtemos as velocidades no periapse e no


apoapse:

ra
v p = 2GM (2.93)
rp (ra + rp )

rp
v a = 2GM (2.94)
ra (ra + rp )

o que também permite deduzir rp, ra e a excentricidade, e:

ra
rp = (2.95)
2GM
−1
v a2 ra

rp
ra = (2.96)
2GM
−1
v 2p rp

rp v 2p
e= −1 (2.97)
GM

É claro que, por definição, basta saber o eixo semi-maior, r, e a excentricidade


de uma órbita para conhecer rp e ra:

rp = r(1-e) (2.98)

ra = r(1+e) (2.99)

Note-se que, além disso,

rp + ra = 2r (2.100)

2.3.5. Classificação dos tipos de órbitas de satélites artificiais.


2.3.5.1. Órbitas geossíncronas e geoestacionárias.
As órbitas geossíncronas são órbitas circulares, de baixa inclinação, de
sentido directo, com período igual ao dia terrestre (23h 56m 4s). Um satélite artificial
em órbita geoessíncrona parece estar suspenso sobre a Terra, a uma latitude constante,

40
embora possa aparentar mover-se um pouco no sentido Norte-Sul. As órbitas
geoestacionárias (GEO) são órbitas geossíncronas de inclinação zero. Um satélite
artificial em GEO parece estar suspenso, imóvel, sobre um ponto na superfície
terrestre. São as órbitas ideais para alguns tipos de satélites militares, de
comunicações ou meteorológicos.
Para atingir uma órbita geossíncrona, um veículo é lançado a partir de uma
base o mais próxima possível do Equador, para Este, numa órbita elíptica chamada
órbita de transferência geossíncrona (GTO). Esta é uma órbita com apogeu a cerca
de 37000 km de altitude. Quando o veículo atinge o apogeu dispara os seus motores
(motores de apogeu) até circularizar a órbita. É costume classificar os veículos
(foguetes), de acordo com a massa que conseguem transportar em GTO.
2.3.5.2. Órbitas polares.
São órbitas com inclinação de 90º, particularmente indicadas para missões de
cartografia e monitorização ambiental global. Nestas órbitas o plano orbital está fixo
no espaço inercial e o planeta roda no seu interior expondo toda a superfície aos
instrumentos do satélite. Atingir uma órbita polar requer mais energia (combustível)
que uma órbita de baixa inclinação dado que nestas a velocidade de rotação da Terra
se soma à velocidade do veículo. Para atingir uma órbita polar o veículo é lançado
para Norte, de uma base próxima do Equador. Daqui se vê porque a base espacial
francesa de Kourou, na Guiana Francesa, é considerada a mais versátil: situa-se quase
no Equador, junto a uma costa de orientação aproximadamente NW-SE, que permite
lançamentos eficientes tanto para órbitas polares como geossíncronas.
2.3.5.3. Órbitas móveis.
Um satélite em órbita está sujeito a muitas influências gravitacionais, não só
do Sol, da Lua e de outros planetas (efeitos de maré), mas da própria inomogeneidade
do campo gravítico terrestre. É possível tirar partido técnico destes efeitos para
induzir, sem custo acrescido de combustível, uma precessão no plano orbital do
satélite.
2.3.5.4. Órbitas heliossíncronas.
As órbitas heliossíncronas (SSO) são órbitas móveis cujo plano precede com o
mesmo período que o período orbital do planeta em torno do Sol. Nestas órbitas os
satélites atingem o periapse aproximadamente no mesmo tempo local em cada órbita.
Isto é muito útil, por exemplo, em aplicações de fotografia que estejam dependentes
de ter sempre o mesmo ângulo dos raios solares sobre o planeta. Para manter uma
SSO é sempre necessário fazer correcções de ajuste orbital periodicamente.
2.3.5.5. Órbitas Molniya.
São órbitas de grande inclinação, quase polares, de grande excentricidade, com
perigeu a cerca de 400km e apogeu a cerca de 40000km. São usadas sobretudo em
satélites de comunicações que pretendam obter uma boa cobertura das regiões polares.
2.3.5.6. Órbitas de transferência de Hohmann.
Estas são órbitas interplanetárias: aquelas que consomem o mínimo de
combustível na transferência de um veículo da órbita de um planeta para a órbita de
um outro (figura 2.21).

41
Figura 2.21 – Órbita de transferência de Hohmann, da Terra para Marte.
Posições: 1 – Terra à partida; 2 – Terra à chegada
3 – Marte à Partida; 4 – Marte à chegada
2.3.6. Lançamento de um veículo espacial
O lançamento de um veículo consiste num período de vôo propulsionado,
durante o qual o veículo é elevado acima da atmosfera e acelerado até à velocidade
orbital por motor(es) de foguete.

Figura 2.22 – Parâmetros do lançamento.


Este vôo propulsionado conclui-se quando termina o combustível do último
andar do foguete propulsor (momento chamado de burnout). Neste momento o
veículo inicia a fase de vôo livre. No vôo livre considera-se que a única influência
que o veículo sofre é a da gravidade, embora por vezes tenha que se considerar outras
influências, como, por exemplo, para as trajectórias muito baixas (LEO, Low Earth
Orbits), o atrito das camadas superiores da atmosfera que, embora muito rarefeita, não
é desprezável para as grandes velocidades orbitais.
A órbita de um veículo espacial é determinada se se conhecer a posição e a
velocidade do veículo no início do vôo livre, ou seja, se se souber r, a distância do
veículo ao centro da Terra, v, a sua velocidade, e φ, o ângulo entre o raio-vector e o
vector velocidade (Figura 2.22).

42
Sejam r1, v1 e φ1 os valores iniciais (no lançamento) de r, v e φ. Se P2 for o
perigeu, então a equação (2.89) fica

r1v1 sin φ1
v2 = v p = (2.101)
rp

Substituindo a equação (2.101) na equação (2.92), obtém-se uma equação para


o raio no perigeu, rp:

r12 v12 sin 2 φ1  1 1


− v 2
= 2GM  −  (2.102)
rp2
1 r 
 p r1 

Multiplicando ambos os lados por –rp2/(r12v12), e fazendo C = 2GM/(r1v12)


obtém-se

2
 rp  r
(1 − C )  + C p − sin 2 φ1 = 0 (2.103)
 r1  r1

que é uma equação quadrática simples em (rp/r1); resolvendo-a em ordem a este


quociente dá

rp − C ± C 2 − 4(1 − C )( − sin 2 φ1 )
= (2.104)
r1 2(1 − C )

Como qualquer equação de 2º grau, esta tem duas raízes: a menor é o raio no
perigeu, rp, e a maior o raio no apogeu, ra. Resolvendo esta equação e recorrendo às
equações (2.98) e (2.100) é possível determinar a excentricidade da órbita, e. É,
contudo, mais simples determiná-la directamente por

2
 r v2 
e = sin φ1  1 1 − 1 + cos 2 φ1
2
(2.105)
 GM 

Mas há infinitas órbitas com os parâmetros rp, ra, vp e va. Para localizar a
órbita exactamente no espaço por referência à Terra é necessário saber ainda o ângulo
θ entre o ponto de lançamento e o perigeu:

r1v12 cos φ1
tan θ = sin φ1 (2.106)
GM r v2
sin 2 φ1 1 1 − 1
GM

43
2.3.7. Velocidade de escape
A velocidade de escape para um planeta (ou outro corpo) é a velocidade
mínima que é necessário imprimir a um veículo para o colocar em órbita. Vejamos
como se determina, para o caso da Terra, facilmente adaptável a qualquer outro corpo.
A energia total de um corpo em órbita da Terra é a diferença entre a sua
energia cinética e o seu potencial gravítico, de tal modo que

1 mM
E= mv 2 − G (2.107)
2 r

Se o corpo se mover numa órbita elíptica, a força (centrípeta) que age sobre
ele é dada por

mv 2
F= (2.108)
r

como já vimos. Ora, para que a órbita esteja em equilíbrio é necessário que aquela
força seja igual à atracção gravitacional dada pela lei de Newton,

mv 2 mM
=G 2 (2.109)
r r

donde decorre que

1 2 1 mM
mv = G (2.110)
2 2 r

reduzindo-se a equação (2.110) a

mM
E = −G (2.111)
2r

A principal consequência de (2.111) é que todas as trajectórias elípticas


(incluindo as circulares) têm uma energia total negativa (E<0). Para E>0 (57) as
trajectórias são hipérboles e o corpo tende a escapar à atracção do campo
gravitacional terrestre. Estas são as trajectórias das sondas interplanetárias, como as
Pioneer. Para E=0, as trajectórias são parábolas (Figura 2.23).
Vejamos como é possível determinar a velocidade necessária com que um
corpo deve ser lançado da Terra para atingir o infinito, a chamada velocidade de
escape.
Com base no exposto anteriormente, a condição necessária e suficiente será
E>0 na equação (2.111). Fazendo

1 2 mM
mv e − G =0 (2.112)
2 r

44
vem que

M
ve = 2G = 1.12 × 10 4 ms −1 ≅ 40300km/h (2.113)
R

Figura 2.23 – Trajectórias de uma partícula lançada horizontalmente de uma altura h acima da
superfície da Terra, com uma velocidade v0.
A expressão anterior tem duas consequências imediatas: a primeira é que,
apesar da atracção gravitacional se exprimir como uma aceleração, um movimento
uniforme é suficiente para lhe escapar; a segunda é que a velocidade ve é independente
da massa do corpo (foguete, satélite). Note-se, contudo, que a força necessária para
colocar um corpo em órbita depende, essa sim, da massa do corpo – é referida
normalmente como empuxo do foguete.
2.3.8. Empuxo.
O empuxo é a força que propulsiona um foguete. Esta força é obtida pela
expulsão muito rápida de gases de combustão do motor do foguete, no sentido
contrário ao do movimento, como decorre do princípio newtoniano da acção-reacção.
Um tripulante de um veículo espacial em órbita tem a sensação de ausência de
peso porque a componente radial da aceleração do veículo é igual e oposta à atracção
gravitacional da Terra. A propulsão (aplicação de empuxo) permite aumentar a
velocidade do veículo (ou diminuí-la se aplicada no sentido do movimento). Como já
vimos que há uma relação directa entre velocidade e altitude (equação 2.90), ao
fornecer empuxo a um veículo está-se a alterar a sua órbita.
Em termos gerais:
1. Para aumentar a altitude no apogeu aumenta-se a velocidade no
perigeu (disparam-se os motores “para trás”);
2. Para aumentar a altitude no perigeu aumenta-se a velocidade no
apogeu;
3. Para diminuir a altitude no apogeu diminui-se a velocidade no perigeu
(disparam-se os motores “para a frente”);

45
4. Para diminuir a altitude no perigeu diminui -se a velocidade no apogeu.
É claro que uma variação da velocidade em qualquer ponto da órbita tem as
mesmas consequências. Por exemplo, é sabido que os veículos em LEO, quando
deixados à sua sorte – como no caso da Estação Espacial MIR, no fim da sua vida –
por efeito do atrito nas camadas mais altas da atmosfera vão perdendo velocidade e,
consequentemente, altitude, até que são destruídos pelo atrito da entrada na atmosfera
mais densa. O interesse de manobrar nos pontos de apogeu e perigeu (ou,
genericamente, periapse e apoapse) é que o cálculo dos resultados da manobra é muito
mais simples e exacto.
As manobras de mudança de altitude não alteram o plano orbital. Para
executar mudanças de plano, os foguetes são disparados na perpendicular ao plano
orbital.
Estas manobras consomem muito mais combustível que as manobras
coplanares, pelo que as missões espaciais procuram reduzi-las ao mínimo
indispensável.
2.3.9. Por curiosidade: os propergóis.
Chama-se propergol à mistura de substâncias químicas cuja combustão
produz o empuxo num motor de foguete. Um propergol é geralmente constituído por
dois componentes: um oxidante e um combustível. Um propergol que entra
expontaneamente em combustão em contacto com o oxidante, sem uma fonte de
ignição exterior, designa-se de hipergólico. O melhor exemplo de hipergol é a
hidrazina, somente usada nos pequenos foguetes de manobra dos veículos espaciais,
que é hipergólica com o ácido nítrico e o tetróxido de azoto. Compreender-se-á que a
hidrazina é de armazenamento e manuseamento muito delicado – além de tudo, é
extremamente tóxica...
Os propergóis classificam-se geralmente, quanto ao estado físico dos seus
componentes, em líquidos, sólidos e mistos (Tabelas 2.5 e 2.6).

Tabela 2.5 – Propergóis líquidos mais comuns


Ponto Ponto de
Peso
Função Composto Fórmula densidade de fusão ebulição
molecular
(ºC) (ºC)
Oxigénio líquido O2 32.00 1.141 -218.8 -183.0
Oxidantes Tetróxido de azoto N2O4 92.01 1.450 -9.3 21.2
Ácido nítrico HNO3 63.01 1.550 -41.6 83.0
Hidrogénio líquido H2 2.016 0.071 -259.3 -252.9
Hidrazina N2H4 32.05 1.004 1.4 113.5
Metil hidrazina CH3NHNH2 46.07 0.866 -52.4 87.5
Combustíveis
Dimetil hidrazina (CH3)2NNH2 60.10 0.791 -58.0 63.9
Dodecano C12H26 170.34 0.749 -9.6 216.3
(querosene)

46
Tabela 2.6 – Propergóis sólidos mais comuns
Nome Composição
Cordite (RUS) Nitrocelulose (56.5%); Nitroglicerina (28.0%); Plastificante (4.5%); Outros (11.0%)
Balistite (USA) Nitrocelulose (51.5%); Nitroglicerina (43.0%); Plastificante (1.0%); Outros (4.5%)
Propergol SRB Pó de Alumínio, combustível, (16.0%); Perclorato de Amónio, oxidante, (69.93%);
(USA) Pó de Ferro, catalisador, (0.07%); Acrilonitrilo de Ácido Acrílico Polibutadieno,
agregante, (12.04%); Resina Epoxídica, curante (1.96%)

Os propergóis líquidos têm a vantagem de os motores neles baseados poderem


ser parados e reiniciados e de a velocidade de reacção poder ser, em certa medida,
variada, pela variação das pressões relativas de injecção de combustível e oxidante na
câmara de combustão. Têm o inconveniente de o seu armazenamento e
manuseamento ser difícil, até porque muitos só são líquidos a temperaturas muito
baixas. Os propergóis sólidos, por seu lado, são estáveis, permitem o armazenamento
prolongado, a câmara de combustão é “esculpida” no próprio material, não
necessitando dos complicados sistemas de condutas e válvulas dos líquidos. Têm,
contudo, um enorme inconveniente: um motor de propergol sólido, uma vez iniciado,
não pode mais ser parado até ao consumo total dos materiais.
Os motores de propergóis mistos são de execução técnica muito complexa.
Neles, o oxidante, líquido, é injectado na câmara de combustão que é o combustível,
sólido. Procurou-se assim conciliar as vantagens de ambos os tipos de propergóis. Os
primeiros resultados práticos, notáveis, obtiveram-se já em 2004 com o primeiro voo
suborbital privado (o Spaceship One de Burt Rutan).

2.4. Medidas da gravidade. Gravímetros.


2.4.1. O gal. Variação da gravidade com a latitude.
Em geofísica aplicada, a aceleração da gravidade é geralmente medida numa
unidade, o gal, de tal forma que
1 gal = 10 -2 m .s-2
o que implica que a aceleração da gravidade na superfície de uma terra esférica seria
em toda a parte de 980 gal. Sabemos, no entanto, que não é assim.
Por isso, a União Internacional de Geodesia e Geofísica adopta actualmente a
seguinte fórmula que traduz a aceleração teórica da gravidade, gt, no elipsóide de
referência (que já vimos ser um elipsóide de revolução oblato com achatamento polar
de 1/298.25):

gt = 978.03267715 (1 + 0.0052790414 sin2 φ


+ 0.0000232718 sin4 φ
+ 0.0000001262 sin6 φ
+ 0.0000000007 sin8 φ ) gal (2.114)

onde φ é a latitude. O desvio da esfericidade faz com que haja variação de gt entre
cerca de 978gal no Equador e cerca de 983gal no Polo Norte, ao nível do mar (figura

47
2.24). A Fórmula Internacional da Gravidade de 1980 (eq. 2.114) tem um erro relativo
de 10-10, que equivale a 10-4 mgal.

90

70

50

30
latitude (grau)

10

-10

-30

-50

-70

-90
978 979 980 981 982 983 984
aceleração da gravidade (gal)

Figura 2.24 – Variação da gravidade com a latitude

2.4.2. Gravímetros dinâmicos.


2.4.2.1. Método de queda livre.
Na prática, como é que se mede a aceleração da gravidade num ponto?
Intuitivamente, parece que o melhor método será a determinação do tempo que uma
massa conhecida leva para cair uma distância conhecida no vácuo. Existem, de facto,
gravímetros construídos com base neste princípio mas são demasiado dispendiosos e
volumosos para permitir um uso corrente no campo, em prospecção, dado o imenso
rigor necessário nas determinações da massa, da distância e do tempo. Mesmo assim,
o gravímetro de queda livre é o único a permitir ainda hoje medições absolutas,
rigorosas, de g.
A equação deste gravímetro é simplesmente a equação fundamental da
cinemática

1 2
e = e0 + v0t + gt (2.115)
2

onde e é a distância de queda, e0 a distância inicial, v0 a velocidade inicial e t o tempo


de queda. Na prática, a determinação rigorosa dos parâmetros físicos obtém-se por
interferometria laser.
Mesmo assim, surgem outros problemas técnicos. Por exemplo, é evidente que
a massa (na verdade um ‘canto’ de cubo espelhado) deve cair no vácuo para que o
atrito com as moléculas de ar não reduza o valor aparente de g. Ora, o vácuo absoluto
é uma impossibilidade pelo que, nos gravímetros mais sofisticados deste tipo, o
espelho está contido numa câmara de vácuo e é o conjunto que cai (dentro de outra

48
câmara evacuada) pelo que, em princípio, a massa se encontra imóvel em relação às
moléculas de ar residuais (figura 2.25).

Figura 2.25 – Gravímetro absoluto fg5. Cortesia Micro-G Solutions, Inc.


2.4.2.2. Método da “subida e descida”.
Uma outra técnica para minimizar os efeitos do atrito consiste em projectar a
massa verticalmente de baixo para cima e medir os tempos dos percursos ascendente e
descendente. Note-se que aqui o vector atrito das moléculas residuais de ar é dirigido
para baixo no percurso ascendente e para cima no descendente pelo que os dois
tendem a anular-se.
Neste método medem-se os tempos T1 e T2 que a massa está acima de dois
níveis de referência distantes h. Assim, os tempos de queda a partir dos dois níveis
serão, claro, t1=T1/2 e t2=T2/2. Sejam e1 e e2 as distâncias percorridas desde o ponto
de inflexão da trajectória até aos níveis de referência:

2 2
1  T1  1  T2 
e1 = g  e2 = g  (2.116)
2 2 2 2

pelo que a distância h será dada por

1
h = e1 − e2 =
8
(
g T12 − T22 ) (2.117)

donde

49
8h
g= (2.118)
(
T − T22
1
2
)
Qualquer um destes métodos permite obter o valor de g com uma precisão da
ordem dos 5 a 10 µGal.
Mas o “pai de todos os gravímetros” é evidentemente o pêndulo.
2.4.2.3. O pêndulo.
Até muito recentemente (finais da década de 60) os únicos gravímetros que se
usaram correntemente, mesmo em trabalhos de campo, foram os pêndulos. Mas o
estudo da utilização do pêndulo como gravímetro tem mais que um simples interesse
histórico: permite uma compreensão mais profunda dos mecanismos da gravidade e é
fácil de reproduzir com equipamento de construção simples e pouco dispendiosa
tendo, por isso, grande valor didáctico. É sabido que o período T dum pêndulo não
depende da massa mas apenas do seu comprimento l (e, claro, de g). Assim,

4π 2 l
g= (2.119)
T

Isto é muito simples em teoria mas extremamente difícil de realizar na prática.


Senão, vejamos: se quisermos ter uma precisão de 1 mgal na medida absoluta de g
com um pêndulo de comprimento l de cerca de 1 m, teremos que conhecer l com uma
precisão de 1micron (10-6 m).

h1

h2

Figura 2.26 – Pêndulo reversível.


Uma solução engenhosa para o problema da determinação do comprimento do
pêndulo foi o chamado pêndulo reversível. Este consiste numa barra rígida de massa
conhecida M, que pode ser suspensa por um de dois fulcros situados a distâncias h1 e
h2 do seu centro de gravidade (figura 2.26).
Note-se que seria tecnicamente muito difícil ajustar as distâncias h1 ou h2 de
modo a que o período do pêndulo fosse o mesmo em qualquer das posições de

50
suspensão. É muito mais fácil dispor-se de uma pequena massa m que pode ser
aproximada ou afastada do centro de gravidade até que os períodos sejam iguais. Se
isto for feito, o período do pêndulo vem

T = 2π
(h1 + h2 ) (2.120)
g

donde se tira g

h1 + h2
g = 4π 2 (2.121)
T2

pelo que nem sequer é preciso conhecer a posição do centro de gravidade da barra:
basta medir h1+h2. Note-se que esta é a equação de um pêndulo de comprimento total
l=h1+h2.
Mesmo assim, é muito difícil fazer com que os períodos T1, em torno de A, e
T2, em torno de B, sejam exactamente iguais, o que não constitui impedimento. Da
equação (2.120) vem que

4π 2 2 2 2 2
T2 = (h1 + h2 ) = T1 + T2 + T1 − T2 h1 + h2 (2.122)
g 2 2 h1 − h2

Resta-nos agora resolver o problema da determinação tão exacta quanto


possível de T !
Vejamos a técnica clássica. O período de um pêndulo é inversamente
proporcional à raiz quadrada de g

1
Tα (2.123)
g

pelo que as variações em g e T se relacionam por

δT 1 δg
=− (2.124)
T 2 g

Se usarmos um pêndulo com período de cerca de 1 s e pretendermos uma


precisão de 1 mgal em g, então

δT / T ≈ -(1/2) (10-3/980) ≈ -1/(2×106) (2.125)

ou seja, o período tem que ser conhecido com uma precisão da ordem de uma parte
em dois milhões. Para este fim, desenvolveu-se o chamado método da coincidência.
Suponha-se que o período do pêndulo é (1+ε) segundo, com ε muito pequeno.
Se observarmos a oscilação deste pêndulo a intervalos de exactamente 1s, ver-se-á
que o ângulo de fase do pêndulo variará gradualmente até que, depois de um intervalo

51
de tempo C (o intervalo de coincidência), as variações de fase terão acumulado um
ciclo completo, 2π (=0). Se o período do pêndulo fosse de um pouco menos de 1s,
teria oscilado (C+1) vezes em C segundos e, inversamente, se o período fosse maior
que 1s o pêndulo oscilará (C-1) vezes em C segundos. Deste modo, o período
verdadeiro de oscilação do pêndulo será

T = C / (C±1) (2.126)

Analisemos as vantagens deste procedimento. De (130) vem que

δT δC δC
=± ≈± 2 (2.127)
T C (C ± 1) C

desde que C seja muito maior que 1. Vejamos um exemplo prático. Se o período for
de (1±1/50)s o intervalo de coincidência será de 50 s de tal forma que

δT/T ≈ ±δC/2500 (2.128)

Se, como enunciámos, quisermos obter uma precisão de uma parte em dois
milhões no período, a precisão necessária na determinação do intervalo de
coincidência será

δC = 5×10-7×2500 ≈ 1.3×10-3s (2.129)

que é uma precisão da ordem apenas do milésimo de segundo.


Não se pense, contudo, que quanto maior o intervalo de coincidência mais
fácil é encontar o período do pêndulo. Para intervalos excessivamente longos torna-se
cada vez mais difícil decidir em que instante é que a diferença de fase é exactamente
zero, pelo que, na prática, o intervalo mais adequado é da ordem dos 50 s.
Temos estado a referir métodos de determinação absoluta da gravidade.
Grande parte dos problemas técnicos podem-se simplificar se procurarmos apenas
saber a diferença entre as acelerações da gravidade em dois pontos – medição relativa.
Um pêndulo também permite a medição relativa, senão vejamos:
diferenciando (69) em ordem a T vem que

∆g = -2g ∆T / T = -2g (T2 - T1) / T1 (2.130)

em que T1 e T2 são os períodos medidos em duas estações. Assim, se conseguirmos


medir os períodos em duas estações com precisão da ordem do ms, ∆g virá com
precisão da ordem de 1mgal. Os gravímetros relativos de pêndulo também foram
abandonados, fundamentalmente por a sua operação ser complexa e morosa e a sua
sensibilidade ser insuficiente.
2.4.3. Gravímetros estáticos.
2.4.3.1. Balança de torção.
Vimos até agora vários tipos de gravímetro que procuram medir directamente
a aceleração de corpos sujeitos à atracção gravitacional, os gravímetros dinâmicos.

52
Outro tipo de gravímetro é a balança de torção (figura 2.27 – comparar com a
figura 2.2). Este equipamento baseia-se na existência de duas massas iguais separadas,
quer na horizontal, quer na vertical, por barras rígidas. As posições relativas das
massas estão relacionadas com o valor de g. Este tipo de gravímetro tem a vantagem
de permitir determinações de componentes direccionais do campo, como o gradiente,
e ainda de permitir a medição em contínuo de g para determinar as suas variações
temporais. A sua pouca sensibilidade faz com que hoje tenha sido abandonado.

m
espelho
m

registo fonte luminosa

Figura 2.27 – Balança de torção.

2.4.3.2. Balanças dinamométricas.


Já vimos que há relações íntimas, embora não lineares, entre os campos
gravítico e de peso: o peso de um corpo é proporcional à sua massa (invariante) e à
aceleração da gravidade. Ocorre naturalmente, portanto, usar o peso de um corpo
como medida de g. Para esse efeito usa-se um grupo de gravímetros que são, na
verdade, balanças dinamométricas. Todos estes aparelhos são constituídos,
basicamente, por uma massa suspensa de uma mola; o alongamento da mola é
proporcional a g (para isso usam-se as chamadas molas de comprimento zero).
Este grupo de gravímetros inclui os gravímetros estáveis, em que a massa é
suportada numa posição de equilíbrio estável (figura 2.28) e os gravímetros instáveis,
em que o mais ínfimo movimento da massa é amplificado por esta se encontrar em
equilíbrio instável (figura 2.29). Outros gravímetros dinamométricos são os modelos
Worden (figura 2.30) e Lacoste-Romberg, os mais usados hoje em dia (figura 2.31 e
2.32).

53
M

fulcro

Figura 2.28 – Esquema de gravímetro estável.

fulcro

Figura 2.29 – Esquema de gravímetro instável.

fixo

Figura 2.30 – Esquema de gravímetro Worden.

54
Figura 2.31 – Esquema de gravímetro Lacoste-Romberg.

Figura 2.32 – Gravímetro portátil Graviton-EG. Cortesia Lacoste-Romberg.

2.4.3. Gravimetria por satélite.

Figura 2.33 – O geóide, com anomalia exagerada, medido pelo satélite CHAMP. ©GFZ, Potsdam.

55
Figura 2.34 – Anomalia gravimétrica em Marte, centrada na região de Tharsis, obtida pela sonda
Mars Global Surveyor. Imagem MOLA Science Team, NASA, JPL.
Dado que hoje é possível conhecer a posição de um satélite com precisões da
ordem do centímetro, pelo efeito Doppler sofrido pelo sinal de comunicações, é
possível comparar essa posição com a correspondente à órbita teórica. Filtrados os
efeitos de maré, a anomalia resultante deve-se à heterogeneidade da distribuição de
massas na Terra. Este processo tem permitido aumentar grandemente o conhecimento
do campo gravitacional do nosso planeta – e de outros (figuras 2.33 e 2.34).

2.5. Correcções às medidas. Anomalia de Bouguer.


2.5.1. Factores que influenciam as medidas da gravidade. Anomalia.
O valor da aceleração da gravidade num ponto real da superfície real da Terra
é influenciado por cinco factores:
a) latitude
b) altitude
c) topografia da área envolvente
d) marés
e) variações sub-superficiais da densidade.
O principal objectivo da gravimetria é a determinação do último daqueles
factores. Quando fazemos medidas da aceleração da gravidade temos, portanto, que as
corrigir de modo a que os seus valores sejam aqueles que teriam sobre uma superfície
equipotencial do campo, como o geóide.
A diferença entre o valor corrigido de g e o valor teórico que se esperaria
sobre o geóide toma o nome de anomalia gravimétrica e deve-se, essencialmente, ao
factor que procuramos: a variação da densidade.
O conceito de anomalia é central em toda a Geofísica.
Como é evidente, a amplitude e a extensão de uma anomalia estão
relacionadas com as dimensões da fonte, com a sua profundidade e com a orientação
do perfil em relação à geometria da fonte.

56
12

hmax
10

6
w h max / 2

0
0 50 100 150 200

-2

-4

Figura 2.35 – “Largura a meia altura” de uma anomalia.


Para definir a amplitude de uma anomalia, basta ter definido o nível zero – em
gravimetria, o nível do geóide. Já a definição do seu comprimento de onda é um
pouco mais subjectiva.
Na prática considera-se, não o comprimento de onda, mas a extensão da
anomalia, definida como a distância horizontal entre dois pontos de inflexão do perfil
separados por um ou mais valores extremos (máximos ou mínimos locais). Um
conceito sem dúvida muito mais fácil de determinar por métodos gráficos, até porque
é baseado na amplitude, é a “largura a meia altura” da anomalia, w, distância entre
pontos consecutivos a que se atingiu metade do máximo da anomalia (figura 2.35).
A importância deste conceito decorre de haver relações entre a largura a meia
altura e a profundidade da fonte da anomalia. De um modo geral, pode dizer-se que a
profundidade da fonte é da ordem do dobro da largura a meia altura. Estes
conceitos serão aprofundados adiante, quando se tratar da inversão de dados
gravimétricos.
2.5.2. Correcção da deriva temporal .
O tratamento dos dados de uma campanha de prospecção geofísica, qualquer
que seja o método utilizado, começa com a correcção da deriva temporal, caso esta
seja necessária.
Sempre que as variações temporais do campo total sejam de ordem a mascarar
a anomalia que se prospecta, estas têm que ser filtradas. Isto passa-se, tipicamente, nas
seguintes condições:

57
44.0

42.0
mgal

40.0

38.0
0 5 10 15 20 25
leituras
leit. base leituras l.corrigidas deriva

Figura 2.36 – Correcção da deriva temporal.


− anomalias de grande comprimento de onda e baixa amplitude
− perfis muito longos
− prospecção de corpos profundos
− prospecção a altas latitudes
O método mais simples para corrigir a deriva temporal consiste em fazer
periodicamente leituras na estação de base, anotando a hora da leitura.
Assume-se que a deriva é linear e que o tempo entre cada leitura nas estações
de medida é constante. Assim, se se projectarem as leituras da deriva contra os tempos
de cada leitura e se ajustar uma curva aos pontos assim obtidos – curva de deriva
temporal – os valores da curva podem ser subtraídos às leituras em cada estação de
medida, à hora a que a medida foi realizada (Figura 2.36).
2.5.3. Correcção de latitude.
Viu-se atrás que as medidas gravimétricas são, quase sempre, medidas
diferenciais (∆g). Isto faz-se escolhendo um ponto de referência – estação base – ao
qual as medições nas estações de medida são referidas. Idealmente, deveria ser
conhecido o valor absoluto de g para a base se pretendêssemos que as diferenças
fossem referidas ao geóide. Na prática, a base funciona como mais uma estação e as
medidas são referidas a uma superfície equipotencial do campo que é desconhecida.
Isto não influencia os resultados sempre que se pretender apenas o conhecimento da
anomalia gravimétrica.
Já vimos que g cresce para os pólos. Há, portanto, uma variação do valor de g
que é atribuível exclusivamente à latitude. Se diferenciarmos (2.114) vem que

∆gφ / ∆s = (1 / Re)∆g / ∆φ = 0.000811 sin 2φ mgal/m (2.131)

em que ∆s é a distância medida na direcção N-S (=Re∆φ), Re é o raio médio da Terra


(c. 6368 km) e φ é a latitude.
A expressão (2.131) deve ser usada apenas no caso, habitual, em que ∆s <
2km. Caso contrário deve usar-se

58
∆gφ = 5172.3 (sin2 φ1 - sin2 φ0) mgal (2.132)

em que φ0 e φ1 são, respectivamente, as latitudes da base e da estação de medida.


A correcção de latitude é subtraída se a estação de medida está a uma latitude
mais alta que a base e adicionada no caso contrário.
2.5.4. Correcção de altitude ou de ar livre.
Da equação da gravitação universal de Newton deduz-se facilmente que g
aumenta em magnitude quando nos aproximamos do centro da Terra, e diminui com a
altitude. Se as estações de base e de medida não estiverem à mesma cota, introduz-se
a chamada correcção de ar livre. Diferenciando a equivalente escalar da equação da
gravitação universal (2.16) vem que

∆gAL / ∆R = 2GMe / Re3 = 2g / Re = 0.3086 mgal/m (2.133)

onde ∆R é a diferença de cotas e Me é a massa da Terra.


A aplicação rigorosa desta correcção, tal como das seguintes, requer um
conhecimento de ∆R com uma grande precisão (vd. tabela 2.7, abaixo). Este é um dos
factores que mais encarecem a gravimetria.
A correcção de ar livre é subtraída se a estação de medida está a uma cota
mais baixa que a base e adicionada no caso contrário.
2.5.5. Correcção de Bouguer.
A correcção de ar livre só considera a diferença nas distâncias entre as
estações e o centro da Terra. Não considera a influência da quantidade nem do tipo de
material que se encontra entre as duas cotas. Se as estações de base e de medida
estivessem situadas, a cotas diferentes ∆R, separadas por um prisma de rocha com
densidade uniforme ρ e extensão lateral infinita, a correcção de Bouguer é dada por

∆gB / ∆R = 2πGρ = 0.04192ρ mgal/m (2.134)

Evidentemente, a correcção de Bouguer aplica-se no sentido inverso à de ar


livre.
Em áreas de estratificação sub-horizontal, onde haja um apreciável contraste
de densidades, deve-se usar a forma generalizada da expressão anterior:

∆gB = 0.04192 (ρ1h1 + ρ2h2 + … + ρnhn) (2.135)

onde os ρn são as densidades dos vários estratos de espessura hn.


2.5.6. Correcção topográfica, ou de terreno.
Ao calcular a correcção de Bouguer assumimos, que a quantidade de rocha
existente entre as cotas da base e da estação de medida tem a forma de um prisma com
extensão lateral infinita; sabemos que a realidade é diferente. As variações laterais da
topografia influem sobre as medidas. Assim, uma elevação ao lado da estação exerce
atracção para cima; por outrolado, um vale ao lado da estação reduz a atracção que
fora calculada pela correcção de Bouguer.

59
A correcção topográfica tem várias características próprias. Em primeiro lugar
porque é casuística: não existe nenhuma fórmula de aplicação geral, pelo que os
efeitos dos diversos acidentes topográficos devem ser calculados isoladamente, e
depois adicionados. Por outro lado, a correcção topográfica deve ser aplicada também
à estação base, mesmo que para esta se possuam medidas gravimétricas absolutas. A
correcção que se soma às leituras é

∆gT = ∆gT (base) - ∆gT (estação) (2.136)

Além disso, ao contrário das anteriores, a correcção topográfica é sempre


somada. É fácil compreender porquê:
• no caso de um ‘monte’, este exerce atracção para cima sobre uma estação
situada a cota inferior, pelo que reduz a intensidade da atracção gravitacional
teórica: a correcção soma-se;
• no caso de um ‘vale’ situado a uma cota inferior à da estação note-se que, ao
calcular a correcção de Bouguer, se considerou que o prisma de rocha que xistiria
entre os níveis da base e da estação seria contínuo, pelo que subtraímos o
contributo de uma atracção que não existia: para compensar este erro a correcção
soma-se também.
Embora o cálculo da correcção topográfica seja lento e laborioso deve ter-se
em conta que a atracção resultante dos acidentes topográficos varia inversamente com
o quadrado da distância, pelo que só se consideram os acidentes mais próximos, na
prática, apenas aqueles cuja diferença de cotas seja maior que 20 vezes a sua distância
à estação.
O procedimento tradicional de cálculo da correcção topográfica é o seguinte:
traça-se, em papel transparente, um círculo dividido em coroas e sectores circulares
(figura 2.37).

Figura 2.37 – Correcção topográfica.

60
Sobrepõe-se este círculo à carta topográfica, centrado na estação para a qual se
pretende obter a correcção. A contribuição de cada elemento de área do círculo é dada
por

δgT = Gρθ [(re-ri) + (ri2+∆z2)1/2 – (re2+∆z2)1/2] mgal (2.137)

onde θ é o ângulo do sector, em radianos, ∆z = |zs–za|, em que zs é a cota da estação e


za é a cota média do elemento de área, re e ri são os raios externo e interno da coroa a
que pertence o elemento de área.
A correcção topográfica total para uma estação é, assim, a soma dos
contributos de todos os elementos:

∆g T = ∑∑ δg T (r , θ ) (2.138)
r θ

2.5.7. Outras correcções.


Vimos até agora as correcções que nos permitem reduzir uma medida da
aceleração da gravidade ao valor que essa medida teria se fosse feita sobre o geóide.
Estas correcções decorrem naturalmente da análise física teórica do campo gravítico.
Na prática, contudo, na maioria das vezes é necessário introduzir outras correcções
que decorrem dos próprios procedimentos de medida.
2.5.7.1. Correcção de deriva.
Chama-se deriva instrumental à diferença entre medidas realizadas nas
mesmas condições, pelo mesmo equipamento, em tempos diferentes. A este efeito
vem juntar-se o efeito das marés. Ambos podem ser corrigidos pela chamada
correcção de deriva que consiste em repetir medidas na estação base (ou outras) em
tempos conhecidos, ajustar as variações observadas a uma curva de deriva temporal,
e subtrair às leituras os valores da deriva obtidos a partir da curva. Este é, afinal, o
método já visto atrás, na secção 2.5.2.
2.5.7.2. Correcção estaca-tripé.
Esta correcção deve-se ao facto do gravímetro não ser assente directamente no
solo, mas sim num tripé com altura de 30 a 50 cm, consoante o fabricante. É
simplesmente incluída na correcção de ar livre.
2.5.7.3. Correcção de Eötvös.
As medidas de gravimetria não se efectuam necessariamente só em terra. Têm-
se realizado com sucesso campanhas gravimétricas no mar, com os gravímetros
instalados a bordo de navios. Também já são usados equipamentos transportáveis a
bordo de helicópteros num movimento lento a altitude constante. Levanta-se aqui o
problema de o gravímetro não se encontrar estacionário. No caso de um movimento
para Este, por exemplo, há uma componente de velocidade que se adiciona à
aceleração tangencial devida ao movimento de rotação da Terra, pelo que a leitura da
gravidade é diminuída.
A correcção para a velocidade do gravímetro, ∆gV, chamada correcção de
Eötvös, é dada por

61
∆gV = 4.04 V cos φ sin α + 0.001211 V 2 mgal (2.139)

onde V é a velocidade em Km/h, φ é a latitude e α é o ângulo entre a rota e o Norte


geográfico.
Como é lógico, a correcção de Eötvös adiciona-se no caso do movimento ser para
Este e subtrai-se no caso contrário.
2.5.8. Anomalia de Bouguer.
Depois de feitas todas as correcções anteriores, pode obter-se a chamada
anomalia de Bouguer, que é dada por

∆g = ∆gOBS ± ∆gφ ± (0.3086 – 0.04192ρ)h + ∆gT mgal (2.140)

onde ∆gOBS é o valor observado, h é a diferença de cotas entre a base e a estação de


medida e ρ é a densidade do material subjacente, medida ou estimada. Note-se aqui a
importância do conhecimento de ρ para uma correcta realização das correcções.
Voltaremos mais tarde a esta questão.
Para uma Terra ideal, homogénea, com uma figura coincidente com o geóide,
∆g seria, em todo o lugar, igual a zero.
As anomalias de Bouguer podem atingir valores máximos da ordem de 1gal o
que é, contudo, raro: os valores comuns são da ordem dos poucos mgal.
A determinação rigorosa da anomalia de Bouguer depende evidentemente do
rigor nas medidas de g e da localização das estações. O BRGM (Bureau de
Recherches Géologiques et Minières - França) recomenda as seguintes precisões,
consoante o objectivo do trabalho (tabela 2.7):

Tabela 2.7 – Recomendações do BRGM quanto à precisão nas medidas consoante o objectivo do
trabalho. (∆
∆s = distância entre estações)
Objectivo do trabalho g (mgal) x e y (m) z (m) t (min) ∆s (km)
Gravimetria de precisão 0.01 0.05 0.01 1 1 a 500
Geodesia
Microgravimetria 0.01 1.00 0.01 2 0.005 a 0.02
Prospecção mineira 0.05 3.00 0.10 5 0.02 a 0.30
Cartografia de pormenor 0.20 10.00 0.50 5 0.10 a 0.50
Cartografia regional 0.20 20.00 1.00 5 0.50 a 3.00

2.6. Tratamento e interpretação de dados gravimétricos.


2.6.1. Introdução. Anomalia de ar-livre.
A construção de perfis e cartas da anomalia de Bouguer é o instrumento
fundamental da prospecção gravimétrica.
Como em todas as técnicas de prospecção geofísica, o que se pretende aqui é
localizar e delimitar regiões da crosta terrestre que possuam propriedades físicas
contrastantes em quantidade ou qualidade com as regiões envolventes – a propriedade
física é, neste caso, a densidade.

62
Uma carta de Bouguer mostra-nos as variações horizontais da aceleração da
gravidade; por isso, só as variações horizontais (ou laterais) da densidade das rochas
produzem anomalias. As características geométricas das anomalias estão relacionadas
com a profundidade da sua fonte: quanto mais profunda estiver a massa anómala mais
‘aberto’ é o perfil da anomalia – maior é o seu comprimento de onda. Será importante
notar que a solução de uma anomalia não é única. Quer isto dizer que uma
distribuição superficial de massas anómalas pode produzir o mesmo efeito que uma
massa profunda, mais concentrada e de maior densidade. Apesar disso, aceita-se
geralmente que massas anómalas superficiais produzem anomalias gravimétricas de
curto comprimento de onda. O seu efeito pode ser filtrado pois, geralmente, o objecto
da prospecção gravimétrica não é superficial, caso em que se usariam outros métodos
muito mais expeditos e economicamente atraentes.
Por outro lado, o efeito de massas muito profundas, e o da própria
heterogeneidade lateral da crosta, produz gradientes laterais de muito grande
comprimento de onda: a chamada componente regional. Assim, se filtrarmos o ruído
superficial e o regional obtemos os resíduos que presumivelmente representarão os
efeitos da zona intermédia de interesse. Grande parte do trabalho de processamento de
dados gravimétricos consiste nesta separação regional-residual.
Vamos acompanhar estes processos com recurso a um caso prático: um perfil
geofísico realizado por um navio oceanográfico norte-americano, nos meses de Julho
e Agosto de 1970, atravessando diagonalmente, de NW para SE, todo o Atlântico
Norte, aproximadamente entre a Nova Inglaterra e o arquipélago de Cabo Verde
(figura 2.38).

Figura 2.38 – Localização do perfil estudado.


Os dados medidos, corrigidos apenas da deriva, encontram-se representados
no gráfico da figura 2.39.

63
980000
979800

Gravidade medida (mgal)


979600
979400

979200
979000
978800
978600
978400
36 34 32 30 28 26 24 22 20 18
Latitude (º )

Figura 2.39 – Gravidade medida ao longo do perfil da figura 2.29, em função da latitude.
A tendência decrescente que se observa não é uma tendência regional: é, sim,
consequência da variação natural do campo gravítico com a latitude, cujos valores
teóricos, segundo a fórmula internacional da gravidade de 1980, se apresentam no
gráfico da figura 2.40).

979800

979600

Gravidade teórica (mgal)


979400

979200

979000

978800

978600

978400
36 34 32 30 28 26 24 22 20 18
Latitude (º )

Figura 2.40 – Gravidade teórica ao longo do perfil da figura 2.28.


Subtraíndo as duas séries de valores, obtém-se o gráfico da figura 2.41, a que
por vezes se chama da anomalia de ar-livre.

-20
Anomalia de ar-livre (mgal)

-40

-60

-80

-100

-120

-140
36 34 32 30 28 26 24 22 20 18
Latitude (º)

Figura 2.41 – Anomalia de ar-livre.

64
2.6.2. Filtração do ruído.
Do exposto atrás poder-se-ia inferir que o trabalho de separação regional-
residual equivaleria à aplicação de um filtro de banda média. Tal procedimento seria
teoricamente possível mas muito difícil na prática pois a definição dos comprimentos
de onda a filtrar só pode ser casuística e pressuporia um bom conhecimento da
geologia da área em estudo.
Por este motivo é habitual proceder-se à filtração em duas fases: filtração das
anomalias de curto comprimento de onda, ruído, de fonte superficial, e posterior
remoção da componente regional.
Por uma questão de clareza gráfica, os exemplos que se verão referem-se todos
a sequências unidimensionais de dados (perfis), mas todos os métodos são facilmente
extensíveis a sequências bidimensionais (cartas).
Um dos métodos mais usados para remoção de ruído nos dados (em todos os
métodos geofísicos, como se verá mais tarde) é o cálculo de médias móveis.
Seja dada uma sequência de dados de anomalia de Bouguer, xi (i = 1, 2, …, n).
A média móvel a três pontos, MM3, é dada por

MM3i = (xi-1 + xi + xi+1) / 3 (2.141)

e, mais genericamente,

i +( n / 2)


i −( n / 2 )
xi
MMni = (2.142)
n

Quanto maior o período escolhido para a média móvel, maior a ‘suavidade’ da


curva resultante. O uso deste método pressupõe, claro, que só se pode escolher para as
médias móveis um período inferior ao da anomalia real (entre 10 e 20%).
Quando se pretende conferir maior importância ao ponto de atribuição usam-
se por vezes as médias móveis ponderadas, por exemplo,

MM5i = (xi-2 + 2xi-1 + 4xi + 2xi+1 + xi+2) / 10 (2.143)

com a lei de distribuição dos pesos linear, como neste caso, ou qualquer outra como a
gaussiana, por exemplo.
Tentemos filtrar os dados do perfil da figura 2.38 com duas médias móveis de
períodos diferentes: 9 e 29 (figuras 2.42 e 2.43).
Note-se que há, ainda, pouca diferença entre o perfil da média móvel 9 e o da
anomalia de ar-livre. Já o perfil da média móvel 29 filtra adequadamente o ruído de
alta frequência, sem obrigar ainda a uma grande perda de informação.

65
0

-20

Anomalia de ar-livre (mgal)


-40

-60

-80

-100
MA9
-120

-140
36 34 32 30 28 26 24 22 20 18
Latitude (º)

Figura 2.42 – Média móvel de período 9.

Anomalia de ar-livre (mgal)


-20

-40

-60

-80

MA29 -100

-120

-140
36 34 32 30 28 26 24 22 20 18
Latitude (º)

Figura 2.43 – Média móvel de período 29.


2.6.3. Remoção do gradiente regional.
Na maioria dos casos, as anomalias de interesse para a prospecção aparecem
sobrepostas a outras, de muito maior comprimento de onda, sem interesse, os
gradientes regionais. Estes gradientes correspondem a heterogeneidades específicas
do campo gravítico e manifestam-se nos perfis, na maioria das vezes, apenas como
uma componente geral de declive. Vários métodos permitem a remoção do gradiente
regional, ou separação regional-residual.
Chama-se a atenção para o problema dos comprimentos de onda: o da curva de
gradiente regional tem que ser pelo menos 5 a 10 vezes maior que o da anomalia.
2.6.3.1. Método gráfico.
O mais simples (mas não necessariamente menos rigoroso) é o método
gráfico.
A separação regional-residual por métodos gráficos é muito simples: (1)traça-
se uma curva pelas porções assumidas como não-anómalas do perfil da anomalia de
Bouguer – curva de gradiente regional (figura 2.44); (2) Subtraem-se os valores da
curva de gradiente aos valores da anomalia de Bouguer em cada estação e com os
resultados constrói-se a curva de resíduos, ou curva residual. Esta é a curva que,
espera-se, contém apenas a informação sobre a fonte da anomalia de interesse para a
prospecção (figura 2.45).

66
10

Gravidade (mgal)
0

-5

-10

-15 Regional: y=-0.0005x^2-0.05x-0.05

-20
0 20 40 60 80 100 120 140 160
X (Km)

Figura 2.44 – Ajustamento gráfico de uma curva de tendência regional aos dados.

12
Gravidade residual (mgal)

10

-2
0 20 40 60 80 100 120 140 160
X (Km)

Figura 2.45 – Resíduos.

2.6.3.2. Ajustamento de uma curva de mínimos quadrados.


Com as possibilidades computacionais actuais é mais simples ajustar uma
curva de mínimos quadrados, de qualquer ordem, aos nossos dados e, analogamente
ao método gráfico, fazer a separação regional-residual por simples subtracção. Este
caso ilustra-se nas figuras 2.46 e 2.47, com a continuação do exemplo do perfil da
figura 2.38.

0
Anomalia de ar-livre (mgal)

-20

-40

-60

-80
Regional: y = -0.0406x 2 + 0.9846x - 18.017
MA29 -100

-120

-140
36 34 32 30 28 26 24 22 20 18
Latitude (º )

Figura 2.46 – Ajustamento de uma curva regional de mínimos quadrados aos dados.

67
30

20

Anomalia de ar-livre (mgal)


10

-10

-20
MA29: Residual -30

-40
36 34 32 30 28 26 24 22 20 18
Latitude (º )

Figura 2.47 – Resíduos.

2.6.4. Estimação da profundidade da fonte.


Embora a solução de um conjunto de dados da anomalia de Bouguer não seja
única, um método permite-nos estimar a profundidade da fonte. De facto, verifica-se
que as anomalias de fonte superficial possuem curvaturas muito mais acentuadas que
as anomalias de fonte profunda, como se verá com mais pormenor no parágrafo 2.6.8.
Recorda-se que, em geometria diferencial, a primeira derivada de uma função é uma
medida do declive, enquanto a segunda derivada é uma medida da curvatura. Será
assim de esperar que um método que envolva segundas derivadas direccionais, em
particular na direcção vertical, nos permita estimar a profundidade da fonte de uma
anomalia. Mas, se a carta de Bouguer nos mostra só as variações horizontais da
aceleração da gravidade, como será possível determinar a segunda derivada vertical?
É possível, dado que o campo gravítico obedece à equação de Laplace.
Senão vejamos:

∂2 g ∂2 g ∂2 g
∆g = ∇ 2 g = + + =0 (2.144)
∂x 2 ∂y 2 ∂z 2

o que implica que

∂2 g ∂2 g ∂2 g
= − − (2.145)
∂z 2 ∂x 2 ∂y 2

Assim, para um perfil, a primeira derivada pode obter-se a partir dos dados de
duas estações arbitrariamente próximas, x1 e x2, a uma distância ∆x:

dg(x1.5) / dx = [g(x2) – g(x1)] / ∆x (2.146)

e a segunda derivada obtém-se pelas diferenças entre duas primeiras derivadas


próximas:

d2g / dx2 = [ dg(x2.5) / dx – dg(x1.5) / dx ] / ∆x (2.147)

68
Repetindo este processo para uma direcção ortogonal, a diferenciação em
ordem a x e a y permitirá assim, facilmente, obter a segunda derivada vertical.
2.6.5. Determinação e estimação da densidade.
O cálculo correcto das correcções de Bouguer e topográfica e, portanto,
também o cálculo da anomalia de Bouguer, é muito dependente do valor atribuído a ρ,
a densidade. A densidade pode obter-se de três formas: por medição directa, em
amostras colhidas em afloramentos ou testemunhos de sondagens; por medição
indirecta, através de outras propriedades físicas com ela relacionadas, como as
velocidades de ondas sísmicas ou a luminescência γ; ou por estimação. Quando o
material não nos é directamente acessível, e não dispomos de outras técnicas
geofísicas auxiliares, a densidade tem que ser estimada. A estimação realiza-se
habitualmente por um de dois métodos: o método de Nettleton ou o método de
Parasnis.
2.6.5.1. Determinação directa.
A tabela 2.8 apresenta algumas densidades de rochas e minerais comuns.

Tabela 2.8 – Densidades de algumas rochas e minerais comuns.


Carvão 1.20 – 1.50
Areia seca 1.40 – 1.65
Areia húmida 1.95 – 2.05
Sal gema 2.10 – 2.40
Serpentinito 2.50 – 2.55
Argilas 2.50 – 2.70
Granito 2.50 – 2.70
Mármore 2.50 – 2.80
Diabase 2.50 – 3.20
Calcário 2.60 – 2.70
Quartzito 2.60 – 2.70
Gneisse 2.70
Basalto 2.70 – 3.30
Gabro 2.70 – 3.50
Anidrite 2.96
Blenda 4.0
Calcopirite 4.2
Cromite 4.5 – 4.8
Pirrotite 4.6
Pirite 5.0
Hematite 5.1
Magnetite 5.2
Galena 7.5
Volframite 7.0 – 7.5

2.6.5.2. Determinação indirecta.


2.6.5.2.1. Velocidades das ondas sísmicas.
Como se verá no capítulo sobre sismologia (Cap. 4), a velocidade de
propagação das ondas sísmicas é, em teoria, directamente proporcional à densidade do
meio de propagação. Este facto, bem conhecido, levou à construção de relações
empíricas que permitem estimar a densidade de rochas e solos na situação comum em
que se realizam em simultâneo campanhas de prospecção gravimétrica e sísmica – em
particular na prospecção de jazidas de hidrocarbonetos.

69
2.6.5.2.2. Diagrafias gama-gama.
Diagrafias são medições de parâmetros geofísicos que se realizam ao longo de
furos de sondagem. Podem incluir medições mecânicas, geométricas, gravimétricas,
magnéticas, eléctricas, térmicas, sísmicas, radiométricas – na verdade, para qualquer
parâmetro mensurável pode fazer-se actualmente uma diagrafia. A realização e
interpretação de diagrafias está tão desenvolvida que já adquiriu por direito próprio
foros de disciplina autónoma dentro da prospecção geofísica.
Um dos inúmeros tipos de diagrafias que podem fazer-se é a gama-gama.
Neste método, introduz-se no furo de sondagem uma sonda contendo uma fonte de
radiação gama, por exemplo 137Cs. Os fotões γ colidem com electrões pouco ligados
no material envolvente (rocha) e dá-se um processo de emissão de novos fotões γ por
efeito Compton. Estes fotões dispersos são captados por um detector de radiação
contido na própria sonda, cerca de 0.5m acima do emissor.
Sucede que a intensidade da radiação dispersa é directamente proporcional à
densidade de electrões na rocha e, consequentemente, à propria densidade da rocha.
2.6.5.3. Estimação.
2.6.5.3.1. Método da recta de Parasnis.
Suponhamos que a anomalia de Bouguer nas estações ao longo de um perfil é
sempre exactamente zero. Então, a equação (2.140) pode reescrever-se como

∆gOBS ± ∆gφ = ± (0.3086 – 0.04192ρ)h + ∆gT (2.148)

se se desprezar a deriva temporal. Se fizermos T = ∆gT / ρ vem

∆gOBS ± ∆gφ = ± (0.04192 h - T) ρ ± 0.3086 h (2.149)

que é a equação de uma recta de declive ρ. Podemos obter ρ, então, se projectarmos


num gráfico os valores de (∆gOBS ± ∆gφ ) em função de (0.04192 h – T): ρ será o
declive da recta que melhor se adapta a esse conjunto de pontos.
2.6.5.3.2. Método dos perfis de Nettleton.

Perfil 10N

1
correlação

-1
1.5 1.7 1.9 2.1 2.3 2.5 2.7 2.9
densidade

Figura 2.48 – Método dos perfis de Nettleton para estimação da densidade.

70
Calcula-se a anomalia de Bouguer para várias estações ao longo de um perfil,
para uma série de valores hipotéticos de ρ. Obtém-se assim uma série de perfis da
anomalia de Bouguer. O valor mais realista de ρ será aquele cujo perfil apresentar
menor correlação com o perfil topográfico (Figura 2.48);

2.6.6. Efeitos da cobertura.


Em muitas situações concretas, o efeito das variações locais na espessura da
cobertura (porção da crosta situada a cota inferior à fonte da anomalia),
principalmente aquelas variações que são abruptas, produz anomalias espúrias que
podem ser de maior magnitude que o sinal a prospectar. Estes efeitos têm que ser
considerados, e filtrados, em particular na prospecção mineira.
O estudo dos efeitos de um prisma lateralmente semi-infinito sobre a
correcção de Bouguer permite deduzir que

∆gmax = 41.92 × 10-3 ∆ρ ∆h mGal (2.150)

em que ∆gmax é a máxima variação na aceleração da gravidade produzida por uma


variação de ∆h na espessura da cobertura, com contraste de densidades ∆ρ.
Para ∆h abruptos (10m ou mais) e um ∆ρ realista da ordem de 0.6, o gradiente
horizontal pode atingir os 0.03 mGal/m.
Por este motivo, a profundidade da cobertura deve ser sempre avaliada em
zonas com fracas anomalias (baixo gradiente horizontal), pelo uso de métodos
geofísicos complementares (como sondagens eléctricas ou refracção sísmica).
2.6.7. Determinação do excesso de massa.
A prospecção gravimétrica foi uma das primeiras técnicas de prospecção
geofísica, e a primeira a ser aplicada com sucesso à identificação de jazidas
petrolíferas. Hoje está quase completamente suplantada nesse campo pelos métodos
sísmicos. Há, contudo, um campo em que a prospecção gravimétrica continua a ser da
maior utilidade: na determinação da massa e do volume de mineralizações de
interesse económico, em especial de jazidas de minerais metálicos. Vejamos como.
Demonstra-se que, embora não haja uma única solução para qualquer conjunto
de dados de potencial gravítico, é possível determinar uma única solução para o
excesso de massa, M, que é fonte de uma anomalia gravimétrica:

M = 23.9 Σ(∆g ∆s) ton (2.151)

em que ∆g é a anomalia (mGal) e ∆s é a área (m2), em projecção horizontal, onde a


anomalia se faz sentir.
Como é evidente, só se pode calcular o excesso de massa sobre os resíduos,
depois de feita a separação regional-residual.
O excesso de massa calculado por (2.151) representa a diferença

M = Vρ2 - Vρ1 = V(ρ2 - ρ1) (2.152)

71
entre a massa verdadeira (Vρ2) de um depósito mineral com volume V e densidade ρ2,
e a massa (Vρ1) que teria o mesmo volume V se estivesse preenchido com a rocha
encaixante, de densidade ρ2.
A massa mineralizada real é dada, assim, por

MR = M ρ2 / (ρ2 - ρ1) ton (2.153)

e o seu volume é

V = MR / ρ2 m3 (2.154)

2.6.8. Inversão de dados gravimétricos.


O problema da inversão é recorrente em toda a Geofísica: trata-se de, dada
uma anomalia, identificar a natureza (pelo menos, a geometria) da fonte que a
produziu. Idealmente, procura-se identificar a fonte da anomalia com uma
composição de entidades geométricas simples: pontos, linhas, planos, esferas,
cilindros e prismas que, afinal, permitem modelar a maioria dos objectos geológicos
com boas aproximações. Não estamos aqui muito longe da arte: não era Cézanne que
procurava representar a Natureza como uma composição de esferas, cilindros e cones?
É relativamente fácil, dada uma entidade geométrica simples, com um dado
contraste de densidade com a rocha envolvente, calcular a anomalia que produzirá. É
o que vamos fazer para os casos do ponto, da esfera, da recta, do cilindro e do prisma.
2.6.8.1. Anomalia produzida por um ponto material.
O caso de um ponto material, embora sem realismo geológico, é útil como
ponto de partida para situações mais complexas.
Seja dado, assim, um ponto material de massa m. A atracção produzida pelo
ponto, ∆g, em qualquer ponto da superfície à distância x da vertical da massa, pode-se
decompor numa componente horizontal, ∆gx, e outra vertical, ∆gz.
Vejamos a componente vertical:

m z
∆g z = ∆g sin θ = G (2.155)
r2 r

onde

r2 = z2 + x2 (2.156)

2.6.8.2. Anomalia produzida por uma esfera homogénea.


O caso de uma esfera é muito mais realista, dado que permite modelar
intrusões com simetria axial, plutónicas ou vulcânicas, diapiros ou reservatórios de
hidrocarbonetos, por exemplo.
Seja dada uma esfera homogénea de raio R, massa M e contraste de
densidades ∆ρ com a rocha encaixante, também homogénea, de tal modo que

72
∆ρ = ρe - ρr (2.157)

onde ρe é a densidade da esfera e ρr é a densidade da rocha.


A atracção produzida pela esfera, ∆g, em qualquer ponto da superfície à
distância x da vertical do centro da esfera, processa-se como se a totalidade da massa
da esfera estivesse concentrada no seu centro. Como é costume, podemos decompor
esta atracção numa componente horizontal, ∆gx, e outra vertical, ∆gz (figura 2.49).

8
z = 1Km
7
z = 2Km

5
Dg (mgal)

w
3

0
-10 -8 -6 -4 -2 0 2 4 6 8 10
x (Km)
∆g x
∆g z
∆g
z = 1Km

z = 2Km

Figura 2.49 – Anomalia produzida por uma esfera.


Vejamos a componente vertical:

M z
∆g z = ∆g sin θ = G (2.158)
r2 r

onde a M, a massa da esfera,

4 3
M = πR ∆ρ (2.159)
3

Substituindo (2.158) e (2.159) em (2.157) vem que

73
3/ 2
4  ∆ρ r 3   z3  4  ∆ρ r 3   1 
∆g z = πG  2    = πG 
    (2.160)
3  z   z 2 + x 2( )
3/ 2  3  z   1 + ( x / z) 2

2

O máximo (ou o mínimo, se ∆ρ for negativo) da anomalia, ∆g0, obtém-se, é


claro, na vertical do centro da esfera, para x=0:

4 ∆ρR 3
∆g 0 = π G 2 (2.161)
3 z

Um dado importante é w, a largura a meia altura da anomalia (figura 2.49),


que nos permite estimar a profundidade da fonte, z. Para o caso da esfera,

z = 0.652 w (2.162)

2.6.8.3. Anomalia produzida por uma recta horizontal.


Tal como para o ponto, o caso da recta horizontal é abstracto mas permite
estabelecer as bases para casos mais complexos e concretos, que veremos a seguir.
Seja dada uma recta material homogénea, de massa m por unidade de
comprimento, horizontal, orientada paralelamente ao eixo dos yy a uma profundidade
z (figura 2.50).

y
θ
u r

dy
x
z

Figura 2.50 – Recta horizontal com massa.


Cada segmento infinitesimal, dy, contribui para a componente vertical da
anomalia com um infinitésimo d(∆gz) tal que

mdy mdy z
d ( ∆g z ) = G 2
sin θ = G 2 (2.163)
r r r

Agora, para calcular a anomalia produzida por toda a recta, basta integrar:

+∞ +∞
dy dy
∆g z = Gmz ∫ 3
= Gmz ∫ 2 2 3/ 2
(2.164)
−∞ r − ∞ (u + y )

onde u é a projecção de (todos os) r no plano xz, pois

74
u2 = x2 + z2 (2.165)

O cálculo do integral simplifica-se com algumas trocas de variáveis. Fazendo

y = u tan ϕ (2.166)

vem que

dy = u sec2 ϕ dϕ (2.167)

(u2 + y2)3/2 = u3 sec3 ϕ (2.168)

O integral simplifica-se, assim, para

π
+
2
Gmz
∆g z =
u2 ∫π cos ϕ dϕ (2.169)

2

ou seja,

2Gmz
∆g z = (2.170)
z2 + x2

Agora, a equação (2.160) pode ser escrita como o gradiente de um potencial


Ψ:

∂Ψ 2z
∆g z = grad Ψ = − = Gm 2 (2.171)
∂z u

Ora, como

1 1
Ψ = Gm ln = Gm ln (2.172)
u x + z2
2

chama-se a Ψ, por isso, o potencial logarítmico, que será útil no modelo seguinte.

2.6.8.4. Anomalia produzida por um cilindro horizontal.


O cálculo desta anomalia é simplificado se se assumir que um cilindro não é
mais que um feixe de rectas materiais paralelas (figura 2.51).
A anomalia de massa existente num elemento da secção é dada por

∆m = ∆ρr dr dθ (2.173)

75
z
u

θ dr
r
R

Figura 2.51 – Secção de um cilindro horizontal, contendo o eixo x.


Assim, a contribuição dΨ de um elemento (segmento infinitesimal) de recta
para a gravidade à superfície vem dada por

1
dΨ = 2G∆ρ ln r dr dθ (2.174)
u

Integrando, pode-se obter o potencial total Ψ; diferenciando Ψ em ordem a z,


obtemos, como antes, a anomalia vertical:

∂Ψ z ∂Ψ
∆g z = − =− (2.175)
∂z u ∂u

2G∆ρ z 2π R ∂ 1
∆g z = −
u ∫0 ∫0 ∂u ln u r dr dθ (2.176)

o que se pode simplificar para

2G∆ρ z 2π R 2Gπ R 2 ∆ρ z
∆g z = −
u ∫0 ∫0 r dr dθ =
x2 + z2
(2.177)

Se compararmos as equações (2.177) e (2.170) veremos que a anomalia


produzida por um cilindro é, afinal, a mesma que a que seria produzida por uma recta
coincidente com o seu eixo e onde toda a sua massa estivesse concentrada.
A configuração desta anomalia é semelhante àquela da que é produzida por
uma esfera, mas mais larga, o que reflecte o prolongamento da massa na direcção y
(figura 2.52). Mais uma vez, a largura a meia altura da anomalia, w, permite-nos
inferir a profundidade da fonte, z:

76
z = 0.5w (2.178)

Anomalia vertical (mgal)

w
2

0
-10 -5 0 5 10
x (Km)

Figura 2.52 – Anomalia produzida por um cilindro horizontal, com z=3Km, R=1Km,
∆ρ=300t/m3.
A anomalia gravimétrica produzida por um cilindro horizontal modela
adequadamente a anomalia produzida por um anticlinal, no caso do contraste de
densidades ser positivo, ou por um sinclinal, para um contraste negativo.

2.6.8.5. Anomalia produzida por uma fita horizontal.


A expressão “fita horizontal” designa aqui um prisma de espessura muito
baixa que se estende infinitamente na perpendicular ao plano (vertical) do perfil
gravimétrico.
Como já se vê, uma fita horizontal pode ser modelada por uma grande
quantidade de rectas materiais horizontais.
Seja z a profundidade a que a fita se encontra, t a sua espessura e ∆ρ o seu
contraste de densidade com a rocha encaixante. A massa por unidade de
comprimento, m, na direcção y, de um elemento linear de largura dx é dada por

m = ∆ρ t dx (2.179)

Substituindo na equação (2.160), vem que

77
2Gz∆ρ t dx
∆g z = (2.180)
z2 + x2

A anomalia produzida pela fita pode, assim, ser calculada integrando entre os
limites x1 e x2 (figura 2.53):

x2
dx  x  −1  x  
∆g z = 2G∆ρ tz ∫ 2 2
= 2G∆ρ t  tan −1  2  − tan  1   = 2G∆ρ t (φ 2 − φ1 ) (2.181)
x1 x + z   z   z 

ou seja, a anomalia é proporcional ao ângulo φ no ponto de medida.


x x1 x2

φ = φ2 – φ1 z
φ1 φ2

Figura 2.53 – Fita horizontal.

Mais interessante geologicamente é o caso em que se faz coincidir x1 com a


origem e se desloca x2 para o infinito (ficando φ2 = π / 2) obtendo-se, assim, uma
semi-folha ou semi-plano material. Neste caso,

φ1 = – tan-1 (x/z) (2.182)

e, portanto,

π  x 
∆g z = 2G∆ρ t  + tan −1   (2.183)
2  z 

Esta situação é o modelo para a anomalia causada por uma sucessão de


estratos horizontais cortados por uma falha vertical com rejecto vertical (figura 2.54).
Analogamente aos casos anteriores, a anomalia produzida por um prisma semi-
infinito, espesso, é a mesma que seria causada por uma semi-folha material localizada
a meia altura, z, do rejecto da falha, t, e que concentrasse em si todo o contraste de
densidades.

Figura 2.54 – Terreno falhado com rejecto vertical. z=1000m; t=500m; ∆ρ=300t/m3.

78
7

A n o m a lia v e rtic a l (m g a l)
5

0
-10 -8 -6 -4 -2 0 2 4 6 8 10
x (Km)

Figura 2.55 – Anomalia gravimétrica correspondente ao esquema da figura anterior.


Ao contrário das anteriores, esta anomalia não permite estimar a profundidade
da fonte. Permite, sim, sem ambiguidade, determinar a posição da falha (figura 2.55).
Outro caso-limite interessante é aquele em que a folha se estende infinitamente
no plano xy. Dir-se-ia intuitivamente que, aqui, a gravimetria não nos permitiria
detectar qualquer anomalia. Não é verdade: detecta-se uma subida (ou descida) do
nível zero da anomalia, que corresponde ao geóide. Reportando-nos ao esquema da
figura 2.53, vemos que, para uma folha infinita, φ2 = π / 2 e φ1 = –π / 2, donde,

∆g z = 2π G∆ρ t (2.184)

que é, afinal, a expressão da correcção de Bouguer (2.134).


2.7. Isostasia.
É interessante observar que, para além das flutuações locais da anomalia de
Bouguer, existe uma variação à escala global que é admiravelmente sistemática.
Assim, as anomalias são
• baixas, em módulo, sobre planícies de cota baixa
• positivas sobre os oceanos
• negativas sobre as cadeias de montanhas
Ao aplicar as correcções, tentou-se eliminar todos os efeitos da topografia mas
nota-se que esta ainda influi. Aparentemente, a Terra ‘real’ possui uma estrutura tal
que os valores experimentais de g são mais baixos que o previsto sobre as montanhas
e mais altos sobre os oceanos.
Este efeito pode dever-se a dois factores:
• a densidade da crosta oceânica é maior que a densidade da crosta continental
• a espessura da crosta oceânica é menor que a espessura da crosta continental
Em meados do século XIX, uma polémica científica opôs os partidários de
cada uma das explicações. Pratt postulou um mecanismo a que chamou compensação:
tudo se passaria como se, sob uma montanha, a densidade das rochas fosse menor que

79
o previsto a partir dos afloramentos. Este autor e a sua escola admitiam que, a uma
certa profundidade sob o geóide, existiria uma superfície equipotencial, referida como
‘superfície de compensação’, de tal forma que a pressão exercida pelas rochas
sobrejacentes sobre essa superfície fosse a mesma em todos os pontos. Para poder
calcular este efeito, a hipótese de Pratt admitia que a densidade média seria constante
sobre uma mesma vertical (ou linha de gradiente do campo de peso), com excepção,
claro, dos oceanos (Figura 2.56-a). É interessante notar que os cálculos da escola de
Pratt colocam a superfície de compensação a uma profundidade comparável à
profundidade média da descontinuidade de Mohorovicic (ver-se-á mais tarde, ao
estudar a sismologia, uma importantíssima diferença: a descontinuidade Moho não é
uma equipotencial).

a - Pratt

b - Airy
Figura 2.56 – Modelos da isostasia.
A outra escola, de Airy, apresenta um modelo geologicamente mais credível.
Imaginaram que a crosta terrestre seria rígida, de densidade média cerca de 2.7, e
flutuaria sobre camadas profundas (a que hoje chamaríamos manto) de densidade
muito maior, cerca de 3.2. O mecanismo de compensação, que Dutton baptizou de
isostasia, seria atingido da seguinte forma: sob uma cadeia de montanhas produz-se

80
um espessamento da crosta e sob o fundo oceânico produz-se um correspondente
adelgaçamento. Aqui, a superfície de compensação seria em tudo simétrica da
superfície topográfica e já não uma equipotencial do campo (Figura 2.56-b).
Os dados mais actuais da sismologia mostraram que, como na maioria dos
casos, o modelo mais realista terá que aproveitar elementos de ambas as escolas. O
modelo de Pratt é mais satisfatório sob os oceanos e o modelo de Airy sob os
continentes. De facto, a crosta oceânica é não só mais densa mas também mais fina
que a crosta continental.
Os modelos de Pratt e Airy são modelos hidrostáticos, ou seja, assumem que a
crosta, menos densa, flutua livremente sobre o manto em equilíbrio hidrostático.
Mesmo se incluirmos no modelo os conhecimentos actuais sobre a constituição da
Terra, falta-nos ainda uma importante componente dinâmica.
Um modelo hidrostático para a isostasia assume que a crosta é
completamente compensada, ou seja, que, como se viu no modelo de Airy, a
superfície de compensação seria simétrica da superfície topográfica. Contudo, é hoje
bem sabido que a crosta está permanentemente sujeita a forças destrutivas e
construtivas.
No primeiro caso, a erosão de uma cadeia de montanhas provocará que a sua
“raiz” tenha maior massa que a parte exposta – sobrecompensação. Tudo se passa
como se tivermos um bloco de madeira a flutuar numa tina com água e o
pressionarmos para baixo de forma a aumentar o volume imerso: ao retirar a pressão,
o bloco tende a ressaltar (emergir) para reestabelecer o equilíbrio hidrostático, de
acordo com o princípio de Arquimedes. O efeito sobre uma cadeia de montanhas será
o mesmo: um levantamento.
O segundo caso é exactamente o inverso – subcompensação. As raízes de
uma cadeia podem não ter bastante massa para compensar uma topografia que foi
sobreelevada por movimentos orogénicos, e a recuperação do equilíbrio hidrostático
tende a fazer afundar a crosta.
O efeito de sobrecompensação é bem conhecido, por exemplo, na
Escandinávia, que esteve coberta por uma espessa camada de gelo durante a última
glaciação, o que terá provocado um afundimento da crosta na zona. Ao terminar a
glaciação, a remoção da camada gelada provocou um desequilíbrio hidrostático que se
traduz hoje por altas taxas de elevação (até 9mm/ano).
Habituados, como estamos, ao grande poder interpretativo da teoria da
tectónica de placas temos desprezado, um pouco, o papel da isostasia na modelação
planetária. Mas os princípios da isostasia continuam a ser válidos e permitem
compreender melhor os grandes movimentos verticais de massas que as acções
tectónicas produzem.
Foi o estudo das compensações isostáticas que permitiu ao grupo de Maria
Zuber explicar a razão para os quatro grandes vulcões marcianos (Olympus, Arsia,
Pavonis e Ascraeus) terem todos alturas semelhantes, da ordem dos 25 Km acima do
datum (figura 2.57). Essa é a altitude máxima que uma crosta completamente
compensada suporta nas condições marcianas.

81
Figura 2.57 – Topografia de Marte, centrada na região de Tharsis.
Imagem MOLA Science Team, NASA, JPL.

2.8. A gravidade no Sistema Solar.


2.8.1. A origem do Sistema Solar.
A gravidade é a força principal que modela o universo macroscópico.
No Universo conhecido há muitas nuvens de gases e poeiras – nebulosas – que
podem dar origem a sistemas solares (figura 2.58). Em princípio, nessas nuvens há
duas forças opostas que se equilibram: a gravidade, que tende a contraí-las, e a
pressão térmica, que tende a expandi-las.

Figura 2.58 – A “maternidade de estrelas” na galáxia M16. Imagem Hubble.

82
Por vezes essas nebulosas são perturbadas por algum tipo de choque, como a
onda provocada pela explosão de uma supernova ou simplesmente a aproximação de
outra nuvem.
Quando recebe o choque, a nebulosa começa a contrair-se. Para que essa
contracção venha a dar origem a um sistema planetário, há algumas condições que
têm que se cumprir: a nuvem tem que ter massa suficiente, ser densa, relativamente
fria, e tem que estar animada de algum movimento inicial de modo a que a contracção
gravitacional seja acelerada num movimento de rotação (da mesma forma que um
patinador acelera a velocidade das piruetas aproximando os braços do corpo).
A contracção é acompanhada por um aumento de temperatura mas, desde que
a massa nebular seja suficiente, a força gravitacional é sempre maior que a tendência
para expansão térmica. À medida que a nebulosa inicial roda e se contrai, fragmenta-
se. Cada um dos fragmentos, desde que tenha massa e densidade suficientes,
individualiza-se e, por sua vez, roda e contrai-se mais.
Nunca se observaram fragmentos nesta fase, não só porque é rápida (alguns
milhares de anos), como também porque estarão rodeados por gases e poeiras densos.
Só quando a temperatura dos fragmentos atinge os 2000K a 3000K se tornam visíveis,
merecendo agora o nome de protoestrelas.
Uma destas protoestrelas, há cerca de 4650 milhões de anos, veio a dar origem
ao nosso Sol.
A contracção do proto-Sol deixou para trás um disco de material, a partir do
qual se formou o sistema planetário. A composição deste material era a mesma do Sol
actual e da nebulosa solar original. Esta era demasiado densa e opaca para deixar
escapar energia por irradiação, por isso a contracção gravitacional foi sendo
acompanhada por um aumento de temperatura. A uma distância de 300 a 500 milhões
de quilómetros do proto-Sol, as temperaturas seriam ainda da ordem dos 2000K pelo
que quaisquer elementos estariam no estado gasoso.
Mas, a um certo ponto, a condensação fez com que a nebulosa ficasse
transparente, começando, assim, a arrefecer. Isto veio a permitir que se produzissem
compostos, inicialmente sob a forma de grãos de poeira. Um dos primeiros a formar-
se teria sido o corindo, o óxido de alumínio que compõe as safiras e os rubis, aos 1760
K, e os últimos os gelos de metano e de azoto, a 70 K, nos bordos mais frios da
nebulosa solar. Isto explica a diferenciação composicional entre os planetas interiores
(Mercúrio, Vénus, a Terra e Marte) e exteriores (Júpiter, Saturno, Úrano e Neptuno).
Mas havia ainda um longo caminho a percorrer entre esta nuvem de poeiras
minerais e gelos e o Sistema Solar. À medida que se iam formando, as poeiras iam
estabilizando em órbitas no plano médio da nebulosa, no que viria a ser a eclíptica
actual. Podem-se observar estes discos de poeiras em torno, por exemplo da estrela
Beta Pictoris (Figura 2.59).
Os choques aleatórios entre partículas e a atracção gravitacional foram
gerando agregados cada vez maiores, em tempos e com dimensões dependentes da
distância ao centro gravitacional da nebulosa – o proto-Sol. Assim, estima-se em 2000
anos o tempo necessário para coagular grãos com 10 mm de diâmetro a 1 UA do Sol
(na órbita actual da Terra), mas 50000 anos para produzir grãos com 0.3 mm na órbita
actual de Neptuno.

83
Figura 2.59 – Disco de poeiras em torno da estrela Beta Pictoris. Imagem HST, no infravermelho.
A coagulação é um processo acelerado; por isso, ao fim de mais 10000 a
100000 anos já haveria corpos com menos de 10 Km de diâmetro – planetesimais –
em órbitas da ordem de 1 UA: os embriões dos planetas do Sistema Solar interior.
O proto-Sol estava então na fase de ser uma estrela de tipo T-Tauri: juvenil,
pequena, talvez com o dobro da massa actual, e produzindo jactos fortíssimos de
partículas, o vento T-Tauri. Esse vento lançou no espaço os restos da nebulosa solar,
impedindo que Júpiter capturasse gases suficientes para se tornar, também ele, uma
estrela.
Entretanto, já estavam definidos os materiais que originariam os planetas do
Sistema Solar. A grande massa de Júpiter impediu que se formasse um planeta na
zona da cintura de asteróides, fazendo com que as forças das colisões entre poeiras e
planetesimais fossem demasiado energéticas para permitir aglomeração por atracção
gravitacional.
O movimento rotacional inicial da nebulosa planetária foi herdado pelos
movimentos de translacção e de rotação dos planetas. Os que tinham maior massa (os
gigantes gasosos) ainda capturaram matéria suficiente para se transformarem, eles
próprios, em sistemas planetários em miniatura, todos eles com vários satélites e com
anéis (figura 2.60).

Figura 2.60 – Pormenor dos anéis de Saturno. Imagem Voyager, NASA, JPL.

84
Já não nos deve surpreender que a estrutura dos anéis de Saturno, sujeita ao
conjunto das influências gravitacionais do próprio planeta e dos seus satélites, seja
fractal.
2.8.2. A estrutura interna dos planetas.
A única forma de “ver”, com segurança, a estrutura interna de um planeta é
através da sismologia. Mas este método defronta-se com três dificuldades:
a) É necessário que o planeta tenha sismos naturais, ou que, de alguma
forma, façamos propagarem-se nele ondas mecânicas.
b) É necessário que instalemos sismógrafos na superfície do planeta, o
que só foi feito até hoje na Terra (claro...), na Lua (com sucesso) e em
Marte (sem sucesso).
c) É necessário que o planeta possua uma superfície onde instalar os
sismógrafos, o que só se verifica nos planetas telúricos, aqueles que
são semelhantes à Terra por serem constituídos principalmente por
rochas – o que exclui os gigantes gasosos, cuja densidade cresce quase
continuamente desde a atmosfera até ao núcleo.
Apesar destas dificuldades é possível estimar a distribuição de densidades no
interior de um planeta a partir das suas características gravitacionais, nomeadamente
dos momentos de inércia, se assumirmos condições hidrostáticas, o que é, afinal, a
condição inicial do teorema de Clairaut, deduzido em 2.2.5. Vimos, então, que,
considerando a gravitação e a aceleração centrípeta como as forças em acção,
pudemos dizer que

1 1 2 2 2 2
U = G∫
ρ
dm +
2
( )
x' + y ' + z ' ω (2.37)

onde dm é um elemento de massa e a integração é feita sobre o volume do planeta.


Ora, isto implica que, se ρ não for constante sobre todo o volume planetário, o
integral tem que se desenvolver numa forma mais complexa.
A massa e o momento de inércia estão directamente relacionados com a
estrutura de densidades no interior de um planeta assumido como esférico pelas
seguintes expressões:

R
M = 4π ∫ ρ (r ) r 2 dr (2.185)
0

R

3 ∫0
C= ρ (r ) r 4 dr (2.186)

Com excepção da Terra, a distribuição de densidades, ρ(r), não é bem


conhecida, mas pode ser deduzida por equações de estado que a relacionam com a
pressão, P, e a temperatura, T, como a equação de Birch-Murnaghan:

85
 7 5
   2

P=
3K 0  ρ 3  ρ 3   3 '  ρ
 −   × 1 + ( K 0 − 4)
 3 
 − 1 + α 0 K 0 (T − 298) (2.187)
2  ρ 0  
 ρ0    4

   ρ 0  
   

Assim, assumindo um interior em equilíbrio hidrostático, a pressão e a


gravidade são dadas, respectivamente, por

r
P(r ) = ∫ ρ ( x) g ( x) dx (2.188)
R

4π g r
g (r ) = 2 ∫ ρ ( x) x 2 dx (2.189)
r 0

A integração numérica (muito difícil) das equações (2.187) a (2.189) requer


que se façam assumpções sobre a natureza dos materiais do núcleo e do manto e sobre
o seu comportamento às altas pressões e temperaturas dos interiores planetários, pelo
que se usam as informações disponíveis, nomeadamente sobre as composições da
Terra, dos meteoritos e de experiências laboratoriais a altos regimes P-T.
2.8.3. Propriedades gravíticas dos planetas.
2.8.3.1. Mercúrio
Superficialmente semelhante à nossa Lua, não só Mercúrio é maior (4880 km
contra 3476 km de diâmetro) como muito mais denso (5.44 contra 3.34), o que lhe
confere uma massa relativamente alta, 0.3302×1024Kg, uma gravidade equatorial de
0.37ms-2 e uma Velocidade de escape equatorial de 4.25Kms-1.

Crosta

Manto

Núcleo

Figura 2.61 – Esquema da estrutura interior de Mercúrio.


O único planeta do Sistema Solar mais denso que Mercúrio é a Terra. Pensa-se
que o núcleo metálico (essencialmente Fe) de Mercúrio terá 1800 a 1900 km de raio
(figura 2.61) e que parte dele se encontrará em fusão, o que explicaria a existência de
um campo magnético dipolar de origem interna, como o da Terra, mas muito mais
fraco (cerca de 1%), como se verá no capítulo seguinte.

86
2.8.3.2. Vénus
Vénus é o planeta geofisicamente mais semelhante à Terra (que não
geologicamente...). Tem raio equatorial de 6052Km, densidade de 5.243 e massa de
4.8685×1024Kg, o que lhe dá uma gravidade à superfície no equador de 8.87ms-2 e
uma velocidade de escape equatorial de 10.36Kms-1. A estrutura interna de Vénus
também deve ser análoga à da Terra: uma crosta, por vezes espessa (da ordem dos 100
km), um manto silicatado parcialmente fluído e um núcleo metálico sólido, com cerca
de 6000 km de diâmetro (figura 2.62).
Esta estrutura poderia gerar um campo magnético, mas a verdade é que Vénus
não o possui; a baixa velocidade de rotação (o dia venusiano é maior que o seu ano:
246.7 contra 224.7 dias terrestres), tem sido apontada como possível causa desta
ausência de magnetismo.

Crosta

Manto

Núcleo

Figura 2.62 – Esquema da estrutura interior de Vénus.

2.8.3.3. A Terra

Crosta

Manto superior

Manto inferior

Núcleo externo

Núcleo interno

Figura 2.63 – Esquema da estrutura interior da Terra.

87
A Terra é o maior e o mais denso dos planetas telúricos: raio equatorial de
6378Km, densidade de 5.515 e massa de 5.9736×1024Kg, o que lhe confere uma
gravidade no equador de 9.78ms-2 e uma velocidade de escape equatorial de
11.186Kms-1.
Como já se disse, a estrutura da Terra é conhecida principalmente através dos
dados da sismologia (figura 2.63). Foi possível, assim, definir a seguinte estratigrafia:
crosta (-30 a -40 km, de composição “basáltica”, sob os oceanos, -60 a -70 km, de
composição “granítica”, sob os continentes); manto superior, de composição
“peridotítica”, (-650 km); manto inferior, fluido, de composição “dunítica” (-2900
km); núcleo externo, líquido, de composição metálica, predominantemente Fe, Ni, Si,
S, (-5200 km); núcleo interno, também metálico, mas sólido (-6378 km).
2.8.3.4. A Lua
A Lua é o “nosso” satélite, um pouco a nossa segunda casa no espaço.
Para além dos efeitos já descritos das marés, a interacção gravitacional Terra-
Lua tem outras consequências interessantes: o efeito de maré atrasa a rotação da Terra
cerca de 1.5 milissegundo por século e afasta a Lua da Terra cerca de 3.8 cm por ano;
além disso, é esta interacção gravitacional a responsável por a rotação da Lua ser
síncrona com a sua translacção.
Isto tem como consequência que vemos sempre a mesma face do nosso
satélite. Na verdade, os complexos efeitos gravitacionais levam a que a Lua oscile um
pouco na sua órbita (movimento de libração), o que nos permite ver cerca de 53% da
sua superfície ao longo do ano.
A fraca gravidade lunar levou a que a Lua perdesse toda a atmosfera. Apesar
disso, dados recentes das sondas Clementine e Lunar Prospector mostraram a
existência de gelo de água em crateras profundas próximas dos pólos.
Tal como na Terra, a estrutura interna da Lua não é uniforme. A crosta, de
composição essencialmente basáltica, pode ter espessuras entre os cerca de 107 km, a
norte da cratera Korolev, no lado escondido, até ser quase inexistente sob o Mare
Crisium. Segue-se o manto que, ao contrário do da Terra, é quase completamente
sólido, e o núcleo metálico, com cerca de 680 km de diâmetro (figura 2.64).

Crosta

Manto

Núcleo

Figura 2.64 – Esquema da estrutura interior da Lua.


O efeito gravitacional da Terra sobre a Lua tem outra consequência
interessante: o núcleo lunar está descentrado cerca de 2 km no sentido da Terra.

88
A Lua tem densidade 3.350, raio equatorial de 1738Km e massa de
0.07349×1024Kg, o que lhe confere uma gravidade à superfície no equador de 1.62ms-
2
e uma velocidade de escape equatorial de 2.38Kms-1.
2.8.3.5. Marte
Geologicamente muito semelhante à Terra, Marte é geofisicamente muito
diferente. Tem raio equatorial de 3397Km, densidade de 3.933 e massa de
0.6419×1024Kg, o que lhe dá uma gravidade à superfície no equador de 3.69ms-2 e
uma velocidade de escape equatorial de 5.03Kms-1. A estrutura interior de Marte é
inferida, não só a partir das propriedades físicas globais mas também de dados da
superfície. Assim, pensa-se que o planeta terá uma crosta mais fina no hemisfério
Norte (35 km) que no hemisfério Sul (80 km), um manto silicatado, como o da Terra
mas mais denso, e um núcleo metálico, sólido, possivelmente composto de um
mistura de ferro e sulfuretos de ferro, com um raio de cerca de 1700 km (figura 2.65).

Crosta

Manto

Núcleo

Figura 2.65 – Esquema da estrutura interior de Marte.


2.8.3.6. Júpiter
Entramos aqui num sistema diferente: o dos gigantes gasosos. Nestes planetas
só se pode definir uma “superfície” arbitrariamente, é a isóbara de 1bar de pressão
atmosférica.
Júpiter é o gigante dos gigantes (figura 2.66).
É o planeta de maior massa (318 vezes a massa da Terra, mais que todos os
outros planetas juntos) e maior raio (cerca de 71500 km, 11 vezes o raio terrestre). A
sua densidade global é de 1.326, a gravidade à superfície no equador é de 23.12ms-2 e
a velocidade de escape equatorial é de 59.5Kms-1.
Júpiter é tão grande que se pensa poder ser uma estrela abortada – não tem
ainda a massa suficiente para que as forças gravitacionais pudessem começar a fusão
nuclear. Outro elemento em favor desta teoria é a composição da atmosfera joviana:
90% de hidrogénio, 10% de hélio e vestígios de metano, dióxido de carbono, água,
amónia e silicatos – não muito diferente da Nebulosa Solar primordial. Assim, se
Júpiter fosse maior (cerca de 80 vezes maior), o nosso Sistema Solar teria uma estrela
dupla Sol-Júpiter e não haveria certamente quem estudasse Geofísica...

89
Atmosfera (H2, He)

Manto (H metálico)

Núcleo (silicatado)

Figura 2.66 – Esquema da estrutura interior de Júpiter.


A massa de Júpiter é suficientemente grande para ter efeitos sobre todo o
Sistema Solar. Vimos, no parágrafo 2.2.7 e na tabela 2.4, uma análise harmónica das
marés. Quando esta análise é aprofundada para termos de ordem superior verifica-se
que, para além dos efeitos dominantes, bem conhecidos, da Lua e do Sol, há um
terceiro efeito, muito mais fraco mas claramente originado por Júpiter. A cintura de
asteróides, entre Marte e Júpiter, deve-se ao efeito de maré de Júpiter, que não
permitiu que os planetesimais se aglutinassem num planeta. É também este efeito de
maré que mantém activo o vulcanismo de Io, a mais interna das luas galileanas de
Júpiter, como já se referiu.
À medida que vamos descendo na atmosfera de Júpiter, encontramos
condições cada vez mais estranhas. A pressão crescente só permite que o hidrogénio
se encontre no estado líquido. A cerca de 10000Km de profundidade, atinge-se a
pressão de 1 Mbar. A partir daqui, embora ainda líquido, o hidrogénio comporta-se
como um metal: um agregado de núcleos atómicos (neste caso protões) que partilham
uma nuvem electrónica condutora livre. É à existência desta “camada” de hidrogénio
metálico que se deve o fortíssimo campo magnético do planeta. Para se encontrar
material sólido, possivelmente silicatado, ter-se-ia que descer até ao núcleo planetário,
a uma profundidade da ordem dos 60000Km e a uma temperatura da ordem dos
20000 K.
As pressões e temperaturas em jogo implicam que provavelmente nunca se
terá um conhecimento directo do interior de Júpiter. A sonda atmosférica da nave
Galileo (1989) penetrou até uma profundidade de apenas 150 km até ser destruída.
2.8.3.7. Saturno
Saturno é o único planeta que “flutuaria” em água se tal fosse possível, pois é
o único planeta com densidade inferior a 1 (0.687). Apesar disso é um verdadeiro
gigante, com raio equatorial de 60268Km e massa de 568.46×1024Kg, o que lhe dá
uma gravidade à superfície no equador de 8.96ms-2 e uma velocidade de escape
equatorial de 35.49Kms-1. A sua baixa densidade, associada a uma rapidíssima

90
rotação (o dia de Saturno dura apenas 10 horas terrestres) faz que este seja o planeta
com maior achatamento polar (quase 10%).
A composição de Saturno não é muito diferente da de Júpiter, sendo muito
semelhante à da nebulosa solar primordial: cerca de 97% de hidrogénio e 3% de hélio,
com vestígios de água, metano, amónia, e materiais líticos. A camada exterior do
planeta, a sua atmosfera, é composta essencialmente de uma mistura de hélio e
hidrogénio molecular, nas proporções assinaladas, com uma transição gradual do
estado gasoso para o líquido, à medida que as pressões e temperaturas aumentam.
A estrutura interna de Saturno (figura 2.67) também é análoga à de Júpiter. A
um núcleo interno lítico, muito pequeno (menos de 10% do raio) a cerca de 12000 K,
seguir-se-á uma camada composta de uma mistura de gelos de água, metano e amónia,
à qual se seguirá uma camada de hidrogénio metálico, líquido, cujo raio externo
atingirá cerca de metade do raio planetário, a uma pressão da ordem de 1 Mbar,
responsável pelo campo magnético do planeta.

Atmosfera (H2, He)

Manto (H metálico)

Núcleo (silicatado)

Figura 2.67 – Esquema da estrutura interior de Saturno.


2.8.3.8. Úrano
Como todos os objectos trans-saturnianos, Úrano é ainda muito mal
conhecido.

Atmosfera (H2, He,


CH )
Manto (gelos de H2O, CH4,
NH )
Núcleo (Silicatos, gelos)

Figura 2.68 – Esquema da estrutura interior de Úrano. As grandezas são apenas estimativas.

91
Foi aproximado (não orbitado) por uma única sonda, a Voyager 2, em 24 de
Janeiro de 1986. Mesmo assim, esta curta visita permitiu avançar muito o nosso
conhecimento do planeta, nomeadamente por ter revelado as estranhas características
da rotação de Úrano e a existência de um sistema de anéis.
A rotação de Úrano é invulgar em todo o Sistema Solar, primeiro por o eixo de
rotação se encontrar praticamente contido no plano orbital, com o pólo Sul voltado
para o Sol, e depois por se fazer no sentido retrógado. Pensa-se que estes factos se
podem dever a um choque violento com outro planeta que Úrano terá sofrido na sua
história. Apesar disso, a região equatorial de Úrano é a mais quente, tal como em
todos os outros planetas o que, junto com o facto de Úrano radiar mais energia que a
que recebe do Sol, leva a crer que o planeta possui um núcleo “quente” possivelmente
enriquecido em isótopos radioactivos leves (Si? C?), sendo a condução térmica para a
superfície feita por correntes de convecção (figura 2.68).
O núcleo de Úrano deve ser composto de uma mistura de rocha e gelo, de
massa provavelmente não superior à da Terra. A este núcleo seguir-se-á um “manto”
composto por uma mistura de gelos de água, metano e amónia, possivelmente em
estado sólido mas plástico. Daí até à superfície encontra-se uma atmosfera de
hidrogénio, hélio e metano moleculares, que absorvem a luz no vermelho, o que
confere ao planeta a sua característica cor azul.
Úrano tem raio equatorial de 25559Km e massa de 86.832×1024Kg, o que lhe
confere uma gravidade à superfície no equador de 8.69ms-2 e uma velocidade de
escape equatorial de 21.3Kms-1.
2.8.3.9. Neptuno
Tal como Úrano, Neptuno é ainda hoje mal conhecido, tendo sido visitado
somente uma vez, de passagem, em 25 de Agosto de 1989, pela nave Voyager 2.
A cor azul forte de Neptuno resulta do metano existente na atmosfera, mas é
provável que a tonalidade final, bastante diferente da de Úrano, seja resultado de mais
alguns compostos ainda não identificados.

Atmosfera (H2, He, CH4)

Manto (gelos de H2O, CH4, NH4)

Núcleo (Silicatos, gelos)

Figura 2.69 – Esquema da estrutura interior de Neptuno. As grandezas são apenas estimativas.
A estrutura interna de Neptuno não deve diferir muito da de Úrano: terá um
núcleo sólido, de massa análoga à da Terra, composto de uma mistura de silicatos e
vários gelos, envolvido por um manto rico em água, metano e amónia ao qual se
sobrepõe uma atmosfera composta de hidrogénio, hélio e metano (figura 2.69).

92
Neptuno tem raio equatorial de 24764Km e massa de 102.43×1024Kg, o que
lhe confere uma gravidade à superfície no equador de 11.00ms-2 e uma velocidade de
escape equatorial de 23.5Kms-1.

93
94
3. GEOMAGNETISMO E GEOELECTRICIDADE
3.1. Introdução.
O estudo do magnetismo terrestre é o ramo mais antigo da geofísica. Uma
tradição difícil de comprovar refere que teria sido Marco Polo a trazer da China a
agulha de marear, antepassada da nossa bússola. Foi William Gilbert quem, no séc.
XVI, fez os primeiros estudos científicos do magnetismo terrestre; mostrou então que
o campo magnético terrestre era aproximadamente equivalente ao campo que seria
criado por um íman permanente alinhado segundo o eixo da Terra. Foi Carl Friedrich
Gauss quem, na primeira metade do séc. XIX, demonstrou que o campo geomagnético
se devia a causas internas. A primeira aplicação das propriedades magnéticas das
rochas na prospecção de depósitos de magnetite deve-se a von Wrede em 1843.
3.1.1. Bases físicas. As leis de Maxwell.
Hoje é impossível separar o magnetismo da electricidade: um conceito
essencial é que é condição necessária e suficiente para haver um campo magnético a
existência de uma carga eléctrica em movimento. O magnetismo é, assim, um
fenómeno dinâmico.
O fenómeno electromagnético é completamente descrito pelas leis de
Maxwell, que veremos a seguir.
3.1.1.1. Lei de Faraday
Na vizinhança de um campo magnético variável com o tempo, existe um
campo eléctrico perpendicular tal que a força electro-motriz por ele gerada
(intensidade do campo eléctrico) é proporcional ao simétrico da variação do fluxo
magnético. A representação analítica desta lei é dada por um rotacional:

dB
rotE = [∇, E] = − (3.1)
dt

3.1.1.2. Lei de Ampère


O campo magnético existente na vizinhança do fluxo de corrente que o gerou é
proporcional ao total da corrente (soma da sua densidade com a variação do seu
fluxo). Também aqui temos um rotacional:

dD
rotH = [∇, H] = J + (3.2)
dt

3.1.1.3. Lei de Coulomb


As linhas de campo eléctrico têm início e terminam numa carga eléctrica.
Consideram-se aqui duas divergências:

div D = δ (3.3)

em que δ representa a distribuição da densidade de carga eléctrica;

div B = 0 (3.4)

95
o que significa que, na verdade, não existem monopolos magnéticos.
3.1.2. Relações e unidades.
Para meios isotrópicos e contínuos, as intensidades e as densidades eléctricas e
magnéticas relacionam-se por expressões simples.

D=ε.E (3.5)

B=µ.H (3.6)

J=σ.E (3.7)

E=ρ.J (3.8)

As equações (3.7) e (3.8) traduzem a nossa bem conhecida lei de Ohm.


Nas expressões de (3.1) a (3.8), para caracterizar os campos eléctrico e
magnético usaram-se os seguintes vectores e respectivas unidades:
B - densidade de fluxo magnético – weber por m2 (W/m2), ou tesla (T)
H - intensidade do campo magnético – ampere por m (A/m)
D - densidade de fluxo eléctrico – coulomb por m2 (C/m2)
E - intensidade de campo eléctrico – volt por m (V/m)
J - densidade de corrente – ampere por m2 (A/m2).
e as constantes de proporcionalidade das expressões (3.5) a (3.8) são
ε - permissividade eléctrica – farad por m (F/m)
µ - permeabilidade magnética – henry por m (H/m)
σ - condutividade eléctrica – mho por m, siemens/m (S/m)
ρ - resistividade eléctrica – ohm m (Ω.m)
Note-se que, agora, com base nas equações anteriores, é possível reduzir as
equações de Maxwell a equações apenas em E e H.
Sendo conhecida a relação trigonométrica

cos (ωt) + i sin (ωt) = e iωt (3.9)

com

ω = 2πf (3.10)

em que ω é a velocidade angular e f a frequência da oscilação da carga eléctrica que


produz o campo magnético podemos descrever esse campo magnético H (que pode
ser assimilado a um oscilador harmónico produzido por uma corrente alterna), da
seguinte forma:

96
H(t) = H(t0) . e iωt (3.11)

Por outro lado, baseando-nos nas equações de Maxwell podemos escrever

dE d 2E
∆E = ∇ 2E = σµ + εµ (3.12)
dt dt 2

dH d 2H
∆H = ∇ 2H = σµ + εµ (3.13)
dt dt 2

Assim, considerando (3.11) e integrando, podemos escrever (3.12) e (3.13) das


seguintes formas, respectivamente:

∆E = ∇ 2E = iσµE − εµω 2E (3.14)

∆H = ∇ 2H = iσµ H − εµω 2H (3.15)

Estas expressões (3.14 e 3.15) representam as leis fundamentais que regem a


propagação em meios contínuos e isotrópicos dos campos eléctrico e magnético.
3.2. O campo principal.
3.2.1. Características do campo.
O campo geomagnético é um campo tensorial mas, para todos os efeitos
práticos, pode ser reduzido a um campo vectorial e é assim que continuaremos a
tratá-lo. A definição do vector campo magnético pode ser feita em vários sistemas de
coordenadas (adiante usaremos, por exemplo, as coordenadas esféricas), mas a
representação corrente num referencial cartesiano é a da figura 3.1.

Figura 3.1 – Componentes do campo geomagnético

97
Se conseguíssemos suspender uma agulha de aço pelo seu centro de inércia, na
ausência de todos os campos magnéticos excepto o campo magnético terrestre, essa
agulha orientar-se-ia segundo a direcção deste campo, o vector F.
O campo geomagnético total é completamente definido por
- |F| = F, magnitude
- I, inclinação, ângulo vertical que o vector campo total faz com a
horizontal
- D, declinação, ângulo que a projecção horizontal do vector campo total
faz com a direcção N-S.
Da Figura 1 deduzem-se facilmente as seguintes relações:

F2 = H2 + Z2
H = F cos I
X = H cos D
Y = H sin D
(3.16)
Z = F sin I
tg D = Y / X
tg I = Z / H
F = F f = F ( cos D cos I i + sin D cos I j + sin I k)

em que f é o versor que tem a mesma direcção e sentido de F.


Constroem-se cartas que representam linhas de igual declinação – isogónicas
(figura 3.2), inclinação – isoclínicas (figura 3.3), magnitude – isodinâmicas, ou
variação no tempo – isopóricas.

98
Figura 3.2 – Portugal, 1942.0 – Isogónicas

99
Figura 3.3 – Portugal, 1942.0 – Isoclínicas

100
3.2.2. Fontes do campo geomagnético.
O vector campo geomagnético total, F, que podemos medir num ponto da
Terra, não tem uma única origem; na verdade, é a resultante de três campos
magnéticos cujos efeitos se sobrepõem e nem sempre são fáceis de separar:
- Campo principal – de origem interna, com variações lentas;
- Campo externo – de origem externa, de magnitude inferior à do campo
principal, com variações rápidas;
- Campos locais ou anomalias magnéticas – causados por materiais
crustais magnetizados, sem variação temporal mas com grande variação
espacial, correspondem às anomalias magnéticas em prospecção; a sua
magnitude pode ultrapassar muito a do campo principal.
Como se pode ver nesta descrição, a separação das três componentes do
campo é feita essencialmente com base nas respectivas fontes e na sua variabilidade.
Contudo, um pouco de análise matemática também nos pode ajudar nessa separação.
3.2.3. Descrição matemática do campo principal.
A descrição matemática do campo geomagnético deve-se, como tantos
aspectos da Física matemática, a Karl Friedrich Gauss. O trabalho de Gauss baseou-se
na expansão do campo em harmónicas esféricas (como já vimos para o campo
gravítico) e tem uma importantíssima consequência: é possível atribuir a cada
harmónica uma fonte externa ou interna à Terra.
A equação de Laplace pode ser escrita em coordenadas esféricas como

∂  2 ∂U  1 ∂  ∂U  1 ∂ 2U
r +  sin θ + 2 =0 (3.17)
∂r  ∂r  sin θ ∂θ  ∂θ  sin θ ∂λ2

onde U é o potencial do campo magnético à superfície de uma Terra


aproximadamente esférica, de raio a, causado por uma fonte colocada nas
coordenadas polares (r, θ, λ).
Neste caso, em que a simetria em relação ao eixo da Terra é uma aproximação
suficiente, a solução da eq. (3.17) pode escrever-se como uma série de polinómios de
Legendre, que vai implicar a tal dependência de r consoante a fonte da componente do
campo se situe a r<a ou r>a:

l
r
U e = a ∑ El   Pl cos θ (3.18)
a

l +1
a
U i = a ∑ Il   Pl cos θ (3.19)
r

Aqui, Ue é o potencial dentro ou sobre a esfera, devido a fontes externas e Ui é


o potencial fora ou sobre a esfera, devido a fontes internas; El e Il são factores de
amplitude que traduzem a contribuição de fontes externas e internas, respectivamente,
para a harmónica de ordem l.

101
Desta forma, somando, vem o potencial total na superfície da Terra:

  a  l +1 r 
l

U = a ∑  I l   + El    Pl (cos θ ) (3.20)
  r   a  

Podem obter-se as componentes do campo por diferenciação parcial:

1 ∂U   r l  a   ∂Pl cos θ
l +1

X = = ∑  El   + I l    (3.21)
a ∂θ   a   r   ∂θ

Y=0 (3.22)

∂U   r  l −1 a 
l+2

Z= = ∑ lEl   − (l + 1) I l    Pl cos θ (3.23)


∂r   a   r  

Vejamos os termos que envolvem P1cosθ - a primeira harmónica:

X1 = -(E1 + I1) sin θ (3.24)

Z1 = (E1 – 2I1) cos θ (3.25)

Os termos entre parênteses podem obter-se agora ajustando valores de X e Z


observados a diferentes latitudes a uma função sinusoidal. A análise poderia também
ser estendida a harmónicas de grau mais alto, produzindo as importâncias relativas de
fontes internas e externas.
No tempo de Gauss, os dados disponíveis eram em pequena quantidade e
qualidade, pelo que ele só pôde aplicar este método ao primeiro termo (como aqui).
Concluiu assim que todo o campo era originado por fontes internas. Mais
recentemente, foi possível determinar várias harmónicas de graus superiores, com
grande precisão, e confirmaram-se em grande parte as conclusões de Gauss: o dipolo
P1 domina todos os outros.
3.2.4. O campo geomagnético de referência, IGRF.
A expansão do potencial, devida a Gauss, que se apresentou atrás (equações
3.18 a 3.25) contém uma simplificação importante: que o campo tem uma simetria
toroidal em torno do eixo magnético da Terra, ou seja, que é invariante com a
longitude. Sabemos que não é assim. A expressão completa do potencial é dada por

n +1
N n
a
U = a ∑∑   (g m
n )
cos mφ + hnm sin mφ Pnm (cos θ ) (3.26)
n =1 m = 0  r 

102
onde N é o grau máximo da expansão, φ é a longitude para Leste de Greenwich e
Pnm(cosθ) é a função de Legendre de grau n e ordem m, normalizada de acordo com a
convenção de Schmidt.
Desde 1965 que a IAGA (International Association for Geomagnetism and
Aeronomy – Associação Internacional para o Geomagnetismo e a Aeronomia) publica,
a cada cinco anos, aproximadamente, o conjunto de índices gmn e hmn que permitem
determinar o campo teórico em cada ponto da superfície da Terra ou acima dela,
assim como a sua variação temporal. Este conjunto de índices define completamente o
chamado campo geomagnético internacional de referência (IGRF – International
Geomagnetic Reference Field). Na figura 3.4 representa-se o campo teórico para o
ano 2000.

Figura 3.4 – Campo de origem interna para 2000.0, baseado no modelo IGRF2000.
3.2.5. O campo não dipolar.
Até agora, sempre temos chamado “campo dipolar” ao campo geomagnético
principal, de origem interna. Uma análise da equação (3.26) da expansão do campo
em harmónicas esféricas mostra-nos que a componente puramente dipolar diz respeito
apenas ao primeiro termo da expansão, para m=0. Na verdade, portanto, a equação
(3.26) é uma expressão multipolar do potencial geomagnético. Ela contém três
termos para os quais n=1, correspondentes a três dipólos: um alinhado com o eixo
magnético e dois outros, ortogonais, no plano do equador magnético. Os termos para
os quais n=2 são os correspondentes ao chamado campo quadripolar. Da mesma
forma que um dipólo ideal consiste em dois pólos arbitrariamente próximos, um
quadripólo consiste em dois dipólos arbitrariamente próximos, um octopólo (n=3) em
dois quadripólos arbitrariamente próximos e assim sucessivamente. As linhas dos
campos dipolar e quadripolar encontram-se esquematizadas na figura 3.5.

103
_ _
+ +
+ _

(a) (b)

Figura 3.5 – Linhas de campo dipolar (a) e quadripolar (b).


3.2.6. Causas do campo principal. Introdução aos modelos caóticos.
3.2.6.1. Fundamentos.
A partir da expansão do campo geomagnético em harmónicas esféricas (3.2.3.)
vimos que podemos esperar que este campo seja produzido por
a) uma fonte interna;
b) uma fonte assimilável a um dipolo;
c) um dipolo aproximadamente alinhado com o eixo de rotação da Terra.
É importante fazer duas observações. Primeiro, que c) parece implicar que a
rotação da Terra tem um papel na geração do campo. Em segundo lugar, que a) e b)
não implicam que o dipolo se situe no centro da Terra, dado que uma esfera
uniformemente magnetizada com o centro coincidente com o centro da Terra poderia
produzir o mesmo efeito. Vejamos como.
Considere-se uma esfera uniformemente magnetizada com intensidade J
crescente na direcção decrescente do eixo z (polo N ‘para baixo’). O potencial num
ponto P, exterior à esfera, devido a um elemento de volume desta, dv, é dado por

∂ 1
δU P =   J dv (3.27)
∂z  ρ 

onde ρ é a distância de P a dv.


Ao integrar, ou seja, considerando o efeito de todos os dv sobre P, obtemos
uma expressão idêntica à que deduzimos para o potencial gravítico. E já sabemos que
este, pelo teorema de Gauss, pode ser assimilado ao potencial produzido por uma
massa pontual centrada na esfera.
Assim, analogamente, vemos que

∂ V 
UP = I   (3.28)
∂z  r 

ou seja,

104
cos θ
U P = −M (3.29)
r2

em que V é o volume total da esfera, r a distância do seu centro a P, e M é o momento


magnético e θ a co-latitude de P. Reconhecer-se-á que esta é a expressão que traduz o
potencial num ponto P criado por um dipolo centrado de momento M alinhado com o
eixo z.
Isto implica que se quisermos explicar a origem do magnetismo deveremos
procurar causas cuja expressão matemática seja a de uma distribuição uniforme e
esférica.
Esta conclusão exclui liminarmente a ideia clássica sobre o campo
geomagnético ser originado por uma grande massa de minerais magnéticos situada
algures na Terra (no Canadá, diz ainda hoje muita gente…).
Outra hipótese foi a da existência dessa mineralização mas com geometria
esférica, paralela e interior à crosta. Também esta deve ser posta de lado, não só
porque não é confirmada por nenhum outro método geofísico (como a sismologia) ou
inferência geológica mas também porque a dimensão dessa esfera teria que ser tal que
a maioria do seu volume se encontraria a profundidades onde a temperatura é superior
àquela a que os minerais conhecidos mantêm a magnetização (esta temperatura,
chamada de Curie, será discutida mais tarde, quando se estudar o magnetismo de
rochas e minerais).
Além destes obstáculos de peso, também nenhuma teoria que inclua as
propriedades magnéticas de rochas e minerais responde a uma questão importante: a
relação íntima que existe entre o campo geomagnético a rotação da Terra. Veremos
em seguida algumas teorias que consideram este fenómeno.
3.2.6.2. Teorias envolvendo a rotação: modelos lineares de dínamo.
As primeiras teorias a considerar a rotação da Terra envolviam o chamado
efito giromagnético. Trata-se de uma polarização magnética que se observa em corpos
magnetizados submetidos a um movimento de rotação. Estas teorias foram
abandonadas pois os campos magnéticos por elas previstos eram várias ordens de
grandeza inferiores ao campo real.
Outras teorias envolviam a rotação de cargas eléctricas livres no interior da
Terra. Também estas foram abandonadas, dado que nunca foi possível medir os
campos eléctricos que necessariamente teriam que estar associados a uma tal corrente.
Esses campos teriam intensidades de milhões de ampère, o que traria outra
consequência: um imenso aquecimento por efeito Joule.
Blackett (1947) propôs uma outra teoria segundo a qual a magnetização seria
uma propriedade fundamental de qualquer massa em rotação, havendo uma relação
linear entre o momento angular e o resultante momento magnético. O próprio Blackett
verificou mais tarde (1955) que a magnitude do momento magnético adquirido por
uma massa em rotação não era suficiente.
Outro campo de investigação destinou-se a determinar se a origem do campo
seria superficial, ou profunda, ou originada uniformemente pelo todo da Terra. Uma
experiência permite esclarecer este ponto: trata-se de medir uma componente
horizontal do campo a várias profundidades. Se a fonte do campo tiver uma
distribuição homogénea por toda a Terra, então uma sua componente horizontal deve

105
diminuir à medida que nos aproximamos do centro. Por outro lado, se o campo for
produzido por um dipolo central, então a sua força deve diminuir com o cubo da
distância ao centro. As medidas de Runcorn mostraram que esta segunda interpretação
deve ser a mais realista, pelo que devemos procurar algum papel do núcleo terrestre
na geração do campo geomagnético.
As teorias de dínamo supõem a existência de movimentos de matéria num
núcleo fluido e condutor. Um modelo físico simples para estas teorias é o gerador de
disco de Faraday (figura 3.6).

Figura 3.6 – Gerador de Faraday


Se um disco condutor de raio a rodar num campo uniforme H0, paralelo ao
eixo de rotação, cria-se uma diferença de potencial entre o eixo e a periferia do disco.
A corrente que flui pela espira será

1 H 0va
I= (3.30)
2 R

em que v é a velocidade (linear) da periferia do disco e R é a resistência total do


circuito. Esta corrente vai produzir um campo magnético H, segundo o eixo de
rotação, de tal modo que

2πI πH 0 v
H= = (3.31)
a R

Como é óbvio, a sustentação do campo depende da velocidade de rotação do


disco: se (v = R / π) o campo inicial é apenas sustentado; se (v > R / π) qualquer
pequeno campo inicial será amplificado, desde que a força que imprime rotação ao
disco consiga manter a velocidade. Ao passarmos deste modelo simplificado para a
Terra temos, contudo, alguns problemas. O modelo assume que o dínamo é
reproduzido por um conjunto de células de convecção num núcleo fluido. O ‘motor’
do movimento é o gradiente geotérmico que sustenta a convecção. Mas, em primeiro
lugar, o número e a geometria dessas células têm que ser definidos muito rigidamente.
Por outro lado, o modelo não inclui o núcleo interno, sólido, que limita muito o
volume de matéria disponível para convecção.

106
Um problema ainda mais sério advém de os modelos de dínamo simples serem
modelos lineares: não explicam as inversões do campo geomagnético.
3.2.6.3. Modelos caóticos: uma introdução.
Veremos mais adiante neste capítulo, ao estudar o paleomagnetismo, que se
verifica que o campo geomagnético não teve sempre a mesma orientação ao longo de
toda a história da Terra: foi umas vezes normal (como hoje), o que corresponde a ter o
polo Norte magnético próximo do Sul geográfico, e outras vezes inverso (de sentido
oposto). Mais: a duração dos períodos em que o campo esteve normal, ou inverso, não
segue nenhuma lei linear simples. Na verdade, a sequência das durações parece
aleatória.
Muitos sistemas em Física apresentam esta dinâmica: o movimento de
pêndulos acoplados, na mecânica ondulatória, o fluxo turbulento, na mecânica de
fluidos, o problema dos três corpos, em astrofísica, a sismicidade, que estudaremos
mais tarde, na geofísica. O que parece ser estranho em relação a este tipo de
problemas é que se conhecem bem as equações que governam os processos (na
maioria dos casos desde o séc. XVIII) mas a sua aplicação simples não permite
modelá-los. A modelação só é possível usando sistemas não-lineares de equações
diferenciais, determinísticas, mas essa é uma modelação não-determinística, ou seja,
não permite prever o comportamento dos sistemas modelados!
Este comportamento ‘estranho’ de um sistema determinístico não nos deve
admirar: chama-se caos e é, na natureza natural (por oposição à natureza ideal da
Física clássica), mais a regra que a excepção. O nascimento da moderna teoria do caos
tem uma história que merece ser contada (Gleick, 1991).

Figura 3.7 – A Borboleta de Lorenz


O matemático americano Edward Lorenz trabalhava no MIT (Massachussets
Institute of Technology) em 1963 e, nas suas horas vagas, tentava reduzir um
problema clássico da meteorologia – a circulação atmosférica – a um sistema simples
de equações diferenciais parciais. Para resolver numericamente o seu sistema de três
equações usava um computador, que tinha programado, e que tinha a velocidade de
processamento, vertiginosa para a época, de uma operação por segundo. O gráfico da
evolução das soluções tinha a forma de uma borboleta (ficou conhecido como a
Borboleta de Lorenz), muito complexa: não era claro o determinismo nas trajectórias
– que eram forçosamente determinísticas, dado que provinham da solução de um
sistema de equações sem qualquer componente aleatória (figura 3.7).

107
Para tentar compreender o que se passava, Lorenz repetiu uma parte do
processo: começou as iterações de um ponto na trajectória no interior da “Borboleta”,
que era uma das soluções do dia anterior. Ao chegar ao fim do dia comparou os
resultados obtidos com os das iterações do dia anterior e verificou, com espanto, que
estes eram completamente diferentes. Era como se o mesmo número de iterações
produzisse num dia Inverno e no outro dia Verão!
Lorenz havia descoberto, ao mesmo tempo, o caos e a sua condição essencial:
a extrema sensibilidade às condições iniciais. De facto, quando Lorenz pensava
estar a introduzir os mesmos valores do dia anterior não o estava a fazer. Um número
saído de um computador não tem a mesma quantidade de algarismos significativos
que o mesmo número em memória – fôra essa diferença mínima (da ordem de 10-10) a
provocar a divergência nas soluções.
Foi a verificação da extrema sensibilidade às condições iniciais que levou
Lorenz a formular a sua famosa frase: “o bater de asas de uma borboleta na Califórnia
pode desencadear um furacão no México”.
O mesmo efeito pode ser facilmente simulado com uma simples calculadora.
Vejamos como.
O mapa logístico é uma aplicação do intervalo [0, 1] nele próprio, definida
pela iteração da expressão

xn+1 = 1 - µ xn2 (3.32)

O aspecto de uma sequência destes valores depende do valor escolhido para µ,


mas não depende do valor inicial de x, x0. Se fizermos x0 = 0 e testarmos para µ
sucessivamente os valores 0.5, 1, 1.3 e 1.95 vamos obter os gráficos da figura 3.8 para
20 iterações.
Temos assim quatro situações:
a) µ = 0.5 – processo dissipativo – corresponde ao gráfico do movimento de
um pêndulo com atrito;
b) µ = 1.0 – processo periódico, de período 2 – corresponde ao gráfico do
movimento de um pêndulo sem atrito;
c) µ = 1.3 – processo periódico, de período 4;
d) µ = 1.95 – processo caótico.
(Entre os valores de µ = 1.3 e µ = 1.95 há, na verdade, uma infinidade de
duplicações de período, o que permitiria tirar conclusões muito interessantes sobre os
processos caótico, mas estaria fora do escopo deste curso. Veja-se, por exemplo,
Turcotte, 1992).
Uma forma muito didáctica de repetir a experiência de Lorentz consiste em
iterar o mapa logístico em duas calculadoras de modelos diferentes, ao mesmo tempo.
Ao fim de algumas dezenas de iterações, os resultados divergem completamente.
Voltemos ao fenómeno que nos importa directamente: o campo geomagnético
e as suas inversões.

108
Se o mapa logístico com µ = 0.5 fosse um modelo para as inversões do campo
geomagnético este hoje seria constante ou, pelo menos, poderia identificar-se uma
sequência decrescente de períodos de inversão, o que não é o caso.

(a)
1.2
1.0
0.8
0.6
0.4
0.2
0.0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

(b)
1.5
1.3
1.1
0.9
0.7
0.5
0.3
0.1
-0.1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

(c)
1.2
1.0
0.8
0.6
0.4
0.2
0.0
-0.2
-0.4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

(d)
1.5

1.0

0.5
0.0

-0.5
-1.0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Figura 3.8 – Mapa logístico: 20 iterações


(a) µ = 0.50 – processo dissipativo;
(b) µ = 1.00 – processo periódico, de período 2;
(c) µ = 1.30 – processo periódico, de período 4;
(d) µ = 1.95 – processo caótico.

109
Se as inversões do campo fossem um processo periódico, este seria facilmente
modelável e até previsível, mesmo por uma função mais simples como uma sinusóide,
ou, pelo menos, por uma expansão em séries de Fourier, o que também não se passa.
Resta-nos a possibilidade de se tratar de um processo caótico. É-o, de facto.
Será que o mapa logístico é um modelo para o processo? Decerto que não é um
modelo físico, dado que não corresponde a nenhuma realidade física identificável com
o magnetismo. (Uma curiosidade: o mapa logístico é modelo para alguns fenómenos
naturais como a dinâmica das populações.) Também não é um modelo matemático.
Uma das formas de verificar se um objecto matemático é modelo de um processo
natural consiste em comparar as suas dimensões fractais. Na realidade, o mapa
logístico, para todos os valores de µ que produzem sequências caóticas, possui
sempre dimensão fractal muito mais elevada – mais próxima de 2 – que a sequência
das inversões do campo geomagnético. Teremos, portanto, que recorrer a um modelo
simultaneamente mais sofisticado e fisicamente mais realista.
Esse modelo é o dínamo de Rikitake.
3.2.6.4. Modelos não-lineares de dois dínamos acoplados.
Rikitake propôs, ainda em 1958, o dínamo de dois discos acoplados que se
representa na figura 3.9. Na essência, cada um dos dínamos é igual ao do modelo de
Runcorn descrito em 3.2.6.2. mas agora a espira que alimenta cada um dos dínamos é
a do outro.

Figura 3.9 – Dínamo de Rikitake.


O comportamento do sistema num estado estacionário é fácil de compreender.
Aplicam-se binários iguais, G, a ambos os dínamos. A corrente I1 passa pela espira da
direita no sentido retrógrado. Esta espira gera um campo magnético B2 que é positivo
‘para baixo’ e atravessa o disco direito. O binário G faz com que este disco rode a
uma velocidade angular Ω2. O campo eléctrico induzido no disco direito tem a
direcção radial ‘para dentro’ e é este campo que produz a corrente I2. A equação do
circuito no estado estacionário é

110
R I2 = M Ω2 I1 (3.33)

onde R é a resistência em cada um dos circuitos (igual) e M é a indutância mútua entre


as espiras e os discos.
Uma corrente eléctrica I num campo magnético B resulta numa f.e.m.

F=I×B (3.34)

por unidade de comprimento do circuito. Note-se que a interacção entre o campo B2 e


a corrente I2 resulta num binário no sentido retrógrado. No estado estacionário, que
temos estado a descrever, esse binário equilibra o binário aplicado, ‘mecânico’, G, e é
dado por

G = M I1 I2 (3.35)

Toda esta discussão pode ser aplicada, mutatis mutandis, ao sistema do lado
esquerdo.
Já para um estado não-estacionário, as equações são:

dI 1
L + RI 1 = MΩ1 I 2 (3.36)
dt

dI 2
L + RI 2 = MΩ 2 I 1 (3.37)
dt

dΩ1
C = G − MI 1 I 2 (3.38)
dt

dΩ 2
C = G − MI 1 I 2 (3.39)
dt

onde L é a auto-indutância de cada circuito e C o momento de inércia de cada dínamo.


Se subtrairmos (3.38) e (3.39) e integrarmos temos que

Ω1-Ω2=Ω0 (3.40)

onde Ω0 é uma constante.


Um processo comum ao lidar com sistemas de equações não-lineares consiste
na introdução de variáveis adimensionais, que simplificam bastante o tratamento:

CM
τ =t (3.41)
GL

111
M
X 1 = I1 (3.42)
G

M
X 2 = I2 (3.43)
G

CM
Y1 = Ω1 (3.44)
GL

CM
Y2 = Ω 2 (3.45)
GL

CM
A = Ω0 (3.46)
GL

CR 2
µ= (3.47)
GLM

Substituindo, agora, nas equações (3.36) a (3.38), e considerando que (3.40)


pode substituir (3.39), vem

dX 1
+ µX 1 = Y1 X 2 (3.48)

dX 2
+ µX 2 = (Y1 − A) X 1 (3.49)

dY1
= 1− X1X 2 (3.50)

Y2 = Y1 − A (3.51)

onde A = µ(K2 – K-2). Este é o sistema de equações diferenciais que descreve a


evolução do dínamo de Rikitake. As soluções para o estado estacionário podem obter-
se muito simplesmente igualando a zero as derivadas em ordem ao tempo, o que dá

X1 = ± K (3.52)

112
X2 = ± K-1 (3.53)

Y1 = µ K2 (3.54)

Y2 = µ K-2 (3.55)

onde os sinais ± se referem aos estados normal e inverso do campo.


A figura 3.10 representa as soluções numéricas deste sistema de equações,
para µ=1 e K=2. Mostra aquilo a que adequadamente se chama um atractor
estranho. É um atractor porque a trajectória do ponto que representa as soluções se
desenvolve sempre numa sua vizinhança arbitrariamente próxima; é ‘estranho’ porque
o conhecimento da posição do ponto numa trajectória não permite prever a sua
posição futura e porque a sua dimensão é fractal e muito alta.
A figura 3.11 mostra-nos a sequência dos valores da variável X1 nas primeiras
100 iterações. Esta sequência é admiravelmente semelhante à sequência natural das
inversões do campo geomagnético – tem uma dimensão fractal da mesma ordem.

Figura 3.10 – Um atractor estranho para o dínamo de Rikitake, no plano X2Y1.

Figura 3.11 – Evolução temporal de X1 na figura anterior.


Voltamos agora à pergunta inicial. O dínamo de Rikitake é um modelo para as
inversões do campo geomagnético? É, sem dúvida, um modelo matemático, mas a sua
excessiva simplicidade física afasta-o decerto das causas reais do campo.

113
3.2.7. Variações temporais do campo principal: a variação secular.
Desde que se realizam medidas do campo geomagnético que se verificou que
este não é constante no tempo, nem em direcção nem em intensidade. A esta variação
dá-se o nome de variação secular do campo geomagnético, devido ao seu período
muito longo. Já vimos que há outras variações de período muito mais curto, que serão
estudadas mais adiante; para isolar a variação secular, será necessário filtrar estas
variações mais rápidas.
Um observatório magnético clássico fazia (e, em alguns casos, continua a
fazer) o registo em contínuo de três componentes do campo: Z, H e D. Para esse fim,
usavam-se equipamentos que consistiam essencialmente em agulhas magnéticas
suspensas da seguinte forma (figura 3.12):

Figura 3.12 – Esquema dos variógrafos para Z, H e D.


Z – agulha equilibrada
H – agulha perpendicular ao meridiano
D – agulha sobre o meridiano

As agulhas estão solidárias com um sistema de espelhos que reflectem a luz


emitida por uma fonte colimada para um tambor de registo em movimento lento (da
ordem de uma rotação por 24h). O registo obtido – magnetograma – é semelhante ao
da figura 3.13.

Figura 3.13 – Magnetograma para um dia.


O magnetograma regista apenas variações. Para poder ser útil, têm que se
verificar as seguintes condições:

114
a) isolamento de perturbações artificiais;
b) precisão das referências temporais;
c) determinação de valores absolutos para a linha de base para cada
componente;
d) conhecimento dos factores de escala para cada componente.
A determinação de valores para a linha de base é feita com medições
absolutas, frequentes, de cada componente, usando um magnetómetro de precisão
(descritos abaixo em 3.5.2). Os factores de escala são conhecidos aplicando às agulhas
vários campos de intensidade e direcção conhecida e fazendo uma regressão linear das
deflexões produzidas.
Os valores da variação secular das componentes do campo geomagnético
podem ser projectados em cartas regionais ou globais de linhas que unem pontos de
igual variação – isopóricas (figura 3.14).

(a)

(b)
Figura 3.14 – Variação secular de Z, em 10*nT/ano. (a) 1966.0; (b)1996.0

115
Particularmente interessante, é a comparação entre cartas destas elaboradas em
tempos diferentes. Se se atentar nas duas cartas da figura 3.14, uma elaborada para
1966.0 e a outra para 1996.0, verificar-se-á que a própria variação secular varia. Em
especial, nota-se que os ‘picos’ e ‘vales’ mais acentuados aparecem ligeiramente
deslocados para a esquerda ao fim de 20 anos. É a chamada deriva do campo para
oeste, da ordem de 0.2º/ano que, tal como a nutação livre dos polos (vd. capítulo 2),
tem sido interpretada como resultando de um fenómeno de acoplagem
electromagnética entre o núcleo externo e o manto inferior. Este fenómeno é passível
de tratamento analítico uma vez que a variação no tempo da variação no tempo de um
campo não é mais que a segunda derivada do campo em ordem ao tempo.
3.3. O campo magnético externo.
3.3.1. Configuração.
Vimos no capítulo anterior que nem todo o campo geomagnético é de origem
interna. Pode estudar-se o campo principal com base num modelo clássico, dir-se-ia
solipsista, da Terra como um dipolo perdido no vazio (figura 3.15), mas já sabemos
que as variações de período curto do campo têm uma origem exterior ao nosso
planeta, controlada pelo Sol. Esse controlo estende-se à própria forma e estrutura do
campo.

Figura 3.15 – Modelo do campo geomagnético, até 1965.


A exploração do espaço levou-nos a descobrir que o Sol envia em todas as
direcções, não só luz, mas também um fluxo constante de partículas carregadas,
embora globalmente neutro, principalmente protões e electrões – um plasma – que
chega à Terra com velocidades médias da ordem dos 400 a 500Km/s. Descobriu-se,
também, que a pressão do campo geomagnético é suficiente para “escavar” nesse
plasma uma cavidade na qual as partículas não conseguem penetrar – a magnetosfera
(figura 3.16).
Chama-se frente de choque à superfície irregular (turbulenta) em que o vento
solar diminui bruscamente a sua velocidade ao encontrar o obstáculo constituído pelo
campo geomagnético, analogamente à frente de choque (onda) que precede um barco
no seu movimento. O conjunto dos pontos em que a pressão do campo geomagnético

116
equilibra precisamente a pressão do fluxo do vento solar tem o nome de
magnetopausa.

Figura 3.16 – Modelo actual do campo geomagnético, no plano 12h-00h.


Como a actividade solar não é constante, também não o é o fluxo do vento
solar, o que faz com que a magnetosfera se contraia e expanda em resposta às
variações daquele fluxo. Considerando valores médios, a pressão do vento solar, PS, a
uma distância R do Sol é dada por

nmv 2
PS = (3.56)
2R 2

onde n é a densidade do vento solar a 1 UA (cerca de 107 protões/m3), m é a massa do


protão (1.66×10-27Kg) e v a velocidade do vento solar a 1 UA (cerca de 400000m/s).
Estes valores permitem estimar PS como sendo da ordem de 1.328×10-17N/m2.
Os satélites permitiram estimar uma distância típica para a magnetopausa, da
ordem dos 10 raios terrestres,RE ,(1RE = 6371Km) e, para a frente de choque, da
ordem dos 12 RE, na direcção Terra-Sol.
Durante muito tempo pensou-se que a magnetosfera era fechada,
completamente estanque ao vento solar. Sabe-se, hoje, que não é assim: o vento solar
é magnetizado e, portanto, deve haver pontos em que as suas linhas de campo se
interconectam com as da magnetosfera terrestre. O conjunto desses pontos definem
zonas, as cúspides magnéticas, que são pontos de fraqueza, sobre os pólos
magnéticos, por onde as partículas do vento solar podem penetrar até à alta atmosfera
provocando as auroras (figura 3.17 e, abaixo, 3.42).
A analogia com o movimento de um barco não se aplica apenas a montante do
vento solar (a frente de choque) mas estende-se para jusante, configurando a

117
magnetocauda, de extensão muito variável, mas habitualmente na ordem dos 600 a
1000 RE.

Figura 3.17 – Aurora boreal sobre as florestas do NW dos EUA. Imagem NOAA.
O interior da magnetosfera, aquela zona onde as linhas de campo são fechadas,
também é muito mais complexo do que se pensava antigamente. Pouco acima da
superfície (50 a 100 Km) encontra-se a ionosfera, onde se encontram os electrões e
iões livres produzidos principalmente por fotodissociação nas camadas mais altas da
atmosfera. Apesar disso, a estas altitudes a densidade de partículas carregadas é muito
menor que a de átomos neutros. Contudo, dos 100Km até aos 300Km a relação de
densidades tende a inverter-se até que, cerca dos 300Km, quase só existem partículas
carregadas com densidades da ordem das 106/cm3.
Até aos cerca de 3RE a densidade de partículas cai para cerca de 100/cm3 e, a
partir daí, decresce abruptamente (tendencialmente para zero), na fronteira conhecida
como plasmapausa. O plasma abaixo da plasmapausa é um plasma “frio” (pouco
energético) e, acima daquela, um plasma “quente” (muito energético), constituído já
principalmente por protões e electrões, mas também por alguns iões mais pesados, de
origem terrestre, que foram acelerados na magnetocauda ou nas cúspides polares.
Entre os 3 e os 6RE as partículas “quentes” estão confinadas a duas zonas
toroidais: as cinturas de Van Allen. A cintura interior é constituída principalmente
por protões e a exterior por electrões. Recentemente descobriu-se que, dentro da
cintura interior de Van Allen, há uma terceira cintura onde se encontram confinadas
partículas provenientes dos raios cósmicos.
3.3.2. Variação diurna.
Se regressarmos ao magnetograma da figura 3.13, poderemos identificar
variações cíclicas dos elementos do campo, com períodos da ordem das 24h, às quais
são sobrepostas outras variações de aparência irregular (ou caótica?).
Desde o séc. XIX verificou-se que, se num observatório se construir um
‘magnetograma médio’ de vários dias a curva obtida é suavizada (há filtração das
variações muito rápidas) e, mais importante, essa curva é característica de cada

118
observatório. A amplitude das variações depende da latitude magnética do lugar: para
observatórios à mesma latitude, as variações são semelhantes desde que as
componentes do campo sejam projectadas contra a hora local. Isto aponta claramente
para o Sol como elemento determinante.
Uma análise de Fourier das variações mostra, para além de um período de 24h,
atribuível ao Sol, um outro período mais longo, de cerca de 25h. Verifica-se que estas
variações de período mais longo variam também em amplitude e fase, mas com
periodicidade mensal – o que aponta para a Lua como factor de controlo.
Suponhamos que medimos a amplitude do sinal magnético (para uma ou mais
componentes) simultaneamente em todos os observatórios do mundo. A distribuição
dessas medidas representa um campo magnético que pode ser analizado pelo método
das harmónicas esféricas, se se fizerem algumas concessões ao rigor matemático. De
facto, este campo tem variação temporal, não é estacionário, portanto não é um campo
potencial. A concessão consiste em assumir que esse campo é estacionário,
desprezando a sua variação por ser muito lenta.
A análise harmónica permite verificar que as causas da variação diurna do
campo são predominantemente externas embora a componente de origem interna não
se possa desprezar – a relação efeitos externos/internos é da ordem de 2.4/1.
Para além de permitir atribuir a localização das causas, a análise harmónica
permite ainda determinar o sistema de correntes eléctricas equivalente ao campo.
Como já se viu que o campo de variação rápida tem causas principalmente externas à
Terra, pode-se imaginar este campo como sendo criado por um fluxo de corrente
eléctrica na superfície de uma esfera de raio r exterior à Terra (raio a). Introduz-se
uma função de corrente J tal que as linhas de J na superfície da esfera são fechadas,
representando a direcção do fluxo de corrente, e tal que o fluxo entre as linhas Jn e
Jn+dJ é de dJ unidades de corrente. A densidade de corrente é, assim, de dJ/ds onde
ds é o espaçamento entre linhas.
O potencial magnético de uma corrente que flui em torno de um elemento
fechado da superfície esférica é idêntico ao potencial de uma distribuição de dipolos
magnéticos nessa superfície. No caso da coroa entre as linhas de corrente Jn e Jn+dJ o
momento magnético equivalente por unidade de superfície seria dJ em toda a área
limitada pela linha Jn. Se, assim, se substituirem todos os elementos de corrente pelas
suas distribuições equivalentes de dipolos magnéticos, a densidade de dipolos em
qualquer ponto será igual a J nesse ponto, a menos de uma constante. Deste modo,
pode-se expandir a função J numa série de harmónicas esféricas Jl(θ, φ):

l
10 2l + 1  a 
J l (θ , φ ) = −   U l , para r<a (3.57)
4π l + 1  r 

l +1
10 2l + 1  r 
J l (θ , φ ) = −   U l , para r>a (3.58)
4π l  a 

onde Ul é a harmónica esférica de ordem l na expansão do potencial.


A variação diurna tem sido explicada, desde 1882, como um mecanismo de
dínamo nas camadas altas da atmosfera. Mais recentemente, a condutividade da

119
atmosfera foi explicada como resultante de um processo de foto-ionização do ar, o
que causa os efeitos magnéticos mais pronunciados no lado da Terra exposto ao Sol,
como se pode ver na.
Estes modelos têm sido verificados pela medição directa da condutividade
atmosférica usando foguetes.
3.3.3. Tempestades magnéticas.
Um magnetograma não permite observar directamente a variação diurna
‘pura’, dado que se encontra quase sempre perturbado por flutuações do campo de
aparência espúria. Estas perturbações caracterizam-se internacionalmente numa escala
logarítmica de índices K, que têm variado desde 0, para uma dia em que só se observe
a variação diurna até um máximo observado de 9 para as perturbações mais severas.
(Como todas as escalas logarítmicas esta escala é aberta em ambos os
extremos: não se pode dizer que ‘vai de 0 a 9’…).
É a estas perturbações importantes que se dá o nome de tempestades
magnéticas.
As tempestades magnéticas têm uma correlação óbvia com o Sol; senão,
vejamos:
• o ciclo das tempestades tem uma correlação quase perfeita com o ciclo de
actividade das manchas solares;
• grandes tempestades individuais são quase simultâneas de grandes
manchas solares observadas;
• as tempestades repetem-se a períodos de 27 dias – o período de rotação do
Sol.
É hoje universalmente aceite que as tempestades magnéticas são provocadas
por feixes de partículas ionizadas que, depois de emitidas pelo Sol, são capturadas
pelo campo geomagnético onde passam a descrever trajectórias espiraladas em torno
das linhas de campo. Vejamos como.
A equação de movimento de uma partícula de massa m e carga e, positiva,
injectada num campo magnético estacionário H, é

dv
m = e ( v × H) (3.59)
dt

onde v é a velocidade da partícula, de componentes vp e vt, respectivamente paralela e


perpendicular à linha de campo, de tal modo que vp é constante. Como o campo se
assume estacionário, o ângulo entre o plano da trajectória da partícula e a linha de
campo é constante.
O movimento circular da partícula em torno da linha de campo tem velocidade
angular

ω = eH / m (3.60)

e raio

a = vt m / (eH) (3.61)

120
Na verdade, verifica-se que este movimento circular é equivalente a um dipolo
magnético de força µ, onde

µ = (½ mvt2) H / H2 (3.62)

O campo, na verdade, não é estacionário, o que complica imensamente as


equações, que só podem ser resolvidas por uma série de aproximações. Para um
campo de variação lenta, temos que

H = H0 + α r (3.63)

em que H0 é o campo na origem de um referencial cartesiano, na direcção z, r é o


vector posicional da partícula, e α é um tensor que representa a variação do campo.
Podemos localizar a partícula no mesmo referencial, mais uma vez
aproximativamente, pelos resultados do campo estacionário:

x = vt / ω sin (ω t) (3.64)

y = vt / ω cos (ωt) (3.65)

z = vp t (3.66)

Estes valores permitem-nos determinar r. Substituindo o seu valor em (3.63), e


depois substituindo H na equação de movimento (3.59), a solução indica que há uma
aceleração

2
dv p − vt ∂H
= (3.67)
dt 2 H ∂z

e uma velocidade de deriva

2
1 (1 / 2)vt + v p
vD = (H × ∇H ) (3.68)
ω H2

onde ∇H, atenção, não é o rotacional de H mas sim o gradiente do campo escalar de
magnitudes do campo vectorial H.
Estes resultados mostram que o ângulo entre o plano da trajectória circular da
partícula e as linhas de campo já não é constante. Para além disso, note-se que a
equação (3.67) mostra que um aumento do campo conduz a uma diminuição de vp, até
eventualmente a partícula parar. De facto, se a energia de uma partícula deve manter-
se constante, demonstra-se que o seu momento magnético µ é constante. Assim, se for
θ o ângulo entre a trajectória e a linha de força,

vt = v sin θ (3.69)

121
e, portanto,

mv 2 sin 2 θ
µ= = c te (3.70)
2H

donde,

(sin2 θ) / H = cte (3.71)

o que implica que a nossa partícula carregada só continuará o seu percurso até um
ponto tal que θ = 90º. Diz-se que nesse ponto a partícula atingiu um espelho
magnético. A partir daí o movimento da partícula prossegue, mas no sentido inverso,
regressando no seu movimento em espiral ao longo da mesma linha de campo.
Imediatamente antes de uma tempestade magnética há intensificação da
actividade das manchas solares e consequente emissão de um plasma de alta energia –
o vento solar. Esse plasma percorre o espaço e são os próprios campos
electromagnéticos que controlam todo o movimento das partículas. À medida que o
vento solar se aproxima da Terra, aumenta a intensidade do campo principal desta até
uma distância tal que o plasma não se pode aproximar mais – daqui se vê a enorme
importância do campo geomagnético para a própria existência de vida na Terra. A
zona de influência (dir-se-ia ‘de protecção’) do campo dipolar é a magnetosfera.
3.3.4. Atmosféricos.
Numa altura em que a actividade solar aumenta, o vento solar comprime a
magnetosfera, aumentando a curvatura das linhas de campo. Esta inflexão é detectada
nos magnetogramas como uma tempestade magnética. Apesar do vento solar não
penetrar a magnetosfera, algumas das suas partículas podem ser capturadas pelo
campo geomagnético, em condições que se verão no parágrafo 3.3.3 e são forçadas no
movimento em espiral que se descreveu atrás, com múltiplas reflexões entre pontos de
espelho. Estes pontos situam-se normalmente a grande altitude acima da atmosfera
mas um plasma particularmente energético pode causar a ruptura das condições de
reflexão de tal forma que algumas partículas cheguem à alta atmosfera onde serão
travadas por colisões. Este é o processo de formação das auroras (figura 3.17, acima).
As auroras podem ser detectadas mesmo em áreas onde não são visíveis, como
Portugal, com um simples receptor de rádio sintonizado na banda VLF (<10KHz). O
sinal recebido ilustra bem o fenómeno da reflexão das partículas ionizadas.
Mas não são estas as únicas emissões naturais na banda VLF. Outros sinais –
na verdade a maioria – são provenientes das emissões electromagnéticas dos
relâmpagos nas tempestades eléctricas na atmosfera. Estas emissões tomam o nome
genérico de atmosféricos e são uma das causas de ruído nos magnetogramas.
3.3.5. As correntes telúricas.
A radiação solar, principalmente nos comprimentos de onda dos ultra-voleta,
ionizam as moléculas das camadas superiores da atmosfera criando, entre as altitudes
de 80 e 1500Km, a chamada ionosfera.
É bem sabido que, da mesma forma que uma variação do potencial eléctrico
gera um campo magnético num condutor, também as variações de campo magnético

122
geram potenciais eléctricos. Isso foi medido e é claramente visível na ionosfera
(figura 3.18).
As correntes ionosféricas, por sua vez, induzem na Terra sólida as chamadas
correntes telúricas (TC).
Estas são grosseiramente paralelas às correntes ionosféricas. Na mesoescala,
contudo, apresentam inúmeras irregularidades de percurso que são produzidas pelas
diferentes condutividades das rochas e solos que atravessam. Este facto é aproveitado
na prospecção geoeléctrica de materiais com resistividades (ou condutividades)
contrastantes com a rocha encaixante.

Figura 3.18 – Correntes eléctricas na ionosfera. USGS.


Contudo, a principal utilização das correntes telúricas, hoje em dia, é na
realização de sondagens magneto-telúricas, pelo que deixaremos o assunto para mais
tarde (parágrafo 3.11.4).
3.4. O magnetismo das rochas.
3.4.1. Propriedades magnéticas das rochas.
Até agora, estudámos duas componentes do campo geomagnético: o campo
principal, interno ou dipolar, e o campo externo. Ambos apresentam variações
temporais nítidas; o primeiro a variação secular e o segundo a variação diurna mais
alguns sinais transientes de origem atmosférica. Estas componentes são bem
modeladas, já o vimos, se assimilarmos a Terra a uma esfera pelo que o principal
instrumento de análise que usámos foi a expansão do campo em harmónicas esféricas.
Pode-se dizer, portanto, com suficiente aproximação, que os campos externo e interno
têm variações temporais notáveis mas a sua variação espacial dá-se essencialmente no
sentido do gradiente – o sentido radial em relação à esfera.
Há, contudo, para além deste gradiente radial, outros gradientes, laterais, que
se devem a campos magnéticos locais cuja origem se encontra nas rochas
magnetizadas.

123
Como as rochas são agregados de minerais, devemos supor que alguns destes
terão mais responsabilidade nas propriedades magnéticas daquelas. De facto, apenas
poucos minerais são responsáveis pelas propriedades magnéticas das rochas: a
magnetite (Fe3O4), a ilmenite (FeTiO3) e composições intermédias entre ambas,
designadas titanomagnetites, e a pirrotite (FeS-Fe7S8).
Se se colocar um corpo magnetizável (veremos em pormenor adiante o que
isto significa) num campo magnético fraco H, esse corpo sofre uma magnetização, M,
de tal modo que

M=κH (3.72)

onde κ, a constante de proporcionalidade, tem o nome de susceptibilidade magnética e


é a-dimensional.
O papel da magnetite nas propriedades magnéticas das rochas é de tal maneira
importante que é conhecida há muito uma relação empírica aproximada entre a
susceptibilidade magnética e a percentagem em volume de magnetite, V, na rocha:

κ = 3×10-3 V (3.73)

Na prática, dificilmente se poderá medir M independentemente de H. Por esse


motivo mede-se o campo total, B, chamado indução magnética, que é dado por

B = µ0 (H+M) (3.74)

ou seja,

B = µ0 (1+κ) H (3.75)

ou ainda,

B = µ0 µ H (3.76)

onde µ0 é a permeabilidade magnética do vazio (4π×10-7 Wb/A.m) e µ a


permeabilidade magnética da substância.
A indução magnética expressa-se em tesla (T), sendo que

1 T = 1 N/ A.m ou 1 T = 1 Wb/m2 .

Por comodidade, usa-se habitualmente em geofísica o nanotesla, ou gama:

1 nT = 10-9 T = 1 γ

sendo que a intensidade do campo geomagnético varia entre cerca de 30000 e cerca de
60000nT.

124
3.4.2. Histerese.
Uma análise superficial da equação (57) poderia levar a crer que a relação
entre campo indutor e magnetização induzida era linear. De facto não o é, entre outras
razões, porque a susceptibilidade varia com a temperatura, porque H e M são vectores
e porque, como se verá adiante, o comportamento magnético macroscópico de um
mineral é a resultante dos comportamentos dos inúmeros subdomínios microscópicos
(grãos ou mesmo subdomínios de grãos) de que ele é composto. Chama-se domínio
magnético a um volume da matéria em que, devido à orientação paralela dos spins dos
electrões dos átomos constituintes, há um momento magnético resultante não-nulo.
As relações entre H e M, complexas, são ilustradas pelo chamado ciclo de
histerese (figura 3.19).

Figura 3.19 – Ciclos de histerese.


c, c’: força coerciva
r, r’: remanência
s, s’: saturação

Para compreender o ciclo de histerese, imaginemos a aplicação de um campo


magnético em quatro situações diferentes.
3.4.2.1. Curva 1 (figura 3.19)
Neste caso aplicou-se o campo a uma distribuição esférica de grãos esféricos
de momentos magnéticos µi. O campo tende a rodar os momentos dos grãos

125
individuais e a orientá-los segundo a sua direcção, e essa orientação é completamente
reversível assim que o campo seja removido. A energia potencial de um grão é dada
por

m = µ cos θ (3.77)

onde θ é o ângulo entre o momento e o campo. Assim, para N grãos, a magnetização


total será dada por

M = N µ [cos θ ] (3.78)

onde [cos θ ] é o valor médio. Se os grãos obedecerem a uma distribuição de


Boltzmann, a probabilidade de o momento de um grão estar contido num ângulo
sólido dΩ é proporcional a eµH cosθ/kT, onde k é a constante de Boltzmann e T a
temperatura absoluta:

∫π e
µH cos θ / kT
cos θ dΩ
1
[cosθ ] = 4
= coth a − = L( a ) (3.79)
∫e
µH cos θ / kT
dΩ a

onde a = µH/kT e L(a) á e função de Langevin. A magnetização, portanto, vem dada


por

M = N µ L(a) (3.80)

onde todas as variáveis são mensuráveis.


3.4.2.2. Curva 2 (figura 3.19)
No caso geral, é claro que o modelo assumido anteriormente de todos os grãos
serem um domínio de simetria esférica é uma sobre-simplificação. Na prática,
qualquer grão tem uma direcção de magnetização ‘fácil’ provocada por assimetrias
internas (anisotropias cristalinas) ou externas (forma não-esférica). A curva 2 (uma
recta) representa a histerese de um grão único, colocado num campo paralelo à sua
direcção ‘fácil’.
Aqui identifica-se a proporcionalidade linear simples entre H e M, com
constante de proporcionalidade κ (neste caso =1).
3.4.2.3. Curva 3 (figura 3.19)
Se, ao mesmo grão do caso anterior, aplicarmos um campo perpendicular à
direcção de magnetização ‘fácil’ obtemos agora a curva 3 (um rectângulo). Esta forma
inesperada deve-se a que mesmo ínfimas perturbações dos momentos, como as da
simples agitação térmica, fazem variar a magnetização para um campo constante;
contudo, a um valor crítico de H a magnetização é rodada 180º.
3.4.2.4. Curva 4 (figura 3.19)
Esta é a situação natural, realista, de um agregado de grãos magneticamente
assimétricos e de orientação aleatória. Ao submetermos uma amostra desmagnetizada
a um campo crescente, a magnetização cresce segundo uma curva de Langevin até um

126
ponto crítico, s, dito ponto de saturação. Ao diminuir H, a mesma curva não é
percorrida, uma vez que alguns domínios foram permanentemente reorientados;
atinge-se assim um ponto tal que para H = 0, B = r – magnetização remanescente ou
residual, ou remanência. Se H for invertido e continuar a decrescer, B acabará por se
anular para um valor de H = c – força coerciva ou coercividade. Ao progredir na
redução de H (ao aumentar os seus valores negativos), atingir-se-á um ponto s’,
simétrico de s, em que não é possível reduzir mais B – o ponto de saturação negativa.
3.4.3. Tipos de magnetismo das rochas.
Como se viu no parágrafo anterior, o comportamento magnético da matéria
está grandemente dependente dos tipos de domínios magnéticos de que esta é
constituída. Consideram-se a seguir as várias situações possíveis, ilustradas na figura
3.20.

(a) (b) (c) (d)

Figura 3.20 – Tipos de domínios magnéticos correspondentes a quatro tipos de magnetismo.


(a) Paramagnetismo
(b) Ferromagnetismo
(c) Antiferromagnetismo
(d) Ferrimagnetismo

3.4.3.1. Diamagnetismo.
É o caso – mais geral – dos materiais que apresentam κ negativo e muito baixo
e são, comunmente, considerados “não-magnéticos”, como a água.
3.4.3.2. Paramagnetismo.
É o caso em que o momento magnético não é nulo, mesmo para H=0. Um tipo
de comportamento paramagnético “puro” (recorde-se, para um único domínio
esférico) encontra-se ilustrado na curva 4 da figura 3.19 e na figura 3.20 (a).
3.4.3.2.1. Superparamagnetismo.
É o caso, meramente teórico, de uma distribuição de Boltzmann de grãos com
simetria magnética esférica. Encontra-se ilustrado na curva 1 da figura 3.19.
3.4.3.3. Ferromagnetismo.
Caso particular do paramagnetismo, em que há alinhamento dos momentos
magnéticos atómicos em vastos domínios, com uma resultante não-nula. Este
processo deve-se ao facto dos átomos estarem bastante próximos entre si para
poderem permutar entre si electrões das camadas mais externas, por um processo
quântico. O intercâmbio electrónico produz um campo molecular muito forte que
tende a alinhar todos os momentos magnéticos individuais numa direcção comum e a
regir em uníssono a campos externos. Não existem minerais naturais ferromagnéticos,
mas algumas substâncias exibem esta propriedade, como o ferro, o cobalto e o níquel

127
e algumas ligas destes metais com o alumínio. Encontra-se ilustrado na curva 4 da
figura 3.19e na figura 3.20 (b).
3.4.3.3.1. Antiferromagnetismo.
Neste caso os domínios magnéticos têm orientação aleatória pelo que exibem
uma resultante nula. O exemplo mais notável de mineral antiferromagnético é a
hematite (Fe2O3), mas encontra-se geralmente nos óxidos de metais ferromagnéticos,
em que os oxigénios da malha cristalina mantêm os catiões suficientemente afastados
para não poderem efectuar trocas directas de electrões. Encontra-se ilustrado na curva
4 da figura 3.19 e na figura 3.20 (c).
3.4.3.3.2. Ferrimagnetismo.
É um caso particular do ferromagnetismo, em que os domínios têm também
uma resultante não-nula. Aqui, porém, os domínios têm dimensões ínfimas, pelo que a
resultante dos seus momentos é extremamente baixa. Os exemplos mais importantes
são, claro, as magnetites e a pirrotite. Encontra-se ilustrado na curva 4 da figura 3.19e
na figura 3.20 (d).
3.4.4. Magnetização das rochas.
As propriedades magnéticas de uma rocha, em particular os campos que lhe
estão associados, não dependem só dos conteúdos da rocha em minerais magnéticos
mas, também da história magnética da rocha. Especificando, pode dizer-se que a
magnetização de uma rocha depende, para a magnitude, dos teores em minerais
magnéticos (principalmente a magnetite, como já vimos) e, para a orientação, da sua
história magnética.
Definem-se, assim, vários tipos de magnetismo remanescente natural:
3.4.4.1. Magnetização termo-remanescente.
Dá-se quando um mineral é arrefecido abaixo do seu ponto de Curie, na
presença de um campo – normalmente o campo geomagnético principal.
3.4.4.2. Magnetização detrítica.
Quando pequenas partículas de minerais magnéticos sedimentam lentamente,
cada uma tende a comportar-se como uma agulha magnética em suspensão e alinha-se
segundo as linhas de força do campo geomagnético.
3.4.4.3. Magnetização química.
Dá-se quando há crescimento, inversão ou substituição de um mineral
magnético.
3.4.4.4. Magnetização isotérmica.
É a magnetização residual, depois da remoção do campo externo. Rara, é
característica dos fulguritos, que são vidros produzidos pelo impacto directo de um
relâmpago.
3.4.4.5. Magnetização viscosa.
Produzida pela longa exposição a um campo externo, sem mudança de fase:
apenas os spins dos electrões tendem, muito lentamente, a alinhar-se segundo as
linhas de força do campo dominante.

128
3.4.4.6. Magnetização de impacto.
Identificada, até agora, exclusivamente na Lua (vd. abaixo, 3.7.4), dá-se
quando as rochas são percutidas por meteoritos com grande energia cinética: são
instantaneamente desmagnetizadas e podem, depois, se tiverem ultrapassado a
temperatura de Curie, adquirir uma magnetização induzida pelo campo principal.
Outra forma de magnetização de impacto é a magnetização antipodal de impacto:
corpos muito grandes (>10Km) e muito rápidos (>10Km/s), ao percutir a superfície
podem produzir uma nuvem de plasma que cubra todo o planeta em poucos minutos.
A convergência quase simultânea da onda de plasma e das ondas sísmicas focalizadas
nos antípodas podem desmagnetizar e permitir a remagnetização das rochas.
3.4.5. Paleomagnetismo.
3.4.5.1. A deriva dos polos magnéticos.
Ao estudo da história magnética da Terra dá-se o nome de paleomagnetismo.
Vimos nos parágrafos anteriores como as rochas podem preservar as linhas do
campo geomagnético no momento da sua formação, em particular pelos processos da
magnetização termo-remanescente e da magnetização detrítica. Assim, pelo estudo
das propriedades magnéticas das rochas ígneas, no primeiro caso, e das rochas
sedimentares, no segundo, podemos conhecer um pouco da história magnética da
Terra.
Quando se inicia qualquer processo de magnetização a entropia da rocha é
ainda elevada pelo que, naturalmente, ao estudarmos hoje um conjunto de amostras do
mesmo corpo lítico não encontramos um paralelismo absoluto dos vectores da
magnetização remanescente. Ao contrário, esses vectores apresentam alguma
dispersão em torno de uma direcção e uma magnitude médias
Mas o factor que contribui ainda mais para essa dispersão é a aquisição pela
rocha de magnetizações posteriores à sua formação, normalmente pelos processos de
magnetização química e viscosa (a magnetização isotérmica oblitera completamente
os traços do campo inicial, mas não constitui problema de monta dada a sua extrema
localização).

Figura 3.21 – Projecção estereográfica dos vectores magnetização.


a-antes da limpeza; b-depois da limpeza
Felizmente é possível remover estas componentes ‘posteriores’ sem destruir a
magnetização singenética. Isso é feito por uma técnica conhecida como limpeza das
amostras, que consiste em submetê-las a campos magnéticos gerados por bobinas de
Helmholz, de orientações aleatórias e magnitudes decrescentes (figura 3.21).

129
A partir da direcção que se determinou para a magnetização de uma rocha, é
possível determinar as posições dos polos magnéticos na altura da sua formação.
Sejam λp e φp a paleolatitude e paleolongitude que se pretendem determinar.
Se medirmos a declinação, Dm e a inclinação, Im, em rochas colhidas nas coordenadas
actuais λm e φm temos as seguintes relações:

sinλp = sinλm cosθ + cosλm sinθ cos Dm (3.81)

sin θ sin Dm
φ p = φm + (3.82)
cos λ p

onde

 tan I m 
θ = tan −1   (3.83)
 2 

Se se possuirem determinações de paleopolos para uma sequência geológica


com suficiente amplitude de idades é possível determinar curvas de deriva polar como
a que se apresenta na figura 3.22.

Lon E
120 150 180 210 240 270 300 330
0

C O

30
Lat S

60 P

Cr J
T

90

Figura 3.22 – Deriva polar da Antártida. Base de dados DRAGON.


O facto de estas curvas não coincidirem para os diversos continentes é
considerada uma das provas mais seguras da deriva continental.
3.4.5.2. Inversões do campo geomagnético.
Vimos já, no ponto 2.4.4., que o campo geomagnético pode sofrer inversões
não periódicas. Estas inversões são também registadas pelos processos de
magnetização termo-remanescente e detrítica, nas rochas ígneas e sedimentares,
respectivamente. É importante notar que as inversões não são casos extremos da
deriva polar – antes, são originadas por processos completamente distintos.

130
Um dos casos mais interessantes de estudar é o padrão das inversões do campo
geomagnético dos fundos oceânicos. Se se considerarem ‘normais’ os campos que
têm, em média, a mesma orientação do actual e ‘invertidos’ aqueles que
correspondem a um dipolo rodado aproximadamente de 180º, e se cartografarmos as
suas distribuições num fundo oceânico nas vizinhanças de uma dorsal, obteremos uma
figura semelhante à figura 3.23.

Figura 3.23 – Inversões do campo geomagnético em basaltos de fundo oceânico na vizinhança da


dorsal de Reykjanes – Islândia.

Podem tirar-se pelo menos duas conclusões da figura 18:


1. As anomalias têm um desenvolvimento paralelo à crista.
2. As anomalias têm uma sequência simétrica em relação à crista.
Esta última conclusão é reforçada se virmos um perfil magnético
pormenorizado sobre a dorsal e o compararmos com o mesmo perfil, agora invertido
(marcando no eixo x o simétrico das longitudes), como se pode ver nos gráficos da
figura 3.24. Verifica-se claramente uma simetria axial em relação à dorsal.

131
300
250
200
150
Anom. Mag. (nT )

100
50
0
-50
-100
-150
-200
-50 -49 -48 -47 -46 -45 -44 -43 -42 -41 -40
Lon E (º)

300
250
200
150
Anom. Mag. (nT)

100
50
0
-50
-100
-150
-200
40 41 42 43 44 45 46 47 48 49 50
-[Lon E] (º)

Figura 3.24 – (a) Perfil magnético realizado no Atlântico Norte, sobre a Dorsal Médio-atlântica,
que se encontra à longitude -45º. Para localização ver figura 2.38. (b) Simétrico, em relação às
longitudes, do perfil (a).

A mesma conclusão é confirmada pela radiocronologia dos basaltos de fundo


oceânico: bandas simétricas, com a mesma orientação média do magnetismo
remanescente, têm as mesmas idades dum e outro lado da dorsal. Trata-se, sem
dúvida, de um dos mais fortes argumentos em favor da hipótese da expansão dos
fundos oceânicos.
O estudo simultâneo das propriedades magnéticas e das idades das rochas
magnetizadas permitiu associar a cada orientação genérica do dipolo magnético
terrestre uma idade absoluta, numa escala magnetocronográfica (figura 3.25).

132
Figura 3.25 – Escala magnetocronográfica para os últimos 4.5 MA.

3.5. Medição do campo geomagnético.


3.5.1. Unidades de medida.
O problema da escolha correcta de unidades de medida faz-se aqui sentir mais
que na maioria dos ramos da Física. Na verdade, os dois conjuntos de unidades (CGS
e SI) que se encontram em muita da bibliografia não são directamente convertíveis

133
pois refletem perspectivas diferentes do fenómeno magnético. O sistema de unidades
CGS deve ser abandonado, mais ainda neste caso que nos outros casos, pois está
baseado num conceito estático de campo magnético, um conceito que assume a
existência de monopolos, o que já vimos (equação 3.4) ser impossível. Na verdade, a
expressão clássica da lei de Coulomb era em tudo semelhante à da lei da gravitação
universal de Newton, substituindo massas pontuais por monopolos magnéticos.
Não será demais insistir, portanto, que se deve utilizar sempre o sistema de
unidades SI (ou MKS), cujas unidades foram apresentadas.

3.5.2. Magnetómetros.
3.5.2.1. O método de Gauss.
Um íman com momento M, suspenso em posição horizontal, é dirigido de
forma a ficar paralelo a um meridiano magnético por um binário MH, onde H é a
intensidade horizontal do campo. Se o íman for deslocado, vai pôr-se a oscilar em
torno do meridiano com período T, de tal modo que

I
T = 2π (3.84)
MH

Neste caso, I é o momento de inércia rotacional da suspensão. É, portanto,


fácil a partir da medida do período T determinar o produto MH.
Se agora levarmos o mesmo íman, de momento M, a outro íman suspenso
como uma bússola, este acaba por atingir uma posição de equilíbrio sob a acção dos
binários devidos a H e a M. Se o eixo longitudinal do segundo íman fizer agora um
ângulo θ com o meridiano magnético do lugar da experiência, podemos igualar os
binários dos dois ímanes, de tal modo que

H 2 1
= 3 (3.85)
M r sin θ

onde r é a distância entre os centros dos dois ímanes. Assim é possível fazer a
determinação ansoluta de H, medindo apenas tempos, distâncias e ângulos.
Este método magnetométrico, devido a Gauss, foi usado até há pouco tempo
para fazer medições absolutas em observatórios magnéticos. Para além do valor
absoluto de H, a declinação era obtida por observações astronómicas e a inclinação
através de ‘agulhas mergulhantes’, que são simplesmente agulhas magnéticas cujo
eixo de rotação livre se encontra em posição horizontal (figura 3.26).

134
Figura 3.26 – Magnetómetro Askania do IGUC (1938).
3.5.2.2. Magnetómetros de saturação induzida, ou ‘fluxgate’.
Estes magnetómetros foram inicialmente desenvolvidos na Grã-Bretanha, no
decurso da II Guerra Mundial, como detectores de submarinos. São compostos por
dois núcleos de um material com alta permeabilidade magnética em campos fracos,
sobre os quais são enroladas em sentidos opostos duas bobinas condutoras, os
primários, ligadas entre si e a uma fonte de corrente alterna (Figura 3.27). Existe ainda
um segundo enrolamento em torno de ambos os primários, o secundário, ligado a um
voltímetro.

Figura 3.27 – Esquema de magnetómetro fluxgate.

135
Na ausência de qualquer campo externo, os campos produzidos nos dois
primários seriam simétricos – anular-se-iam, não dando origem a qualquer força
electro-motriz no secundário. Pelo contrário, a existência de um campo externo
originará uma ‘assimetria’ entre os campos produzidos nos primários, com a
resultante a produzir uma leitura no secundário.
A geometria do magnetómetro fluxgate tem ainda uma enorme vantagem: o
uso de bobinas com diferentes orientações permite a medida directa das várias
componentes do campo no espaço, o que é aproveitado nos equipamentos conhecidos
como DIM (declination-inclination magnetometres – magnetómetros de declinação e
inclinação) (figura 3.28).

fluxgate

teodolito construído
com materiais
diamagnéticos

Figura 3.28 – Magnetómetro DIM do IGUC.

3.5.2.3. Magnetómetros de precessão de protões.


A construção destes magnetómetros baseou-se na descoberta da precessão dos
núcleos atómicos em torno da direcção de um campo magnético.
Imaginemos um contentor de protões (uma boa aproximação é uma garrafa de
água… embora nos equipamentos comerciais se use um hidrocarboneto líquido).
Normalmente, os momentos dipolares dos protões terão uma orientação aleatória;
contudo, se se aplicar um campo magnético suficientemente intenso à amostra (por
exemplo, através de uma bobina condutora), estes dipolos orientam-se segundo as
linhas do campo. Quando o campo induzido é subitamente cortado, o spin dos protões
entra por algum tempo em precessão em torno das linhas do campo geomagnético, até
que o sistema volte a tomar as orientações aleatórias iniciais.
Seja L o momento angular de spin do protão, µ o seu momento magnético e F
a intensidade do campo. A velocidade angular de precessão, ω, é dada por

ω=Fµ/L (3.86)

136
H+ H+

H+
H+
H+
H+
H+

(a)

(b)

Figura 3.29 – (a) Esquema de magnetómetro de precessão de protões


(b) Magnetómetro de precessão de protões do IGUC (1995).
A quantidade µ / L é denominada relação giromagnética do protão, e é
conhecida experimentalmente com grande precisão. Desta forma, F pode ser
determinado facilmente se se conhecer ω. Verifica-se que a resultante das precessões
de todos os núcleos de hidrogénio da amostra é suficiente para induzir um sinal na
mesma bobina que serviu para polarizar a amostra. Seja f a frequência desse sinal:

F = 23.4874 f (nT) (3.87)

O magnetómetro de precessão de protões (figura 3.29) é o instrumento mais


usado em prospecção magnética, devido à sua precisão, portabilidade e baixo custo. A
sua principal limitação é que só pode medir o valor absoluto do campo total e não as
componentes individuais.
3.5.2.4. Magnetómetros de vapor metálico.
No magnetómetro de rubídio (figura 3.30), o mais usado deste tipo, faz-se
passar a luz de uma lâmpada de rubídio através de uma célula que contém 87Rb
vaporizado, e a radiação resultante é captada numa célula fotoeléctrica.
A absorção de fotões da luz incidente por parte dos átomos do vapor excita
estes para níveis de energia mais altos. Estes níveis decompõem-se em sub-níveis, por
efeito Zeeman, sob a acção do campo magnético ambiente. A corrente produzida pela
célula fotoeléctrica é amplificada e desfasada, e é reenviada para uma bobina que
rodeia a célula de vapor de rubídio.

137
A reiteração deste processo faz com que o todo do sistema oscile com uma
frequência bem definida, a frequência de Larmor, que é unicamente função dos
subníveis de energia que são ocupados e, consequentemente, do campo geomagnético.

Figura 3.30 – Esquema de magnetómetro de vapor de rubídio.


Outros metais utilizados são o césio e o potássio.
Tal como o magnetómetro de precessão de protões, este mede apenas o campo
total. Tem, porém a vantagem de ser baseado na medição de frequências muito mais
elevadas (da ordem de 200 a 300 KHz), o que permite a sua medição com muito
maior rigor.
3.5.2.5. Magnetómetros supercondutores quânticos (SQUID).
Os equipamentos supercondutores de interferência quântica (SQUID –
superconducting quantum interference devices) são a última geração de
magnetómetros. Baseiam-se nas propriedades das junções de Josephson – dois
supercondutores separados por um fino isolador, que permite a passagem de pares de
electrões por efeito de túnel (figura 3.31).

Figura 3.31 – Esquema de SQUID.


Quando se aplica uma corrente contínua a uma junção de Josephson, gera-se
uma oscilação de frequência muito bem definida – de tal forma que, actualmente, esta
junção é o padrão internacional para a medição de corrente e passou a definir-se 1V
como a corrente que produz uma frequência de Josephson de 483597.9GHz.

138
Os SQUID têm um limite de detecção da ordem dos 10-14T (10fT -
femtotesla). A sua limitação advém do facto de se basearem em materiais
supercondutores, o que implica a existência de equipamentos criogénicos. São,
portanto, exclusivamente usados em laboratório, para medir propriedades magnéticas
de amostras.
3.5.2.6. Magnetómetros de indução.
Como já se viu, a medição das variações do campo pode ser tão importante
como a sua determinação estática. São particularmente interessantes as variações nas
componentes do campo com períodos da ordem do segundo e amplitudes da ordem
dos 0.01γ. Estes valores estão abaixo dos limites de detecção dos magnetómetros
fluxgate, e os de vapor metálico, embora suficientemente sensíveis, só permitem
medir o campo total. Por estes motivos desenvolveu-se outro tipo de magnetómetro,
baseado no princípio da indução electromagnética.
Este método, que intuitivamente parece ser o indicado, defronta-se com alguns
problemas técnicos na sua execução, senão vejamos.
Para taxa indicada de variação do campo, da ordem de 0.01nT/s, a saída E de
uma bobina com N voltas e secção A cm2 é dada por

E = NA × 10 -7 × 10 -8 volt (3.88)

Como o limite de detecção de E, para estas frequências, é da ordem de 10 –7 V,


infere-se que NA deve ser da ordem de 108 cm2. O limite prático para N é da ordem de
105, pelo que a área efectiva deverá ser, no mínimo de 103 cm2. Estes cálculos servem,
obviamente, para bobinas no vazio. Na prática usam-se núcleos de elevada
permeabilidade magnética (da ordem de 103), que permitem reduzir a secção a apenas
alguns cm2. Estas bobinas – magnetómetros de indução – são enterradas de modo a
evitar efeitos de indução electromagnética da atmosfera (os campos induzidos pelo
vento seriam detectáveis) e o seu sinal é amplificado e registado em contínuo.

3.6. Tratamento e interpretação de dados geomagnéticos.


3.6.1. Anomalia magnética. O nível zero.
Depois do campo principal e do campo externo, a anomalia magnética é a
terceira componente do campo geomagnético em cada ponto da superfície da Terra.
Mas não se pense que esta ordem de exposição corresponde necessariamente a uma
gradação de ordens de grandeza das componentes do campo: da mesma forma que já
vimos ser possível que o campo externo ultrapasse o campo principal (nas
tempestades magnéticas), também os campos locais podem ter anomalias de maior
magnitude que qualquer um dos outros.
O conceito de anomalia é fundamental em todos os métodos de prospecção.
Aqui, ao contrário da gravimetria, a sua definição é essencialmente empírica e
casuística. A que se deve esta diferença?
Repare-se que o campo gravítico é um campo estacionário – não tem variação
temporal – pelo que foi possível definir a anomalia (de Bouguer) como a diferença
entre o campo teórico em cada ponto do geóide e a aceleração da gravidade realmente
medida (depois das necessárias correcções). Ora, o campo geomagnético principal não

139
é estacionário – tem variações temporais que são caóticas. Como seria possível definir
um campo teórico em cada ponto com suficiente precisão para o distinguir do campo
efectivamente medido?
Por outro lado, o objecto da prospecção magnética são as rochas
magnetizadas, e essa magnetização não sofre variações temporais à escala da
prospecção.
Temos aqui as bases para a determinação de uma anomalia:
• é preciso definir um nível de campo ‘normal’ – não-anómalo – a que se
chamará nível zero;
• é preciso definir a anomalia só em termos espaciais e não temporais, pelo
que as variações temporais têm que ser filtradas dos dados.
Vejamos primeiro a questão do nível zero (figura 3.32).
Como regra geral, o nível zero não pode ser escolhido à partida; usa-se um
‘zero de trabalho’ e, ao terminar a campanha de prospecção, corrigem-se todas as
leituras somando ou subtraindo uma certa quantidade constante que foi deduzida do
estudo das anomalias.
Se as leituras numa zona permanecem constantes em grande parte ou se, pelo
contrário, parecem variar irregularmente em torno de um nível fixo (o chamado efeito,
ou ruído, de fundo), esse será o nível zero, obtido pela média dessas leituras.
Também quando as leituras nos flancos de uma anomalia evidente tendem
assimptoticamente para um valor, esse pode ser tomado como zero.

Perfil 11N Perfil 02W

45.0
45.0
44.0
44.0
43.0
43.0
42.0
42.0
41.0 41.0

40.0 40.0

39.0 39.0

38.0 38.0

37.0 37.0

36.0 36.0

35.0 35.0
1 6 11 16 21 26 31 36 41 46 1 6 11 16 21 26 31 36 41 46

m m

campo ní vel zer o campo ní vel zer o

Figura 3.32 – Estimação do nível zero.


A interpretação de uma anomalia depende muito do cuidado tido na escolha do
nível zero. Quando o relevo das leituras de campo não é muito maior que a incerteza
(variabilidade) do nível zero, a amplitude das anomalias e, portanto, a estimação da
grandeza do fenómeno físico ou do objecto que as causa, serão afectadas pela escolha
desse nível.

140
3.6.2. Tratamento de dados magnéticos.
As correcções de dados geomagnéticos são mais simples e em menor número
que aquelas que se viram para a gravimetria.
3.6.2.1. Correcção da deriva temporal do campo.
O tratamento dos dados de uma campanha de prospecção magnética começa
com a correcção da deriva temporal, caso esta seja necessária.
O procedimento é idêntico ao que foi descrito para a gravimetria.
3.6.2.2. Correcção de altitude.
A correcção de altitude é dada pelo gradiente vertical do campo magnético e
obtém-se diferenciando a intensidade total do campo, Bt, em ordem ao raio, r:

∂Bt µ m 1 + 3 cos 2 θ 3
= −3 0 4
= − Bt (3.89)
∂r 4π r r

O gradiente calcula-se, na prática, substituindo r por Re=6371Km e Bt por um


valor adequado que varia com a latitude e pode ser obtido a partir de um modelo
teórico do campo geomagnético, como os modelos IGRF, vistos atrás.
3.6.2.3. Correcção de latitude.
A correcção de latitude é dada pelo gradiente horizontal do campo magnético
segundo a direcção N-S e obtém-se diferenciando a intensidade total do campo, Bt em
ordem à co-latitude:

1 ∂Bt µ 0 m 1 ∂ 3B sin θ cos θ


− = 4
1 + 3 cos θ = t (3.90)
r ∂θ 4π r ∂θ r (1 + 3 cos 2 θ )

A correcção de latitude é nula nos pólos e no equador e atinge valores


máximos da ordem dos 5nT/Km, pelo que só é relevante em trabalhos de âmbito
regional ou global.
3.6.2.4. Filtração de ruído e separação regional-residual.
Outros procedimentos já foram descritos quando se estudou a gravimetria, e
incluem a filtração de ruídos pelo cálculo de médias móveis simples ou ponderadas, e
a remoção do gradiente regional, ou separação regional-residual.
Tal como para a gravimetria, também aqui os dados podem ser representados
em perfis ou em cartas de isolinhas – que aqui são isoclínicas, isogónicas ou
isodinâmicas.
3.6.2.5. Redução ao pólo.
Se conhecermos a direcção do campo magnético terrestre e a direcção da
magnetização da fonte da anomalia, a anomalia de campo total pode ser recalculada
de forma a comportar-se como se a sua fonte se encontrasse no pólo magnético. Este
processo, que reduz a assimetria das anomalias, tem o nome de redução ao pólo. Esta
transformação está ilustrada nas figuras 3.33 e 3.34)

141
Figura 3.33 – Esquema da redução ao pólo. (a) Anomalia medida. (b) Anomalia reduzida ao pólo.

Figura 3.34 – Redução ao pólo. (a) Anomalia medida. (b) Anomalia reduzida ao pólo.
Note-se que uma das condições requeridas é que a direcção da magnetização
seja conhecida, o que muitas vezes não acontece. Para realizar esta transformação
assume-se geralmente que toda a magnetização é induzida pelo campo principal
(presente) e tem, por isso, a sua direcção, que é facilmente calculável a partir dos
modelos IGRF. É claro que esta suposição nem sempre é verdadeira, pelo que o
resultado deste transformação é, por vezes, inadequado.
3.6.2.6. Continuação do campo para cima.
Por ser um campo potencial, o campo magnético, tal como, aliás, o campo
gravítico, pode ser calculado para qualquer altitude acima (e, em alguns casos, abaixo)

142
do nível a que os dados foram adquiridos. Chama-se a este processo continuação do
campo para cima e reduz-se a uma expansão em harmónicas esféricas.
Ao continuar o campo para cima está-se a realizar uma suavização, eliminando
as pequenas anomalias produzidas por fontes superficiais, como se vê na figura 3.35.

Figura 3.35 – Continuação do campo. (a) Anomalia medida. (b) Anomalia continuada 5m para
cima.
Por outro lado, se subtraírmos ao campo original o campo continuado para
cima, podemos, por vezes, diminuir a influência das fontes profundas e,
simultaneamente, da componente regional, e enfatizar as anomalias produzidas por
fontes superficiais.
Teoricamente, o campo também pode ser continuado para baixo até um nível
tal que não intersecte fontes – procedimento com aplicações óbvias na
aeromagnetometria e na magnetometria por satélite. Provou-se, contudo, que esta
operação não é robusta.
A técnica mais usada para a continuação é a regularização de Tikhnonov,
realizada no domínio das frequências.
Seja F(u,v) o espectro do campo continuado, f(u,v) o espectro do campo
medido e s(u,v) o espectro da transformação,

s (u , v)
F (u , v) = × f (u , v) (3.91)
1 + α s(u , v) 2

onde α, o chamado parâmetro de regularização, é um valor muito pequeno, da


ordem de 10-5.

143
3.6.3. Técnicas de gradiente em magnetometria.
Uma vez que o campo magnético é um campo potencial, é possível medir o
gradiente desse potencial. Se se fizerem duas medidas do campo em pontos diferentes,
o gradiente é dado simplesmente pelo quociente entre a diferença de intensidades do
campo e a distância entre posições do sensor. O gradiente expressa-se em nT/m e o
seu ponto de atribuição é o ponto médio entre as estações de medida.
A execução da técnica de gradiente é tão simples que se faz rotineiramente:
basta que, em cada estação de medida, se façam leituras a duas alturas diferentes: uma
próxima do solo (p. ex. 0.30m) e outra na extremidade de uma vara (p. ex. 2.30m).
Deste modo obtêm-se várias informações:
• um perfil magnético a 0.3m
• um perfil magnético a 2.3m
• dois perfis de gradientes magnéticos horizontais, entre estações
consecutivas
• um perfil de gradientes magnéticos verticais, a 1.3m
A determinação dos gradientes tem várias vantagens:
• as anomalias de gradientes tendem a resolver as anomalias absolutas
complexas nas suas componentes individuais
• o cálculo de gradientes locais remove o gradiente regional e permite
definir melhor as anomalias pouco profundas
• filtra a deriva temporal
• permite estimar a profundidade da fonte da anomalia
No caso mais geral da fonte ser assimilável a um dipolo, se T for a intensidade
da anomalia e z a profundidade,

− 3T
z= (3.92)
dt / dz

3.6.4. Inversão de dados geomagnéticos.


Os estudos de Poisson sobre campos potenciais levaram-no a encontrar uma
relação entre o campo gravítico e o campo magnético que é, ainda hoje, da maior
utilidade na inversão de dados geomagnéticos:

T dV
U =− (3.93)
Gρ dI

onde U é o potencial magnético, V o potencial gravítico, T a magnetização, I a


direcção da polarização magnética, ρ a densidade e G a constante gravitacional.
Assim, a componente do campo magnético segundo uma direcção qualquer r é
dada por

∂U T ∂ ∂V
Hr = − = (3.94)
∂r Gρ ∂r ∂I

e, em particular, na direcção vertical, a que mais nos interessa,

144
∂U T ∂ 2V
Hz = − = (3.95)
∂z Gρ ∂z 2

Com base nesta relação e nas expressões deduzidas no capítulo 2, poderemos


determinar as anomalias magnéticas produzidas por corpos simples.
3.6.4.1. Anomalia produzida por uma esfera homogénea.
Com base na equação (3.95) e na equação (2.160) é possível calcular a
expressão da anomalia produzida por uma esfera homogénea, e ver uma sua
simulação (figura 3.36):

T ∂ 2  4 
3/ 2
 ∆ρ r 3   1 
Hz = 2  π G  2   2
  (2.160)
Gρ ∂z  3  z   1 + ( x / z)  

8π r 3T 1 − ( x 2 / 2 z 2 )
Hz = (3.96)
[
3 z3 1 + (x2 / z 2 ) 5/ 2 ]

120

100

80

60
Hz (nT)

40

20

0
-12 -10 -8 -6 -4 -2 0 2 4 6 8 10 12

-20
x (Km)

Figura 3.36 – Anomalia produzida por uma esfera, com z=2Km, r=1Km, T=100nT.

145
3.6.4.2. Anomalia produzida por um cilindro horizontal.
Analogamente, com base na equação (3.95) e na equação (2.177) é possível
calcular a expressão da anomalia produzida por um cilindro horizontal, e ver uma sua
simulação (figura 3.37):

T ∂ 2  2Gπ r 2 ∆ρ z 
Hz =   (2.177)
Gρ ∂z 2  x 2 + z 2 

2π r 2T 1 − ( x 2 / z 2 )
Hz = (3.97)
[
z 2 1+ (x2 / z 2 2 ]
200

150

100
Hz (nT)

50

0
-12 -10 -8 -6 -4 -2 0 2 4 6 8 10 12

-50
x (Km)

Figura 3.37 – Anomalia produzida por um cilindro horizontal, com z=2Km, r=1Km, T=100nT.
3.6.4.3. Anomalia produzida por uma falha vertical.
Nas mesmas condições da equação (2.183), aplicando a relação de Poisson
(3.95) podemos obter a equação (3.98), e ver uma sua simulação (figura 3.38).

T ∂2  π  x  
Hz = 2 
2G∆ρ t  + tan −1    (2.183)
Gρ ∂z  2  z  

146
T tx  1 
Hz = 2  2 2 
(3.98)
z 1 + ( x / z ) 

30

20

10
Hz (nT)

0
-12 -10 -8 -6 -4 -2 0 2 4 6 8 10 12

-10

-20

-30
x (Km)

Figura 3.38 – Anomalia produzida por uma falha vertical, com z=2Km, t=1Km, T=100nT.

3.7. O magnetismo no Sistema Solar.


3.7.1. O Sol.
A nossa estrela é a principal fonte do campo magnético interplanetário. Todas
as estrelas geram campos magnéticos. É possível medir remotamente o campo
magnético de uma estrela pelo efeito Zeeman observado no seu espectro de absorção:
uma tripla subdivisão das linhas espectrais que é proporcional ao campo magnético.
Verificam-se casos extremos: as estrelas de neutrões geram campos da ordem do
100MT (100 mega-tesla). O nosso Sol é bem menos intenso, produzindo valores que
vão entre os 10-4T e os 10-2T. (Recorde-se que o campo magnético terrestre é da
ordem dos 10-5T).
O campo magnético solar é muito mais complexo que o terrestre, o que se
deve, principalmente, à rotação diferencial das regiões polares (mais rápida) e
equatoriais do Sol. Este fenómeno provoca a geração de campos toroidais a baixas
latitudes, cuja intensidade varia de acordo com o ciclo solar de cerca de 11 anos. As
manifestações extremas destes fortes campos magnéticos são as bem conhecidas
erupções e manchas solares, onde se podem medir episodicamente densidades
extremas de fluxo magnético da ordem dos 0.1T.

147
A cada onze anos, quando a actividade solar está num máximo – facilmente
identificável pelo grande número de manchas solares – os campos toroidais cancelam
o campo principal (polar) do Sol e produz-se, então, uma inversão espontânea da
polaridade solar. O fluxo do vento solar acompanha esta periodicidade.
O vento solar é originado nas camadas externas da atmosfera solar: a coroa,
um plasma que se encontra a temperaturas que excedem os 106K. Tanto quanto
calcula, o vento solar estende-se até distâncias da ordem das 100UA, ou seja, mais de
duas vezes e meia para lá da órbita de Plutão, até ao ponto em que a sua pressão é
equilibrada pela do meio extraplanetário, ou interestelar – a chamada heliopausa.
Calcula-se que a quantidade de massa perdida pelo Sol no vento solar seja de
cerca de um milhão de toneladas por segundo.
O fluxo do vento solar arrasta consigo as linhas de campo no plano do equador
solar (afinal, o plano da eclíptica), onde se forma uma folha neutra, análoga à que já
vimos na magnetosfera terrestre. A folha neutra solar é ondulada segundo uma espiral
de Arquimedes, o que levou a que se lhe chamasse a “saia de bailarina”. O
interessante neste ‘tutu’ interplanetário é que as suas ondulações definem sectores de
polaridades alternadas, para Norte e para Sul do plano da eclíptica. Em algumas
ocasiões, quando a ondulação sobreposta à Terra está polarizada na mesma direcção
do campo terrestre, as linhas do campo interplanetário podem conectar-se com as do
campo geomagnético, deixando penetrar o vento solar na magnetosfera, ao longo das
cúspides polares, provocando as nossas bem conhecidas auroras.
3.7.2. Mercúrio.
Como já se disse (cap. 2) até ao presente, Mercúrio foi visitado apenas por
uma missão espacial, a Mariner 10, da NASA, e só em três passagem (sem orbitar o
planeta). Só foi possível obter medições do magnetismo planetário em 29 de Março de
1974 e em 16 de Março de 1975. Os dados então obtidos, embora manifestamente
insuficientes, permitiram identificar uma intensidade máxima do campo de cerca de
400nT a 330Km de altitude, assim como a existência de uma frente de choque e de
uma magnetopausa, muito próximas do planeta (respectivamente, 2RM e 1RM na
direcção do Sol).
Foi possível ajustar modelos aos poucos dados existentes, que apontam para
um momento dipolar planetário entre 2.5 e 5.0×1012Tm3 com uma polaridade
semelhante à da Terra (Norte magnético ‘para cima’) e uma inclinação do eixo
magnético de 14º.
O modelo para a estrutura interior planetária inferido das propriedades
gravitacionais de Mercúrio é compatível com as propriedades magnéticas que se
mencionaram, apontando para um mecanismo de dínamo análogo ao terrestre, no
enorme núcleo metálico do planeta (quase 40% do seu diâmetro).
O conhecimento do magnetismo de Mercúrio deverá ser muito aprofundado
com a missão Messenger, da NASA, partida em 2004 e, principalmente, a
BepiColombo, da ESA, em 2006, que terá um satélite dedicado a estudos magnéticos.
3.7.3. Vénus.
Nenhuma das sete missões espaciais que visitaram Vénus detectou qualquer
campo intrínseco no planeta. Isto deve-se, provavelmente, ao facto de todo o núcleo
planetário se encontrar no estado sólido. Por outro lado, também não podem existir

148
rochas magnetizadas na superfície de Vénus que se encontra a uma temperatura,
740K, que é superior ao ponto de Curie para os minerais magnéticos.
Apesar disso, Vénus possui uma ionosfera e, portanto, um campo externo
muito fraco, gerado pela interacção do vento solar com a sua densíssima atmosfera.
3.7.4. A Lua.
A nossa Lua também não possui hoje um campo magnético de origem interna,
embora já o tenha possuído, o que foi revelado pela prospecção magnética realizada
pelas missões Apollo 15 e 16 e Lunar Prospector que permitiu produzir uma
cartografia magnética de quase 20% da superfície lunar (figura 3.39). A existência de
anomalias magnéticas atribuíveis a magnetização remanescente de rochas ígneas
mostra que deve ter existido um processo de dínamo activo até, pelo menos, há cerca
de 3600MA. As medições por satélite revelaram anomalias da ordem dos 10nT,
enquanto que as medições realizadas na superfície pelos astronautas encontraram
anomalias até 300nT.

Figura 3.39 – Mapa de campos magnéticos superficiais no hemisfério Sul do lado oculto da Lua,
obtido por reflectometria electrónica. Máximo~10nT. A ponteado: localização de crateras de
impacto nos antípodas. A tracejado: órbita do satélite. A cheio: zonas onde o vento solar é
deflectido pelos campos crustais. (c) MAG/ER, Lunar Prospector, NASA, JPL.
A boa correlação de muitas das anomalias magnéticas com grandes crateras de
impacto nos antípodas aponta para a hipótese de terem sido esses impactos os
responsáveis por parte da magnetização. Em todo o caso, as magnetizações
remanescentes identificadas em áreas não antipodais de grandes crateras mostram que
essas rochas devem ter cristalizado na presença de um campo de origem lunar,
provavelmente produzido por um dínamo interno como o da Terra. A existência de
uma parte líquida no núcleo lunar, inferida a partir de dados gravimétricos, já referida
no capítulo 2, reforça essa probabilidade.

149
Um dos aspectos mais interessantes da campanha magnética realizada pela
Lunar Prospector é o de ter revelado pela primeira vez a existência de micro-
magnetosferas crustais: pequenas áreas, à superfície, onde, aparentemente, o vento
solar é deflectido pelos campos remanescentes das rochas. Esperamos encontrar esse
fenómeno também em Marte.
3.7.5. Marte.
O último planeta telúrico principal, Marte, também não possui um campo de
origem interna. Isso foi confirmado por todas as missões espaciais que o visitaram,
principalmente pelas duas últimas missões norte-americanas: Mars Global Surveyor
(MGS) e 2001 Mars Odyssey (MO), ambas ainda a orbitar Marte em 2004.
Mas o que é verdadeiramente interessante sobre o magnetismo de Marte são os
campos locais: o magnetismo das rochas.

Figura 3.40 – Magnetização crustal de Marte. Connerney, et al. (2004).


Desde que se percebeu que possuíamos na Terra fragmentos de Marte (cerca
de trinta), que se pensou em estudar o seu magnetismo. Na verdade, o grupo de
meteoritos classificados como acondritos de tipo SNC (dos nomes dos três
meteoritos padrão: Shergotty, Nakhla e Cassigny) é hoje interpretado como sendo
rochas ejectadas da superfície de Marte por um grande impacto meteorítico, que
acabaram por ser capturadas pelo campo gravitacional da Terra. Essa interpretação
decorre da composição dos gases preservados em inclusões fluídas nos cristais que
compõem os meteoritos SNC, que se sabe ser igual à composição da atmosfera
marciana.
Verificou-se que os meteoritos de origem marciana cristalizaram na presença
de campos magnéticos, tendo adquirido magnetizações naturais termo-remanescentes.
Os campos ambientes estimados atingem desde 1000nT, no caso do Shergotty original

150
até 10000nT, para o EETA79001, e está excluída a hipótese dessas magnetizações
terem sido adquiridas no momento do impacto.
A missão MGS transporta a bordo um magnetómetro de reflexão de electrões
idêntico ao da Lunar Prospector (MAG/ER) mas, ao contrário deste, já cobriu todo o
planeta, e com resultados surpreendentes (figura 3.40).
Uma análise, mesmo superficial, da figura 3.40 mostra que as anomalias
magnéticas se desenvolvem em bandas paralelas de polaridades alternadas, de forma
muito semelhante à das zonas terrestres de rifte, quase exclusivamente no hemisfério
Sul, o que implicará que Marte terá tido uma tectónica activa e um dínamo interno
activo até há cerca de 3800MA.
Levanta-se agora a questão de determinar se o magnetismo remanescente das
rochas será bastanta forte para criar micro-magnetosferas analogamente ao que vimos
acima para a Lua. Esta questão é importante pois essas micro-magnetosferas poderiam
definir nichos ecológicos adequados para o crescimento de vida microbiana,
protegendo-a do vento solar e dos raios cósmicos e, mais, para o estabelecimento dos
primeiros astronautas humanos.
Os dados do detector MARIE (Mars Radiation Environment Experiment –
experiência do ambiente de radiações de Marte) da missão MO, recolhidos durante
uma semana de Março de 2002, parecem indicar que há uma correlação entre as zonas
mais magnetizadas e as menos irradiadas (figura 3.41), favorecendo a hipótese de,
também em Marte, existirem tais micro-magnetosferas.

Figura 3.41 – Ajustamento de uma superfície cúbica aos valores medidos pelo instrumento
MARIE durante a semana entre 16 e 23 de Março de 2002. Valores em log(MeV). Alves e
Baptista (2004).

3.7.6. Os gigantes gasosos.


O “gigante dos gigantes”, Júpiter contém tanta massa como todos os outros
planetas e também o seu magnetismo é dominador – intensidade magnética da ordem

151
dos 400000nT. As correntes eléctricas ionosféricas contribuem seguramente para o
aquecimento de Io por efeito Joule, embora não se saiba exactamente qual é a parte de
responsabilidade, relativamente ao aquecimento pela deformação de maré sólida
referido no capítulo anterior.
Também os satélites galileanos (Io, Europa, Ganimedes e Calisto) modelam a
magnetosfera joviana, interrompendo as linhas de campo e, principalmente,
produzindo toros de plasma que interceptam o planeta-mãe. Repare-se que Júpiter se
encontra a uma distância média do Sol de 5.2UA, onde a pressão do vento solar é 27
vezes menor que na Terra. Assim, a principal fonte de plasma são os satélites,
principalmente Io, que ejecta continuamente, dos seus vulcões activos, grandes
quantidades de gases e vapores metálicos.
A intersecção dos toros de plasma com a “superfície” da atmosfera joviana é
bem visível nas imagens captadas pelo telescópio Hubble (HST – Hubble Space
Telescope) de auroras extra-terrestre (figura 3.42)
Tal como na Terra, as partículas capturadas pelo campo magnético de Júpiter
acumulam-se em cinturas de radiações, aqui muito mais energéticas e, portanto, uma
preocupação constante para o planeamento de missões espaciais que aproximem este
planeta.

Figura 3.42 – Aurora boreal em Júpiter.Imagem HST, 2000.


A magnetocauda de Júpiter estende-se até à órbita de Saturno pois, como já se
disse, não só o campo planetário é fortíssimo como o vento solar chega aqui muito
difuso.
Pensa-se que o campo magnético joviano é gerado por um mecanismo de
dínamo no interior do núcleo de hidrogénio metálico da mesma forma, aliás, que em
Saturno.
Só se conhece a existência de um campo magnético em Saturno desde
Setembro de 1979, com a primeira passagem da missão Voyager 1.
Foram também as missões Voyager a conferir-nos todo o conhecimento que
temos do magnetismo planetário trans-saturniano.
Úrano e Neptuno não têm massa suficiente para poderem gerar a pressão
necessária para conter núcleos de hidrogénio metálico. Esse facto, e as suas
propriedades gravitacionais, indicam que os seus núcleos serão líticos. Os
mecanismos de dínamo que geram os seus campos internos não estão, por isso, ainda

152
bem esclarecidos, mas pensa-se que poderão originar-se em convecção nos seus
mantos de gelos de água, amónia e metano, ricos em impurezas metálicas, sobre um
manto inferior (ou núcleo externo...) líquido, muito condutor, de composição H-C-N-
O.
3.7.7. Resumo das características magnéticas planetárias.
A tabela 3.1 resume as características magnéticas dos planetas do Sistema
Solar. A coluna “ponto de estagnação sub-solar” refere-se à distância, na direcção do
Sol, a que começa a magnetosfera (unidades: raios planetários).
Tabela 3.1 – Resumo das características magnéticas planetárias.

Pressão do Ponto de
Momento dipolar Relação dipolo:
Planeta Inclinação vento solar estagnação sub-
(Tm3) quadrupolo
(dyne.cm-2) solar

Mercúrio ~3x1012 14°? ? 6.3x10-8 ~1RH

Vénus <8x1010(induzido) - - 2.6x10-8 < 1RV

Terra 7.8x1015 10.8° 1:0.16 1.33x10-8 ~10.4RT

Lua <1.3x108(remanente) - - 1.33x10-8 -

Marte ~1011(remanente) - - 5.75x10-9 ~1.5RM

Júpiter 1.56x1020 9.40° 1:0.22 5x10-10 ~50RJ

Saturno 4.72x1018 < 1° 1:0.076 1.45x10-10 ~20RS

Úrano 3.83x1017 58.6° 1:0.70 3.60x10-11 18.04RU

Neptuno 2.16x1017 46.9° 1:1 1.46x10-11 ~26RN

3.8. Geoelectricidade: o potencial espontâneo.


Os potenciais espontâneos (SP) são gerados pelo fluxo de fluidos, calor e
partículas carregadas (iões ou electrões) na Terra; por isso, as anomalias desses
potenciais têm sido usadas para ajudar a localizar e delimitar as fontes desses fluxos.
A técnica de prospecção por SP é uma técnica passiva, de campo potencial tal
como a magnetometria ou a gravimetria, por isso as fontes do campo não podem ser
variadas a nosso bel-prazer, o que poderia ser útil, para:
• variar a profundidade da investigação;
• melhorar a relação sinal/ruído.
Quanto à primeira limitação não se pode fazer nada. Quanto à segunda,
podem-se aplicar técnicas de suavização e filtragem do sinal. Mas é sempre preferível
reconhecer e remover os erros e o ruído tanto quanto possível, antes de usar tais
técnicas. Vamos esclarecer estes conceitos, válidos para toda a Geofísica.
Erro - é a componente irreprodutível da leitura dos dados, associada ao
próprio processo de aquisição. Pode ser de dois tipos:
1. Erro sistemático, geralmente atribuível aos procedimentos de medida.
2. Erro aleatório, que tem três componentes principais em SP:
2.1. Efeitos de contacto dos eléctrodos com o solo.

153
2.2. Polarização dos eléctrodos.
2.3. Deriva temporal dos potenciais.
Este assunto será aprofundado mais tarde.
Ruído - é uma leitura gerada por uma ou mais fontes que não interessam ao
propósito da investigação em curso.
Estes conceitos podem sobrepor-se por vezes. Aquilo que é sinal para uma
investigação pode ser ruído para outra. Por exemplo: para uma prospecção mineira os
potenciais gerados pela corrosão ou por correntes telúricas podem não interessar,
enquanto que os mesmos potenciais interessam para uma investigação geoquímica ou
geofísica pura.
Vamos estudar o método SP com algum pormenor por quatro motivos
principais:
a) É um método excelente, do ponto de vista técnico, para iniciação à micro-
geofísica, já que qualquer pessoa pode, com baixos custos, construir o
equipamento necessário.
b) A análise dos resultados é principalmente qualitativa.
c) É extremamente sensível à interferência do ruído e do erro, ajudando a
criar uma importante disciplina na aquisição, análise e interpretação de
dados.
d) O equipamento é a base para vários outros métodos, como a
resistivimetria, a polarização induzida ou as sondagens magneto-telúricas.
3.8.1. Técnica
As bases da prospecção SP não poderiam ser mais simples: introduzem-se dois
eléctrodos no terreno e, usando um milivoltímetro, mede-se a diferença de potencial
entre eles. A aplicação prática, contudo, é mais elaborada, com vista à optimização da
relação sinal/ruído, à minimização dos erros e à obtenção do máximo de informação.
3.8.1.1. Equipamento
Ao contrário de todas as outras técnicas de prospecção geofísica, não existe no
mercado equipamento específico para SP. Este é fácil de construir e barato - sem
dúvida uma das mais importantes vantagens deste método. O equipamento usado
consiste em:
1. Eléctrodos impolarizáveis (dois ou mais).
2. Carreto de cabo condutor bem isolado.
3. Voltímetro (milivoltímetro).
3.8.1.1.1. Eléctrodos
Os eléctrodos mais simples que podem ser usados são os constituídos por uma
vareta de metal: aço, cobre ou prata. No entanto, estes geralmente não se usam por
sofrerem acentuadamente dois efeitos prejudiciais, polarização e deriva, que tornam
as leituras muito pouco reprodutíveis.
Polarização - potencial medido num dado momento entre um par de
eléctrodos, na ausência de qualquer campo exterior. Idealmente, se se mergulhar o par
de eléctrodos num electrólito do metal do eléctrodo (por exemplo Cu-CuSO4 ou Pb-
PbCl2), o potencial medido deve ser nulo, o que na prática nunca se verifica.

154
Deriva - variação temporal do valor da polarização.
Por estes motivos usam-se quase sempre eléctrodos ditos "impolarizáveis"
(figura 3.43). Estes eléctrodos são basicamente constituídos por uma vareta de metal
mergulhada numa solução saturada desse metal, que é posta em contacto com o solo
por uma barreira porosa (porcelana, madeira). São exemplos o já referido par Cu -
CuSO4 ou o par Ag - AgCl2. Por vezes a solução do electrólito é gelificada para
minimizar as perdas.
Como já se disse, mesmo estes eléctrodos estão longe de ter um
comportamento ideal, por isso torna-se importante conhecer a sua resposta em termos
de polarização e de deriva, em relação a parâmetros ambientais, como a temperatura,
a humidade e o quimismo do solo.
As respostas dos eléctrodos impolarizáveis a variações na humidade do solo
andam na ordem de +0.3 a +1.0mV por cento de aumento de humidade, dependendo
do tipo de solo. Por este motivo, muitas vezes é necessário molhar o solo na zona
onde se introduz o eléctrodo, com uma antecedência de umas horas a um dia. Este
procedimento tem duas vantagens: reduz a resistência de contacto do eléctrodo e
reduz também a influência das variações diurnas e sazonais da humidade do solo. É
muito importante, em todo o caso, que as notas de campo refiram o estado de
humidade do solo onde se introduziu o eléctrodo, a fim de se poder posteriormente
distinguir o que são verdadeiras anomalias causadas por fontes de interesse daquelas
que são apenas ruído. Isto é especialmente importante em investigações
hidrogeológicas e de percolação em barragens de terra ou fundações.

Vareta Cu

Rolha estanque

Tubo impermeável

Solução saturada
CuSO4

Tampão permeável

Figura 3.43 – Constituição de um eléctrodo impolarizável.


As variações de temperatura são talvez a principal causa de deriva dos
potenciais. As respostas dos eléctrodos de Cu-CuSO4 são da ordem de +0.5 a +1.0mV
por aumento de 1°C. Note-se que isto se refere a diferenças de temperatura entre os
electrólitos dos dois eléctrodos e não, estritamente, entre os solos dos locais de
implantação. Por isso, este efeito só se faz sentir quando a temperatura do electrólito
se equilibra com a do solo.

155
Os efeitos do quimismo do solo relacionam-se principalmente com potenciais
de electrólise e devem ser analisados caso a caso pois a sua variedade é tal que
impede a formulação de regras genéricas.
3.8.1.1.2. Cabo Condutor
A resistência do contacto eléctrodo/solo é sempre muitas ordens de grandeza
superior à dos condutores por isso, na prática, o comprimento total de cabo a usar é
decidido apenas com base em considerações de operacionalidade. Pode-se usar
qualquer cabo comercial, desde que bem isolado. As fugas por contacto entre o
condutor e o solo podem gerar potenciais de erro desde algumas centenas de mV a
alguns V, pelo que se deve verificar o bom estado do isolamento do cabo antes de
qualquer campanha.
3.8.1.1.3. Voltímetro
São as seguintes as características técnicas aconselhadas:
− Resolução - 0.1mV
− Escala - ±10V(DC)
− Impedância de entrada - 10 - 100MΩ (Note-se que em neve, solo
gelado, muito seco ou rochoso a resistência de contacto dos eléctrodos
pode atingir vários MΩ.)
− Filtragem de sinais de baixa frequência (10 - 100 Hz), importante
principalmente em áreas habitadas e industrializadas.
3.8.1.2. Configurações electródicas
Dado que nunca se pretende apenas uma leitura SP num ponto, a forma como
se fazem as várias leituras traduz as diferentes configurações electródicas. A
sensibilidade a erros sistemáticos e aleatórios varia com a configuração.
Usam-se duas configurações possíveis: de base fixa e de gradientes.
CONVENÇÃO: o terminal negativo do voltímetro liga-se ao eléctrodo na
estação de base e o positivo ao eléctrodo na estação de medida.
3.8.1.2.1. Base fixa, ou campo total
Nesta configuração mantém-se um eléctrodo fixo na estação base (B1) e é o
outro eléctrodo que se transporta para as diversas estações de medida, juntamente com
o carreto de cabo que se vai desenrolando. Quando o cabo está todo desenrolado
toma-se uma nova estação base (B2). Para manter a continuidade de uma para outra
base tem que se determinar a diferença de potencial entre B2 e B1. Para tal, podem
usar-se dois procedimentos:
1- Faz-se uma série de 5 ou 6 medidas de potencial com um eléctrodo em B2 e
o outro em B1, e toma-se a média das observações.
2 - Medem-se os potenciais de 5 ou 6 pontos, tanto em relação a B1 como a
B2:
Sejam V1, V2, V3, ..., Vn os potenciais em relação a B1, e V'1, V'2, V'3, ..., V'n os
potenciais em relação a B2.
Então,

n
Vi − V ' i
V =∑ (3.99)
i =1 n

156
em que V é o potencial de B2 em relação a B1.
O método de base fixa ou campo total apresenta as seguintes vantagens:
1. Não há limites para o comprimento do cabo.
2. Como o cabo não é arrastado, mas sim enrolado, é menos susceptível a ser
danificado.
3. É fácil de executar por um só operador a pé.
4. Há uma total flexibilidade no posicionamento dos eléctrodos.
5. Pressupõe um investimento inicial um pouco mais alto (no cabo) que o método
dos gradientes, mas esse investimento é rapidamente recuperado pelos baixos
custos de exploração.
6. Produz dados de alta qualidade por baixo custo.
7. Há um nível baixo de erro acumulado: embora cada leitura possa sofrer das
componentes de erro acima referidas, estas não se acumulam, ao contrário do que
sucede no método dos gradientes.
8. É relativamente fácil estimar as magnitudes dos erros devidos a polarização
electródica e a deriva temporal e removê-los das leituras.
Este método, como todos, também tem os seus inconvenientes. Neste caso,
todos decorrem da grande extensão de cabo que é requerida.
1. É difícil transportar um carreto carregado de cabo por terrenos perigosos ou
acidentados.
2. É preciso repetir o percurso depois de executar uma linha, para recuperar o cabo.
3. A longa extensão de cabo é vulnerável a vandalismo, animais, viaturas...
4. É difícil, trabalhosa e morosa a inspecção do cabo

3.8.1.2.2. Método dos gradientes


Neste método os dois eléctrodos mantêm uma separação constante s
(geralmente entre 10 e 50m, mas essencialmente dependente da escala a que se
pretende trabalhar). Os eléctrodos deslocam-se ao longo do perfil em passos iguais a
s, de duas maneiras possíveis:
a) Contínuo - em cada novo passo, o eléctrodo base toma a posição do
anterior eléctrodo de medida (figura 3.44)

1 1 1 1 1 1

1 2 2 2 2 2 2

Figura 3.44 – Contínuo.


b) Salteado - em cada novo passo, o eléctrodo da medida anterior passa a ser o
novo eléctrodo base (figura 3.45).
1 2 1 2 1 2 1

Figura 3.45 – Salteado.


Em qualquer caso, se a diferença de potencial entre os eléctrodos é V2-V1,
então

157
V2 − V1
Γ= (3.100)
s

é o gradiente de potencial eléctrico entre os pontos 1 e 2, quer dizer, o campo eléctrico


em mV/m no ponto médio entre os eléctrodos.
O método dos gradientes pode ser assimilado algebricamente ao da base fixa.
Se se tomar o ponto 1 como base, o potencial no ponto 3 em relação à base, V3, será

V3 = (V2-V1) + (V3-V2) (3.101)

No entanto, este processo não deve seguir-se dado que conduz a que também
os erros sejam somados, o que, numa linha com dezenas de estações de medida, pode
conduzir a erros muito importantes.
A técnica de salteado conduz a que sejam minimizados os erros causados pela
auto-polarização dos eléctrodos.
Como o potencial espontâneo numa dada estação é obtido pela adição
sucessiva das leituras anteriores, a polaridade do voltímetro deve ser cuidadosamente
observada para que essa adição seja correcta. Não devemos esquecer a convenção
sobre as polaridades: os pólos do voltímetro devem ser trocados a cada medida para
que o eléctrodo “da frente” seja sempre o positivo e o outro o negativo.
O método dos gradientes apresenta as seguintes vantagens, que se devem à
pequena dimensão do cabo:
O cabo é menos vulnerável a danos causados por animais ou por vandalismo. Pode ser
removido rapidamente, quando se atravessam estradas, por exemplo.
Rapidez, dado que não é necessário recuperar cabo ao mudar a estação base, o que,
para além das óbvias vantagens económicas, pode ser importante ao atravessar
terrenos perigosos ou difíceis.
É fácil verificar o isolamento do cabo e repará-lo ou substituí-lo se for caso disso.
Por outro lado, o método dos gradientes também apresenta desvantagens:
1. Uma campanha, para ser eficiente, requer pelo menos dois operadores.
2. A prática comum de arrastar o cabo entre estações, em vez de o enrolar, pode
danificá-lo.
3. A configuração de gradientes é muito sensível a “anomalias” espúrias, causadas
apenas por erros acumulados.
4. Por causa do pequeno espaçamento electródico, é difícil avaliar os efeitos da
deriva temporal. Uma variação de 20 mV/Km na amplitude de uma anomalia,
aparecerá como uma amplitude de apenas 0.2mV num dipolo de 10m –
dificilmente detectável. Ora, como o cálculo é cumulativo, o erro pode ser tão
grande como em dispositivos com maior espaçamento.
Em resumo, o método dos gradientes deve restringir-se a situações em que a
logística o obrigue – por motivos de tempo, material, dificuldades de terreno.
3.8.1.2.3. Configuração multielectródica
Não se trata de uma verdadeira configuração electródica, dado que pode ser
usada tanto com o método de campo total como com o de gradientes.
Consiste em plantar um eléctrodo em cada estação de medida, em vez de uma
simples estaca. Tem algumas vantagens, como a rapidez de medida, a facilidade de

158
mudar rapidamente de configuração e a facilidade de retroceder para repetir medidas
exactamente onde foram executadas pela primeira vez. Contudo, os inconvenientes
talvez ultrapassem as vantagens: é facilmente vandalizável, requer um investimento
inicial comparativamente muito alto, e é de geometria pouco flexível.
Por estas razões, a configuração multielectródica é usada quase
exclusivamente em sistemas de monitorização contínua, como por exemplo em
estudos de percolação em barragens, ou em monitorização de precursores sísmicos.
3.8.1.2.4. Eléctrodos submersos
Usam-se em casos em que tal é requerido, como albufeiras de barragens ou no
mar. Devido à baixa resistividade da água (principalmente da água salgada), as
amplitudes do sinal SP reduzem-se. Em contrapartida, também se reduzem os níveis
de ruído e os erros, tendo como consequência um melhoramento da razão sinal/ruído.
3.8.2. Causas de ruído e erro em SP
3.8.2.1. Procedimentos de medida
Numa campanha conduzida a partir de uma única estação base, a primeira
leitura terá um erro não-reprodutível igual ao potencial de polarização inicial entre os
eléctrodos de base e de medida, e a última leitura será afectada por um erro igual à
polarização final.
Para minimizar estes erros, aqueles valores de polarização devem medir-se
num banho de electrólito, imediatamente antes da instalação e após a remoção do
eléctrodo da base. Este procedimento vai permitir que se subtraiam estes erros aos
valores medidos, obtendo-se as correcções das medidas intermédias por interpolação
linear.
Em situações em que o eléctrodo da base está no solo por longos períodos (ou
seja, mais de uma hora) podem obter-se valores da deriva lendo periodicamente a
diferença de potencial com um eléctrodo de referência mergulhado em electrólito.
Recorde-se o que se disse aquando da descrição dos eléctrodos: a polarização
e a deriva podem reduzir-se minimizando a exposição dos eléctrodos a variações de
humidade, temperatura e quimismo. Em particular, a deriva electroquímica pode
reduzir-se minimizando o tempo em que o eléctrodo de medida está no solo
(principalmente se a composição deste é diferente da base), e também limpando
cuidadosamente as juntas porosas depois de cada medida.
Pode justamente perguntar-se quando deve ser feita a medida: logo que o
eléctrodo é enterrado?, mais tarde?, quanto mais tarde?
Verifica-se que, na maior parte dos casos, as leituras estabilizam ao fim de
alguns segundos. Por isso, as leituras fazem-se normalmente logo no início.
Contudo, há alguns casos em que se verifica uma significativa deriva temporal
(mais de 1mV/min) durante vários minutos ou mesmo horas. Qual é o valor desejado?
A resposta a esta pergunta depende da causa da deriva.
É evidente que, se a causa da deriva for a própria fonte do potencial, todos os
valores são significativos. Este é ocaso, por exemplo, de uma variação na taxa de
percolação. Contudo, se a deriva for provocada pela resposta do eléctrodo a condições
variáveis do solo, como as já referidas humidade, temperatura e quimismo, a leitura
correcta deverá obter-se muito cedo - antes da polarização do eléctrodo.

159
Os cuidados com os eléctrodos são essenciais para o sucesso de uma
campanha. Estes devem manter-se sempre limpos e sem fugas. O electrólito deve
estar sempre saturado, com excesso de cristais: recorde-se que a solubilidade varia
com a temperatura. O nível do electrólito deve ser vigiado de forma a que a vareta
metálica esteja sempre coberta. Os eléctrodos devem ser armazenados ou vazios, em
lugar fresco e seco ou, e de preferência, mergulhados em electrólito ou num banho de
areia saturada com electrólito.
3.8.2.2. Efeitos de contacto
Quando se faz uma leitura, se remove o eléctrodo, e depois se repete a leitura
no mesmo local, quase sempre as duas leituras são diferentes. Para solos húmidos,
compactos e condutores, a diferença pode ser da ordem dos 5 a 10mV; para solos
secos, resistivos e incoerentes esta diferença pode atingir várias dezenas de milivolt.
Este erro é irreprodutível, e acumula-se rapidamente nas configurações de gradiente
mas também nas de base fixa, através dos pontos de ligação de bases.
Este efeito pode ser minimizado se os buracos onde os eléctrodos são
plantados tiverem a profundidade suficiente para encontrar humidade intersticial e, ao
mesmo tempo, minimizar as variações da temperatura superficial.
1. Em solos compactos - alguns centímetros.
2. Em solos secos, incoerentes ou rochosos - 50 cm ou mais. Neste caso é difícil
obter um bom contacto. Possíveis soluções são:
2.1. Juntar alguns cm de finos do próprio material no fundo do buraco.
2.2. Em casos extremos, colocar no fundo uma esponja saturada de electrólito.
Como a temperatura e a humidade do solo exposto ao ar variam, se se quiser
reocupar a estação mais tarde, o buraco deve ser cheio com o próprio solo e marcado à
superfície com uma estaca ou bandeirola.
Como já foi dito, para solos muito secos ou condições de grande variabilidade
diurna ou sazonal da humidade intersticial, os buracos podem ser humedecidos
artificialmente. Mas atenção: depois deste humedecimento os potenciais derivam
fortemente devido à difusão da água nos poros, pelo que se deve esperar no mínimo
uma hora. Este procedimento só se justifica, portanto, em situações excepcionais.
Outra técnica para reduzir os efeitos dos potenciais de contacto e variações das
propriedades do solo é usar vários buracos em cada estação (sempre com a mesma
disposição geométrica), e fazer a média dos potenciais assim medidos.
3.8.2.3. Efeitos de variação temporal
Para além da deriva específica dos eléctrodos, há outras variações temporais
das leituras de potencial espontâneo. Consoante a escala temporal da variação, podem
ser
1. reconhecidas durante uma medida individual
2. reconhecidas durante uma campanha
3. demasiado lentas para serem reconhecidas.
No primeiro caso encontra-se a actividade telúrica, que exibe um pico
espectral cerca dos períodos de 20 a 30s.
Outras variações fazem-se sentir por períodos entre alguns minutos e alguns
meses, ou mesmo mais. Neste caso, só serão reconhecidas se se fizer uma nova
campanha na mesma área.

160
Podem ser, por exemplo:
- variações nas propriedades do solo devidas a
- variações de temperatura
- chuva
- actividade humana
- efeitos de variações na topografia, devidos a
- deslizamentos de terreno
- sismos
- actividade humana
- efeitos hidrogeológicos
- variações de cota dos aquíferos
- variações dos caudais
e muitas outras causas.
3.8.2.4. Correntes telúricas
Outra categoria importante de ruídos com variação temporal e que, por isso,
merece tratamento à parte, é a dos que são gerados por correntes telúricas naturais ou
artificiais. As correntes naturais são principalmente geradas por variações contínuas
ou espúrias do campo electromagnético terrestre, como já se viu. No segundo caso
encontram-se os picos de corrente causados pela queda de relâmpagos.
As correntes telúricas artificiais são, é claro, de origem antropogénica.
3.8.2.4.1. Correntes telúricas naturais
As variações das correntes telúricas naturais têm períodos que variam entre
alguns milissegundos e algumas horas.
Para a prospecção SP, os períodos mais importantes são os da gama dos 20 a
30s, que podem não ser detectados ao nível da medida individual, e os de cerca de
0.1s, que podem aparecer como ruído de alta frequência.
As amplitudes destas variações de potencial são geralmente da ordem de
alguns mV/Km. Deste modo, a sua influência nas leituras pode ser aproximada por
um valor médio de vários ciclos. Contudo, as variações telúricas podem atingir as
centenas de mV/Km em casos especiais:
- áreas de alta resistividade;
- zonas muito condutivas com canalização de correntes;
- tempestades magnéticas.
A queda de relâmpagos gera picos de voltagem de alta amplitude e muito curta
duração. São, por isso, facilmente identificáveis.
3.8.2.4.2. Correntes telúricas artificiais
As correntes telúricas artificiais são geradas principalmente pela ligação à
terra de maquinarias eléctricas industriais e, como é óbvio, o seu efeito faz-se sentir
principalmente em zonas desenvolvidas. A variação destas correntes é de baixa
frequência, com períodos que vão desde alguns segundos até alguns dias.
Processos de corrosão de estruturas metálicas também podem causar este tipo
de correntes que, no entanto, apresentam períodos muito mais longos.
Também as linhas de alta tensão, aéreas ou, principalmente, subterrâneas,
produzem correntes telúricas. Estas correntes têm frequências da ordem dos 50 a 60

161
Hz, o que aqui deve ser considerado alta frequência. Contudo, este ruído pode ser
adequadamente filtrado por voltímetros de boa qualidade.
3.8.2.5.Outras fontes de ruído
Para além dos efeitos de contacto e dos de variação temporal, existem outras
fontes de ruído que são estáveis ou variam muito lentamente com o tempo.
3.8.2.5.1. Efeitos topográficos
Tendem a tornar-se mais negativos com o aumento das cotas (o chamado
efeito de cume negativo) e são causados principalmente pelo movimento descendente
das águas sub-superficiais. Estes efeitos nem sempre são observáveis mas, quando
presentes, podem assumir valores de alguns mV por metro de elevação. Fazem-se
sentir mais em áreas de geologia vulcânica, solos porosos, topografia muito irregular
ou condições de alta precipitação.
3.8.2.5.2. Ligações à terra de máquinas eléctricas
Este efeito já foi referido aquando da discussão das variações temporais.
Contudo, há casos em que estes potenciais têm variação tão lenta que se torna
imperceptível à escala temporal de uma campanha de prospecção. Deve-se, sempre
que possível, registar os períodos de funcionamento das máquinas.
3.8.2.5.3. Corrosão metálica
Por vezes muito importante, este efeito é causado por processos de oxidação-
redução de metais enterrados - revestimentos de poços, pipelines, bidões, vergas de
aço ou ferro de reforço de estruturas de betão (como as fundações de pilares de
pontes), etc. Os revestimentos de poços verticais produzem habitualmente fortes
anomalias negativas.
A distinção entre estes potenciais e os causados por depósitos minerais
metálicos é importante, mas geralmente fácil.
3.8.2.5.4. Potenciais de percolação
Os potenciais de percolação são gerados pelo fluxo de fluidos através de um
meio poroso. São dificilmente quantificáveis, mensuráveis ou modelizáveis. As suas
variações relacionam-se com diversos factores:
- resistividade da água intersticial
- resistividade dos materiais percolados
- profundidade dos aquíferos
- grau de saturação do solo
- temperatura do solo
- composição iónica da água intersticial
- variações sazonais
- tempestades
- cota da água numa albufeira
e muitos outros.
Outros potenciais variáveis podem ser gerados pelos movimentos verticais de
fluidos, provocados pela evapo-transpiração da cobertura vegetal ou pelo aquecimento
do solo pelos raios solares. A cobertura vegetal pode ser um importante factor gerador
de potenciais variáveis, pelo que as suas características devem ser anotadas na
caderneta de campo.

162
3.8.3. Filtragem de ruído
A principal técnica de filtragem de ruído consiste no uso de um dipolo de
referência – o monitor telúrico.
Instala-se um dipolo estacionário de comprimento igual ao da linha de
prospecção, na própria linha ou paralelo a ela, de tal forma que o sinal deste dipolo
possa ser lido em cada estação. Este sinal é registado em contínuo por um período de
algumas horas a um dia, consoante o período das variações temporais que se esperam,
para se poder avaliar um nível zero para as perturbações (voltaremos mais tarde ao
problema da definição de um nível zero). Quando este nível é determinado, fazem-se
as medições em cada estação quando o dipolo de referência atinge o nível zero.
Se houver variações de período muito longo, que não tornem prático esperar
que o dipolo de referência atinja o nível zero de potencial, fazem-se várias leituras
com vários níveis do potencial de referência e extrapolam-se para o nível zero. Este
procedimento não é completamente exacto, porque não considera as variações de
resistividade do terreno ao longo da linha prospectada e também porque o verdadeiro
potencial no dipolo de referência não é geralmente zero. Mesmo assim, permite uma
apreciável redução do ruído e obter valores em condições em que, de outra maneira,
seria impossível.
Em resumo, é sempre aconselhável o uso de um monitor telúrico. Sem este
registo seria sempre possível confundirem-se variações temporais de período longo
com anomalias espaciais. Em todo o caso, mesmo que os dados do monitor não sejam
usados para correcções quantitativas, podem sempre servir para avaliar os tempos de
maior ruído e repetir medidas ou evitá-las. Também por este motivo deve-se registar
sempre o tempo de tomada de cada medida.
3.8.4. Análise de dados de SP
Como em quase todas as técnicas de prospecção geofísica, o que se procura
numa campanha de potencial espontâneo é a definição de anomalias mas, para se
saber quando se está em presença de uma anomalia, é necessário saber antes quais são
as características do campo "normal". Este é o problema da definição do nível zero.
3.8.4.1. O nível zero
Como regra geral, o nível zero não pode ser escolhido à partida; usa-se um
"zero de trabalho" e, ao terminar a campanha, corrigem-se todas as leituras somando
ou subtraindo uma certa quantidade constante que foi deduzida do estudo das
anomalias.
Se as leituras numa zona permanecem constantes em grande parte ou se, pelo
contrário, parecem variar irregularmente em torno de um nível fixo (o chamado efeito,
ou ruído, de fundo), esse será o nível zero, obtido pela média dessas leituras.
Também quando as leituras nos flancos de uma anomalia evidente tendem
assimptoticamente para um valor, esse valor pode ser tomado como zero.
A interpretação de uma anomalia depende muito do cuidado tido na escolha do
nível zero. Quando o relevo das leituras de campo não é muito maior que a incerteza
(variabilidade) do nível zero, a amplitude das anomalias e, portanto, a estimação da
grandeza do fenómeno físico ou do objecto que as causa, serão afectadas pela escolha
desse nível.

163
3.8.4.2. Anomalias de SP
As anomalias de potencial espontâneo podem ser geradas por gradientes de
pressão, temperatura ou concentrações químicas, como já foi visto. Os potenciais
gerados podem chamar-se
- electrocinéticos, ou de percolação: produzidos por fluxo de fluidos
- termoeléctricos: gerados por fluxo térmico
- electroquímicos: gerados por fluxo iónico
Os dados de potencial espontâneo podem ser interpretados qualitativamente,
geometricamente ou analiticamente, dependendo das finalidades da campanha de
prospecção, da qualidade dos dados, da qualidade e quantidade de outros dados
complementares (geofísicos, geológicos, topográficos, tecnológicos, etc.)
3.8.4.3. Interpretação de dados de SP
3.8.4.3.1. Interpretação qualitativa
É muito importante, por ser o ponto de partida para todas as outras. Baseia-se
na preparação e estudo visual de perfis de potencial e de mapas de isolinhas
(equipotenciais).
3.8.4.3.2. Interpretação quantitativa
Baseia-se no uso de curvas de potencial teóricas calculadas para fontes
simples, como pontos, linhas, esferas, cilindros, folhas planas, e na escolha da curva
que melhor se adapta aos dados de campo, como já se viu para a gravimetria e a
magnetometria. À partida, este processo não fornece informação quantitativa, com
uma excepção: o caso particular de uma fonte ou dreno pontual.
O modelo pontual permite estimar a profundidade de origem de uma anomalia
de contorno aproximadamente circular (num mapa de equipotenciais) num terreno
electricamente isotrópico. Como uma fonte pontual representa a mínima dimensão
possível, a profundidade de origem de uma anomalia não pode ser maior que aquela
que se adapta razoavelmente a um modelo pontual. Assim, o tamanho da fonte do
potencial deve aumentar à medida que a sua profundidade diminui, a partir daquele
valor máximo.
Seja k o semi-comprimento de onda da anomalia (distância da origem de uma
onda ao ponto em que atinge metade da amplitude máxima), anomalia essa gerada por
uma fonte pontual situada à profundidade d num semi-espaço isotrópico. Então

k = 3.d (3.102)

ou

k
d= (3.103)
3

aproximadamente, em que d é a máxima profundidade possível para a fonte da


anomalia.

164
3.9. Resistivimetria
3.9.1. Bases físicas
A resistivimetria é o estudo da condução de correntes eléctricas contínuas pela
Terra. A sua base analítica encontra-se na lei de Ohm, que tem a forma escalar

V=R.I (3.104)

em que I é a corrente, em ampère (A) que passa entre dois pontos quando entre eles se
faz uma diferença de potencial V, em volt (V), num meio de resistência R, em ohm
(Ω). A resistência, por seu lado, é dada por

R=ρl/s (3.105)

em que l é o comprimento do condutor (m), s a sua área (m2)e ρ a resistividade


(Ω.m), que é uma propriedade intrínseca da matéria.
Outro parâmetro por vezes usado é a condutividade, σ, que não é senão o
inverso da resistividade e cujas unidades, não normalizadas mas consagradas pelo uso,
se designam mho ou siemens (S).
A condução de corrente em rochas e solos é principalmente electrolítica, dado
que muito poucos materiais naturais são naturalmente bons condutores. As excepções
são a grafite e os metais nativos, pouco comuns, e os minerais do grupo das argilas,
caso que será estudado mais tarde.
A figura 3.46 mostra algumas resistividades em rochas mais comuns.

Argila

Calcário

Grés

Argilito

Xisto grafitoso

Quartzito

Basalto alterado

Basalto fresco

Granito alterado

Granito fresco

1E-01 1E+00 1E+01 1E+02 1E+03 1E+04 1E+05


Resistividades (Ω.m)

Figura 3.46 – Intervalos de resistividades típicos em materiais geológicos.

165
3.9.2. Factores naturais que influenciam a resistividade
3.9.2.1. Porosidade
Uma vez que a condução é principalmente electrolítica, pelo deslocamento de
iões, a porosidade dos materiais influencia grandemente a sua condutividade, mas só
na medida em que haja conexões entre os poros.
A lei de Archie é uma relação empírica entre resistividades e porosidade:

ρr
F= = aΦ − m (3.106)
ρe

onde F se designa por factor de formação, ρr é a resistividade da rocha, ρe a


resistividade da solução intersticial (o electrólito), Φ a porosidade, e a (coeficiente de
saturação) e m (factor de cimentação) são constantes características de cada material.
Para a maioria dos materiais naturais, 0.6 ≤ a ≤ 1.0 e 1.4 ≤ m ≤ 2.2.
Exemplos clássicos da aplicação da lei de Archie a rochas sedimentares são-
nos dados pelas seguintes fórmulas empíricas, que devem ser entendidas como casos
particulares, indicativos, valores médios:
Para arenitos, a fórmula de Humble,

F = 0.62 Φ-2.15 (3.107)

Para carbonatos muito cimentados, a fórmula de Shell,

F = Φ -m (3.108)

Para rochas gipsosas, um caso particular da fórmula de Shell,

F = Φ -2 (3.109)

Podemos dar uma definição operacional de porosidade

Φ = Ve / Vr (3.110)

onde Ve é o volume de electrólito e Vr o volume de rocha. Ora, para rochas com


poucos ou nenhuns poros fechados,

Ve = Le Ae (3.111)

onde Le é o comprimento e Ae a secção transversal dos percursos do eléctrólito na


rocha. Daqui decorre que

Le Ae = Φ Vr (3.112)

Da definição de resistência vem que

166
R = ρr lr / Ar e R = ρe le / Ae (3.113)

assumindo-se que toda a condução é feita pelos electrólitos nos poros. Assim,

ΦRVr
Le = (3.114)
ρe

que nos define Le em termos de quantidades mensuráveis. Dado que Lr também é


directamente mensurável, podemos definir um novo e importante parâmetro, t, o
coeficiente de tortuosidade

t = Le / Lr (3.115)

que é uma medida da irregularidade do percurso dos electrólitos nos poros. Isto leva-
nos a outros factores, de natureza geológica, que influenciam a resistividade.

3.9.2.2. Textura
A análise anterior sobre o efeito da porosidade e da conectividade dos poros
torna evidente que a textura de uma rocha deve influenciar a sua resistividade.
Assim, por exemplo, uma rocha arenítica bem calibrada terá alta porosidade,
alta conectividade e baixa resistividade, ao contrário de um grés mal calirado, em que
as partículas menores tendem a preencher os vazios entre as maiores. Um calcário
fresco tem alta resistividade, que diminui com a dissolução segundo planos de
fractura, principalmente se for acompanhada pela segregação de terra rossa (materiais
argilo-gresosos). Uma rocha vulcânica compacta, fresca, terá alta resistividade,
enquanto uma rocha vulcânica vacuolar terá menor resistividade, se os vacúolos
estiverem conectados e ainda menor se estes estiverem preenchidos por fluidos.
3.9.2.3. Litologia
O que se disse acima também ilustra o efeito evidente da litologia sobre a
resistividade. Este efeito relaciona-se, mais uma vez, com a porosidade e a
conectividade dos poros mas também com a mineralogia e com o grau e o tipo da
alteração.
3.9.2.4. Processos geológicos
Tabela 3.2 – Efeitos de alguns processos geológicos.
alteração para argilas ⇓ meteorização ⇓
dissolução ⇓ compactação ⇑
falhamento ⇓ cimentação carbonatada ⇑
cisalhamento ⇓ silicificação ⇑
intrusão de água salina ⇓ metamorfismo ⇔

Como regra geral, os processos de alteração (meteórica, hidrotermal ou


metassomática) provocam uma diminuição na resistividade das rochas que os

167
sofreram. Ao invés, os processos de diagénese e metamorfismo tendem a aumentar a
resistividade, embora haja excepções.
Estes efeitos encontram-se sumarizados na tabela 3.2.
3.9.2.5. Os minerais argilosos: um caso particular
As argilas têm muito alta porosidade e muito baixa permeabilidade mas, ao
contrário do que seria de esperar, apresentam muito baixa resistividade. Vamos ver a
que se deve esta propriedade.
Uma partícula individual de argila comporta-se como um canal condutor de
corrente; isto deve-se ao efeito de dupla camada catiónica. O todo de uma rocha, ou
qualquer subdomínio desta, tende a ser electricamente neutro. Mas os cristais de argila
tendem a ser negativamente carregados quer por efeito electrostático, quer por
substituições intracristalinas, quer pela existência de ligações químicas quebradas.
Para compensar esse excesso de cargas negativas tende a haver um influxo de catiões
(+) e esses catiões dispõem-se em duas camadas:
- uma camada fixa, finíssima, adjacente ao cristal
- uma camada difusa, com densidade catiónica decrescente exponencialmente com
a distância ao cristal. É esta camada a responsável pela condução.
Este efeito encontra-se ilustrado na figura 3.47.

- catiões

camada difusa - aniões

camada fixa

cristal de argila

Figura 3.47 – Efeito de dupla camada catiónica nas argilas.


Encontram-se efeitos semelhantes ao das argilas noutros minerais,
nomeadamente na serpentina e nos zeólitos, o que pode contribuir para explicar as
resistividades anormalmente baixas de algumas rochas metamórficas.
A condutividade total de uma rocha, σr, provém, assim, da sua condutividade
normal, σn, e da contribuição da condutividade superficial das argilas, σs:

σr = σn + σs (3.116)

ou

σr = (σe / F) + σs (3.117)

onde σr é a condutividade do electrólito e F o factor de formação.


Uma útil relação empírica é

168
σs ≈ 3 σe (3.118)

3.9.2.6. Saturação em água


A proporção de saturação em água, Sw, pode ser definida como

Sw = Vw / Vp (3.119)

onde Vw é o volume de água nos poros e Vp o volume total de poros.


Usando a nossa já conhecida lei de Archie (3.106), verifica-se que

aΦ − m
F= (3.120)
S wn

ou

aρ w
S wn = (3.121)
Φm ρr

que é a equação de saturação de Archie, onde n é um expoente de saturação,


geralmente ≈ 2.
Note-se a importância desta equação para a hidrogeologia: ρw, ρr e Φ podem ser
medidos laboratorialmente; se a e m puderem ser razoavelmente estimados, então Sw
pode ser encontrado na prospecção eléctrica.
Importa conhecer uma outra expressão, aplicável no caso de estar em presença de
quantidades significativas de argilas, a equação de Simandoux:

1 Vcl Φm 2
= Sw + ⋅ Sw (3.122)
ρr ρ cl aρ w

em que os índices cl dizem respeito à fracção argilosa.


3.9.2.7. Permeabilidade
Os efeitos já vistos da porosidade, tortuosidade, conectividade e saturação
levam-nos forçosamente a admitir que também a permeabilidade (k) deve relacionar-
se com a resistividade. Note-se que k é uma medida empírica, em simultâneo, da
conectividade dos vazios e da distribuição das dimensões individuais desses vazios, o
que provoca que a relação k-ρ não seja simples.
Encontrou-se, em todo o caso, uma relação empírica que se traduz na equação
de Timur:

Φ 4.4
k = 0.136 (3.123)
S w2

Note-se que esta relação só se pode aplicar a condições muito medianas, dado
que exclui quer as rochas argilosas quer os grandes vazios.

169
3.9.2.8. Temperatura
Em face dos factores já vistos que condicionam a resistividade, tornar-se-á
evidente que um aumento da temperatura deve, em princípio, conduzir a uma redução
da resistividade do meio. De facto, um aumento da temperatura facilita a mobilidade
iónica por dois motivos que, afinal, se encontram estreitamente relacionados: há um
aumento da entropia e uma diminuição da viscosidade dos fluidos.
A fórmula de Keller e Frischknecht mostra-nos a variação da resistividade
com a temperatura:

ρ18
ρt = (3.124)
1 + α (t − 18)

onde ρt é a resistividade que se pretende determinar, à temperatura t, ρ18 é a


resistividade a 18ºC (tabelada ou medida) e α é um coeficiente térmico de
resistividade, aproximadamente igual a 0.025/ºC.
Para aplicações práticas, verifica-se que só é preciso considerar o efeito da
temperatura em sistemas hidrotermais. As variações ambientes normais têm muito
pouca influência sobre a resistividade.
3.9.3. Resistivimetria
3.9.3.1. Mais alguns fundamentos
Vimos, em (7) a forma escalar da lei de Ohm. Uma das suas possíveis formas
vectoriais é

J=σE (3.125)

onde J é o vector densidade de corrente e E o vector campo eléctrico. O campo


eléctrico é um campo vectorial. Como tal, pode ser definido como o gradiente de um
campo escalar, o potencial eléctrico:

E = - grad V, ou E = - ∇ V (3.126)

em que o símbolo ∇, que se lê nabla ou del, representa o operador hamiltoniano que


tem a seguinte forma:

∂ ˆ ∂ ˆ ∂ ˆ
∇= i+ j+ k (3.127)
∂x ∂y ∂z

e é um vector simbólico. Podemos agora combinar as equações (3.125) e (3.126)

J = -σ ∇V (3.128)

Ora, como ∇ ⋅ J = 0 (o que não se demonstrará), ∇ ⋅ (σ ∇V) = 0. Como σ se


assume constante,

∇∇V = ∇2V = 0 (3.129)

170
que é a equação de Laplace (ver apêndice 1).
Veremos, nos pontos seguintes, a importância prática de conhecermos este
facto.
3.9.3.2. Potencial criado por um eléctrodo pontual num meio isotrópico
O potencial num ponto é função apenas da distância r ao eléctrodo. A equação
de Laplace toma assim a forma

d 2V 2 dV
∇ 2V = + =0 (3.130)
dr 2 r d r

ou, multiplicando por r2 e integrando,

dV A
= 2 (3.131)
dR r

ou, integrando de novo,

V = -(A/r) + B (3.132)

onde A e B são as constantes de integração. Note-se, porém, que B é sempre nulo,


dado que

lim V = 0 (3.133)
r →∞

Portanto, para conhecer a expressão do potencial criado por um eléctrodo pontual,


basta-nos determinar A.
Uma vez que estamos a lidar com um meio electricamente isotrópico, então, por
definição, uma equipotencial do campo eléctrico nesse meio será sempre uma
superfície esférica. Vejamos, então, qual será o fluxo de corrente que atravessa uma
superfície esférica de raio r centrada no nosso eléctrodo pontual:

dV
I = 4π r 2 J = −4π r 2σ = −4πσ A (3.134)
dr

pelo que

−I I
A= ou A = −ρ (3.135)
4πσ 4π

e, assim, obtemos a equação fundamental do potencial

I 1 V
V =ρ ⋅ ou ρ = 4π r (3.136)
4π r I

171
3.9.3.3. Potencial criado por um eléctrodo pontual à superfície
Este modelo já é mais realista, dado que, na maior parte dos casos, fazemos
medições à superfície da Terra. Podemos, portanto, simplificar imaginando que a
corrente se propaga num semi-espaço isotrópico.
Reportando-nos às equações (3.134), (3.135) e (3.136), veremos facilmente
que o potencial agora há-de ser metade do que foi então calculado:

I 1 V
V =ρ ⋅ ou ρ = 2π r (3.137)
2π r I

3.9.3.4. Diferença de potencial criada por dois eléctrodos de corrente à


superfície
Estamos aqui, finalmente, na situação real. Fazendo passar corrente entre dois
eléctrodos colocados à superfície, vamos medir a diferença de potencial entre dois
pontos quaisquer da linha que une os eléctrodos de corrente.
Note-se que neste caso as equipotenciais já não são esféricas, uma vez que a
presença de cada um dos eléctrodos vai deformar as linhas de corrente do outro
(figura 3.48).

Figura 3.48 – Distribuição das linhas de corrente e das equipotenciais entre dois eléctrodos.
Calculemos agora a diferença de potencial que pode ser medida entre dois
pontos quaisquer da linha que une os eléctrodos de corrente (figura 3.49).

172
C1 P1 P2 C2

r1 r2

r3 r4

Figura 3.49 – Esquema geral da resistivimetria.


A partir das equações (3.137) podemos agora determinar:
O potencial em P1 devido a C1:

A1 I
V1 = − , A1 = − ρ
r1 2π

O potencial em P1 devido a C2:

A2 I
V2 = − , A2 = + ρ = − A1
r2 2π

E, assim, o potencial total em P1 será dado por

I 1 1
V1 + V2 = ρ  −  (3.138)
2π  r1 r2 

Se introduzirmos um segundo eléctrodo de potencial, P2, e raciocinarmos


analogamente ao que fizemos para P1 podemos agora medir uma diferença de
potencial entre P1 e P2:

I  1 1   1 1 
∆V = ρ  −  −  −  (3.139)
2π  r1 r2   r3 r4 

Esta equação pode ser justamente considerada a equação fundamental da prospecção


geoeléctrica.
3.9.3.5. Dispositivos electródicos.
Com base na disposição geral ilustrada na figura 14, podem-se usar diversas
geometrias na colocação dos eléctrodos P1, P2, C1 e C2 no terreno; chama-se a estas
geometrias dispositivos electródicos.
3.9.3.5.1. Dispositivo Wenner
O primeiro dispositivo a ser estudado foi o Wenner – Gish – Rooney,
simplesmente conhecido como Wenner. Neste dispositivo o espaçamento entre
eléctrodos é constante, o que simplifica o seu tratamento analítico.

173
Mantendo o espaçamento constante, são possíveis três configurações:

3.9.3.5.1.1. Wenner α - sequencialmente, C1, P1, P2, C2 (Figura 3.50)

C1 P1 P2 C2

a a a

Figura 3.50 – Dispositivo Wenner α


Reportando-nos à figura 3.50 e à equação (3.139) temos
r1 = a; r2 = 2a; r3 = 2a; r4 = a
pelo que

I  1 1   1 1  I
∆Vα = ρ  a − 2a  −  2a − a  = ρ 2π a (3.140)
2π    

3.9.3.5.1.2. Wenner β - sequencialmente, C1, C2, P1, P2 (Figura 3.51)

C1 C2 P1 P2

a a a

Figura 3.51 – Dispositivo Wenner β


Reportando-nos à figura 14 e à equação (3.139) temos
r1 = 2a; r2 = a; r3 = 3a; r4 = 2a
pelo que

I  1 1   1 1  I
∆Vα = ρ  2a − a  −  3a − 2a   = ρ 6π a (3.141)
2π    

Wenner γ - sequencialmente, C1, P1, C2, P2 (Figura 3.52)

174
C1 P1 C2 P2

a a a

Figura 3.52 – Dispositivo Wenner γ


Reportando-nos à figura 14 e à equação (3.139) temos
r1 = a; r2 = a; r3 = 3a; r4 = a
pelo que

I  1 1   1 1  I
∆Vα = ρ  −  −  −  = ρ (3.142)
2π  a a   3a a  3π a

3.9.3.5.1.4. Relação entre as configurações Wenner


Regra geral, quando se faz uma campanha (perfis, cartas) de prospecção com
este dispositivo, são projectados apenas os dados da configuração Wenner α. As
outras configurações permitem-nos avaliar a precisão e reprodutibilidade dos dados e
também, como se verá no ponto seguinte, avaliar a existência de anisotropias.
Na avaliação da qualidade dos dados, devemos ter presente que, teoricamente,

Rα = Rβ + Rγ (3.143)

o que quase nunca se verifica. A expressão de Habberjam permite-nos avaliar a


percentagem de desvio das condições ideais:

Rα − Rβ − Rγ
c= × 100 (3.144)
Rα + Rβ + Rγ

em que os R são resistências.


3.9.3.5.1.5. O dispositivo Wenner na detecção de anisotropias
As expressões (30) a (42) assumem, como se disse, que o semi-espaço
estudado é isotrópico. Na maior parte dos casos, contudo, podem existir variações da
resistividade, quer lateralmente, quer em profundidade.
Para a detecção de anisotropias laterais, definiu-se o coeficiente de
anisotropia de Carpentier e Habberjam:

4 ρα ( a ) + ργ (3a )
C (a ) = (3.145)
3 ρα ( a ) + 2 ρ γ ( 2 a )

Para C(a) = 1 o meio considera-se lateralmente isotrópico.

175
Conhecem-se também relações empíricas para avaliar a anisotropia vertical:
- (ρβ / ργ) = 1 ⇒ “meio homogéneo”
- (ρβ / ργ) < 1 ⇒ há aumento de ρ com a profundidade
- (ρβ / ργ) > 1 ⇒ a profundidade, z, da última interface é dada por

z = 0.6 amax (3.146)

onde amax é o maior espaçamento que se usou.


3.9.3.5.2. Dispositivo Schlumberger
O dispositivo Schlumberger é hoje mais usado que o Wenner, principalmente devido
à sua maior elasticidade logística na disposição dos eléctrodos. A configuração é
semelhante à Wenner α mas agora as distâncias entre os eléctrodos de corrente são
um múltiplo (não necessariamente inteiro) das distâncias entre os eléctrodos de
potencial (Figura 3.53).

C1 P1 P2 C2

Figura 3.53 – Dispositivo Schlumberger


Era habitual calcularem-se expressões aproximadas do potencial em função dos
espaçamentos C1C2, P1P2 e entre os centros dos dois dipolos. Hoje, dada a facilidade
de cálculo automático, não há razão para que não se use a expressão exacta (equação
3.139).

3.9.3.5.3. Dispositivo dipolo-dipolo


O dispositivo dipolo-dipolo é hoje sem dúvida o mais usado, principalmente na
aplicação, que se verá mais tarde, de polarização induzida.
Este dispositivo assemelha-se ao Wenner β, mas com uma distância entre os dipolos
múltipla (grande) da separação electródica em cada dipolo (figura 3.54).

C1 C2 P1 P2

2l 2l(n-1) 2l

Figura 3.54 – Dispositivo dipolo-dipolo


Aqui já é possível simplificar a equação (3.139) sem aproximações. Note-se que
r1 = r4 = 2nl ; r2 = 2l(n-1) ; r3 = 2l(n+1) ; n>>1
donde,

176
ρ = 2π (n-1) n (n+1) V/I (3.147)

3.9.3.5.4. Dispositivo polo-dipolo, ou tripolar


Está claro que não é possível injectar corrente no terreno com um só eléctrodo.
No dispositivo tripolar, portanto, coloca-se o segundo eléctrodo de corrente a uma
distância suficiente para poder ser considerada infinita (figura 3.55).

∞ C2

C1 P1 P2

Figura 3.55 – Dispositivo polo-dipolo ou tripolar


Aqui
r2 = r4 = ∞ ; r1 = a ; r3 = b
donde,

2 π ab  V 
ρ=   (3.148)
b−a  I 

Uma das vantagens do dispositivo tripolar é que, como o eléctrodo C2 se


considera colocado no infinito, a sua posição não tem que ser colinear com os outros
três eléctrodos.
Na verdade, podem-se usar outros dispositivos em que os dipolos não são
colineares.
3.9.3.5.5. Dispositivos não-colineares
3.9.3.5.5.1. Dipolo-dipolo
Definem-se quatro configurações possíveis (figura 3.56).

AZIMUTAL RADIAL PARALELA PERPENDICULAR

Figura 3.56 – Dispositivos dipolo-dipolo não-colineares

177
3.9.3.5.5.1. Dispositivos quadrados
Na verdade, podem ser reduzidos a dispositivos dipolo-dipolo (figura 3.57).

C1 P1 C1 P1

C2 P2 P2 C2

Figura 3.57 – Dispositivos quadrados


Note-se que, para uma Terra electricamente isotrópica, qualquer que seja o
lado do quadrado, a corrente injectada e a disposição dos eléctrodos, teoricamente ∆V
= 0. Por esse motivo, estas dispositivos electródicos usam-se principalmente para
investigar anisotropias.
3.9.3.6. Resistividade aparente
Recordemos a equação geral do potencial:

I  1 1   1 1  
∆V = ρ  −  −  −  (3.139)
2π  r1 r2   r3 r4 

ou, em termos de resistividade,

−1
2π ∆V  1 1   1 1 
ρ=  −  −  −  (3.149)
I  r1 r2   r3 r4 

ou, simplificando,

2π ∆V
ρ= p (3.150)
I

onde o parâmetro p depende da geometria do dispositivo electródico sendo, por isso,


chamado factor geométrico.
Ora, sabendo nós a corrente injectada, I, e o factor geométrico do dispositivo usado, p,
ao medir ∆V obtemos uma estimação para ρ. De facto, se a Terra fosse electricamente
isotrópica obteríamos sempre o mesmo ρ , qualquer que fosse I e qualquer que fosse o
dispositivo, ao tomar medidas de ∆V no mesmo local. Na verdade sabemos que isso
não se passa.
Diz-se, portanto, que a resistividade estimada é uma resistividade aparente e
designa-se por ρa.

178
3.9.4. Potencial em modelos multi-camadas: sondagens eléctricas.
3.9.4.1. Bases físicas
Até agora temos estudado um modelo da Terra em que esta se comporta como
um semi-espaço electricamente isotrópico. A única descontinuidade é, portanto, a
superfície de separação ar-Terra, S. Vejamos o que acontece se introduzirmos uma
segunda descontinuidade S’, de tal modo que S e S’ são ambas planas e horizontais,
distantes h na vertical, e sendo ρ1 a resistividade do meio entre S e S’ e ρ2 a
resistividade do meio inferior a S’ (figura 3.58).

Figura 3.58 – Potencial em modelos multi-camadas: método das imagens múltiplas.


Vamos calcular o potencial criado em P por uma carga pontual m colocada em
A.
Repare-se que este modelo pode ser tratado como se fosse um modelo óptico,
em que m fosse uma fonte luminosa pontual e S e S’ dois espelhos parcialmente
reflectores. Deste modo, as descontinuidades (reflectores) vão produzir uma
infinidade de imagens de m, situadas em A1, A2, ..., An, A’1, A’2, ..., A’n, e todas essas
imagens vão contribuir para o potencial medido em P. Para simplificar os cálculos,
vamos introduzir um outro parâmetro, k, o coeficiente de reflexão, tal que

k = (ρ2 - ρ1) / (ρ2 + ρ1) (3.151)

Deste modo, o potencial em P deve-se às cargas

m em A distante x de P
m.k “ A1 e A’1 “ r1 = [x +(2h)2]1/2
2

m . k2 “ A2 e A’2 “ r2 = [x2+(4h)2]1/2 “
... “ ... “ ... “
m . kn “ An e A’n “ rn = [x2+(2nh)2]1/2 “

179
e, assim,

I 1 ∞
kn 
VP = ρ1  + 2∑  (3.152)
2π x 1 rn 

Se tivermos outro ponto de potencial, P2, de tal modo que a sua distância a A seja x’ e
que as distâncias de P2 às imagens de A sejam r’n, o potencial em P2 vem

I 1 ∞
kn 
VP2 = ρ1  + 2∑  (3.153)
2π  x' 1 r 'n 

pelo que a diferença de potencial entre P e P2 é dada por

I  1 1  ∞
 1 1 
∆V = VP − VP2 = ρ1

 −  + 2 ∑ k n  −  (3.154)
 x x'  1  rn r 'n 

Estamos agora prontos para encontrar a expressão geral que dá o potencial num
dispositivo com dois eléctrodos de potencial (equação 3.154), mas na situação realista
com dois eléctrodos de corrente distantes l entre si:

I  1 1 1 1  ∞
1 1 1 1 
∆V = ρ1

 − − +  + 2 ∑ k n  − − +  (3.155)
 x x' l − x l − x'  1  rn r 'n Rn R 'n 

em que os R e R’ são as distâncias de P2 às imagens do segundo eléctrodo de corrente


nos semi-espaços superior e inferior.
A importância da equação (3.155) deve tornar-se agora clara em face de tudo o que
vimos sobre a propagação de correntes contínuas na Terra. Esta equação implica que
podemos conhecer a variação do comportamento eléctrico em profundidade usando os
dispositivos electródicos que estudámos, fazendo várias medidas no mesmo local
(com o mesmo ponto de atribuição) mas variando os parâmetros geométricos do
dispositivo. Chama-se a isto uma sondagem eléctrica.
Vejamos o caso prático mais simples, para o dispositivo Wenner.
3.9.4.2. Aplicação do método das imagens múltiplas ao dispositivo
Wenner
A grande simetria do dispositivo Wenner simplifica bastante o cálculo dos
potenciais (figura 3.59). Para este caso, e reportando-nos à figura 3.59 e à equação
(3.155), temos que
- x=a
- x’ = a
- l = 3a
- rn = R’n
- r’n = Rn

180
P1 P2
+m -m

2nh
r ’n Rn ’

+mkn -mkn

Figura 3.59 – O método das imagens múltiplas no dispositivo Wenner.

e, assim,

I 1 ∞
n 1 1 
∆V = ρ1  + 4∑ k  −  (3.156)
2π a 1  rn r 'n 

ou, desenvolvendo,

  
  
I  ∞
n 1 1 
∆V = ρ1 1 + 4∑ k  −  (3.157)
2π a  2 2
1
 1 +  2nh  4 +
 2nh 
  
   
  a   a  

Se chamarmos η ao somatório, vem que

I
∆V = ρ1 (1 + 4η ) (3.158)
2π a

onde o termo ρ1(1+4η) representa a resistividade aparente.


Note-se que, para um terreno electricamente isotrópico,

I
k = 0 ⇒ η = 0 ⇒ ∆V = ρ1
2π a

que é a nossa bem conhecida fórmula para a configuração Wenner α (3.140).


3.9.4.3. Interpretação de sondagens eléctricas
3.9.4.3.1. O método de Tagg
Do conceito de resistividade aparente e de (3.158) decorre que

ρa = ρ1(1+4η) (3.159)

181
Se fizermos agora a relação ρa / ρ1 e introduzirmos o parâmetro λ = h/a, por
substituição na equação (3.157) vem

ρa ∞  1 1 
= 1 + 4∑ k n  −  (3.160)
ρ1  1 + (2nλ ) 2 4 + (2nλ ) 2 
1
 

onde o somatório é a diferença de duas séries convergentes pelo que, para o calcular
com uma aproximação suficiente, basta somar os primeiros termos (tanto menos
quanto mais próximos forem ρ1 e ρ2 .
Tagg construiu um ábaco a partir desta equação em que, por sobreposição gráfica, é
possível determinar a profundidade da interface, h (afinal, a espessura da primeira
camada), em função de ρa / ρ1 (figura 3.60).
É claro que para usar estes ábacos ou, aliás, qualquer método de interpretação de
sondagens eléctricas, é necessário ter-se uma boa estimativa de ρ1 que é, afinal, a
resistividade da camada aflorante.
Para determinar ρ1 usa-se um destes métodos:
1. mede-se directamente num afloramento, ou,
2. faz-se a média de várias medidas de potencial com a muito baixo.

Figura 3.60 – Ábacos de Tagg (Mechler, 1982).

182
3.9.4.3.2. Desenvolvimento da interpretação com base em curvas-padrão
O uso de ábacos, ou curvas-padrão, desenvolveu-se extraordinariamente a
partir dos trabalhos iniciais de Tagg. Surgiu mais tarde, naturalmente, a ideia de
construir ábacos para mais de duas camadas.

Figura 3.61 – Curvas-padrão de quatro camadas para o dispositivo Schlumberger (Orellana,


1972)
Assim, publicaram-se curvas para três camadas (a última, de Van Dam e
Meulenkamp, em 1969, com 2268 curvas!), quatro camadas (por exemplo Orellana e
Mooney, 1966, com 480 curvas – veja-se a figura 3.61) e até cinco camadas (Flathe,
1963, com 75 curvas aplicadas a um problema de hidrogeologia) – todos citados por
Orellana (1972).
Todas estas curvas, dado que são curvas-padrão, são representadas em gráficos
bi-logarítmicos (a × ρa), o que levou a que, até hoje, todas as sondagens eléctricas se
representem desta forma.Cedo se tornou evidente, contudo, que não seria possível
construir ábacos para todas as situações possíveis. Isto levou a algumas soluções
engenhosas.
3.9.4.3.3. O método do ponto auxiliar.
Este método parte do princípio teoricamente válido, que qualquer sondagem
eléctrica de n camadas pode ser interpretada por uma composição de n-1 modelos de
duas camadas.
A aplicação do método usa os seguintes conceitos básicos:
- Ramo de uma curva de resistividade aparente é um segmento dessa
curva que expressa a transição de uma camada para outra.
- Cruz de uma curva de resistividade aparente para duas camadas é o
ponto no gráfico que tem como coordenadas a espessura e a resistividade da
camada superior.
A aplicação do método consiste em aproximar cada ramo da curva de campo
por uma curva do modelo de duas camadas. As coordenadas da cruz desta curva

183
representam a espessura e a resistividade de uma camada fictícia (hoje dir-se-ia
“virtual”) que substitui toda a sequência de camadas superiores. Por exemplo, a cruz
da curva que aproxima o segundo ramo da curva de ρa define a camada fictícia que
substitui as duas camadas superiores.
As relações entre os parâmetros das camadas fictícias e os parâmetros das
camadas reais que aquelas substituem encontram-se publicados sob a forma de ábacos
(de Ebert ou de Koefoed, por exemplo), que representam as relações entre espessuras
e resistividades da camada fictícia e da primeira camada.
Encontra-se um exemplo de interpretação pelo método do ponto auxiliar na
figura 3.62.

Figura 3.62 – Interpretação de uma sondagem eléctrica pelo método do ponto auxiliar (Koefoed,
1979).
3.9.4.3.4. Interpretação automática.
Apresentaram-se os métodos anteriores pois eles permitem compreender os
princípios da interpretação de sondagens eléctricas. Na verdade, o seu interesse actual
é apenas este. Com a expansão do uso de computadores pequenos, potentes e baratos,
toda a interpretação de sondagens eléctricas passou a ser feita automaticamente, com
recurso a programas informáticos dedicados.
A interpretação automática pode ser
- interactiva, onde o utilizador tem um papel importante na definição de
parâmetros importantes, como o número de camadas representado pela sondagem;
- iterativa, completamente automática, feita por integração numérica
das expressões do potencial.
Não surpreende que o primeiro método, quando aplicado por um profissional
experiente, produza geralmente os melhores resultados.

184
3.10. Polarização induzida
3.10.1. Introdução.
Os métodos eléctricos que temos estudado até agora usam correntes contínuas,
ou seja, correntes que, em princípio, não variam em módulo nem em sinal. Disse-se
“em princípio” pois muitas vezes, na prática, usa-se uma fonte de corrente alterna de
baixa frequência cujo sinal é tratado e amostrado de forma a comportar-se como
corrente contínua.
Vamos agora começar o estudo de métodos em que a corrente tem variações
temporais. Desses, o mais simples e um dos mais usados actualmente é o método de
polarização induzida (IP).
Se, numa medição local de potencial, por exemplo num perfil de resistividades,
pudermos seguir em contínuo a variação dos potenciais no tempo, verificamos que, ao
cortar a corrente, o potencial medido não decai instantaneamente para V = 0 (veja-se
a figura 3.63).
V

Vc

V0
Vt

t0 t

Figura 3.63 – Variação do potencial no tempo.


De facto, a seguir a uma queda abrupta de potencial de Vc para V0, que podemos
considerar instantânea, no tempo t0, dá-se uma descida muito mais lenta (segundos
até minutos) que tende assimptoticamente para o potencial nulo.
Recordar-se-á que se chamou polarização, no estudo do potencial espontâneo, ao
potencial nos eléctrodos de medida na ausência de qualquer campo externo. O efeito
que vimos agora, produzido artificialmente, tem o nome de polarização induzida.
3.10.2. Causas do efeito de polarização induzida.
A análise da figura anterior mostra-nos que houve alguma forma de
armazenamento de energia nas rochas ou solos prospectados. Esse armazenamento
pode resultar, principalmente, de dois factores:
(a) Polarização de membrana ou polarização electrolítica – devida a variações na
mobilidade dos iões contidos nos fluidos que permeiam a rocha.
(b) Polarização de eléctrodo ou sobrevoltagem – devida a variações nas
condutividades electrónica ou iónica por efeito da presença de minerais metálicos

185
ou de argilas (já vimos como estas tendem a comportar-se electricamente como
pseudo-metais).
Não conseguimos distinguir os dois efeitos por simples medidas de IP.
Contudo, é evidente que, caso estejamos em presença de minerais metálicos ou
mesmo de argilas, o efeito de sobrevoltagem pode ser várias ordens de grandeza
superior à polarização electrolítica.
3.10.3. As medidas em polarização induzida.
Para efectuar medições em polarização induzida usa-se corrente alterna,
geralmente de baixa frequência – até 10 Hz. Por esse motivo, podemos estudar a
variação de parâmetros no tempo (medições no domínio dos tempos – que também
seriam possíveis em corrente contínua) mas também variações de frequência
(medições no domínio das frequências).
3.10.3.1. Medições no domínio dos tempos.
Voltemos à figura 1. É evidente que podemos estimar o efeito de polarização
induzida se compararmos de alguma forma os potenciais Vc, durante o fluxo de
corrente injectada, e Vt, um tempo t depois do corte de corrente.
É claro que seria interessante comparar-se Vt com V0 mas não é possível medir
rigorosamente este valor por causa dos potenciais transientes causados pelo corte da
corrente.
Assim, medem-se as seguintes três quantidades:
3.10.3.1.1. Percentagem de IP.

IP% = Vt / Vc (mV/V) (%) (3.161)

com t geralmente entre 0.1 e 10 s.


3.10.3.1.2. Integral do tempo de decaimento.
A figura 1 sugere que o integral da curva de decaimento, para a direita de t0,
poderia ser uma boa medida do efeito de polarização induzida. Esse cálculo é
automaticamente feito pela electrónica do equipamento de medida, de uma de duas
formas (figura 3.64):
(a) sobre um intervalo definido entre tempos t1 e t2;
(b) amostrando a função de decaimento em intervalos sucessivos,
infinitesimais.

186
Figura 3.64 - Integral do tempo de decaimento.
3.10.3.1.3. Carregabilidade, M.
Esta medida, mais usada, está relacionada com a anterior.

t
1 2
M = ∫ V (t ) dt (3.162)
Vc t1

e mede-se em milissegundos (ms). A tabela 3.3 mostra intervalos de carregabilidade


para vários materiais geológicos comuns.
Tabela 3.3 – Carregabilidades de alguns materiais geológicos
Material Carregabilidade (ms)
> 20% sulfuretos 2000 – 3000
8 – 20% sulfuretos 1000 – 2000
2 – 8% sulfuretos 500 – 1000
Tufos vulcânicos 300 – 800
Vulcanitos compactos 100 – 500
Filádio 50 – 100
Granitóides 10 – 50
Calcário, dolomia 10 – 20
Xistos 5 – 20
Grés 3 – 12
Aluviões 1 – 10
Água “doce”, hematite compacta 0

3.10.3.2. Medições no domínio das frequências.


Como já se disse, já que usamos corrente alterna podemos fazer medições de
propriedades relacionadas com o efeito de polarização induzida no domínio das
frequências. Isto significa avaliar a variação daquelas propriedades com a variação da
frequência usada na prospecção.
Um dos efeitos que se encontraram mais cedo foi que a resistividade aparente
(mais correcto seria dizer impedância aparente) varia inversamente com a corrente
injectada. Esta propriedade é explorada nas medidas que se seguem.
3.10.3.2.1. Efeito de frequência.
O efeito de frequência, EF ou FE, é-nos dado por

ρ dc − ρ ac
EF = (3.163)
ρ dc

em que ρdc e ρac representam, respectivamente, as resistividades em corrente contínua


e alterna. Na prática, as medidas em “corrente contínua” são obtidas com a frequência
mais baixa disponível no equipamento (da ordem de 0.1 Hz).
Por vezes surge na literatura o PFE, que não é mais que a percentagem de
efeito de frequência (FE × 100).

187
3.10.3.2.2. Factor metálico.
O factor metálico, FM ou MF, relaciona-se com o efeito de frequência:

FM = EF / ρdc (S) (3.164)

A tabela 3.4 mostra intervalos de factores metálicos para vários materiais


geológicos.

Tabela 3.4 – Factores metálicos de alguns materiais geológicos


Material FM (mhos/cm)
Sulfuretos maciços ≈ 10000
Magnetite maciça 3 – 3000
Sulfuretos disseminados 100 – 1000
Sulfuretos finamente disseminados 10 – 100
Argilas 1 – 300
Aluviões 0 – 200
Tufos 1 – 100
Xistos 10 – 60
Arenitos e calcários grafitosos 4 – 60
Rochas básicas estéreis 1 – 10
Granitóides estéreis 1
Água “doce” 0

3.10.3.2.3. Desfasamento relativo.


É o desfasamento em ângulo ou tempo entre a corrente no dipolo de corrente e
a voltagem no dipolo de potencial. Verifica-se que a fase é proporcional ao efeito de
frequência:

Φ = k’ EF (3.165)

onde Φ é a fase e k’ a constante de proporcionalidade, geralmente entre –0.5 e –0.3


consoante os teores de mineralização.
3.10.3.2.4. Polarização magnética induzida.
Uma vez que trabalhamos com correntes transientes geram-se sempre campos
magnéticos associados. Por isso, é possível medir componentes desse campo em IP.
3.10.3.3. Técnicas de medida.
Teoricamente, seria possível usar em prospecção por polarização induzida qualquer
um dos dispositivos electródicos que estudámos na resistivimetria.
Na prática, usam-se apenas os dispositivos polo-dipolo e, principalmente, o dipolo-
dipolo. Isto deve-se a dois motivos:
(a) Motivos logísticos;
(b) Para evitar o efeito de indução entre os cabos de potencial e de
corrente.

188
É também por este último motivo que se usam geralmente as frequências mais
baixas possível. Os factores geométricos usados dependem da frequência usada e da
resistividade do material (tabela 3.5).
Tabela 3.5 – Espaçamentos electródicos em IP.
f (Hz) ρ (Ω.m) 2nlmax (m)
1000 900
100 300
50
10 90
1 30
1000 2000
100 600
10
10 200
1 60
1000 3700
100 1100
3
10 370
1 110

3.10.3.3. Representação dos dados.


3.10.3.3.1. Perfis.
Podem-se fazer perfis semelhantes aos da resistivimetria, representando
qualquer um dos parâmetros medidos, como carregabilidade, percentagem de IP,
efeito de frequência, factor metálico, etc.
Como é sabido que a profundidade de investigação varia na razão directa da
distância interelectródica, geralmente representam-se no mesmo gráfico vários perfis,
correspondentes a várias distâncias 2nl.
3.10.3.3.2. Pseudo-secções.
Esta é uma técnica de representação de dados que é característica da
polarização induzida, embora se possa aplicar igualmente à resistivimetria.

x n.x x

~
C1 C2 P1 P2

n=1

n=2

n=3

Figura 3.65 – Pontos de atribuição para construção de pseudo-secções.

189
Assume-se como ponto de atribuição das medidas o ponto de intersecção das
linhas que partem do centro de cada dipolo na direcção do outro, com declive de 45º
(figura 3.65).
A partir dos pontos assim obtidos, constroem-se perfis de isolinhas dos
parâmetros medidos: são estes perfis as pseudo-secções.

3.11. Métodos electromagnéticos


3.11.1. Introdução.
O movimento de uma partícula eléctrica produz, já se sabe, um campo
magnético associado (figura 3.66).

Hp

D
P
Ht θ

R
Hs

Figura 3.66 – Indução electromagnética.


O primário, ou indutor (P), produz um campo primário Hp que, ao agir sobre
um corpo, por exemplo uma rocha R, produz por sua vez um campo induzido,
secundário Hs. Se utilizarmos um detector D, na vizinhança de R podemos medir neste
um campo total Ht que corresponde à soma vectorial de Hs com Hp. Deste modo,
conhecendo Hp podemos deduzir Hs e a posição e características físicas do corpo R no
qual se produziu este campo induzido.
π/2 1.0

π/6 5π/6 0.5 Η

ω
0 π 0.0 t
0 30 60 90 120 150 180 210 240 270 300 330 360

11π/6 7π/6 -0.5

-1.0
3π/2 λ

Figura 3.67 - Movimento circular de uma carga pontual.

190
A produção de um campo por uma corrente alterna (AC) pode ser
adequadamente modelada pelo movimento circular de uma carga pontual com
velocidade angular ω - veja-se a figura 3.67.

3.11.2. O espectro electromagnético.


As ondas electromagnéticas classificam-se geralmente de acordo com as suas
frequências (figura 3.68) – e todas têm aplicação em Geofísica!

variação

indução

GPR

visível
diurna e raios X

radar
magneto-telúrica TV e rádio micro- IV UV raios γ −>

EM
secular ondas −>
<−

1E-08 1E-06 1E-04 1E-02 1E+00 1E+02 1E+04 1E+06 1E+08 1E+10 1E+12 1E+14 1E+16 1E+18 1E+20 1E+22

Frequência (Hz)

Figura 3.68 – O espectro electromagnético.

3.11.3. Bases Físicas.


3.11.3.1. Definições e unidades.
Define-se o vector intensidade magnética, no tempo t, como

H (t ) = H 0 cos (ωt ) (3.166)

em que ω é a velocidade angular e H0 a amplitude.


Podem ainda estabelecer-se as seguintes relações, bem conhecidas:

ω
f = (3.167)

1
f = (3.168)
T

V
f = (3.169)
λ

em que f é a frequência da oscilação (unidade SI - hertz, Hz, ciclo por segundo), V é a


velocidade linear de propagação da onda (m/s), T é o período da oscilação (s) e λ é o
comprimento de onda (m).
De (3.166) deduz-se facilmente que, para t = t0, H(t) = 0.
Escolhendo outra origem dos tempos pode escrever-se

191
H (t ) = H 0 cos (ωt − Φ ) (3.170)

em que Φ representa o desfasamento, ou atraso de fase, em relação a um campo tido


como referencial.
As funções sinusoidais deste tipo - osciladores harmónicos - têm uma
propriedade muito importante: as suas derivadas e primitivas são ainda osciladores
com a mesma frequência.
Recordemos as equações de Maxwell para a propagação das componentes
eléctrica e magnética do campo, respectivamente

dE d 2E
∆E = ∇ 2E = σµ + εµ (3.12)
dt dt 2

dH d 2H
∆H = ∇ 2H = σµ + εµ . (3.13)
dt dt 2

Na micro-geofísica, em que se procura conhecer em pormenor a estrutura do


subsolo duma dada área limitada, as mais das vezes o que se pretende é conhecer a
estratificação, nesse local, de uma dada propriedade física das rochas (neste caso, uma
propriedade eléctrica, como a impedância). Para esse fim, o que nos interessa mais é a
propagação das ondas no sentido vertical, z.
Para a propagação de uma onda de baixa frequência em rochas, com ε
desprezável a equação (3.13) simplifica-se, assim, para

∂2H ∂H
2
= σµ (3.171)
∂z ∂t

ou

∂H 1 ∂2H
= (3.172)
∂t µσ ∂z 2

Vamos resolver esta equação pelo método da separação de variáveis. H é


função de z e de t, pelo que podemos decompô-lo num produto de duas funções: uma
só de posição, Z(z) e outra só de tempo, T(t):

H(z, t) = Z(z).T(t) (3.173)

Substituindo na equação (3.172) vem que

192
dT 1 d 2Z
Z = T (3.174)
dt µσ dz 2

Dividindo, agora, ambos os lados por ZT vem que

1 dT 1 d 2Z
= (3.175)
T dt µσ Z dz 2

Note-se que já foi possível abandonar as derivadas parciais e passar a lidar


com diferenciais, pois Z é só função de z e T só de t.
Dada a igualdade (3.175), podemos igualar cada um dos lados a uma
constante:

1 dT
= −iω (3.176)
T dt

1d 2Z
= −iω (3.177)
µσ Z dz 2

Agora, a solução da equação (3.176) é simplesmente

T = T0 e-i ω t (3.178)

Para resolver (3.177), vamos re-arranjá-la como

d 2Z
+ iωµσ Z = 0 (3.179)
dz 2

que é equivalente à equação harmónica

d 2Z
+ n2 Z = 0 (3.180)
dz 2

que tem solução

Z = Z0einz + Z1e-inz (3.181)

Como estamos a trabalhar com a superfície terrestre como fronteira podemos


fazer Z1=0 e, portanto,

ωµσ
n 2 = iωµσ ⇒ n = iωµσ = (1 + i) (3.182)
2

(pois, por definição, i1/2 = (1+i) / 21/2).

193
Vamos, finalmente, recombinar as soluções para Z e para T:

ωµσ
i (1+ i ) z
H ( z, t ) = Z 0 e 2
T0 e −iωt

ωµσ  ωµσ 
( i +1) z − i  ωt − z

 2 
H ( z , t ) = Z 0T0 e 2
e (3.183)

A solução para a propagação do campo magnético, à profundidade z, no tempo


t, encontra-se adaptando a parte real de equação (3.183) às condições de fronteira para
a superfície. Sabendo que H = H0 cos(ωt) a solução é da forma

z
−  z
H ( z, t ) = H 0 e d
cos ωt −  (3.184)
 d

onde o parâmetro

2
d= (3.185)
ωµσ

é chamado a profundidade da pele (skin depth) e tem um significado (geo)físico


preciso: é a profundidade à qual o campo se atenua para e-1 (cerca de 37%) do seu
valor.
Este parâmetro reflecte as capacidades e limitações de cada método geofísico
baseado na indução electromagnética. Repare-se que não é a profundidade atingida
por um método mas sim a “velocidade” de atenuação do campo com a profundidade
para uma dada frequência de trabalho [f=ω /(2π)] e condutividade do terreno (na
maioria dos casos pode-se considerar µ = µ0).
3.11.3.2. Polarização elíptica do campo electromagnético.
Quando um campo magnético se propaga no vazio mantém-se em fase. No
entanto, se este campo (primário ou indutor) encontrar um corpo condutor induz neste
um campo (induzido ou secundário) que se encontra desfasado em relação ao
primário. Como se disse inicialmente, é pelo cálculo desse desfasamento que se tenta
determinar a posição e a natureza do corpo induzido. (Em todo este capítulo, refira-se
à figura 3.66)
O desfasamento é definido com base em
a) o ângulo Φ que a componente secundária faz com um plano de
referência, geralmente horizontal;
b) o valor de duas componentes (geralmente horizontal e vertical) da onda
induzida - que permitem definir a chamada elipse de polarização.
Para Φ = 0, o módulo da componente horizontal do campo primário Hp é dado
por

|Hp| = Hp.cos(ωt) (3.186)

194
No mesmo ponto do espaço, o módulo do campo secundário Hs (desfasado Φ ,
recordemos) é representado por

|Hs| = Hs.cos (ωt+Φt) (3.187)

Seja α o ângulo positivo de Hs com a horizontal. As componentes dos campos


primário e secundário segundo os eixos xx e yy são-nos dadas por:

Hpx = Hp.cos(ωt) (3.188)

Hpy = 0 (3.189)

Hsx = Hs.cos (ωt+Φt).cos α (3.190)

Hsy = Hs.cos (ωt+Φt).sin α (3.191)

Podemos agora somar as componentes dos campos primário e secundário para


obtermos as componentes Cx e Cy do campo total.

Cx = Hp.cos(ωt) + Hs.cos (ωt+Φt).cos α (3.192)

Cy = Hs.cos (ωt+Φt).sin α (3.193)

Se substituírmos a soma de Hp e Hs pelas suas projecções segundo os eixos xx


e yy e lhes chamarmos X e Y, respectivamente, e ainda se chamarmos Φ' ao
desfasamento do campo total, que é dado por

H s . cos α . sin Φ
Φ ' = tan −1 (3.194)
H p + H s . cos α . cos Φ

vem que

Cx = X.cos (ω t+Φ ') (3.195)

Cy = Y.cos (ω t+Φ') (3.196)

Finalmente, chamando δ à diferença angular entre os desfasamentos (Φ-Φ'), e


eliminando t do sistema das equações (3.195) e (3.196), temos

2
C x2 C y C x .C y
2
+ 2
−2 . cosδ .sin( 2δ ) = 0 (3.197)
X Y X .Y

195
A expressão (3.197) permite calcular o ângulo θ que o eixo menor da elipse
faz com o eixo vertical yy:

2 XY cos δ
tan(2θ ) = (3.198)
X 2 −Y 2

Pelas definições dadas verificamos que a excentricidade da elipse (b/a - eixo


menor/eixo maior) aumenta com o aumento de Φ. Esta excentricidade toma o nome
de quadratura (Q).

b H s . sin α . sin Φ
Q= = (3.199)
a Hp

O ângulo θ, por sua vez, toma o nome de “tilt” (vd. figura 1). Note-se que é de
todo o interesse tê-lo definido em termos de desfasamentos e de campos, em vez de o
ser em termos das projecções:

 Hs (H s / H p ) 2 
θ = tan −1
. sin α . cos Φ + . sin(2α ). sin Φ  (3.200)
Hp 2 
 

3.11.4. Prospecção electromagnética.


De todos os métodos de prospecção geofísica, os métodos electromagnéticos
são talvez os que apresentam maior número de modalidades de aplicação. Isto decorre
da grande “elasticidade” destes métodos, dado que podem fazer medições, por
exemplo
- no domínio dos tempos
- no domínio das frequências (princípios já vistos em IP)
- com emissor local
- com emissor remoto
- usando campos naturais
- usando campos artificiais
- das componentes eléctricas
- das componentes magnéticas
- de ambas as anteriores em simultâneo
- ...
Além desta enorme diversidade de aplicações, outros motivos para haver um
tão grande recurso à prospecção electromagnética são o baixo custo dos
equipamentos (comparativamente com outras técnicas de prospecção geofísica) e,
principalmente, os custos de prospecção muito baixos devido à rapidez de execução.
3.11.4.1. Prospecção com frequências muito baixas de fonte artificial
(VLF).
O desenvolvimento de tecnologias militares tem sempre, mais cedo ou mais
tarde, consequências no desenvolvimento tecnológico da sociedade civil. O VLF é um
bom exemplo disso.

196
As vantagens tácticas dos submarinos decorrem do facto de estes vectores
militares poderem progredir sob a camuflagem dos oceanos. Esta vantagem é,
contudo, acompanhada de uma desvantagem importante: para fazer a navegação
(posicionamento, orientação), os submarinos eram inicialmente obrigados a emergir
para tomar medidas astronómicas (ou mesmo para se orientarem à vista, em
navegação de cabotagem – junto à costa). Isto expunha-os e tornava-os vulneráveis.
Por essa razão surgiu a ideia, depois da II Grande Guerra, de instalar redes de rádio-
faróis (emissores de ondas electromagnéticas) que funcionassem numa banda de
frequências suficientemente baixas para serem detectáveis mesmo em imersão. A
banda de frequências utilizada situa-se entre os 10 e os 25 kHz e é designada VLF
(very low frequency).
Verificou-se, contudo, que estas ondas não só penetram a água mas também as
rochas e solos, nos quais vão induzir campos (recorda-se a figura 1) podendo ser
usadas em prospecção electromagnética.
A figura 3.69 mostra a disposição de alguns destes rádio-faróis.

Figura 3.69 – Distribuição geográfica de algumas fontes de sinal VLF (Cortesia Geonics).
Cada rádio-farol emite numa frequência única e bem definida. A escolha de
um dado emissor prende-se com a orientação da estrutura a prospectar (figura 3.70).
Como sabemos que a direcção do vector campo magnético é perpendicular à direcção
de propagação das ondas do campo electromagnético, escolhe-se o emissor cujo
azimute seja mais próximo da direcção da estrutura geológica a prospectar. Isto faz
com que a direcção das linhas de prospecção (perfis) seja perpendicular à direcção da
estrutura, como é sempre de boa prática.
A interpretação directa de perfis VLF pode ser muito difícil. Verifica-se que estas
frequências são geralmente acompanhadas de muito ruído, de origem natural e
artificial, o que por vezes torna quase impossível comparar perfis obtidos na mesma
área, ou seja, construir cartas.

197
ESTAÇÃO direcção do filão:
EMISSORA azimute do emissor

perfil

filão

Figura 3.70 – Escolha do emissor.


Para obstar a este problema desenvolveu-se uma técnica simples mas muito eficiente
de filtração linear. Esta técnica baseia-se em transformar em picos os zeros do perfil
de tilt e encontra-se ilustrada na tabela 5 e na figura 3.71.
Tabela 3.6 – Exemplo dos cálculos da filtração.
primeiras diferenças de
Estação # tilt conversão somas móveis
resultados alternados
1 6S -6
(-6)+(-7)= -13
2 7S -7
(-7)+(-8)= -15 (-23)-(-13)= -10
3 8S -8
(-8)+(-15)= -23 (-39)-(-15)= -24
4 15S -15
(-24)+(-15)= -39 (-16)-(-23)= +7
5 24S -24
(-24)+(+8)= -16 (+18)-(-39)= +57
6 8N +8
(+8)+(+10)= +18 (+22)-(-16)= +38
7 10N +10
(+10)+(+12)= +22 (+26)-(+18)= +8
8 12N +12
(+12)+(+14)= +26 (+28)-(+22)= +6
9 14N +14
(+14)+(+14)= +28 (+34)-(+26)= +8
10 14N +14
(+14)+(+20)= +34
11 20N +20

60

40

20
tilt (º)

0
1 2 3 4 5 6 7 8 9 10 11
-2 0

-4 0
e s ta ç ã o

d a d o s e m b ru to d a d o s filtra d o s

Figura 3.71 – Perfis com os dados da tabela 5.

198
3.11.4.2. Prospecção com micro-ondas de fonte artificial (GPR).
O radar foi mais um fruto da guerra com importantes aplicações em tempo de
paz. Os radares comerciais, usados principalmente para ecolocação de aeronaves,
trabalham na banda das micro-ondas de frequência média, a mais adequada para
atingir grandes distâncias na atmosfera. Para aplicações geofísicas, em que se
pretende atravessar camadas de rocha, usa-se o limite inferior da banda de frequências
das micro-ondas: é o chamado GPR (ground-penetrating radar, ou georadar).
Às frequências relativamente altas a que se trabalha, e considerando que a
condutividade dos meios geológicos é muito baixa, as equações de Maxwell para os
campos eléctrico e magnético

dE d 2E
∆E = ∇ 2E = σµ + εµ (3.12)
dt dt 2

2 dH d 2H
∆H = ∇ H = σµ + εµ (3.13)
dt dt 2

podem simplificar-se para

d 2E
∆E = εµ (3.201)
dt 2

d 2H
∆H = εµ (3.202)
dt 2

Esta é a forma da equação geral de onda que descreve a propagação de


qualquer onda, relacionando uma derivada temporal de um deslocamento com
derivadas espaciais, através de uma constante de proporcionalidade V – a velocidade:

1 ∂ 2Ψ
= ∇ 2Ψ . (3.203)
V 2 ∂t 2

Daqui deduz-se facilmente que a velocidade das ondas electromagnéticas será


dada por

1
v= . (3.204)
εµ

A velocidade das ondas electromagnéticas no vazio é a velocidade da luz, c. A


sua velocidade nas rochas é dada por

199
v = c/k (3.205)

onde k, a constante dieléctrica, toma valores entre 5 e 20 nos materiais geológicos,


pelo que v toma valores entre cerca de 15000 e cerca de 60000Kms-1.
Vamos encontrar este mesmo tipo de análise mais tarde, no capítulo sobre
sismologia, ao analisar a propagação das ondas elásticas na Terra.
As analogias com a propagação das ondas sísmicas são ainda mais extensas, o
que não nos deve surpreender: trata-se, em ambos os casos, da propagação de um
movimento ondulatório através de um meio com determinadas propriedades,
eléctricas num caso e mecânicas no outro, que dificultam a progressão das ondas.
Também não nos deve surpreender, portanto, que a aquisição, processamento,
análise e interpretação de dados de GPR sejam muito semelhantes às que se fazem na
sísmica de reflexão.
O equipamento emite um impulso muito curto de onda (da ordem dos
nanossegundos), para o solo. Desde a emissão até à recepção (como na sísmica de
reflexão, o receptor está próximo do emissor), as ondas electromagnéticas sofrem
todos os processos conhecidos na sua propagação: reflexão, refracção, dispersão e
difracção nos planos que separam meios de propriedades eléctricas contrastantes,
sendo que todos esses fenómenos introduzem atrasos na propagação.
Os resultados repesentam-se, mais uma vez, como na sísmica de reflexão, em
pseudo-secções em que o eixo das abcissas refere a distância ao longo do perfil e o
eixo das ordenadas refere os tempos de chegada das ondas (figura 3.72).

Figura 3.72 – Equipamento GPR e perfil GPR. Cortesia NOGGIN.

O GPR também começou, muito recentemente, a ser aplicado na detecção


remota. A principal aplicação está em curso em Marte, com o instrumento MARSIS
da missão Mars Express (figura 3.73).
Nesta aplicação procura-se conhecer, pela primeira vez, algo do subsolo de um
planeta. Em particular, procura-se identificar a localização de reservas de água e,
igualmente importante, determinar o estado em que esta se encontra. O equipamento
consiste num emissor e um receptor de micro-ondas colocados nos extremos de

200
mastros com 20m de extensão. Funciona em quatro bandas: 1.9, 2.8, 3.8 e 4.8 MHz.
Espera-se, assim, poder atingir profundidades de até 5Km.

Figura 3.73 – Satélite Mars Express em órbita de Marte, com as antenas MARSIS desdobradas.
ESA.
3.11.4.3. Sondagens magneto-telúricas.
Depois desta visita guiada por algumas técnicas de prospecção
electromagnética fazemos a volta completa e voltamos ao início: um método que
utiliza campos electromagnéticos de origem natural e cuja aplicação principal se
encontra na compreensão das grandes estruturas desde a crosta até ao manto.
Os campos electromagnéticos originados na ionosfera propagam-se em
direcção à crosta, onde são reflectidos de volta à ionosfera, e assim sucessivamente,
pelo que os campos telúricos podem ser assimilados a ondas planas que se propagam
na vertical, contendo um riquíssimo espectro de frequências com componentes
originadas quer nas múltiplas reflexões quer nas variações intrínsecas das fontes
naturais.
O equipamento utilizado consiste em cinco sensores: três magnetómetros
fluxgate orientados NS, EW e vertical, e dois dipolos eléctricos, com eléctrodos
impolarizáveis, normalmente orientados NS e EW, com espaçamentos da ordem das
dezenas de metros.
Como já se viu, a penetração na Terra das ondas electromagnéticas é
directamente proporcional ao comprimento de onda (inversamente à frequência). Nas
sondagens magneto-telúricas procura-se trabalhar com as mais baixas frequências que
é possível, para atingir as maiores profundidades. Por isso é habitual que o
equipamento de medida seja instalado por períodos de várias horas até vários dias.
Os princípios das sondagens magneto-telúricas são simples.
Se se considerar, como já foi dito, que a propagação da onda electromagnética
se faz principalmente na vertical, z, podemos escolher um referencial de forma que a
componente eléctrica seja paralela ao eixo x (Ex) e a componente magnética paralela
ao eixo y (By).

201
Vimos no início deste capítulo que

dD
rotH = [∇, H] = J + (3.2)
dt

que é a forma da lei de Ampère que relaciona as variações temporais dos campos
eléctrico e magnético. Agora se, para simplificar, assumirmos os campos em causa
como estacionários vem que

rot H = J (3.206)

Ora, como

J = σ E, (3.207)

rot H = σ E (3.208)

ou seja,

1
E= rot H (3.209)
σ

Pela definição de rotacional (Apêndice 1), se o diferencial total de A for dado


pela equação diferencial A = Pdx + Qdy +Rdz vem que

 ∂R ∂Q   ∂P ∂R   ∂Q ∂P 
rot A =  −  i +  −  j +  −  k (A.21)
 ∂y ∂z   ∂z ∂x   ∂x ∂y 

Mas, recordemo-nos das condições acima definidas, estipulámos que a


propagação da onda electromagnética se faz principalmente na vertical(z), que a
componente eléctrica é paralela ao eixo x e que a componente magnética é paralela ao
eixo y, ou seja,

 ∂H y 
rot H =  −  (3.210)
 ∂z 

pelo que

1 ∂H y
Ex = − (3.211)
σ ∂z

onde B tem a mesma forma de H na equação (3.184),

202
z
−  z
H ( z, t ) = H 0 e d
cos ωt −  (3.184)
 d

Diferenciando Hy por partes,

 − z  
H  e d   z
z  − d  − 1   z  
E x = − 0  −  cos ωt −  + e   − sin  ωt −   (3.212)
σ  d   d  d   d 
  

z
H0 −d  z π
Ex = e 2 cos ωt − +  (3.213)
σd  d 4

Daqui vem uma relação importante entre as amplitudes máximas das duas
componentes,

Ex 2
= (3.214)
Hy σd

donde se pode extrair que

2
1 Ex
ρ= 2
(3.215)
ω H
y

2 Ex
d= (3.216)
ω Hy

que dão a resistividade ρ à profundidade d, afinal, o objectivo das sondagens


geoeléctricas.

203
204
4. SISMOLOGIA
4.1. Introdução.
O fenómeno sísmico, para além do interesse científico que desperta, é uma
manifestação de processos geológicos endógenos com grandes repercussões sociais. O
cidadão comum que ignora a existência de uma escala de durezas minerais de Mohs já
ouviu mencionar confusamente escalas de Richter ou Mercalli e discute à mesa do
café “o sismo de grau oito que houve ontem na China”. E é natural que assim seja
pois um sismo é a mais temida catástrofe natural por dois motivos: pelo grau de
destruição que provoca nos bens e vidas humanas, e pela sua imprevisibilidade.
Toda a gente, em todo o mundo, sabe se vive ou não “numa zona sísmica”,
avaliando empiricamente o risco sísmico por uma estatística intuitiva das frequências
sísmicas nos tempos históricos. Assim, um japonês, um californiano ou um açoriano
vivem com a consciência mais ou menos despreocupada do fatalismo. Sabem que há
frequentemente pequenos abalos e que uma vez por outra haverá um grande sismo.
Quando? - é melhor não pensar nisso...
Na raiz de toda a ciência está o desejo de controlar a Natureza pelo seu
conhecimento, nem que seja para melhor a poder explorar. Saber é poder. Sem dúvida
que o estudo sistemático dos sismos, suas causas e consequências - a sismologia - se
deveu à esperança de um dia poder, se não controlar, pelo menos prever sismos.

4.2. Princípios físicos.


A sismologia é, em última análise, o estudo da propagação de ondas sólidas
pela Terra. A propagação destas ondas depende das propriedades mecânicas dos
materiais que atravessam, pelo que a compreensão dessas propriedades será
importante para compreender o fenómeno sísmico.
Quando se aplica uma força a um líquido, este muda facilmente de forma mas
resiste à mudança de volume. A propriedade macroscópica que nos permite distinguir
intuitivamente um sólido de um líquido é que o sólido, nas mesmas condições, resiste
não só à mudança de volume como à mudança de forma; na verdade, para pequenas
forças, o sólido tende a recuperar a forma original – chama-se a esta propriedade
elasticidade.
Parece quase intuitivo, também, que a elasticidade deve ser uma propriedade
que relaciona, de alguma forma, a variação da força aplicada – tensão – com a
variação de forma e volume – deformação. Estudaremos esta relação nos próximos
parágrafos.

4.2.1. Tensão (stress) e deformação (strain).


Define-se tensão como força aplicada por unidade de superfície. Se, no caso
geral, a força não for constante mas variar continuamente de ponto para ponto, a
tensão também varia, e o seu valor em cada ponto pode ser calculado se se tomar um
infinitésimo da área centrado no ponto e se dividir a força total por esse infinitésimo
de área – o que equivale a fazer uma diferenciação.
Quando o vector força é perpendicular à área de aplicação, diz-se que temos
uma tensão normal; se a força agir paralelamente à área, temos uma tensão de

205
cisalhamento. Claro que podemos decompor qualquer força, no caso geral, em duas
componentes, normal e de cisalhamento.

TGF, p140

Figura 4.1 – Componentes da tensão.

Imaginemos um elemento de volume arbitrariamente pequeno, num referencial


normal cartesiano. A figura 4.1 mostra a resolução da tensão que age sobre uma das
suas faces.
Os índices na figura referem-se aos eixos coordenados, x, y e z. Se
designarmos a tensão por σ, σxy designa uma tensão paralela ao eixo dos x, que age
numa face perpendicular ao eixo dos y. Assim, se os dois índices forem iguais (σxx)
temos uma tensão normal, e se os índices forem diferentes (σxy) uma tensão de
cisalhamento.
Convenciona-se que σ>0 é uma tracção e σ<0 é uma compressão.
Para o sistema estar em equilíbrio estático, é preciso que o balanço geral das
forças seja nulo. Isto implica que as três tensões que agem sobre a face OABC, (σxx,
σyx e σzx) devem ser iguais e opostas às tensões correspondentes na face paralela
DEFG.
Note-se que um par de tensões de cisalhamento, como σyx, formam um binário
que tende a rodar o elemento de volume em torno do eixo z. A magnitude desse
binário, W (força × braço), é dada por

W = (σyx dy dz) dx (4.1)

Se considerarmos as tensões nas outras quatro faces, e como o elemento deve


ser mantido em equilíbrio, isto é, imóvel, verificamos que o binário W só é
contrabalançado pelo binário devido a σxy, que terá magnitude (σxy dx dz) dy. A
condição de equilíbrio implica, portanto, que

(σyx dy dz) dx = (σxy dx dz) dy (4.2)

206
ou seja,

σyx = σxy (4.3)

o que é verdade em todos os casos.


Já referimos que as tensões aplicadas a um corpo elástico provocam
deformações – variações de forma e volume. Também estas podem ser resolvidas em
alguns tipos fundamentais (figura 4.2),.
Consideremos um rectângulo PQRS no plano xy. Ao aplicar a tensão, o ponto
P desloca-se para P’, afastado de P segundo as componentes u e v. É claro que, se
todos os vértices se deslocarem os mesmos u e v, o rectângulo sofre apenas uma
translacção: não existe deformação. Para haver deformação é necessário que u e v
sejam diferentes para os diferentes vértices.
Assumamos que u = u(x, y) e v = v(x, y). Então, as coordenadas dos vértices
PQRS e P’Q’R’S’ são-nos dadas por

Figura 4.2 – Análise bidimensional da deformação.

P = P(x, y)
Q = Q(x+dx, y)
R = R(x+dx, y+dy)

S = S(x, y+dy) (4.4)


P’ = P’(x+u, y+v)
Q’ = Q’(x+dx+u+(∂u/∂x)dx, y+v+(∂v/∂x)dx)
R’ = R’(x+dx+u+(∂u/∂x)dx+(∂u/∂y)dy, y+ dy+v+(∂v/∂x)dx+(∂v/∂y)dy)

207
S’ = S’(x+u+(∂u/∂y)dy, y+dy+v+(∂v/∂y)dy)

Note-se que as variações em u e em v são, em geral, muito inferiores às


variações em x e em y, pelo que os produtos que as contêm podem ser negligenciados.
Partindo deste pressuposto (realista para os materiais que constituem a Terra), vemos
que
• PQ tem uma variação de comprimento de (∂u/∂x)dx e PS de (∂v/∂y)dy, ou
seja, as variações relativas de comprimento segundo os eixos são,
respectivamente, ∂u/∂x e ∂v/∂y ;
• os ângulos infinitesimais δ1 e δ2 são iguais a ∂v/∂x e ∂u/∂y,
respectivamente;
• o ângulo recto SPQ varia (δ1 + δ2) = (∂v/∂x + ∂u/∂y);
• o rectângulo PQRS roda como um todo um ângulo de (δ1 + δ2) / 2.

Por analogia com o que fizemos para as tensões, podemos definir agora as
componentes normal e de cisalhamento da deformação.
A deformação normal, εii, é a variação relativa de dimensão na direcção dos
eixos coordenados:
εxx = ∂u/∂x

εyy = ∂v/∂y (4.5)


εzz = ∂w/∂z
A deformação de cisalhamento, εij, é a variação relativa de dimensão num
ângulo:

∂v ∂u
ε xy = ε yx = +
∂x ∂y
∂w ∂v
ε yz = ε zy = + (4.6)
∂y ∂z
∂u ∂w
ε zx = ε xz = +
∂z ∂x
Como já se disse, para além das deformações normal e de cisalhamento, um
corpo sujeito a tensões sofre uma rotação pura, θ, em torno dos eixos coordenados, tal
que

1  ∂w ∂v 
θ x =  − 
2  ∂y ∂z 
1  ∂u ∂w 
θy =  − 
2  ∂z ∂x  (4.7)
1  ∂v ∂u 
θ z =  − 
2  ∂x ∂y 

208
Note-se que as deformações normais das arestas de um infinitésimo de volume
conduzem inevitavelmente a uma variação desse mesmo volume. Esta variação, ∆, é
dada por

∆ = εxx + εyy + εzz (4.8)

4.2.2. Lei de Hookes. Elasticidade.


Como já se sugeriu, para podermos prever a deformação sofrida por um corpo
sujeito a tensões temos que conhecer a relação entre tensão e deformação. Para
pequenas tensões e deformações, esta relação é directa, o que constitui a lei de
Hookes.
Quando existem várias forças actuantes, cada uma produz deformações
independentemente das outras, pelo que a deformação total é a soma das deformações
produzidas pelas várias tensões. Por outro lado, isto implica que cada deformação é
uma função linear de todas as tensões – o que inevitavelmente conduz a relações
finais bastante complexas.
Contudo, para meios isotrópicos, a lei de Hookes pode exprimir-se em duas
relações simples:

σii = λ∆ + 2µεii i = x, y, z (4.9)

σij = µεij i, j = x, y, z , i ≠ j (4.10)

As quantidades λ e µ são características de cada substância e têm o nome de


constantes de Lamé, embora este nome se reserve habitualmente para λ. Note-se que
µ e εij variam inversamente, pelo que µ é uma medida da resistência de um material
ao cisalhamento – tem, por isso, o nome de módulo de rigidez ou módulo de
cisalhamento.
Embora as constantes de Lamé sejam muito usadas, verificou-se que seria útil
definir outros parâmetros.
Imagine-se um meio reologicamente isotrópico em que todas as tensões são
zero excepto σxx que, além disso, é positiva. Deste modo, as dimensões paralelas a σxx
aumentarão e as dimensões que lhe forem perpendiculares diminuirão. Isto significa,
claro, que εxx será positivo enquanto εyy e εzz serão negativos e iguais entre si. Podem
definir-se, assim:

Módulo de Young, E

σ xx µ (3λ + 2 µ )
E= =
ε xx λ+µ (4.11)

209
Quociente de Poisson, σ

− ε yy − ε zz λ
σ= = = (4.12)
ε xx ε xx 2(λ + µ )

(Lamentavelmente, convencionou-se o mesmo símbolo para a tensão e o


quociente de Poisson. A confusão deve ser evitada pelo uso de índices na primeira.)

4.2.3. Equação de onda. Harmónicas.


Temos estudado até agora um meio em equilíbrio estático, útil para definir
conceitos, mas pouco realista. Vejamos agora as condições mais gerais de um meio
em que as tensões não se equilibram.
Regressemos à Figura 1 e imaginemos que as tensões na face de trás se
mantêm, mas agora as tensões na face da frente passam a ser
σxx+(∂σxx/∂x) dx
σyx+(∂σyx/∂x) dx
σzx+(∂σzx/∂x) dx
Como estas tensões são opostas às que agem sobre a face paralela, as tensões
resultantes passam a ser, respectivamente,
(∂σxx/∂x) dx
(∂σyx/∂x) dx
(∂σzx/∂x) dx
Recorde-se que estas tensões agem sobre uma face de área infinitesimal
(dy.dz), dum infinitésimo de volume (dx.dy.dz), pelo que as forças por unidade de
volume nas direcções dos três eixos coordenados são, respectivamente,
(∂σxx/∂x)
(∂σyx/∂x)
(∂σzx/∂x)
e podem escrever-se expressões semelhantes para todas as outras faces. Deste modo, a
força total por unidade de volume, na direcção do eixo x será

 ∂σ ∂σ yx ∂σ zx 
Fx =  xx + + 
 (4.13)
 ∂x ∂y ∂z 

e analogamente para os outros eixos.


Como temos um balanço de forças não-nulo podemos aplicar a segunda lei do
movimento de Newton para obter a componente de movimento segundo o eixo x:

210
∂ 2u
Fx = ρ (4.14)
∂t 2

onde o primeiro factor representa a densidade e o segundo a aceleração na direcção x.


Podemos, é claro, igualar (4.13) e (4.14):

∂ 2u  ∂σ xx ∂σ yx ∂σ zx 
ρ = + +  (4.15)
∂t 2  ∂x ∂y ∂z 

e procurar exprimir esta equação só em termos de quantidades mensuráveis, as


deformações. Para isso, vamos socorrer-nos da lei de Hookes (4.9) e (4.10), e ainda
das relações (4.5), (4.6) e (4.8):

∂ 2u ∂∆ ∂ε ∂ε xy ∂ε
ρ 2
=λ + 2 µ xx + µ + µ xz
∂t ∂x ∂x ∂y ∂z

∂∆  ∂ 2u  ∂ 2 v ∂ 2u   ∂ 2u ∂ 2 w 
=λ + µ 2 2 +  + 2  +  2 + 
∂x  ∂x  ∂x∂y ∂y   ∂z ∂x∂z 

∂∆ ∂  ∂u ∂v ∂w 
=λ + µ∇ 2u + µ  + +  (4.16)
∂x ∂x  ∂x ∂y ∂z 

∂∆
= (λ + µ ) + µ∇ 2u
∂x

Analogamente, podemos obter as equações correspondentes para as outras


direcções:

∂ 2v ∂∆ (4.17)
ρ 2
= (λ + µ ) + µ∇ 2v
∂t ∂y

∂ 2w ∂∆ (4.18)
ρ 2
= (λ + µ ) + µ∇ 2 w
∂t ∂z

Para obter a equação de onda, diferenciamos as equações (16), (17) e (18) em


ordem a x, y e z, respectivamente, e somamos:

∂ 2  ∂u ∂v ∂w   ∂ 2∆ ∂ 2∆ ∂ 2∆ 
 + µ∇ 2  ∂u + ∂v + ∂w 
ρ  + +  = (λ + µ ) + +  ∂x ∂y ∂z 
∂t 2  ∂x ∂y ∂z   ∂x 2 ∂y 2 ∂z 2   
 

ou seja,

211
∂ 2∆
ρ 2
= (λ + 2 µ )∇ 2 ∆ (4.19)
∂t

Podemos simplificar ainda mais se eliminarmos os termos em ρ, λ e µ. Isto


pode fazer-se directamente,

1 ∂ 2∆
= ∇ 2∆ (4.20)
α 2 ∂t 2

onde α 2 = (λ+2µ)/ρ ou, subtraindo a derivada de (17) em ordem a z da derivada de


(18) em ordem a y:

∂ 2  ∂w ∂v   ∂w ∂v 
ρ 
2 
−  = µ∇ 2  −  (4.21)
∂t  ∂y ∂z   ∂y ∂z 

ou seja, de (7),

1 ∂ 2θ x
= ∇ 2θ x (4.22)
β 2 ∂t 2

onde β 2 = µ / ρ . O mesmo pode ser feito para obter equações análogas em θy e θz.
Estes são exemplos, digamos ‘dirigidos’, do que se chama equação de onda,
que tem a forma geral

1 ∂ 2Ψ
= ∇2Ψ (4.23)
V 2 ∂t 2

Note-se o importante significado da equação de onda: ela relaciona uma


derivada temporal de um deslocamento com derivadas espaciais, através de uma
constante de proporcionalidade V – a velocidade.
Temos estudado até agora só os aspectos espaciais da relação tensão-
deformação, mas uma consulta da equação (4.23) mostra-nos que os aspectos
temporais são igualmente importantes, dado que Ψ é também função de t.
A forma mais simples de variação temporal é uma onda harmónica, ou seja,
uma onda que envolva expressões sinusoidais do tipo

Ψ = A cos κ(x – Vt) (4.24)


para ondas planas, ou

Ψ = (B / r) cos κ(r – Vt) (4.25)


para ondas esféricas. Veremos em seguida o significado do parâmetro κ .

212
4.3. Propagação das ondas sísmicas.
Para qualquer ponto dado, Ψ varia com o co-seno do tempo entre –A e +A
(onda plana) ou entre –B/r e +B/r (onda esférica). É fácil identificar os módulos destes
valores com a amplitude da onda Ψ. Por outro lado, para um dado t, fixo, quando x
aumenta (2π/κ), o argumento do coseno aumenta 2π o que provoca a repetição do
valor de Ψ; a distância λ = (2π/κ) é o comprimento de onda, e (κ/2π) é o número de
onda, ou seja, o número de comprimentos de onda por unidade de comprimento (por
vezes também se chama número de onda à quantidade κ).
Podem definir-se ainda outras quantidades úteis:

T=λ/V (4.26)

ν=1/T=V/λ (4.27)

V = νλ (4.28)

ω = 2πν = κV (4.29)
onde T é o período, ν a frequência e ω a frequência angular.

4.3.1. Ondas de volume.


A nossa definição de onda, baseada na equação (23), tem sido até aqui
bastante abstracta: Ψ é uma perturbação da matéria que se propaga com velocidade V.
Vamos agora esclarecer e concretizar estes conceitos.
Num meio isotrópico as equações (20) e (22) têm que se verificar, pelo que é
tentador identificar Ψ com ∆ e θx. Assim, vemos que se podem propagar dois tipos de
ondas num volume isotrópico de matéria:
• Ondas P, correspondentes a variações na dilatação ∆, também chamadas
primárias, de compressão ou longitudinais; têm a velocidade α na
equação (4.20).
• Ondas S, correspondentes a variações na rotação θ, também chamadas
secundárias, de cisalhamento ou transversais; têm a velocidade β na
equação (4.22).
Uma consequência importante da definição funcional das ondas P e S é que,
como as constantes elásticas λ, µ e ρ são sempre positivas, α é sempre maior que β ,
o que justifica os nomes respectivos de ondas primárias e secundárias, nomes
consagrados pelo uso, mas que na realidade significam ‘primeiras’ e ‘segundas’, sem
nenhuma conotação de importâncias relativas.
A propagação das ondas P e S está ilustrada na figura 4.3.
Outra importante consequência de (4.22) é que, como o módulo de
cisalhamento µ dos fluidos é nulo, as ondas S não se propagam neles.

213
Figura 4.3 – Propagação das ondas P (a) e S (b).

4.3.2. O princípio de Huygens.


Temos visto até agora as ondas sísmicas como entidades individuais
idealizadas. Na verdade, as ondas propagam-se em feixes que não são
necessariamente coerentes.
Chama-se frente de onda à superfície que passa pelo conjunto de pontos que
se encontram em fase; o princípio de Huygens estipula que cada ponto de uma frente
de onda pode ser encarado como uma nova fonte de ondas.
Este princípio é da maior importância, dado que ao conhecer a posição da
frente de onda num dado instante se pode prever a sua posição em qualquer momento
futuro. Pode-se ver um exemplo disto mesmo na figura 4.4.

Figura 4.4 – Aplicação do princípio de Huygens.

Seja AB a frente de onda no instante t0; pretendemos encontrar a sua posição


num tempo futuro, t0+∆t. Durante o intervalo de tempo ∆t, as ondas progridem uma
distância V∆t, onde V é a velocidade da frente de onda. Note-se que esta velocidade
não é necessariamente a mesma para cada ponto da frente de onda. Escolhamos um
conjunto de pontos, P1, P2, ..., Pn, sobre AB, e desenhemos arcos de circunferência
centrados nos pontos, com raios V1∆t, V2∆t, ...,Vn∆t. À medida que o número de
pontos tende para o infinito, a envolvente A’B’ definirá a nova posição da frente de
onda no tempo t0+∆t.

4.3.3. Reflexão e refracção. Lei de Snell.


Quando uma onda sísmica encontra uma variação brusca das propriedades
reológicas do meio de propagação, pode sofrer vários processos que são, aliás,
característicos de todo o movimento ondulatório:
• Reflexão
• Refracção

214
• Difracção
• Dispersão
• Absorção

Vamos ocupar-nos agora dos dois primeiros, sem dúvida os mais importantes
na geometria do movimento ondulatório. Para isso, vamos basear-nos no princípio de
Huygens (figura 4.5).

Figura 4.5 – Reflexão e refracção de uma onda plana.


Considere-se uma frente de onda plana AB, que incide numa interface plana
entre dois meios isotrópicos, mas reologicamente distintos. Podemos considerar que
este é o caso geral dado que se a frente de onda for curva, basta fazer tender AB para
zero para se ter uma aproximação suficiente.
Ao atingir a interface, a nova posição da frente de onda é A’B’; note-se que
aqui o ponto A’ se encontra sobre a interface mas a B’ falta ainda percorrer a distância
B’R. Se
B’R = V1∆t
então ∆t é o tempo que medeia entre a chegada de A’ e B’. Pelo princípio de Huygens,
durante o tempo ∆t a energia que chegara a A’ deverá propagar-se,
• ou no meio superior, uma distância V1∆t – reflexão
• ou no meio inferior, uma distância V2∆t – refracção
Se desenharmos arcos com centro em A’ e raio V1∆t e V2∆t e tirarmos as
tangentes a estes arcos que passam por R, podemos localizar as novas frentes de onda
reflectida (RS) e refractada (RT).
Dado que o ângulo em S é recto e A’S = B’R = V1∆t, os triângulos A’B’R e
A’SR são iguais, o que tem como consequência a lei da reflexão: o ângulo de
incidência é igual ao ângulo de reflexão(θ1=θ’1).
Por outro lado, o ângulo em T também é recto, pelo que

215
V2∆t = A’R sinθ2
e
V1∆t = A’R sinθ1
pelo que se infere a lei da refracção ou lei de Snell restrita:

sin θ1 sin θ 2
= =p (4.30)
V1 V2

onde θ1 é o ângulo de incidência e θ2 o ângulo de refracção.


As leis da reflecção e da refracção podem ser descritas conjuntamente pela lei
de Snell generalizada (ou simplesmente lei de Snell): numa interface, a quantidade
p, tal que

sin θ i
p= (4.31)
Vi

conhecida como parâmetro do caminho de onda, tem o mesmo valor para as ondas
incidente, reflectida e refractada.
Notemos agora algumas consequências interessantes da lei de Snell. Para um
meio composto por uma sequência de camadas paralelas (uma aproximação suficiente
da Terra), p tem o mesmo valor em todos os pontos, para todos os raios reflectidos e
refractados, para um mesmo raio incidente inicial.
Quando V2<V1, necessariamente θ2<θ1. Contudo, quando V2>V1, θ2 atinge 90º
quando

V1
θ1 = sin −1 (32)
V2

Para este valor de θ1 o raio refractado percorre a interface. Chama-se ângulo


crítico ao ângulo θc=θ1 , para o qual θ2=90º. Para este ângulo,

θc = (V2/V1) (33)

4.3.4. Difracção.
Embora menos significativos que a reflexão e a refracção, outros fenómenos
afectam a propagação das ondas sísmicas. Um desses processos, talvez o mais
característico dos fenómenos ondulatórios, é a difracção, que pode produzir caminhos
de onda não previstos pela lei de Snell.
O estudo das leis da difracção ultrapassa o âmbito de um curso de Geofísica,
pelo que nos limitaremos a ver um exemplo (figura 4.6).
A difracção dá-se sempre que uma onda encontra um obstáculo cujo raio de
curvatura seja menor que o comprimento de onda. Veja-se a frente AB e a sua

216
interacção com uma cunha COJ (modelo, por exemplo, de um terreno falhado e
rejeitado). A característica mais notável da difracção é a possibilidade da propagação
de ondas na ‘zona de sombra’ atrás de OJ.

Figura 4.6 – Difracção de uma frente de onda sísmica.

4.3.5. Dispersão.
As velocidades V, α, ou β, que surgem nas equações (4.20) a (4.23), são as
chamadas velocidades de fase, uma vez que se referem à distância percorrida por
unidade de tempo por um ponto de fase constante – uma mesma crista, por exemplo.
Porém, esta não é necessariamente a mesma velocidade com que um impulso de
energia se desloca – a velocidade de grupo, U.
Para ver a diferença entre os dois conceitos, consideremos o impulso
representado na figura 4.7(a). Podemos determinar a velocidade de grupo U,
desenhando a envolvente do impulso (ABCB’A) e medindo a distância que essa
envolvente percorre numa unidade de tempo. A figura 4.7(b) mostra a relação que
existe entre U e V: a segunda determina-se medindo a distância percorrida por unidade
de tempo por uma mesma crista ou vale de onda.
Também pode suceder que o impulso seja composto por um conjunto de ondas
de diferentes frequências (decomponíveis por análise de Fourier). O que se passa
neste caso? A forma do impulso varia no tempo, pelo que a velocidade de grupo será
diferente da velocidade de fase – diz-se que há dispersão.
A velocidade de grupo e a velocidade de fase estão relacionadas pela
expressão
dv dV dV
U =V −λ = V +ν =V +ω
dλ dν dω (4.34)
em que todas as variáveis são valores médios para o leque de frequências que
constituem o impulso.

217
Figura 4.7 – Velocidade de grupo e velocidade de fase.
Note-se que o que se passa na figura 4.7(b) é a chamada dispersão normal,
em que V>U; a situação oposta, com a envolvente a deslocar-se mais depressa que
cada onda, também é possível – dispersão inversa – embora raramente.
O fenómeno da dispersão não é muito importante para as ondas de volume.
É-o, contudo, para as ondas de superfície, que estudaremos mais tarde.

4.3.6. Energia das ondas sísmicas.


Temos estado a estudar até agora as características cinemáticas da propagação
das ondas sísmicas mas, como é evidente, há características dinâmicas (aquelas que
envolvem processos de transferência de energia) que importa considerar.
Uma onda que se propaga por um meio tem uma energia que lhe está
associada.
Considere-se uma harmónica esférica P para a qual o deslocamento radial u
para um dado valor de r é dado por

218
u = A cos(ωt + φ) (4.35)
em que φ é o ângulo de fase. Como o deslocamento varia com o tempo, cada
elemento de volume do meio, δv, tem uma velocidade e, portanto, uma energia
cinética associada, δL, tal que

2
1  ∂u 
δL = ( ρδv)  (4.36)
2  ∂t 

A energia cinética por unidade de volume é, assim,

2
δL 1  ∂u  1 2 2 2
= ρ   = ρω A sin (ωt + φ ) (4.37)
δV 2  ∂t  2

Cada unidade de volume também possui uma energia potencial, mas esta e a
energia cinética consideram-se totalmente convertíveis, pelo que a energia máxima
associada a uma onda sísmica é determinada ao determinar a sua energia cinética.

4.3.7. Absorção.
A absorção é o processo de diminuição da densidade de energia associada a
uma onda à medida que esta atravessa um meio, com produção de calor. Repare-se
que no parágrafo anterior se considerou que a energia só variava em função da
velocidade da onda, e não de nenhuma característica do meio. Mas a verdade é que da
mesma maneira que a corrente que se propaga por um condutor é parcialmente
transformada em calor por efeito Joule, também alguma da energia das ondas sísmicas
é transformada em calor.
Os mecanismos dessa transformação não estão ainda completamente
esclarecidos; verifica-se experimentalmente que, quando uma onda P atravessa um
material, há libertação de calor na fase compressiva e posterior absorção de calor na
fase expansiva. Estes processos, como todos os processos termodinâmicos, não são
reversíveis: algum do calor libertado, por irradiação ou por condução, não é
recuperado.
A perda de energia envolvida no processo de absorção parece ser exponencial
na distância percorrida pelas ondas, de tal maneira que

I = I0 e-ηx (4.38)
onde I e I0 são as energias em dois pontos afastados x, e η é o coeficiente de
absorção.
Dados experimentais indicam que η, para um mesmo material, aumenta com a
frequência da onda. (Note-se a similitude com um processo mecânico simples, o
atrito, que tem duas componentes: uma, característica dos materiais em interface, e a
outra que aumenta com a velocidade.) Por este motivo, uma medida mais realista da
capacidade de um material para absorver a energia das ondas que o atravessam é o
factor de qualidade, Q, definido como

219
Q = π / ηλ (4.39)

4.3.8. Separação da energia numa interface. Equações de Zöppritz.


A discussão anterior sobre energia das ondas sísmicas leva-nos a perguntar,
naturalmente, de que forma é que a energia de uma onda que incide numa interface se
reparte pelas ondas reflectida e refractada.
Imaginemos dois pontos, situados um de cada lado de uma interface. Dadas as
propriedades reológicas diferentes dos materiais em que cada ponto se situa, é fácil
supor que cada ponto está sujeito a uma tensão normal, σi, diferente. Porém, à medida
que aproximamos os pontos, também as tensões em cada um devem ir-se
aproximando e, no limite, quando os pontos coincidem, a diferença de tensões deve
ser nula. Se a variação não fosse contínua, a camada de espessura infinitesimal entre
os pontos (que inclui a interface) seria sujeita a uma aceleração que, no limite, seria
infinita.
O mesmo raciocínio pode ser aplicado às tensões de cisalhamento. Em suma, a
variação entre os estados de tensão de um e de outro lado de uma interface deve ser
contínua. Da mesma maneira, também as componentes normal e tangencial das
deformações devem variar continuamente: repare-se que se não fosse assim os dois
meios teriam movimentos relativos ‘em bloco’.
Temos, assim, quatro condições de continuidade que devem poder ser
expressas por quatro equações – as condições-limite, ou condições de fronteira – a
que a propagação de uma onda deve obedecer numa interface.
Imaginemos uma onda P plana, de amplitude A0, que incide numa interface
(figura 4.8).

Figura 4.8 – Ondas geradas numa interface por uma onda P incidente.
A lei de Snell vai estabelecer os ângulos de reflexão e de refracção; as
amplitudes das ondas reflectidas e refractadas, proporcionais às tensões e às
deformações, têm que satisfazer as condições-limite, que são quatro. Precisamos,

220
portanto, de duas ondas reflectidas (P e S) e duas refractadas (P e S) para cada onda P
incidente. (Passar-se-ia o mesmo se a onda incidente fosse S, é claro.)
Isto é o que se representa na Figura 8, onde A1, A2, θ1 e θ2 são as amplitudes e
os ângulos das ondas P reflectidas e refractadas, e B1, B2, λ1 e λ2 as amplitudes e os
ângulos das ondas S reflectidas e refractadas.
Da lei de Snell temos que

sin θ1 sin θ 2 sin λ1 sin λ2


= = = =p (4.40)
α1 α2 β1 β2

mas não nos bastam os ângulos e as velocidades: pretendemos conhecer a energia, ou


seja, para frequência constante, a amplitude das ondas reflectidas e refractadas. A
dedução das condições-limite para as amplitudes foi feita por Zöppritz e sairia do
âmbito de um curso elementar de Geofísica (encontra-se detalhada em Aki e Richards,
1980). As equações respectivas são:

A1 cos θ1 – B1 sin λ1 + A2 cos θ2 + B2 sin λ2 = A0 cos θ1


A1 sin θ1 + B1 cos λ1 –A2 sin θ2 + B2 cos λ2 = –A0 sin θ1
A1 Z1 cos 2λ1 – B1 W1 sin 2λ1 – A2 Z2 cos 2λ2 – B2 W2 sin 2λ2 = – A0 Z1 cos 2λ1

A1 γ1 W1 sin 2θ1 + B1 W1 cos 2λ1 + A2 γ2 W2 sin 2θ2 - B2 W2 cos 2λ2 = A0 γ1 W1 sin 2θ1
(4.41)
onde
γi = βi /αi Zi = ρi αi Wi = ρi βi i=1, 2
Os produtos de densidades por velocidades (Zi e Wi) são as chamadas
impedâncias acústicas.
Um caso particular com alguma importância é aquele em que a onda incidente
é normal à interface, o que simplifica muito as equações de Zöppritz dado que, assim,
B1 = B2 = 0 e θ1 = θ2 = 0 , e reduz as equações (41) a

A1 + A2 = A0 (4.42)

Z1 A1 – Z2 A2 = – Z1 A0 (4.43)
Uma solução destas equações é

A1 / A0 = (Z2 – Z1) / (Z2 + Z1) = R (4.44)

A2 / A0 = 2Z1 / (Z2 + Z1) = T (4.45)


onde R é o coeficiente de reflexão e T é o coeficiente de transmissão.
Mas, afinal, o que acontece às energias das ondas reflectidas e refractadas? De
(4.37), (4.44) e (4.45) deduz-se que

221
1
α 1 ρ1ω 2 A12
 Z − Z1 
2

ER = 2
=  2 
1 2 2  Z + Z  (4.46)
α 1 ρ1ω A0 2 1
2
1
α 2 ρ 2ω 2 A22 4 Z1Z 2
2
ET = = (4.47)
1
α 1 ρ1ω 2 A02 (Z 2 + Z1 )2
2

ER + ET = 1 (4.48)
onde ER é a fracção de energia reflectida e ET a fracção refractada (transmitida).
Impõem-se agora algumas observações. Se a onda incidir na interface ‘por
baixo’ em vez de ‘por cima’, bastará trocar os valores de Z1 e Z2; isto trocará o sinal
de R e alterará o valor de T, mas não terá qualquer influência sobre os valores de ER e
ET, pelo que se conclui que a separação de energia não depende de qual dos meios
contém a onda incidente.
Quando não há contraste de impedâncias ER = 0 e ET = 1, pelo que toda a
energia é transmitida (o que equivale, afinal, à onda estar contida num único meio).
Por outro lado, quanto maior o contraste de impedâncias, maior é a fracção de energia
reflectida.

4.3.9. Ondas de superfície.


Num meio infinito e homogéneo, só podem existir ondas P e S. Vimos no
parágrafo anterior os efeitos das interfaces entre meios reologicamente distintos sobre
a propagação das ondas P e S, ondas de volume, nomeadamente a sua reflexão e
refracção. Há, contudo, outro tipo de ondas, que têm a sua existência confinada às
interfaces: as ondas de superfície.
O estudo das ondas de superfície tem grande importância em sismologia, pois
estas
• são o sinal mais visível no sismograma de um sismo próximo;
• apresentam-se como uma sinusóide de período longo (até algumas dezenas
de segundos) no sismograma de um sismo distante;
• são as que provocam maior destruição no património construído.
Recordemos as equações de onda para a propagação das ondas P e S segundo
o eixo x:

1 ∂ 2∆
= ∇2∆ (4.20)
α 2 ∂t 2
e

222
1 ∂ 2θ x
2 2
= ∇ 2θ x (4.22)
β ∂t

Para demonstrar a possibilidade da existência de ondas de superfície, devemos


procurar soluções de (4.20) e (4.22) que sejam viáveis no plano xy e que decresçam
rapidamente na direcção z. Essas soluções serão da forma

Ξ = Ae iκ ( ct ± az − x ) (4.49)

onde A e a são constantes que afectam a parte real e imaginária, respectivamente,


κ=2π/λ e c é a velocidade de fase, que se relaciona com o parâmetro do caminho de
onda por c = p tan-1θ (a velocidade de fase, c, é maior que as velocidades reais α e β).
Para que as equações (4.20) e (4.22) sejam satisfeitas por uma solução da
forma (4.49) temos que

c 2 / α 2 −1 . z − x )
∆ = Ae iκ ( ct ± (4.50)

c 2 / β 2 −1 . z − x )
θ = Beiκ (ct ± (4.51)

Desde que as raízes sejam imaginárias temos, necessariamente, que


c<β<α
As condições-limite, neste caso, são o desaparecimento das tensões normal e
de cisalhamento, para z=0, ou seja:

 ∂ 2 ∆ ∂ 2θ  (4.52)
σ zz = λ∇ 2 ∆ + 2 µ  + =0
 ∂z
2
∂x∂z 
 ∂ 2 ∆ ∂ 2θ ∂ 2θ  (4.53)
σ xz = µ  2 + 2 − 2  = 0
 ∂x∂z ∂x ∂z 

Substituindo ∆ e θ a partir de (50) e (51) e fazendo z = 0, vem

 c2  c2
A 2 − 2  ± 2 B −1 = 0 (4.54)
 β  β2
c2  c2 
m 2A − 1 + B 
 2 − =0 (4.55)
α2  β 2 

Ora, para que A e B sejam sempre diferentes de zero,

223
2
 c2  c2 c2
 2 − 2  = 4 1 − 2 1− (4.56)
 β  α β2

ou seja,

c 2  c 6 8c 4 2  24 16   β 2 
 − + c  −
 β2 α2   − 161 − 2  = 0 (4.57)
β 2 β 6 β 4    α 

A importância desta formulação é que é sempre possível encontrar um valor


de c, tal que 0 < c < β, de forma a anular o termo entre parênteses rectos. Veja-se o
caso, realista para a Terra, em que λ=µ e α=31/2β . Substituindo estes valores na
equação (57) encontram-se as raízes:
4
c2  (4.58)
= 2 + 2 / 3
2
β 
2 − 2 / 3

das quais só a última tem significado, pelo que

c= 0.9194β (4.59)
Este desenvolvimento, devido a Rayleigh, em 1865, demonstra a possibilidade
da existência de ondas sísmicas que se propagam numa interface. É importante notar
que o parâmetro c, a velocidade de fase, é independente quer do comprimento de onda
quer da frequência.
Se substituirmos (59) em (50) e (51) podemos obter os deslocamentos u1 e u3,
segundo os eixos x1 e x3:

u1 = C [exp(-0.8475kx3) – 0.5773 exp(-0.3933kx3)] sin [k(ct – x1)] (4.60)


e
u3 = C [-0.8475 exp(-0.8475kx3) + 1.4679 exp(-0.3933kx3)] cos [k(ct – x1)] (4.61)
onde C é uma constante. Verifica-se, assim, que para valores pequenos de x3 uma
partícula descreve uma elipse no plano x1-x3 de tal modo que o seu eixo maior é
vertical e o movimento é retrógrado.
Estas são as características das chamadas ondas de Rayleigh, ou ondas R.
Um desenvolvimento posterior, devido a Lamb, em 1904, mostrou que as
ondas R produzidas por um sismo distante devem surgir no sismograma como um
impulso único. Isto levantou um problema quase de imediato: verificou-se que as
ondas de superfície realmente observadas tinham duas características não
contempladas pelos desenvolvimentos de Rayleigh e Lamb:
• há ondas de superfície que possuem uma componente horizontal que é
transversal à direcção do movimento;
• as ondas de superfície surgem no sismograma como um trem e não um
impulso.

224
Assumamos que o plano de propagação das ondas é x1-x3 mas apenas o
deslocamento u2 se propaga, ao longo de uma camada superficial, cuja base está à
cota x3 e o topo (superfície livre do terreno) à cota x3+H.
Procuramos uma solução da forma

c 2 / β '2 −1 . x3 + x1 − ct ) c 2 / β '2 −1 . x3 + x1 − ct )
u '2 = C ' e iκ ( − + F ' e iκ ( − (4.62)

na camada, e

c 2 / β 2 −1 . x3 + x1 − ct )
u 2 = C e iκ ( − (4.63)

para o substrato, onde as quantidades u2, C, β e F se referem ao substrato e u’2, C’e β’


à camada.
As equações (62) e (63) são, reconhecer-se-á, equações de onda para ondas de
cisalhamento, construídas de tal maneira que, u2 diminui com x3 no substrato, mas u’2
é periódica em x3 na camada. Isto implica, além disso, que (c2/β2 -1)1/2 é imaginário.
As condições de fronteira são o desaparecimento da tensão na superfície livre e a
continuidade quer da tensão quer do deslocamento para x3=0; isto requer que

c 2 / β 2 −1 . H iκ c 2 / β 2 −1 . H
C ' e −iκ = F'e
C = C '+ F '
(4.64)
µ c 2 / β 2 − 1 C = µ ' c 2 / β ' 2 −1(C '− F ' )

Eliminando C, C’ e F’ vem que

µi c 2 / β 2 − 1 + µ ' c 2 / β 2 − 1 tan( k c 2 / β '2 −1 . H ) = 0 (4.65)

ou, em termos de quantidades mensuráveis,

tan( k c 2 / β '2 −1 . H ) = µ c 2 / β 2 / µ ' c 2 / β '2 −1 (4.66)

onde β ’ < c < β . Isto indica que a velocidade de propagação das ondas de
cisalhamento na camada tem que ser menor que no substrato.
Note-se que não só se demonstrou a possibilidade da existência de ondas de
superfície transversais como se demonstrou que estas devem surgir no sismograma
como um trem e não um impulso, uma vez que c é claramente dependente de k, o
número de onda, o que implica a existência de dispersão.
Este desenvolvimento deve-se a Love (1911), pelo que as ondas de superfície
associadas a deslocamento transversal têm o nome de ondas Q ou ondas de Love.
As ondas R e Q não são as únicas ondas de superfície detectáveis. Podem-se
referir ainda as ondas T, do mesmo tipo das Q mas propagadas na interface entre o
manto superior e a crosta, acompanhando de perto a descontinuidade de Mohorovicic,
as ondas de modos superiores, harmónicas do modo de oscilação fundamental das

225
ondas de superfície, e as ondas acopladas, PL ou evanescentes, que são trens de
ondas de período muito longo, com grande dispersão, frequentemente indistintas das
S e suas várias reflexões.

4.4. Sismometria.

4.4.1. Sismógrafos de inércia.


Em termos gerais, um sismógrafo é um aparelho que detecta e regista os
movimentos crustais transientes – sismos. Por vezes chama-se sismómetro ao
detector e sismógrafo ao todo do equipamento, ou só à componente de registo. Os
pequenos sismómetros usados em prospecção sísmica têm o nome de geofones.
Refira-se, como curiosidade, que a civilização clássica chinesa já dispunha de
sismómetros com a importante característica de permitirem determinar grosseiramente
a direcção do foco sísmico e até o sentido de propagação das ondas (figura 4.9).

Figura 4.9 – Um sismómetro chinês.

Quando ocorre um sismo de força suficiente, as ondas elásticas dos vários


tipos que já vimos irradiam a partir do ponto focal para toda a Terra e podem, em
princípio, ser detectadas em qualquer ponto. Na estação sismológica, tudo o que está
ligado com a Terra é afectado pelo movimento; tudo, incluindo o edifício, a base do
sismógrafo, a própria estrutura exterior do aparelho. Consequentemente, se
pretendermos registar um movimento, necessitamos de ter um ponto fixo que não
participe desse movimento. Esse ponto fixo, o pêndulo de um sismógrafo de inércia,
consiste numa massa suspensa de tal maneira que a sua inércia a mantenha o mais
possível mecanicamente isolada do resto do equipamento.
Apresenta-se um exemplo muito simplificado na figura 4.10. Contudo, os
pêndulos da figura 10 não poderiam considerar-se verdadeiros sismógrafos. Contra
eles podem levantar-se as seguintes objecções:

226
• Amortecimento: o movimento destes pêndulos é quase livre pelo que as
suas oscilações se iriam sobrepôr aos movimentos subsequentes do
terreno.
• Período: para construir sismógrafos para ondas de período longo seria
necessário usar pêndulos de dimensões enormes.
• Amplificação: estes pêndulos não permitem amplificar os pequenos
movimentos do terreno.

Figura 4.10 – a), b) pêndulo vertical; c), d) pêndulo horizontal


W – massa R – registo
Como já vimos, as ondas sísmicas de vários tipos têm diferentes velocidades,
pelo que não chegam simultaneamente ao sismógrafo. É muito importante conseguir
distinguir rigorosamente os tempos de chegada das diferentes ondas pelo que os
pêndulos têm que ser amortecidos por métodos mecânicos (amortecedores de ar ou
óleo) ou electromagnéticos. Este amortecimento é crítico pois um sub-amortecimento
permitiria a sobreposição de diferentes fases e um sobre-amortecimento poderia filtrar
fases muito próximas.
As figuras 4.11 e 4.12 mostram soluções clássicas para os três problemas, no
sismógrafo Wiechert existente no IGUC (Instituto Geofísico da Universidade de
Coimbra) desde finais do séc XIX e actualmente desactivado.
• Amortecimento: era obtido por amortecedores de ar.
• Período: usava-se um pêndulo invertido com cerca de uma tonelada de
peso e um período natural de cerca de 1s.
• Amplificação: era feita por meios mecânicos, de tal maneira que o
movimento da massa era transmitido ao braço curto de uma alavanca que
continha, no braço longo, a caneta de registo.

227
amortecedor pneumático

alavanca

pêndulo

Figura 4.11 – Sismógrafo Wiechert do IGUC.

Figura 4.12 – Sismógrafo Wiechert: esquema.

228
Figura 4.13 – a) pêndulo vertical Lacoste-Romberg; b) pêndulo horizontal.

Figura 4.14 – Curvas de amplificação para os sismógrafos Geotech do IGUC.

229
Actualmente, o problema do período resolve-se pela construção. A figura 4.13
mostra soluções possíveis para pêndulos verticais e horizontais.
O problema da amplificação tem sido resolvido de diferentes modos:
mecânico, óptico e, actualmente, electrónico.
Note-se a importância deste ponto, pois é o conhecimento rigoroso da
amplificação do sismógrafo que nos permite extrapolar das amplitudes do movimento
no registo para as amplitudes do movimento do solo. Esta relação não é linear, pelo
que é necessário estabelecer curvas de amplificação para cada instrumento (figura
4.14). A figura 4.15 mostra dois tipos de sismógrafos actualmente em uso no IGUC.

Figura 4.15 – Sismógrafos Geotech.


Em prospecção os sismómetros são pequenos detectores chamados geofones
(figura 4.16) (ou hidrofones, na prospecção marinha), em que a componente mecânica
é quase inexistente: os problemas do amortecimento e da aplificação resolveram-se
por técnicas electro-magnéticas e quase só se usam ondas de período curto.

Figura 4.16 – esquema de um geofone.

230
4.4.2. O sismograma.
A primeira tarefa na interpretação de um sismograma consiste em decidir se
este representa um sismo superficial ou profundo (foco a mais de 60 Km de
profundidade), próximo ou distante (epicentro a mais de 1000 Km de distância). As
figuras 4.17 e 4.18 mostram sismogramas de um sismo próximo e um sismo distante.
É claro que a maioria dos eventos registados em qualquer observatório
sismológico são superficiais e próximos.

Figura 4.17 – Sismograma de um sismo próximo – sismógrafo de período curto.

Figura 4.18 – Sismograma de um sismo distante– sismógrafo de período longo – equivale ao


registo b) na figura anterior.

231
Chama-se fase a uma onda ou trem de ondas, bem definida, identificada pelas
suas características físicas (período, amplitude), pelo seu trajecto, e pelo seu tempo de
chegada ao sismógrafo.
4.4.2.1. Nomenclatura das fases de um sismo.
Fases dos sismos próximos:
__ __
Pg, Sg (ou P, S) Ondas propagadas na parte superior da crosta.
Pb, Sb (ou P*, S*) Ondas propagadas na base da crosta.
Pn, Sn Ondas refractadas sob a crosta.
PMP, SMP Ondas reflectidas na descontinuidade de Mohorovicic.

Fases dos sismos superficiais distantes:


P, S Ondas directas, propagadas no manto.
PKP (ou P’) Ondas directas que atravessaram o núcleo, sem identificação mais precisa.
PKIKP Ondas directas que atravessaram o núcleo interno.
PKHKP Ondas directas refractadas na fronteira núcleo externo/interno.
PP, PPP, SS, SSS Ondas reflectidas uma ou duas vezes na superfície terrestre.
PcP, ScS Ondas reflectidas na superfície do núcleo.
PcS, ScP Ondas transformadas por reflexão na superfície externa do núcleo.
PKKP Ondas reflectidas na superfície interna do núcleo.
PKPPKP (ou P’P’) Ondas PKP reflectidas na superfície terrestre.
SKS Ondas S que atravessaram o núcleo como ondas P.
SKKS Ondas S que atravessaram o núcleo como ondas P e foram reflectidas na sua
superfície interna.
PS, SP, PPS, SPP, ... Ondas reflectidas e transformadas na superfície da Terra.
SKP Ondas S transformadas em P por refracção no núcleo.
PKS Ondas P transformadas em S por refracção no núcleo.

Fases dos sismos profundos:


A nomenclatura é semelhante à das fases dos sismos superficiais. Representam-se por p e s minúsculos
as ondas propagadas para cima a partir do foco, e que mudam de carácter pela reflexão na superfície da
Terra, por exemplo:
pP, sP, sPP, ... Ondas P ou S transformadas por reflexão na superfície em ondas P.
pS, sS, sSS, ... Ondas P ou S transformadas por reflexão na superfície em ondas S.

Ondas de Superfície:
L Princípio das ondas de superfície, indistintas.
G Ondas de grande período e amplitude, no limite exterior do manto.
Q (ou LQ) Ondas de Love.
R (ou LR) Ondas de Rayleigh.
Lg Ondas guiadas numa camada da crosta continental.
MQ, MR ou M Onda de amplitude máxima num grupo de ondas de superfície.
Q2, R2 ou M2 Ondas propagadas segundo o arco maior entre o epicentro e o sismógrafo.
C ‘Coda’, parte terminal das ondas de superfície.
F ‘Finis’, fim do registo.

4.4.2.2. Sismos de foco superficial próximo.


Os registos destes sismos apresentam as seguintes características, em termos
gerais:
• As ondas P e S são bem definidas nos instrumentos de período curto e os
seus tempos de chegada não distam mais de 1.5 minutos.
• O sismograma completo é muito mais curto que o dum sismo distante.
• Os períodos das ondas de volume são curtos – entre alguns décimos e 3
segundos.

232
• Os períodos das ondas de superfície podem atingir 10 segundos.
• O início das ondas de superfície é difícil de observar por se encontrar
mascarado pelas ondas S.

Os trajectos das ondas sísmicas dão-se, neste caso, principalmente na crosta ou


imediatamente sob esta, no limite do manto superior. Foi, aliás, a sismologia que
permitiu definir uma “estratificação reológica” para a Terra.

Tabela 4.1 – Fases e meios de propagação das ondas de volume dos simos superficiais próximos.
Composição Profundidade Velocidade Nomenclatura
‘Granítica’ 10 a 30 Km 6.0 a 6.3 Km/s Pg, Sg
(ausente sob os ou
oceanos)
__ __

P, S
Descontinuidade de Conrad
´Basáltica’ 6.3 a 7.3 Km/s P*, S*
ou
Pb, Sb
Descontinuidade de Mohorovicic ou Moho
‘Ultrabásica’ >25 a 60 Km sob 8.2 Km/s Pn, Sn
os continentes,
>5 a 15 Km sob os
oceanos

O método prático de identificação das fases é o seguinte: procura-se a primeira


chegada das ondas P e o início do trem de ondas de maior amplitude, que representa
as ondas Sg. Se o intervalo entre estas duas fases fôr menor que 12” as primeiras
chegadas são provavelmente Pg e Sg. Se o intervalo ultrapassa 25” as primeiras ondas
são provavelmente Pn. Neste caso, Sn pode surgir antes das fases de maior amplitude,
que são Sg e as ondas de superfície. Se a distância epicentral for suficiente, a fase Pn
pode ser reforçada pela chegada simultânea de ondas P reflectidas directamente na
descontinuidade Moho, que se designam PmP. Muitas vezes não é possível observar
directamente a fase P*. Esta só surge nitidamente como um pico num correlograma
elaborado a partir dos sismogramas de várias estações.

4.4.2.3. Sismos de foco superficial distante.


Os registos destes sismos são dominados pelas múltiplas reflexões e refracções
das ondas de volume, que se representam na figura 4.19.

233
Figura 4.19 – Algumas trajectórias das ondas sísmicas.
P – a cheio; S – a tracejado.

Os registos obtidos a diversas distâncias angulares do epicentro têm


características que os individualizam. Assim:

10º a 25º O registo não é claro entre 10º e 15º. As fases P e S substituem as Pn e Sn.
25º a 40º Os trens de ondas P e S simplificam-se. As PcP, ScS e ScP apresentam-se como impulsos
breves de grande amplitude; o seu atraso em relação às P e S diminui com o aumento da
distância. A fase S tem período superior a 10” e amplitudes maiores nas componentes
horizontais, enquanto que as ScP e PcS são polarizadas verticalmente. Começam a surgir
as PP e SS.
40º a 84º Os inícios de P e S tornam-se simples e nítidos. PP e SS tornam-se bem distintas. PS e
PPS aparecem depois de S às maiores distâncias. Surge P’P’ que se distingue de P pelas
menores amplitudes e maiores períodos. Vários minutos mais tarde surgem as SKPP’.
84º a 105º Chegada nítida de P seguida, 3 a 4’ depois, de PP com maior amplitude. A 84º SKS
começa a preceder S. Até aos 90-95º, a fase SKS tem menor amplitude que S mas depois
começa a ultrapassá-la. Todas as fases PS, SP, PPS, SS e SSS são bem individualizadas.
Todas as fases que incluam uma componente P ou K são polarizadas na vertical.
105º a 128º As principais fases são PP, PS e SS; PPP, SSS, PPS, SKS e SKKS também têm boa
amplitude. A partir de 110º podem surgir as PKIKP, detectáveis principalmente em
aparelhos de curto período e grande sensibilidade. É importante não interpretar as fases

234
PP e PS como P e S, erro comum para distâncias entre 115º e 120º, o que levaria a
atribuir ao sismo uma distância, falsa, de 80º.
128º a 143º As primeiras chegadas são de ondas PKIKP, de fraca amplitude, seguidas, cerca de 2”
depois pelas PP, bem nítidas, e 1” depois pelas SKP. Cerca dos 132º as SKP e PKS são
as fases dominantes na primeira parte do sismograma.Para além dos 135º, não se
encontram geralmente fases bem definidas entre SKP e uma SS de grande amplitude,
com a possível excepção de ondas fracas PKKP e SKKP, de período curto.
143º a 160º A 143º a fase PKP torna-se muito forte; a distâncias maiores, em instrumentos de período
curto, podem distinguir-se sucessivamente pelo menos três trens de ondas: PKIKP,
PKHKP e PKP2. SKP é mascarada por PP. SKKS, SKSP e PPS são nítidas, mas
enfraquecem até aos 160º. As fases dominantes são PKP1, PKP2 e PP, e depois as de
grande período, SS e SSS.
160º a 180º O sismograma caracteriza-se por dois grupos distintos de ondas: PKIKP, PKP, PP e PPP
no início e, mais tarde, um trem de grande amplitude onde é difícil distinguir as fases
componentes SKKS, SS e SSS. A diferença dos tempos de chegada entre as primeiras
fases e as ondas de superfície aproxima-se de uma hora, pelo que o sismograma pode
assemelhar-se aos registos de dois eventos distintos.

4.4.2.4. Sismos de foco profundo.


As maiores profundidades focais registadas são da ordem dos 700 Km,
raramente, e só em zonas de Benioff activas. Uma grande parte dos sinais recebidos
destes focos profundos correspondem a ondas que tiveram trajectos coincidentes com
os de sismos superficiais que tivessem ocorrido mais cedo e a maior distância.
A única diferença sensível é o aparecimento de ondas reflectidas na superfície,
próximo do epicentro, depois das fases P e S. Estas fases características dos sismos
profundos são designadas pP, sP, pS e sS, consoante a natureza da onda incidente
(minúscula) e da onda reflectida (maiúscula).
Estas fases aparecem no sismograma sob a forma de impulsos (grande
amplitude e curta duração), e é o seu atraso em relação às fases P e S que permite
determinar a profundidade focal.
O que permite distinguir o sismograma de um sismo profundo do de um sismo
superficial é, então:
• O desdobramento das fases principais;
• A pequena amplitude, ou mesmo ausência das ondas de superfície;
• A maior amplitude;
• A maior nitidez no início das fases.

4.4.2.5. Ondas de superfície.


A identificação e discriminação das ondas de superfície é complicada pela
própria natureza do seu modo de propagação em interfaces entre meios de
propriedades reológicas distintas. Nomeadamente, os seus sinais são diversos para
trajectos continentais ou oceânicos. O principal efeito da interface ser rocha / água ou
rocha / ar é que, no primeiro caso, há uma muito maior dispersão (diferença entre a
velocidade de grupo e a velocidade de fase, recorda-se), que conduz a longas codas de
aspecto quase sinusoidal; no segundo caso a dispersão é menor e a amplitude na coda
diminui de forma quase linear.

235
Note-se que as ondas de superfície dos sismos distantes percorrem, na maioria
dos casos, trajectos mistos, o que dificulta ainda mais a sua interpretação.

4.4.3. Determinação dos parâmetros sísmicos a partir do sismograma.


4.4.3.1. Azimute, com dados de uma única estação.
Supondo-se que o observatório sismológico dispõe de equipamento completo
de períodos longos e curtos, nas três componentes (N-S, E-W e vertical, Z), é possível
estimar a direcção em que se encontra o epicentro: o azimute, α.
Procura-se o primeiro movimento observável em todos os registos. Este
movimento corresponderá geralmente a uma fase P ou PKP, que será mais nítida no
sismógrafo vertical de período curto.
Se se encontrar a mesma fase nos registos dos aparelhos das componentes
horizontais pode-se estimar α dado que as ondas P induzem movimentos apenas
segundo a direcção α, no sentido do epicentro e no sentido oposto (dilatação e
compressão).
Seja AE a amplitude do movimento horizontal no aparelho E-W e AN a
amplitude do movimento horizontal no aparelho N-S:

tan α = AE / AN (4.67)
O valor de α obtido a partir da equação (4.67) é indeterminado em relação ao
sentido. Esta indeterminação é resolvida com recurso ao conhecimento do primeiro
movimento vertical, segundo a tabela 4.2.
Tabela 4.2 – Estimação do azimute epicentral.

E-W N-S Z Azimute


E N + 180º<α<270º
W S − 180º<α<270º
E N − 0º<α<90º
W S + 0º<α<90º
W N + 90º<α<180º
E S − 90º<α<180º
E S + 270º<α<360º
W N − 270º<α<360º
+ : Compressão, 1º movimento vertical para cima
− : Dilatação, 1º movimento vertical para baixo

Também é possível estimar o ângulo de incidência das ondas, i:

A N2 + AE2 (4.68)
tan i =
AZ

236
Convém referir que os valores obtidos pelas equações (4.67) e (4.68) são
estimações, pois é sabido que os trajectos das ondas não são rectilíneos.

4.4.3.2. Distância e profundidade.


Depois de lidas e identificadas no sismograma as chegadas das ondas P
impõe-se identificar todas as outras fases. As primeiras S são geralmente a primeira
fase a surgir com maior nitidez nos sismógrafos horizontais de período longo.
A identificação das fases subsequentes não é habitualmente directa. Para esse
efeito socorremo-nos de tabelas do tipo da tabela 3, para sismos próximos, ou dos
ábacos de Jeffreys-Bullen e de Richter (figuras 4.20, 21 e 21) que, para além de
permitirem identificar as diversas fases, nos permitem estimar a distância epicentral e
a profundidade do foco.
O uso destes ábacos é simples. Em primeiro lugar, lêem-se sucessivamente as
horas de chegada de todas as fases. Seguidamente, transferem-se estes tempos para
uma tira de papel, à mesma escala que a escala dos tempos (vertical) do ábaco.
Sobrepõe-se a tira de papel ao ábaco, deslocando a tira sempre na vertical e
com a origem (marca correspondente à primeira fase P ou PKP) sempre sobre a curva
correspondente, até que o maior número de marcas coincida com curvas. Obtém-se
assim, não só a identificação das fases como também a hora de ocorrência do sismo,
na escala vertical, e a sua distância em graus, na escala horizontal.
Caso não se encontrem coincidências com as curvas do ábaco para focos
superficiais (figura 4.20), procuram-se as melhores coincidências com as curvas dos
ábacos para sismos a várias profundidades (as figuras 4.21 e 4.22 mostram apenas
dois exemplos), e estima-se a profundidade real por interpolação.

237
Figura 4.20 – Ábaco Jeffreys-Bullen para focos superficiais.

238
Figura 4.21 – Ábaco de Richter para focos a 60 Km de profundidade.

239
Figura 4.22 – Ábaco de Richter para focos a 250 Km de profundidade.

240
4.4.4. A rede sismográfica.
Do exposto nos parágrafos 4.3.1. e 4.3.2. poder-se-ia inferir que, dados o
azimute e a distância epicentrais, estariam facilmente localizadas as coordenadas
geográficas do epicentro de um sismo. Não é assim. De facto, a determinação da
distância é um processo muito mais preciso que a determinação do azimute. Por esse
motivo, a localização de um epicentro feita por um único observatório sismológico só
pode ter um valor preliminar.
Para localizar exactamente o ponto de origem de um sismo é necessário
recorrer aos dados de distâncias obtidos em pelo menos três, de preferência quatro ou
mais, estações. Daí a extrema importância da existência das redes sísmicas locais e
mundial constituídas por observatórios cujas técnicas de medida, interpretação e relato
dos dados são padronizadas e continuamente aferidas (figuras 4.23 e 24).

Figura 4.23 – Estações sísmicas em Portugal Continental.

241
Figura 4.24 – Estações sísmicas da RUVS (Rede Universitária de Vigilância Sismo-vulcânica) nos
Açores.

4.4.5. Magnitude sísmica.


Foi Richter (1935, 1958) o primeiro a propor uma medida de magnitudes para
classificar os sismos da Califórnia de um modo mais exacto que pelos efeitos
macrossísmicos (que se discutirão adiante) e que tivesse alguma proporcionalidade
com a energia libertada.
• A magnitude local de Richter, ML, é baseada em dados instrumentais bem precisos.
O próprio Richter referia que a sua definição se aplicava apenas a dados obtidos a
partir de sismógrafos de torsão Wood-Anderson, de sismos originados na Califórnia.
Define-se magnitude local como

ML = log a – log a0 (69)

onde a é a amplitude máxima registada a uma dada distância e a0 é a amplitude que


corresponde ao sismo de magnitude zero (arbitrada), à mesma distância, menor que
600 Km.
A determinação da magnitude local pode fazer-se com a maior facilidade em
sismogramas, com recurso ao ábaco da figura 4.25.

242
Figura 4.25 – Ábaco para determinação da magnitude ML.

Note-se que a magnitude é uma diferença entre logaritmos, pelo que não se
pode dizer que “a escala de Richter vai de zero a dez”. A “escala” é aberta em ambos
os extremos; de facto, a maior magnitude registada até agora foi cerca de 9.5 e a
menor de –3.0.
Muitas outras escalas de magnitude têm sido adoptadas ao longo dos anos:
• Magnitude das ondas de superfície, adoptada pela IASPEI (Associação de
Sismologia e Física do Interior da Terra), Båth (1966)

MS = log (A/T) + 1.66 log D + 3.3 (70)

onde A é a amplitude máxima das ondas de superfície num aparelho vertical, em µ, T


é o período em segundos, de tal modo que 18 ≤ T ≤ 22, e D é a distância em graus
entre a estação e o foco, de tal modo que 20º ≤ D ≤ 160º. Geralmente só se calcula
para sismos superficiais.
• Magnitude das ondas de volume, definida por Gutenberg e Richter (1956),

243
mb = log (A/T) + Q(D,h) (71)

onde 0.1 ≤ T ≤ 3. Os valores de Q, função da distância D e da profundidade h são


tabelados.
• Magnitude do momento, definida por Hanks e Kanamori (1979),

M = (2/3) log M0 – 10.7 (72)

onde M0 é o momento sísmico, expresso em din.cm ou 10-7N.m, que é o produto da


área de ruptura da falha que originou o sismo pelo deslizamento médio das falhas na
área de ocorrência pelo módulo de cisalhamento das rochas fracturadas.

4.4.5.1. Magnitude e energia libertada.


O próprio Richter tentou correlacionar a magnitude local com a energia
libertada por um sismo. Esta relação varia de local para local, compreensivelmente,
mas Gutenberg e Richter (1956) prescrevem a seguinte expressão, que seria um valor
médio para a sismicidade mundial

log E = 9,15 + 2,15 M (73)

A relação não é seguramente linear, dado que a equação (73) produz valores
anormalmente baixos para sismos “fracos” e anormalmente altos para sismos “fortes”.

4.4.5.2. Microssismos: uma válvula de segurança?


Uma ideia muito popular é que numa região de elevada sismicidade com baixa
magnitude é menos provável a ocorrência de sismos destruidores. Os pequenos sismos
quase quotidianos funcionariam como válvula de segurança, libertando
paulatinamente as tensões acumuladas. Uma simples aplicação da equação (73) a um
catálogo sísmico mostra como este conceito é errado. De facto, para libertar a mesma
energia que um sismo de magnitude 6 seriam necessários 108 sismos de magnitude 2.
Ver-se-á adiante, ao estudar a sismicidade, que esta relação não se verifica na
natureza.
Mas há outras razões para o mecanismo de válvula de segurança não
funcionar, nomeadamente por se saber hoje que os sismos de grande magnitude e os
de pequena magnitude não são produzidos nas mesmas falhas.

244
4.5. Mecanismos focais.
Um dos principais motivos para as actuais expansão e simultânea densificação
das redes de estações sísmicas é a necessidade de conhecer os mecanismos focais, ou
seja, a mecânica que está na origem dos sismos.
Como se viu atrás, é possível identificar no sismograma se a primeira fase é
compressiva ou expansiva. Tendo essa informação para várias estações (quantas mais,
melhor) faz-se a projecção estereográfica dos pólos dos vectores compressão ou
tracção, para cada estação, que se separam graficamente por dois planos que
delimitam os sectores correspondentes a tracção e compressão. Um desses planos é a
projecção estereográfica do plano da falha onde o sismo se originou. O gráfico
resultante tem o nome comum de “bola de praia” (figura 4.26).

Figura 4.26 – Mecanismos focais e “bolas de praia” (adap. USGS).

245
4.6. Sismicidade.
Chama-se sismicidade de uma região à distribuição no espaço e no tempo das
magnitudes dos sismos que nela ocorrem. O estudo da sismicidade pode ser feito a
várias escalas, desde a de uma falha à do Globo, e as primeiras análises remontam a
meados do séc. XIX, ainda antes da sismologia instrumental, baseando-se, portanto,
nos relatos de efeitos macrossísmicos (figura 4.27).

Figura 4.27 – Mapa da sismicidade mundial (Mallet, 1858).

É evidente a importância do estudo da sismicidade para áreas socialmente tão


sensíveis como a prevenção sísmica e a própria previsão – aspectos que serão
abordados mais tarde.

4.6.1. Sismicidade histórica.


Como é evidente, os únicos dados disponíveis sobre a sismicidade antes da
divulgação dos sismógrafos, referem-se aos efeitos macrossísmicos. Estes dados são
recolhidos por equipas multidisciplinares, que incluem historiadores, paleógrafos,
geógrafos, geólogos e, claro, sismólogos. Uma análise da sismicidade na Península
Ibérica desde o séc XIV é instrutiva (figura 4.28).

246
Figura 4.28 – Sismicidade na Península Ibérica, sécs. XIV-XX. Cruzes: eventos. Linha: médias
móveis a 10 eventos.

Superficialmente, poderia parecer que o número de eventos por unidade de


tempo foi aumentando ao longo dos séculos e que, além disso, a intensidade desses
eventos foi diminuindo. Estas conclusões seriam obviamente falsas. Recorde-se que a
intensidade sísmica é um parâmetro semi-quantitativo que mede os efeitos dos sismos
sobre o Homem e que, por isso, está fortemente ligado à qualidade da construção, que
tem vindo sempre a melhorar. Além disso, o interesse científico pelos sismos tambem
tem aumentado sempre: enquanto que no séc. XIV só se registavam os grandes
eventos, aqueles que provocavam muita destruição e, em particular, muitas mortes,
hoje registam-se “todos” os eventos. Esta evolução na análise científica dos sismos
está bem patente na figura 1, onde se podem ver claramente três descontinuidades:
• em 1755, o sismo de Lisboa deu origem ao nascimento da sismologia
como ciência observacional;
• em 1900 iniciou-se a sismologia instrumental;
• em 1945, com o fim da Segunda Guerra Mundial e o início da Guerra Fria,
criaram-se as redes mundiais de estações sísmicas.

4.6.2. A relação de Gutenberg-Richter entre magnitude e frequência.


Desde sempre que se conhece empiricamente que os sismos “fortes” são mais
espaçados no tempo que os sismos “fracos”.
Esta relação foi quantificada pela primeira vez por Gutenberg e Richter (1954)
na seguinte forma:

log N = a + b M (4.74)

247
em que N é o número de sismos de magnitude maior que um dado M, e a e b são
constantes características para cada região – as constantes que definem a sismicidade.
Os próprios Gutenberg e Richter encontraram para a sismicidade da Terra
valores de a e b de 7.41 e –0.90, respectivamente.
Tabela 4.3 – Sismicidade na Terra entre 1900 e 2000 (dados NEIC, 2002)

Descrição* Magnitude Média Anual


Grande 8 e mais alto 1
Maior 7 - 7.9 18
Forte 6 - 6.9 120
Moderado 5 - 5.9 800
Fraco 4 - 4.9 6,200 (estimado)
Menor 3 - 3.9 49,000 (estimado)
Muito Menor < 3.0 Magnitude 2 - 3: cerca de1000 por dia
Magnitude 1 - 2: cerca de 8000 por dia
* Estas descrições são tradução dos termos ingleses; não se usam habitualmente em Portugal.
Se fizermos a regressão linear destes valores, obtemos o gráfico da figura 4.29
com valores de a e b de, respectivamente, 7.47 e –0.91, não significativamente
diferentes dos obtidos por Gutenberg e Richter em 1954.

7.0
log (N) = -0.906 M + 7.470
6.0 R2 = 0.997

5.0

4.0
log (N)

3.0

2.0

1.0

0.0
0 2 4 6 8
M

Figura 4.29 – Relação de Gutenberg-Richter para a sismicidade da Terra entre 1900 e 2000.

4.6.3. Terminologia.
Na análise de um catálogo sísmico de uma região, é fácil notar que os eventos
não se encontram igualmente espaçados no tempo. Há períodos onde praticamente
não se encontram sismos – pausas ou quiescências – e outros períodos onde ocorre
um grande número de sismos – enxames sísmicos.

248
Contudo, em qualquer região há um “fundo” de simos de fraquíssima
magnitude, geralmente da ordem de 1.0 ou menos, a micro-sismicidade, quase
sempre presente.
É habitual observar-se que a ocorrência de um sismo “forte” é precedida por
um grande número de sismos “fracos” e por isso estes costumam ser designados como
precursores.
Por outro lado, também é frequente que um sismo “forte” seja sucedido por
outros sismos, tanto ou mais fortes que o inicial. Estes, se originados na mesma
estrutura tectónica, tomam o nome de réplicas.

4.6.4. Modelos da sismicidade. Modelos estocásticos.


Como é habitual, procurou-se compreender a sismicidade pela sua modelação.
A própria relação de Gutenberg e Richter pode ser encarada como um modelo da
sismicidade. Não é, contudo, um modelo operacional – é meramente descritivo.
Ver-se-á adiante, quando se tratar da previsão sísmica, que a relação de Gutenberg e
Richter é usada na previsão probabilística da sismicidade, assumindo que esta segue
uma distribuição de Poisson. Os modelos estocásticos apresentam, contudo, vários
problemas:
• Assumem que os acontecimentos são independentes o que, neste caso, é
obviamente falso.
• São “aposteriorísticos”: cada vez que há um novo sismo a estatística tem
que ser recalculada e apresenta sempre novos parâmetros.
• Não têm qualquer relação física com o fenómeno que modelam.

4.6.5. Modelos determinísticos.


4.6.5.1. O ressalto elástico.
Ignora-se geralmente que até aos finais do séc. XIX se supunha que os sismos
seriam originados por um processo afim da isostasia, em que a gravidade teria o papel
mais importante.
Foi John Milne (cit. Richter, 1958), ao discutir um grande sismo ocorrido no
Japão em 1891, o primeiro a reconhecer a possibilidade de serem os movimentos nas
falhas a causa dos sismos.
O primeiro autor a fornecer um modelo físico, qualitativo, para a ocorrência de
um sismo foi H. F. Reid, ao analisar o grande sismo da Califórnia de 1906. A hipótese
que formulou tem o nome de modelo do ressalto elástico (Reid, 1910).
Reid reconheceu que a fonte de energia dos sismos é a acumulação de energia
potencial elástica nas rochas durante um longo e lento crescimento da deformação.
Quando as tensões elásticas se acumulam para além da competência das rochas
produz-se uma fractura; os blocos deformados elasticamente de um e outro lado da
fractura regressam bruscamente a um estado de equilíbrio com produção de um sismo.
A figura 4.30 ilustra este processo.

249
Figura 4.30 – Ressalto elástico. A: sem deformação; B: com deformação; C: libertação da
energia acumulada e ressalto elástico.

A hipótese de Reid é um modelo físico simples, determinístico. Embora na sua


formulação inicial fosse apenas qualitativa, a sua quantificação não apresentaria
problemas de maior e a iteração do processo representado na figura 24 seria um
modelo da sismicidade.

4.6.5.2. Modelo de blocos deslizantes.


Para obter a iteração do modelo do ressalto elástico, vamos recorrer a um
modelo físico ainda mais simples, que é ilustrado na figura 4.31.
Neste modelo, devido a Burridge e Knopoff (1967), o bloco m desliza ao
longo de uma superfície com um atrito de contacto Fs. A mola, de constante elástica k,
é puxada com uma velocidade constante v. Quando começa o movimento o
comprimento da mola, y, vai aumentando até que se atinja uma força igual ao atrito; o
aumento de y equivale ao aumento da tensão elástica numa falha. Quando a força
ultrapassa o atrito o bloco “solta-se” e movimenta-se até se atingir nova posição de
equilíbrio – dá-se um sismo.
O problema com este modelo é que é linear, ao contrário da sismicidade.

Figura 4.31 – Modelo de um bloco deslizante para o ressalto elástico.

Vejamos o que acontece se acoplarmos dois blocos, da maneira ilustrada na


figura 4.32.

250
Figura 4.32 – Modelo de dois blocos acoplados.

Como seria de esperar, dado termos aqui um sistema de dois osciladores


acoplados, com diferentes períodos, o comportamento deste sistema é caótico, o que
está claramente ilustrado na figura 4.33.

Figura 4.33 – Atractor caótico no movimento de dois blocos acoplados.

4.6.5.3. Modelo conexionista.


É possível modelar a sismicidade de uma forma simultaneamente mais simples
e mais realista. Repare-se que os modelos anteriores postulam pelo menos duas
condições que não se verificam na tectónica “real”:
1. O atrito numa falha não é constante ao longo do tempo: depois do ressalto há
rearranjos texturais e estruturais na caixa de falha que implicam necessariamente
uma variação no atrito.

251
2. Os modelos de blocos deslizantes não simulam as condições devidas à dimensão
das falhas: é sabido que o maior sismo possível numa falha (sismo característico
– Ribeiro, 1997) é directamente proporcional à dimensão desta.
Um modelo recente (Alves, 1995) procura responder a estas objecções.
Este modelo baseia-se nas seguintes permissas:
1. Dado um bloco crustal fracturado, assume-se que a maior parte da deformação
decorre de movimentos ao longo do plano de falha.
2. Assume-se que esses movimentos são condicionados apenas por duas forças que
interagem: a tensão σ e o atrito ρn.
3. O atrito em cada falha é aleatório: para além da componente do atrito que é
directamente proporcional à tensão, há outra componente que pode ser medida
mas não prevista.

Figura 4.34 – Um sistema simples de falhas sujeitas a tensão.


A figura 4.34 ilustra estas assumpções e algumas consequências delas.
O bloco crustal é dividido por duas falhas F1 e F2 em três blocos, A, B e C
que, sob a acção da tensão σ, podem deslizar com atritos ρ1 e ρ2, de tal modo que
ρ1>ρ2.
Note-se agora que, para haver movimento na falha F2, e consequente
movimento do bloco B, não basta que seja ultrapassado o atrito ρ2: se a distância entre
as falhas for suficientemente pequena para desprezar a deformação elástica, tem que
se ultrapassar o maior atrito, ρ1.
Espera-se, portanto, que a influência de ρ1 no comportamento de F2 seja uma
proporcionalidade inversa da distância entre as falhas.
A generalização destes conceitos a um conjunto arbitrário de falhas e a
iteração do processo produz sequências caóticas com valores de a e b da equação de
Gutenberg-Richter (4.74) de 7.38 e –0.99, muito próximos dos valores para a
sismicidade global que são, recorde-se, 7.41 e –0.90.
Demonstra-se que este modelo é equivalente a uma rede neuronal do tipo das
redes de Hopfield. Aprofundar-se-ão mais adiante as implicações desse facto.

252
4.6.5.4. Caos forte e caos fraco: criticalidade auto-organizada e
aleatoriedade.
A análise de sequências de sismos revela que a sismicidade não é um processo
determinístico mas também não é puramente aleatório.
Uma ferramenta que tem sido usada recentemente para caracterizar este tipo
de sequências – sequências caóticas – é a análise fractal (veja-se, por exemplo,
Turcotte, 1993). Uma sequência temporal para um parâmetro, a magnitude sísmica,
por exemplo, deverá possuir uma dimensão fractal D, entre 1 (determinística) e 2
(aleatória). E é o que de facto se verifica: na maioria dos casos a dimensão fractal da
sismicidade é da ordem de 1,9. Mas acontece que há processos puramente
determinísticos que podem gerar sequências de aparência aleatória, como por exemplo
a iteração do mapa logístico.
Mais recentemente desenvolveu-se outra família de modelos. Estes já não são
puramente determinísticos (também chamados de caos forte) mas incluem uma
componente aleatória (caos fraco), e assumem que a crosta terrestre se encontra num
estado definido como de criticalidade auto-organizada (Bak e Tang, 1989). O
exemplo mais comum que se dá para ilustrar este estado é o de um monte de areia. Se
adicionarmos areia a um monte este aumenta em altura até que se atinge um ângulo
crítico de estabilidade. Nesse estado, se se juntar mais areia esta não se limita a
deslizar pelas encostas: desencadeia avalanches a todas as escalas.
Um modelo matemático para os sistemas com criticalidade auto-organizada é
o autómato celular (figura 4.35).

Figura 4.35 – Um autómato celular.

Os autómatos que aqui se apresentam consistem em matrizes quadradas de


‘células’. Cada célula pode conter inicialmente um número escolhido ao acaso entre 0
e 4 ‘partículas’. Se uma célula contiver 4 partículas torna-se instável, e as 4 partículas
são distribuídas pelas células adjacentes da seguinte forma: uma célula central dá uma

253
partícula a cada uma das células que lhe são adjacentes, na vertical e na horizontal, e
cada uma destas células aumenta em uma o seu número de partículas; as células dos
bordos (primeira e última linhas e colunas) só têm três células adjacentes pelo que
cada uma destas recebe uma partícula e a quarta partícula é perdida; as quatro células
dos cantos (intersecções das primeira e última linhas e colunas) só têm duas células
adjacentes, pelo que cada uma destas recebe uma partícula e duas partículas são
perdidas.
Quando se faz a distribuição inicial de partículas é possível que uma ou mais
células fiquem com quatro ou mais partículas, o que desencadeia novas
redistribuições. Chega um momento em que o autómato estabiliza pois todas as suas
células possuem três partículas, ou menos. Nesse momento, adiciona-se uma partícula
a uma célula escolhida ao acaso. Se essa célula ainda contiver menos de quatro
partículas adiciona-se outra partícula ao acaso até que se inicie outro processo de
redistribuição. Note-se como a vida de um autómato celular possui componentes
determinísticas e aleatórias bem definidas.
Devem-se fazer várias observações sobre este modelo celular. Em primeiro
lugar, é o modelo mais simples que se pode usar, o que poderia fazer recear pelo seu
realismo. Ver-se-á adiante, contudo, que simula a sismicidade bastante bem. Por outro
lado, como podemos tornar este modelo significativo em termos de magnitudes e
pausas sísmicas? O processo de redistribuição de partículas pode ser visto em paralelo
com o processo de redistribuição de deformação entre elementos tectónicos. Da
mesma forma, podemos ver a adição de partículas a uma célula como o aumento de
tensão. A perda das partículas em excesso pelos lados e cantos do autómato pode ser
relacionada com a libertação de energia potencial elástica acumulada – um sismo.
Para obter sequências que pudessem ser comparadas com a sismicidade
natural, o número total de partículas perdidas durante uma redistribuição toma-se
como sendo proporcional a uma magnitude. Eventos que sucedem entre a adição de
uma partícula ao acaso e a estabilização, consideram-se como tendo ocorrido durante
um mesmo “dia”, de tal maneira que, tal como nas sequências naturais, há vários
“dias” em que nada acontece e vários “dias” com mais que um evento.
As sequências geradas por autómatos celulares também exibem os mesmos
parâmetros estatísticos e dimensões fractais comparáveis com a sismicidade natural.
Agora, a questão óbvia é a seguinte: qual destes tipos de modelos, fortes ou
fracos, representa com mais realismo a sismicidade natural? E esta questão não é
puramente académica: se a sismicidade for um processo determinístico não-periódico
(caos forte) a crosta terrestre encontra-se a maior parte do tempo num estado próximo
da estabilidade e as tensões e deformações tectónicas são de curto alcance. Por outro
lado, se a sismicidade for um processo com criticalidade auto-organizada (caos fraco),
a crosta encontra-se a maior parte do tempo num estado crítico e a tectónica deverá
ser um processo de longo alcance – talvez mesmo à escala global.
Infelizmente, a análise fractal não basta para resolver esta indeterminação pois
as dimensões fractais de ambos os processos são muito próximas.
Vamos tentar aumentar a resolução entre modelos de caos forte e fraco e
verificar qual deles se aproxima mais da sismicidade natural. A ferramenta que se
usará é a aleatoriedade (Alves, 1997).
Como Chaitin (1996) faz notar, podemos definir o que é uma sequência
aleatória e podemos medir um grau de aleatoriedade mas não podemos demonstrar se

254
uma dada sequência é ou não aleatória. Se tivermos uma sequência de zeros e uns
como

0101010101010101

podemos dizer imediatamente que esta não é aleatória. De facto, podemos formular
uma regra simples para a sua produção, do tipo “escreva-se 01 oito vezes de seguida”.
Além disso, podemos prever facilmente que o próximo algarismo na sequência será
um zero. Por outro lado, não se pode dizer se uma sequência como

1100010110001001

é ou não aleatória. Não temos nenhuma maneira de formular uma regra de produção
única e simples e não podemos prever qual seria o próximo algarismo.
Há, todavia, uma definição algorítmica de aleatoriedade: uma sequência é
aleatória quando o menor algoritmo para a sua produção tem o mesmo número de bits
que a própria sequência (Chaitin, 1974). (Reconhecer-se-á aqui a proximidade entre o
conceito de aleatoriedade e o conceito de quantidade de informação.)
Para pôr esta questão em termos simples, se quiséssemos estender a 1ª
sequência até dois milhões de algarismos bastar-nos-ia dizer “escreva-se 01 um
milhão de vezes” enquanto que para representar uma sequência como a 2ª, com dois
milhões de algarismos, provavelmente teríamos que os escrever todos...

0.5

0.4 a

0.3
R

0.2

c
0.1

b
0.0
0.5 1.0 1.5 2.0 2.5 3.0
D
periódica sismicidade mapa logístico ruído autómatos

Figura 4.36 – Dimensão fractal D ‘versus’ aleatoriedade R. Linha a: grupo do caos forte. Linha
b: grupo periódico. Linha c: grupo dissipativo.

255
As técnicas de compressão de dados baseiam-se nestes conceitos. Existem
vários algoritmos que procuram substituir qualquer sequência repetitiva de bits pela
sua regra de produção, muito mais curta, sem perdas de informação. Espera-se que a
relação entre o número de bits na sequência comprimida e o número de bits na
sequência original seja muito menor no caso de uma sucessão de pares (01) que no
caso de uma sucessão de lançamentos de uma moeda. Esta relação poderá ser
encarada, portanto, como uma medida da aleatoriedade.
Seja a o número de bits numa sequência de algarismos e b o número de bits na
sequência comprimida. Então

R=b/a (4.75)
e R pode ser chamado grau de aleatoriedade da sequência original. R poderá, em
princípio, assumir valores no intervalo contínuo ]0, 1]. O cálculo de R, na prática, não
é assim tão simples. Em primeiro lugar, porque os resultados dependerão
provavelmente do algoritmo de compressão que se usar.
Além disso, alguns algoritmos (aqueles que produzem maiores compressões)
não asseguram a integridade dos dados pelo que, obviamente, não nos serão úteis.
A análise da figura 4.36 parece indicar que os autómatos celulares são um
modelo melhor para a sismicidade que os modelos caóticos puramente deterministas.
Será que isto implica que o todo da crosta terrestre se encontra num estado de
criticalidade auto-organizada ou que, como Turcotte (1993) refere, “an earthquake on
one part of the planet, say Mexico, can trigger an earthquake at a large distance, say
Japan”? Não necessariamente. Isto significa, isso sim, que o estado crítico existe, pelo
menos à escala local ou regional, e que isso deverá ser tido em conta quando se fazem
projectos de engenharia que possam vir a afectar o estado local de tensão. Significa
também que será preciso desenvolver estes estudos, principalmente segundo duas
linhas: uma análise da sismicidade à escala global e o desenvolvimento de modelos
mais sofisticados, que incluirão necessariamente as três dimensões espaciais.

4.7. Prevenção e previsão sísmica.


4.7.1. Intensidade sísmica
Não devemos esquecer que a sismologia nasceu da observação dos efeitos
catastróficos dos sismos nas propriedades e nas vidas humanas – os chamados efeitos
macrossísmicos. Muito antes de haver dados instrumentais, já existiam relatos
daqueles efeitos; aliás, o primeiro sismo a despertar uma genuína curiosidade
científica e a desencadear um imenso volume de trabalhos quer na descrição dos
efeitos quer nas tentativas de explicação foi o grande sismo de Lisboa de 1755,
embora já sejam conhecidos relatos de sismos destruidores na Península Ibérica desde
o ano 35.
A necessidade de sistematizar a descrição dos efeitos macrossísmicos levou à
criação de várias escalas de intensidade sísmica, como as de Mercalli, de doze graus,
e de Rossi-Forelli, de dez, das quais a mais usada ainda hoje é a de Mercalli, criada
em 1902 e depois sucessivamente revista e actualizada.

256
4.7.1.1. ESCALA MODIFICADA DE MERCALLI
I. Não sentido.
II. Sentido apenas por pessoas em repouso, em andares altos.
III. Sentido na maioria das habitações. Objectos pendurados abanam. As vibrações
assemelham-se às provocadas pela passagem de viaturas nas proximidades.
IV. Objectos pendurados abanam. As vibrações assemelham-se às provocadas pela
passagem de camiões pesados. Sente-se no interior de viaturas paradas. Ouve-se tilintar a louça nos
armários. Portas e janelas abanam. Pode-se chegar a ouvir estalar a construção em madeira.
V. Sentido por pessoas nas ruas. Consegue-se estimar a direcção de propagação das
ondas. Acordam pessoas que dormiam. Torna-se difícil andar sem vacilar. Objectos pequenos e
instáveis deslocam-se, e podem mesmo cair e partir-se. Portas e janelas abrem e fecham. Relógios de
pêndulo param, começam a trabalhar, atrasam-se ou adiantam-se.
VI. Sentido por toda a gente. Começa a gerar-se alarme. Anda-se com muita insegurança.
Janelas, louças, vidros são partidos. Livros caem das prateleiras e quadros das paredes. Mobílias são
deslocadas ou mesmo viradas. Tocam alguns sinos pequenos. Árvores e arbustos abanam - podem ver-
se ou, pelo menos, ouvir-se. O estuque e a alvenaria de pior qualidade fendem.
VII. É difícil manter-se de pé. Sentido no interior de viaturas em andamento. Há mobílias
partidas. Chaminés fracas são partidas pela linha do telhado. Danos negligenciáveis em edifícios
modernos, de boa construção, danos consideráveis na alvenaria de pior qualidade. Há queda de telhas,
mosaicos de revestimento, cornijas altas. Formam-se ondas em tanques e lagos, e a água turva. Tocam
sinos grandes. Valas de irrigação em betão são danificadas.
VIII. Alarme generalizado, a raiar o pânico. É difícil conduzir viaturas. As árvores abanam
fortemente e podem cair ramos. Há danos ligeiros nas boas construções anti-sísmicas, mas danos
consideráveis nas outras construções. Queda de paredes, chaminés, monumentos. Nota-se a mudança
do fluxo e da temperatura em fontes e poços. Formam-se fendas em solos húmidos e em taludes
íngremes.
IX. O pânico é geral. Os solos são profusamente fracturados. Há danos graves em
reservatórios de água e mesmo na alvenaria de boa qualidade. As tubagens subterrâneas são
danificadas. Em zonas aluvionares há ejecção de areias e lamas e formação de nascentes esporádicas
(earthquake fountains).
X. São destruídas a maioria das construções de alvenaria, e mesmo pontes de construção
anti-sísmica. Danos consideráveis em barragens e diques. Grandes deslizamentos de terras. Carris de
ferro são ligeiramente dobrados.
XI. Carris severamente dobrados. Oleodutos e gasodutos subterrâneos completamente
fora de serviço.
XII. Destruição quase total das construções humanas.

Não será demais insistir nas diferenças entre os conceitos de magnitude e


intensidade:
• A magnitude é uma medida de natureza instrumental, é teoricamente
invariante para um dado sismo (independente da distância ao epicentro) e
expressa-se em escalas logarítmicas abertas.
• A intensidade é uma medida dos efeitos macrossísmicos, para um dado
sismo diminui com a distância epicentral e expressa-se em escalas
qualitativas (é esse o motivo porque se usa a numeração romana).

257
4.7.1.2. Cartas de isossistas.
O estudo de inquéritos realizados às populações que sofreram um sismo
permite construir cartas de isossistas – linhas de igual intensidade (figura 4.37).

Figura 4.37 - Carta de isossistas para o sismo de Los Angeles, 94.01.17

4.7.1.3. Relações entre intensidade e energia libertada.


O facto da intensidade sísmica ser uma medida essencialmente qualitativa, não
impediu que se procurasse encontrar as suas relações com a magnitude e a energia
libertada por um sismo. Assim, Shebalin (1955) citado por Richter (1958), encontrou
as seguintes relações ao estudar catálogos sísmicos da então URSS até à década de
‘50:

0.9 log E – I = 3.8 log h – 3.3 (h<70Km)

0.9 log E – I = 3.1 log h – 4.3 (h>80Km) (4.76)


onde E é a energia libertada, I a intensidade e h a profundidade do foco.
Note-se que o conhecimento de relações deste tipo é da maior importância
quando se pretende recuar o estudo da sismicidade até tempos pré-instrumentais.

258
4.7.2. Prevenção: Engenharia Sísmica.
A Engenharia Sísmica é uma área interdisciplinar onde se encontram a
Geofísica e a Engenharia Civil. O seu objectivo é minimizar os efeitos dos sismos
sobre as construções.
A Engenharia Sísmica teve o seu início em Portugal após o sismo de 1755: na
reconstrução de Lisboa foram utilizados sistemas estruturais que procuravam
assegurar alguma segurança em relação às acções sísmicas, nos edifícios da Baixa
Pombalina.
É hoje universalmente reconhecido que as formas mais acessíveis ao Homem
para minimizar os efeitos devastadores do fenómeno sísmico são a Engenharia
Sísmica e a Protecção Civil.

4.7.3. A previsão de efeitos.


Uma tarefa importante em que a Engenharia Sísmica e a Protecção Civil unem
os seus esforços é na elaboração de cartas de risco sísmico.
Estas assumem normalmente a forma de cartas de isossistas previsíveis para
um sismo postulado. Com base na sua análise, é possível prever os efeitos sobre o
património construído e mesmo as perdas em vidas humanas no caso de ocorrer um
sismo de uma dada magnitude, num dado local, a uma dada hora.

4.7.4. Previsão sísmica.


A previsão de efeitos é talvez a mais útil e, simultaneamente, a menos
conhecida faceta daquilo a que se chama, em termos gerais, previsão sísmica.

4.7.4.1. Introdução.
A previsão sísmica tem sido uma das preocupações não só dos sismólogos mas
também da chamada "sociedade civil", corporizada, por exemplo, nas seguradoras,
nos organismos de Protecção Civil e até no Cidadão em geral. São bem conhecidos os
relatos de previsões de curto prazo baseadas no comportamento de animais. Este
campo também tem sido fértil para o aproveitamento de charlatães de toda a espécie,
desde astrólogos a outros pseudo-cientistas.
Actualmente, a maior parte da investigação nesta área é feita nos E.U.A,
Rússia, Japão e China, com bons resultados que se resumirão neste capítulo.
Um aspecto não desprezável desta área de investigação é o social. Na verdade,
alguns autores (PRESS, 1980) mencionam que os efeitos secundários da errada
divulgação de uma previsão poderiam ser piores que os benefícios dela advenientes.
Imagina-se facilmente que o pânico provocado pelo inoportuno anúncio público de
um sismo de alguma intensidade poderia provocar maiores perdas materiais e
humanas que as consequências do próprio sismo. Penso contudo que, tal como a
maior parte dos problemas éticos na investigação científica, este não deve ser um
factor limitador da própria investigação.
RIKITAKE (1976), debruça-se sobre este aspecto e cita dois casos
paradigmáticos. Aquando da ocorrência de um enorme enxame sísmico entre os anos

259
de 1965 e 1967, na área de Matsushiro, Japão, em que chegaram a ocorrer mais de
600 abalos num dia, fizeram-se vários avisos à população de ocorrências
potencialmente destruidoras, com uma margem de erro da ordem de um mês. Estes
avisos foram, na sua maioria, ignorados. O mesmo autor cita ainda os avisos feitos em
1974 pelo U. S. G. S. da provável ocorrência de um abalo de magnitude Richter M ≥ 4
na localidade de Hollister, Califórnia. Desde então, e dado que esse sismo não
ocorreu, os organismos oficiais norte-americanos têm evitado divulgar previsões.
O mesmo autor (RIKITAKE, 1976) propõe ainda a elaboração urgente de um
estudo interdisciplinar sobre "previsão sísmica e reacção pública". Caso este estudo
tenha sido feito, o que penso não ter acontecido, as suas conclusões não tiveram a
divulgação que mereciam.
Dois grandes grupos de métodos têm sido seguidos para abordar o problema
da previsão sísmica:
a. Métodos físicos. Pressupõem que o objectivo da previsão só poderá ser
atingido pelo conhecimento profundo dos mecanismos físicos de desencadeamento de
sismos. Identificaram-se, assim, vários processos que, na sua maioria, são sinais da
acumulação de tensões que precede um sismo de forte magnitude.
b. Métodos numéricos. Pressupõem que uma sequência temporal de
ocorrências sísmicas contém em si informação suficiente para permitir a identificação
de períodos de recorrência (tempos médios entre ocorrências consecutivas de sismos
de uma dada magnitude).

4.7.4.2. Métodos físicos.


4.7.4.2.1. Variação na relação vP/vS
Trabalhos efectuados no Instituto de Física da Terra, em Moscovo, chamaram
a atenção para as variações na relação entre as velocidades das ondas compressivas,
longitudinais ou primárias (vP) e das ondas de cisalhamento, transversais ou
secundárias (vS) versus intervalos de acalmia.
A figura 4.38 e a figura 4.39, extraídas de SADOVSKI et al. (1972), ilustram
este efeito.
Foram projectados pontos correspondentes ao desvio da relação vP/vS dos
valores médios para a região de Garm, Tadjiquistão, de todos os sismos registados nos
meses vizinhos de dois sismos de magnitudes respectivamente 5,4 e 4.
Os autores observaram que a duração do período em que o abaixamento dos
valores de vP/vS era sensível, era proporcional à magnitude do sismo seguinte.
Este efeito está relacionado com a variação das propriedades físicas de um
maciço rochoso fracturado (nomeadamente a sua condutividade para as ondas
sísmicas), à medida que aumenta a grandeza do campo de tensões que precede um
sismo.
Resultados deste tipo, embora não sejam sempre observados, foram-no já
várias vezes quer na Rússia quer nos E.U.A quer na China.

260
Figura 3.1
Variaçoes em vP/Vs

(5,4)
0,08

0,06

0,04

0,02

-0,02

-0,04

-0,06

-0,08

-0,1

-0,12
0 2 4 6 8 10 12

tempo (meses)

vP/vS sismo (magnitude)

Figura 4.38 - Variação na relação vP/vS em sismos precursores de um sismo de magnitude 5,4 na
região de Garm, Tadjiquistão, em 1971.

Figura 3.2
Variações em vP/vS

(4)
0,08

0,06

0,04

0,02

-0,02

-0,04

-0,06

-0,08

-0,1

-0,12
0 2 4 6 8 10 12

Tempo (meses)

vP/vS sismo (magnitude)

Figura 4.39 - Variação na relação vP/vS em sismos precursores de um sismo de magnitude 4 na


região de Garm, Tadjiquistão, em 1971.

4.7.4.2.2. Medições de Rn
Outra técnica de previsão sísmica consiste em seguir as variações da
quantidade de radão dissolvido na água de poços profundos. O processo utilizado é
indirecto pois consiste em extrapolar os teores de Rn (da ordem de algumas ppb -
partes por bilião) a partir da emissão alfa medida em amostras de água.

261
(5,3)

16

14

12

10

anos

Figura 4.40 - Variação das emissões de Rn precursoras de um sismo de magnitude 5,3 na região
de Tashkent, Rússia, no ano de 1966.
20 (4,0)

18

16

14

12

10

0
10 20 30 40 50 60 70 80 90 100
dias (1967)

Figura 4.41 - Variação das emissões de Rn precursoras de um sismo de magnitude 4 na região de


Tashkent, Rússia, no ano de 1967.

De facto, dado que o Rn é um gás nobre (elemento não-reactivo quimicamente


uma vez que os seus níveis electrónicos periféricos são estáveis por estarem
completamente preenchidos) a sua determinação por métodos químicos directos não é
possível. Por outro lado, os seus baixíssimos teores em águas naturais não tornam
viável a determinação por outras técnicas, como a espectrometria de massa.
SADOVSKY et al. (1972), no Tashkent, Rússia, verificaram que
imediatamente antes de um abalo se dá um aumento da emissão de radiação seguida
de uma brusca queda logo após o sismo.
Verifica-se também que aparentemente existe uma correlação negativa entre a
velocidade do aumento das emissões de radiação e a magnitude do próximo sismo, ou
seja, a um aumento gradual, que se estende por um período da ordem dos anos segue-
se um sismo de forte magnitude, e a um aumento brusco, que se estende por um
período da ordem dos meses, segue-se um sismo de mais fraca magnitude. Ainda não

262
se encontrou, contudo, uma relação quantitativa bem definida entre taxa de aumento
nas emissões e as magnitudes sísmicas.
Estes factos estão ilustrados nas figuras 4.40 e 4.41, também extraídas de
SADOVSKY et al. (1972).

4.7.4.2.3. Resistividades eléctricas.


Estudos também do Instituto de Física da Terra de Moscovo efectuados no
Tadjiquistão, mostraram que se verificam variações da resistividade eléctrica da
crosta, que se podem considerar premonitórias de acidentes sísmicos (SADOVSKY et
al., 1972).
Estas observações foram realizadas simplesmente enterrando eléctrodos de
ambos os lados de uma fractura sismicamente activa, fazendo passar entre eles uma
corrente de intensidade conhecida, fixa, e registando as variações nas diferenças de
potencial eléctrico ao longo do tempo.

115

110 4,0 6,0 4,7 4,0

105

100

95

90

85

80 1967 1968 1969 1970

75
1 6 11 16 21 26 31 36 41 45

meses
Figura 4.42 - Variações na resistividade eléctrica numa das zonas epicentrais da região de Garm,
Tadjiquistão, entre 1967 e 1970. Valores (4,0; 6,0; 4,7; 4,0) de magnitudes de sismos observados
nos tempos apontados pelas setas.

Neste caso, é a uma descida da resistividade que se seguem abalos, mas é


menos clara a relação entre a grandeza ou período da descida e a magnitude do sismo
subsequente, o que pode ser observado na figura 4.42.
Nota-se, no entanto, que os sismos mais intensos (magnitudes assinaladas nas
setas do gráfico) se seguem sempre a mínimos locais nos gráficos de variação.

4.7.4.2.4. Técnicas geodésicas.


Quer no Japão (KANAMORI, 1972), quer nos E.U.A (PRESS, 1980), cedo foi
identificada uma correlação entre o valor da inclinação crustal ou a sua direcção e a
ocorrência de sismos.

263
Este parâmetro, a inclinação crustal, pode ser definido como o maior ângulo
que pode ser medido entre o plano horizontal e um plano de referência contido na
superfície topográfica e com ela solidário.
De facto, verificou-se, desde cedo, que em zonas de acumulação de tensões
tectónicas há uma variação angular na posição espacial das rochas que, embora
mínima (da ordem dos microrradianos), é mensurável.
5

4 3,3
3,0
3

-1

-2

-3

-4
4,3
-5
0 2 4 6 8 10 12 14 16 18
<- Oeste Este ->

Figura 4.43 - Registo de inclinações crustais medidas por um inclinómetro em Nutting, Colorado,
U.S.A., entre Junho de 1973 e Janeiro de 1974. Pontos assinalados com quadrados:
3,0 - sismo de magnitude 3,0 em 73.07.09, com epicentro a 4 Km SW do local de observação.
3,3 - sismo de magnitude 3,3 em 73.08.07, com epicentro a 9 Km W do local de observação.
4,3 - sismo de magnitude 4,3 em 74.01.14, com epicentro a 15 Km NW do local de observação.

Observações feitas entre Julho de 1973 e Março de 1974 (JOHNSTON e


MORTENSEN, 1974) em Nutting, 7 Km a sudoeste da Cidade de Hollister,
Califórnia, U.S.A., sobre a falha de Santo André, mostram claramente que cada
grande abalo é precedido por uma mudança na direcção da inclinação.
A figura 4.43 ilustra estes resultados.
Os autores referem que, desde que se fazem observações em contínuo até à
data do seu trabalho, não houve nenhuma variação sensível da tendência da inclinação
crustal, ou seja, uma nítida inflexão no declive da curva que representa essa variação,
que não fosse seguida por um sismo.

4.7.4.2.5. Outros métodos físicos.


Muitos outros métodos têm sido utilizados com vista à previsão sísmica, com
maior ou menor sucesso.
OSHIMAN, et al. (1991), observam variações do campo geomagnético que se
podem considerar precursoras de eventos sísmicos, na zona falhada do norte da
Anatólia. Estes autores verificaram que, naquele caso, em que se trata de um dique

264
mais fortemente ferromagnético que as rochas encaixantes, o campo geomagnético
local é incrementado pela acumulação de tensões pré-sísmicas.
Também o campo gravítico sofre variações sensíveis (no sentido em que
podem ser filtradas do natural ruído de fundo e das componentes conhecidas do
campo local, causadas pelas diferentes densidades dos corpos líticos subjacentes), que
podem ser consideradas precursoras de sismos fortes (LAMBERT et al., 1991).
A variação da pressão nos poros das rochas também é considerada precursora
de eventos sísmicos (KÜMPEL,1991). Este fenómeno está, aliás, provavelmente na
origem das variações de resistividade e dos teores de radão dissolvido na água de
poços profundos.
ALBARELLO, et al. (1991) fazem uma avaliação indirecta da pressão nos
poros através do estudo das variações do nível da água em poços, depois de filtrado, é
claro, o contributo da infiltração de águas pluviais. Estes autores analizaram dados
históricos italianos (desde 1873), que lhes permitem afirmar serem aquelas variações
precursores sísmicos.

4.7.4.2.6. Um modelo físico integrador: a dilatância-difusão.


O uso empírico de observações das variações de parâmetros físicos com vista
à previsão sísmica, não poderia satisfazer os sismólogos, se não existisse um modelo
físico que podesse explicar o conjunto dessas variações.
Esse modelo existe, tem o nome de modelo de dilatância-difusão (PRESS,
1980), e resulta de experiências laboratoriais.
É a seguinte a sequência de processos que o modelo descreve:
1. Aumento da deformação elástica na crosta.
2. Abertura de micro-fissuras. Este fenómeno provoca, ao mudar as
propriedades físicas da rocha: abaixamento da relação vP/vS; aumento da
resistividade eléctrica se a rocha estiver seca, ou sua diminuição se a rocha
contiver fluídos; aumento do fluxo de água, caso esta esteja disponível,
tendo como consequência uma migração do radão contido na rocha para a
água; aumento do volume da zona fissurada (dilatância); diminuição do
número de microssismos, dado que o aumento do número de fissuras faz
com que estas se tornem progressivamente sub-saturadas em água; esta
sub-saturação provoca um aumento do atrito e consequente inibição do
falhamento.
3. Difusão de água para a zona dilatante. As consequências desta terceira fase
são: aumento da relação vP/vS; aumento da pressão nos poros; diminuição
da resistividade eléctrica; "enfraquecimento" da rocha e diminuição do
atrito com consequente aumento no número de microssismos.
4. Ocorrência sísmica.
5. Diminuição na tensão e recuperação da maioria das propriedades originais
da rocha.

265
4.7.4.3. Métodos de análise de sequências temporais.
4.7.4.3.1. Previsão probabilística.
Desde cedo que se tentaram aplicar métodos estatísticos à previsão sísmica.
GUTENBERG e RICHTER (1954), como já se viu, identificaram aquela que ainda
hoje é considerada a relação fundamental da recorrência sísmica:

log N = a - b M, (4.74)
em que N é o número cumulado de sismos de magnitude maior ou igual a M, e a e b
são constantes dependentes da zona de observação.
Também tem sido observado que a distribuição temporal de frequências de
sismos segue aproximadamente uma lei de Poisson (vd., por exemplo, NISHENKO e
BOLLINGER, 1990) e é com base nesta lei de distribuição de frequências que são
feitas geralmente as previsões de risco sísmico.
Tipicamente, essas previsões são apresentadas em termos de probabilidade de
um sismo de magnitude maior ou igual a M ocorrer dentro de um intervalo de tempo
[t, t+∆t], e são consideradas apenas função de ∆t (a chamada "janela de exposição") e
de outro factor, T (o "tempo médio de recorrência").
Este factor, T, pode ser definido como o inverso do número de sismos por
unidade de tempo.
Se se assume que o número de eventos segue uma distribuição de Poisson, o
tempo entre eventos (pausa ou quiescência) segue uma lei exponencial, e a função de
distribuição de probabilidades f(t) para a ocorrência de um único sismo é

1 − t( T)
f (t) = e (4.77)
t

onde t é a pausa desde o último sismo e T, como já se disse, é o tempo médio de


recorrência.
Por outro lado, a distribuição de frequências cumuladas é

− t
F(t)= 1 − e T
(4.78)

Daqui decorre que a probabilidade P de ocorrência de um sismo de magnitude


M com tempo médio de recorrência T, numa janela temporal ∆t é dada por

∆t

P = 1− e T
(4.79)

266
Note-se que esta relação ilustra a propriedade das distribuições de Poisson
(como, aliás, todas as distribuições probabilísticas) não terem memória. As
probabilidades são apenas função de T e de ∆t: não de t.
Este é bem o paradigma clássico, que identifica as sequências sísmicas com
sequências estocásticas. Tentar-se-á demonstrar adiante que as sequências sísmicas
não são estocásticas mas sim determinísticas não-periódicas e que só um método de
previsão que tenha em conta esse facto pode conduzir a previsões mais rigorosas que
até aqui.

4.7.4.3.2. O método de Keilis-Borok.


Os métodos da escola russa de Keilis-Borok baseiam-se nas seguintes
características:
a. Níveis de actividade sísmica;
b. Variação temporal da sismicidade;
c. Concentração temporal dos sismos;
d. Concentração espacial dos sismos.
Com base nestas características, e na definição de um conjunto de intervalos
de trabalho para magnitudes, define-se um conjunto de 10 parâmetros (constantes,
variáveis e funções) que têm como componentes essenciais os números de sismos
ocorridos com aquelas magnitudes, em janelas temporais móveis.
Um tratamento maioritariamente quantitativo, mas parcialmente qualitativo
daqueles parâmetros permite a definição de TIP (time of increased probability) -
tempos de probabilidade aumentada - para ocorrências sísmicas.
O conceito de janelas temporais móveis é uma das principais diferenças em
relação aos métodos clássicos, e contribiu para introduzir uma componente dinâmica
no método, sem que este perca, todavia, as suas características essencialmente
estatísticas.
Outra diferença notável é a importância atribuída aos sismos que são
considerados como réplicas.

4.7.4.3.3. Previsão por simulação não-linear.


Uma tentativa mais recente de abordar a previsão sísmica com métodos
numéricos baseia-se na já referida capacidade das redes neuronais modelarem a
sismicidade (Alves, 1995).
Uma rede neuronal é um sistema distribuído de processamento em paralelo
que simula o comportamento do sistema nervoso animal.

267
A figura 4.44 ilustra o tipo de neurónio que tem sido usado neste método, o
perceptrão de Rosenblatt.

Figura 4.44 – O perceptrão de Rosenblatt.

A entrada (input) de um neurónio é a soma dos produtos das saídas das saídas
de outros neurónios pelos pesos das respectivas conexões. A saída (output) de um
neurónio é uma função daquela soma.

Figura 4.45 – Arquitectura de uma rede neuronal.

A rede neuronal completa é um conjunto de neurónios interligados de uma


forma a que se chama arquitectura da rede.
Tem sido usada uma arquitectura em três camadas – uma camada de entrada
(IL), uma camada intermédia (por vezes chamada camada escondida, HL) e uma
camada de saída (OL) – de tal modo que cada neurónio está ligado a todos os
neurónios das camadas a que não pertence e não está ligado aos neurónios da sua
própria camada. Um exemplo desta arquitectura apresenta-se na figura 4.45.

268
O processo chamado de treino, ou aprendizagem, da rede é um processo
iterativo bastante simples embora computacionalmente muito pesado e moroso. A
camada de entrada é alimentada com uma lista de parâmetros (funções do tempo, da
magnitude e da localização) de sismos já ocorridos. Usando um conjunto de pesos que
inicialmente são aleatórios, os valores em IL são transferidos para HL e daí para OL,
que produz valores de tempo, magnitude e localização: uma “previsão”. Esses valores
são comparados com os valores para o próximo sismo realmente ocorrido. A diferença
entre os valores previstos e os reais é usada para reajustar todos os pesos na rede
(razão porque esta arquitectura é chamada de retropropagação). O processo é repetido
para todos os sismos do catálogo de eventos reais, conhecidos, no que constitui uma
época de treino. Depois de concluída uma época, o mesmo processo é iterado o
número de vezes necessárias (entre alguns milhares e algumas dezenas de milhar de
vezes) para que a diferença entre os valores previstos e os reais seja menor que um
dado erro assumido como suficiente. A rede considera-se então treinada.
Nesse momento, se se usar o último conjunto de pesos obtidos e se alimentar a
rede com os dados do último sismo conhecido ela deveria ser capaz de prever o
próximo evento. Os resultados obtidos até agora são encorajadores.

4.7.4.3.4. Variações na dimensão fractal da distribuição espacial dos


epicentros.
Esta conclusão baseia-se em trabalhos de KAGAN e KNOPOFF (1980) e
HIRATA et al.(1987), que indicam estarem relacionados o estado de tensão-
deformação da crosta e a dimensão fractal da distribuição espacial dos epicentros.
Segundo estes autores, a diminuição daquela dimensão para valores próximos de 1,0
pode ser precursora dos grandes sismos.
Usou-se o método da contagem de caixas para determinar a dimensão fractal
da distribuição geográfica de epicentros nos Açores no período entre 1 de Outubro de
1993 e 31 de Maio de 1997.
Trabalhos de KAGAN e KNOPOFF (1980) e HIRATA et al.(1987), indicam
estarem relacionados o estado de tensão-deformação da crosta e a dimensão fractal da
distribuição espacial dos epicentros. Segundo estes autores, a diminuição daquela
dimensão para valores próximos de 1,0 pode ser precursora dos grandes sismos.
O período em estudo, 1338 dias, foi subdividido de modo a criar treze mapas
de epicentros (RUVS, 1993-1997), cada um correspondente a uma ‘janela’ de 335
dias. Estas janelas estavam igualmente espaçadas no tempo, de tal modo que a
primeira começava no primeiro dia da sequência total e a última terminava no último
dia. Para cada um dos treze mapas seguiu-se o procedimento usual do método de
contagem de caixas: criaram-se sete mapas auxiliares e subdividiu-se cada um em
caixas quadradas de lados, Ri , crescentes numa progressão geométrica desde 15’(R6)
até 16°(R0). Para cada um destes mapas auxiliares contou-se o número de caixas que
continham epicentros (Ni). Para cada um dos treze mapas principais construiu-se uma
recta de regressão log (R0/Ri) versus log (Ni), cujo declive é, por definição, a
dimensão fractal da distribuição espacial dos epicentros nesse mapa.
Ao projectar as treze dimensões assim obtidas contra a data do último evento
em cada janela obteve-se a sucessão temporal de dimensões fractais que está
representada na figura 4.46.

269
Figura 4.46 – Sucessões cronológicas para a dimensão fractal da distribuição geográfica dos
epicentros e a magnitude dos sismos registados nos Açores com Md>4,5 no período entre 1 de
Outubro de 1993 e 31 de Maio de 1997.

Na mesma figura encontra-se representada a sucessão das magnitudes dos


sismos com Md>4,5 (magnitude de duração) registados na Rede Universitária de
Vigilância Sismo-vulcânica dos Açores no mesmo período (RUVS, 1993-1997).
É notável o paralelismo das duas sucessões, o que indica podermos estar em
presença de mais uma ferramenta útil na previsão sísmica.
4.7.5. Perspectivas sobre o controlo da sismicidade.
É hoje um facto bem conhecido que a intervenção humana pode aumentar a
sismicidade de uma região. Alguns casos estudados incluem, por exemplo, a
sismicidade associada à injecção de fluidos em furos profundos, a exploração mineira,
a exploração geotérmica e o enchimento de albufeiras. Mostra-se um exemplo deste
último caso na figura 4.47.

Figura 4.47 – Sismicidade induzida pelo enchimento de uma albufeira na Índia.

270
O conhecimento deste efeito cedo levou à ideia de induzir vários pequenos
sismos numa área para ir libertando gradualmente as tensões acumuladas ao longo do
tempo e evitar, assim, a sua libertação brutal, de uma só vez. Um cálculo simples
mostra a dificuldade de pôr em prática esta ideia.
Usando a fórmula aproximada de conversão magnitude-energia de Gutenberg
e Richter (74) verifica-se que um sismo de magnitude 7 liberta aproximadamente 1024
erg ou, em unidades SI, 1017 J. Sabendo que a primeira bomba atómica, em Hiroxima,
libertou menos de 1014 J, é claro que este método de força bruta não seria aceitável
para o controlo da sismicidade.
Contudo, é a própria caracterização da sismicidade como processo caótico que
permite alguma esperança de controlo. De facto, descobriram-se nos últimos anos
algumas propriedades interessantes dos processos caóticos e, tipicamente, os
engenheiros encarregaram-se de lhes dar aplicação prática. Uma dessas propriedades é
que os processos caóticos são controláveis usando energias que chegam a ser várias
ordens de grandeza menores que as envolvidas no próprio processo.
Já foi conseguido, recentemente, um controlo parcial do modelo de blocos
deslizantes de Huang e Turcotte, assim como de um autómato celular.
Falta ainda, evidentemente, muito trabalho.

4.8. Prospecção Sísmica.


4.8.1. Produção das ondas sísmicas.
Na sismologia estuda-se o comportamento da Terra quando sujeita à passagem
de ondas elásticas de origem natural. É claro que não poderíamos esperar pela
ocorrência de um evento sísmico para realizar uma campanha de prospecção; por isso
as ondas sísmicas são aqui geradas artificialmente, num processo designado tiro
(mesmo que não tenha qualquer componente pirotécnica).

Figura 4.48 – Esquema do equipamento usado em prospecção sísmica.


A figura 4.48 mostra um esquema simplificado do equipamento que se usa em
prospecção sísmica.
O tiro pode ser realizado por diferentes processos:

271
• Percussão (marreta, vibradores – figura 4.49);
• Pirotécnico (“espingarda de elefantes”, carga explosiva);
• Hidráulico (“canhão de ar” e “canhão de água” – usados na prospecção
marinha).

Figura 4.49 – Vibrador mecânico.

Uma das grandes vantagens de se usarem ondas sísmicas produzidas artificialmente é


a possibilidade de se conhecer exactamente o tempo de início da propagação.

4.8.2. Prospecção sísmica de refracção.


4.8.2.1. A dromocrónica.
Já vimos que, tal como todas as ondas, as ondas sísmicas podem sofrer no seu
percurso os processos de refracção, reflexão, difracção, dispersão e absorção. Note-se
que os três primeiros (refracção, reflexão e difracção) são fenómenos característicos
de interfaces entre meios de características reológicas contrastantes, enquanto que os
dois últimos são processos que afectam a simples transmissão das ondas num só meio.
Dado que em prospecção trabalhamos com distâncias muito curtas relativamente aos
comprimentos de onda usados, podemos desprezar estes processos (dispersão e
absorção).
Deste modo, quando realizamos um tiro vamos detectar num dado geofone a onda
directa, e/ou a onda reflectida e/ou a onda refractada, função de diversas variáveis, das
quais as mais importantes são a distância tiro-geofone e as velocidades de propagação
das ondas no solo. O facto de, como já se disse, se trabalhar com distâncias curtas,
tem um inconveniente: é muitas vezes impossível separar no registo as várias ondas
pelo que se trabalha só com o tempo da primeira chegada. Chama-se dromocrónica
à curva que relaciona os tempos de chegada com as distâncias dos geofones ao tiro. A
figura 4.50 ilustra estes fenómenos.

272
Figura 4.50 – Relação entre os percursos das ondas e as dromocrónicas para uma interface
horizontal única.
4.8.2.1.1. Percurso directo.
Atentemos na figura 15, em que se considera um tiro em O e um geofone em
R, e duas camadas de velocidades V1<V2, separadas por uma interface à profundidade
z. Procuramos soluções da forma t = f(x) para o trajecto das ondas.
O percurso directo é OR, portanto

OR x
t= = (4.80)
V1 V1
Reconhecer-se-á que esta é a equação de uma recta que passa na origem e tem
declive 1/V1, que é a semi-recta OWF, na figura 15.

4.8.2.1.2. Percurso refractado.


O percurso da onda refractada é OMPR, pelo que o tempo de percurso é dado
por

273
OM MP PR MP 2OM
t= + + = +
V1 V2 V1 V2 V1
x − 2 z tan θ c 2z
= +
V2 V1 cos θ c
(4.81)
x 2z  V1 
= + 1 − sin θ c 
V2 V1 cos θ c  V2 
x 2 z cos θ c
= +
V2 V1

dado que, da lei de Snell, sin θc = V1/V2. A equação (4.81) também pode escrever-se

x
t= + ti (4.82)
V2

que é a equação de uma semi-recta de ordenada na origem ti (t1, neste caso) e declive
1/V2, onde
2 z cos θ c
ti =
V1 (4.83)
ou
V1ti
z=
2 cos θ c (4.84)

4.8.2.1.3. Percurso reflectido.


O percurso da onda reflectida é OMQ, pelo que o tempo de percurso é dado
por

OM MQ OM
t= + =2 (4.85)
V1 V1 V1

Ora,

2
 x2 
OM =  c  + z 2
2
(4.86)
 2

donde

xc2 + 4 z 2
t2 = (4.87)
V12

274
que é a equação da hipérbole CDE, de foco O e assímptota t=x/V1 (OWF). Este
traçado assimptótico da dromocrónica da onda reflectida para a onda directa traduz
uma evidência: à medida que x→∞, ou seja, à medida que aumenta a distância tiro-
geofone, a diferença entre o percurso reflectido e o percurso directo tende para zero.
Note-se ainda que o ponto de intersecção entre a hipérbole e a semi-recta
DWS, o ponto D, tem por abcissa xc (distância crítica) e por ordenada t=2z/V1. O
ponto D tem um significado físico preciso; repare-se no corte da figura 4.50, onde o
percurso OMQ pode ser encarado como uma reflexão mas também pode ser encarado
como a primeira refracção.

4.8.2.2. Determinação de z.
Em prospecção sísmica de refracção, o problema geral consiste na
determinação de V1 V2 e, principalmente, z.
A partir da dromocrónica OWS podemos extraír V1 e V2, que são os declives
dos dois segmentos correspondentes à onda directa e à onda refractada. A partir dos
valores de V1 e V2 podemos obter θc dado que, da lei de Snell, θc = arcsin (V1/V2).
Daqui podemos determinar directamente z pela equação (4.84).
Ao compararmos as ondas reflectida e refractada pela mesma interface e que
chegam ao mesmo ponto (geofone), verificamos que a onda refractada chega sempre
primeiro que a reflectida, excepto, como já se viu, para x=xc. Mas a primeira onda a
chegar é a onda directa, dado que o seu percurso é o mais curto, até um ponto, W,
correspondente à distância x’, em que a maior velocidade, V2, compensa a maior
distância percorrida pela onda refractada. Por esse motivo chama-se a x’ distância de
cruzamento (crossover distance).
Uma vez que as duas ondas coincidem em W, podemos igualar aqui as
equações (4.81) e (4.82) para a mesma distância x’:

x' x' 2 z
= + cos θ c
V1 V2 V1

donde

x'  V1 
z= 1 −  cos θ c
2  V2 

x'  V2 − V1  V2 

z=  
2  V2  V22 − V12 
 

x' V2 − V1
z= (4.88)
2 V2 + V1

275
A relação (4.88) era usada, por vezes, para determinar z. Contudo, tal não é
aconselhável uma vez que a incerteza na determinação de x’ é muito maior que na
determinação de ti.

4.8.2.3. Vários refractores horizontais.


A equação (4.84) pode ser estendida para o caso mais geral de várias
interfaces horizontais. Atente-se na figura 4.51.

Figura 4.51 – Vários refractores horizontais.


Temos aqui três camadas, de velocidades V1, V2 e V3, respectivamente. Se
V2>V1, temos o caso anterior com o trajecto de refracção OMPR e a correspondente
dromocrónica WS. Se V3>V2>V1, a refracção mais profunda acabará por ultrapassar a
mais superficial. O percurso mais complexo, OM’M’’P’’P’R’ é, como sempre, regido
pela lei de Snell, de tal modo que

sin θ1 sin θ c 1
= =
V1 V2 V3

276
onde θc é o ângulo crítico para o horizonte inferior enquanto θ1 é menor que o ângulo
crítico para o horizonte superior, que é θ’c. A expressão para a curva ST pode obter-se
como antes:
OM '+ R ' P' MM '+ P' P' ' M ' ' P ' '
t= + +
V1 V2 V3

2 z1 2 z2 x − 2 z1 tan θ1 − 2 z 2 tan θ c
t= + +
V1 cos θ1 V2 cos θ c V3

x 2 z2  V2  2 z1  V1 
= + 1 − sin θ c  + 1 − sin θ1 
V3 V2 cos θ c  V3  V1 cos θ c  V3 
(4.89)
x 2 z2 2z
= + cos θ c + 1 cos θ1
V3 V2 V1

x
= + t2
V3

Ou seja: o troço ST da dromocrónica será uma semi-recta cujo declive é o


inverso da velocidade na última camada e cuja ordenada na origem é uma soma de
termos de forma

2 zi
cos θ i
Vi

A generalização para n termos é simples:

x n −1 2 zi
t= +∑ cosθ i (4.90)
Vn i =1 Vi

onde θ i = arcsin (Vi /Vn). Note-se que os θ i não são geralmente ângulos críticos: o
único ângulo crítico é θ n-1 .
A equação (31) pode ser usada para encontrar as velocidades e espessuras de
uma sequência de camadas horizontais a partir da respectiva dromocrónica, da mesma
forma que se usou a equação (22) para o caso particular de duas camadas. A única
condição essencial é que cada camada seja distinta no gráfico tempo-distância.

4.8.2.4. Caso de um refractor inclinado.


As expressões que se têm vindo a desenvolver baseiam-se num certo número
de pressupostos que nem sempre se verificam numa situação real. Destes
pressupostos, o mais “frágil” é o da horizontalidade das camadas.

277
Para resolver este problema, sempre que se realiza um perfil de refracção
sísmica faz-se o chamado tiro inverso. Este procedimento consiste em repetir as
leituras de tempos de propagação, geralmente com os geofones na mesma posição,
mas fazendo um novo tiro (ou novos tiros) na extremidade oposta do perfil àquela em
que se fizeram inicialmente. Vamos assim obter duas dromocrónicas, uma para o tiro
directo e outra para o tiro inverso, que sobrepomos no mesmo gráfico.
Esta situação encontra-se ilustrada na figura 4.52.

Figura 4.52 – Dromocrónicas para um refractor inclinado.


Temos representada uma interface de pendor ξ entre meios de velocidades V1
e V2 e pretendemos determinar a expressão dos tempos de propagação entre os pontos
A e B.
A expressão do tempo para o percurso refractado AMPB é dada por

AM + PB MP
t= +
V1 V2
zA + zB AQ − ( z A + z B ) tan θ c
= + (4.91)
V1 cos θ c V2
x cos ξ z A + z B
= + cos θ c
V2 V1

278
Vamos agora procurar resolver o problema, como habitualmente, em termos
de variáveis que nos são acessíveis, nomeadamente tA e tB. Para esse efeito,
começamos por eliminar zB para o tiro directo,
zB = zA + x sin ξ
donde vem td, o tempo para o tiro directo:

x cos ξ x 2z
td = + cos θ c sin ξ + A cos θ c
V2 V1 V1
x 2z
= sin (θ c + ξ ) + A cos θ c (4.92)
V1 V1
x
= sin (θ c + ξ ) + t A
V1

Fazendo o mesmo para achar o tempo ti, para o tiro inverso:

x
ti = sin (θ c − ξ ) + t B (4.93)
V1

sendo

2zA (4.94)
tA = cosθ c
V1
e
2 zB
tB = cosθ c
V1 (4.95)

Podemos exprimir as equações (4.92) e (4.93) na mesma forma que a equação


(4.82):

(4.96)
x
td = + tA
Vd
e
x
ti = + tB
Vi
(4.97)
onde

V1
Vd =
sin (θ c + ξ ) (4.98)
e
V1
Vi = (4.99)
sin (θ c − ξ )

279
sendo que Vd e Vi, as chamadas velocidades aparentes, são dadas pelos inversos dos
declives das respectivas dromocrónicas, como se assinala na figura 4.52.
As equações (4.98) e (4.99) podem ser resolvidas de forma a encontrar o
pendor da interface, ξ, e o ângulo crítico, θc

1  V1   V  (4.100)
θ c = arcsin  + arcsin 1 
2  Vd   Vi 

1  V1   V 
ξ = arcsin  − arcsin 1  
2  Vd   Vi   (4.101)

e zA e zB podem obter-se a partir das equações (35) e (36)

V1t A (4.102)
zA =
2 cos θ c
e
V1t B
zB = (4.103)
2 cos θ c

4.8.3. Prospecção sísmica de reflexão.


4.8.3.1. Introdução.
Vamos agora tratar, resumidamente, da prospecção sísmica que é feita usando
as ondas reflectidas (percursos do tipo OAB na figura 4.50) – prospecção sísmica de
reflexão.
Esta divide-se tradicionalmente, segundo a profundidade do objecto da
prospecção e a dimensão dos meios a empregar, em:
a) Prospecção profunda – mais de 500 m – aplicada principalmente aos
hidrocarbonetos. Requer grandes meios, materiais e humanos, em todas as fases,
desde a aquisição de dados até ao seu tratamento.
b) Prospecção intermédia – entre 150 e 500 m – que se aplica a estruturas
petrolíferas superficiais, hidrogeologia profunda, ou estudos de fundações de
grandes obras de arte, como barragens ou túneis. Consiste essencialmente num
“downsizing” das técnicas da prospecção profunda.
c) Prospecção superficial – menos de 150 m – apontada para alvos menores, de
menor valor económico, como fundações em geral, hidrogeologia, prospecção de
não-metálicos, etc.
Aqui trataremos só desta última vertente, que requer poucos meios,
equipamento portátil, de operação simples e rápida, e um tratamento de dados
acessível a qualquer computador pessoal.

280
4.8.3.2. Reflexão versus refracção.
A prospecção sísmica de reflexão não sofre várias das limitações de que
padece a prospecção por refracção, nomeadamente,
• Na refracção é impossível detectar camadas de menor velocidade
subjacentes a camadas de maior velocidade - problema da inversão de
velocidades. Em reflexão, qualquer interface entre meios reologicamente distintos
funciona como reflector.
• A refracção não permite detectar camadas excessivamente finas – problema
da camada escondida. Estas são detectáveis por reflexão.
• A extensão de um perfil de refracção deve ser de 4 a 5 vezes a da
profundidade que se pretende atingir. A distância tiro-geofone em reflexão poderia
ser, teoricamente, nula.
• A grande extensão do perfil de refracção obriga a usar muito maiores
energias que na reflexão.
• A interpretação de um perfil de refracção está limitada a poucas camadas
(três ou quatro).
Não se pense, contudo, em face do exposto, que a reflexão é uma técnica
“melhor” ou “preferível”. Como se verá adiante, a reflexão pressupõe o conhecimento
das velocidades de propagação das ondas sísmicas, que só pode ser determinada
rigorosamente por refracção, ou estimada (procedimento usual, mas desaconselhável).
Além disso, a reflexão é uma técnica em si mais “cara”, quer na fase de aquisição de
dados quer, principalmente, no seu tratamento.
Devemos, portanto, considerar estas técnicas como complementares.

4.8.3.3. Princípios.
Imaginemos a situação descrita na figura 4.51.

15m

20m

V1 = 1000 m/s
d = 2.0

V2 = 3000 m/s
d = 2.5
Figura 4.51 - Reflexão de ondas sísmicas: caso geral.
Da expressão geral do movimento uniforme (e = v.t) deduz-se facilmente que
a onda directa será detectada no geofone 15 ms depois do tiro, e a onda reflectida, que
percorre uma distância
e = 2 × (7.52 + 202)1/2

281
será detectada ao fim de 42.72 ms.
Mas, como se pretendem detectar as ondas reflectidas e não as refractadas, é
de todo o interesse que a distância tiro-geofone seja reduzida, de tal modo que se
possa desprezar por comparação com a profundidade do reflector. Isto simplifica a
expressão do tempo:
t ≈ 2 (z / V)
onde z é a profundidade e V a velocidade de propagação das ondas P. Ou seja: se
soubermos V e medirmos t determinamos facilmente z.

z=Vt/2 (4.104)

4.8.3.4. Amplitude: divisão da energia.


Com que amplitude vamos receber os sinais no geofone? A amplitude do sinal
depende essencialmente de três factores:
1. a amplitude na fonte (quantidade de energia do tiro);
2. dispersão e absorção da onda (já vistas em 2.);
3. divisão da energia entre as ondas reflectidas e refractadas.

O primeiro factor, amplitude na fonte, assume-se unitário.


A dispersão produz, como já foi dito, uma diminuição da amplitude que é
proporcional ao inverso do comprimento do percurso da onda, ou seja, a (2z)-1. Este
factor é difícil de quantificar mas, de qualquer modo, na prospecção superficial é
desprezável.
O último factor é sem dúvida o mais importante. A sua dedução recorre às
equações de Zöppritz, cujo resultado é

d 2V 2 − d 1V1 (4.105)
R=
d 2V 2 + d 1V1
T = 1− R (4.106)

onde R é a porção reflectida e T a transmitida (refractada). Assim, para as condições


representadas na figura 4.51, R = 0.58 e T = 0.42.

4.8.3.5. Múltiplas reflexões.


O problema da repartição de energia reveste-se de especial importância se
houver mais que um reflector – afinal, o caso mais geral (figura 4.52).

282
V1 = 1000 m/s
20m d1 = 2.0

z1 = 20

16m V2 = 3000 m/s


d2 = 2.5

z2 = 36
V3 = 2500 m/s
d3 = 2.2

Figura 4.52 – Múltiplas reflexões.

Comparemos o comportamento de um raio que incide “de cima para baixo”


(da camada 1 para a camada 2 – parâmetros R e T, já vistos) com um que incide “de
baixo para cima” (da camada 2 para a camada 1 – parâmetros R’ e T’).

(4.107)
d V − d 2V2
R' = 1 1
d 2V2 + d1V1
(4.108)
T ' = 1 − R'

pelo que

R’ = −R

T ’ = 1+R

Podemos agora analizar a situação representada na figura 4.52.


No geofone teremos três impulsos: onda directa, primeira e segunda reflexões.
Se se assumir, como foi dito, que a distância tiro-geofone é suficientemente
baixa, o tempo da primeira chegada é (quase) coincidente com a origem dos tempos e
a amplitude é unitária.
A primeira reflexão terá parâmetros que também já vimos:

t1 = 2 (z1 / V1) = 40ms

A1 = R1 = 0.58

283
A segunda reflexão terá, assim, os parâmetros

t2 = 2 (z1 / V1) + 2 [(z2 – z1) / V2] = 51ms

e a sua amplitude será proporcional ao produto de um coeficiente de reflexão e dois de


transmissão:

d 3V3 − d 2V2 4d1d 2V1V2


(
A2 = T1R2T1 ' = R2 1 − R12 = ) d 3V3 + d 2V2 (d1V1 + d 2V2 )2
= −0.1

Note-se o sinal negativo desta amplitude, que significa ter havido uma
inversão de fase: o impulso original, compressivo, converteu-se numa tracção.

4.8.3.6. O sismograma.
A partir dos dados obtidos podemos construir o sismograma sintético que se
esperaria na situação correspondente à da figura 4.52 (figura 4.53).

cima 1.0

0.5

10 20 30 50 60

t (ms)

-0.5

baixo -1.0

Figura 4.53 – Sismograma sintético a partir dos dados da figura 19.


Numa situação real, inversa, em que conhecessemos apenas o sismograma e
tivéssemos boas estimativas para V1 e V2, seria fácil determinar as nossas incógnitas:
z1 e z2:

V1t1
z1 = = 20m
2

V2t 2  V 
z2 = + z1 1 − 2  = 36m
2  V1 

A extensão a um número arbitrário, k, de camadas, é directa:

k −1
Vk t k z −z
zk = + z k −1 − Vk ∑ i i −1 (4.111)
2 i =1 Vi

284
ANEXO
Introdução à teoria matemática do campo

A1.1. Campo escalar.


Seja Ω um domínio num espaço. Se existir uma correspondência que, a cada
ponto M do domínio atribui um número U(M) diz-se que existe um campo escalar
definido em Ω.
Como exemplos de campos escalares podemos tomar os campo de
temperaturas e de densidades no interior da Terra ou o campo de cotas topográficas da
superfície da Terra.

A1.2. Superfícies de nível e curvas de nível.


Seja U(M) um campo escalar. Se introduzirmos um referencial cartesiano
tridimensional x, y, z no domínio Ω, este campo pode ser representado por uma função
escalar U(x, y, z) das coordenadas de um ponto M ∈ Ω. Esta caracterização de um
campo escalar pode ser insuficiente para que possamos visualizar a estrutura do
campo. Para esse fim introduzem-se frequentemente as chamadas superfícies de nível.
Uma superfície de nível de um campo escalar U(M) é o lugar dos pontos nos
quais o campo U(M) assume um valor constante C, pelo que a equação de uma
superfície de nível é da forma

U(x, y, z) = C (A1.1)

desde que U(x, y, z) seja uma função contínua e continuamente diferenciável.


Veremos adiante que alguns campos naturais não são contínuos ou que, sendo-o, não
são continuamente diferenciáveis, pelo que neles não se podem definir superfícies de
nível.
É claro, a partir da equação 3.1, que o conjunto de todas as superfícies
de nível para todos os valores possíveis de C, enchem totalmente o domínio Ω, e que
duas superfícies

U(x, y, z) = C1 e U(x, y, z) = C2 , desde que C1 ≠ C2 ,

não têm nenhum ponto M em comum: são paralelas.


Note-se que a especificação de todas as superfícies de nível define
completamente o campo U(x, y, z).
Este modo de definir um campo torna-se especialmente útil quando o campo é
definido numa região plana. Neste caso, ele é representado simplesmente como uma
função de duas variáveis, U(x, y).
Uma equação da forma

U(x, y) = C (A1.2)

285
é a equação de uma curva, que toma então o nome de curva de nível do campo
escalar plano U(M).
O exemplo mais comum nas ciências da Terra são as curvas de nível que unem
pontos de igual cota num mapa (o domínio plano). Outros exemplos podem ser as
isópacas (curvas que unem pontos na vertical dos quais um dado estrato tem a mesma
espessura), as isotérmicas e as isobáricas (para os casos das temperaturas e pressões),
muito usadas em meteorologia.

A1.3. Derivada direccional.


A aplicação da análise matemática à investigação de um campo escalar U(M)
torna possível descrever as suas propriedades locais, ou seja, a variação de U(M) ao
passar de um dado ponto M a um ponto M’ arbitrariamente próximo de M.
Para este fim usaremos a noção de derivada direccional de um campo.
Seja U(M) um campo escalar. Consideremos dois pontos M e M’,
arbitrariamente próximos um do outro, e formemos a relação

U (M ' ) − U (M )
(A1.3)
h

onde h é o comprimento do segmento de recta que une os pontos M e M’. Façamos o


ponto M’ aproximar-se de M de tal modo que a direcção do segmento de recta MM’
seja sempre coincidente com um vector unitário fixo λ . Se, neste processo, a relação
(3) tender para um limite finito, chamamos a esse limite a derivada do campo escalar
U(M) segundo a direcção do vector λ (derivada direccional) e designamo-la como

∂U (M )
∂λ (A1.4)

Esta derivada caracteriza a taxa de variação de U(M) ao longo da direcção λ.


A derivada ∂U/∂λ pode ser determinada se escolhermos um sistema de
coordenadas e representarmos U(M) como uma função U(x, y, z). Suponhamos que a
direcção do vector λ forma ângulos α, β e γ com os eixos coordenados. Então, o
vector MM’ (doravante, usar-se-á sempre o corpo direito, negro, sem serifas, para
representar vectores) vem dado por

MM’ = h (i cos α + j cos β + k cos γ) (A1.5)

U(M’) = U (x + h cos α, y + h cos β, z + h cos γ) (A1.6)

Assim, a derivada ∂U/∂λ é a derivada da função composta (A1.6) em ordem a h, para


h=0. Diferenciando, vem

286
∂U ( M ) ∂U ( M ' ) ∂U ∂U ∂U
= h =0 = cos α + cos β + cos γ (A1.7)
∂λ ∂h ∂x ∂y ∂z

A1.4. Gradiente de um campo escalar.


A expressão (A1.7) pode ser vista como um produto escalar de dois vectores:
o vector unitário

λ = (cos α + cos β + cos γ) (A1.8)

que determina a direcção segundo a qual se deriva ∂U/∂λ, e um outro vector que tem
como componentes as projecções sobre os eixos coordenados ∂U/∂x, ∂U/∂y e ∂U/∂z.
A este vector chama-se gradiente do campo escalar U e representa-se pelo
símbolo

grad U

Podemos escrever, portanto,

 ∂U ∂U ∂U 
grad U =  , ,  (A1.9)
 ∂x ∂y ∂z 

e, consequentemente,

∂U/∂λ = (grad U, λ) (A1.10)

A1.5. Campo vectorial.


Diz-se que existe um campo vectorial definido num domínio Ω, se existir um
vector A(M) associado a cada ponto M do domínio.
Um exemplo de campo vectorial é o campo de velocidades do fluxo laminar
de um fluido: se um domínio Ω for ocupado por um fluido que tem, em cada ponto M,
fluxo de velocidade v, independente do tempo, podemos associar a cada ponto M de
Ω um vector v = v(M) e temos, portanto, um campo vectorial de velocidades.
Suponhamos uma distribuição de massa no espaço (a massa da Terra, por
exemplo). Então, um ponto material de massa unitária colocado num ponto
geométrico M encontra-se sujeito a uma força gravitacional. O conjunto de todas as
forças, para todos os pontos M de Ω, constitui um campo vectorial, chamado campo
gravitacional, da referida distribuição de massa.
Se, em vez de uma distribuição de massa, imaginarmos uma distribuição de
cargas eléctricas, mutatis mutandis, teremos outro campo vectorial a que se chama
campo electrostático.

287
A1.6. Campo de gradientes e campo potencial.
Considere-se um campo escalar U(M). Ao construirmos o vector (grad U) em
cada ponto M estamos a criar um campo vectorial, que é o campo de gradientes da
quantidade escalar U.
Diz-se que um campo vectorial A(M) é um campo potencial se puder ser
representado como um campo de gradientes de um campo escalar U(M), definido no
mesmo domínio Ω, ou seja,

A = grad U (A1.11)

Neste caso, diz-se que o campo escalar U é o potencial do campo vectorial A.


Vejamos agora as condições para que um campo seja potencial.
Uma expressão do tipo

P dx + Q dy + R dz (A1.12)

onde P, Q e R são funções contínuas com derivadas parciais contínuas de primeira


ordem, é o diferencial total de uma função U(x, y, z) se, e só se, P, Q e R satisfazem
as condições seguintes:

∂P/∂y = ∂Q/∂x

∂Q/∂z = ∂R/∂y (A1.13)

∂R/∂x = ∂P/∂z

Mas a relação

dU = P dx + Q dy + R dz (A1.14)

implica que

P = ∂U/∂x , Q = ∂U/∂y , R = ∂U/∂z

pelo que as condições (A1.13) implicam que o campo definido por (P, Q, R) é
potencial. Deste modo, para que um campo vectorial A = (P, Q, R), de componentes
P(x, y, z), Q(x, y, z) e R(x, y, z), contínuas e continuamente diferenciáveis seja um
campo potencial, é necessário e suficiente que as igualdades (A1.13) se verifiquem.

288
A1.7. Fluxo de um campo vectorial através de uma superfície.
Divergência.
Imaginemos um fluido em escoamento laminar. A quantidade Π desse fluido
que passa através de uma dada superfície orientada Σ é designada por fluxo do fluido
através de Σ, e é dada pelo integral

Π = ∫∫ An dσ (A1.15)
Σ

onde An é a projecção do vector velocidade A sobre a normal externa à superfície Σ, e


dσ é um elemento de superfície.
Seja V(Ω) o volume do domínio Ω que é delimitado pela superfície Σ. A
divergência do campo vectorial A, designada por (div A), é dada por

∫∫ A dσ
n

div A = lim Σ
(A1.16)
Ω→ M
V ( Ω)

e é um escalar.
Demonstra-se que, se A = (P, Q, R) é um campo vectorial, definido num
domínio Ω, tal que P, Q e R são contínuas e possuem derivadas parciais de primeira
ordem contínuas em Ω, a divergência (div A) existe em todos os pontos do domínio e
é expressa, em todos os sistemas cartesianos de coordenadas, pela fórmula

∂P ∂Q ∂R
divA = + + (A1.17)
∂x ∂y ∂z

Qual é o significado físico da divergência?


Reportando-nos à equação A1.15, podemos dizer que num ponto em que Π>0
temos uma fonte, e num ponto em que Π<0 temos um poço. A divergência, div A, é
uma medida da intensidade de fontes (poços) por unidade de volume, dado que, pelo
teorema de Ostrogradsky,

∫∫ A
Σ
n dσ = ∫∫∫ divA dv

(A1.18)

onde o integral triplo representa a capacidade total de fontes (poços) do domínio Ω.


Um caso particular é aquele em que A é, por exemplo, o campo de velocidades
de um fluido incompressível cujo fluxo, laminar, não tem fontes nem poços. Neste
caso, div A = 0 em todos os pontos, e diz-se que o campo A é solenoidal.

289
A1.8. Rotação de um campo vectorial.
Se L for um percurso fechado, o integral linear

∫ P dx + Q dy + R dz
L
(A1.19)

pode ser transformado no correspondente integral de superfície usando a fórmula de


Stokes:

 ∂Q ∂P   ∂R ∂Q   ∂P ∂R 
∫ P dx + Q dy + R dz =∫∫  ∂x − ∂y  dxdy +  ∂y − ∂Z  dydz +  ∂z − ∂x  dzdx (A1.20)
L Σ

O integral de superfície do lado direito é tomado sobre uma superfície


arbitrária Σ cuja fronteira é L.
Este integral pode ser interpretado como o fluxo, através da superfície Σ, do
vector

 ∂R ∂Q   ∂P ∂R   ∂Q ∂P 
rot A =  −  i +  −  j +  −  k (A1.21)
 ∂y ∂z   ∂z ∂x   ∂x ∂y 

que toma o nome de rotacional do campo vectorial A. Como o próprio nome indica,
o significado físico do rotacional de um campo vectorial é a componente de rotação
do fluxo desse campo.

A1.9. Relações entre campos potenciais e solenoidais.


A noção de rotação está estreitamente ligada às definições de campo potencial
e campo solenoidal.
Definiu-se acima campo potencial como aquele que é representável na forma
de gradiente de um campo escalar. Como se viu, um campo vectorial A = (P, Q, R) é
potencial se, e só se, as suas componentes satisfazem as equações (13). Note-se,
porém, que a satisfação destas equações significa que as três componentes de (rot A),
na equação (21), são idênticas e iguais a zero. Podemos, portanto, dizer que é
condição necessária e suficiente para um campo vectorial A ser potencial, que rot A =
0 (diz-se, então, que A é irrotacional).
Outra consequência é que

rot (grad U) = 0 (A1.22)

para qualquer função (escalar) U.


Também a noção de campo solenoidal se encontra ligada com a noção de
rotação. De facto,

∂  ∂R ∂Q  ∂  ∂P ∂R  ∂  ∂Q ∂P 
div (rot A) =  − +  − +  − =0 (A1.23)
∂x  ∂y ∂z  ∂y  ∂z ∂x  ∂z  ∂x ∂y 

290
o que significa que todo o campo vectorial representável como rotação de outro
campo vectorial é sempre solenoidal. Por outras palavras, para todo o campo A que
satisfaça a condição divA = 0 existe um campo B tal que A = rotB e, neste caso, B
toma o nome de potencial vectorial do campo A.
É claro que os campos potenciais e solenoidais não esgotam todos os campos
vectoriais. Contudo, demonstra-se que, qualquer que seja o campo vectorial A ele
pode ser representado na forma

A=B+C (A1.24)

em que B é potencial e C solenoidal.


A1.10. O operador hamiltoniano.
O processo de obter o campo vectorial grad U a partir de um campo escalar U
é uma operação em muitos aspectos semelhante à diferenciação: a única diferença é
que esta transforma um escalar noutro escalar, enquanto a primeira transforma um
escalar num vector.
A operação que permite passar de U a grad U é habitualmente representada
pelo símbolo ∇, introduzido por Hamilton em meados do séc. XIX. Este símbolo é
lido nabla ou del e chama-se operador hamiltoniano. Assim, por definição,

∇ U = grad U (A1.25)

É conveniente interpretar o operador ∇ como um vector simbólico com a


seguinte composição:

∂ ∂ ∂
∇= i+ j+ k (A1.26)
∂x ∂y ∂z

Essa conveniência vai-se traduzir em que podemos multiplicar o operador ∇


por escalares ou vectores e obter assim a maioria das operações da análise vectorial.
Vejamos como.
Seja A = (P, Q, R) um campo vectorial, e U(x, y, z) um campo escalar.

∂ ∂ ∂  ∂U ∂U ∂U
grad U = ∇U =  i + j + k  U = i +j +k (A1.27)
 ∂x ∂y ∂z  ∂x ∂y ∂z

∂ ∂ ∂
divA = P + Q + R = (∇, A) (A1.28)
∂x ∂y ∂z

ou seja, a divergência do campo vectorial A é o produto escalar ( ) do vector


simbólico ∇ pelo vector A, e ainda,

291
 ∂ ∂  ∂ ∂  ∂ ∂ 
rot A =  R − Q  i +  P − R  j +  Q − P  k = [∇, A] (A1.29)
 ∂y ∂z   ∂z ∂x   ∂x ∂y 

ou seja, a rotação do campo vectorial A é o produto vectorial [ ] do vector simbólico


∇ pelo vector A .
Vimos atrás, ao estudar as relações entre campos potenciais e solenoidais, que

rot (grad U) = 0 e div (rot A) = 0 (A1.30)

Estas relações podem agora ser reescritas como

[∇,∇U] = 0 e (∇, [∇, A]) = 0 ou (∇, ∇, A) = 0 (A1.31)

A1.11. Operações repetidas com o hamiltoniano. Operador laplaciano.


Nas equações (31) encontramos aplicações repetidas do operador
hamiltoniano. Para realizarmos essas aplicações devemos recordar que a aplicação do
hamiltoniano é uma diferenciação e que, a diferenciação de um produto é a soma das
diferenciações de cada um dos factores, assumindo os outros factores como
constantes.
Para exemplificar, sublinhemos o factor ao qual o operador ∇ deve ser
aplicado:

div (UA) = (∇, UA) + (∇, UA)

Como os factores que não são sujeitos ao ∇ podem ser tirados para fora da
operação, temos que

div (UA) = (∇, UA) + (∇, UA) = (∇U, A) + U(∇, A)

ou seja,

div(UA) = (A, grad U) + U div A

A aplicação das mesmas regras permite-nos apresentar a seguinte lista de


fórmulas, que relacionam o cálculo de gradiente, divergência e rotacional com as
operações básicas da álgebra vectorial:

div (UA) = (A, grad U) + U div A (A1.32)

grad (UV) = V grad U + U grad V (A1.33)

rot (UA) = U rot A + [grad U, A] (A1.34)

292
div [A, B] = (B, rot A) – (A, rot B) (A1.35)

rot [A, B] = (B, ∇) A – (A, ∇) B + A div B – B div A (A1.36)

grad (A, B) = (B, ∇) A + (A, ∇) B + [B, rot A] + [A, rot B] (A1.37)

em que U e V são campos escalares e A e B campos vectoriais.


O que acontece se, em vez de aplicarmos uma operação a uma combinação de
campos escalares e vectoriais, aplicarmos uma combinação das operações grad, div ou
rot a um campo escalar, ou a um campo vectorial? É quase intuitivo que algumas
destas combinações não fazem sentido. Por exemplo, a operação

rot div

não pode ser aplicada nem a um campo escalar nem a um campo vectorial, dado que
só se define divergência de um campo vectorial, cujo resultado é escalar e, por isso,
não pode sofrer rotação.
Como é fácil de demonstrar, só cinco operações fazem sentido.
Para um campo escalar U:

div grad U e rot grad U

e já se viu atrás que rot grad U = 0 em todos os casos.


Para um campo vectorial A:

grad div A , rot rot A e div rot A

e já se viu atrás que div rot A = 0 em todos os casos. Dos três casos significativos
(não-nulos) vejamos o primeiro com mais pormenor.
A partir das fórmulas (10) e (23) deduz-se que

 ∂U ∂U ∂U  ∂ 2U ∂ 2U ∂ 2U
div grad U = div  i+ j+ k = + + = ∆U (A1.38)
 ∂x ∂y ∂z  ∂x 2 ∂y 2 ∂z 2

onde ∆ = div grad, é o operador laplaciano.


Este operador pode ser encarado como o quadrado escalar do vector
simbólico ∇. De facto,

2 2 2
∂   ∂  ∂ ∂2 ∂2 ∂2
∆ = (∇, ∇) =   +   +   = 2 + 2 + 2 (A1.39)
 ∂x   ∂y   ∂z  ∂x ∂y ∂z

293
A1.12. Variação temporal dos campos. Campos estacionários. Equação de
Laplace. Funções harmónicas.
O estudo da variação temporal dos campos é particularmente importante em
Geofísica.
Um exemplo simples é o campo de temperaturas no interior de um corpo
sujeito a aquecimento. Seja T(x, y, z, t) a temperatura num ponto arbitrário (x, y, z) do
corpo no momento t. Imaginemos um volume Ω, limitado por uma superfície Σ,
totalmente contido no corpo, e estudemos a variação de quantidade de calor contida
nesse volume, durante um tempo infinitesimal dt.
Em cada elemento de volume dv a variação da temperatura durante o tempo dt
é igual a (∂T/∂t) dt, pelo que a variação da quantidade de calor, dq, de dv é dada por

∂T
dq = c dt ρ dv (A1.40)
∂t

onde c é o calor específico e ρ a densidade (pelo que ρ dv é a massa). Assim, a


variação da quantidade de calor, dQ, contida em todo o volume Ω durante o tempo dt
é dada por

∂T
dQ = dt ∫∫∫ cρ dv (A1.41)

∂t

Mas podemos calcular também dQ de uma outra forma: calculando a


quantidade de calor que atravessa a superfície Σ, durante um intervalo de tempo de t a
t+dt. Recordemos que a quantidade de calor, dq, que atravessa um elemento dσ de Σ,
na direcção da normal externa, num intervalo de tempo dt é dada por

dq = − dt k (grad T ) n dσ ( A1.42)

onde k é uma constante, pelo que a variação da quantidade total de calor em Ω é dada
por

dQ = dt ∫∫ k (grad T ) n dσ (A1.43)
Σ

Transformando este integral de superfície no correspondente integral de


volume, pelo teorema de Ostrogradsky, vem

dt ∫∫ k (grad T ) n dσ = dt ∫∫∫ k div(grad T ) dv = dt ∫∫∫ k ∆T dv (A1.44)


Σ Ω Ω

Podemos agora igualar as duas expressões obtidas para dQ (41) e (44):

∂T
∫∫∫ ∂t

cρ dv = ∫∫∫ k ∆T dv

(A1.45)

294
Como esta igualdade é válida para qualquer subdomínio Ω do corpo, os
integrandos nos dois membros são necessariamente iguais, pelo que

∂T
= a 2 ∆T (A1.46)
∂t

onde a2 = k/(cρ). Esta é a expressão diferencial da equação da condutividade térmica.


Imaginemos agora um caso particular, em que o corpo se encontra num estado de
equlíbrio térmico: a sua temperatura não varia no tempo. Neste caso, temos que

∂T
=0 (A1.47)
∂t

pelo que

∆T = 0 (A1.48)

ou seja, em coordenadas cartesianas,

∂ 2T ∂ 2T ∂ 2T
+ + =0 (A1.49)
∂x 2 ∂x 2 ∂x 2

As equações (48) e (49) são duas formas da equação de Laplace, uma das
mais importantes da física matemática.
Uma função escalar U(x, y, z) que satisfaz a equação de Laplace é chamada
função harmónica (ou campo harmónico).

295
LEITURAS RECOMENDADAS
ALONSO, M., e FINN, E. J. (1972) – Física: um Curso Universitário. Ed. Bras.
Blücher, São Paulo.
ALVES, E. I. (2003) – Atlas Online do Sistema Solar.
http://www.uc.pt/iguc/did_planets.htm
BLAKELY, R. J. (1995) – Potential Theory in Gravity and Magnetic Applications.
Cambridge Univ. Press. Cambridge.
BOLT, B. A. (1999) - Earthquakes. 4ª ed. Freeman. New York.
DOBRIN, M. B. e SAVIT, C. H. (1988) – Introduction to Geophysical Prospecting.
McGraw-Hill. New York.
GARLAND, G. D. (1971) – Introduction to Geophysics. Saunders. Philadelphia.
GLEICK, J. (1991) – Caos – A Construção de uma Nova Ciência. Ed. Port. Gradiva.
Lisboa.
KOEFOED, O. (1979) – Geosounding Principles, vol. 1. Elsevier. Amsterdam.
LIMA, F. V. Q. C. R. (1998) – Introdução à Sismologia. Ed. Univ. Aveiro.
LOWRIE, W. (1997) – Fundamentals of Geophysics. Cambridge Univ. Press.
Cambridge.
MECHLER, P. (1982) – Les Méthodes de la Géophysique. Dunod. Paris.
ORELLANA, E. (1972) – Prospección Eléctrica en Corriente Contínua. Paraninfo.
Madrid
RICHTER, C. F. (1958) – Elementary Seismology. Freeman, New York.
SOBEL, D. (2000) – Longitude: a verdadeira história de um génio solitário que
resolveu o maior problema científico do seu tempo. Ed. Port. Temas &
Debates. Lisboa.
TELFORD, W. M., GELDART, L. P. e SHERIFF, R. E. (1993) - Applied Geophysics, 2ªed.
Cambridge Univ. Press. Cambridge.
TSUBOI, C. (1983) – Gravity. George Allen & Unwin. Londres.
TURCOTTE, D. (1993) – Fractals and Chaos in Geology and Geophysics, 3ª ed.
Cambridge University Press.
WARD, S.(ed.) (1990) - Geotechnical and Environmental Geophysics. Soc. Explor.
Geophysicists. Tulsa.
WYLLIE, P. J. (1974) – A Terra. Nova Geologia Global. Trad. Port. F. C. Gulbenkian.
Lisboa.

296
ÍNDICE

1. INTRODUÇÃO.................................................................................. 3

2. A GRAVIDADE NA TERRA ............................................................. 5


2.1. Introdução. Gravimetria e Geodesia. Fractais................................................................5
2.1.1. Como medir o perímetro da Terra?..............................................................................5
2.1.2. Uma história das 1001.1 noites. ...................................................................................5
2.1.3. Qual é o comprimento de uma costa? ..........................................................................6
2.1.4. Dimensão inteira e dimensão fraccionária – fractais....................................................7
2.1.5. Formas auto-semelhantes e formas auto-afins ...........................................................13
2.1.6. História das medidas da Terra....................................................................................14

2.2. A gravidade na Terra ......................................................................................................15


2.2.1. Bases matemáticas .....................................................................................................15
2.2.2. Leis de Newton ..........................................................................................................15
2.2.3. Teorema de Gauss. Equação de Laplace e equação de Poisson. ................................17
2.2.4. Campo de peso. O geóide. .........................................................................................18
2.2.5. Expansão do potencial gravítico. ...............................................................................20
2.2.6. Efeitos sensíveis da rotação da Terra: acelerações de Eötvös e de Coriolis...............27
2.2.6. Latitude, longitude e altitude. Nutação livre. .............................................................29
2.2.7. Distribuição de massas na Terra. Marés. ...................................................................31
2.2.8. Outras perturbações da rotação da Terra: nutação forçada e precessão. ....................34

2.3. A fuga ao campo gravitacional da Terra: foguetes e satélites artificiais.....................36


2.3.1. Órbitas. Leis de Kepler. .............................................................................................36
2.3.2. Movimento circular uniforme. ...................................................................................36
2.3.3. Elementos orbitais......................................................................................................38
2.3.4. Determinação de alguns elementos orbitais. ..............................................................39
2.3.5. Classificação dos tipos de órbitas de satélites artificiais. ...........................................40
2.3.6. Lançamento de um veículo espacial ..........................................................................42
2.3.7. Velocidade de escape .................................................................................................44
2.3.8. Empuxo......................................................................................................................45
2.3.9. Por curiosidade: os propergóis...................................................................................46

2.4. Medidas da gravidade. Gravímetros..............................................................................47


2.4.1. O gal. Variação da gravidade com a latitude. ............................................................47
2.4.2. Gravímetros dinâmicos. .............................................................................................48
2.4.3. Gravímetros estáticos.................................................................................................52
2.4.3. Gravimetria por satélite..............................................................................................55

2.5. Correcções às medidas. Anomalia de Bouguer. ............................................................56


2.5.1. Factores que influenciam as medidas da gravidade. Anomalia..................................56
2.5.2. Correcção da deriva temporal . ..................................................................................57
2.5.3. Correcção de latitude. ................................................................................................58
2.5.4. Correcção de altitude ou de ar livre. ..........................................................................59
2.5.5. Correcção de Bouguer................................................................................................59
2.5.6. Correcção topográfica, ou de terreno. ........................................................................59
2.5.7. Outras correcções.......................................................................................................61
2.5.8. Anomalia de Bouguer. ...............................................................................................62

2.6. Tratamento e interpretação de dados gravimétricos....................................................62


2.6.1. Introdução. Anomalia de ar-livre. ..............................................................................62
2.6.2. Filtração do ruído.......................................................................................................65
2.6.3. Remoção do gradiente regional..................................................................................66

297
2.6.4. Estimação da profundidade da fonte. ........................................................................ 68
2.6.5. Determinação e estimação da densidade. .................................................................. 69
2.6.6. Efeitos da cobertura................................................................................................... 71
2.6.7. Determinação do excesso de massa........................................................................... 71
2.6.8. Inversão de dados gravimétricos. .............................................................................. 72

2.7. Isostasia............................................................................................................................ 79

2.8. A gravidade no Sistema Solar. ....................................................................................... 82


2.8.1. A origem do Sistema Solar........................................................................................ 82
2.8.2. A estrutura interna dos planetas. ............................................................................... 85
2.8.3. Propriedades gravíticas dos planetas......................................................................... 86

3. GEOMAGNETISMO E GEOELECTRICIDADE ..............................95


3.1. Introdução. ...................................................................................................................... 95
3.1.1. Bases físicas. As leis de Maxwell. ............................................................................ 95
3.1.2. Relações e unidades. ................................................................................................. 96

3.2. O campo principal........................................................................................................... 97


3.2.1. Características do campo........................................................................................... 97
3.2.2. Fontes do campo geomagnético. ............................................................................. 101
3.2.3. Descrição matemática do campo principal.............................................................. 101
3.2.4. O campo geomagnético de referência, IGRF. ......................................................... 102
3.2.5. O campo não dipolar. .............................................................................................. 103
3.2.6. Causas do campo principal. Introdução aos modelos caóticos................................ 104
3.2.7. Variações temporais do campo principal: a variação secular. ................................. 114

3.3. O campo magnético externo......................................................................................... 116


3.3.1. Configuração. .......................................................................................................... 116
3.3.2. Variação diurna. ...................................................................................................... 118
3.3.3. Tempestades magnéticas. ........................................................................................ 120
3.3.4. Atmosféricos. .......................................................................................................... 122
3.3.5. As correntes telúricas. ............................................................................................. 122

3.4. O magnetismo das rochas............................................................................................. 123


3.4.1. Propriedades magnéticas das rochas. ...................................................................... 123
3.4.2. Histerese.................................................................................................................. 125
3.4.3. Tipos de magnetismo das rochas............................................................................. 127
3.4.4. Magnetização das rochas......................................................................................... 128
3.4.5. Paleomagnetismo. ................................................................................................... 129

3.5. Medição do campo geomagnético. ............................................................................... 133


3.5.1. Unidades de medida. ............................................................................................... 133
3.5.2. Magnetómetros........................................................................................................ 134

3.6. Tratamento e interpretação de dados geomagnéticos................................................ 139


3.6.1. Anomalia magnética. O nível zero. ......................................................................... 139
3.6.2. Tratamento de dados magnéticos. ........................................................................... 141
3.6.3. Técnicas de gradiente em magnetometria. .............................................................. 144
3.6.4. Inversão de dados geomagnéticos. .......................................................................... 144

3.7. O magnetismo no Sistema Solar. ................................................................................. 147


3.7.1. O Sol. ...................................................................................................................... 147
3.7.2. Mercúrio.................................................................................................................. 148
3.7.3. Vénus. ..................................................................................................................... 148
3.7.4. A Lua. ..................................................................................................................... 149
3.7.5. Marte. ...................................................................................................................... 150
3.7.6. Os gigantes gasosos................................................................................................. 151

298
3.7.7. Resumo das características magnéticas planetárias. ................................................153

3.8. Geoelectricidade: o potencial espontâneo. ...................................................................153


3.8.1. Técnica.....................................................................................................................154
3.8.2. Causas de ruído e erro em SP...................................................................................159
3.8.3. Filtragem de ruído....................................................................................................163
3.8.4. Análise de dados de SP ............................................................................................163

3.9. Resistivimetria ...............................................................................................................165


3.9.1. Bases físicas.............................................................................................................165
3.9.2. Factores naturais que influenciam a resistividade....................................................166
3.9.3. Resistivimetria .........................................................................................................170
3.9.4. Potencial em modelos multi-camadas: sondagens eléctricas. ..................................179

3.10. Polarização induzida ...................................................................................................185


3.10.1. Introdução. .............................................................................................................185
3.10.2. Causas do efeito de polarização induzida. .............................................................185
3.10.3. As medidas em polarização induzida. ....................................................................186

3.11. Métodos electromagnéticos .........................................................................................190


3.11.1. Introdução. .............................................................................................................190
3.11.2. O espectro electromagnético. .................................................................................191
3.11.3. Bases Físicas. .........................................................................................................191
3.11.4. Prospecção electromagnética. ................................................................................196

4. SISMOLOGIA ............................................................................... 205


4.1. Introdução. .....................................................................................................................205

4.2. Princípios físicos. ...........................................................................................................205


4.2.1. Tensão (stress) e deformação (strain)......................................................................205
4.2.2. Lei de Hookes. Elasticidade.....................................................................................209
4.2.3. Equação de onda. Harmónicas. ................................................................................210

4.3. Propagação das ondas sísmicas. ...................................................................................213


4.3.1. Ondas de volume......................................................................................................213
4.3.2. O princípio de Huygens. ..........................................................................................214
4.3.3. Reflexão e refracção. Lei de Snell. ..........................................................................214
4.3.4. Difracção..................................................................................................................216
4.3.5. Dispersão. ................................................................................................................217
4.3.6. Energia das ondas sísmicas. .....................................................................................218
4.3.7. Absorção. .................................................................................................................219
4.3.8. Separação da energia numa interface. Equações de Zöppritz. .................................220
4.3.9. Ondas de superfície..................................................................................................222

4.4. Sismometria....................................................................................................................226
4.4.1. Sismógrafos de inércia. ............................................................................................226
4.4.2. O sismograma. .........................................................................................................231
4.4.3. Determinação dos parâmetros sísmicos a partir do sismograma..............................236
4.4.4. A rede sismográfica. ................................................................................................241
4.4.5. Magnitude sísmica. ..................................................................................................242

4.5. Mecanismos focais. ........................................................................................................245

4.6. Sismicidade.....................................................................................................................246
4.6.2. A relação de Gutenberg-Richter entre magnitude e frequência. ..............................247
4.6.3. Terminologia............................................................................................................248
4.6.4. Modelos da sismicidade. Modelos estocásticos. ......................................................249

299
4.7. Prevenção e previsão sísmica. ...................................................................................... 256
4.7.1. Intensidade sísmica ................................................................................................. 256
4.7.2. Prevenção: Engenharia Sísmica. ............................................................................. 259
4.7.3. A previsão de efeitos. .............................................................................................. 259
4.7.4. Previsão sísmica. ..................................................................................................... 259
4.7.5. Perspectivas sobre o controlo da sismicidade. ........................................................ 270

4.8. Prospecção Sísmica. ...................................................................................................... 271


4.8.1. Produção das ondas sísmicas................................................................................... 271
4.8.2. Prospecção sísmica de refracção. ............................................................................ 272
4.8.3. Prospecção sísmica de reflexão............................................................................... 280

ANEXO..............................................................................................285
Introdução à teoria matemática do campo ........................................................................ 285
A1.1. Campo escalar. ........................................................................................................ 285
A1.2. Superfícies de nível e curvas de nível. .................................................................... 285
A1.3. Derivada direccional. .............................................................................................. 286
A1.4. Gradiente de um campo escalar............................................................................... 287
A1.5. Campo vectorial. ..................................................................................................... 287
A1.6. Campo de gradientes e campo potencial. ................................................................ 288
A1.7. Fluxo de um campo vectorial através de uma superfície. Divergência. .................. 289
A1.8. Rotação de um campo vectorial. ............................................................................. 290
A1.9. Relações entre campos potenciais e solenoidais...................................................... 290
A1.10. O operador hamiltoniano....................................................................................... 291
A1.11. Operações repetidas com o hamiltoniano. Operador laplaciano............................ 292
A1.12. Variação temporal dos campos.............................................................................. 294

LEITURAS RECOMENDADAS ........................................................296

300

Você também pode gostar