Escolar Documentos
Profissional Documentos
Cultura Documentos
INVERSÃO EM GEOFÍSICA
Versão 1.1
2011
Tópicos inversão em geofísica
Copyright
c 2011-2014 Vanderlei Coelho de Olivera Junior & Leonardo Uieda
Sumário
1 Introdução 1
3 Regularização 19
3.1 Norma mínima (Tikhonov de ordem 0) . . . . . . . . . . . . . . . . . . 23
3.2 Igualdade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Suavidade (Tikhonov de ordem 1) . . . . . . . . . . . . . . . . . . . . . 26
3.4 Variação total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4 Procedimentos práticos 31
4.1 Ajustar os dados observados . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Determinar um valor para o parâmetro de regularização . . . . . . . . . 32
5 Leitura recomendada 35
Referências Bibliográficas 36
A.4 Hessianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
A.5 Expansão em série de Taylor . . . . . . . . . . . . . . . . . . . . . . . . 42
A.5.1 Até primeira ordem . . . . . . . . . . . . . . . . . . . . . . . . . 43
A.5.2 Até segunda ordem . . . . . . . . . . . . . . . . . . . . . . . . . 43
1
Capítulo 1
Introdução
Uma vez que não conhecemos o sistema físico, a única informação que temos são as
observações (ou dados observados). Embora o sistema físico seja desconhecido, alguma
informação adicional (em geral proporcionada pela geologia) nos fornece um conjunto
de hipóteses (Figuras 4, 5 e 6).
Isso nos leva a seguinte pergunta: como testar se as observações podem ser expli-
cadas por uma determinada hipótese? Para responder esta pergunta, precisamos ser
capazes de calcular os dados preditos pela hipótese em questão. Matematicamente,
1. Introdução 2
isso significa que precisamos encontrar uma função que relaciona a hipótese aos dados
preditos.
dados
hipótese
preditos
Modelagem direta
calcula Dados compara Dados
Parâmetros
preditos observados
Problema inverso
estima Dados
Parâmetros
observados
1. Introdução 4
Sismograma
u
fonte receptores
x
raios v1
z v2
v3
v4
Figura 1: Exemplo de sistema físico que caracteriza uma aquisição sísmica. Neste
caso o sistema envolve ondas sísmicas (representadas pelos raios) que se propagam em
meios com velocidades V1, V2, V3 e V4. A grandeza física que podemos observar é o
deslocamento dos sismômetros u (neste caso somente na vertical). Estas observações
são tipicamente dispostas em um sismograma.
gz
z Δρ
ρa
AB/2
A M N B x
ρ(z)
z
Figura 3: Exemplo de sistema físico que caracteriza uma sondagem elétrica vertical
(SEV). Neste caso o sistema envolve a condução de correntes elétricas em um meio
com resistividades elétrica ρ que varia com a profundidade. A grandeza física que
podemos observar é diferência de potencial elétrico entre os eletrodos M e N. Esta
grandeza é geralmente convertida para resistividade aparente ρa .
Figura 4: Exemplo de hipótese que descreve o sistema físico referente a uma aquisição
sísmica. Modelo de duas camadas plano-paralelas, homogêneas e isotrópicas.
z Δρ
Figura 5: Exemplo de hipótese que descreve o sistema físico referente a uma levanta-
mento gravimétrico. Modelo de um corpo elipsoidal homogêno.
1. Introdução 6
A M N B x
Figura 6: Exemplo de hipótese que descreve o sistema físico referente a uma sondagem
elétrica vertical. Modelo de três camadas plano-paralelas, homogêneas e isotrópicas.
Sismograma
h 1 v1 x
z v2
gz
z Δρ
ρa
AB/2
A M N B x
h1 ρ1
z h2 ρ2
ρ3
Capítulo 2
o
d
1
d o
¯o 2
d = . , (2.1)
..
dNo
p
d1
p
d
2
d¯p = . , (2.2)
..
dNp
parâmetros
p1
p2
p̄ = . , (2.3)
..
pM
Desta forma, podemos dizer que o vetor de dados preditos é uma função dos parâmetros
f1 (p̄)
f2 (p̄)
d¯p = f¯(p̄) = . . (2.5)
..
fN (p̄)
N
X
kr̄k22 = [dio − fi (p̄)]2 . (2.7)
i=1
Esta equação é também uma função escalar dos parâmetros. Assim sendo, definimos
uma função φ(p̄), chamada de função do ajuste, como
N
X
φ(p̄) = kr̄k22 = [dio − fi (p̄)]2 . (2.8)
i=1
kr̄k22 = r̄ · r̄ = r1 r1 + r2 r2 + · · · + rN rN . (2.9)
Como o vetor r̄ é um vetor coluna (matriz com uma coluna), podemos escrever o
produto escalar da equação 2.9 como
r1
r2
T
r̄ · r̄ = r̄ r̄ = r1 r2 . . . rN . . (2.10)
..
rN
T o
φ(p̄) = r̄T r̄ = d¯o − f¯(p̄) d¯ − f¯(p̄) .
(2.11)
p̃ tal que o gradiente da função φ(p̄) avaliado em p̃ seja igual ao vetor nulo. Este vetor
p̃ é um ponto extremo da função φ(p̄).
O gradiente da função φ(p̄), avaliado em um p̄ qualquer, é um vetor M -dimensional
definido como (ver Apêndice A)
∂φ(p̄)
∂p1
∂φ(p̄)
¯
∇φ(p̄) = ∂p 2 ,
(2.12)
..
.
∂φ(p̄)
∂pM
¯ é o operador gradiente (Apêndice A). A partir da equação 2.11, a expressão
em que ∇
para o i-ésimo elemento do vetor gradiente é
∂φ(p̄) ∂ n ¯o ¯ T ¯o ¯ o
= d − f (p̄) d − f (p̄)
∂pi ∂pi
T ∂ f¯(p̄) . (2.13)
( T
)
∂ f¯(p̄) ¯o ¯
¯ ¯
o
= − d − f (p̄) + − d − f (p̄)
∂pi ∂pi
| {z } | {z }
escalar escalar
T
∂φ(p̄) ∂ f¯(p̄) ¯o ¯
= −2 d − f (p̄) , (2.14)
∂pi ∂pi
∂ f¯(p̄)
em que é um vetor N -dimensional (ver Apêndice A) dado por
∂pi
2. Formulação matemática do problema inverso 12
∂f1 (p̄)
∂pi
∂f2 (p̄)
¯
∂ f (p̄)
= ∂pi . (2.15)
∂pi ..
.
∂fN (p̄)
∂pi
Substituindo as equações 2.14 e 2.15 na expressão do gradiente (equação 2.12)
obtemos
T
∂ f¯(p̄)
d¯o − f¯(p̄)
−2
∂p1
T
∂ f¯(p̄)
d¯ − f¯(p̄)
o
= −2 ∂p2
¯
∇φ(p̄)
..
.
∂ f¯(p̄) T
d¯ − f¯(p̄)
o
−2
∂pM
(2.16)
T
∂ f¯(p̄)
∂p
1
¯ T
∂ f (p̄)
= −2 ∂p2 d¯o − f¯(p̄) .
.
.
.
∂ f¯(p̄) T
∂pM
Por fim, o gradiente da função do ajuste φ(p̄) pode ser escrito como
¯
∇φ(p̄) ¯ (p̄)T d¯o − f¯(p̄) .
= −2Ḡ (2.17)
em que
2. Formulação matemática do problema inverso 13
∂f1 (p̄) ∂f1 (p̄) ∂f1 (p̄)
∂p1 ...
∂p2 ∂pM
∂f2 (p̄) ∂f2 (p̄) ∂f2 (p̄)
∂ f¯(p̄) ¯ ¯
¯ ∂ f (p̄) ∂ f (p̄) ...
Ḡ(p̄) = ... =
∂p1 ∂p2 ∂pM . (2.18)
∂p1 ∂p2 ∂pM .. .. .. ..
. . . .
∂fN (p̄) ∂fN (p̄) ∂fN (p̄)
...
∂p1 ∂p2 ∂pM
As equações 2.17 e 2.18 mostram que o gradiente da função do ajuste φ(p̄) depende
do vetor de dados preditos f¯(p̄) (equação 2.5) e sua derivada em relação aos parâmetros
p̄. Sendo assim, a função f que relaciona os parâmetros aos dados preditos determina
o comportamento do gradiente de φ(p̄). Nas próximas seções analisaremos os casos
em que a função f é linear ou não-linear em relação aos parâmetros. Essa análise nos
permitirá compreender a influência da função f na busca pelo vetor de parâmetros p̃
que minimiza a função φ(p̄).
Se a função fi (p̄) (equação 2.4), que relaciona o vetor de parâmetros p̄ ao i-ésimo dado
predito, for uma combinação linear dos parâmetros, ela terá a seguinte forma
∂fi (p̄)
= gij , (2.20)
∂pj
que não depende dos parâmetros. Para um conjunto de N dados, o vetor de dados
preditos tem a seguinte forma
¯ p̄ + b̄ ,
f¯(p̄) = Ḡ (2.21)
¯ ¯ T ¯o ¯
∇φ(p̄) = −2Ḡ d − Ḡp̄ − b̄ . (2.22)
Seja p̃ o vetor que minimiza a função φ(p̄), o gradiente desta função avaliado em p̃
é igual ao vetor nulo. Isto nos leva ao sistema de equações
¯ T Ḡ
Ḡ ¯ p̃ = Ḡ
¯ T d¯o − b̄ . (2.23)
Este sistema é conhecido como sistema de equações normais. A solução para este
sistema é
¯ T Ḡ
p̃ = (Ḡ ¯ )−1 Ḡ
¯ T d¯o − b̄ , (2.24)
Nesta seção analisaremos o caso em que a função fi (p̄) (equação 2.4) não é uma combi-
nação linear dos parâmetros. Neste caso, a derivada de fi (p̄) em relação aos parâmetros
também será uma função dos parâmetros. Logo, dependendo das características da fun-
ção fi (p̄), o gradiente da função do ajuste φ(p̄) pode ser nulo para mais de um valor
de p̄. Em outras palavras, a função φ(p̄) pode possuir vários pontos extremos além
daquele em que esta função seja mínima. Por esta razão, o cálculo do vetor p̃ que
minimiza a função do ajuste deve ser feito de forma iterativa. Isto difere do problema
inverso linear e caracteriza um problema inverso não-linear.
A busca pelo vetor p̃ que minimiza uma determinada função faz parte de uma área
da matemática conhecida como otimização, dentro da qual existem diversos métodos
(Kelley, 1999). O procedimento padrão para realizar esta busca de forma iterativa é
começar com uma determinada aproximação inicial p̄0 e calcular uma correção ∆p̄.
Esta correção é então aplicada à aproximação inicial dando origem a um novo vetor p̄1 .
Este novo vetor serve como aproximação inicial para o cálculo de um segundo vetor p̄2 ,
e assim sucessivamente. O processo termina quando é encontrado um vetor p̂ que seja
próximo ao vetor p̃ que minimiza a função em questão. Em geral, não se tem garantia
de que o vetor p̂ seja igual ao vetor p̃.
Dentre os vários métodos existentes, apresentaremos a seguir aquele conhecido como
método de Gauss-Newton. O procedimento para calcular a correção ∆p̄ começa com a
expansão em série de Taylor da função a ser minimizada, neste caso φ(p̄). A expansão
é feita até segunda ordem e em torno da aproximação inicial p̄0 (ver Apêndice A)
¯ T 1 T¯
φ(p̄0 + ∆p̄) ≈ φ(p̄0 ) + ∇φ(p̄ 0 ) ∆p̄ + ∆p̄ ∇φ(p̄0 )∆p̄ = ψ(p̄) , (2.26)
2
¯
sendo ∇φ(p̄ ¯
0 ) o vetor gradiente e ∇φ(p̄0 ) a matriz Hessiana da função φ(p̄), calculados
2. Formulação matemática do problema inverso 16
em p̄0 .
A função ψ(p̄) (equação 2.26) é uma aproximação de segunda ordem para a função
φ(p̄) em torno do ponto p̄0 . Tal como no problema inverso linear, desejamos encontrar
um ponto p̂ que minimiza a função ψ(p̄), ou seja, onde seu gradiente é nulo. O gradiente
de ψ(p̄) é dado por (ver Apêndice A)
¯ ¯ φ(p̄0 ) + ∇φ(p̄
¯ 1 T ¯
T ¯ ¯
∇ψ(p̄) =∇ 0 ) ∆p̄ + ∆p̄ ∇φ(p̄0 )∆p̄ = ∇φ(p̄0 ) + ∇φ(p̄0 )∆p̄ . (2.27)
2
Logo, o incremento ∆p̄ = p̂ − p̄0 , que leva da aproximação inicial ao ponto p̂ onde o
gradiente de ψ(p̄) é nulo, é a solução do sistema de equações
¯
∇φ(p̄ ¯
0 )∆p̄ = −∇φ(p̄0 ) . (2.28)
O cálculo do vetor gradiente de φ(p̄) foi feito anteriormente (equação 2.17), restando
¯
então o cálculo da matriz Hessiana ∇φ(p̄). Para tanto, deriva-se o i-ésimo elemento
do vetor gradiente (equações 2.12 e 2.14) em relação ao j-ésimo elemento do vetor de
parâmetros pj (equação 2.3)
T
!
∂ f¯(p̄) ¯o ¯
∂ ∂φ(p̄) ∂
= −2 d − f (p̄)
∂pj ∂pi ∂pj ∂pi
T
! T
! (2.29)
∂ 2 f¯(p̄) ¯o ¯ ∂ f¯(p̄) ∂ f¯(p̄)
= −2 d − f (p̄) + 2 .
∂pj ∂pi ∂pi ∂pj
| {z } | {z }
escalar escalar
Esta equação 2.29 representa o j-ésimo elemento da i-ésima linha da matriz Hessi-
ana (ver Apêndice A). No método de Gauss-Newton, o termo envolvendo as segundas
derivadas de f¯(p̄) é negligenciado. Desta forma a equação 2.29 pode ser aproximada
por
2. Formulação matemática do problema inverso 17
T
∂ f¯(p̄) ∂ f¯(p̄)
∂ ∂φ(p̄)
≈2 . (2.30)
∂pj ∂pi ∂pi ∂pj
T T T
∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 )
∂p ...
1 ∂p1 ∂p1 ∂p2 ∂p1 ∂pM
¯ T T T
∂ f (p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 )
¯
∇φ(p̄ ...
0 ) ≈ 2 ∂p2 ,
∂p1 ∂p2 ∂p2 ∂p2 ∂pM
.
.. .. .. ..
. . .
∂ f¯(p̄0 T ∂ f¯(p̄0 ) T T
∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 )
...
∂pM ∂p1 ∂pM ∂p2 ∂pM ∂pM
ou
T
∂ f¯(p̄0 )
∂p
1
¯ T
∂ f (p̄0 )
∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 )
¯
∇φ(p̄ ¯ (p̄ )T Ḡ
¯ (p̄ ) ,
0 ) ≈ 2 ∂p2 ... = 2Ḡ (2.31)
0 0
.. ∂p1 ∂p2 ∂pM
.
T
∂ f¯(p̄0 )
∂pM
A partir das equações 2.17 e 2.31, o sistema de equações 2.28 pode ser escrito como
¯ (p̄ )T Ḡ
Ḡ ¯ (p̄ )∆p̄ = Ḡ
¯ (p̄ )T d¯o − f¯(p̄ ) , (2.32)
0 0 0 0
em que d¯o é o vetor de dados observados e f¯(p̄0 ) é o vetor de dados preditos avaliado
em p̄0 . Este sistema de equações é o sistema de equações normais do problema inverso
não-linear.
A equação 2.32 descreve o cálculo da correção ∆p̄ em uma determinada iteração
do método Gauss-Newton. Para o caso em que a função fi (p̄) é uma combinação
2. Formulação matemática do problema inverso 18
linear dos parâmetros (equação 2.19), a equação 2.32 se reduz ao sistema de equações
normais do problema inverso linear (equação 2.23) 1 . Isto mostra que a solução do
problema inverso linear é um caso particular da solução do problema inverso não-
linear pelo método Gauss-Newton. Outra observação importante é a semelhança entre
as equações 2.23 e 2.32, o que evidencia que um problema inverso não-linear é uma
sucessão de problemas inversos lineares.
1 ¯ p̄ + b̄.
Dica: Lembre que nos casos lineares f¯(p̄) = Ḡ
19
Capítulo 3
Regularização
As equações 2.23 do problema inverso linear e 2.32 do problema inverso não-linear são
equações normais. Estas equações são sistemas lineares cuja matriz é quadrada. Para
que a solução de uma equação normal seja única, é necessário que esta matriz tenha
posto completo. Uma condição para que uma matriz tenha posto completo é que todas
as suas colunas (ou linhas) sejam linearmente independentes. Esta condição é equiva-
lente a dizer que a matriz possui determinante diferente de zero.
Em problemas geofísicos, é comum que a matriz do sistema normal possua determi-
nante próximo de zero. Ou seja, para fins práticos pode-se considerar que a matriz não
tenha posto completo. Isto faz com que o problema inverso geofísico seja um problema
mal posto.
Exemplo 3.1. Seja um conjunto de dados preditos A e outro conjunto de dados preditos
ligeiramente diferentes B. Se o problema inverso apresenta instabilidade, os parâme-
tros que produzem os dados preditos A são consideravelmente diferentes daqueles que
produzem os dados preditos B.
3. Regularização 20
em que φ(p̄) é a função do ajuste (equação 2.11), θ(p̄) é uma função regularizadora e µ
é um escalar positivo denominado parâmetro de regularização. Desta forma, o problema
3. Regularização 21
¯ T 1 T¯
Ω(p̄0 + ∆p̄) ≈ Ω(p̄0 ) + ∇Ω(p̄ 0 ) ∆p̄ + ∆p̄ ∇Ω(p̄0 )∆p̄ , (3.2)
2
¯
sendo o vetor gradiente ∇Ω(p̄ ¯
0 ) e a matriz Hessiana ∇Ω(p̄0 ) de Ω(p̄) dados por
¯
∇Ω(p̄ ¯ ¯
0 ) = ∇φ(p̄0 ) + µ∇θ(p̄0 ) (3.3)
¯
∇Ω(p̄ ¯ ¯
0 ) = ∇φ(p̄0 ) + µ∇θ(p̄0 ) , (3.4)
¯
em que µ é o parâmetro de regularização, ∇φ(p̄ ¯
0 ) e ∇φ(p̄0 ) são o gradiente e a Hessiana
¯
da função do ajuste (equações 2.17 e 2.31) e ∇θ(p̄ ¯
0 ) e ∇θ(p̄0 ) são o gradiente e a
¯
∇Ω(p̄ ¯
0 )∆p̄ = −∇Ω(p̄0 ) . (3.5)
h i
¯ (p̄ )T Ḡ
2Ḡ ¯ (p̄ ) + µ∇θ(p̄
¯ ¯ T ¯o
d − f¯(p̄0 ) − µ∇θ(p̄
¯
0 0 0 ) ∆p̄ = 2Ḡ(p̄0 ) 0) . (3.6)
1
Esta é a equação para o problema inverso regularizado. A seguir, apresentaremos
diferentes funções regularizadoras comumente encontradas em problemas inversos na
geofísica. Também mostraremos como fica a equação 3.6 para cada um dos casos.
1
Tente obter a equação normal para o caso em que f¯(p̄) é linear.
3. Regularização 23
¯ N M (p̄) = 2I¯p̄
∇θ (3.8)
¯ N M (p̄) = 2I¯ ,
∇θ (3.9)
Ḡ ¯ + µI¯ p̃ = Ḡ
¯ T Ḡ ¯ T d¯o − b̄ , (3.10)
¯ é a
em que µ é o parâmetro de regularização, d¯o é o vetor de dados observados, Ḡ
matriz de sensibilidade, b̄ é um vetor de constantes (equação 2.21) e p̃ é a solução de
3. Regularização 24
2
norma mínima para o problema inverso linear.
Já para o caso em que fi (p̄) é não-linear, o problema inverso torna-se também não-
linear. Assim sendo, a equação normal do problema inverso não-linear regularizado,
para o caso da regularização de norma mínima, é
h i
¯ (p̄ )T Ḡ
Ḡ ¯ (p̄ ) + µI¯ ∆p̄ = Ḡ
¯ (p̄ )T d¯o − f¯(p̄ ) − µp̄ . (3.11)
0 0 0 0 0
em que f¯(p̄0 ) é o vetor de dados preditos avaliado em p̄0 e ∆p̄ é a correção a ser aplicada
a p̄0 .
3.2 Igualdade
o mais próximo possível do valor 26. Podemos então usar a função regularizadora de
igualdade para impor essa restrição. Neste caso, os vetores p̄ e p̄ a e a matriz Ā¯ serão
p1 0 0 0 0
e Ā¯ =
p̄ =
p2 ,
p̄ a =
26
0 1 0.
p3 0 0 0 0
Para o caso em que a função fi (p̄) que relaciona os dados preditos aos parâme-
tros também é linear (equação 2.19), a equação normal do problema inverso linear
regularizado, para o caso da regularização de igualdade, é
¯ T ¯ ¯T ¯ ¯ T d¯o − b̄ + µĀ¯T Ā¯p̄ a ,
Ḡ Ḡ + µĀ Ā p̃ = Ḡ (3.15)
¯ é a
em que µ é o parâmetro de regularização, d¯o é o vetor de dados observados, Ḡ
matriz de sensibilidade, b̄ é um vetor de constantes (equação 2.21) e p̃ é a solução do
problema inverso linear com regularização de igualdade.
Já para o caso em que fi (p̄) é não-linear, o problema inverso torna-se também não-
linear. Assim sendo, a equação normal do problema inverso não-linear regularizado,
para o caso da regularização de igualdade, é
h i
¯ (p̄ )T Ḡ
Ḡ ¯ (p̄ ) + µĀ¯T Ā¯ ∆p̄ = Ḡ
¯ (p̄ )T d¯o − f¯(p̄ ) − µĀ¯T Ā¯ [p̄ − p̄ a ] . (3.16)
0 0 0 0 0
3. Regularização 26
em que f¯(p̄0 ) é o vetor de dados preditos avaliado em p̄0 e ∆p̄ é a correção a ser aplicada
a p̄0 .
Em certas situações é desejável que a distribuição dos parâmetros seja “suave”. Exis-
tem diversas interpretações para esta restrição, porém a mais comum é que parâmetros
espacialmente adjacentes devem ter valores mais próximos possível. Em outras pala-
vras, não devem haver variações abruptas entre parâmetros espacialmente adjacentes,
ou que a diferença entre estes parâmetros deve ser mínima.
A função regularizadora utilizada para incorporar a informação de suavidade tem
a seguinte forma
¯ p̄ ,
v̄ = R̄ (3.18)
Exemplo 3.3. Seja o problema inverso de estimar o relevo de uma bacia sedimen-
tar. Uma possível parametrização seria discretizar a bacia em 7 prismas retangulares
justapostos com larguras fixas. Os parâmetros a serem estimados seriam então as 7
espessuras dos prismas (Figura 10). Impor suavidade ao relevo da bacia é equivalente
a minimizar as diferenças p1 − p2 , p2 − p3 , p3 − p4 , p4 − p5 , p5 − p6 e p6 − p7 . Neste
caso, o vetor v̄ das diferenças entre os parâmetros espacialmente adjacentes é dado por
3. Regularização 27
x
p1 p6 p7
p2 p5
p3
p4
Embasamento
z
Figura 10: Exemplo de parametrização do relevo de uma bacia sedimentar. Neste
caso, os 7 parâmetros utilizados são as espessuras de prismas retangulares justapostos.
Impor suavidade ao relevo da bacia é equivalente a minimizar as diferenças p1 − p2 ,
p2 − p3 , p3 − p4 , p4 − p5 , p 5 − p6 e p6 − p7 .
p
1
p1 − p2 1 −1 0 0 0 0 0
p2
p − p 0 1 −1 0 0 0 0
2 3
p
3
p3 − p4 0 0 1 −1 0 0 0
v̄ =
=
p
4 . (3.19)
p4 − p5 0 0 0 1 −1 0 0
p5
p − p 0 0 0 0 1 −1 0
5 6
p6
p6 − p7 0 0 0 0 0 1 −1
| {z } p7
¯
R̄ | {z }
p̄
¯ T R̄
θSV (p̄) = p̄T R̄ ¯ p̄ . (3.20)
¯ T R̄
¯ SV (p̄) = 2R̄
∇θ ¯ p̄ (3.21)
3. Regularização 28
¯ SV (p̄) = 2R̄
∇θ ¯ T R̄
¯. (3.22)
¯ T Ḡ
Ḡ ¯ + µR̄
¯ T R̄
¯ p̃ = Ḡ
¯ T d¯o − b̄ , (3.23)
¯ é a
em que µ é o parâmetro de regularização, d¯o é o vetor de dados observados, Ḡ
matriz de sensibilidade, b̄ é um vetor de constantes (equação 2.21) e p̃ é a solução
suave para o problema inverso linear.
Já para o caso em que fi (p̄) é não-linear, o problema inverso torna-se também não-
linear. Assim sendo, a equação normal do problema inverso não-linear regularizado,
para o caso da regularização de suavidade, é
h i
¯ T ¯ ¯ T ¯ ¯ (p̄ )T d¯o − f¯(p̄ ) − µR̄
Ḡ(p̄0 ) Ḡ(p̄0 ) + µR̄ R̄ ∆p̄ = Ḡ ¯ T R̄
¯ p̄ . (3.24)
0 0 0
em que f¯(p̄0 ) é o vetor de dados preditos avaliado em p̄0 e ∆p̄ é a correção a ser aplicada
a p̄0 .
Ao contrário do que vimos na Seção 3.3, há situações em que é desejável que hajam
algumas descontinuidades entre parâmetros espacialmente adjacentes. Nestes casos,
podemos utilizar a função regularizadora de variação total
L
X
VT
θ (p̄) = |vk | , (3.25)
k=1
3. Regularização 29
L q
X
VT
θ (p̄) ≈ θβV T (p̄) = vk2 + β , (3.26)
k=1
∇θ ¯ T q̄(p̄)
¯ βV T (p̄) = R̄ (3.27)
¯ V T (p̄) = R̄
∇θ ¯ T Q̄
¯ (p̄)R̄
¯, (3.28)
β
são, respectivamente,
v1
pv 2 + β
1
p v2
2
q̄(p̄) = v2 + β
(3.29)
..
.
vL
p
2
vL + β
e
β
(v 2 + β) 32 0 ... 0
1
β
¯
0 3 ... 0
Q̄(p̄) = (v22 + β) 2 . (3.30)
.. .. .. ..
. . . .
β
0 0 ... 3
(vL2 + β) 2
3. Regularização 30
h i
¯ (p̄ )T Ḡ
Ḡ ¯ (p̄ ) + µR̄
¯ T Q̄
¯ (p̄ )R̄
¯ ∆p̄ = Ḡ
¯ (p̄ )T d¯o − f¯(p̄ ) − µR̄
¯ T q̄(p̄ ) . (3.31)
0 0 0 0 0 0
em que f¯(p̄0 ) é o vetor de dados preditos avaliado em p̄0 e ∆p̄ é a correção a ser aplicada
a p̄0 .
31
Capítulo 4
Procedimentos práticos
Durante a solução de problemas inversos nos deparamos com diversos obstáculos, como:
Neste capítulo descreveremos alguns procedimentos práticos para abordar estas ques-
tões.
3. Excesso de regularização;
4. Procedimentos práticos 32
O primeiro caso é esperado pois observações sempre contêm algum tipo de ruído.
Embora existam técnicas para a atenuação de ruído, é impossível que ele seja removido
completamente. Além disso, ruídos de caráter aleatório não são descritos pela relação
funcional entre os parâmetros e os dados preditos (equação 2.4). Sendo assim, não
ajustar perfeitamente os dados observados é aceitável, desde que o desajuste esteja
dentro do nível de ruído estimado dos dados.
Já no segundo caso, a função escolhida para descrever a relação entre os parâme-
tros e os dados preditos não representa o sistema físico de forma adequada. Nesse caso,
mesmo se os dados observados fossem isentos de ruído (situação impossível em condi-
ções reais), não seria possível estimar parâmetros que ajustassem os dados observados.
Isso é um indício de que a hipótese escolhida para representar o sistema físico não é vá-
lida. É crucial ressaltar que este é um resultado tão importante quanto encontrar uma
hipótese que descreva o sistema físico de forma satisfatória. Este tipo de resultado nos
permite descartar hipóteses (i.e., cenários geológicos) com base nos dados geofísicos.
O terceiro caso, em que há excesso de regularização, é devido a utilização de valores
demasiado elevados do parâmetro de regularização µ (equação 3.1). Valores elevados
de µ dão excessiva importância para a informação a priori (i.e., regularização), o que
causa um desajuste dos dados. Já valores baixos de µ priorizam o ajuste dos dados e
negligenciam a informação a priori. Neste caso, embora haja um bom ajuste dos dados,
o problema inverso se torna instável. Na Seção 4.2 trataremos da escolha de uma valor
adequado para µ.
larização
regularizadora, pode ser desejável impor alguma delas mais fortemente que as outras.
Por exemplo, se utilizarmos ambas as funções regularizadoras de suavidade e igualdade
(equações 3.20 e 3.12, respectivamente), podemos desejar que a igualdade seja imposta
mais que a suavidade. No entanto, há procedimentos que permitem encontrar valores
de µ que sejam considerados adequados.
Um valor adequado de µ deve proporcionar um equilíbrio entre a estabilidade da
solução e o ajuste dos dados observados. Embora existam alguns métodos para escolha
automática do parâmetro de regularização (Aster et al., 2005), ainda não há uma
maneira de determinar um valor ótimo. Além disso, estes métodos automáticos são
aplicáveis somente a problemas inversos que utilizam uma única função regularizadora.
Sendo assim, apresentamos a seguir um procedimento prático que consiste em escolher
o menor valor possível para o parâmetro de regularização para que o problema inverso
seja bem-posto (i.e., com solução única e estável).
Seja um conjunto de N dados observados e M parâmetros, o procedimento prático
segue as seguintes etapas:
d¯0 = d¯0 + ē ;
As etapas 1-3 e 5-8 acima são o procedimento adotado para a análise da estabilidade
da solução.
35
Capítulo 5
Leitura recomendada
• Tarantola (2005)
• Menke (1989)
Métodos potenciais:
Otimização:
• Kelley (1999)
36
Referências Bibliográficas
Aster, R. C., B. Borchers, and C. H. Thurber, 2005, Parameter estimation and inverse
problems: Elsevier Academic Press.
Barbosa, V. C. F., and J. B. C. Silva, 2011, Reconstruction of geologic bodies in depth
associated with a sedimentary basin using gravity and magnetic data: Geophysical
Prospecting, 59, 1021–1034.
Kelley, C. T., 1999, Iterative methods for optimization: Raleigh: SIAM.
Martins, C. M., W. A. Lima, V. C. F. Barbosa, and J. B. C. Silva, 2011, Total variation
regularization for depth-to-basement estimate: Part 1 - mathematical details and
applications: Geophysics, 76, I1–I12.
Medeiros, W. E., and J. B. C. Silva, 1996, Geophysical inversion using approximate
equality constraints: Geophysics, 61, 1678–1688.
Menke, W., 1989, Geophysical data analysis: Discrete inverse theory: San Diego:
Academic Press Inc.
Silva, J. B. C., W. E. Medeiros, and V. C. F. Barbosa, 2001, Potential field inversion:
Choosing the appropriate technique to solve a geologic problem: Geophysics, 66,
511–520.
Tarantola, A., 2005, Inverse problem theory and methods for model parameter estima-
tion: Philadelphia: SIAM.
37
Apêndice A
A.1 Definições
Definição 1. Um vetor x̄ de M elementos é uma matriz de uma coluna e M linhas
x1
x2
x̄ =
..
(A.1)
.
xM
∂f1 (x̄)
∂xi
∂f2 (x̄)
¯
∂ f (x̄)
∂x i
= (A.3)
∂xi ..
.
∂fN (x̄)
∂xi
Definição 4. O vetor ūNi de N elementos possui todos seus elementos iguais a zero,
exceto o i-ésimo elemento que é igual a 1
u1 0
. .
.. ..
ui−1 0
ūN
i = ui = 1
(A.4)
ui+1 0
. .
. .
. .
uN 0
¯ em relação ao vetor x̄ de N elementos é igual a
Definição 5. O operador gradiente ∇
∂
∂x1
∂
∂x2
¯
∇= (A.5)
.
..
∂
∂xN
¯ em relação ao vetor x̄ de N elementos é igual a
Definição 6. O operador Hessiana ∇
∂2 ∂2 ∂2
...
∂x21 ∂x2 ∂x1 ∂xN ∂x1
∂2 ∂2 2
∂
...
¯ =∇
¯∇¯ T = ∂x1 ∂x2
∂x22 ∂xN ∂x2
∇
(A.6)
.. .. .. ..
. . . .
∂2 ∂2 ∂2
...
∂x1 ∂xN ∂x2 ∂xN ∂x2N
A. Operações com matrizes 39
A.2 Derivadas
¯
A seguir demonstramos como calcular ∂f∂x(x̄)
j
e ∂∂x
f (x̄)
j
para diversos casos. Em todos os
casos, x̄ é um vetor de M elementos e f¯(x̄) é um vetor de N elementos.
e então
0 0
∂ f¯(x̄) ∂x1 ā
1 ∂x ā
j j ∂x ā
M M
>
= + ··· + + ··· +
∂xj ∂xj ∂xj
∂x j (A.10)
0 0
¯
∂ f (x̄) T
∂x1 ā1
∂x ā
j j
T
∂xM ā
T
>
= + ··· + + · · · + M
∂xj ∂xj ∂xj
∂xj (A.14)
T ¯T
= āTj = (ūM
j ) Ā .
∂ f¯(x̄)
= ūM
j . (A.16)
∂xj
Exemplo A.4. Para o caso
0 0
∂f (x̄) ∂x1 a
1 ∂xj aj ∂xM aM
>
= + ··· + + · · · + = aj = āT ūM
j . (A.18)
∂xj ∂xj ∂xj
∂xj
Exemplo A.5. Para o caso
#T
∂(Ā¯x̄) ¯x̄)
" " #
∂f (x̄) ∂(Ā
= (Ā¯x̄) + (Ā¯x̄)T
∂xj ∂xj ∂xj
(A.20)
= (Ā¯ūM T ¯ ¯ T ¯ M
j ) (Āx̄) + (Āx̄) (Āūj ) .
| {z } | {z }
escalar escalar
∂f (x̄)
= 2(Ā¯ūM T ¯ M T ¯T ¯
j ) (Āx̄) = 2(ūj ) Ā Ā x̄ . (A.21)
∂xj
A.3 Gradientes
¯ (x̄) para diversos casos. Em todos os casos,
A seguir demonstramos como calcular ∇f
x̄ é um vetor de M elementos.
∂f (x̄)
M T ¯T ¯
∂x M T
1 2(ū ) Ā Ā x̄ (ū )
1 1
∂f (x̄)
2(ūM )T Ā¯T Ā¯ x̄
(ūM )T
2 2 ¯T ¯
¯ (x̄) = ∂x2 = ¯T ¯
∇f . Ā Ā x̄ = 2Ā Ā x̄ .
= 2 (A.25)
..
.
..
..
.
M T ¯T ¯ M T
∂f (x̄) 2(ūM ) Ā Ā x̄ (ūM )
∂xM
| {z }
I¯
2
O transposto de um escalar é igual a ele mesmo.
A. Operações com matrizes 42
A.4 Hessianas
¯ (x̄) para diversos casos. Em todos os casos,
A seguir demonstramos como calcular ∇f
x̄ é um vetor de M elementos.
T
¯ ¯ ¯ T ¯ ¯T ¯ ¯ T ¯T ¯
∇f (x̄) = ∇[∇f (x̄)] = ∇ 2Ā Ā x̄ = 2∇ x̄ Ā ¯ T ¯T
| {zĀ} = 2∇ x̄ B̄ . (A.27)
¯T
B̄
¯ (x̄) = 2B̄
∇f ¯ T = 2Ā¯T Ā¯ . (A.29)
∂f ∂f ∂f
f (x̄) ≈ f (x̄0 ) + (x̄0 )∆x1 + (x̄0 )∆x2 + · · · + (x̄0 )∆xM
∂x1 ∂x2 ∂xM
∆x1
∆x2
∂f ∂f ∂f
≈ f (x̄0 ) + (x̄0 ) (x̄0 ) . . . (x̄0 ) .
(A.31)
∂x1 ∂x2 ∂xM .
| {z } .
¯ (x̄0 )T
∇f ∆xM
| {z }
∆x̄
¯ (x̄0 )T ∆x̄ .
≈ f (x̄0 ) + ∇f
¯ (x̄0 )T ∆x̄
f (x̄) ≈f (x̄0 ) + ∇f
¯ (x̄0 )T ∆x̄
f (x̄) ≈f (x̄0 ) + ∇f
(A.33)
∂ 2 f (x̄0 ) ∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )
1
+ ∆x2 ∆x2 . . . ∆x2 ∆x̄
2 ∂x1 ∂x2 ∂x22 ∂xM ∂x2
+ ···
∂ 2 f (x̄0 ) ∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )
1
+ ∆xM ∆xM . . . ∆xM ∆x̄ .
2 ∂x1 ∂xM ∂x2 ∂xM ∂x2M
¯ (x̄0 )T ∆x̄
f (x̄) ≈f (x̄0 ) + ∇f
2
∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )
1 ∂ f (x̄0 )
+ ∆x1 ... ∆x̄
2 ∂x21 ∂x2 ∂x1 ∂xM ∂x1
| {z }
escalar
2
∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )
1 ∂ f (x̄0 )
+ ∆x2 . . . ∆x̄ (A.34)
2 ∂x ∂x ∂x22 ∂xM ∂x2
| 1 2 {z }
escalar
+ ···
2
∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )
1 ∂ f (x̄0 )
+ ∆xM ... ∆x̄ .
2 ∂x ∂x ∂x2 ∂xM ∂x2M
| 1 M {z }
escalar
¯ (x̄0 )T ∆x̄
f (x̄) ≈f (x̄0 ) + ∇f
¯ (x̄0 )T ∆x̄
f (x̄) ≈f (x̄0 ) + ∇f