Você está na página 1de 49

TÓPICOS DE

INVERSÃO EM GEOFÍSICA

Vanderlei Coelho de Oliveira Junior


Leonardo Uieda

Versão 1.1

2011
Tópicos inversão em geofísica

Copyright
c 2011-2014 Vanderlei Coelho de Olivera Junior & Leonardo Uieda

This work is licensed under the


Creative Commons Attribution 4.0 International License.
To view a copy of this license, visit
http://creativecommons.org/licenses/by/4.0/
ii

Sumário

1 Introdução 1

2 Formulação matemática do problema inverso 8


2.1 Problemas lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Problemas não-lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 Regularização 19
3.1 Norma mínima (Tikhonov de ordem 0) . . . . . . . . . . . . . . . . . . 23
3.2 Igualdade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Suavidade (Tikhonov de ordem 1) . . . . . . . . . . . . . . . . . . . . . 26
3.4 Variação total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

4 Procedimentos práticos 31
4.1 Ajustar os dados observados . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Determinar um valor para o parâmetro de regularização . . . . . . . . . 32

5 Leitura recomendada 35

Referências Bibliográficas 36

A Operações com matrizes 37


A.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
A.2 Derivadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
A.3 Gradientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
SUMÁRIO iii

A.4 Hessianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
A.5 Expansão em série de Taylor . . . . . . . . . . . . . . . . . . . . . . . . 42
A.5.1 Até primeira ordem . . . . . . . . . . . . . . . . . . . . . . . . . 43
A.5.2 Até segunda ordem . . . . . . . . . . . . . . . . . . . . . . . . . 43
1

Capítulo 1

Introdução

Em ciências aplicadas, ao nos depararmos com um determinado fenômeno a ser estu-


dado, a pergunta imediata é: como estudar tal fenômeno? Em problemas geofísicos,
esse fenômeno é, em geral, um sistema físico. O procedimento científico utilizado para
estudá-lo começa com a realização de observações de uma determinada grandeza física
que, supostamente, seja causada pelo sistema físico em questão.
Exemplos de sistemas físicos encontrados na geofísica são:

• Propagação de ondas elásticas: sísmica (Figura 1)

• Teoria do potencial: gravimetria (Figura 2) e magnetometria

• Difusão de correntes elétricas: SEV (Figura 3)

Uma vez que não conhecemos o sistema físico, a única informação que temos são as
observações (ou dados observados). Embora o sistema físico seja desconhecido, alguma
informação adicional (em geral proporcionada pela geologia) nos fornece um conjunto
de hipóteses (Figuras 4, 5 e 6).
Isso nos leva a seguinte pergunta: como testar se as observações podem ser expli-
cadas por uma determinada hipótese? Para responder esta pergunta, precisamos ser
capazes de calcular os dados preditos pela hipótese em questão. Matematicamente,
1. Introdução 2

isso significa que precisamos encontrar uma função que relaciona a hipótese aos dados
preditos.

dados
hipótese
preditos

Uma função é descrita em termos de parâmetros. Portanto, calcular os dados


preditos por uma determinada hipótese significa encontrar uma função f tal que:

dados preditos = f (hipótese).

Para tanto, é preciso descrever a hipótese em termos de parâmetros (Figuras 7, 8, 9),


isto é:

dados preditos = f (parâmetros).

O raciocínio desenvolvido acima nos permite definir um importante conceito:

Estabelecer a relação funcional entre parâmetros (que descrevem


uma hipótese) e dados preditos é o que se conhece como problema
direto.

Nesse sentido, dado um conjunto de parâmetros, é possível calcular os dados predi-


tos. Isso nos permite testar se uma hipótese é capaz de explicar os dados observados.
Esse teste é feito por meio da comparação entre os dados observados e os dados preditos
por uma determinada hipótese. Se os dados preditos reproduzem os dados observados,
pode-se dizer que a hipótese explica os dados observados e, portanto, é válida. Nesse
contexto, é possível definir os seguintes conceitos importantes:

Fornecer os parâmetros e comparar os respectivos dados preditos


com os dados observados é o que se conhece como modelagem di-
reta.
1. Introdução 3

Estimar os parâmetros automaticamente, de forma que os dados pre-


ditos sejam os mais próximos possíveis aos dados observados, é
conhecido como problema inverso.

Modelagem direta
calcula Dados compara Dados
Parâmetros
preditos observados

Problema inverso
estima Dados
Parâmetros
observados
1. Introdução 4

Sismograma

u
fonte receptores

x
raios v1
z v2
v3
v4

Figura 1: Exemplo de sistema físico que caracteriza uma aquisição sísmica. Neste
caso o sistema envolve ondas sísmicas (representadas pelos raios) que se propagam em
meios com velocidades V1, V2, V3 e V4. A grandeza física que podemos observar é o
deslocamento dos sismômetros u (neste caso somente na vertical). Estas observações
são tipicamente dispostas em um sismograma.

gz

z Δρ

Figura 2: Exemplo de sistema físico que caracteriza um levantamento gravimétrico.


Neste caso o sistema envolve o efeito gravitacional causado por um contraste de densi-
dade anômalo ∆ρ. A grandeza física que podemos observar é a anomalia da gravidade
gz .
1. Introdução 5

ρa

AB/2

A M N B x

ρ(z)
z

Figura 3: Exemplo de sistema físico que caracteriza uma sondagem elétrica vertical
(SEV). Neste caso o sistema envolve a condução de correntes elétricas em um meio
com resistividades elétrica ρ que varia com a profundidade. A grandeza física que
podemos observar é diferência de potencial elétrico entre os eletrodos M e N. Esta
grandeza é geralmente convertida para resistividade aparente ρa .

Figura 4: Exemplo de hipótese que descreve o sistema físico referente a uma aquisição
sísmica. Modelo de duas camadas plano-paralelas, homogêneas e isotrópicas.

z Δρ

Figura 5: Exemplo de hipótese que descreve o sistema físico referente a uma levanta-
mento gravimétrico. Modelo de um corpo elipsoidal homogêno.
1. Introdução 6

A M N B x

Figura 6: Exemplo de hipótese que descreve o sistema físico referente a uma sondagem
elétrica vertical. Modelo de três camadas plano-paralelas, homogêneas e isotrópicas.

Sismograma

h 1 v1 x

z v2

Figura 7: Exemplo de parametrização da hipótese na Figura 4. Neste caso, a hipótese


é descrita em termos dos parâmetros h1 , V1 e V2. Esta hipótese produz o dado predito
representado pela linha pontilhada vermelha.
1. Introdução 7

gz

z Δρ

Figura 8: Exemplo de parametrização da hipótese na Figura 5. Neste caso, a hipótese é


descrita em termos dos parâmetros ∆ρ1 , ∆ρ2 , . . . , ∆ρM que representam os constrastes
de densidade de cada célula. Esta hipótese produz o dado predito representado pela
linha pontilhada vermelha.

ρa

AB/2

A M N B x

h1 ρ1

z h2 ρ2

ρ3

Figura 9: Exemplo de parametrização da hipótese na Figura 6. Neste caso, a hipótese


é descrita em termos dos parâmetros h1 , ρ1 , h2 , ρ2 e ρ3 . Esta hipótese produz o dado
predito representado pela linha pontilhada vermelha.
8

Capítulo 2

Formulação matemática do problema


inverso

Dado um conjunto de N observações, feitas em diferentes posições, tempos, etc., defi-


nimos um vetor de dados observados

 
o
d
 1
 
d o 
¯o  2
d =  . , (2.1)
 .. 
 
 
dNo

em que dio , i = 1, 2, 3, . . . , N , é o dado observado na i-ésima posição, tempo, etc. De


forma análoga, definimos um vetor de dados preditos

 
p
 d1 
 p
d 
 2
d¯p =  .  , (2.2)
 .. 
 
 
dNp

em que dip , i = 1, 2, 3, . . . , N , é o dado predito calculado na mesma posição, tempo,


etc., que o i-ésimo dado observado. Continuando no espírito de definição de vetores,
definimos também um vetor que agrupa todos os M parâmetros, denominado vetor de
2. Formulação matemática do problema inverso 9

parâmetros

 
 p1 
 
 p2 
p̄ =  .  , (2.3)
 
 .. 
 
 
pM

em que pj , j = 1, 2, 3, . . . , M , é o j-ésimo parâmetro.


Como vimos no Capítulo 1, os dados preditos são descritos por uma função dos
parâmetros, ou seja,

dip = fi (p̄) . (2.4)

Desta forma, podemos dizer que o vetor de dados preditos é uma função dos parâmetros

 
 f1 (p̄) 
 
 f2 (p̄) 
d¯p = f¯(p̄) =  .  . (2.5)
 
 .. 
 
 
fN (p̄)

O problema inverso consiste em encontrar um vetor de parâmetros p̄ que produza


os dados preditos mais próximos possívies dos dados observados. Para determinar a
“proximidade” entre os dados observados e os dados preditos, é necessário quantificar
a distância entre eles. Isto é feito em termos da norma do vetor de resíduos

r̄ = d¯o − f¯(p̄), (2.6)

em que d¯o é o vetor de dados observados e f¯(p̄) é o vetor de dados preditos.


Para quantificar a distância entre os dados observados e os dados preditos utiliza-se,
usualmente, o quadrado da norma quadrática (também conhecida como norma `2 ou
norma Euclidiana) do vetor de resíduos
2. Formulação matemática do problema inverso 10

N
X
kr̄k22 = [dio − fi (p̄)]2 . (2.7)
i=1

Esta equação é também uma função escalar dos parâmetros. Assim sendo, definimos
uma função φ(p̄), chamada de função do ajuste, como

N
X
φ(p̄) = kr̄k22 = [dio − fi (p̄)]2 . (2.8)
i=1

Lembramos que o quadrado da norma Euclidiana de um vetor é igual ao produto


escalar do vetor com ele mesmo, ou seja,

kr̄k22 = r̄ · r̄ = r1 r1 + r2 r2 + · · · + rN rN . (2.9)

Como o vetor r̄ é um vetor coluna (matriz com uma coluna), podemos escrever o
produto escalar da equação 2.9 como

 
 r1 
  
 r2 
T
r̄ · r̄ = r̄ r̄ = r1 r2 . . . rN  .  . (2.10)
 
 .. 
 
 
rN

Dessa forma podemos reescrever a função do ajuste (equação 2.8) como

T  o
φ(p̄) = r̄T r̄ = d¯o − f¯(p̄) d¯ − f¯(p̄) .
 
(2.11)

Neste ponto é importante ressaltar o seguinte conceito:

A função do ajuste é uma função escalar que quantifica a distân-


cia entre os dados observados e os dados preditos para um deter-
minado vetor de parâmetros p̄.

Perante este conceito, o problema inverso consiste em determinar um vetor p̃ que


minimiza a função do ajuste φ(p̄). Matematicamente, isso equivale a encontrar o vetor
2. Formulação matemática do problema inverso 11

p̃ tal que o gradiente da função φ(p̄) avaliado em p̃ seja igual ao vetor nulo. Este vetor
p̃ é um ponto extremo da função φ(p̄).
O gradiente da função φ(p̄), avaliado em um p̄ qualquer, é um vetor M -dimensional
definido como (ver Apêndice A)

 
∂φ(p̄)
 ∂p1 
 
 
 ∂φ(p̄) 
¯
 
∇φ(p̄) = ∂p 2 ,
 (2.12)
 .. 

 . 
 
 ∂φ(p̄) 
∂pM
¯ é o operador gradiente (Apêndice A). A partir da equação 2.11, a expressão
em que ∇
para o i-ésimo elemento do vetor gradiente é

∂φ(p̄) ∂ n ¯o ¯ T  ¯o ¯ o
= d − f (p̄) d − f (p̄)
∂pi ∂pi

T ∂ f¯(p̄) . (2.13)
( T
) 
∂ f¯(p̄)  ¯o ¯ 

¯ ¯
 o
= − d − f (p̄) + − d − f (p̄)
∂pi ∂pi
| {z } | {z }
escalar escalar

Lembrando que o transposto de um escalar é igual a ele mesmo, podemos tomar o


transposto do segundo termo do lado direito da equação 2.13, obtendo

T
∂φ(p̄) ∂ f¯(p̄)  ¯o ¯ 
= −2 d − f (p̄) , (2.14)
∂pi ∂pi

∂ f¯(p̄)
em que é um vetor N -dimensional (ver Apêndice A) dado por
∂pi
2. Formulação matemática do problema inverso 12

 
∂f1 (p̄)
 ∂pi 
 
 
 ∂f2 (p̄) 
¯
∂ f (p̄)  
=  ∂pi  . (2.15)
∂pi  .. 
 . 
 
 ∂fN (p̄) 
∂pi
Substituindo as equações 2.14 e 2.15 na expressão do gradiente (equação 2.12)
obtemos

T
∂ f¯(p̄)
 
d¯o − f¯(p̄) 
 
−2

 ∂p1 
 
T
 ∂ f¯(p̄)
 
d¯ − f¯(p̄) 
 o
= −2 ∂p2

¯
∇φ(p̄)


 .. 
.
 
 
 ∂ f¯(p̄) T
 

d¯ − f¯(p̄)
 o
−2
∂pM
(2.16)
T
∂ f¯(p̄)

 ∂p 
 1 
 
 ¯ T
 ∂ f (p̄)  
= −2  ∂p2  d¯o − f¯(p̄) .
  
 . 
 . 
 . 
 ∂ f¯(p̄) T 
 

∂pM

Por fim, o gradiente da função do ajuste φ(p̄) pode ser escrito como

¯
∇φ(p̄) ¯ (p̄)T d¯o − f¯(p̄) .
= −2Ḡ (2.17)

em que
2. Formulação matemática do problema inverso 13

 
∂f1 (p̄) ∂f1 (p̄) ∂f1 (p̄)
 ∂p1 ...
 ∂p2 ∂pM  
 
  ∂f2 (p̄) ∂f2 (p̄) ∂f2 (p̄) 
∂ f¯(p̄) ¯ ¯

¯ ∂ f (p̄) ∂ f (p̄)  ... 
Ḡ(p̄) = ... =
 ∂p1 ∂p2 ∂pM  . (2.18)
∂p1 ∂p2 ∂pM  .. .. .. .. 
 . . . . 
 
 ∂fN (p̄) ∂fN (p̄) ∂fN (p̄) 
...
∂p1 ∂p2 ∂pM

¯ (p̄) de dimensão N × M é a matriz Jacobiana de f¯(p̄).


A matriz Ḡ

¯ é comumente denominada ma-


Em problemas inversos, essa matriz Ḡ
triz de sensibilidade, uma vez que o i-ésimo elemento de sua j-ésima
coluna expressa a sensibilidade do i-ésimo dado predito em rela-
ção à variações do j-ésimo parâmetro.

As equações 2.17 e 2.18 mostram que o gradiente da função do ajuste φ(p̄) depende
do vetor de dados preditos f¯(p̄) (equação 2.5) e sua derivada em relação aos parâmetros
p̄. Sendo assim, a função f que relaciona os parâmetros aos dados preditos determina
o comportamento do gradiente de φ(p̄). Nas próximas seções analisaremos os casos
em que a função f é linear ou não-linear em relação aos parâmetros. Essa análise nos
permitirá compreender a influência da função f na busca pelo vetor de parâmetros p̃
que minimiza a função φ(p̄).

2.1 Problemas lineares

Se a função fi (p̄) (equação 2.4), que relaciona o vetor de parâmetros p̄ ao i-ésimo dado
predito, for uma combinação linear dos parâmetros, ela terá a seguinte forma

fi (p̄) = gi1 p1 + gi2 p2 + · · · + giM pM + bi , (2.19)

em que gij , j = 1, 2, · · · , M , e bi são constantes. Portanto, a derivada de fi (p̄) em


2. Formulação matemática do problema inverso 14

relação ao j-ésimo parâmetro pj é dada por

∂fi (p̄)
= gij , (2.20)
∂pj

que não depende dos parâmetros. Para um conjunto de N dados, o vetor de dados
preditos tem a seguinte forma

¯ p̄ + b̄ ,
f¯(p̄) = Ḡ (2.21)

¯ a matriz de sensibilidade (equação 2.18) e b̄ um vetor de constantes. Substi-


sendo Ḡ
tuindo a expressão acima no gradiente da função do ajuste (equação 2.17), chegamos
a

 
¯ ¯ T ¯o ¯
∇φ(p̄) = −2Ḡ d − Ḡp̄ − b̄ . (2.22)

Seja p̃ o vetor que minimiza a função φ(p̄), o gradiente desta função avaliado em p̃
é igual ao vetor nulo. Isto nos leva ao sistema de equações

¯ T Ḡ
Ḡ ¯ p̃ = Ḡ
¯ T d¯o − b̄ . (2.23)

Este sistema é conhecido como sistema de equações normais. A solução para este
sistema é

¯ T Ḡ
p̃ = (Ḡ ¯ )−1 Ḡ
¯ T d¯o − b̄ , (2.24)

que é conhecido como estimador de mínimos quadrados.


As equações 2.23 e 2.24 mostram que o vetor p̃ que minimiza a função φ(p̄) pode
¯ e dos vetores b̄ e d¯o . Isto caracteriza um
ser obtido diretamente a partir da matriz Ḡ
problema inverso linear.
2. Formulação matemática do problema inverso 15

2.2 Problemas não-lineares

Nesta seção analisaremos o caso em que a função fi (p̄) (equação 2.4) não é uma combi-
nação linear dos parâmetros. Neste caso, a derivada de fi (p̄) em relação aos parâmetros
também será uma função dos parâmetros. Logo, dependendo das características da fun-
ção fi (p̄), o gradiente da função do ajuste φ(p̄) pode ser nulo para mais de um valor
de p̄. Em outras palavras, a função φ(p̄) pode possuir vários pontos extremos além
daquele em que esta função seja mínima. Por esta razão, o cálculo do vetor p̃ que
minimiza a função do ajuste deve ser feito de forma iterativa. Isto difere do problema
inverso linear e caracteriza um problema inverso não-linear.
A busca pelo vetor p̃ que minimiza uma determinada função faz parte de uma área
da matemática conhecida como otimização, dentro da qual existem diversos métodos
(Kelley, 1999). O procedimento padrão para realizar esta busca de forma iterativa é
começar com uma determinada aproximação inicial p̄0 e calcular uma correção ∆p̄.
Esta correção é então aplicada à aproximação inicial dando origem a um novo vetor p̄1 .
Este novo vetor serve como aproximação inicial para o cálculo de um segundo vetor p̄2 ,
e assim sucessivamente. O processo termina quando é encontrado um vetor p̂ que seja
próximo ao vetor p̃ que minimiza a função em questão. Em geral, não se tem garantia
de que o vetor p̂ seja igual ao vetor p̃.
Dentre os vários métodos existentes, apresentaremos a seguir aquele conhecido como
método de Gauss-Newton. O procedimento para calcular a correção ∆p̄ começa com a
expansão em série de Taylor da função a ser minimizada, neste caso φ(p̄). A expansão
é feita até segunda ordem e em torno da aproximação inicial p̄0 (ver Apêndice A)

p̄ = p̄0 + ∆p̄ , (2.25)

¯ T 1 T¯
φ(p̄0 + ∆p̄) ≈ φ(p̄0 ) + ∇φ(p̄ 0 ) ∆p̄ + ∆p̄ ∇φ(p̄0 )∆p̄ = ψ(p̄) , (2.26)
2
¯
sendo ∇φ(p̄ ¯
0 ) o vetor gradiente e ∇φ(p̄0 ) a matriz Hessiana da função φ(p̄), calculados
2. Formulação matemática do problema inverso 16

em p̄0 .
A função ψ(p̄) (equação 2.26) é uma aproximação de segunda ordem para a função
φ(p̄) em torno do ponto p̄0 . Tal como no problema inverso linear, desejamos encontrar
um ponto p̂ que minimiza a função ψ(p̄), ou seja, onde seu gradiente é nulo. O gradiente
de ψ(p̄) é dado por (ver Apêndice A)

 
¯ ¯ φ(p̄0 ) + ∇φ(p̄
¯ 1 T ¯
T ¯ ¯
∇ψ(p̄) =∇ 0 ) ∆p̄ + ∆p̄ ∇φ(p̄0 )∆p̄ = ∇φ(p̄0 ) + ∇φ(p̄0 )∆p̄ . (2.27)
2

Logo, o incremento ∆p̄ = p̂ − p̄0 , que leva da aproximação inicial ao ponto p̂ onde o
gradiente de ψ(p̄) é nulo, é a solução do sistema de equações

¯
∇φ(p̄ ¯
0 )∆p̄ = −∇φ(p̄0 ) . (2.28)

O cálculo do vetor gradiente de φ(p̄) foi feito anteriormente (equação 2.17), restando
¯
então o cálculo da matriz Hessiana ∇φ(p̄). Para tanto, deriva-se o i-ésimo elemento
do vetor gradiente (equações 2.12 e 2.14) em relação ao j-ésimo elemento do vetor de
parâmetros pj (equação 2.3)

T
!
∂ f¯(p̄)  ¯o ¯ 
 
∂ ∂φ(p̄) ∂
= −2 d − f (p̄)
∂pj ∂pi ∂pj ∂pi

T
! T
! (2.29)
∂ 2 f¯(p̄)  ¯o ¯  ∂ f¯(p̄) ∂ f¯(p̄)
= −2 d − f (p̄) + 2 .
∂pj ∂pi ∂pi ∂pj
| {z } | {z }
escalar escalar

Esta equação 2.29 representa o j-ésimo elemento da i-ésima linha da matriz Hessi-
ana (ver Apêndice A). No método de Gauss-Newton, o termo envolvendo as segundas
derivadas de f¯(p̄) é negligenciado. Desta forma a equação 2.29 pode ser aproximada
por
2. Formulação matemática do problema inverso 17

T
∂ f¯(p̄) ∂ f¯(p̄)
 
∂ ∂φ(p̄)
≈2 . (2.30)
∂pj ∂pi ∂pi ∂pj

Sendo assim, matriz Hessiana avaliada em p̄0 é dada por

T T T
∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 )
 
 ∂p ...
 1 ∂p1 ∂p1 ∂p2 ∂p1 ∂pM  
 
 ¯ T T T
 ∂ f (p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) 

¯
∇φ(p̄ ...
0 ) ≈ 2  ∂p2 ,
 
∂p1 ∂p2 ∂p2 ∂p2 ∂pM 
 .
.. .. .. .. 

 . . .


 ∂ f¯(p̄0 T ∂ f¯(p̄0 ) T T
 
∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) 
...
∂pM ∂p1 ∂pM ∂p2 ∂pM ∂pM

ou

T
∂ f¯(p̄0 )

 ∂p 
 1 
 
 ¯ T
 ∂ f (p̄0 ) 
 ∂ f¯(p̄0 ) ∂ f¯(p̄0 ) ∂ f¯(p̄0 )

¯
∇φ(p̄ ¯ (p̄ )T Ḡ
¯ (p̄ ) ,
0 ) ≈ 2  ∂p2 ... = 2Ḡ (2.31)

 0 0
 ..  ∂p1 ∂p2 ∂pM
.
 
 
T
 
 ∂ f¯(p̄0 ) 
∂pM

¯ (p̄ ) é a matriz de sensibilidade (equação 2.18) avaliada em p̄ .


em que Ḡ 0 0

A partir das equações 2.17 e 2.31, o sistema de equações 2.28 pode ser escrito como

¯ (p̄ )T Ḡ
Ḡ ¯ (p̄ )∆p̄ = Ḡ
¯ (p̄ )T d¯o − f¯(p̄ ) , (2.32)
0 0 0 0

em que d¯o é o vetor de dados observados e f¯(p̄0 ) é o vetor de dados preditos avaliado
em p̄0 . Este sistema de equações é o sistema de equações normais do problema inverso
não-linear.
A equação 2.32 descreve o cálculo da correção ∆p̄ em uma determinada iteração
do método Gauss-Newton. Para o caso em que a função fi (p̄) é uma combinação
2. Formulação matemática do problema inverso 18

linear dos parâmetros (equação 2.19), a equação 2.32 se reduz ao sistema de equações
normais do problema inverso linear (equação 2.23) 1 . Isto mostra que a solução do
problema inverso linear é um caso particular da solução do problema inverso não-
linear pelo método Gauss-Newton. Outra observação importante é a semelhança entre
as equações 2.23 e 2.32, o que evidencia que um problema inverso não-linear é uma
sucessão de problemas inversos lineares.

1 ¯ p̄ + b̄.
Dica: Lembre que nos casos lineares f¯(p̄) = Ḡ
19

Capítulo 3

Regularização

As equações 2.23 do problema inverso linear e 2.32 do problema inverso não-linear são
equações normais. Estas equações são sistemas lineares cuja matriz é quadrada. Para
que a solução de uma equação normal seja única, é necessário que esta matriz tenha
posto completo. Uma condição para que uma matriz tenha posto completo é que todas
as suas colunas (ou linhas) sejam linearmente independentes. Esta condição é equiva-
lente a dizer que a matriz possui determinante diferente de zero.
Em problemas geofísicos, é comum que a matriz do sistema normal possua determi-
nante próximo de zero. Ou seja, para fins práticos pode-se considerar que a matriz não
tenha posto completo. Isto faz com que o problema inverso geofísico seja um problema
mal posto.

Um problema mal-posto apresenta, principalmente, instabilidade e falta


de unicidade da solução.

A instabilidade é a alta variabilidade dos parâmetros perante peque-


nas variações nos dados.

Exemplo 3.1. Seja um conjunto de dados preditos A e outro conjunto de dados preditos
ligeiramente diferentes B. Se o problema inverso apresenta instabilidade, os parâme-
tros que produzem os dados preditos A são consideravelmente diferentes daqueles que
produzem os dados preditos B.
3. Regularização 20

A falta de unicidade é a existência de vários conjuntos de parâme-


tros que produzem os mesmos dados preditos.

Se o problema inverso apresenta falta de unicidade, os dados observados podem ser


explicados por vários conjuntos de parâmetros diferentes. Em termos práticos, existem
vários vetores de parâmetros diferentes que minimizam a função do ajuste (equação
2.11).
Os problemas inversos encontrados na geofísica são, em geral, mal-postos. Os princi-
pais motivos para isto são: a presença de ruído nos dados observados; e, principalmente,
a própria natureza do problema inverso. Neste último caso, mesmo se fôssemos capazes
de obter dados completamente isentos de ruído, ainda teríamos diversas combinações
de parâmetros capazes de explicar os dados observados (i.e., falta de unicidade). Por
este motivo, quando nos deparamos com problemas inversos na geofísica, é essencial a
utilização de regularização.
A regularização é um procedimento matemático que contorna os problemas de ins-
tabilidade e falta de unicidade em problemas inversos mal-postos. Esse procedimento
equivale a impor restrições aos parâmetros a serem estimados. Desta forma, em um pro-
blema inverso regularizado buscamos estimar um conjunto de parâmetros que ajustam
os dados observados e satisfaçam determinadas restrições. Estas restrições introdu-
zem informações a priori no problema inverso. As informações podem ser de natureza
geológica ou meramente matemática. Em geral, a introdução de informações a priori
é feita por meio de funções regularizadoras, que são funções escalares que dependem
dos parâmetros. Para incorporar informação a priori ao ajuste dos dados, formamos a
função objetivo

Ω(p̄) = φ(p̄) + µθ(p̄) , (3.1)

em que φ(p̄) é a função do ajuste (equação 2.11), θ(p̄) é uma função regularizadora e µ
é um escalar positivo denominado parâmetro de regularização. Desta forma, o problema
3. Regularização 21

inverso regularizado é definido como estimar um vetor de parâmetros p̃ que minimiza


a função objetivo.
Neste ponto é importante ressaltar que

O parâmetro de regularização µ controla a importância relativa


entre o ajuste aos dados observados e a concordância com a infor-
mação a priori.

O valor de µ é definido pelo usuário da inversão e por isso é importante compreender


sua influência no resultado obtido (parâmetros estimados). Valores altos de µ tornam
o problema inverso bem posto e fazem com que os parâmetros estimados satisfaçam
quase completamente as informações a priori. Porém, isto geralmente faz com que haja
um desajuste entre os dados observados e preditos. Por outro lado, valores baixos de
µ fazem com que os parâmetros estimados ajustem os dados observados. No entanto,
a estimativa poderá ser não-única e/ou instável, dependendo de quanto o problema
inverso for mal-posto. Idealmente, deve-se encontrar um valor de µ que proporcione
um bom ajuste e satisfaça as informações a priori o suficiente para estabilizar a solução.
Procedimentos práticos para determinação do valor de µ serão discutidos no Capítulo
4.
No problema inverso regularizado, a linearidade não depende apenas da função fi (p̄)
(equação 2.4) que relaciona os parâmetros aos dados preditos, mas também da função
regularizadora. Nesse caso, para que o problema inverso seja linear, é necessário que
tanto fi (p̄) como o gradiente da função regularizadora sejam combinações lineares dos
parâmetros. Se ao menos uma destas funções for não-linear, o problema inverso deverá
ser resolvido como um problema inverso não-linear.
Como foi observado anteriormente (Seção 2.2), o problema inverso linear é um caso
particular do problema inverso não-linear. Por esta razão, a formulação geral para o
problema inverso regularizado será feita seguindo os procedimentos adotados para o
problema inverso não-linear. Assim sendo, iniciaremos expandindo a função objetivo
(equação 3.1) em série de Taylor até segunda ordem
3. Regularização 22

¯ T 1 T¯
Ω(p̄0 + ∆p̄) ≈ Ω(p̄0 ) + ∇Ω(p̄ 0 ) ∆p̄ + ∆p̄ ∇Ω(p̄0 )∆p̄ , (3.2)
2
¯
sendo o vetor gradiente ∇Ω(p̄ ¯
0 ) e a matriz Hessiana ∇Ω(p̄0 ) de Ω(p̄) dados por

¯
∇Ω(p̄ ¯ ¯
0 ) = ∇φ(p̄0 ) + µ∇θ(p̄0 ) (3.3)

¯
∇Ω(p̄ ¯ ¯
0 ) = ∇φ(p̄0 ) + µ∇θ(p̄0 ) , (3.4)

¯
em que µ é o parâmetro de regularização, ∇φ(p̄ ¯
0 ) e ∇φ(p̄0 ) são o gradiente e a Hessiana

¯
da função do ajuste (equações 2.17 e 2.31) e ∇θ(p̄ ¯
0 ) e ∇θ(p̄0 ) são o gradiente e a

Hessiana da função regularizadora, todos avaliados em p̄0 .


Seguindo a dedução feita para o problema inverso não-linear (Seção 2.2), a correção
∆p̄ em uma determinada iteração do método Gauss-Newton é

¯
∇Ω(p̄ ¯
0 )∆p̄ = −∇Ω(p̄0 ) . (3.5)

Substituindo o gradiente e a Hessiana da função do ajuste (equações 2.17 e 2.31)


obtemos

h i
¯ (p̄ )T Ḡ
2Ḡ ¯ (p̄ ) + µ∇θ(p̄
¯ ¯ T ¯o

d − f¯(p̄0 ) − µ∇θ(p̄

¯
0 0 0 ) ∆p̄ = 2Ḡ(p̄0 ) 0) . (3.6)

1
Esta é a equação para o problema inverso regularizado. A seguir, apresentaremos
diferentes funções regularizadoras comumente encontradas em problemas inversos na
geofísica. Também mostraremos como fica a equação 3.6 para cada um dos casos.
1
Tente obter a equação normal para o caso em que f¯(p̄) é linear.
3. Regularização 23

3.1 Norma mínima (Tikhonov de ordem 0)

A função regularizadora mais comumente usada é a chamada norma mínima (também


conhecida como ridge regression ou Tikhonov de ordem zero). Como seu nome sugere,
esta função é utilizada para incorporar a informação de que o vetor de parâmetros
deve ter a norma quadrática (`2 ou Euclidiana) mínima. Isto é, os parâmetros devem
ser assumir valores mais próximos possíveis a zero. De forma similar a equação 2.9, a
função regularizadora de norma mínima tem a seguinte forma

θN M (p̄) = p̄T p̄ . (3.7)

¯ N M (p̄) (ver Apêndice A) desta


¯ N M (p̄) e a matriz Hessiana ∇θ
O vetor gradiente ∇θ
função são, respectivamente,

¯ N M (p̄) = 2I¯p̄
∇θ (3.8)

¯ N M (p̄) = 2I¯ ,
∇θ (3.9)

em que I¯ é a matriz identidade de dimensão M × M , lembrando que M é o número de


parâmetros. Note que o gradiente da função regularizadora de norma mínima é uma
combinação linear dos parâmetros.
Para o caso em que a função fi (p̄) que relaciona os dados preditos aos parâme-
tros também é linear (equação 2.19), a equação normal do problema inverso linear
regularizado, para o caso da regularização de norma mínima, é

 
Ḡ ¯ + µI¯ p̃ = Ḡ
¯ T Ḡ ¯ T d¯o − b̄ , (3.10)

¯ é a
em que µ é o parâmetro de regularização, d¯o é o vetor de dados observados, Ḡ
matriz de sensibilidade, b̄ é um vetor de constantes (equação 2.21) e p̃ é a solução de
3. Regularização 24

2
norma mínima para o problema inverso linear.
Já para o caso em que fi (p̄) é não-linear, o problema inverso torna-se também não-
linear. Assim sendo, a equação normal do problema inverso não-linear regularizado,
para o caso da regularização de norma mínima, é

h i
¯ (p̄ )T Ḡ
Ḡ ¯ (p̄ ) + µI¯ ∆p̄ = Ḡ
¯ (p̄ )T d¯o − f¯(p̄ ) − µp̄ . (3.11)
0 0 0 0 0

em que f¯(p̄0 ) é o vetor de dados preditos avaliado em p̄0 e ∆p̄ é a correção a ser aplicada
a p̄0 .

3.2 Igualdade

Há casos em que se conhece um valor aproximado de um ou mais parâmetros. Esta


informação pode ser proveniente de furos de sondagem, afloramentos, etc. Nestes casos,
é desejável que o valor estimado para estes parâmetros seja o mais próximo possível dos
valores conhecidos (e preestabelecidos). Para tanto, utilizamos a função regularizadora
de igualdade

θIG (p̄) = (p̄ − p̄ a )T Ā¯T Ā¯ (p̄ − p̄ a ) , (3.12)

em que p̄ a é um vetor cujo j-ésimo elemento é: o valor conhecido (preestabelecido) do


3
j-ésimo parâmetro; ou zero caso não haja um valor conhecido do j-ésimo parâmetro.
A matriz Ā¯ é uma matriz diagonal quadrada de dimensão M × M , lembrando que M é
o número de parâmetros. O j-ésimo elemento da diagonal de Ā¯ é 1 (um) caso haja um
valor conhecido (preestabelecido) para j-ésimo parâmetro, ou 0 (zero) caso contrário.

Exemplo 3.2. Digamos que em um determinado problema inverso a função fi (p̄)


depende de três parâmetros. Além disso, desejamos que o segundo parâmetro p2 seja
2
Onde foi parar o termo ∇θ¯ N M (p̄0 )? Dica: Mostre que, se o problema inverso é linear, a estimativa
p̃ não depende da aproximação inicial p̄0 .
3
Na prática, pode-se utilizar qualquer valor.
3. Regularização 25

o mais próximo possível do valor 26. Podemos então usar a função regularizadora de
igualdade para impor essa restrição. Neste caso, os vetores p̄ e p̄ a e a matriz Ā¯ serão

     
p1  0 0 0 0
e Ā¯ = 
     
p̄ = 
p2  ,
 p̄ a = 
26

0 1 0.

     
p3 0 0 0 0

¯ IG (p̄) (ver Apêndice A) da função


¯ IG (p̄) e a matriz Hessiana ∇θ
O vetor gradiente ∇θ
regularizadora de igualdade são, respectivamente,

¯ IG (p̄) = 2Ā¯T Ā¯ (p̄ − p̄ a )


∇θ (3.13)

¯ IG (p̄) = 2Ā¯T Ā¯ .


∇θ (3.14)

Para o caso em que a função fi (p̄) que relaciona os dados preditos aos parâme-
tros também é linear (equação 2.19), a equação normal do problema inverso linear
regularizado, para o caso da regularização de igualdade, é

 
¯ T ¯ ¯T ¯ ¯ T d¯o − b̄ + µĀ¯T Ā¯p̄ a ,
Ḡ Ḡ + µĀ Ā p̃ = Ḡ (3.15)

¯ é a
em que µ é o parâmetro de regularização, d¯o é o vetor de dados observados, Ḡ
matriz de sensibilidade, b̄ é um vetor de constantes (equação 2.21) e p̃ é a solução do
problema inverso linear com regularização de igualdade.
Já para o caso em que fi (p̄) é não-linear, o problema inverso torna-se também não-
linear. Assim sendo, a equação normal do problema inverso não-linear regularizado,
para o caso da regularização de igualdade, é

h i
¯ (p̄ )T Ḡ
Ḡ ¯ (p̄ ) + µĀ¯T Ā¯ ∆p̄ = Ḡ
¯ (p̄ )T d¯o − f¯(p̄ ) − µĀ¯T Ā¯ [p̄ − p̄ a ] . (3.16)
0 0 0 0 0
3. Regularização 26

em que f¯(p̄0 ) é o vetor de dados preditos avaliado em p̄0 e ∆p̄ é a correção a ser aplicada
a p̄0 .

3.3 Suavidade (Tikhonov de ordem 1)

Em certas situações é desejável que a distribuição dos parâmetros seja “suave”. Exis-
tem diversas interpretações para esta restrição, porém a mais comum é que parâmetros
espacialmente adjacentes devem ter valores mais próximos possível. Em outras pala-
vras, não devem haver variações abruptas entre parâmetros espacialmente adjacentes,
ou que a diferença entre estes parâmetros deve ser mínima.
A função regularizadora utilizada para incorporar a informação de suavidade tem
a seguinte forma

θSV (p̄) = v̄ T v̄ , (3.17)

em que v̄ é um vetor com as diferêncas entre os parâmetros espacialmente adjacentes. O


vetor v̄ é uma aproximação de diferenças finitas para a derivada espacial dos parâmetros
e pode ser escrito como

¯ p̄ ,
v̄ = R̄ (3.18)

¯ é uma matriz de diferenças finitas.


em que R̄

Exemplo 3.3. Seja o problema inverso de estimar o relevo de uma bacia sedimen-
tar. Uma possível parametrização seria discretizar a bacia em 7 prismas retangulares
justapostos com larguras fixas. Os parâmetros a serem estimados seriam então as 7
espessuras dos prismas (Figura 10). Impor suavidade ao relevo da bacia é equivalente
a minimizar as diferenças p1 − p2 , p2 − p3 , p3 − p4 , p4 − p5 , p5 − p6 e p6 − p7 . Neste
caso, o vetor v̄ das diferenças entre os parâmetros espacialmente adjacentes é dado por
3. Regularização 27

x
p1 p6 p7
p2 p5
p3
p4

Embasamento
z
Figura 10: Exemplo de parametrização do relevo de uma bacia sedimentar. Neste
caso, os 7 parâmetros utilizados são as espessuras de prismas retangulares justapostos.
Impor suavidade ao relevo da bacia é equivalente a minimizar as diferenças p1 − p2 ,
p2 − p3 , p3 − p4 , p4 − p5 , p 5 − p6 e p6 − p7 .

 
    p
 1
p1 − p2  1 −1 0 0 0 0 0  
p2 
   
p − p  0 1 −1 0 0 0 0 

 2 3  
 p

  3
   
p3 − p4  0 0 1 −1 0 0 0  
  
v̄ = 

=
   p 
  4 . (3.19)
p4 − p5  0 0 0 1 −1 0 0   
 p5 
    
  
p − p  0 0 0 0 1 −1 0  
 5 6   
    p6 
p6 − p7 0 0 0 0 0 1 −1  
| {z } p7
¯
R̄ | {z }

A função regularizadora de suavidade (também conhecida como Tikhonov de ordem


um) pode ser escrita como

¯ T R̄
θSV (p̄) = p̄T R̄ ¯ p̄ . (3.20)

¯ SV (p̄) (ver Apêndice A) desta função


¯ SV (p̄) e a matriz Hessiana ∇θ
O vetor gradiente ∇θ
são, respectivamente,

¯ T R̄
¯ SV (p̄) = 2R̄
∇θ ¯ p̄ (3.21)
3. Regularização 28

¯ SV (p̄) = 2R̄
∇θ ¯ T R̄
¯. (3.22)

O gradiente da função regularizadora de norma mínima é uma combinação linear


dos parâmetros. Para o caso em que a função fi (p̄) que relaciona os dados preditos aos
parâmetros também é linear (equação 2.19), a equação normal do problema inverso
linear regularizado, para o caso da regularização de suavidade, é

 
¯ T Ḡ
Ḡ ¯ + µR̄
¯ T R̄
¯ p̃ = Ḡ
¯ T d¯o − b̄ , (3.23)

¯ é a
em que µ é o parâmetro de regularização, d¯o é o vetor de dados observados, Ḡ
matriz de sensibilidade, b̄ é um vetor de constantes (equação 2.21) e p̃ é a solução
suave para o problema inverso linear.
Já para o caso em que fi (p̄) é não-linear, o problema inverso torna-se também não-
linear. Assim sendo, a equação normal do problema inverso não-linear regularizado,
para o caso da regularização de suavidade, é

h i
¯ T ¯ ¯ T ¯ ¯ (p̄ )T d¯o − f¯(p̄ ) − µR̄
Ḡ(p̄0 ) Ḡ(p̄0 ) + µR̄ R̄ ∆p̄ = Ḡ ¯ T R̄
¯ p̄ . (3.24)
0 0 0

em que f¯(p̄0 ) é o vetor de dados preditos avaliado em p̄0 e ∆p̄ é a correção a ser aplicada
a p̄0 .

3.4 Variação total

Ao contrário do que vimos na Seção 3.3, há situações em que é desejável que hajam
algumas descontinuidades entre parâmetros espacialmente adjacentes. Nestes casos,
podemos utilizar a função regularizadora de variação total

L
X
VT
θ (p̄) = |vk | , (3.25)
k=1
3. Regularização 29

em que vk , k = 1, 2, . . . , L, é o k-ésimo elemento do vetor de diferenças v̄ (equação 3.18).


Como esta função não é diferenciável para valores de vk = 0, podemos aproximá-la por

L q
X
VT
θ (p̄) ≈ θβV T (p̄) = vk2 + β , (3.26)
k=1

sendo β um escalar positivo pequeno.


¯ V T (p̄) e a matriz Hessiana ∇θ
O vetor gradiente ∇θ ¯ V T (p̄) desta função são, respec-
β β

tivamente, (Martins et al., 2011)

∇θ ¯ T q̄(p̄)
¯ βV T (p̄) = R̄ (3.27)

¯ V T (p̄) = R̄
∇θ ¯ T Q̄
¯ (p̄)R̄
¯, (3.28)
β

¯ uma matriz de diferenças finitas (equação 3.18). O vetor q̄(p̄) e a matriz Q̄


sendo R̄ ¯ (p̄)

são, respectivamente,

v1
 
 pv 2 + β 
 1 
 
 p v2
 

 2
q̄(p̄) =  v2 + β 

(3.29)
 .. 
.
 
 
vL
 
 
p
2
vL + β
e

 
β
 (v 2 + β) 32 0 ... 0 
 1 
 
 β 
¯
 0 3 ... 0 
Q̄(p̄) =  (v22 + β) 2 . (3.30)
 
 .. .. .. .. 

 . . . . 

β
 
 
0 0 ... 3
(vL2 + β) 2
3. Regularização 30

Como o gradiente e a Hessiana da função regularizadora de variação total (equações


3.27 e 3.28) não são combinações lineares dos parâmetros, a utilização desta função
regularizadora torna o problema inverso não-linear. Assim sendo, a equação normal
do problema inverso não-linear regularizado, para o caso da regularização de variação
total, é

h i
¯ (p̄ )T Ḡ
Ḡ ¯ (p̄ ) + µR̄
¯ T Q̄
¯ (p̄ )R̄
¯ ∆p̄ = Ḡ
¯ (p̄ )T d¯o − f¯(p̄ ) − µR̄
¯ T q̄(p̄ ) . (3.31)
0 0 0 0 0 0

em que f¯(p̄0 ) é o vetor de dados preditos avaliado em p̄0 e ∆p̄ é a correção a ser aplicada
a p̄0 .
31

Capítulo 4

Procedimentos práticos

Durante a solução de problemas inversos nos deparamos com diversos obstáculos, como:

• Por que a inversão não foi capaz de ajustar os dados observados?

• Como determinar um valor adequado para o parâmetro de regularização?

• Como analisar a estabilidade da solução?

Neste capítulo descreveremos alguns procedimentos práticos para abordar estas ques-
tões.

4.1 Ajustar os dados observados

Em situações reais, nem sempre é possível ajustar perfeitamente os dados observados.


Isso pode acontecer por três principais razões:

1. Os dados observados contêm ruído;

2. A função fi (p̄) escolhida para descrever a relação entre os parâmetros e os dados


preditos não é capaz de descrever o sistema físico de forma satisfatória;

3. Excesso de regularização;
4. Procedimentos práticos 32

O primeiro caso é esperado pois observações sempre contêm algum tipo de ruído.
Embora existam técnicas para a atenuação de ruído, é impossível que ele seja removido
completamente. Além disso, ruídos de caráter aleatório não são descritos pela relação
funcional entre os parâmetros e os dados preditos (equação 2.4). Sendo assim, não
ajustar perfeitamente os dados observados é aceitável, desde que o desajuste esteja
dentro do nível de ruído estimado dos dados.
Já no segundo caso, a função escolhida para descrever a relação entre os parâme-
tros e os dados preditos não representa o sistema físico de forma adequada. Nesse caso,
mesmo se os dados observados fossem isentos de ruído (situação impossível em condi-
ções reais), não seria possível estimar parâmetros que ajustassem os dados observados.
Isso é um indício de que a hipótese escolhida para representar o sistema físico não é vá-
lida. É crucial ressaltar que este é um resultado tão importante quanto encontrar uma
hipótese que descreva o sistema físico de forma satisfatória. Este tipo de resultado nos
permite descartar hipóteses (i.e., cenários geológicos) com base nos dados geofísicos.
O terceiro caso, em que há excesso de regularização, é devido a utilização de valores
demasiado elevados do parâmetro de regularização µ (equação 3.1). Valores elevados
de µ dão excessiva importância para a informação a priori (i.e., regularização), o que
causa um desajuste dos dados. Já valores baixos de µ priorizam o ajuste dos dados e
negligenciam a informação a priori. Neste caso, embora haja um bom ajuste dos dados,
o problema inverso se torna instável. Na Seção 4.2 trataremos da escolha de uma valor
adequado para µ.

4.2 Determinar um valor para o parâmetro de regu-

larização

O valor do parâmetro de regularização µ (equação 3.1) não pode ser determinado


para um caso geral. O valor de µ pode ser diferente para cada dado observado e
cada parametrização utilizada. Além disto, no caso em que haja mais de um função
4. Procedimentos práticos 33

regularizadora, pode ser desejável impor alguma delas mais fortemente que as outras.
Por exemplo, se utilizarmos ambas as funções regularizadoras de suavidade e igualdade
(equações 3.20 e 3.12, respectivamente), podemos desejar que a igualdade seja imposta
mais que a suavidade. No entanto, há procedimentos que permitem encontrar valores
de µ que sejam considerados adequados.
Um valor adequado de µ deve proporcionar um equilíbrio entre a estabilidade da
solução e o ajuste dos dados observados. Embora existam alguns métodos para escolha
automática do parâmetro de regularização (Aster et al., 2005), ainda não há uma
maneira de determinar um valor ótimo. Além disso, estes métodos automáticos são
aplicáveis somente a problemas inversos que utilizam uma única função regularizadora.
Sendo assim, apresentamos a seguir um procedimento prático que consiste em escolher
o menor valor possível para o parâmetro de regularização para que o problema inverso
seja bem-posto (i.e., com solução única e estável).
Seja um conjunto de N dados observados e M parâmetros, o procedimento prático
segue as seguintes etapas:

1. Gerar um vetor ē de N valores aleatórios. Cada valor deve ser a realização de


uma variável aleatória com distribuição Gaussiana de média zero e desvio padrão
igual ao nível de ruído estabelecido para os dados;

2. Gerar um vetor d¯0 de dados observados perturbados a partir da soma do vetor de


valores aleatórios ē e o vetor de dados observados d¯0

d¯0 = d¯0 + ē ;

3. Repetir as etapas 1 e 2 para gerar um conjunto de Q vetores de dados observados


perturbados diferentes;

4. Estabelecer um valor pequeno para o parâmetro de regularização µ;

5. Utilizar este valor de µ em Q inversões para estimar Q vetores de parâmetros


4. Procedimentos práticos 34

diferentes. Cada vetor de parâmetros corresponde a um dos vetores de dados


observados perturbados;

6. Calcular o desvio padrão dos Q valores obtidos para o j-ésimo parâmetro;

7. Repetir a etapa 6 para cada um dos M parâmetros;

8. Se ao menos um dos M parâmetros apresentar um desvio padrão maior que um


valor máximo preestabelecido, considere que o valor de µ não é adequado. Nesse
caso, aumente ligeiramente o valor de µ e repita as etapas 5-7;

9. Se nenhum dos M parâmetros apresentar um desvio padrão maior que um valor


máximo preestabelecido, considere que o valor de µ é adequado e o problema
inverso está bem regularizado;

As etapas 1-3 e 5-8 acima são o procedimento adotado para a análise da estabilidade
da solução.
35

Capítulo 5

Leitura recomendada

Livros sobre problemas inversos:

• Tarantola (2005)

• Menke (1989)

• Aster et al. (2005)

Métodos potenciais:

• Silva et al. (2001)

• Medeiros and Silva (1996)

• Martins et al. (2011)

• Barbosa and Silva (2011)

Otimização:

• Kelley (1999)
36

Referências Bibliográficas

Aster, R. C., B. Borchers, and C. H. Thurber, 2005, Parameter estimation and inverse
problems: Elsevier Academic Press.
Barbosa, V. C. F., and J. B. C. Silva, 2011, Reconstruction of geologic bodies in depth
associated with a sedimentary basin using gravity and magnetic data: Geophysical
Prospecting, 59, 1021–1034.
Kelley, C. T., 1999, Iterative methods for optimization: Raleigh: SIAM.
Martins, C. M., W. A. Lima, V. C. F. Barbosa, and J. B. C. Silva, 2011, Total variation
regularization for depth-to-basement estimate: Part 1 - mathematical details and
applications: Geophysics, 76, I1–I12.
Medeiros, W. E., and J. B. C. Silva, 1996, Geophysical inversion using approximate
equality constraints: Geophysics, 61, 1678–1688.
Menke, W., 1989, Geophysical data analysis: Discrete inverse theory: San Diego:
Academic Press Inc.
Silva, J. B. C., W. E. Medeiros, and V. C. F. Barbosa, 2001, Potential field inversion:
Choosing the appropriate technique to solve a geologic problem: Geophysics, 66,
511–520.
Tarantola, A., 2005, Inverse problem theory and methods for model parameter estima-
tion: Philadelphia: SIAM.
37

Apêndice A

Operações com matrizes

A seguir, demonstraremos como fazer algumas operações matemáticas com matrizes e


vetores. Mas antes, algumas definições.

A.1 Definições
Definição 1. Um vetor x̄ de M elementos é uma matriz de uma coluna e M linhas
 
x1
 x2 
 
x̄ = 
 .. 
 (A.1)
 . 
xM

Definição 2. Dado um conjunto de N funções f1 (x̄), f2 (x̄), . . . , fN (x̄), o vetor de


funções f¯(x̄) é dado por
 
f1 (x̄)
 f2 (x̄) 
 
f¯(x̄) = 
 .. 
 (A.2)
 . 
fN (x̄)

Definição 3. A derivada do vetor f¯(x̄) de N elementos em relação ao i-ésimo elemento


de x̄, xi , é
A. Operações com matrizes 38

 
∂f1 (x̄)
 ∂xi 
 
 
 ∂f2 (x̄) 
 
¯
∂ f (x̄) 
 ∂x i 

= (A.3)
∂xi  .. 

 . 
 
 
 ∂fN (x̄) 
 
∂xi

Definição 4. O vetor ūNi de N elementos possui todos seus elementos iguais a zero,
exceto o i-ésimo elemento que é igual a 1
   
u1 0
 .  .
 ..   .. 
   
ui−1  0
   
   
ūN
i =  ui  = 1
    (A.4)
ui+1  0
   
 .  .
 .  .
 .  .
uN 0
¯ em relação ao vetor x̄ de N elementos é igual a
Definição 5. O operador gradiente ∇



 ∂x1 
 
 ∂ 
 
 ∂x2 
 
¯
∇=  (A.5)
 . 
 .. 
 
 
 ∂ 
∂xN
¯ em relação ao vetor x̄ de N elementos é igual a
Definição 6. O operador Hessiana ∇

∂2 ∂2 ∂2
 
...

 ∂x21 ∂x2 ∂x1 ∂xN ∂x1 

 ∂2 ∂2 2
 
∂ 
 ... 
¯ =∇
¯∇¯ T =  ∂x1 ∂x2
 ∂x22 ∂xN ∂x2 
∇ 

 (A.6)
 .. .. .. .. 
 . . . . 
 
 
 ∂2 ∂2 ∂2 
...
∂x1 ∂xN ∂x2 ∂xN ∂x2N
A. Operações com matrizes 39

A.2 Derivadas
¯
A seguir demonstramos como calcular ∂f∂x(x̄)
j
e ∂∂x
f (x̄)
j
para diversos casos. Em todos os
casos, x̄ é um vetor de M elementos e f¯(x̄) é um vetor de N elementos.

Exemplo A.1. Para o caso

f¯(x̄) = Ā¯x̄, (A.7)

em que Ā¯ é uma matriz de dimensão N × M .


Seja āj a j-ésima coluna de Ā¯, podemos escrever a matriz Ā¯ em relação a suas M
colunas
h i
Ā¯ = ā1 . . . āj . . . āM , (A.8)

e então

f¯(x̄) = x1 ā1 + · · · + xj āj + · · · + xM āM . (A.9)

Neste caso, a derivada de f¯(x̄) em relação a xj é

0 0
∂ f¯(x̄) ∂x1 ā
1 ∂x ā
j j ∂x ā
M M
>

= + ··· + + ··· + 
∂xj ∂xj ∂xj 
∂x j (A.10)

= āj = Ā¯ ūM


j .

Exemplo A.2. Para o caso

f¯(x̄) = x̄T Ā¯T , (A.11)

em que Ā¯ é uma matriz de dimensão N × M .


Seja āj a j-ésima coluna de Ā¯, podemos escrever a matriz Ā¯T em relação as M
colunas de Ā¯
 
āT1
 . 
 .. 
 
¯T
Ā =  āTj  ,
 
(A.12)
 . 
 . 
 . 
āTM
e então
A. Operações com matrizes 40

f¯(x̄) = x1 āT1 + · · · + xj āTj + · · · + xM āTM . (A.13)

Neste caso, a derivada de f¯(x̄) em relação a xj é

0 0
¯
∂ f (x̄) T
∂x1 ā1
 ∂x ā
j j
T
∂xM ā
 T
>
= + ··· + + · · · +  M
∂xj ∂xj ∂xj 
∂xj (A.14)
T ¯T
= āTj = (ūM
j ) Ā .

Exemplo A.3. Para o caso

f¯(x̄) = x̄, (A.15)

a derivada de f¯(x̄) em relação a xj é

∂ f¯(x̄)
= ūM
j . (A.16)
∂xj
Exemplo A.4. Para o caso

f (x̄) = āT x̄ = x̄T ā, (A.17)


1
a derivada de f (x̄) em relação a xj é

0 0
∂f (x̄) ∂x1 a
1 ∂xj aj ∂xM aM
>

= + ··· + + · · · +  = aj = āT ūM
j . (A.18)
∂xj ∂xj ∂xj 
∂xj
Exemplo A.5. Para o caso

f (x̄) = x̄T Ā¯T Ā¯x̄ = (Ā¯x̄)T (Ā¯x̄), (A.19)

a derivada de f (x̄) em relação a xj é (ver equação A.10)

#T
∂(Ā¯x̄) ¯x̄)
" " #
∂f (x̄) ∂(Ā
= (Ā¯x̄) + (Ā¯x̄)T
∂xj ∂xj ∂xj
(A.20)
= (Ā¯ūM T ¯ ¯ T ¯ M
j ) (Āx̄) + (Āx̄) (Āūj ) .
| {z } | {z }
escalar escalar

Como o transposto de um escalar é igual a ele mesmo


1
O transposto de um escalar é igual a ele mesmo.
A. Operações com matrizes 41

∂f (x̄)
= 2(Ā¯ūM T ¯ M T ¯T ¯
j ) (Āx̄) = 2(ūj ) Ā Ā x̄ . (A.21)
∂xj

A.3 Gradientes
¯ (x̄) para diversos casos. Em todos os casos,
A seguir demonstramos como calcular ∇f
x̄ é um vetor de M elementos.

Exemplo A.6. Para o caso

f (x̄) = āT x̄ = x̄T ā, (A.22)


2
o gradiente de f (x̄) é (ver equação A.18)
 
∂f (x̄)
 ∂x 
 1   
 
 ∂f (x̄)  a1
 a 
   
¯ (x̄) =  ∂x2  =  .2  = ā .

∇f (A.23)
 ..   .. 
   
 . 



 aM
 ∂f (x̄) 
∂xM
Exemplo A.7. Para o caso

f (x̄) = x̄T Ā¯T Ā¯x̄, (A.24)

o gradiente de f (x̄) é (ver equação A.21)

 
∂f (x̄)
M T ¯T ¯
   
 ∂x  M T
1 2(ū ) Ā Ā x̄ (ū )
  1  1 
 
 
 ∂f (x̄)  
 2(ūM )T Ā¯T Ā¯ x̄
  
 (ūM )T 
  2  2  ¯T ¯
¯ (x̄) =  ∂x2  =  ¯T ¯
 
∇f  .  Ā Ā x̄ = 2Ā Ā x̄ .
 = 2  (A.25)
 ..  
   .
..

  .. 
 .     
     
M T ¯T ¯ M T
 
 ∂f (x̄)  2(ūM ) Ā Ā x̄ (ūM )
∂xM
| {z }

2
O transposto de um escalar é igual a ele mesmo.
A. Operações com matrizes 42

A.4 Hessianas
¯ (x̄) para diversos casos. Em todos os casos,
A seguir demonstramos como calcular ∇f
x̄ é um vetor de M elementos.

Exemplo A.8. Para o caso

f (x̄) = x̄T Ā¯T Ā¯x̄, (A.26)

a Hessiana de f (x̄) é (ver equação A.25)

 T    
¯ ¯ ¯ T ¯ ¯T ¯ ¯ T ¯T ¯
∇f (x̄) = ∇[∇f (x̄)] = ∇ 2Ā Ā x̄ = 2∇ x̄ Ā ¯ T ¯T
| {zĀ} = 2∇ x̄ B̄ . (A.27)
¯T

¯ , segue que (ver equação A.14)


Sendo b̄j a j-ésima coluna de B̄
  
¯T
∂ x̄T B̄
   
 ∂x1  T
   b̄1 
 
 
 ¯T 
 ∂ x̄T B̄   
     b̄T2 
∇ ¯T = 
¯ x̄T B̄ ∂x2   

=  ¯T .
= B̄ (A.28)
  .. 

  . 

 ..

 .   
 
T
  
¯T 
 b̄M
 ∂ x̄T B̄


∂xM
Logo,

¯ (x̄) = 2B̄
∇f ¯ T = 2Ā¯T Ā¯ . (A.29)

A.5 Expansão em série de Taylor


A seguir demonstramos como calcular a expansão em série de Taylor de f (x̄) até a
primeira e segunda ordem. Em todos os casos, x̄ é um vetor de M elementos. A
expansão será feita em torno de um ponto x̄0 tal que

x̄ = x̄0 + ∆x̄ . (A.30)


A. Operações com matrizes 43

A.5.1 Até primeira ordem


A expansão em série de Taylor de f (x̄) até a primeira ordem é

∂f ∂f ∂f
f (x̄) ≈ f (x̄0 ) + (x̄0 )∆x1 + (x̄0 )∆x2 + · · · + (x̄0 )∆xM
∂x1 ∂x2 ∂xM
 
∆x1
 ∆x2 
  
∂f ∂f ∂f
≈ f (x̄0 ) + (x̄0 ) (x̄0 ) . . . (x̄0 )  . 
 (A.31)
∂x1 ∂x2 ∂xM . 
| {z } . 
¯ (x̄0 )T
∇f ∆xM
| {z }
∆x̄
¯ (x̄0 )T ∆x̄ .
≈ f (x̄0 ) + ∇f

A.5.2 Até segunda ordem


Baseado na equação A.31, a expansão em série de Taylor de f (x̄) até a segunda ordem
é

¯ (x̄0 )T ∆x̄
f (x̄) ≈f (x̄0 ) + ∇f

1 ∂ 2 f (x̄0 ) 1 ∂ 2 f (x̄0 ) 1 ∂ 2 f (x̄0 )


+ ∆x1 ∆x 1 + ∆x 1 ∆x 2 + · · · + ∆x 1 ∆xM
2 ∂x21 2 ∂x2 ∂x1 2 ∂xM ∂x1

1 ∂ 2 f (x̄0 ) 1 ∂ 2 f (x̄0 ) 1 ∂ 2 f (x̄0 )


+ ∆x2 ∆x1 + ∆x2 ∆x2 + · · · + ∆x2 ∆xM
2 ∂x1 ∂x2 2 ∂x22 2 ∂xM ∂x2
+ ···
1 ∂ 2 f (x̄0 ) 1 ∂ 2 f (x̄0 ) 1 ∂ 2 f (x̄0 )
+ ∆xM ∆x1 + ∆xM ∆x2 + · · · + ∆xM ∆xM .
2 ∂x1 ∂xM 2 ∂x2 ∂xM 2 ∂x2M
(A.32)

Transformando as multiplicações de ∆xj do lado direito em um produto escalar com o


vetor ∆x̄ obtemos
A. Operações com matrizes 44

¯ (x̄0 )T ∆x̄
f (x̄) ≈f (x̄0 ) + ∇f

∂ 2 f (x̄0 ) ∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )


 
1
+ ∆x1 ∆x1 . . . ∆x1 ∆x̄
2 ∂x21 ∂x2 ∂x1 ∂xM ∂x1

(A.33)
∂ 2 f (x̄0 ) ∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )
 
1
+ ∆x2 ∆x2 . . . ∆x2 ∆x̄
2 ∂x1 ∂x2 ∂x22 ∂xM ∂x2
+ ···
∂ 2 f (x̄0 ) ∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )
 
1
+ ∆xM ∆xM . . . ∆xM ∆x̄ .
2 ∂x1 ∂xM ∂x2 ∂xM ∂x2M

Em seguida, colocamos ∆xj em evidência

¯ (x̄0 )T ∆x̄
f (x̄) ≈f (x̄0 ) + ∇f

 2
∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )

1 ∂ f (x̄0 )
+ ∆x1 ... ∆x̄
2 ∂x21 ∂x2 ∂x1 ∂xM ∂x1
| {z }
escalar

 2
∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )

1 ∂ f (x̄0 )
+ ∆x2 . . . ∆x̄ (A.34)
2 ∂x ∂x ∂x22 ∂xM ∂x2
| 1 2 {z }
escalar

+ ···

 2
∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )

1 ∂ f (x̄0 )
+ ∆xM ... ∆x̄ .
2 ∂x ∂x ∂x2 ∂xM ∂x2M
| 1 M {z }
escalar

Agora, transformamos a multiplicação de ∆xj a esquerda em um produto escalar com


o vetor ∆x̄
A. Operações com matrizes 45

¯ (x̄0 )T ∆x̄
f (x̄) ≈f (x̄0 ) + ∇f

∂ 2 f (x̄0 ) ∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )


   
... ∆x̄ 

 ∂x21 ∂x2 ∂x1 ∂xM ∂x1 
. (A.35)
 
 ∂ 2 f (x̄0 ) 2
∂ f (x̄0 ) 2
∂ f (x̄0 )

1 T . . . ∆x̄ 
+ ∆x̄ 
 ∂x1 ∂x2 ∂x22 ∂xM ∂x2 
2  ..



 2 . 
2 2
 
 ∂ f (x̄0 ) ∂ f (x̄0 ) ∂ f (x̄0 ) 
... ∆x̄
∂x1 ∂xM ∂x2 ∂xM ∂x2M

Colocando ∆x̄ em evidência e lembrando da equação A.6 obtemos

¯ (x̄0 )T ∆x̄
f (x̄) ≈f (x̄0 ) + ∇f

∂ 2 f (x̄0 ) ∂ 2 f (x̄0 ) ∂ 2 f (x̄0 )


 
 ∂x2 ...
 1 ∂x2 ∂x1 ∂xM ∂x1  
 
2
 ∂ f (x̄0 ) 2 2
1 T ∂ f (x̄0 ) ∂ f (x̄0 ) 
...  . (A.36)
+ ∆x̄ 
 ∂x1 ∂x2 ∂x2 2
∂xM ∂x2   ∆x̄
2  .. .. ... .. 
 2 . . .
 
2 2

 ∂ f (x̄0 ) ∂ f (x̄0 ) ∂ f (x̄0 ) 
...
∂x ∂x ∂x2 ∂xM ∂x2M
| 1 M {z }
¯ (x̄ )
∇f 0

Finalmente, a expansão de f (x̄) em série de Taylor até segunda ordem é

¯ (x̄0 )T ∆x̄ + 1 ∆x̄T ∇f


f (x̄) ≈ f (x̄0 ) + ∇f ¯ (x̄ )∆x̄ .
0 (A.37)
2

Você também pode gostar