GEOFÍSICA DE RESERVATORIO
Carlos Rodriguez
UN-Rio/Atp-Ro /Res
2a edição
Rio de Janeiro, julho de 2006
1
0 – APRESENTAÇÃO, UM BREVE HISTÓRICO, UM REGISTRO E AGRADECIMENTOS
Ainda fora da parte técnica, aproveito para registrar também o isolamento em que
os geofísicos de reservatório se encontram na Petrobrás, o que é prejudicial para todos –
mas principalmente para a própria área de desenvolvimento e produção. Tal isolamento
se auto-alimenta, pois vários técnicos qualificados da exploração (onde estão vários
geofísicos capacitados e experientes) têm – deixando de lado por um momento a sempre
presente dificuldade da ‘liberação’ dos técnicos por parte dos gerentes – receio (algumas
1
Nem o documento propondo o GT-016/89 (que sugeriu o uso de estações de interpretação por
geólogos de desenvolvimento), nem um possível relatório final deste GT, foram encontrados.
2
vezes, justificado) de ir para a área de reservatórios – por vários motivos, como por ex., o
‘domínio’ (que freqüentemente se reverte na ascensão profissional) de engenheiros, a
menor comunidade, etc. Como os geofísicos da exploração geralmente não desejam (e
alguns poucos não podendo) ir para o reservatório, os gerentes de reservatório não
‘liberam’ seus geofísicos – processo pernicioso, pois impede aos geofísicos de
reservatório – principalmente os menos experientes – uma capacitação técnica e/ou
acumulo de experiência para realizar da melhor forma possível suas obrigações
profissionais. Espero que tal círculo vicioso possa ser rompido, se não breve, ao menos
num futuro não muito distante.
Diversas pessoas têm me ajudado ao longo de vários anos com seu tempo e
atenção em explicações e discussões sobre vários assuntos que reduziram um pouco
minha vasta ignorância sobre sísmica, mas devo reconhecer especialmente a contribuição
de Adelson de Oliveira, Andre Romanelli Rosa, Antonio Buginga Ramos, Carlos Cunha,
Carlos Varela, Eduardo Faria, Fernando Rodrigues, Gerson Ritter, Guenther
Schwedersky, Gustavo Ponce Correia, Tutor Jose Tassini, Marcos Gallotti, Prof. Osvaldo
Duarte, Raimundo Freire e Wander Amorim. Especificamente para a realização deste
curso, agradeço os esforços de Ronaldo Jaegher e Mauro Mihaguti. Agradeço também
aos geólogos Carlos Beneduzi, Carlos Varela, Cristiano Sombra, Darci Sarzenski, Jorge
Andre de Souza, Luis Carlos de Freitas, Mauro Becker, Olinto de Souza, Paulo Paraizo,
Pedro Zalan, Sandra Carneiro, Thomas Adams e Zilander Camoleze o grande
aprendizado adquirido sobre geologia (e não só de desenvolvimento) ao longo do convívio
profissional.
3
1 – INTRODUÇÃO AOS MÉTODOS GEOFÍSICOS
1.2 Gravimetria
4
1.3 Magnetometria
Existem vários métodos, que podem ser agrupados entre os que usam fontes
naturais (self-potential, telúricos e magnetotelúricos), eletromagnéticos (terrestres e
aéreos), resistivos e polarização induzida.
Historicamente tem sido de aplicação bastante restrita na prospecção de
hidrocarbonetos a partir da superfície, mas nos últimos anos o uso de sea-bed logging
tem se mostrado como uma ferramenta útil – usando junto com a sísmica – em atividades
exploratórias na diminuição de incertezas de qual tipo de fluido preenche potenciais
reservatórios. Devido a sua importância, será discutido em maior detalhe no cap. 10.
5
2 – INTRODUÇÃO AO MÉTODO SÍSMICO
6
A freqüência é muito estudada porque determina, entre outras coisas, a menor
espessura observável (resolução vertical). Já a amplitude é bastante usada na definição
de litologias e fluidos. O conceito de fase é um pouco menos difundido, estando
associado a ‘amarração’ entre dados sísmicos e perfis de poços.
Quando analisamos diversos pontos de uma onda ao mesmo tempo (fig. 2.1.1b),
além da amplitude, observam-se
. o comprimento de onda (wavelength) (λ), que é a distância entre pontos com mesma
fase em ciclos sucessivos, e
. o número de onda (wavenumber) ( κ=1/λ ), que é o número de comprimentos de
onda por unidade de distância.
Uma observação conjunta das fig. 2.1.1a e b fornece a velocidade (V=λ/T=λ.f), que
é a razão de propagação de uma onda.
Para uma onda não periódica analisada em um ponto fixo, existe o período
dominante (fig. 2.1.1c), definido pelas cavas principais, e a freqüência dominante, que é o
inverso deste período. Ela não deve ser confundida com a freqüência de pico, que é
definida pelo maior valor de amplitude em um espectro da transformada de Fourier
(explicada a seguir). Analisando-se uma onda não periódica em tempo fixo, existe o
comprimento de onda dominante (fig. 2.1.1d), medido da mesma maneira que o período
dominante. A resolução vertical é função direta da freqüência (ou período) dominante.
Fig. 2.1.1 – Características de uma onda periódica, para (a) ponto fixo, (b) tempo fixo e não
periódica, mostrando (c) período e (d) comprimento de onda dominantes (extraído de Lindseth,
1982).
7
distintos, tornando impossível sua separação – o caso mais comum e conhecido sendo o
tunning, em que a amplitude de topo e base de camadas pouco espessas (inferiores a 15
ou 20 m) se interferem.
0 0 0
Fig. 2.1.2 – Interferência entre ondas com diferenças de fase (atraso) de (a) 0 , (b)180 ) e (c) 90
(extraído de Lindseth, 1982).
8
Fig. 2.1.4 – Significado geométrico da 1ª
zona de Fresnel.
Uma pergunta que pode ocorrer é por que não existe propagação de ondas ‘para
trás’ (ou seja, por que a onda não ‘volta’, e se propaga somente ‘para frente’)? Espera-se,
intuitivamente, que as ondas geradas ‘para trás’ tenham forte interferência destrutiva com
o campo de ondas posterior que se propaga ‘para frente’, porém com ‘atraso’. Esta idéia,
denominado de teorema da extinção, é demonstrado de uma forma rigorosa
matematicamente por Rosa (2002).
9
O parâmetro do raio pode também ser definido como (fig. 2.1.7)
p=dt/dx 2.1.2
Neste caso, p pode ser visto como o inverso da velocidade aparente.
É possível demonstrar (por ex., a partir de Huygens) que uma descontinuidade em
um refletor (causada, por ex., por uma falha ou afinamento de camada) gera como
reflexão uma difração, ou onda difratada (fig. 2.1.8). Em seções sísmicas, a frente de
onda de uma difração aparece como uma hipérbole (fig. 2.1.9). Isto ocorre porque uma
frente de onda, gerada espacialmente como uma esfera, é amostrada no método sísmico
a uma profundidade geralmente constante e por um intervalo de tempo qualquer, tendo
seu tempo de trânsito t definido aproximadamente pela equação hiperbólica
t2 = t02 + x2 / V2 2.1.3
t0 tempo de trânsito (teórico) para distância fonte-receptor (offset) X nula e V velocidade do meio
(considerada constante).
10
Os pontos de uma frente de onda, que podem ser considerados como pontos
secundários para geração de novas frentes pelo principio de Huygens, não geram ondas
com mesma distribuição de energia em todas as direções; na realidade, eles se
comportam com difratores. É possível demonstrar que a resposta sísmica a um difrator
esta associada à diretividade da onda, ou fator de obliqüidade, segundo o qual a
amplitude de uma difração é função da trajetória do raio. Como conseqüência, as maiores
amplitudes de uma difração são no ápice da hipérbole gerada pelo ponto difrator.
11
Fig. 2.1.10 – Exemplo de modelagem sísmica numérica. Observar que uma depressão (sinclinal)
gera um alto (anticlinal) aparente. Este efeito, denominado de foco enterrado, é demonstrado
matematicamente pelo principio de Fermat (extraído de Rosa e Tassini, 1990).
12
amostragem espacial reduzido, ou seja, (grupos de) receptores mais próximos entre si, o
que significa o uso de um número maior de receptores.
O Teorema de Fourier diz que uma função ou polinômio (por ex., uma onda) pode
ser descrita pela superposição (somatório) de um conjunto de ondas senoidais e
cossenoidais de diferentes freqüências, amplitudes e fases (fig. 2.2.2). Cada onda
individual às vezes é chamada de harmônica. A série matemática que representa um
sinal, definida em termos de amplitude e fase para cada freqüência, é denominada
Transformada de Fourier (T.F.).
Quando esta transformada é aplicada a uma função ou polinômio, ocorre uma
mudança no domínio da observação dos dados. Um sinal originalmente no domínio do
tempo (por ex., um traço sísmico), tem sua T.F. no domínio da freqüência, e vice-versa.
Esta mudança de domínio é extremamente útil e poderosa para análises e alterações de
diversas características de um sinal. A T.F. de um traço sísmico, por ex., mostra o
espectro de amplitude (e também o de fase, mas na prática análises de fase são sempre
mais complicadas) deste traço (fig. 2.2.3).
13
Discreta. Um tipo específico da TF Discreta – a Fast Fourier Transform – é a usada no
processamento sísmico.
Alguns sinais importantes para a sísmica, e suas T.F., são mostrados na fig. 2.2.4.
A fig. 2.2.4a indica um sinal com freqüência e amplitude constantes (uma onda cosenoidal
perfeita). A fig. 2.2.4b mostra um pulso unitário (spike), cuja característica importante é o
espectro de amplitude plano (ou completo), com todas as freqüências presentes à
amplitude constante; apesar de irrealizável na prática, este pulso é extremamente
interessante em análises de algoritmos de processamento sísmico. A fig. 2.2.4c mostra
um ruído aleatório branco (white noise), assim denominado por analogia a cor branca da
ótica; este ruído possui espectro parecido a de um pulso unitário, sendo útil em algumas
etapas do processamento, quando se a usa a premissa (relativamente comum) de que o
ruído dominante em dados sísmicos é aleatório.
Um Sistema Linear (S.L.) representa uma operação cujo produto final (saída) é
relacionado linearmente com os dados de entrada; as propriedades de um S.L. de
interesse para a sísmica são
. não são criadas informações (por ex., um S.L. não introduz ruído),
. um S.L. pode alterar a amplitude e fase de um sinal, mas não sua freqüência,
. um S.L. é estacionário (invariante) no tempo, i.é., uma operação realizada no
tempo t é idêntica a uma operação realizada no tempo t+∆t, e
. um S.L. é distributivo, ou seja, a superposição de vários sinais como entrada não
altera o resultado final aplicado individualmente.
A operação de convolução (nesta apostila indicada pelo símbolo ∗) pode ser vista
como a mudança na forma de um sinal pelo efeito de um S.L. Fisicamente, pode ser
entendida como uma superposição (‘envolvimento’) entre duas séries quaisquer, de forma
que o resultado final é função de operações de soma e multiplicação entre todos os
elementos da série entre si – ou seja, uma multiplicação de matrizes. Um exemplo
simples de convolução é apresentado na fig. 2.2.5. A convolução é absolutamente
fundamental no método sísmico porque o traço sísmico pode ser definido (e é
freqüentemente considerado) como a convolução entre um pulso (gerado artificialmente)
14
e a função refletividade (que representa as camadas em sub-superfície) adicionado de
ruídos. O sismograma sintético, que é a primeira etapa na interpretação, corresponde à
convolução de um pulso sísmico (construído sinteticamente de forma a ser o mais
próximo ao dado real, ou extraído do próprio dado) com a função refletividade (obtida
pelos perfis sônico e/ou densidade). A deconvolução, muito comum e importante no
processamento, é o processo inverso à convolução.
Correlação cruzada (simbolizada neste material por ⊗) é uma operação que mede
a similaridade entre duas séries, ou a extensão da relação linear entre duas séries; as
séries tem que ter mesmo intervalo de amostragem. A autocorrelação é a correlação de
uma série consigo mesma.
Filtros são operadores que modificam uma série qualquer, com um objetivo
especifico. Os filtros usados no processamento sísmico têm as propriedades de um S.L.;
um filtro linear é um operador que altera uma série através de uma operação de
convolução. Os filtros mais comuns no processamento são (fig. 2.2.7):
15
Fig. 2.2.6 – Classificação de pulsos (wavelet)
sísmicos em relação à fase. Um pulso de
fase mínima tem a maior parte da energia
liberada no menor tempo possível, com o
oposto ocorrendo para um pulso de fase
máxima. Um pulso de fase misturada tem
componentes com as duas características
(extraído de Rosa e Tassini, 1990).
Fig. 2.2.7 – Alguns tipos de filtros usados no processamento sísmico (extraído de Rosa e Tassini,
1990).
16
tipos são gerados durante a propagação de uma perturbação mecânica (a onda) por um
material.
Nas ondas compressionais os movimentos das partículas são paralelos à direção
de propagação. Estas ondas causam movimentos alternados de compressão e expansão
nas partículas (fig. 2.3.1). Também são denominadas ondas primárias (por serem quase
sempre as primeiras a chegarem), P (abreviação de primary), ou longitudinais. Nas ondas
cisalhantes os movimentos das partículas são perpendiculares à direção de propagação
(fig. 2.3.1). São também denominadas ondas secundárias (por chegarem após a P), S,
rotacionais ou tangenciais. Algumas vezes são estudadas separadamente as ondas-SV e
SH. Nas SV as partículas vibram no plano vertical definido pela posição da fonte e
receptor (plano sagital), enquanto que nas SH o movimento é no plano horizontal. As
ondas-SV, geralmente geradas a partir de conversão/transmissão em interfaces de uma
onda-P incidente em ângulo diferente da normal à interface, são bem mais comuns e de
maior interesse.
17
Fig. 2.3.2 – Tipos de deformações elásticas:
(a) extensional, (b) volumétrica, (c)
cisalhamento puro e (d) cisalhamento
simples (extraído de Nur, 1983).
Um corpo é dito elástico quando existe uma relação única entre esforços aplicados
e deformações resultantes. Em um meio elástico, a deformação independe de como o
processo de esforço foi aplicado; alem disso, apos a remoção dos esforços, o corpo
retorna a forma original.
Para pequenas deformações (10-5 a 10-6), é válida a Lei de Hooke, que estabelece
τij=Σkl cijkl εkl 2.3.1
τij esforço na direção ij, εkl deformação na direção kl e cijkl constante de rigidez (stifness) na direção
kl de um corpo para um esforço na direção ij.
Pode-se dizer que a Lei de Hooke generalizada é uma relação constitutiva para
um corpo linearmente elástico (Krebes, 1989).
18
Uma característica importante de µ é ser invariável com o tipo de fluido que
preenche os poros. Experimentos mostram que µ é positivo para pequenas deformações
(Krebes, 1989).
19
A eq. 2.3.9 mostra que nos fluidos, que não oferecem resistência ao cisalhamento
(ou seja, µ=0), VS é nula, ou seja, ondas cisalhantes não se propagam em fluidos. Vê-se
também que VP é maior que VS – apesar de demonstrado aqui somente para meios
isotrópicos, este fato (VP>VS) ocorre em praticamente todas as situações de interesse na
natureza.
A tab. 2.3.1 (extraída de Sheriff, 2002) mostra relações entre parâmetros elásticos
e VP e VS. Deve-se observar que esses parâmetros são agora definidos a partir de
velocidades de propagação de ondas sísmicas – por isso, quando assim obtidos são
denominados dinâmicos. Da mesma forma, quando obtidos por ensaios em laboratório de
acordo com as eq. 2.3.3 a 2.3.8, são chamados de estáticos.
A tab. 2.3.2 (extraída de McQuillin et al., 1984) indica valores destes parâmetros
para algumas rochas, minerais, fluidos e outros materiais de importância na indústria do
petróleo.
A importância de se conhecer as constantes elásticas é que elas podem indicar
características das rochas e fluidos – as propriedades petrofísicas de interesse de
geólogos e engenheiros, como porosidade (φ), volume de argila (VSH) e saturação de água
(SW). Então, o que desejamos é obter essas constantes, o que se procura fazer a partir de
algumas teorias que relacionem valores em constantes elásticas de rochas com medidas
de propagação de ondas elásticas, e também como mudanças nas constantes estão
relacionadas a variações no comportamento das propagações.
20
Tab. 2.3.1 – Relações entre parâmetros elásticos, VP, VS e densidade para um meio isotrópico
(extraído de Sheriff, 2002).
21
Tab. 2.3.2 – Valores de alguns parâmetros elásticos para rochas, minerais, fluidos e materiais
comuns na indústria do petróleo (extraído de McQuillin et al, 1984).
22
Fig. 2.3.7 – Relação entre VP
e densidade para diferentes
tipos de rocha (extraído de
Gardner et al, 1974), com
ajuste da eq. 2.3.10.
Gassman (1951) obteve uma equação que fornece a relação entre o módulo da
rocha seca e saturada. Biot (1956), usando uma situação equivalente a impor propagação
de onda P sem movimentos relativos entre fluidos e sólidos, obteve uma condição em que
VP é igual à velocidade de Gassmann em todas as freqüências. Carcione et al. (2005)
apresentam uma generalizaçao do módulo bulk de Gassmann para meios multi-
minerálicos. Geerstma (1961) desenvolveu, a partir da teoria desenvolvida por
Gassman e Biot a expressão:
23
Esta expressão é geral, independendo da geometria, mas assume que a rocha é
isotrópica, as constantes elásticas dos constituintes das rochas (minerais) são constantes
e a freqüência analisada é baixa (inferior a 100 Hz).
Essa equação, de grande uso e interesse para caracterização e monitoramento de
reservatórios, permite uma análise quantitativa entre a velocidade de propagação de
ondas e propriedades de fluidos, através de substituição dos mesmos. Uma grande
vantagem é que ela permite a obtenção de parâmetros de litologia para rocha seca –
parâmetros estes insensíveis à absorção (item 2.7), logo podemos estimar o
comportamento da velocidade nas freqüências sísmicas a partir de medidas de
laboratórios (plugs) e/ou de perfis.
κR pode ser medida em laboratório ou obtida por valores aproximados disponíveis
na literatura. κ e a densidade de fluidos e da matriz podem ser obtidos em laboratório (de
água pode ser obtido por modelos teóricos que relacionam as variações destes
parâmetros com as condições do reservatório) ou de valores da literatura. Rosa e Tassini
(1990) citam κM de 360 a 400 kbar para grãos de arenito e 670-700 kbar para grãos
de carbonato.
Alguns autores (por ex., McQuillin et al., 1984) consideram problemática a
obtenção de κR, e Nur (1993) sugere usá-la com cautela em fluidos muito viscosos e
arenitos muito argilosos.
Uma conclusão interessante e importante da eq. 2.3.13 é que como κ da água é
de duas a dez vezes superior a do óleo e dezenas de vezes maiores que do gás, podem-
se esperar decréscimos na velocidade de arenitos inconsolidados do Terciário na Bacia
de Campos de 10 a 15% em rochas com óleo e 30 a 40% em reservatórios com gás –
segundo Rosa e Tassini (1990), tal fato ocorre na prática. Isto explica o relativo grande
sucesso do uso de anomalias de amplitude na exploração e explotação dos campos mais
importantes da Petrobras.
Berryman (1999) apresenta um excelente resumo (e, segundo o autor, completo)
da origem e aplicação das equações de Gassman. As equações originais relacionam
mudanças nos módulos de cisalhamento (µ) e compressibilidade (κ) entre rochas secas e
saturadas com fluidos. Segundo Berryman, é freqüentemente dito – de forma incorreta –
que Gassmann assume que o módulo de cisalhamento µ seja constante. O autor
apresenta a derivação para meios isotrópicos, garantindo que a generalização para meios
anisotrópicos não é muito difícil. As equações relacionam, segundo Berryman (1999), µ e
κ de um meio mono-minerálico poroso saturado e isotrópico com o mesmo meio no caso
seco, e mostram que µ tem que ser independente mecanicamente da presença do fluido.
Uma premissa importante é que não ocorre interação química entre a rocha porosa e o
fluido. O artigo de Gassmann trata de situações quase-estáticas, ou seja, de baixas
freqüências, sendo este talvez o principal atrativos das equações, pois tratam da faixa de
freqüências dos dados sísmicos de superfície.
Domenico (1974) demonstrou que uma quantidade muito pequena de gás produz
uma grande queda em κF e, conseqüentemente, em VP (fig. 2.3.8). Isto leva a uma
importante conclusão, tanto teórica quanto prática: fortes variações de amplitudes em
seções e mapas de amplitude podem indicar somente a presença de gás, e não sua
quantidade, e muito menos se esta quantidade é comercial. Nos estudos de AVO esta
conclusão será recordada, pois é um dos grandes problemas atuais em análises de AVO.
24
Fig. 2.3.8 – Variação de VP com saturação de
água para areias com gás e óleo em
diferentes profundidades (extraído de
Domenico, 1974). Observar que quantidades
muito pequenas de gás (menos de 5%)
causam forte decréscimo em VP.
Para arenitos argilosos, o diagrama da fig. 2.3.9, extraído de Nur (1993), mostra
que para um valor constante de porosidade (20%, por ex.) existe uma grande variação
nos valores de VP de acordo com a litologia (o que é bom, pois em tese permite a
estimativa do tipo de rocha a partir de VP, sendo uma noticia melhor que a da fig. 2.3.6,
que sugere ser isto bem mais difícil), porém a obtenção de φ a partir de VP continua muito
problemática. Na figura, estão as curvas de correlação VP φ obtidas pelos modelos de
Voigt, Woods-Reuss e Wyllie, mostrando que para a relação analisada Wyllie funciona
razoavelmente bem para areias limpas, mas que nas demais litologias não respeita
nenhum dado em particular, sendo uma entre algumas possibilidades. Na figura vê-se
também que Woods-Reuss funciona bem para rochas próximas da porosidade critica
(acima de 40%) – acima desta porosidade, o material não deve mais ser considerado
25
‘rocha’, mas sim grãos em suspensão em um fluido (água), com VP ficando muito próximo
de 1.500 m/s e praticamente constante para qualquer φ.
26
ultra-sônicas em laboratório mostram claramente que µ é mais rígido na presença de
liquido do que o esperado por Gassmann.
O método WKBJ (item 2.1) necessita que o gradiente vertical de velocidade seja
muito menor que a freqüência (em radianos). No caso – bastante comum – de aumento
linear da velocidade com profundidade (V(z)=V0+az, V0 velocidade inicial, a gradiente
vertical e z profundidade), podemos verificar que com a em torno de 0,1 (um valor
razoável), temos f ≈ 10 Hz e ω (freqüência angular) ≈ 63 Hz.
27
. textura: em geral, areias com maiores grãos e/ou menos selecionadas tem
maiores VP e VS devido a melhor contato e menor porosidade, enquanto que areias com
grãos angulosos têm menores VP e VS – porém maiores VP/VS – que areias esféricas;
. conteúdo de argila: depende da posição da argila no interior da rocha, mas
estatisticamente maior VSH significa menor VP e VS e maior VP/VS;
. anisotropia: na intrínseca, folhelhos mais consolidados e/ou com grande
conteúdo de matéria orgânica (geradores) geralmente são mais anisotrópicos; a induzida,
causada por tensões, é proporcional aos esforços envolvidos e relacionados à fraturas;
. fraturas: VP é maior na direção paralela às fraturas; duas VS são criadas
(fenômeno denominado birrefringência ou splitting, cap. 10), uma mais rápida, paralela à
direção das fraturas (VS1) e outra mais lenta (VS2), ortogonal à VS1;
. porosidade: inversamente proporcional à VP e VS; geralmente não afeta VP/VS;
. litologia: maiores VP e VS em dolomitos, seguidos de calcários e arenitos;
folhelhos podem ter VP e VS maiores ou menores que arenitos; calcários tem os maiores
VP/VS, seguidos de dolomitos e arenitos; folhelhos geralmente têm VP/VS maiores que
areias, a exceção mais importante sendo arenitos inconsolidados, o que algumas vezes
causa pit-falls em análises de AVO (cap. 7);
. forma do poro: Wang (2001) considera este o fator mais importante na definição
de VP e VS, porém o mais difícil de ser obtido; segundo o autor, 1) a dispersão em gráficos
V-φ é causada principalmente por diferenças na forma do poro e 2) rochas com poros
planos tem menores VP e VS.
3. Propriedades do meio
. freqüência: geralmente VP e VS aumentam com freqüência, mas a magnitude da
dispersão é difícil medir;
. histórico de tensão: relacionado à criação e destruição de fraturas e
microfraturas, que gera anisotropia;
. ambiente deposicional: talvez seja o fator de maior complexidade; a razão, fonte
e energia da deposiçao costumam gerar ciclos, que afetam VP e VS; Wang (2001) cita
que argilas autigênicas e detríticas afetam diferentemente as velocidades;
. temperatura: inversamente proporcional à VP e VS, sendo mais significativo para
arenitos inconsolidados com óleos pesados;
. estratégia e histórico de produção: injeção de água aumenta SW e pressão,
sendo necessárias modelagens para obter o resultado final em VP e VS ao longo dos
anos;
28
2.5 Modelo convolucional
O traço sísmico (s(t)) pode ser visto como resultado da convolução entre um pulso
(w(t)) e uma função refletividade (r(t)), adicionando-se ruído (n(t)) ao sistema.
s(t) = w(t) ∗ r(t) + n(t) 2.5.1
Esta expressão é usada em várias etapas fundamentais durante o processamento
sísmico. Devemos lembrar que é uma aproximação e simplificação, com algumas
premissas que muitas vezes não são observadas, como por ex. se considerar o pulso w(t)
constante (estacionário) durante a propagação.
Uma grande importância desta equação – talvez a principal – é que a obtenção de
r(t) é o objetivo final do método sísmico, pois r(t) muitas vezes indica as variações
litológicas e/ou de fluidos. Então, vemos que o objetivo do processamento é retirar
(atenuar, na verdade) todo o ruído e efeitos do pulso, o que é uma operação sempre
muito complexa, com várias etapas, algumas das quais serão discutidas no cap. 4.
A eq. 2.5.1 é usada em uma etapa inicial e fundamental da interpretação, que é a
geração de sismogramas sintéticos (cap. 5). Neste caso, r(t) é obtido a partir de perfis
sônicos e/ou densidade e w(t) pode ser extraída do dado sísmico (de uma forma
estatística ou determinística) ou gerada (modelada) sinteticamente.
A seguir, analisaremos algumas propriedades do pulso, alguns efeitos da
propagação sobre o mesmo, e conseqüências de impacto direto na caracterização de
reservatório.
A assinatura w(t) é definida pelo tipo de fonte usado, que corresponde quase
sempre à dinamite em terra e canhões de ar comprimido (air-gun) no mar. Estas são
fontes explosivas, que é quase sempre impulsiva, ou seja, com liberação de grande
quantidade de energia em um tempo muito curto, de forma a termos um pulso com fase
mínima. A assinatura pode ser medida ou estimada. Vibradores (cap. 3) geram
assinaturas longas com forma controlada, que são gravados na aquisição para geração,
durante o processamento, de operadores de deconvolução.
29
A distorção do instrumento de registro – apesar de geralmente pouco danosa – é
considerada no processamento, com a resposta impulsiva dos instrumentos sendo
medidos durante a aquisição ou obtidos de uma ‘biblioteca’. A distorção dos receptores
(especialmente hidrofones ou – mais recentemente – acelerômetros) não é, geralmente,
muito significativa. Geofones podem ter distorções significativas associadas à freqüência
de ressonância, mas na prática são usados fatores de amortecimento para contornar este
problema.
30
Os efeitos da terra são aqueles que podem nos informar sobre as litologias e
fluidos percorridos durante a propagação de onda. Naturalmente, tal análise não é trivial,
por várias razões, algumas das quais são discutidas nesta apostila.
31
Fig. 2.7.1 – Escala de decibéis (dB, que mede o logaritmo da razão entre duas
amplitudes) indicando que uma queda de 50 dB (considerada por Anstey como
representativa entre eventos a 0,1 e 5,0 s) equivale a 99,97% de perdas (extraído de
Anstey, 1977).
White (1965, 1983) inclui como absorção toda “loss of amplitude in excess of that
due to geometrical spreading and reflection” (“perda de amplitude além daquela devido a
espalhamento geométrico e reflexão”).
A análise de absorção é muito mais complexa que análises elásticas (que já não
são triviais). O estudo é difícil porque muitos mecanismos contribuem para absorção e
pequenas mudanças em algumas condições podem afetar a atenuação e absorção
significativamente.
Existem diversos desacordos entre os especialistas, como por ex. se o fator Q
(definido a seguir) é ou não função da freqüência, quais os mecanismos causam absorção
e entre eles qual(is) o(s) mais importante(s) e se a absorção é linear, entre outras
duvidas. O estudo de absorção tem sido há bastante tempo uma fronteira de – na prática
– poucos e reduzidos ganhos, devido principalmente à complexidade do assunto. Co-
autor de uma das ‘bíblias’ da sísmica (Aki e Richards, 1980), o Prof. da Univ. of Columbia
32
Paul Richards considera o fator Q “a mess” (comunicação pessoal ao Dr. Gustavo Ponce
Correia).
A teoria de Biot considera Q variável com freqüência. Considera um sólido poroso
com esqueleto elástico e somente um fluido. Utiliza três parâmetros, a viscosidade
complexa (em que altas freqüências acelerariam o fluido), a tortuosidade do espaço
poroso e um fator de acoplamento de massa. Esta teoria prevê a existência de duas
ondas de dilatação, ou compressional: a onda-P mais comum, que tem velocidade
praticamente constante, com um pequeno termo variando com o quadrado da freqüência,
e uma onda denominada tipo II, associada a fluxo de calor ou difusão, com velocidade de
fase proporcional à raiz quadrada da freqüência e sofrendo extrema atenuação. A onda
tipo II, já verificada experimentalmente, pode ser importante em contatos gás-líquidos
devido à vibração dos fluidos. Para as ondas-S, a velocidade é considerada virtualmente
constante, com atenuação proporcional a f2. Se o fluxo de fluido é o aspecto mais
importante, deve combinar parâmetros sedimentológicos com velocidade e atenuação.
Dados experimentais mostram que a teoria de Biot não funciona bem para arenitos
argilosos.
Os efeitos de saturação são de difícil medida em laboratórios, porque 1) considera
um distribuição homogênea do fluido, 2) o aquecimento para secar a amostra causa
alterações na estrutura da matriz e 3) a remoção completa dos fluidos é impossível.
Observa-se que a saturação de água (SW) e a viscosidade são muito importantes, com
uma medida de VSP mostrando um fator Q caindo de 30 para 10 em sedimentos
marinhos rasos com pequena quantidade de gás.
33
Fig. 2.7.2 – Perda de altas
freqüências como função do
tempo de propagação
(curvas de 1 a 5 s) para uma
absorção de 0,2 dB/λ
(extraído de Anstey, 1977).
Existem alguns algoritmos de obtenção do fator Q, com um muito bom tendo sido
desenvolvido e apresentado por nosso Varela et al (1993). Muitas vezes a medida é
34
realizada no próprio dado sísmico, porém a forma mais confiável de obter-se o fator Q é
através de VSP (cap. 8) (Robert Stewart, comunicação pessoal).
Tab. 2.7.1 – Valores do fator Q intrínseco para algumas rochas (Nur, 1993).
35
obter medidas especificas em reservatórios, por ser um intervalo relativamente curto.
Existe desacordo mesmo usando-se o mesmo conjunto de rocha, como por ex. o folhelho
Pierre, em que se encontrou α variando com f e f2. Em VSPs, a pequena separação dos
receptores pode fazer com que variações locais sejam mais influentes que a profundidade
do receptor.
A razão espectral (reta que melhor ajuste o decréscimo de amplitudes em direção
às altas freqüências) é o método mais comum, com a onda tendo que ter viajado ao
menos um comprimento de onda na camada analisada. Outros métodos são o
decaimento de amplitude (pouco confiável, pois requer amplitude verdadeira), modelagem
ajustando pulsos em tempos distintos através de diferentes valores de Q e ajuste de
sísmica de superfície para perfis de poços.
Os resultados permitem concluir que Q é independente da freqüência,
especialmente para rochas secas – este fato é extremamente importante, pois permite
analisar rochas em laboratórios (a freqüência de MHz) e extrapolar os resultados para a
freqüência de perfis (KHz) ou sísmica de superfície (dezenas de Hz). O problema é incluir
o fator de fluido a estas freqüências menores – para isso, usa-se geralmente a equação
de Gassmann-Geerstma (eq. 2.3.13). Algumas medidas mostram Q inversamente
proporcional à freqüência em líquidos, mas de uma forma negligenciável em freqüências
sísmicas, mesmo para sedimentos marinhos inconsolidados. Arenitos com baixa
porosidade costumam apresentar Q elevados, provavelmente devido a poucos fluidos
para interagir com sólidos.
A interface gás-liquido costuma ter um gradiente de pressão muito alto, causando
um movimento de liquido anormalmente elevado, gerando uma alta atenuação (baixos
valores de Q) sobre campos de gás, com algumas vezes reflexões sísmicas não sendo
obtidas devido à alta atenuação em sedimentos marinhos rasos com gas bubbles
(Rodriguez et al., 1998).
Algumas análises encontram relação entre a razão QS/QP e a saturação, mas isso
não pode ser considerado como regra geral. Em arenitos com saturação parcial, é comum
que QS>QP, o que não costuma ocorrer geralmente – atribui-se o fato de que, quase
sempre, QP>QS ao maior atrito que a partícula encontra ao realizar um movimento
cisalhante em comparação ao compressional.
Pode-se concluir que Q é constante, tanto para ondas-P quanto –S, e que
pequenas quantidades de água faz com que o valor de Q decresça drasticamente.
A correção de efeitos de absorção é muito difícil, entre outras coisas pelo efeito
combinado de outras causas de atenuação.
36
e é bastante usado até hoje, com algumas pequenas variações. Os autores analisaram
oito métodos distintos em um VSP, concluindo que todos fornecem resultados parecidos,
com o modelo de Futterman sendo ligeiramente melhor, o que justifica sua utilização
bastante disseminada.
37
transmissão e conversão – uma reflexão de um sinal sísmico ocorre quando uma
onda encontra um contraste de impedância, com a razão (coeficiente) entre as amplitudes
(deslocamento de partícula devido a passagem da onda) refletida e incidente definida por
um coeficiente de reflexão, ou refletividade. Assim, vemos que um ‘mapa de amplitude’ de
um determinado evento pode se referir tanto à distribuição areal dos coeficientes de
reflexão quanto aos valores do ‘tamanho’ (amplitude) do deslocamento da onda – o
segundo caso seria o mais correto, mas o termo ‘amplitude’ costuma ser usado para o
primeiro (coeficientes de reflexão).
Esses coeficientes são obtidos por aplicação de condições de contorno (que
expressam a continuidade de tensões e deformações em uma interface) na equação da
onda. Dessa forma, obtêm-se valores de refletividade como função de parâmetros
petrofísicos e ângulos de incidência, podendo-se inferir então características do
reservatório (e seus fluidos) analisando-se dados sísmicos.
As equações de Zoeppritz são as expressões mais usadas e conhecidas para
obtenção de refletividade (as eq. de Knott, obtidas por análises de potencial, são
equivalentes à Zoeppritz, mas menos usadas), relacionando velocidades de ondas-P e –S
e densidade das camadas acima e abaixo da interface e ângulo de incidência com
coeficientes de reflexão. Essas equações são válidas para ondas planas em meios
homogêneos e isotrópicos – ou seja, já com algumas aproximações e premissas. Ainda
assim, as equações de Zoeppritz são bastante complicadas, extensas e com vários
parâmetros, não permitindo uma inferência de relação entre coeficientes de reflexão
(amplitudes) e propriedades petrofísicas de uma forma simples e direta. Por isso, quase
sempre são usadas aproximações dessas equações, algumas delas apresentadas a
seguir.
No caso mais simples de incidência normal (i.e., trajetória perpendicular à
interface) de uma onda-P do meio 1 para o meio 2 tem-se:
38
Tab. 2.7.2 – Coeficientes
de reflexão para
incidência normal em
algumas interfaces
típicas (extraído de
Sheriff, 1978).
As ondas cisalhantes com polarização horizontal (SH) comumente não são obtidas
a partir de ondas-P ou –SV (já que geralmente componentes horizontais de tensão não
39
são gerados), tornando necessário o uso de fontes sísmicas próprias, que são caras,
pouco efetivas e de difícil operacionalidade.
Quando sen(θP2) se torna complexo (maior que 1), diz-se que a onda atingiu o
ângulo crítico, a partir do qual são originadas ondas frontais (head waves), também
chamadas de cônicas ou de refratadas (fig. 2.7.3). Alguns autores usam o termo refratada
para as ondas transmitidas – já que na ótica geométrica o fenômeno da mudança de
direção de propagação de uma onda é denominado refração – mas na literatura da
sísmica de exploração isto raramente acontece.
Estas ondas, geradas quando ocorre incidência acima do ângulo crítico, se
propagam na própria interface com a velocidade VP2, sendo transmitidas continuamente
para o meio de menor impedância. Seu estudo teórico não é trivial, estando além dos
objetivos deste curso. Demonstra-se que são criadas por reflexão e transmissão de
frentes de ondas curvas, já que a teoria do raio não explica a existência dessas ondas a
partir de ondas planas, sendo necessária o uso de uma teoria mais acurada, baseada em
frentes de ondas curvas (Krebes, 1989).
A Lei de Snell-Descartes mostra que a geração de ondas S refratadas só ocorre,
na sísmica convencional, quando VS do meio inferior é maior que VP do meio superior, o
que costuma ocorrer em áreas com camadas de altas velocidades (geralmente
carbonatos e vulcânicas) próximas a superfície (mas não aflorantes). Modos P-S-S-P
algumas vezes são usados para análises abaixo de vulcânicas ou sal.
Fig. 2.7.3 – Ondas refratadas (head waves) se propagam na camada superior com velocidade da
camada inferior, atingido a superfície antes das ondas refletidas a partir do afastamento crítico
(crossover point) (extraído de Sheriff, 1991).
40
Esta propriedade é usada algumas vezes nos serviços de refração rasa em
aquisição terrestre (cap. 3) para determinação de valores de correção estática (ver cap. 4)
e em refrações profundas, com receptores a vários quilômetros da fonte, para análise de
descontinuidades muito profundas da Terra (por ex., Mohovicic).
O método de refração foi o primeiro método sísmico usado na indústria do
petróleo, para se mapearem topos de domos de sal (que é um grande gerador de ondas
refratadas, devido a grande ∆V entre o sal e os sedimentos sobrepostos).
Múltiplas podem ser definidas como energias sísmicas refletidas mais de uma vez.
Alguns geofísicos (por ex., Milus Backus, com. pessoal a José Tassini) consideram que o
efeito das múltiplas é o fenômeno mais pernicioso no método sísmico. Existem dois tipos
principais (fig. 2.7.4), as de longo e curto período. Outra forma de classificação é entre as
geradas em uma superfície livre (interface água-ar ou solo-ar) ou criadas nas interfaces
entre duas camadas. As de longo período são, geralmente, geradas em uma superfície
livre.
As de longo período geralmente atingem os receptores como eventos distintos e
se propagam nas camadas superiores (com velocidades menores). Seu maior problema é
estarem quase sempre associadas a interfaces com alto contraste de impedância, tendo
conseqüentemente altas amplitudes – o caso clássico e mais danoso é a múltipla do
fundo do mar, geralmente de fácil identificação e difícil atenuação.
Fig. 2.7.4 – Alguns tipos de múltiplas (da esquerda para dir.): fantasma (ghost, ver item 2.6) e near-
surface e peg leg (ambas de curto período). A mais prejudicial costuma ser a double (associada a
fundo/nível do mar) (extraído de Sheriff, 1991).
41
O segundo grupo (SRME sendo o mais comum), bem mais robusto e efetivo, tem como
grande desvantagem o custo elevado, pois usa algoritmos que requerem bastante uso de
máquina e necessita uma densa amostragem espacial. Apesar disso, os métodos SRME
tendem a serem usados atualmente, devido aos resultados geralmente bem superiores.
As múltiplas de curto período podem ser consideradas ainda mais danosas, pois
diminuem a resolução sísmica e são bem mais dificilmente atenuadas durante o
processamento. São geradas quando parte da energia refletida na base de uma camada
pouco espessa é refletida no topo, e refletida novamente na base – criando a chamada
reverberação ou peg-leg. Caso esta trajetória seja muito rápida, esta reverberação é
adicionada à onda principal, causando um ‘alongamento’ no pulso. Como isto gera perda
de altas freqüências, na prática é muito difícil separar os efeitos dessas múltiplas de
efeitos de absorção.
Schoengerger and Levin (1974) observaram que é muito difícil distinguir o efeito de
reverberação e scattering da absorção, já que o efeito é similar. No exemplo dos autores,
de 1/3 a ½ da atenuação em função da freqüência foi causada por acamamento. Rosa
(2002) considera que esta fração deve ser ainda maior, devido a medidas de perfis
sônicos já serem uma média das propriedades do meio; no entanto, esta média (ou
suavização) é feita em espessuras muito abaixo do comprimento de onda da sísmica de
superfície, não estando claro se – e quanto – esta suavização aumentaria o efeito do filtro
estratigráfico. Já White (1983) considera que os efeitos das múltiplas intracamadas são
pequenos se comparados à atenuação intrínseca na freqüência sísmica em sedimentos
típicos.
Além desse desacordo, nenhum dos trabalhos citados considerou o efeito do
scattering em camadas com mergulho. De uma forma geral, alguns autores consideram
que a reverberação deve ser responsável por 10 a 40% da inelasticidade total encontrada
na propagação, com o restante sendo devido à absorção intrínseca das rochas.
Este efeito, às vezes chamado de filtro estratigráfico, foi analisado também por
O’Doherty e Anstey (1971) e Richards e Menke (1983). Pode-se mostrar que é de fase
mínima, o que tem importância ao se tentar atenuá-lo no processamento.
O efeito combinado da absorção inelástica e da reverberação – dois fenômenos
sem relação entre si – é que se costuma procurar atenuar no processamento, podendo-se
usar a expressão proposta por Richards e Menke (1983)
1/Qefetivo = 1/Qintrínseco + 1/Qreverberação 2.7.6
Segundo os autores, esta expressão só não deve ser usada quando Qintrínseco for
elevado.
Valores de Q intrínseco – que algumas vezes procura-se se associar a propriedades
petrofísicas – provavelmente só podem ser obtidos de uma forma razoavelmente confiável
através de VSP.
42
Fig. 2.7.5 – Alguns dos fatores mais importantes que alteram amplitude, conteúdo de freqüências e
fase do sinal sísmico (extraído de Sheriff, 1978).
43
Da mesma forma que a absorção, o efeito da anisotropia pode ser similar ao
causado por outros fatores sendo geralmente de difícil separação as alterações geradas
durante a propagação das ondas devido à anisotropia intrínseca das causadas por outras
razões. O tipo de anisotropia mais comum (VTI) pode ser gerado quando a onda se
propaga por diversas camadas horizontais isotrópicas com espessura muito menor que o
comprimento de onda dominante, fenômeno mostrado por Backus (1962). Este fenômeno
é observável em folhelhos geradores – geralmente constituídos de intercalações de
matérias orgânicas e minerais de argila –, que costumam apresentar forte anisotropia.
Alguns autores associam a quantidade de anisotropia ao potencial gerador, mas tal
associação, observada em laboratório, ainda não está completamente provada, e muito
menos existem relações numéricas entre parâmetros anisotrópicos e potencial gerador.
Alguns autores (Shapiro et al. 1994, Rosa, 2002) consideram que uma anisotropia
aparente pode ser causada pelo filtro estratigráfico, principalmente em folhelhos pouco
espessos. Na prática, é extremamente complicado separar os dois efeitos, devido a
dificuldade de obtenção de medidas confiáveis e possibilidade de grandes erros
ocorrerem quando métodos de up-scaling são usados para se extrapolar informações de
laboratórios (freqüência de MHz) para sísmica de superfície (dezenas de Hz).
Resolução pode ser definida como a capacidade de se separar duas feições muito
próximas. Pode ser considerada também a separação mínima necessária entre duas
interfaces ou eventos para que suas características individuais não sejam perdidas
durante uma observação.
A pouca resolução vertical é provavelmente a maior limitação dos dados sísmicos
de superfície, especialmente para o estudo de reservatórios. Isto ocorre porque a
espessura das camadas em subsuperfície geralmente é inferior ao resolvível pelo pulso
sísmico, causando uma superposição de sucessivas reflexões, normalmente de difícil –
senão impossível – individualização. Tal fato é mostrado na fig. 2.8.1, onde se pode
observar que interfaces muito próximas (associadas, naturalmente, à camadas pouco
espessas) não são resolvíveis sismicamente. A fig. 2.8.2 exemplifica como pulsos com
diferentes conteúdos de freqüência podem ou não resolver camadas de diferentes
espessuras.
A expressão
λ=V/f 2.8.1
fornece a relação entre o comprimento de onda λ, a velocidade V e a freqüência
(dominante, ver item 2.1) f. Veremos a seguir que menores λ proporcionam mais
resolução vertical, logo desejamos ter menor velocidade e mais conteúdo de altas
freqüências (de forma a aumentar a freqüência dominante), mas o que ocorre em
subsuperficie é exatamente o contrário do que desejamos ou precisamos. Não podemos
controlar o valor de velocidade, que é uma propriedade intrínseca do meio, e infelizmente
V tende a aumentar com a profundidade, devido à compactação e idade das rochas.
Em relação à freqüência, vimos no item 2.7 que, devido à absorção e múltiplas de
curto período, o pulso tende a perder as altas freqüências à medida que se propaga.
Então, o que fazer para se atenuar este problema? Pode-se realizar uma aquisição com
esse objetivo e/ou aplicar no processamento algoritmos que aumentem a amplitude das
maiores freqüências.
Do lado da aquisição, tal objetivo requer quase sempre um custo muito superior a
levantamentos convencionais, sendo necessários alguns estudos técnicos – modelagens
44
numéricas, principalmente – para se saber até onde vale a pena gastar mais e também
análises econômicas, para verificar se tal gasto vale o retorno esperado. O principal
problema da aquisição é relacionado ao fato do fator Q ser menor (ou seja, as rochas têm
maior absorção) nas camadas mais rasas (por elas serem menos consolidadas), tanto em
terra como no mar. Evitando-se o trajeto na parte rasa, aumenta-se o conteúdo de
freqüência. Obviamente, o problema é colocar fontes e receptores abaixo destas zonas
superficiais. Uma técnica relativamente comum é o VSP, em que os receptores estão em
um poço e a fonte em superfície – vantagens e desvantagens desta e de outras técnicas
de sísmica de poço serão discutidas no cap. 8.
Pelo processamento, tem-se procurado intensamente técnicas e algoritmos que
recuperem as altas freqüências, com algumas tendo resultado razoável a muito bom, e
outras não sendo efetivas. Uma solução ‘caseira’ – o decon iterativo – tem fornecido
excelentes resultados, e será discutido no cap. 5, juntamente com outras técnicas.
Quando se deseja determinar o limite de resolução, não existe uma relação única
e precisa para isto. Este limite depende da qualidade dos dados, intensidade das
reflexões e experiência e conhecimento do intérprete. Lord Rayleigh estudou o assunto –
na luz visível –, encontrando um limite de resolução de λ/8. Widess (1973), em artigo
clássico, interessado no comportamento da refletividade em camadas pouco espessas e
qual a espessura mínima a partir da qual a amplitude de uma camada seria
negligenciável, observou que, teoricamente, para uma camada ser detectável pela
sísmica, sua espessura deveria se de pelo menos λ/8 – concordando assim com estudos
de quase 100 anos anteriores da ótica. Em situações reais, no entanto, o autor considerou
45
que esta espessura deveria ser o dobro, com o limite de resolução vertical da sísmica
igual a λ/4. Esta grande diferença foi atribuída por Widdes à, principalmente, presença de
ruídos. Até hoje, o valor comumente usado é de λ/4. Geralmente, o limite de todos os
autores se encontra neste intervalo (λ/8 a λ/4) (Sheriff, 1985).
Então, para se ter uma idéia razoável do limite de resolução do dado que estamos
usando, necessitamos uma estimativa da velocidade intervalar do meio (obtida a partir de
perfis ou análise de velocidade do processamento (cap. 4)) e da freqüência dominante
(disponível no espectro de amplitude gerado via transformada de Fourier). Como
exemplo, vamos considerar um arenito com V=3.000 m/s; caso a freqüência dominante f
seja de 30 Hz (um valor razoável a bom), camadas com espessura inferior a 25 m não
são resolvíveis – naturalmente, neste caso estamos deixando muito óleo para trás... caso
seja possível dobrar f (por aquisição e/ou processamento), a espessura mínima cai a
metade (12,5 m). Claro que chegar a dobrar a freqüência dominante geralmente não é
possível – e quando possível, pode ser extremamente trabalhoso –, mas este exercício
simples mostra que o prêmio pode ser altamente compensador.
Fig. 2.8.3 – Efeitos de interferências entre reflexões do topo (R1) e base (R2) de uma camada
(a) e traço sísmico resultante (b). Modelo simples de uma camada mostrado em (c) (extraído
de Widess, 1973).
b. rejeito vertical de falhas – vemos na fig. 2.8.4 diferentes valores de rejeitos vertical
de falhas normais, em função de λ. Observa-se que é possível definir o rejeito
quando o mesmo está entre λ/8 e λ/4. Rejeitos maiores são facilmente visíveis,
46
mas os menores não serão observados pela sísmica. Atentando-se para que o
exemplo é de dado sem ruído, é interessante notar que esses limites
correspondem ao sugerido por Widdes.
Fig. 2.8.4 – Limite de detecção de rejeitos verticais de falhas normais em dados não-migrados em
função do comprimento de onda λ (extraído de Yilmaz, 1987).
c. detecção de feições tipo pinch-out – na fig. 2.8.5 vemos uma cunha com valor de
impedância maior que os das camadas adjacentes e a resposta sísmica deste
modelo. Na fig. 2.8.6 a cunha tem impedância maior que a camada superior e
menor que a inferior. De grande interesse em casos de acunhamento – feições
comuns em vários reservatórios – é analisar o comportamento da amplitude,
especialmente sua variação em função do afinamento. Os casos de base do
reservatório com refletividade positiva e negativa são mostrados nas fig. 2.8.5 e
2.8.6, respectivamente. Vemos que variações de amplitude ao longo de um
determinado evento não estão associadas a mudanças petrofísicas (litológicas
e/ou de fluidos), mas sim a interferência entre reflexões do topo e da base do
reservatório. Este fenômeno, denominado de tunning, é amplamente conhecido e
observado. Alguns estudos mais detalhados procuram retirar este efeito,
geralmente através de modelagens para obtenção do comportamento esperado de
amplitude no caso de afinamento.
47
Fig. 2.8.5 – Modelo de
pinch com refletividade
positiva no topo e na base
(acima), com dado sintético
correspondente (acima, à
direita) e variação da
amplitude causada por
afinamento da camada
(efeito tunning) (à direita)
(extraído de Kallweit e
Wood, 1982).
O limite de resolução não deve ser visto como um número absoluto, abaixo do
qual não podemos extrair informação alguma do dado sísmico. Ele talvez possa ser
considerado mais como uma divisão no tipo de evidencias disponíveis (Sheriff, 1985).
Em outro artigo clássico, em que existe uma discussão interessante (analisando
picos, extremos, faixas e razões de freqüências e oitavas, considerando um pulso como
uma mistura não linear de freqüências dominantes e funções sinc2) sobre limites (para
dados sem ruídos) de resolução e critérios para determiná-los (também concluindo que o
melhor critério é λ/4 para limite máximo), Kallweit e Wood (1982) se referem à distinção
entre resolução e detecção, que significa simplesmente o registro de um pulso com razão
sinal/ruído suficiente, independente de ser possível uma separação entre os eventos
individuais que se interferem para produzir o pulso final. Dessa forma, alguns aspectos do
reservatório podem ser distinguidos mesmo quando estão abaixo do limite de resolução.
2
A função sinc(x), definida por sin(x)/x, é muitas vezes aplicada em estudos de sísmica, por ter
uma forma similar a de um pulso sísmico.
48
Um exemplo desta situação é o exemplo de pinchs apresentado acima, em que a reflexão
da base afeta e altera a reflexão do topo – tornando-se assim detectável – mas as
reflexões do topo e base da camada não são mais individualizáveis. Análises de
espessuras de reservatório abaixo do limite de resolução a partir de variações de
amplitudes são realizadas, pelo menos, há quase 30 anos (Neidell e Poggiagliolmi, 1977).
49
um mapa de amplitudes de um topo não tem praticamente utilidade em dados com este
tipo de fase. Os próprios autores consideram que, nas situações hipotéticas e reais
estudadas, não existe um tipo de fase que seja sempre a melhor.
Deve ser registrado que esta expressão usa o critério de Sheriff (1980). Berkhout
(1984) sugere o uso de λ/8 em vez de λ/4 para o limite de interferência construtiva, mas a
diferença prática pode ser considerada de pouca importância, já que a (primeira) zona de
Fresnel pode ser vista, como explicado em vários autores (por ex., Lindsey (1989)), uma
aproximação numérica de uma função ponderada espacial, determinada pela distância ao
‘ponto’ de reflexão.
50
que os corpos se tornam menores, até o limite de resolução, quando uma feição lenticular
aparecerá como uma descontinuidade.
A fig. 2.9.4 mostra como uma descontinuidade em uma camada, como por ex. uma
erosão, apresenta uma resposta diferenciada de acordo com sua largura e a profundidade
em que ocorre. A primeira linha horizontal corresponde à resposta sísmica em superfície,
e as linhas horizontais subseqüentes representam maiores profundidades.
51
Fig. 2.9.5 – Nomograma para
determinação aproximada da
(primeira) zona de Fresnel
em dados não migrados
(extraído de Sheriff, 2002).
52
Fig. 2.9.6 – Relação entre limites de resolução horizontal para
dados sísmicos antes (d) e após (dMIG) migração. Observar
como a migração aumenta significativamente a resolução
horizontal (extraído de Rosa e Tassini, 1990).
53
3 – NOÇÕES DE AQUISIÇÃO SÍSMICA
54
tendem a se anular (fig.3.2). Uma das medidas da eficiência de uma fonte é a razão entre
as amplitudes do evento primário e da primeira bolha.
Atualmente um tipo específico, o sleeve-gun (fig. 3.1), é geralmente usado – as
vantagens são menos componentes (causando menor manutenção) e mais energia
liberada (a energia é proporcional à raiz quadrada da área que libera o ar).
Fig. 3.1 – Desenho esquemático (esquerda) e foto (dir.) de sleeve-gun. O ar comprimido do interior
do air-gun é liberado na água quando a sleeve (‘manga’) se desloca (fig. inferior), gerando uma
bolha de ar com alta pressão. (extraído de Sheriff, 2002).
55
Em relação à profundidade da fonte, já discutida no item 2.6, é mostrado na fig. 3.3
o efeito do fantasma (da fonte, neste caso) no pulso do air-gun, nos domínios do tempo –
em que ocorre um ‘alongamento’ do pulso principal e a geração de pequenos pulsos
secundários – e na freqüência, em que é claro a presença de notches. No entanto, deve
ser observado que, em uma porção do espectro de freqüências mais baixas, uma maior
profundidade (6 m, no exemplo) pode ser vantajosa, pois realça (comparativamente com
uma profundidade de 2 m) as freqüências de interesse – a questão a ser respondida por
modelagens é qual a melhor profundidade, de acordo com os objetivos do levantamento.
56
reservatório, 4D, etc), o que se acredita possa ser conseguido e restrições no local de
aquisição (impactos ambientas, obstruções como plataformas e/ou navios (no mar), obras
civis (em terra), etc).
57
Fig. 3.5 – Faixa de amplitudes
recuperáveis (área branca) e não-
recuperáveis (área cinza) para um
instrumento de registro de 16 bits. Na
prática, geralmente ruídos dominam
sobre o sinal abaixo de 60 dB (e, às
vezes, 40 dB) (extraído de Sheriff, 2002).
58
amplitude. Na prática, entretanto, isto não é possível, por problemas de construção dos
aparelhos (filtros de instrumentos) e instabilidade dos operadores matemáticos, existindo
uma rampa (slope), com inclinação medida em dB/oitava (oitava é o intervalo entre duas
freqüências com razão de 2 ou 0,5, item 2.7). Os filtros, devido à esta rampa, funcionam
aproximadamente como trapézios em um espectro de amplitude.
A segunda razão é que algumas etapas do processamento (por ex., alguns
algoritmos de migração e deconvolução) trabalham melhor com um intervalo de
amostragem menor.
Uma terceira razão, secundária, é que o custo adicional do uso de intervalos
menores costuma ser muito pequeno a desprezível, em comparação aos demais fatores
envolvidos (custo do navio, pessoal, fonte sísmica, etc). Esta terceira razão não ocorre no
processamento nem na interpretação, em que algumas vezes se acaba sub-amostrando o
dado (de 2 para 4 ms, geralmente) devido à limitações de espaço em disco e/ou
velocidade de processadores computacionais.
Intervalos de 0,5 ms (ou menores) são usados em levantamentos de muito alta
resolução, para objetivos muito rasos, como reservatórios (geralmente terrestres) até 500
m de profundidade, ou geotecnia.
Finalizando, apesar de pouco comum, uma aquisição com um intervalo de 3 ms
pode ser realizada sem contra-indicações, ao menos teóricas.
O filtro notch, usados para atenuar uma faixa muito estreita de freqüências,
principalmente as freqüências de 50 ou 60 Hz produzidas por linhas de transmissão de
energia elétrica, é evitado ao máximo, por atenuar o espectro em uma faixa de
freqüências onde costuma ocorrer sinal.
59
proporcional à raiz quadrada da cobertura, o que está correto caso o ruído (aleatório) seja
gaussiano (Osvaldo Duarte, com. pessoal) – o que, apesar de possível (e até provável)
intuitivamente, talvez nunca tenha sido comprovado. Interessante observar que tal
comprovação não deve ser muito complicada – por ex., uma análise das amplitudes em
tempos superiores ao fundo do mar em águas profundas –, mas nunca foi realizada, ao
que eu saiba.
Neste conceito, exposto por Mayne (1962) em uma forma similar à usada até hoje,
considera-se que a distância entre fonte e receptor (denominada offset) varie de forma
simétrica (geralmente com incremento constante) em relação ao ponto médio, com este
ponto (ou cela) sendo amostrado várias vezes, gerando a cobertura (ou multiplicidade, fig
3.6). Assim, o offset aumenta gradualmente para traços sucessivos, aumentando também
o tempo de chegada dos traços mais distantes. A diferença de tempo entre as sucessivas
reflexões do mesmo ponto é chamado de sobretempo normal, ou normal move-out
(NMO).
As principais contribuições desta técnica são duas. Uma é o aumento da razão
sinal/ruído, através do cancelamento de ruídos aleatórios, pelo empilhamento (soma) dos
traços (após a correção de NMO), em que eventos fora de fase se anulam
estatisticamente por interferência destrutiva.
A segunda, tão ou mais importante que a anterior, é a informação de velocidades,
devido à existência de dados a diferentes tempos e offsets. Estas velocidades, obtidas
durante o processamento (cap. 4), provavelmente são o parâmetro mais importante do
processamento. São também fundamentais durante a interpretação, principalmente (mas
não só) para conversão tempo-profundidade, e fornecem ainda informações –
preliminares ou não – sobre características petrofísicas das rochas, sendo indícios de
possíveis problemas a serem enfrentados na perfuração de poços (zonas de pressão
anormalmente elevadas, antecipadas pelo perfil de Peenbaker (1968), item 2.4).
O resultado da soma (empilhamento) dos traços de uma família CDP geralmente
não representa um traço hipotético com afastamento nulo, pois a refletividade de cada
evento é uma média das refletividades dos diversos ângulos (com amplitudes e fase
variando, algumas vezes significativamente), os eventos raramente são perfeitamente
horizontalizados após o NMO e mergulhos das camadas violam a premissa básica da
técnica CDP. Ainda assim, a técnica tem se mostrado, na prática, bastante robusta – o
que talvez seja até mesmo um mistério. Um dos maiores geofísicos de todos os tempos,
Franklin Levin, escreveu um artigo clássico (Levin, 1984), declarando-se surpreso da
sísmica de reflexão funcionar, devido a premissas poucos razoáveis, aproximações quase
grosseiras e outros problemas.
60
denominado grupo ou estação. Os objetivos dos arranjos são cancelar ruídos (via
interferência destrutiva) e reduzir a quantidade de dados registrados. O exemplo mais
comum é a disposição de geofones (e, menos comumente, hidrofones) em um intervalo
que cancele o (componente vertical do) ruído que viaja horizontalmente ao mesmo tempo
em que reforça o componente vertical das reflexões. Na fig. 3.7, a horizontal wave
(correspondente ao ruído) é atenuada (desde que o espaçamento entre receptores seja
λ/2), enquanto que a vertical wave (o sinal refletido) será reforçado. Na prática, esta ‘onda
horizontal’ (o ground-roll, comentado abaixo) tem λ variável, dificultando muitas vezes a
atenuação pretendida. Outras razões listadas por Evans (1997) para uma pobre resposta
dos arranjos são espaçamento entre elementos errático devido à terreno ou acoplamento
ruim, variações na topografia (terra) ou profundidade do cabo (mar) e camada de
intemperismo com espessura variável, gerando alterações no tempo de chegada das
ondas.
61
O lanço é o comprimento da rede de geofones, correspondendo ao comprimento
do cabo no mar. Deve ser de pelo menos a profundidade do objetivo mais profundo, e
permitir um imageamento completo no(s) nível(is) de interesse. Além desta razão, não
deve ser muito curto para que se possa ter uma melhor definição da velocidade no
processamento. Por outro lado, não deve ser longo demais, devido à custos e também
porque não se deve registrar reflexões a partir do ângulo critico (40-500).
O afastamento mínimo, em terra ou no mar, raramente é superior a 200 m, pois as
reflexões de baixo ângulo costumam ser fundamentais na técnica CDP; além disso, esses
offsets também são necessários na obtenção da velocidade. Em casos de objetivos muito
rasos, pode ser bastante reduzido para aumentar a cobertura, antes da chegada das
ondas refratadas.
Existem basicamente dois tipos de lanço (fig. 3.8). O split-spread é um arranjo com
receptores simétricos, com a fonte localizada no centro. É o mais comum em terra, por ser
mais operacional. No end-on a fonte é localizada após o último grupo de receptores. É
usado em áreas com mergulho (mergulho acima), para objetivos muito profundos e
visando atenuação de múltiplas e ground-roll. É praticamente o único possível no mar em
aquisições convencionais (usando streamer, ver a seguir).
Fig. 3.8 – Tipos de lanços mais comuns: split-spread (esquerda), em que receptores são simétricos
em relação à fonte e é comum em levantamentos terrestres, e end-on (direita), em que a fonte está
sempre no extremo do lanço, usado geralmente no mar (extraído de Sheriff, 1991).
62
Fig. 3.9 – Seção esquemática de um
geofone, em que um pino (spike) cravado no
terreno capta a energia refletida, gerando
uma corrente por movimento de bobina
(extraído de Sheriff,1991).
Existem geofones de três componentes (3C) que, além dos movimentos das
partículas na direção vertical, são sensíveis também a deslocamentos horizontais –
geralmente associados a ondas S.
63
1) registro sem arranjo (single sensor), que gera uma correção da inclinação e
orientação do sensor mais confiável, um registro isotrópico (importante em
análises azimutais) e maior resolução devido à eliminação de efeitos intra-
arranjos (especialmente estáticas de ondas-S); por outro lado, o não uso de
arranjos impossibilita a rejeição direta de ruídos ambientais e coerentes,
requerendo amostragem apropriada tanto para ondas-P quanto –S, o que é
complicado na prática,
2) saída digital direta (sem conversão; vantagem é que geofone multicomponente
às vezes tem crosstalk e leakage)),
3) melhor fidelidade vetorial (MC),
4) resposta mais linear de fase e amplitude,
5) pequena distorção harmônica (geração de freqüências múltiplas inteiras das
freqüências de entrada, MC),
6) medida da inclinação do receptor, e
7) reduzido uso de energia.
Apesar destas vantagens, os autores recomendam teste da integridade dos
acelerômetros após uma extensa utilização.
Fig. 3.10 – Seção esquemática de um navio arrastando um cabo (streamer) com hidrofones
(agrupados em live sections na figura) (extraído de Sheriff, 2002).
Correntes submarinas causam movimento nos cabos, fazendo com que eles se
desviem da posição desejada, principalmente na horizontal. Este fenômeno, denominado
deriva (feathering) gera erro de posicionamento em dados 2D e a necessidade de
recobrimento (re-detonação) para se obter a cobertura desejada – inclusive para
diferentes grupos de offsets. Este recobrimento (em inglês, in-fill) aumenta (muitas vezes,
significativamente) o custo da aquisição. Para diminuí-lo, procura-se realizar o
levantamento em épocas do ano em que as correntes sejam mais fracas e usar-se o
maior número possível de cabos.
64
Os cabos têm profundidade controlada a bordo, através de aparelhos
denominados pássaros (birds). Alguns birds também controlam a posição lateral, mas são
menos efetivos que na correção vertical, pois as correntes horizontais são muito mais
fortes. O controle da profundidade é desejável para que ao longo do cabo (e de um cabo
para outro) exista a menor variação possível no fantasma do receptor e que o cabo nem
se aprofunde demais (gerando um fantasma mais próximo das freqüências de interesse)
nem fique muito raso (quanto mais próximo à superfície, maior o nível de ruído e mais
prejudicadas as freqüências muito baixas). É relativamente simples mostrar que o
fantasma cria uma forte depressão no espectro de amplitude (o notch) nas freqüências
definidas pela equação
fNOTCH = 750 / z 3.1
z profundidade da fonte ou receptor.
Nesta equação, 750 representa aproximadamente a metade da velocidade do som
na água, que costuma variar entre 1.500 ± 10 m/s. A profundidade da fonte costuma ser
aproximadamente constante, em 5 ou 6 m, criando um notch em 150 ou 125 Hz. A
profundidade do receptor é muito mais variada, até pelo próprio comprimento dos cabos.
Ao se aplicar um operador para atenuar o efeito do fantasma do receptor, deve ser usado
uma média (incluindo algum tipo de desvio) das profundidades, para que o notch seja
menos severo, e não atue somente em uma freqüência. Este procedimento também é
mais realista que considerar a profundidade dos cabos invariante (fig. 3.11). Rosa (2002)
acredita que variações pequenas em z afetam significativamente a forma do pulso.
Pode-se concluir que cabos à profundidade de 10 m é altamente desaconselhável,
pois o notch ocorreria a 75 Hz, muito próximo (e, em algumas situações, dentro) da
freqüência de interesse. O ideal é que tanto a fonte quanto os receptores ficassem em
superfície, mas isso não é possível, pois a maior parte da energia da fonte seria enviada
para o ar e os hidrofones registrariam um nível muito elevado de ruído.
A fig. 3.11 mostra o efeito do fantasma no espectro de amplitude para algumas
profundidades do cabo. Deve ser registrado que os fantasmas alteram também o espectro
de fase do sinal.
Fig. 3.11 – Esquerda: espectros de amplitude para algumas profundidades de cabo (extraído de
Rosa, 2002). Direita: espectros de amplitude considerando-se profundidade do cabo constante
(azul) – que gera um forte notch – e considerando-se várias profundidades (verde) – que gera um
operador de deconvolução mais suave e realista (extraído de PGS, 2006).
65
Os navios sísmicos usavam, até o inicio da década de 90, sistema de rádio-
posicionamento ou satélites do tipo Transit, o que às vezes causava incorreções na
posição do navio quando muito distante (acima de 150 km) da costa. Com o advento do
GPS e DPGS, uma localização altamente precisa e confiável é a regra. Navegação é o
termo usado para o controle do posicionamento, com este sistema sendo integrado ao
controle das operações, que controla o registro (definindo o instante exato da detonação),
controla o sincronismo entre canhões, inicia a gravação dos dados, etc.
Dados marítimos geralmente têm qualidade melhor a muito melhor que dados
terrestres, principalmente por dois fatores. Um, a cobertura costuma ser muito maior, pois
como o maior custo da aquisição (o navio em si) é inevitável, o custo adicional para se ter
mais informações costuma ser compensador. Em terra, o custo do explosivo (dinamite) é
elevado, e o uso de muitos receptores encarece geralmente bastante a aquisição, devido
ao tempo necessário para ‘plantar’ e retirar os geofones.
O segundo é que tanto a fonte quanto os receptores estão em um meio quase
homogêneo, isotrópico e sem absorção, gerando uma interferência mínima do meio na
geração do pulso e registro das ondas – especialmente em águas mais profundas e/ou
fundo do mar ‘macio’ (material inconsolidado, e não carbonatos – recifes – ou rochas
vulcânicas), em que não ocorrem reverberações de energia aprisionada no mar. Em terra,
ao contrario, podem existir grandes variações na topografia, lençol freático, características
do material da zona de intemperismo, acoplamento variado (devido à mudanças no tipo
de solo) do geofone, etc, causando alta interferência do meio tanto na geração do pulso
quanto no registro das ondas.
66
Um levantamento 3D marítimo convencional consiste na aquisição de várias linhas
de tiro paralelas (2D), geralmente com vários cabos (4 a 16) espaçados entre 50 e 200 m
entre si – naturalmente, quanto mais cabos o navio arrastar, mais rápido e com menor
custo é feita o levantamento. No entanto, existe um limite operacional, pois o arrasto de
vários cabos com mais de 4 km de comprimento não é operação trivial.
Esta geometria de aquisição gera uma grande limitação para observação de
trajetórias com diferentes azimutes, permitindo uma boa amostragem de sub-superfície
somente para diferentes afastamentos. Tal geometria só pode ser considerada 3D em
áreas que não apresentem muita complexidade estrutural nem anisotropia azimutal.
A direção de detonação é denominada inline e a direção perpendicular crossline.
Estes nomes acompanham estas direções durante o processamento e interpretação.
Geralmente a direção das inlines é perpendicular ao mergulho das camadas, o que
diminui reflexões laterais. Em algumas situações, com fortes variações laterais de
velocidade nas camadas superiores (como por ex., próximo à quebra da plataforma), um
levantamento na direção strike pode ser vantajoso. Neste caso, o campo de velocidades
de processamento terá menos variação lateral e deve ocorrer melhor cobertura. Outro uso
da aquisição strike é quando inlines na direção dip fiquem muito curtas.
Nos levantamentos 3D em terra, pode-se usar uma direção perpendicular (mais
comum) ou paralela entre as linhas de tiro e receptor. No caso perpendicular, tem-se uma
riqueza azimutal, mas muitas vezes na prática ocorre um empobrecimento na quantidade
de offsets, pois é muito caro realizar uma amostragem rica tanto em azimutes quanto em
afastamentos, devido ao grande número de receptores necessários.
Como as duas direções de aquisição têm prós e contras, sendo geralmente muito
difícil se definir qual melhor direção, a PGS apresentou em 2005 a proposta, para dados
marítimos, de duas aquisições, em dois azimutes geralmente (mas não obrigatoriamente)
ortogonais. É claro que, apesar das vantagens potenciais e prováveis, a decisão de usar
esta técnica é principalmente econômica.
67
Fig. 3.1.1 – Comparação
entre dado convencional
(seção superior) e de alta
resolução, indicando
detalhamento estrutural e
estratigráfico na seção de
maior resolução (extraído de
Carvalho e Amorim, 1991).
68
3.2 Aquisições especiais: cabos de fundo e vertical, sensores permanentes
69
rebocando vários cabos); a qualidade do under-shooting é prejudicada, e objetivos
rasos muitas vezes são mal imageados;
2) é possível o registro de ondas S, o que pode aumentar a confiança em
predições litológicas (exploração) e caracterização de reservatórios e imagear
áreas em que ondas P não funcionam devido à forte absorção (geralmente
associadas à chaminé de gás em sedimentos acima de reservatórios, Rodriguez et
al., 1998);
3) o dado é multi-azimutal;
4) como o nível de ruído ambiental é muito menor, é possível a aquisição em maior
período durante o ano;
5) é mais confiável para sísmica 4D, devido ao uso do mesmo receptor
praticamente na mesma posição.
Outras vantagens são a ausência de ruído de arrasto no cabo, melhor informação
de posição, ausência de fortes correntes e padrão mais uniforme na aquisição
(Zachariadis e Bowden, 1983). Alguns autores citam uma possível maior resolução devido
à melhor posicionamento, mas isso não tem sido reportado de forma consistente na
prática.
Fig. 3.2.1 – Comparação entre seção PP (esquerda) e PS, adquiridas com OBC no campo de
Valhall (Mar do Norte) (extraído de Rodriguez et al., 1998). O reservatório (com reservas em torno
9
de 1.10 BOE) está entre 5,0 e 5,5 s na seção OS (elipse verde), tendo imagem muito ruim e forte
pull-down na seção PP (elipse vermelha) devido à chaminé de gás sobre o reservatório.
A posição dos receptores é obtida inicialmente por sinais de muito alta freqüência
(75 KHz), com a premissa de meio homogêneo – o que provavelmente não é verdade
para a água do mar a esta freqüência, especialmente em águas profundas. Por isso, o
posicionamento é sempre verificado pelo próprio dado sísmico, geralmente através da
onda direta, usando-se a grande redundância desta informação, a vários azimutes e
afastamentos. Na prática, no entanto, os erros costumam ser pequenos – Cafarelli et al.
(2006) reportam erros médios inferiores a 1% no 3D-4C mais profundo realizado no
mundo, adquirido em Roncador (lamina d’água superior a 1.800 m).
70
grande problema é que a não utilização de cabos obriga o uso de ROVs (com DGPS),o
que garante um acoplamento, orientação e posicionamento mais acurados, mas é
extremamente mais demorado, tornando ainda mais cara a aquisição multicomponente,
que já é bastante cara no mar – um levantamento OBC custa de 5 a 20 vezes mais que
um streamer. Para comparação, em 2005 a PGS adquiriu um 3D-OBC em Roncador com
área de cobertura total de 23 km2, a um custo de US$ 8,5.106. A mesma companhia, no
mesmo ano, realizou um levantamento de alta resolução (HD3D) com custo total de US$
11,5.106 cobrindo uma área em torno de 400 km2. Durante a aquisição, usam-se
geralmente três a quatro navios (um para registro, outro para fonte e os adicionais para
movimentação do cabo e apoio operacional).
71
para um modelo 2,5D simples, porém realista. Os autores obtiveram equações empíricas
que relacionam estes parâmetros – alem de mergulho e profundidade de camadas-
objetivo – com cobertura azimutal e de afastamentos. Concluíram que apenas um cabo já
fornece boa cobertura e que o método deve funcionar melhor para águas mais profundas.
72
4 – NOÇÕES DE PROCESSAMENTO SÍSMICO
Fig. 4.1 – Resultados do processamento de seis companhias diferentes para o mesmo dado
(extraído de Yilmaz, 1987).
73
O que se procura no processamento é, resumidamente, restaurar as diversas
perdas da amplitude da propagação, retirar efeito das camadas superficiais, corrigir
diferentes trajetórias e obter a verdadeira posição espacial dos eventos e empilhar os
traços de uma família CDP.
74
4.1 Edição de traços ruidosos e atenuação do ruído de swell
Como o nome sugere, é um trabalho que procura atenuar alguns ruídos presentes,
e até retirar os dados (traços) muito ruidosos, através de várias técnicas, geralmente
estatísticas.
75
do pulso possa ser obtido a partir do espectro de amplitude através da transformada de
Hilbert. Este processo – também usado na obtenção de atributos complexos, ou do traço
complexo, a serem discutidos no cap. 6 – convolve um operador de quadratura (que
rotaciona a fase em 900) com o logaritmo do espectro de amplitude. Para que não ocorra
divisão por zero, é usual acrescentar-se um pequeno ruído aleatório (ruído branco) – em
torno de 0,01% – antes da deconvolução, se garantido que todos os componentes de
freqüência tenham um valor não nulo de amplitude. Estimativas estatísticas costumam
apresentar problemas nas faixas do espectro de amplitude em que ocorre declividade
acentuada, como nos limites do espectro ou próximos a notches.
Um dos problemas intrínsecos da estimativa determinística através de perfis é que
a amostragem geológica é distinta entre a perfilagem e a sísmica de superfície. Este
problema é comum à geração de sismogramas sintéticos, a ser discutido no próximo
capitulo.
Muitas vezes, o processo de deconvolução usado é misto, ou seja, estatístico-
determinístico. Cary (2001) considera que a deconvolução estatística predomina,
lembrando que com isso a fase do sinal continua sendo uma incógnita.
Uma etapa adicional de deconvolução, comumente aplicada, altera somente a fase
do sinal, deixando a amplitude inalterada. Esta etapa, denominada deconvolução de fase
zero, causa um aumento da resolução aparente (porém efetivo) da seção (aparente por
não alterar o espectro de amplitude). Outra grande vantagem é que os máximos absolutos
do pulso passam a corresponder à posição da reflexão, facilitando bastante a
interpretação. Na prática, muitas vezes não é trivial a obtenção da fase zero, com os
métodos mais comuns usando o fundo do mar e/ou perfis de poços e/ou VSP
(provavelmente, o mais confiável). Freqüentemente, no entanto, ainda é necessária
alguma correção durante a interpretação.
Etapas adicionais podem ser aplicadas, como por exemplo a correção da cor da
função refletividade (que, na prática, não é exatamente branca, ou seja, não tem valores
iguais de amplitude para todas as freqüências). Ainda que algumas vezes tais etapas
gerem melhoras pequenas, muitas vezes são úteis, como o exemplo da fig. 4.2.2, extraído
de Rosa (2002), mostrando o ganho da deconvolução de fase zero (seção do meio) e
melhora após ajuste da função refletividade.
76
4.3 Correção de espalhamento geométrico
Fig. 4.3.1 – Comparação de seção antes (superior) e após correção de espalhamento geométrico
(divergência esférica) (extraído de PGS, 2006).
77
A correção de absorção (fator Q) apresenta um problema muito grave, e bastante
comum, que é a super-correção das amplitudes nas altas freqüências, pois geralmente
nesta parte do espectro ocorre um domínio do ruído sobre o sinal (algumas vezes, até por
limitação da faixa dinâmica do equipamento de registro na aquisição). Este problema é
contornado aplicando-se um fator Q menor que o necessário – naturalmente, todas as
amplitudes são sub-corrigidas, mas este efeito é menos prejudicial que a super-correção
dos ruídos de alta freqüência. Outra solução é aplicar um fator Q inversamente
proporcional ao tempo de trânsito, ou seja, as ondas que viajam por mais tempo –
estando conseqüentemente mais afetadas pela absorção – são progressivamente menos
corrigidas.
Além das amplitudes, a absorção também está associada à dispersão, tornando
necessária uma correção de fase. Efeitos de supercorreção devido a fatores Q
superdimensionados são bem menos nocivos na fase que nas amplitudes, no entanto.
Até aqui, tem-se considerado o fator Q intrínseco, mas na realidade devemos
procurar corrigir o fator efetivo, que inclui também a atenuação de altas freqüências
devido à múltiplas de curto período (reverberações, ou filtro estratigráfico), como
explicado no item 2.7. Geralmente esta correção é aplicada usando-se o método de
O’Doherty e Anstey (1971) (ou variações a partir dele, um dos quais apresentado por
Rosa, 2002), que é estatístico.
Aumentos de amplitude – nem sempre associados à recuperação de efeitos de
propagação – podem ser usados localmente para uma melhor definição estrutural, mas
geralmente causam um pior caráter na seção. Entre os mais comuns está o AGC
(Automatic Gain Control), em que em uma janela em tempo (100 a 2.000 ms, geralmente)
é feita uma normalização pela maior amplitude. Assim, as amplitudes máximas de cada
janela são ‘igualadas’, mascarando anomalias mas realçando eventos muito fracos.
Um exemplo do efeito da aplicação da correção do espalhamento geométrico é
mostrado na fig. 4.3.1.
78
Se mal aplicadas ou não consideradas estas correções podem conduzir
(especialmente em dados terrestres) a pouca continuidade de eventos, alinhamento pobre
de sinais após correção de NMO, má determinação de velocidades e instabilidade na
forma da onda e variações indesejáveis de amplitude e freqüência.
Fig. 4.4.1 – Mapas em tempo do fundo do mar antes (esquerda) e após correção estática da
lamina d’água (extraído de PGS, 2006).
79
efeitos sem coerência – no entanto, como quase todos os métodos que não usam
equação da onda, nem sempre este artifício produz resultados satisfatórios.
O segundo grupo (Surface-Related Multiple Elimination, ou SRME, sendo o mais
comum), bem mais robusto e efetivo, tem como desvantagens o custo elevado, (pois usa
algoritmos que requerem bastante uso de máquina), não ser extensível facilmente para
3D, ignorar efeitos como deriva de cabo e mergulho cruzado (mergulho aparente,
perpendicular à direção de aquisição) e necessitar uma densa amostragem espacial.
Apesar disso, os métodos SRME tendem a serem usados atualmente, devido aos
resultados geralmente bem superiores aos do Radon.
Até meados dos anos 90 usava-se o MAFK, que procurava atenuar as múltiplas no
domínio f-k (freqüência – numero de onda). No entanto, costumava ser pouco efetivo, ou
cancelava também o sinal de interesse.
Deve ser observado que a atenuação de múltiplas é um problema que não está
resolvido (apesar de uma melhora significativa recente pelo SRME), sendo ainda
necessário algumas vezes a aplicação do silenciamento (mute) interno – o que cancela
também o sinal nos menores afastamentos, ver item 4.12 – para se obter uma melhor (ou
menos pior) imagem de níveis de interesse.
De uso mais restrito para múltiplas de longo período, mas algumas vezes útil nas
de curto período, é a deconvolução preditiva. A premissa básica é que, por ser aleatória, a
função refletividade é imprevisível. No entanto, uma múltipla viola esta premissa, por ter
uma periodicidade, já que é repetida a intervalos de tempo constante. Assim, eventos
periódicos podem ser considerados múltiplas, e atenuados.
Fig. 4.6.1 – Comparação de gather CDP antes (esquerda) e após aplicação de atenuação de
múltiplas por transformada de Radon (extraído de PGS, 2006). Apesar da forte atenuação, a
energia das múltiplas remanescentes nos afastamentos próximos pode ser problemática para a
migração e empilhamento.
80
4.8 Análise de velocidade de migração 500 x 500 m (com anisotropia, se necessário)
Uma discussão sobre velocidades já foi realizada no item 2.4, com alguns
aspectos sendo (re)apresentados aqui.
Uma boa estimativa das velocidades é função de vários fatores, como ruído
presente, complexidade geológica, algoritmos e tempo disponíveis para o processamento.
Alguns desses fatores devem ser observados durante a definição de um programa
sísmico. Como exemplo, pode-se ver na fig. 4.8.1 (extraída de Rosa, 2002) como uma
definição deficiente da velocidade é obtida caso um afastamento fonte-receptor suficiente
não seja usado durante a aquisição. Deve-se observar também neste exemplo que, caso
fosse usado um lanço demasiadamente curto, poder-se-ia concluir – erroneamente – que
o meio seja anisotrópico, devido à sub-correção aparente do evento. De uma forma geral,
pode-se afirmar que as ambigüidades entre velocidades e posições do evento se tornam
piores quando a abertura (definida no item 4.10) diminui e que no método de tomografia
(muito usado para PSDM) esta ambigüidade pode ocorrer quando o imageamento é
deficiente (Bube et al, 2005).
81
Fig. 4.8.1 – Dado sintético de um
evento (base de camada com
aumento de velocidade linear
com profundidade) corrigido para
NMO com velocidade usando-se
todos os offsets (acima) e
somente os menores offsets
(extraído de Rosa, 2002).
Observar pior horizontalização
com lanço curto, que pode
sugerir (incorretamente)
presença de anisotropia no meio.
Camadas com mergulho fazem com que o ‘ponto comum’ de reflexão de um CDP
seja transformado na verdade em uma região, e que a velocidade aumente (já que o
tempo da reflexão será menor que no caso de camada horizontal). Algo relativamente
comum e problemático durante a correção de NMO é a ocorrência de dois eventos
distintos (geralmente, um (quase) horizontal e outro com mergulho razoável) ao mesmo
tempo – este fenômeno era corrigido pelo DMO, mas hoje em dia a migração antes do
empilhamento geralmente cuida desse problema.
Na prática, a técnica CDP funciona razoavelmente bem em regiões com
mergulhos de camadas inferiores a 300. Muito mais perniciosas são as mudanças laterais
de velocidade, que podem variar de aceitáveis até problemáticas – caso, por exemplo, de
mudanças superiores a (segundo Brzostowski e Ratcliff, 1995) 5% em distancias menores
que 1 km.
Um caso relativamente comum, e que introduz algumas pequenas complicações e
comportamentos interessantes à técnica CDP, é o aumento linear da velocidade com a
profundidade – na verdade, o caso mais realista é a mudança do fator linear em diferentes
pacotes. Por exemplo, no caso da Bacia de Campos, entre o fundo do mar e o Marco Azul
ou Cretáceo Sísmico.
A eq. 4.8.1 foi obtida baseada em uma grande simplificação, que são camadas
homogêneas, isotrópicas e horizontais. Na prática, o tempo de trânsito t é uma função
mais complexa do afastamento x e da velocidade, existindo algumas equações (com
diferentes níveis de premissas e aproximações) para obtenção da velocidade (algumas
delas com parâmetros adicionais, relacionados à curvatura do raio e/ou anisotropia). A
maior parte é obtida a partir de análises inicialmente desenvolvida por Taner e Koehler
(1969), que usaram expansão de Taylor para encontrar uma primeira aproximação para a
velocidade. O método apresentado por eles tem sido usado, com algumas evoluções, há
vários anos. Entre as evoluções mais famosas, está a de Alkhalifah e Tsvankin (1995),
82
raio (causado pelo aumento linear de velocidade) – algo que, a princípio, sé deve ter
relação com anisotropia polar devido ao fato de que a velocidade de uma onda ao longo
de um raio curvo deve apresentar, intuitivamente, uma relação (provavelmente nada
trivial) com a anisotropia. Tal relação não tem sido objeto de estudo, com η sendo usado
com certa freqüência relacionado somente a fatores anisotrópicos para correlações com
variações litológicas, o que, além de provavelmente geralmente estar errado, pode ser
perigoso, pois indica falsos valores de anisotropia no meio.
De qualquer forma, na prática η é obtido realizando-se primeiramente uma análise
de velocidade somente com afastamentos curtos (1/4 a 1/2 do total) – para minimizar
possíveis efeitos de anisotropia. Uma segunda análise é então realizada, agora com todos
os afastamentos, mantendo-se a velocidade e procurando-se a melhor horizontalização
de eventos variando-se o valor de η.
Uma alternativa muito interessante ao uso de η é apresentada por Rosa (2002)
que, através de um desenvolvimento algébrico, chega a
t2 = t02 + x2 / (V2 + αx) 4.8.5
em que α é um fator com significado físico não muito claro, mas que estabiliza e aumenta
a precisão da eq. 4.8.1, sendo mostrados naquele trabalho melhores resultados (em
dados sintéticos) com eq. 4.8.5 que 4.8.3 (Alkhalifah), em meios com aumento linear de
velocidade com profundidade, porém a eq. 4.8.5 tem resultados piores em meios
anisotrópicos. As duas equações funcionam melhor que a eq. 4.8.1, que é conhecida
também por equação de segunda ordem por corresponder a um truncamento da série de
Taylor no segundo termo. α é obtido, na prática, de forma similar a η, sendo também
necessárias duas análises de velocidade.
Assim, ao se desejar uma melhor definição do campo de velocidades – com
conseqüente melhor imageamento – torna-se necessário a realização de uma etapa
adicional de análise, o que obviamente demanda maior tempo. O intervalo de análise de η
ou α não é o mesmo das velocidades (geralmente, estas são realizadas em uma malha
de 500 x 500 m em um 3D, enquanto η ou α costumam ser obtidos em uma malha de 1 x
1 ou 2 x 2 km, já que a variação desses parâmetros é, geralmente, mais suave e menor
que a da velocidade).
Outra alternativa é o uso de outras equações, geralmente disponíveis nas
companhias de processamento. A PGS, por exemplo, usa uma equação de pseudo-6a
ordem (Sun et al., 2002) que mostrou resultados bem interessantes no campo de
Roncador (Rodriguez et al, 2006a), conseguindo horizontalização de eventos com
grandes afastamentos sem uso do fator η, o que, além de tornar possível de uma forma
menos demorada a obtenção de um campo de velocidades mais correto e confiável,
sugere que a presença de anisotropia polar – sugerida, principalmente, pela super-
correção (hockey-stick) – deve ser, muitas vezes, associada a problemas nas
aproximações implícitas de equações mais simples, principalmente a de 2a ordem (mais
comumente usada). Uma comparação da horizontalização de eventos desta equação com
a eq. de 2ª ordem (eq. 4.6.1) é mostrada na fig. 4.8.2.
83
Fig. 4.8.2 – Comparação do alinhamento de eventos com eq. de 2ª ordem (esquerda) e de pseudo-
6ª ordem (extraído de Sun et al., 2002).
84
frentes de onda, corrigindo-se assim os mergulhos das reflexões. O ângulo de migração é
o maior ângulo em que se realiza a geração das frentes de onda.
85
fortes no conceito CDP: o ‘ponto’ se transforma em uma área e o valor da velocidade é
alterado para
Vα = V / cosα 4.10.1
α mergulho da camada.
O processo de DMO (Dip Move Out), de uso bastante comum até meados dos
anos 90, corrige a trajetória do sinal nesses casos. O DMO era também chamado de
migração parcial pré-empilhamento, e seu efeito é mostrado na fig. 4.10.4, extraída de
Sheriff (1991).
A equação de migração
tg φAP = sen φMIG = V.p 4.10.2
φAP ângulo aparente (antes da migração), φMIG ângulo verdadeiro (após migração), V velocidade do
meio e p parâmetro do raio.
mostra que mergulhos antes da migração não podem ser superiores a 450.
86
Fig. 4.10.5 – Significado geométrico
da migração por colapso de
difrações, em que a posição de um
ponto difrator é obtida pela
interseção de várias trajetórias
possíveis (extraído de Rosa, 2002).
Considerando-se agora que um evento contínuo pode ser visto como vários pontos
difratores juntos podem-se concluir que este método permite a migração de qualquer
reflexão presente em uma seção sísmica.
Outra maneira de se entender geometricamente a migração de um evento
contínuo é mostrado na fig. 4.10.2. Como no caso anterior, são traçados semicírculos,
com o evento migrado sendo definido agora pela tangente aos semicírculos. Este
processo é a forma geométrica da migração denominada por frentes de onda. Na figura
vê-se também o ângulo de migração, que é o ângulo máximo até o qual se estende o
processo de migração – naturalmente, quanto maior o ângulo, mais preciso e demorado
(logo, caro) o processo. Este ângulo está associado à abertura do operador de migração
(fig. 4.10.6). Apesar de aqui sendo mostrado para camada mergulhante, a abertura ou
ângulo de migração define também a declividade máxima que uma difração será
colapsada.
O conceito de abertura – que não deve ser confundido com o máximo afastamento
fonte-receptor, não tendo relação alguma com este – determina também o ângulo máximo
a ser migrado para uma determinada profundidade. Caso a abertura da migração seja
constante, o ângulo máximo de migração decresce com a profundidade e, da mesma
forma, usando-se um ângulo de migração constante, a abertura aumenta com a
profundidade. Na prática, pode-se variar a abertura (mantendo-se constante o ângulo
para o imageamento correto de planos de falhas) com a profundidade, para a migração
ser um pouco mais rápida.
A abertura é definida pela expressão
A ≥ 2.z.tanθ 4.10.3
z profundidade (correta) e θ maior ângulo real a serem migrados.
Esta expressão define também o que é chamado de franja de migração, que
corresponde a uma extensão lateral além de onde se deseja migrar, para evitar artefatos
de borda (os ‘sorrisos’). Na verdade, a franja é metade da abertura.
Observa-se que a abertura pode ser maior que o afastamento fonte-receptor
máximo usado na aquisição.
87
Fig. 4.10.6 – Esquema geométrico da abertura e do ângulo de migração θ (extraído de Margrave,
1996).
88
Outra forma de migrar os dados sísmicos sem o uso de Kirchhoff é através das
chamadas técnicas espectrais, por serem aplicadas no domínio ω-kx-ky ou ω-kx (ω
freqüência e ki componente do número de onda). Na forma desenvolvida inicialmente, não
contemplava variações laterais de velocidade, mas alternativas foram sendo
desenvolvidas, pois são os métodos mais rápidos. O campo de ondas é decomposto em
componentes de ondas planas, com cada componente sendo migrado separadamente.
Uma técnica comum é a migração por deslocamento de fase (Gazdag, 1978), por usar
esta metodologia para ‘depropagar’ o campo de ondas. São acuradas para grandes
mergulhos.
Este método é interessante para ilustrar dois aspectos da migração, presentes
independentemente do método usado: a remoção de ondas evanescentes durante a
migração e o decréscimo de resolução vertical após a migração.
As ondas evanescentes são geradas quando kz se torna complexo (isto acontece
quando ω/v > kx). Demonstra-se que essas ondas são reforçadas durante a migração –
por isso, elas são removidas, pela atenuação de eventos com velocidades aparentes
inferiores à velocidade mais baixa usada na migração.
O outro aspecto importante da migração – que pode ser provado por análises de
eventos em domínios ω-k (freqüência-número de onda) – é que ocorre, para um k
constante, uma diminuição de ω após a migração (fig 4.10.7). Ou seja, a migração
decresce a resolução vertical – apesar desta inconveniência, é absolutamente necessário
migrar os dados sísmicos.
freqüência pós-migração ω é
’
A fig. 4.10.7 também mostra a chamada migração Stolt (1978), em que uma
amostra situada em ω0/V é deslocada (mantendo-se kx constante) para (ω0/V). cosθ – este
deslocamento corresponde à migração.
Deve-se comentar que a distribuição dos traços só não precisa ser regular no caso
da migração Kirchhoff, mas caso seja usada deslocamento de fase ou diferenças finitas, é
89
necessário uma homogeneização (por ex., via interpolação) na distancia entre PTs e
linhas. Por outro lado, o processo Kirchhoff pode – devido à distribuição irregular – migrar
componentes de freqüência maiores que os da eq. 4.10.4, gerando um falseamento
(alias) espacial. Isto é contornado usando-se um filtro corta-altas em função do mergulho.
Fig. 4.10.8 – Diferença fundamental entre migração em profundidade (esquerda) – que respeita a
lei de Snell – e em tempo (extraído de Margrave, 1996).
90
Fig. 4.10.9 – Acima: resultado de PSTM
(esquerda) sugerindo que poço estaria no bloco
alto, e reposicionamento da falha (constatada pelo
poço) em dado com PSDM. À direita: indicação de
que PSDM (ou raio imagem) é necessário para
colocar o ápice da hipérbole na posição correta
(extraído de Whitcombe et al, 1994).
91
Fig. 4.10.10 – Efeito de erros de
velocidade em PSDM: acima,
V=1.900 m/s, no meio V=2.000 m/s
(correta) e abaixo V=2.100 m/s. S
corresponde ao traço empilhado.
Observar forte suscetibilidade de
PSDM a erros não muito elevados
(5%) de velocidade, mesmo em
dados sintéticos. Observar também
efeito de estiramento (item 4.13)
nos maiores offsets, mesmo para
velocidade correta(extraído de
Rosa, 2002).
Diz-se que PSTM é muito mais robusta à imperfeições na velocidade que PSDM.
Como esperado, a obtenção de velocidades é muito mais difícil e complexa no caso de
PSDM que para PSTM. O erro máximo admissível para PSDM é 2%, sendo 1% desejável
– existem algumas técnicas que procuram conseguir este nível de acerto, com a
tomografia (uma minimização algébrica que diminui erros de velocidades para cada
conjunto de traços migrado) estando entre as mais comuns. Independente do método,
geralmente a observação de eventos horizontalizados (de maneira similar à análise de
velocidades para empilhamento) costuma ser usada como controle de qualidade. Como
exemplo, a fig. 4.10.10 mostra como se identificar a velocidade correta (mesmo este
sendo um caso simples, de dado sintético com velocidade constante e refletor horizontal),
e também o quão suscetível o processo de PSDM é a erros de velocidade, mostrando o
imageamento muito pobre com um erro de 5%. Um grande problema prático é que
geralmente nenhum método de definição de velocidades para PSDM funciona bem em
áreas com qualidade pobre e forte variações de velocidades – infelizmente, é exatamente
neste tipo de situação que se precisa que a PSDM funcione melhor.
Pon e Lines (2005) consideram que essa susceptibilidade está associada a
incertezas (ou erros), que deveriam sempre ser estimadas. Os autores apresentam uma
análise matemática de incertezas (erros sistemáticos e aleatórios) em um caso simples
para avaliar erros de posição na seção migrada em profundidade.
92
evoluir. Comparações entre os dois métodos são fornecidas por vários autores. Pharez et
al. (2005), por exemplo, comparam Kirchhoff e equação da onda em cinco regiões
produtoras em mar e terra, com a equação de onda sendo superior e justificando os
custos adicionais.
Independente do método (que deve ser escolhido de acordo com a complexidade
da área, tempo e recursos financeiros disponíveis para o processamento), é importante se
lembrar que etapas anteriores são cruciais para a obtenção de um dado migrado com boa
qualidade. Bevc e Bondi (2005) citam regularização no pré-processamento apropriada,
preservação de amplitudes, extrapolações de altas ordens, a capacidade de trabalhar
com velocidades laterais de velocidade com precisão, o uso de todo o dado disponível (ou
seja, não fazer decimações) e manter abertura elevada para capturar fortes mergulhos.
Os autores consideram também que Kirchhoff é de mais fácil entendimento, é baseada
em cálculos simples, é flexível no trato de variações extremas de velocidades, fortes
mergulhos e, principalmente, dados 3D. No entanto, no mesmo trabalho é apresentado
um exemplo sintético que demonstra a inferioridade de Kirchhoff na definição da frente de
onda a ser migrada (fig. 4.10.11).
93
os eventos e, também como o anterior, é uma correção dinâmica (cada amostra de um
traço tem deslocamento diferente das demais).
Esta horizontalização (ou alinhamento) das amostras é obtido corrigindo-se as
diferentes trajetórias – referentes aos diferentes caminhos percorridos pelo campo de
onda entre cada par fonte x receptor pela equação hiperbólica 4.8.11, aqui repetida
t2 = t02 + (x/VE)2 4.11.1
t0 tempo vertical (correspondente ao afastamento nulo) e VE velocidade de empilhamento.
A velocidade de empilhamento – assim como a de migração – é usada para
conversão tempo-profundidade, estimativa de zonas de pressões anormais em
subsuperficie (perfis de Pennebaker, item 2.4) e inferência de propriedades físicas das
rochas. Ainda mais que a velocidade de migração, esta é obtida de forma estatística,
sendo influenciada pela geometria de aquisição.
A fig. 4.11.1, extraída de Rosa e Tassini (1990) e obtida pelos autores para situação
que se pode considerar representativa, nos permite concluir que:
1. VE (VS na figura) é maior que VM e VRMS, aproximando-se de VRMS quando x → 0.
Isto ocorre por diversas razões, como por exemplo, anisotropia, geometria de
aquisição e aumento de velocidade com profundidade. Na prática, quando VE é
usada diretamente para conversão tempo-profundidade, pode-se esperar
profundidades maiores que as verdadeiras, já que a velocidade correta é VM. VM
só é disponível por perfuração de poços, por isso geralmente processos de
conversão calibram ou ajustam velocidades de processamento a partir de
informações de poços, e
2. o tempo de reflexão em offsets nulos (geralmente extrapolados, pois não são
adquiridos) obtido por VE (T0S2 na figura) é maior que o real – ou seja, mesmo que
o item anterior não ocorra (i.e., se fosse possível a obtenção de velocidades
corretas), ainda assim processos de conversão tempo-profundidade podem ser
imperfeitos, pois t0 obtida pelo empilhamento pode estar errado.
2 2
Fig. 4.11.1 – Gráfico x -t ,
mostrando que para offsets nulos
a velocidade de empilhamento (VS)
é maior que as velocidades média
(VM) e RMS (seção empilhada) e
que t0 é maior que o correto
(extraído de Rosa e Tassini, 1990).
94
Como dito no item 2.4, o estudo de velocidades sísmicas requer um curso próprio.
No entanto, um resumo é apresentado abaixo, na forma de texto e figuras (extraídas de
Anstey (1977) e Brown (1992).
95
down, gerando falsos sinclinais no dado. O efeito inverso – para camadas com
velocidades elevadas – é denominado pull (ou push) up.
96
desprezível, tornando necessária a utilização de técnicas mais sofisticadas de atenuação
de múltiplas, como já discutido.
Fig. 4.11.3 – Efeito de ruído na definição da velocidade: CDP gathers (variando de sem ruído até
razão sinal/ruído de 1) com velans correspondentes à direita (extraído de Yilmaz, 2001).
97
usado em inversões elásticas. Deve-se registrar que durante a inversão, a amplitude (ou
coeficiente de reflexão) considerada como de um ângulo determinado (por ex., 50 ou 150)
corresponde, na realidade à soma de todas as amplitudes entre os ângulos mínimo e
máximo de cada faixa (por ex., 0 a 100 ou 10 a 200) – ou seja, processos de inversão
elástica apresentam também esta premissa.
A fig. 4.12.1 mostra um exemplo do desenho das faixas de ângulo, que definem as
janelas de cada angle stack.
Fig. 4.12.1 – Esquerda: gather CDP com linhas de mutes interno (azul, para retirada de múltiplas
residuais nos offsets próximos) e externo (vermelho, para retirar efeitos de estiramento e eventos
espúrios – por ex., reflexões entre 4,1 e 4,2 s – e aumentar resolução da parte rasa na seção
0 0 0 0 0 0
empilhada). Direita: linhas de ângulos (2 ,11 , 20 , 30 , 40 e 50 ) que definem as faixas de
empilhamento parcial por ângulo (angle stacks) (extraído de PGS, 2006).
98
Assim, ocorre mudança na forma original do pulso, pelas diferenças no deslocamento
entre amostras consecutivas em um traço durante a correção de NMO (fig 4.10.10).
Um efeito prejudicial do estiramento é uma perda – indireta, por não ser causada
pela propagação, mas existente – de altas freqüências. Por isso, algumas vezes é
realizado um silenciamento (mute) externo nos maiores afastamentos (por um percentual
máximo de estiramento ou desenho de um mute, como usado no item 4.12), procurando-
se preservar uma melhor resolução vertical, especialmente na parte rasa.
Um processo com base teórica distinta da deconvolução, mas com o mesmo efeito
prático, é o chamado branqueamento espectral (spectral whitening). Como o nome
sugere, procura-se tornar o espectro de freqüência aproximadamente plano, aumentando-
se as menores amplitudes. O maior problema desta técnica é que geralmente os ruídos
de alta freqüência são realçados, com pouco (ou muito pouco) sinal de interesse sendo
beneficiado – este problema é comum à deconvolução spike, sendo geralmente
99
necessário nos dois casos a aplicação de um filtro corta-altas, o que quase sempre
retorna o dado ao conteúdo de freqüência (especialmente as altas) existentes antes da
aplicação do branqueamento ou deconvolução. Para atenuar o aumento da amplitude dos
ruídos de alta freqüência, costuma-se realizar o balanceamento espectral por janelas de
tempo, de foram que nos tempos maiores seja realizada uma menor amplificação das
altas freqüências.
Tab. 4.15.1 – Alguns tipos de filtros usados na geofísica e suas aplicações (extraído de Sheriff,
2002).
Extremamente útil e poderoso, e bastante robusto (desde que o dado seja de fase
zero), é um processo desenvolvido em 1975 na Petrobras por José Tassini e Francisco
Evangelista (segundo Duarte, 2003), chamado deconvolução iterativa (iterdec). O método,
explicado em detalhe em Rosa (2002) e Duarte (2003, que o chama ‘deconvolução
recursiva’) parte da premissa que o sinal possui fase zero e a função refletividade é
branca (ou seja, é totalmente aleatória).
Como o sinal é considerado de fase zero, os máximos e mínimos do traço sísmico
podem ser considerados como uma primeira aproximação da função refletividade. Estes
máximos e mínimos são convolvidos com uma assinatura estimada, gerando um traço
sintético que é subtraído do traço original, gerando um resíduo. Este resíduo é
incorporado à primeira função refletividade, gerando uma nova função, que será
convolvida e novamente comparada com o traço real, até obter-se um erro mínimo.
100
Recentemente, este método foi revisto e bastante melhorado, aumentando-se o
numero de iterações usadas, entre outros procedimentos (Rosa et al., 2004),
conseguindo–se uma extrapolação para as altas freqüências tão boa que se tornou
necessária uma interpolação espacial (entre traços e linhas) para se evitar o alias
espacial. Esta nova versão do iterdec tem sido chamada de ‘iterdec turbinado’, ‘iterdec
C++’ e ‘segunda geração do iterdec’. A premissa fundamental do método (de que o dado
seja de fase zero) continua necessária.
101
5 – NOÇÕES DE INTERPRETAÇÃO SÍSMICA
O uso de sísmica 3D talvez seja, na prática, a técnica mais eficiente e útil, depois
do conceito CDP.
Fig. 5.1 – Tipos de apresentação do dado sísmico: wiggle com área variável (esquerda) e
densidade variável com a escala de cinza (mais comum) e azul-branco-vermelho (direita).
102
5.1 Sismograma Sintético
103
Em poços que não têm perfil sônico – situação relativamente comum em campos
terrestres – é possível, sob algumas circunstâncias, gerar-se uma curva sintética.
Um aplicativo foi desenvolvido por Freire et al. (1993), relacionando de forma não
linear o tempo de trânsito de uma onda compressional com a resistividade, através de
cinco constantes que possuem informações sobre propriedades físicas (inclusive
elétricas) e seus constituintes sólidos e fluidos. Inicialmente, são usados poços que
possuam curvas de resistividade e sônico, para obtenção dos parâmetros das equações,
em trechos com lito-resistividade similar. Além dos parâmetros, é obtida uma medida do
erro da curva sintética com a real. O método foi usado com sucesso em campos do
Recôncavo, mas não funciona em reservatórios com hidrocarbonetos.
Outra técnica, apresentada por Souza Jr e Sousa (1993), usa o perfil neutrônico e
análises de regressão (Teoria Geral dos Modelos Lineares) no pacote SAS. Os autores
citam que a porosidade neutrônica é a variável com melhor correlação com o sônico,
vindo a seguir densidade e raios gama. Este método foi comparado com as fórmulas de
Gardner e Faust em poços da porção emersa da Bacia Potiguar. Da mesma forma que a
técnica de Freire et al., são individualizadas formações com características similares de
perfis, para obtenção de equações e parâmetros de correlação. Os resultados
apresentados mostram que tal ferramenta tem grande utilidade, sendo, no entanto
necessário, quando ocorre gás, uma análise separada e mais cuidadosa.
5.2.1 Introdução
As estações de trabalho e programas de interpretação (Landmark, Geoquest,
Gocad, Petrel, etc) permitem um mapeamento relativamente rápido de vários eventos,
principalmente os associados a fortes contrastes de amplitude (fundo do mar, marco azul,
topos e bases de reservatórios turbidíticos, etc). No entanto, o trabalho de interpretação
não pode ser somente esta ‘topografia de sub-superfície’, como já foi considerado (às
vezes, com razão), a atividade do intérprete. Durante o mapeamento, o geólogo ou
geofísico deve ir criando mentalmente a evolução estrutural, sistemas e eixos
deposicionais, etc, de forma a entender a evolução geológica, variações de espessura,
possíveis rochas geradoras e caminhos de migração do óleo, etc.
Mais uma vez, as ferramentas atuais melhoram e tornam mais rápido este
trabalho, com recursos de visualização – principalmente tri-dimensionais – que auxiliam
bastante o entendimento da geologia atual e dos processos evolutivos de uma área.
Naturalmente, o uso dessas ferramentas será tanto melhor quanto maior for a
atenção durante o trabalho e conhecimento de geologia do intérprete. No caso de
reservatório, a disponibilidade de mais informações de poços é muito positiva – por outro
lado, a necessidade de definição detalhada de características das rochas (geralmente,
impossível de ser totalmente conseguida, pelas características do método sísmico
apresentadas nos capítulos anteriores) faz com que sempre reste muito que fazer.
104
geralmente, usa-se o fundo do mar, mas lobos laterais pronunciados no pulso podem
dificultar esta análise.
5.2.2 Sísmica 3D
Um levantamento 3D fornece um volume de dados, a partir do qual se podem
extrair seções verticais nas direções paralela (in-line), ortogonal (cross-line, ou x-line) e
aleatória à direção de aquisição e seções horizontais (time-slices) – existem também os
horizon-slices, naturalmente somente após alguma interpretação ter sido realizada. Além
de serem mais próximos da realidade que dados 2D, dados 3D permitem uma melhor
interpretação, com rastreamento e correlação de falhas e horizontes mais precisa e
confiável, além de mais rápida. Os diversos benefícios da técnica 3D – inclusive na
relação custo/beneficio – em comparação com 2D para caracterização de reservatórios e
interpretação exploratória são extensivamente citados na literatura há pelo menos duas
décadas.
Time-slices são extremamente úteis na definição de feições estruturais e
estratigráficas, indicando fechamentos, domos de sal, etc. São usados também para
controle de qualidade da aquisição e do processamento, sendo comum a observação dos
traços próximos (near-traces) para verificação de problemas de navegação e
desbalanceamento de amplitudes (causados por problemas de aquisição e/ou
processamento) em 3Ds. Exemplo de seção inline¸ crossline e time-slice são mostradas
na fig. 5.2.2.1.
Fig. 5.2.2.1 – Seções verticais de um 3D marítimo nas direções paralela (inline, esquerda) e
ortogonal (crossline) à aquisição e fatia em tempo constante (time-slice, à direita).
105
A interpretação volumétrica permite – principalmente quando se trabalha com
eventos associados a fortes anomalias de amplitude – uma análise relativamente rápida,
verdadeiramente tri-dimensional e de relações entre amplitudes e altos estruturais em
tempo real. Existem diversas formas e pacotes de interpretação, com uma discussão
detalhada estando acima dos objetivos desse curso. O que deve ser registrado é que é
necessário um cuidado para que a forma de apresentação não se sobreponha ao
conteúdo da interpretação feita, já que é possível – e algumas vezes efetivamente ocorre
– que volumes multicoloridos, que atraem a atenção, sejam usados como um fim em si
próprio, esquecendo-se o que exatamente estamos tentando realçar, o significado físico
das manipulações visuais e as limitações, premissas e incertezas do dado que usamos
para chegar àquelas figuras tão bonitas e coloridas.
Não existe uma ‘receita de bolo’ rígida que seja a melhor metodologia para
interpretação, mas geralmente – após a confecção de sismogramas sintéticos e
identificação de níveis (horizontes, marcos, etc) de interesse na sísmica, ocorre uma
interpretação em uma malha ‘aberta’, ou seja, não são usadas todas as linhas, para se ter
inicialmente uma idéia do ‘geral’ da geologia de uma forma mais rápida. A partir desta
análise preliminar, pode-se usar um mapeamento (picking) automático para agilizar o
processo. Geralmente, algumas repetições são necessárias para se conseguir um bom
resultado – que, naturalmente, é função da qualidade do dado sísmico e da reflexão
sendo mapeada (i.e., eventos associados a altos contrastes de impedância, como fundo
do mar, marco azul, topo e base de reservatórios turbidíticos, etc, são melhores
candidatos para processos automáticos).
Processo similar pode ser usado no mapeamento de falhas, porém o mapeamento
automático costuma ser menos eficiente.
Atributos geométricos, também discutidos no cap. 6, são os associados – como o
nome sugere – a características de forma de um evento (geralmente, horizonte, camada
ou plano de falha). Os mais comuns são mergulho e azimute, que são freqüentemente
usados para definição de feições estratigráficas e estruturais sutis. Existem vários
trabalhos sobre o assunto, a maioria mostrando a necessidade de se procurar extrair, em
estações de trabalho, todas as informações possíveis de uma visualização volumétrica de
horizontes e atributos, com uso de sombreamento e diferentes ângulos de iluminação e
rotação. Como exemplo, Rijks e Jauffred (1991) mostram resultados com a utilização de
displays de atributos de horizontes (ou geométricos, como mergulhos e azimutes) para
definição de feições estruturais e estratigráficas sutis, com análise separadas de cada
atributo, pois o imageamento por um atributo depende da relação geométrica entre o
plano de falha e horizonte. Os autores apresentam um exemplo do Mar do Norte
mostrando a utilidade e complementação ao se observar dip e azimute (fig. 5.2.2.1). No
mesmo artigo, é também exemplificado como a simples mudança na direção de
iluminação pode alterar a interpretação realizada (fig. 5.2.2.2), mostrando a importância
de se ‘varrer’ todo o dado com diferentes parâmetros de visualização.
A iluminação artificial de um evento é usada para evidenciar feições,
principalmente as mais sutis. Diferentes sombreamentos, ângulos de iluminação e rotação
são testados, observando-se continuamente as superfícies e volumes com o objetivo de
melhor entendimento de processos deposicionais e/ou erosionais, possíveis mudanças de
fluidos, padrões estruturais, etc.
106
Fig. 5.2.2.1 – Atributos de horizontes (geométricos) dip (esquerda) e azimute, mostrando presença
de falhas sutis, não observadas durante a interpretação (extraído de Rijks e Jauffred, 1991).
107
horizontes interpretados. Uma característica interessante é que as feições
estruturais/deposicionais são observáveis sem nenhuma interpretação, o que, além de
permitir uma avaliação mais rápida em algumas situações, significa que não existe
nenhuma tendência introduzida pelo interprete.
Se possível, recomenda-se a observação simultânea (ou seja, com sobreposição)
de time-slices de dados sísmicos e cubos de coerência, pois tal procedimento costuma
realçar ainda mais o padrão estrutural.
Deve ser registrado que, muitas vezes, a contribuição do dado (cubo) de coerência
é marginal, principalmente porque quase tudo que esse tipo de dado mostra pode ser
observado no dado convencional. No entanto, isso não invalida a necessidade de sempre
se gerar um cubo de coerência, mesmo porque tal procedimento é relativamente rápido e
simples.
108
5.3 Conversão tempo-profundidade
109
Devido à incerteza – maior ou menor, mas sempre presente – de qualquer método
de conversão, a realização de análises de incerteza é sempre recomendável. Na prática,
muitas vezes a falta de tempo não permite tal exercício. Quando realizada, uma forma
popular é Monte Carlo. Como exemplo – nada recente, mostrando a importância do
assunto – da Petrobras, Freitas e Souza (1992) usaram esta técnica para analisar a
sensibilidade que mudanças nas velocidades intervalares causam na conversão em uma
acumulação do Mar do Norte. O produto são diversos mapas de profundidade e a
correspondente probabilidade (grau de ocorrência possível) associada.
Atualmente, em estudos de reservatório procuram-se avaliar três cenários (P10,
P50 e P90), principalmente para robustez de um determinado projeto.
Um exemplo de como valores de velocidades podem determinar a forma de um
mapa em profundidade, na fig. 5.3.1 é apresentado um mapa do topo do arenito
Namorado no campo de Albacora. Em tempo (esquerda), ocorre um fechamento
estrutural secundário na parte oeste do reservatório, mas em profundidade (direita) este
fechamento desaparece. A causa deste pull-up – o aumento da lamina d’água (meio que
tem baixa velocidade, ‘aumentando’ o tempo de reflexão) para leste – é relativamente
comum, devendo ser observada com atenção em dados marítimos.
Fig. 5.3.1 – Mapas em tempo (esq.) – com falso fechamento estrutural secundário a oeste – e em
profundidade (dir.) do topo do arenito Namorado do campo de Albacora.
5.4 Inversão
Este item poderia ter sido incluído no cap. 4 (processamento), mas como
processos de inversão – apesar de realizados pelos grupos de processamento – requer
um envolvimento continuo e o mais detalhado possível do intérprete.
110
recursivamente estimativas de impedâncias para camadas subseqüentes (geralmente,
abaixo da primeira). A fig. 5.4.1 mostra de forma simplificada como funciona a modelagem
(processo ‘direto’) e o que se obtém com processos de inversão.
Para uma boa inversão, é desejável que o dado sísmico tenha uma alta razão
sinal/ruído e o maior espectro de freqüências possível. Durante o processamento, deve-se
sempre que possível preferir procedimentos determinísticos em vez de estatísticos, e
algumas etapas como mutes, estáticas e velocidades devem ser tratadas com grande
cuidado. Também se devem procurar amplitudes verdadeiras, o que sugere o uso de
migração Kirchhoff. Em resumo, deve-se procurar fazer o que Hall (1990) chamou de
“properly processing”.
No geral, pode-se considerar que processos de inversão são instáveis, por isso
sempre se procura na prática usar métodos e dados que diminua o máximo possível esta
instabilidade. Talvez o maior problema seja a não-unicidade, ou seja, um dado pode ser
ajustado a diferentes modelos – assim, a escolha do modelo mais apropriado envolve o
conhecimento da teoria dos processos de propagação de ondas, tratamento de sinal,
petrofísica, inversão propriamente dita e de interpretação geológicas.
111
apesar de mais usada – tem sempre o problema de como se ‘injetar’ freqüências fora da
sísmica, com alguns aspectos desse problema sendo discutidos a seguir.
112
mostrado na fig. 5.4.2 – no caso, a faixa de 6 a 11 Hz é retirada de um perfil, mostrando
como se alternam erros positivos e negativos de velocidade em relação ao correto.
113
e gerentes de reservatórios solicitem aos grupos de processamento sísmico a realização
deste processo, que deveria ser parte do fluxo padrão de processamento para
reservatórios (senão também para a interpretação).
114
Contreras et al (2005) apresentam o resultado da aplicação de um método de
inversão estatística (Markov-Chain Monte Carlo) em campo de águas profundas no GOM
(porosidade superior a 30%, permeabilidade variando entre 100 a 4000 mD) em que IP e
IS diferenciam folhelho e areia e fluido. A técnica de inversão usa uma ‘restrição de
variograma geoestatisticamente correto’ para contornar alguns problemas com métodos
estatísticos tradicionais. Esta técnica é desenhada para fazer os residuais variarem dentro
da faixa estatística definida pela estimativa do usuário da quantidade relativa de ruído no
dado. O método honra perfis e angle-stacks, usa critério consistente estatisticamente para
ajuste sem variações espaciais não-realistas e permite a obediência explicita de
correlações estatísticas entre propriedades petrofísicas e elásticas. Duas premissas: a
sísmica tem que detectar espessura de litologias e unidades de fluxo e tem que existir
uma correlação entre propriedades petrofísicas e elásticas que permitam diferenciação de
φ, SW e litologia.
115
pode ser considerado o de Partyka et al. (1999). Uma forma alternativa (mas tanto teórica
quanto praticamente parecida) ao uso de Fourier é a transformada de pulso, apresentada
por alguns autores, como por ex. Castagna et al. (2003).
116
6 – INTRODUÇÃO À CARACTERIZAÇÃO DE RESERVATÓRIOS
117
chamamos hoje em dia de envelope. Norman Neidell, que trabalhava com eles, sugeriu o
uso da transformada de Hilbert para se conseguir o mesmo resultado – neste momento,
nasceram os atributos complexos, e com eles uma polêmica que deve estar longe de
acabar.
Já em 1975 (segundo Chopra e Marfurt, 2005), três dos principais atributos
complexos – usados até hoje, seja na forma como definidos originalmente ou com
pequenas variações – estavam definidos: o envelope instantâneo (reflection strength), a
fase instantânea e a freqüência instantânea. O envelope realça as anomalias de
amplitude (por envolver soma de quadrados), sendo muitas vezes o atributo instantâneo
mais estável. A fase algumas (ou muitas) vezes mostra continuidade de eventos de uma
forma melhor que a amplitude – por isso, é muitas vezes considerado o atributo complexo
mais útil e importante, por ser o mais independente da amplitude, fornecendo assim uma
informação adicional. A freqüência talvez seja o menos útil, indicando (em tese, mas com
pouca utilidade prática, geralmente), atenuações (absorção) muito fortes – associadas,
por ex., a gás – e afinamento de camadas.
Em 1976 Taner mostrou os atributos complexos no congresso da SEG – vemos
assim que os atributos complexos são contemporâneos da sismoestratigrafia (que, aliás,
usava com certa freqüência atributos complexos em interpretações). Segundo Taner (in
Chopra e Marfurt, 2005), o próprio Peter Vail disse, ao ver uma seção de fase
instantânea, que “aquele tipo de seção era o que ele gostaria de ter para interpretação
estratigráfica”.
A disseminação de atributos complexos começou com o trabalho de Taner et al
(1979), que sugeriram que o traço sísmico convencional pode ser visto como o
componente real de um traço complexo, com o traço complexo podendo ser considerado
um vetor. Geralmente, o componente imaginário do traço complexo é obtido a partir da
parte real do próprio traço complexo (isto é, o traço sísmico) através de uma rotação de
fase de 900 – por isto, o traço imaginário algumas vezes é chamado de quadratura. No
entanto, o traço imaginário só corresponde exatamente à rotação de 900 do traço real
caso este seja de fase zero. Sendo rigorosos, é necessário usar a transformada de Hilbert
para obter o traço imaginário – entretanto, na prática isto quase nunca é realizado,
mesmo porque a maior parte dos dados sísmicos estão (ou, melhor dizendo, são
considerados como) próximos de fase zero após o processamento.
A idéia da existência de um traço real e outro imaginário (fig. 6.1) permite a
separação de algumas informações envolvendo amplitude e fase de um número complexo
– com o termo fase aqui não devendo ser confundido com a fase de um sinal como
descrito no item 2.1. Uma grande discussão – ainda não concluída – sobre o significado
físico do traço não impede (geralmente!) o uso de atributos complexos.
Os atributos complexos mais comuns e importantes são:
1. Intensidade de reflexão (reflection strength) – também chamada de envelope, é a raiz
quadrada da soma dos quadrados das amplitudes dos traços real e imaginário,
representando a quantidade total de energia em um instante qualquer, ou o módulo
instantâneo do traço complexo. Pode indicar limites de seqüências sísmicas e mudanças
deposicionais abruptas, geralmente realçando anomalias de amplitude.
2. Fase instantânea – é o ângulo, para cada amostra, entre os componentes real e
imaginário, representando a quantidade de energia cinética. Enfatiza a coerência de uma
reflexão, sendo muito útil em várias situações para definição de afinamentos,
progradações, etc, por ser menos relacionado com a amplitude. Na prática, é usado o co-
seno da fase, por não apresentar ‘pulos’. É altamente recomendado que seja observado –
principalmente na fase inicial da interpretação – algumas seções de (co-seno) da fase,
pois ou corrobora a interpretação realizada em amplitude, ou fornece – por menos que
seja – informações adicionais. Também é útil em algumas situações para extração de
118
atributos a serem correlacionados com propriedades petrofísicas.
3. Freqüência instantânea – derivada em relação ao tempo da fase instantânea. Tem
importância secundária, pois não costuma ser uma indicadora muito efetiva de interfaces
e possível diminuição do conteúdo de freqüência – reportada com certa regularidade na
literatura diminuição do conteúdo de freqüência – reportada com certa regularidade na
literatura como indicadores indiretos de hidrocarbonetos. Na prática tem, geralmente,
pouca importância.
4. Polaridade aparente – é o sinal (positivo ou negativo) de uma amostra no máximo de
intensidade de reflexão.
Como estes cálculos eram realizados amostra por amostra, foram chamados
atributos instantâneos. Não é difícil imaginar a confusão que estas definições geraram,
principalmente o conceito de fase e freqüência dos atributos complexos, que não tem
relação com os mesmos conceitos ‘clássicos’, vistos até aqui, relacionados com a
propagação de um pulso sísmico.
Fig. 6.1 – Visualização do traço complexo e seus componentes, que são o traço real (ou seja, o
registrado pelo método sísmico) e o imaginário (obtido pela transformada de Hilbert ou quadratura)
(extraído de Sheriff, 2002).
Uma tentativa teórica (frustrada na prática em dados reais, segundo White (1991)
devido a ruído e interferências) de estabelecer um significado físico a alguns atributos
complexos foi realizada por Robertson e Nogami (1984), quando eles observaram que a
freqüência instantânea no máximo (pico) de um pulso de fase zero corresponde à
freqüência média do espectro de amplitude do pulso. Pela mesma razão, os autores
demonstraram que a fase instantânea corresponde à fase verdadeira do pulso (um
parâmetro muito difícil de ser obtido no mundo real a partir somente do dado sísmico)
nessa posição.
119
Bodine (1984, 1986) introduziu o conceito de atributos respostas (response
attributes). A partir da consideração de que a maior parte da energia do sinal em um traço
está concentrada na vizinhança de picos do envelope instantâneo, a fase e freqüência
instantânea de um evento seriam descritas de forma mais acurada considerando para
eles os valores nesses máximos. Esses atributos – também chamados de atributos do
pulso – têm um valor computado em cada máximo do envelope e então assinalado a todo
o pulso. Esta idéia, apesar de talvez pouco clara à primeira vista, tem grande potencial,
tendo sido usada, entre outros, por Taner (2001) para desenvolver um indicador de
camadas pouco espessas e, mais recentemente, um algoritmo de Liner et al. (2004) – o
SPICE –, que é aplicado comercialmente. Informações adicionais sobre response
attributes estão disponíveis em Robertson e Fisher (1988).
O crossplot (ou plote cruzado, tradução que nunca ‘pegou’), de atributos foi
introduzido para mostrar visualmente a relação entre duas a quatro variáveis. É usado
principalmente para separar (agrupar) tipos distintos de rochas e/ou fluidos –
agrupamento este que usa o fato de que, quase sempre, o que estamos interessados
(reservatórios com hidrocarbonetos) são anomalias (inclusive estatísticas). Este tipo de
análise é interessante para identificação de quais atributos respondem a determinadas
características de rocha e fluido, essenciais à caracterização de reservatórios.
120
criatividade e experiência, é interessante citar o fato citado por Lindseth (2005), que o
geofísico Bem Rummerfeld em 1954, quando os dados eram classificados em termos de
caráter e consistência (de uma forma qualitativa, não existindo interpretação como
consideramos hoje) à tinta, percebeu – corretamente – que áreas com dados ruins
poderiam estar associados a zonas de falhas.
121
Um exemplo quantitativo de extração de porosidade a partir de dados sísmicos
invertidos é apresentado por Angeleri e Carpi (1982), usando a eq. de Wyllie rearranjada
para
φ = (∆t - ∆tma) / (∆tf - ∆tma) – VSH .[ (∆tSH - ∆tma) / (∆tf - ∆tma) ] 6.1
∆t, ∆tf, ∆tma e ∆tSH tempo de trânsito para rocha saturada, fluido, matriz e argila, respectivamente.
A comparação entre as medidas de porosidades de perfis e as obtidas pela
sísmica são mostradas na fig. 6.2, e foram boas para arenitos limpos e muito ruins para
arenitos com folhelhos, o que não é totalmente surpreendente, pois Wyllie funciona
melhor para arenitos limpos.
122
DeLaughter et al. (2005) apresentam um método para comparação de atributos
(por ex., amplitudes) de horizontes interpretados em diferentes 3Ds. Segundo os autores,
as amplitudes são reescaladas por um método simples, com sentido geofísico e
estatisticamente robusto. O método (denominado ‘z-score’) usa funções características
(autovetores para um operador linear em um espaço vetorial cujos vetores são funções,
as eingenfunctions) para transformar os sistemas de coordenadas que assinalam
posições e tempo a eventos, medindo quantos desvios-padrão um determinado ponto
esta da média. O dado a ser usado tem que ter distribuição unimodal. O artigo compara
resultados com os métodos Hi-Lo e RMS (fig. 6.3).
Fig. 6.3 – Comparação de atributos (amplitude, no caso) extraídos de diferentes 3Ds (triângulo
branco mostrando área de sobreposição aproximada) re-escalados por três métodos distintos: Hi-
Lo (esquerda, marca visível), RMS (no centro, que mostra fortemente o efeito de médias não-
nulas) e ‘z-score’ (direita) (extraído de DeLaughter et al., 2005).
123
não-supervisionada) é realizado com perfis (no entanto, o relatório não explicita se foram
usadas mais de 100 classes inicialmente também para os perfis).
Após as duas classificações, ocorreu uma calibração entre os dois grupos de
conjuntos, que gerou 15 classes de fácies (litológicas e/ou fluidos). Os autores
consideram que todas as fácies podem ser discriminadas no produto final, mas isto só foi
verdadeiro no caso apresentado dentro do reservatório, com os resultados sendo
bastante inconclusivos fora desta região.
Foram realizadas análises de perfis, com ajustes sendo realizados porque a RSI
considerou que os perfis têm baixa penetração (são rasos), sendo suscetíveis a
rugosidades do poço. Por isso, usaram a equação de Faust (1951) modificada – a original
obtém empiricamente VP como função da profundidade e idade geológica (eq. 2.3.11) –,
para correção de VP a partir da resistividade (calibrada nos trechos em que o sônico é
confiável) e Gardner (eq. 2.3.10) – também ajustada nos trechos considerados bons –
para correção de densidade. As propriedades elásticas dos fluidos (a serem usadas nas
modelagens de substituição de fluidos) foram obtidas pelas relações (empíricas e com
valores para parâmetros de fluidos válidos para pressão constante, uma premissa que
deve ser verificada caso a caso) de Batzle e Wang (1992) (o mais recomendável é que os
parâmetros – temperatura, gradiente de pressão de poros, etc. – sejam obtidos por
medidas diretas, geralmente existentes). A modelagem da substituição – usando Biot
(1956)-Gassman (1951) – mostrou que o fluido do poro tem efeito negligenciável na
impedância P nas areias cimentadas, concluindo-se não ser possível à determinação do
fluido saturante usando apenas ondas P.
A experiência dos técnicos da RSI é que – com poucas exceções – os atributos da
transformada de Hilbert, impedância e AVO são os mais úteis para uso em redes neurais.
Existem duas maneiras principais para seleção de atributos: 1) extração dos mesmos a
partir dos dados sísmicos reais com escolha posterior (visualmente em mapas ou volumes
ou por cross-plots com médias de propriedades petrofísicas) dos que mostram correlação
com os parâmetros petrofísicos de interesse, ou 2) extração de dados sintéticos
modelados variando-se as propriedades petrofísicas que se deseja analisar. A RSI usou a
segunda opção, mas com um procedimento muito questionável, pois as modelagens
foram realizadas nos ângulos de empilhamento de 50 e 350, mas os atributos foram
selecionados nos ângulos de 150 e 300 – com a justificativa que o dado de 50 era ruidoso
e 350 tinha baixa cobertura, então se usaram os ângulos mais próximos. A questão óbvia
que se faz é porque, então, as modelagens não foram feitas com 150 e 300, sendo mais
perigosa a premissa de que o comportamento a 50 é similar ao de 150. Foi usado um
pulso Ricker 25 Hz, pois análises de AVO mostraram que nem um pulso extraído da
sísmica nem um Ormsby (4/8-20/30) forneceu bons resultados. Na etapa de seleção, é
importante verificar se não existe dependência (correlação) entre os atributos – a RSI
denomina este fase como ‘teste de redundância’.
Inicialmente foram usados oito atributos (envelopes do traço, 2ª derivada da fase,
fase da amplitude modulada e impedância acústica relativa), obtidos nos cubos de 150 e
300, em uma topologia 8x8 (64 classes) que foi considerada satisfatória. Posteriormente,
no entanto, um teste incorporando-se atributos da inversão elástica (sem ter sido
verificado se eles tinham correlação com parâmetros petrofísicos) em uma tipologia 12x12
(144 classes) mostrou melhor discriminação de fácies, sendo então utilizada. A RSI
considerou os resultados muito bons, mas tal informação, naturalmente, tem que ser
corroborada pelos técnicos do ativo.
124
modelagem geológica? serão usados de uma forma quantitativa ou somente qualitativa?
como escolhê-los?
Obviamente (e infelizmente) não existe uma resposta única para nenhuma dessas
questões. O roteiro aqui apresentado é baseado no trabalho de Rodriguez et al (2006b),
que apresenta o uso de atributos sísmicos na caracterização geológica no campo de
Roncador.
Inicialmente, deve ser considerado que naturalmente sempre que possível se
prefere o uso de atributos com justificativa teórica clara, coerente, intuitiva e com
corroboração empírica. Um exemplo clássico é a amplitude, que foi (e continua sendo)
usada no descobrimento e desenvolvimento de diversos campos na empresa, incluindo
provavelmente os mais importantes. É um atributo sabidamente associado à variação do
tipo fluido e/ou a porosidade, com a exceção mais importante sendo os folhelhos de baixa
velocidade presentes no Terciário e Cretáceo das bacias marítimas.
Indo agora às referencias, eis o que Sheriff (2002) diz sobre atributos (grifos
meus): “A measurement derived from seismic data... because they are based on so few
types of measurement, attributes are generally not independent… they sometimes help
one to see features, relationships, and patterns that otherwise might not be noticed .
Seismic measurements usually involve appreciable uncertainty and do not relate directly to
any single geologic property… we still do not understand how to relate most seismic
atributes to geologic causes and situations.”. A partir desta definição, pode-se concluir
que, já que obviamente o dado (sinal) sísmico é um só, qualquer atributo (por mais
esotérico que possa parecer) está sempre associado a uma propriedade oriunda de
traços sísmicos e que tudo que estamos tentando correlacionar com φ, NTG, etc. são
diferentes maneiras de observarmos o mesmo dado – naturalmente, tal conclusão não é
inquestionável, mas eu concordo e tenho trabalhado com ela.
Outro tema que geralmente causa discussão é a utilização de atributos oriundos
da já mencionada decomposição polinomial. A partir da definição de Sheriff, me parece
bastante razoável considerar que os termos do polinômio que representa um traço podem
ser considerados como atributos, pois sem dúvida os mesmo são “medidas derivadas de
dados sísmicos”. Então, a questão passa a ser se o geofísico concorda ou não com o
Sheriff. No caso de discordância, recomenda-se uma discussão com o próprio, de
preferência o mais rápido possível, pois não se pode saber até quando ele estará vivo e
lúcido.
125
Cabe aqui uma observação: as superfícies obtidas da interpretação sísmica devem
sempre ser suavizadas antes da conversão tempo-profundidade, com os atributos sendo
extraídos após esta suavização.
126
probabilidade espúria aumenta quando, além de uma baixa correlação, menos poços e/ou
mais atributos independentes são usados. O que exatamente significa ‘independente’ no
contexto é de difícil avaliação, tanto para os dados de poços quanto para alguns atributos.
Em relação aos perfis e testemunhos, os quão independentes costumam ser as fácies
observadas? Já para os atributos, como saber, por ex., se o co-seno da fase instantânea
é independente do termo de 3ª ordem da decomposição polinomial? No caso pouco
provável de se conseguir uma resposta para essas perguntas, restará ainda como
mensurar esta dependência. A autora considera que usar um atributo errado (ou seja,
com correlação casual) é pior que não usar nenhum – esta conclusão pode levar a uma
outra longa (e potencialmente inconclusiva...) discussão. No artigo recomenda-se
fortemente que somente atributos com um significado físico sejam considerados –
especialmente quando o número de poços é reduzido.
Tendo sido apresentados alguns alertas que podem induzir alguém a não usar
atributos, devem ser pensadas agora quais as alternativas. Uma primeira opção pode ser
a confecção de mapas com ‘contorno manual’, como era feito há 15 ou 20 anos atrás,
baseados somente em valores de poços e na interpretação de deposição, diagênese, etc
feita pelo geólogo – atualmente, tal opção pode ser um pouco complicada, pois, como
mostra a fig. 6.5, este tipo de interpretação é extremamente simples quando comparada
ao resultado do uso de atributos, e os resultados obtidos (estimado x constatado) são
sempre melhores quando atributos são usados. O uso de geoestatística não deve auxiliar
muito, devido a poucas amostras geralmente disponíveis.
127
Fig. 6.5 – Comparação entre mapas de porosidade gerados a partir de contorno manual (esquerda)
e usando atributos. Observar variação aparentemente mais geológica e melhor estimativa (tabela)
de porosidade com o uso de atributos.
Um artifício que pode reduzir as chances de correlação por acaso é o uso de redes
neurais, em que atributos independentes deixam de sê-lo, quanto um ou mais atributos
originalmente sem dependência linear se ‘fundem’ em um novo atributo. Na prática, o uso
de redes neurais em atributos para caracterização ainda carece de mais exemplos,
principalmente numa avaliação quantitativa. Por outro lado, é demonstrável (ao menos
pela teoria matemática, Fernando Rodrigues, com. pessoal, 2003) que processos de
redes neurais são equivalentes a processos estatísticos. Partindo-se deste raciocínio,
pode-se talvez considerar que os vários trabalhos já realizados se usando propriedades
estatísticas podem ser, de alguma forma, guias de resultados esperados de processos de
redes neurais.
O uso de atributos elástico e/ou de AVO é sempre útil e recomendável, pois amplia
o universo de informações possíveis. Uma questão complicada é a independência dessa
classe de informações dos atributos da sísmica convencional (total, ou zero-offset) e
128
também dos atributos obtidos por inversão elástica dos perfis, já que praticamente todos
os métodos de inversão usam informações de perfis, que podem assim de alguma forma
interferir nos resultados das inversões elásticas.
Fig. 6.6 – Variação de permeabilidade (área cinzenta com maior permeabilidade) em função da
relação entre VP e fator Q (extraído de McCann, 1994).
129
Best (1993), realizando medidas ultra-sônicas (0,8 MHz) em arenitos saturados
com água observou uma forte dependência linear entre QP e QS (com QP = 1,63.QS), que
QP e QS são inversamente proporcionais à percentagem de minerais intraporos, e que
arenitos argilosos e folhelhos arenosos são as rochas com maior absorção.
Para este autor, existem pelo menos dois mecanismos de absorção atuando nos
reservatórios, com arenitos limpos e folhelhos puros sendo bons transmissores de energia
porque a estrutura regular da rocha original estaria mais bem preservada. Arenitos
argilosos e folhelhos arenosos, ao contrário, têm maior absorção por esta estrutura estar
corrompida. O artigo mostra ainda dados que indicam que a teoria de Biot funciona bem
para prever a absorção em arenitos muito permeáveis em uma grande faixa de
freqüências, sugerindo que ela pode ser usada diretamente para prever absorção e
valores de velocidade nas freqüências sísmicas.
Uma análise mais profunda do uso de atributos foi proposta na Petrobras por
Rodriguez (2004) na forma de CTO, mas não foi aprovada. O objetivo principal era
analisar o uso de atributos sísmicos (ligados à amplitude, traço complexo, inversões
elástica e acústica, decomposição espectral e polinomial) para caracterização de
reservatórios a partir de correlação dos mesmos com propriedades petrofísicas (incluindo
permeabilidade) e aplicação de redes neurais (usando atributos sísmicos) na
caracterização de reservatórios. Os produtos esperados eram a obtenção de um modelo
geológico mais realista (por se obter correlações entre atributos sísmicos e parâmetros
petrofísicos mais confiáveis e melhores – este ganho poderá ocorrer para vários campos
de hidrocarbonetos da companhia), uma maior confiabilidade no uso de atributos sísmicos
e uma análise detalhada da relação entre permeabilidade e atributos.
Na proposta do CTO, colocou-se como histórico que a utilização de atributos
sísmicos é pratica corriqueira na industria de petróleo, especialmente na caracterização
de reservatórios, onde existe maior número de observações diretas (poços, perfis,
testemunhos, etc) para correlação. Os atributos são usados para definir a variação
espacial entre poços de parâmetros importantes para o modelo geológico e simulador de
fluxo, como porosidade, saturação de água, permeabilidade, NTG, etc. Algumas vezes,
ocorrem questionamentos sobre o uso de alguns atributos sem correlação – ao menos
aparente – com características das rochas, como atributos de traço complexo (Taner et
al., 1979) e/ou termos de um polinômio que reconstitui o traço sísmico (Rodriguez et al.,
2004). Adicionalmente, é questionada também a validade das correlações obtidas, do
ponto de vista da representatividade estatística das mesmas, se valores altos de
correlação não são casuais, etc. Outra questão que se propõe seja avaliada é a premissa
de usar atributos para caracterização de permeabilidade, devido a questionamentos
presentes na literatura de que o principal componente da permeabilidade seria a garganta
dos poros, que afetariam muito pouco a propagação de ondas sísmicas. Finalmente, o
uso de redes neurais para caracterização, a partir da escolha de atributos, seria testada e
analisada.
130
3) verificação de correlação linear entre atributos médios e média de propriedades
petrofísicas (porosidade, NTG, VSH, permeabilidade) (fig. 6.7);
4) Escolha de atributos via análises tanto dos gráficos de correlação (fig. 6.8)
quanto de mapas de atributos (ruídos, coerência geológica) (fig. 6.9), com preferência
para atributos ´convencionais´ (por ex., amplitude);
5) Uso dos atributos selecionados, honrando os valores encontrados pelos poços e
limitando-se os valores dos atributos aos valores máximos/mínimos constatados em perfis
e/ou a quantidades razoáveis (por ex., porosidades inferiores a 40%).
Uma análise da tabela da fig. 6.7 mostra que uma propriedade petrofísica (Gross
thickness) praticamente não tem correlação com nenhum atributo, tornando praticamente
inviável o uso dos atributos escolhidos para modelagem geológica. Uma possível tentativa
seria a criação de ‘novos’ atributos via, por ex., redes neurais. Observa-se também que
NTG (2ª coluna) tem elevado coeficiente de correlação com atributos pouco relacionados
entre si (response frequency, reflection strength e second derivative). Neste caso, a
escolha será por avaliação das retas de correlação (fig. 6.8) e/ou mapas dos atributos (fig.
6.9).
131
Fig. 6.7 – Exemplo de tabela de
coeficiente de correlação linear
entre atributos sísmicos (linhas) e
propriedades petrofísicas
(colunas) do aplicativo LPM
(Geoquest). Cores quentes
indicam maior correlação.
132
Isto porque existe uma distribuição e agrupamento que podem ser considerados bons a
muito bons dos valores de atributos com os parâmetros petrofísicos de interesse.
Fig. 6.8 – Alguns exemplos de correlação linear entre atributos sísmicos (abscissa) e propriedades
petrofísicas (ordenada) do aplicativo LPM (Geoquest). O gráfico abaixo à direita pode ser
considerado como o melhor (poços são círculos vermelhos), pois apesar de não possuir o maior
valor de correlação, apresenta distribuição e agrupamento muito bons tanto do atributo amplitude
quanto da porosidade. Os círculos vazios são poços não usados na correlação por decisão do
geólogo (geralmente, valores de parâmetros petrofísicos não confiáveis).
Uma análise dos mapas dos atributos selecionados costuma ser feita como a
última etapa na escolha. A fig. 6.9 mostra dois mapas, sendo nítida a principal diferença
entre eles, com o atributo à esquerda mostrando um caráter de forte variação entre celas
adjacentes, o que gera um caráter ‘nervoso’ ao atributo, contra-indicando seu uso para
modelagens geológicas. O mapa da direita, ao contrário, mostra um comportamento bem
mais ‘suave’, com variações mais próximas do que se espera para mudanças de
características petrofísicas em reservatórios, geralmente.
133
Fig. 6.9 – Exemplos de mapas a serem avaliados para escolha de atributos. O mapa da
esquerda é muito ‘nervoso’, apresentando forte variação em celas adjacentes. À direita, um mapa
com variações mais suaves.
Uma opção bastante distinta, e muitas vezes usada, é o uso qualitativo dos
atributos, associando – às vezes de uma maneira somente intuitiva – determinado(s)
atributo(s) com variações litológicas e/ou de fluidos. Esta opção é especialmente
interessante no caso de modelos ‘binários’ (geralmente preliminares), ou seja, quando se
esta mais interessado na definição da existência ou não de reservatório, e não em
heterogeneidades do mesmo, ou para trabalhos de exploração.
134
procedimento de Markov-Bayes fornece uma avaliação mais quantitativa da influência do
dado sísmico na distribuição de probabilidade local do que o método da deriva externa,
que não é calibrado.
Quando ocorre rápida variação litológica entre areia e folhelho e a faixa de valores
de velocidade é comum as duas litologias, Doyen et al (1989) sugerem o método de
Monte Carlo (que fornece uma família de alternativas, todas consistentes com os dados)
para realizar inferência do tipo de rochas, a partir de poços e sísmica. A quantidade de
modelos gerados é função da incerteza da classificação. Os autores analisaram um
reservatório composto de areias de canal, atingido por três poços. Os valores de
velocidade para o modelo, obtidas a partir das amplitudes sísmicas, estão calibrados com
informações de perfis, reproduzindo as seqüências verticais interpretadas nos poços.
135
Fig. 6.10 – Comparação entre
métodos de krigagem (acima à esquerda),
regressão linear (esquerda) e co-krigagem
(acima) para se obter distribuição areal de
porosidade a partir de perfis e dados
sísmicos. Co-krigagem obteve os melhores
resultados em um modelo sintético (extraído
de Doyen, 1988).
136
137
7 – NOÇÕES DE AVO
C costuma ter importância somente para os maiores ângulos (em que senθ seja
razoavelmente diferente de tanθ). A e B são denominados atributos de AVO, e bastante
usados na forma de gráficos, com a inclinação da reta que melhor ajusta as amplitudes
sendo definida por sen2θ - esta reta é chamada de background (‘reta de fundo’), indicando
138
as rochas que possuem variação de amplitude com offset ‘normais’, com os valores que
se afastam dela sendo geralmente as anomalias de interesse. (fig. 7.1)
Gráficos de A e B também são usados para a criação de ‘classes’ (ou ‘tipos’) de
AVO em função da posição dos valores de amplitudes nesses gráficos. Resumidamente e
de uma forma bastante genérica, AVOs do tipo 1 estão associados à folhelhos de baixa
velocidade, tipo 2 a reservatórios com água, tipo 3 caso clássico de AVO (rocha com
hidrocarboneto com aumento de amplitude com offset) e tipo 4 caso clássico de pit-fall,
associado a aumento de AVO em reservatório com água. A fig. 7.1 mostra
aproximadamente a divisão entre esses tipos (ou classes), com explicações mais
detalhadas desta classificação (incluindo a classe 3,5) disponíveis em Rosa (2002).
Entre outras observações das eq. 7.1 e 7.2, constata-se que quando a razão de
Poisson do meio inferior for muito menor que a do meio superior, r é inversamente
proporcional a θ .
139
variação, enquanto que VP muda significativamente, de acordo com a eq. 2.3.9, aqui
repetida:
VS = (µ/ρ)1/2, VP = [(κ+4µ/3)/ρ]1/2 7.3
O autor usou o modelo simples de uma areia com gás que apresenta VP, ρ e σ
bem menores que o folhelho encaixante para analisar a variação de r(θ), com o resultado
mostrado na fig. 7.2. Observa-se que o coeficiente de reflexão aumenta com o ângulo (e,
conseqüentemente, com o afastamento fonte-receptor), gerando maiores amplitudes para
maiores offsets, que é o efeito clássico de AVO. É mostrado também na figura que no
caso de areia sem gás a refletividade permanece praticamente constante ao longo dos
offsets.
Fig. 7.2 – Modelo
simplificado de areia com
gás dentro de camadas de
folhelhos (esquerda) e
correspondente variação do
coeficiente de reflexão em
função do ângulo de
incidência. Observar
diferença na refletividade
para o caso de areia sem
gás (linha pontilhada)
(extraído de Ostrander,
1984).
140
Lembrando que a razão de Poisson (σ) varia geralmente entre 0,5 (materiais
incompressíveis, como os líquidos) e 0,0, Muskat e Meres (1940, in Ostrander, 1984),
usaram um valor de σ constante para todas as camadas e obtiveram a fig. 7.4, que
mostra pouca variação da refletividade para a faixa de ângulos presentes na aquisição de
dados sísmicos, o que pode ser visto como um fato teórico que corrobora o uso da técnica
CDP.
Fig. 7.4 – Variação da refletividade com ângulo de incidência quando a razão de Poisson (σ)
permanece constante (esquerda), diminui (centro) e aumenta. Linhas contínuas se referem a
maiores diferenças em σ (extraído de Ostrander, 1984).
1. Efeito da zona de Fresnel – na fig. 7.6 vemos, em 1,5 s, uma forte reflexão que
corresponde, no poço da direita, a reservatório com gás. A presença do mesmo
evento no poço seco à esquerda é atribuída ao efeito da zona de Fresnel, que
afeta, de uma forma ponderada, os sinais registrados dentro dessa zona (item 2.9)
– no caso analisado, calculou-se uma contribuição de 30%. Este exemplo mostra
141
cabalmente a necessidade da realização da migração antes do empilhamento,
para que as analises do AVO em gathers seja realizada após o colapso da zona
de Fresnel – felizmente, hoje em dia a migração antes do empilhamento é
efetuada praticamente sempre.
Fig. 7.6 – Análises de AVO sugeriram presença de areia com gás para os dois poços que
atravessaram a anomalia Yegua, mas o poço da esquerda é seco. Observa-se claramente efeito
de AVO no gather, que está associado ao efeito da zona de Fresnel da areia com gás encontrado
pelo poço da direita (extraído de Allen e Peddy, 1992).
2. Areia com água – uma areia espessa com 33% de porosidade, saturada com
água, causou um aumento de amplitude com afastamento. Após a perfuração do
poço, foram realizadas modelagens com dados de perfis, que mostraram ser
verdadeiro o aumento encontrado no dado real. Este tipo de pitfall é extremamente
difícil de ser contornado.
3. Linhito – modelagens realizadas antes da perfuração indicaram que uma anomalia
em torno de 1,6 s na fig. 7.7 deveria estar associada a areias com gás, mas o
poço perfurado indicou que a anomalia era devido à presença de linhito.
4. Areia com gás sem AVO – um poço mostrou a ocorrência de 10 m de areia com
gás, sem indicações no dado sísmico (fig. 7.8). Modelagens numéricas a partir de
perfis indicavam a existência de anomalia – após alguns testes, foi constatado que
o arranjo de receptores usado na aquisição foi o responsável pela forte atenuação
do aumento de amplitude (fig. 7.8). Este exemplo real mostra a importância na
142
definição de parâmetros apropriados de aquisição e possíveis efeitos danosos
quando isso não ocorre.
Fig. 7.8 – Os dois conjuntos de traços de um CDP à esquerda são de dados reais, não
mostrando efeito de AVO em poço que constatou gás. O terceiro CDP mostra dados sintéticos com
anomalia de AVO, que desaparece (quarto CDP) ao se considerar efeito do receptor (extraído de
Allen e Peddy, 1992).
143
8 – INTRODUÇÃO À SÍSMICA DE POÇO
Como dito na introdução, neste curso no tema sísmica de poço não serão
considerados perfis convencionais, por este ser assunto de cursos próprios (como por ex.,
o oferecido na Petrobras pelo geólogo Carlos Beneduzi). Serão apresentadas noções de
perfis sísmicos verticais (VSP), tomografia entre poços (tomografia), de uma ferramenta
sônica que procura registrar reflexões (em vez das ondas diretas do sônico/dipolar
convencional) se afastando bastante a fonte e os receptores (usada principalmente em
poços horizontais, é denominada BARS pela Schlumberger) e de seismic while drilling,
em que receptores são colocados próximos à broca, com alguns tiros sendo detonados
quando ocorre uma breve interrupção na perfuração para colocação de colunas.
A denominação ‘sísmica de poço’ significa a aquisição de informações usando-se
um (ou mais) poço(s) para colocação de receptores (situação mais comum, sendo
também possível o uso de fontes nos poços). A principal vantagem em relação à sísmica
de superfície é a presença de um maior conteúdo de altas freqüências, fornecendo
geralmente uma resolução vertical bastante superior à sísmica convencional (de
superfície). A principal desvantagem (alem da óbvia, que é a necessidade da existência
de um poço) é que as informações obtidas são, apesar de bem detalhadas, restritas a
uma região significativamente menor que a amostrada pela sísmica de superfície.
8.1 Check-shots
8.2 VSP
144
ângulo) ou retângulo (poços horizontais), criando um volume tri-dimensional –
naturalmente, tal opção é bem mais demorada, sendo na prática de uso bastante restrito,
apesar de potencialmente útil em situações particulares (por ex., problemas críticos de
imageamento na vizinhança de poços).
Fig. 8.2.1 – Geometria de aquisição de (da direita para esquerda) check-shot, VSP com
afastamento nulo, offset VSP e walk-away VSP (extraído de Campbell et al, 2005).
145
Fig. 8.2.2 – Os principais tipos
de ondas presentes em dados
de VSP. Para VSPs com offset
e/ou poços direcionais, é
comum a presença de ondas
convertidas PS ( principalmente
ascendentes) (extraído de
Schlumberger, 1985).
146
mar são os principais responsáveis pela absorção, que ‘rouba’ as altas freqüências do
dado sísmico;
3) um melhor conhecimento quantitativo dos fatores que alteram o pulso, pois geralmente
é feito um registro do pulso bem próximo à fonte (near-field measurement), que é
comparado com os diversos pulsos registrados a diferentes profundidades, permitindo
análises precisas das mudanças do pulso, tornando possível, por ex, obtenção do fator Q
(item 2.7); estas análises podem ser úteis no processamento e/ou processos de inversão;
4) em poços exploratórios, ver ‘a frente’ da broca, ou seja, o campo de ondas ascendente
(as reflexões) podem fornecer informações sobre camadas ainda a serem perfuradas; isto
pode ser importante para correções em estimativas de profundidade ou previsão da
proximidade de zonas com sobrepressão;
5) dados com melhor correlação com a sísmica de superfície que perfis de poços por três
razões: a) a faixa de freqüência da sísmica é mais próxima a do VSP que a de perfis, b) a
região em volta do poço amostrada pelo campo de ondas é significativamente maior (e
menos distante da sísmica de superfície) no VSP que em perfis, e c) VSPs são menos
sensíveis às condições dos poços.
Puckett (1991) apresenta três casos de utilização de VSP com offset em regiões
com estágio maduro de exploração para caracterização de reservatórios e definição de
locações de desenvolvimento.
A primeira, em uma região NW de Oklahoma em que os poços têm profundidade
de 2.100 a 3.000 m e o principal problema é encontrar boas porosidades (8% é
considerado um bom valor). Um poço encontrou uma camada com φ de 16% sobreposta à
camada com φ de 10%, o que constitui um excelente reservatório. Para verificar a
continuidade lateral foram adquiridos três VSPs em diferentes direções, com offset de
1.300 m, com os resultados indicando (fig. 8.2.4) que a extensão da zona de boa
porosidade é muito restrita.
Fig. 8.2.3 – VSPs com afastamento em diferentes direções indicando baixa continuidade do
reservatório Hunton (extraído de Puckett, 1991).
O segundo caso foi na Bacia de Anadarko em que dois VSPs foram adquiridos
com offsets de 2.500 m com o propósito de identificação e posicionamento de falhas, mas
com os resultados sugerindo a presença de uma camada com boa porosidade.
O terceiro e ultimo caso foi na Bacia de Ardmore (S Oklahoma), onde em uma
área com falhas reversas foi perfurado um poço no flanco de um horst; neste poço foi
adquirido um VSP com offset para imagear o reservatório carbonático mergulho acima e
um arenito sotoposto não atingido pelo poço. Devido à complexidade estrutural, foi
147
realizada modelagem numérica (traçado de raio) para selecionar o melhor posicionamento
de fonte e receptores (este procedimento – realização de modelagens para determinar
parâmetros de aquisição – é padrão atualmente), que indicou que para imagear o arenito
sotoposto a fonte deveria estar para SW, mas com esta opção se obteriam reflexões
horizontais (que geralmente possuem baixa razão sinal/ruído) para o carbonato. Com a
fonte a NE, a modelagem indicou o registro de reflexões verticais para o carbonato, mas
um pior imageamento para os horizontes profundos. Optou-se então por adquirir nas duas
posições, e os resultados mostraram o padrão de falhamentos da área (fig. 8.2.4), que é
fundamental na localização dos poços porque as falhas colocam lado a lado camadas
permeáveis e impermeáveis.
Campbell et al (2005) consideram que VSPs são usados geralmente como check-
shots densos para calibração de perfis sônicos, obtenção de informação de velocidades e
geração de um traço para correlação sísmica-perfil. Segundo os autores, isto subestima a
técnica e também desperdiça algumas oportunidades para extrair informações que podem
ajudar tanto o processamento quanto a interpretação, como por ex. medidas diretas do
fator Q e espalhamento geométrico e efeitos de múltiplas intracamadas.
Na Petrobras, o uso de VSP talvez ainda seja tímido, provavelmente devido ao alto
custo das sondas de perfuração e do imageamento de uma porção muito limitada do
reservatório.
Foi adquirido pela Schlumberger um 3D-VSP no Campo de Marlim (Ribeiro et al,
2006) com padrão de tiros circular e processamento por duas companhias (Read e
Schlumberger). Os resultados dos dois processamentos podem ser considerados
complementares. O custo total foi superior US$ 1,5.106 (incluindo o tempo de sonda da
operação). A qualidade, apesar de boa, ficou aquém do esperado, e a resolução vertical
foi pouco superior a da sísmica de superfície. Importante registrar que o numero de
148
receptores (doze) não foi muito elevado, mas a aquisição ocorreu ‘aproveitando’ a
presença de um navio-fonte que estava realizando operações de under-shooting para
aquisição sísmica de superfície no complexo de Marlim. Atualmente existe um projeto
coordenado pelo geof. Schinelli (UN-BA) procurando realizar uma carteira de possíveis
aquisições 3D-VSP, de forma a conseguir a presença por um longo tempo de uma
embarcação com fonte sísmica. Na prática, porem, o elevadíssimo dinamismo dos
cronogramas de perfuração deve tornar a aplicação desta carteira inviável. Uma opção
talvez seja usar a idéia da CGG que, pretendendo instalar sensores permanentes no
fundo do mar (OBC) no Campo de Roncador, sugeriu o uso de um container com todos os
equipamentos (fonte, compressores, instrumentos de registro, etc) necessários para a
aquisição, que seriam carregados rapidamente em algum rebocador de médio a grande
porte.
149
Apesar do sucesso do monitoramento da injeção de vapor (Justice et al., 1993, por ex.), já
naquela época se questionava os benefícios econômicos (Harris, 1994), quando o custo
de uma aquisição básica (dois poços) era em torno de US$ 50.000, sem considerar
processamento e custos indiretos associados à parada de operação de pelo menos dois
poços.
150
Fig. 8.3.2 – Diversos tipos de
ondas presentes em dados de
tomografia sísmica entre poços
(extraído de Harris, 1994).
151
Fig. 8.3.3 – Resultado final de tomografia sísmica realizando inversão da forma da onda (esq.) e
comparação em detalhe das resoluções vertical e horizontal quando esta inversão é usada (acima)
e quando somente tempos de trânsito (abaixo) são considerados (extraído de Zhou et al, 1993).
Foi realizada uma aquisição no campo de Marlim Sul, com resultados mostrando a
geometria do reservatório turbidítico a uma distância de até 10 m do poço e resolução de
0,3 m (Maia et al, 2006).
152
inicialmente (durante os estudos de locação de poços) de determinados objetivos e a
efetivamente constatada pelo poço, principalmente em situações exploratórias.
Também extremamente útil – apesar de atualmente ainda não ser possível em
tempo real – é o registro de ondas refletidas, pois auxiliam nas correções de
profundidade, fazendo com que o SWD funcione como um VSP.
153
9 – INTRODUÇÃO À SÍSMICA 4D
154
empilhamento. Basicamente, o que se procurar é ‘igualar’ o mais possível os dois dados,
geralmente usando-se bastante processos estatísticos (por mais desejável que os
determinísticos predominassem) e verificação após a aplicação de cada etapa se as
diferenças acima do reservatório estão diminuindo – diferenças essas associadas à
amplitudes distintas e deslocamentos de fase e tempo.
Com tamanhos questionamentos, é natural supor que a sísmica de monitoramento
funcione melhor quanto maior forem as variações na impedância das rochas – na prática,
tais casos estão associados à injeção de vapor, que foram os primeiros exemplos reais da
sísmica 4D (Greaves e Fulp, 1987), inclusive na Petrobras (campo de Fazenda Alvorada,
no Recôncavo). Como exemplo, são mostradas na fig. 9.1 exemplo do monitoramento de
injeção de vapor e na fig. 9.2 outro exemplo de injeção de vapor (neste caso, dados de
tomografia em de areia inconsolidada com φ de 32% e κ de 1 Darcy) mostrando espectros
de amplitude antes e após injeção de vapor, acima e abaixo do reservatório.
Fig. 9.1 – Seção sísmica vertical de um 3D mostrando envelope das amplitudes de reservatório
(setas brancas) (a) antes, (b) durante e (c) após processo de injeção de vapor. Observar dimspot
nas amplitudes do nível Palo Pinto (abaixo do reservatório) (extraído de Greaves e Fulp, 1987).
155
Fig. 9.2 – Comparação entre
espectros de amplitude para uma
janela de tempo acima (a) e abaixo
(b) do reservatório, antes (linha cheia)
e após (linha pontilhada) processo de
injeção de vapor (extraída de
Eastwood et al., 1994).
156
existem grandes incertezas associadas com os dados sísmicos, não é possível se ter uma
conclusão definitiva. Concluindo, é considerado que é muito importante trabalhar com
vários tipos de incertezas e tentar reduzi-las o máximo possível – os autores sugerem a
aquisição de perfis de saturação e medidas de pressão antes da produção e durante o
levantamento do 3D de monitoramento. No mesmo artigo, é citada a incerteza da validade
de medidas de testemunhos, não sendo completamente entendidos efeitos de dano à
rocha durante testemunhagem (por ex., Nes et al, 2000, encontraram diferenças
significativas entre uma amostra sintética manufaturada com tensões in-situ e a mesma
amostra após a aplicação de pressão seguida de alívio de pressão) nem a questão do
upscaling.
157
de tiros e receptores. Foi usado um algoritmo que separa as variações de tempo das
variações de amplitude para análise 4D, através de critérios de reconhecimento da forma
do pulso sísmico, e redes neurais.
158
Parr e Marsh (2000) apresentam um caso bem interessante e raro (único, talvez),
de visualização em time-slices de cubos de coerência de uma possível ruptura em uma
barreira de transmissibilidade (confirmada por balanço de materiais) entre um par de
poços produtores após processos de produção e injeção no campo marítimo de
Schiehallion (Shetlands) (fig. 9.3). Esta mudança do comportamento de falhas talvez não
seja tão rara assim, pois ocorre em outros campos do Mar do Norte e ocorreu no campo
de Roncador.
159
10 – TÓPICOS ESPECIAIS
160
preencha as fraturas ‘ajude’ a propagação (por ex., fraturas em arenitos preenchidas por
carbonatos), S1 pode se propagar ortogonalmente às fraturas.
Fig. 10.1.1 – À esquerda, exemplo de seção vertical das ondas (a) S2 (mais lenta e com qualidade
ligeiramente pior) e (b) S1 (mais rápida) de reservatório fraturado e à direita dado sintético de
modelo com cinco camadas mostrando pior qualidade e maior tempo de trânsito na (c) polarização
perpendicular às fraturas que (d) na polarização paralela (extraído de Tatham e McCormack,1993).
161
(algumas vezes, razoavelmente precisa) tanto da direção das fraturas quanto da
intensidade das mesmas.
162
ondas S podem ser (e são) obtidas por análises de dados de ondas P. Para ajudar esta
discussão, Guenther Schwedersky (Cenpes) está realizando inversão elástica em dados
de streamer e de cabo de fundo no campo de Roncador, para comparação dos
resultados, e avaliação do ganho real em se dispor de medidas diretas de ondas S (a
vantagem da informação direta de amplitudes de ondas S é existirem mais termos a
serem usados nas equações de Zoepprittz, que também são válidas para ondas S, da
mesma forma que para P).
163
anisotropia, que deve ser corroborada com informações de poços, pois pode indicar
direção e intensidade de fraturas.
O estudo de fraturas, apesar de até o momento ter pouco impacto econômico no
Brasil, pode ser muito importante – por ex., segundo Luo et al (2005) sete dos dez
maiores reservatórios do mundo são carbonatos freqüentemente com baixa
permeabilidade, que produzem por fraturas. Estes autores também citam que vários
trabalhos têm demonstrado a viabilidade de detecção de fraturas muito menores que o
comprimento de onda.
Esta breve análise de anisotropia será finalizada com alguns comentários sobre o
efeito da anisotropia em perfis de poços, aparentemente pouco considerado dentro e fora
da Petrobras, e que pode ser um efeito importante ao se trabalhar com muitos poços
direcionais (principalmente de alto ângulo) na geração de sismogramas sintéticos e em
processos de inversão elástica.
Rowbotham et al. (2003) mostram a importância deste efeito em processos de
inversão. O mesmo assunto é tratado por Tsuneyama e Mavko (2005) para modelagens
de AVO (fig. 10.1.3) (neste artigo os autores – para explorar relações heurísticas entre
parâmetros anisotrópicos e perfis – realizam uma compilação de dados de testemunhos,
dizendo ter encontrando correlação entre valores de anisotropia e porosidade; no entanto,
são usadas muitas equações obtidas por correlação, com vários parâmetros pouco
confiáveis).
164
incluindo comportamento de falhas (reativação, por ex.) – e, secundariamente, problemas
de subsidência.
Existem dois tipos principais: colocação de receptores em poços ou em superfície.
A primeira opção tem a vantagem do ambiente menos ruidoso e mais próximo à ‘fonte’
(i.e., o reservatório); a desvantagem é a reduzida amostragem espacial. A segunda opção
amostra uma área maior, torna mais fácil a substituição de receptores e equipamentos
com problemas, mas costuma ser mais (às vezes, muito mais) ruidosa que a primeira.
Esta metodologia deve ser considerada como ainda em fase de análises, com
resultados positivos e negativos sendo algumas vezes apresentado. Na prática, o maior
interesse por seu uso é no caso de sensores permanentes, em que se devem avaliar
possíveis vantagens do registro contínuo.
165
Fig. 10.3.1 – Esquema de como o método
sea-bed logging diferencia entre
reservatórios com água (acima) e com
hidrocarboneto (extraído de Hesthammer e
Boulaenko, 2005).
Tem sido usado em locais muito variados, como Malásia (McBarnet, 2005).
Bhuiyan et al. (2006) apresentam um dos poucos casos em que o SBL foi usado na
detecção de litologias (e não hidrocarbonetos) altamente resistivas. A aquisição (do tipo
especulativa), de 2003, usou 31 receptores distribuídos ao longo de duas linhas sísmicas
sobre o arco de Modgunn (Noruega). Segundo os autores, foi possível detectar sills
altamente resistivos profundamente enterrados.
166
A Petrobrás tem um projeto, sob coordenação do geof. Marco Polo, basicamente
em áreas exploratórias. Até o momento não tem sido reportados estudos importantes
sobre o uso de sea-bed logging em estudos de caracterização de reservatórios,
principalmente devido a pouca precisão do método.
Existe uma discussão judicial ainda não resolvida sobre a patente do método entre
a Statoil (que cedeu a tecnologia para a cia norueguesa emgs) e a University of
Southampton (a partir de onda foi criada a companhia inglesa OHM). A decisão deve ser
favorável à Statoil, pois Southampton aparentemente apenas auxiliou nas etapas finais de
desenvolvimento da técnica. Além destas duas, somente a Schlumberger (que comprou
uma empresa pequena que usa esta tecnologia) oferecem serviços com este método.
167
REFERÊNCIAS
Aki, K. and Richards, P.G., 1980, Quantitative Seismology, Theory and Methods.
Alkhalifah, T. e Tsvankin, I., 1995, Velocity analysis for transversely isotropic media,
Geophysics, 60(?):1550-1566.
Allen, J.L.. e Peddy, C.P., 1992, Some case histories of AVO failures in the Texas Gulf
Coast, 62nd SEG Mtg, p. 848-851.
Angeleri, G.P. e Carpi, R., 1982, Porosity prediction from seismic data, GP, 30(??):580-
607.
Anstey, N.A., 1973, The significance of color displays in the direct detection of
hydrocarbons, 430 Congresso da SEG.
Anstey, N.A., 1977, Seismic Interpretation – the physical aspects, IHRDC, Boston.
Araktingi, U.G., Bashores, W.M., Tran, T.T.B. e Hewett, T.AA., 1990, Integration of seismic
and well log data in reservoir modeling, 3rd Annual Conf. NIPER on Reserv. Charac.
Arestad, J.F., Mattocks, B.W., Davis, T.L. e Benson, R.D., 1995, How 3D, 3C seisimic
characterized a carbonate reservoir, World Oil, abril, p.99-104.
Backus, G.E., 1962, Long-wave elastic anisotropy produced by horizontal layering, Journal
of Geophysical Research, 67(?):4427-4439.
Baechle G.T., Weger, R.J., Eberli, G.P., Massaferro, J.L. e Sun, Y.F., 2005, Changes of
shear moduli in carbonate rocks implications for Gassman applicability, TLE, 24(5):507-
510.
Bahorich, M.S. e Farmer, S.L., 1995, 3-D seismic discontinuity for faults and stratigraphic
and stratigraphic features, TLE, 14(?):1053-1058.
Ball, V.L. e Corrigan, D., 1996, Dual sensor summation of noisy ocean-bottom data, 66th
Int. SEG Mtg., p.28-31.
Banik, N.C., 1984, Velocity anisotropy of shales and depth estimation in the North Sea
basin, Geophysics, 49(?):1411-1419.
Barnes, A.E., 1998, The complex seismic trace made simple, TLE, 17(?):473-476.
Barr, F.J. e Sanders, J.I., 1989, Attenuation of water-column reverberations using pressure
and velocity detectors in a water-bottom cable: 59th Annual Meeting SEG Expanded
Abstracts, paper SA 2.6, page 653.
168
Batzle, M. e Wang, Z., 1992, Seismic properties of pore fluids, Geophysics, 57:1396-1408.
Berg, E., Svenning, B. e Martin, J., 1994, SUMIC: multicomponent sea-bottom seismic
surveying in the North Sea – data interpretation and applications, 64th Annual Meeting
SEG Expanded Abstracts, paper IM 1.6, p. 477-480.
Berkhout, A.J., 1973, On the minimum length property of one-sided signals, Geophysics,
38(?):657-672.
Berryman, J.G., 2005, Fluid effects on shear waves in finely layered porous media,
Geophysics, 70(2):N1-N15.
Best, A.I., 1993, Predicting reservoir properties of sedimentary rocks from seismic
measurements, The Petroleum Science and Technology Institute, Edinburgh, RF 93/03.
Bevk, D. e Biondi, B., 2005, Which depth imaging method should you use? A road map
through the maze of possibilities, TLE 24(6):602-606.
Biot, M.A., 1956, Theory of propagation of elastic waves in a fluid saturated porous solid. II
Higher-frequency range, Journal of Acoustic Socitety of America, 28(?):168-178.
Blauth, M., Oliveira, R.M. e Silva, J.M., 1994, Metodologia para mapeamento sísmico da
capacidade de estocagem de fluido de reservatórios de petróleo, Petrobras/Desud,
Informativo Geológico 05/94.
Bodine, J.H., 1984, Waveform analysis with seismic attributes, 540 Congresso da SEG,
seçao S9.1.
Bodine, J.H., 1986, Waveform analysis with seismic attributes, Oil and Gas Journal,
84(23):59-63.
Bortfeld, R., 1961, Approximation to the reflection and transmission coefficeintes of plane
longitudinal and transverse waves, GP, 9(?):485-503.
Bourbiaux, B., Basquet, R., Daniel, J.M., Hu, L.Y., Jenni, S., Lange, A. and Rasolofosaon,
P., 2005, Fractured reservoirs modelling: a review of the challenges and some recent
solutions, FB 23(9):33-40.
169
Brown, A.R., 1991, Interpretation of thee-dimensional seismic data, 3rd ed., AAPG Memoir
42.
_____, 1992, The technologies of reservoir geophysics, in Sheriff, R.E. (ed.), Reservoir
Geophysics, SEG Investigations in Geophysics, vol. 7.
Bube, K.P., Langan, R.T. e Nemeth, T., 2005, Analysis of the spectral hole in velocity
versus depth resolution for reflection traveltimes with limited aperture, Geophysics,
70(3):U37-U45.
Cafarelli, B., Randazoo, S., Campbell, S., Sobreira, J.F., Guimaraes, M.A.G., Rodriguez,
C., Johann, P. E Theodoro, C., 2006, Ultra-deepwater 4-C offshore Brazil, TLE, 25(?):474-
478.
Campbell, A., Fryer, A. and Wakeman, S., 2005, Vertical seismic profiles—more than just
a corridor stack, TLE 24(7):694-697.
Canales, L. e Bell, M.L., 1996, Ghost attenuation using dual sensor cable data, 66th Int.
SEG Mtg., p.1591-1594.
Carcione, J.M., Helle, H.B., Santos, J.E. e Ravazzoli, C.L., 2005, A constitutive equation
and generalized Gassmann modulus for multimineral porous media, Geophysics,
70(2):N17-N26.
Carvalho, R.D. e Amorin, W.N., 1991, Sísmica de alta resolução, Boletim de Geociências
da Petrobras, 5(1-4):89-107.
Cary, P.W., 2001, Seismic signal processing – a new millenium perspective, Geophysics,
66(?):18-20.
Cerveny, V. e Ravindra, R., 1971, Theory of seismic head waves, Univ. of Toronto Press.
Chopra, S., Chemingui, N. e Miller, R.D., 2005, An introduction to this special section –
carbonates, TLE, ??(5):488-489.
170
Connolly, P., 1999, Elastic impedance, TLE, 18(??):438-452.
Contreras, A, Torres-Verdín, C. and Fasnacht, T., 2005, More vertical resolution and
accuracy with less uncertainty in reservoir characterization, FB 23(10):75-78.
Cooley, J.W. e Tukey, J.W., 1965, An algorithm for the machine calculation of complex
Fourier series, Mathematical Computation, 19(?):297-313.
Cooke, D.A. e Schneider, W.A., 1983, Generalized linear inversion of reflection seismic
data, Geophysics, 48(??):665-676.
Cunha Filho, C., Rodriguez, C. e Cavalcanti, V.L.B. 200?, aumento de resolução – nova
seqüência
De Buyl, M., 1989, Optimum field development with seismic reflection data, TLE, 8(4):14-
20.
DeLaughter, J., Meltz, B., Smith, S., Yun, J. and Murat, M., 2005, Use of z-score to rescale
amplitudes, TLE 24(7):698-701.
Denham, L.R. e Sheriff, R.E., 1980, What is horizontal resolution, 50th SEG Meeting.
Dix, C.H., 1955, Seismic velocities from seismic measurements, Geophysics, 20(1):68-86.
Dobrin, M.B. e Savit, C.H., 1988, Introduction to Geophysical Prospecting, 4th ed.,
McGraw-Hill, 867 p.
Domenico, S.N., 1974, Effect of water saturation on seismic reflectivity on sand reservoirs
encased in shale, Geophysics, 39(??):759-769.
Doyen, P.M., 1988, Porosity from seismic data: a geostatistical approach, Geophysics,
53(10):25-37.
Doyen, P.M., Guidish, T.M. e de Buyl, M.H., 1989, Monte Carlo simulation of lithology from
seismic data in a channel-sand reservoir, SPE 64th Ann. Tech. Conf., #19588.
Dragoset, B. e Barr, F.J., 1994, Ocean-bottom cable dual-sensor scaling, 64th SEG Int.
Mtg, p.857-860.
171
Duff, B.A. e Mason, D.J., 1989, The instantaneous-phase time slice: a crucial display for
enhancing 3D intepretation, ASEG 7th Conference, 20:213-217.
Duncan, P.M., 2006, Micro-seismic monitoring: the other 4-D, Hart E&P, Março, p. 43-45.
Eastwood, J., Lebel, P., Dilay, A. e Blakeslee, S., 1994, Seismic monitoring of steam-
based recover of bitumen, TLE,13(4):242-251.
Eidesmo, T., Ellingsrud, S., MacGregor, L.M., Constable, S., Sinha, M.C., Johanses, S.E.,
Kong, F.N. e Westerdahl, H., 2002, Sea Bed Logging (SBL), a new method for remote and
direct identification of hydrocarbon filled layers in deepwater areas, FB, 20(3):144-152.
Ellingsrud, S., Sinha, M.C., Constable, S., MacGregor, L.M., Eidesmo, T. e Johanse, S.E.,
2002, Remote sensing of hydrocarbon layers by Sea Bed Logging (SBL): results from a
cruise offshore Angola, TLE, 21(?):972-982.
Evans, B.J., 1997, A handbook for seismic data acquisition, SEG Geophysical Monograph
Series num. 7, 305 p.
Faust, L.T., 1951, Seismic velocity as a function of depth and geological time, Geophysics,
16(?):192-206.
Figueiredo, F.A. e Rambo, L., 1994, Conversão tempo x profundidade, Informe Geofísico
110, Petrobras/Depex.
Forrest, M., 2000, “Bright” investments paid off, AAPG Explorer, julho: 18-21.
Freire, S.L., Santos, W.L.B., Vieira, A.C. e Fernandes, S.M., 1993, Aplicações da relação
entre resistividade e tempo de transito na Bacia do Recôncavo, V Sem. Geofísica,
Petrobras/Depex, p. 369-377.
Freitas, L.C.S, Rodriguez, C., Iatchuck, S.P., Pinto, A C.C., 1996, Campo de Marlim:
mapeamento sísmico de heterogeneidades no reservatório, I Seminário de Reservas e
Reservatórios, Petrobrás, E&P/GERER, Rio de Janeiro, p. 253-259.
Freitas, M.G. e Souza, M.M., 1992, Uso de simulação Monte Carlo na conversão em
profundidade, Informe Geofísico 95, Petrobras/Depex.
Fuchs, K., 1968, The reflection of spherical waves from transition zones with arbitrary
depth-dependent elastic moduli and density, Journal of Physical Earth, 16(?):27-42.
Ganley, D.C., 1979, The measurements of Q from seismic data, PhD thesis, Univ. of
Alberta, Canada.
172
Gardner, G.H.F., Gardner, L.W. e Gregory, A.R., 1974, Formation velocity and density –
the diagnostic basis for stratigrapic traps, Geophysics, 39(?):770-780.
Gassmann, F., 1951, Elastic waves through a packing of spheres, Geophysics, 16(?):673-
685.
Gazdag, J., 1978, Wave equation migration with the phase shift method, Geophysics,
43(?):1342-1351.
Geerstma, J., 1961, Velocity-log interpretation the effect of rock compressibility. SPE
Journal, 1:235-248.
Gibson,J., Burnett, R., Ronen, S. and Watt, H2005, MEMS sensors: Some issues for
consideration, TLE, 24(8):786-790.
Gochioco, L.M. e Brzostowski, M., 2005, An introduction to this special section – migration,
TLE, 24(6):601.
Grant, F.S. e West, G.F., 1965, Interpretation theory in applied geophysics, McGraw Hill.
Greaves, R.J. e Fulp, T.J., 1987, Three-dimensional seismic monitoring of an enhanced oil
recovery process, Geophysics, 52(9):1175-1187.
Guimaraes, M.A.G., Sekharam, K.K., Sukup, D. e Krail, P.M., 1998, 3D pre-stack depth
migration of vertical cable data over SEG/EAGE physical model, 68th SEG Mtg, p.1182-
1186.
Hall, A., MacBeth, C., Stammeijer , J. e Omerod, M., 2006, Time-lapse seismic analysis of
pressure depletion in the Southern Gas Basin, GP, 54(?):63-73.
Han, D.H., Nur, A. e Morgan, D., 1986, Effects of porosity and clay content on wave
velocities in sandstones, Geophysics, 51(??):2093-2107.
Hardage, B.A., Levey, R.A., Pendleton, V., Simmons, J. e Edson, R., 1994, A 3D seismic
case history evaluating fluvially deposited thin-bed reservoirs in a gas-producing property,
Geophysics, 59(11):1650-1665.
Harris, J.M., 1994, Crosswell seismic profiling: a new tool of reservoir geophysics, Apostila
de curso no PPPG/UFBA.
173
Hatton, L., Larner, K e Gibson, B.S., 1981, Migration of seismic data from inhomogeneous
media, Geophysics, 46(5):751-787.
He, Z., Liu,X., Qiu, W. and Zhou,H., 2005, Mapping reservoir boundary by borehole-
surface TFEM:Two case studies, TLE 24(9):896-900.
Heath, T., 1921, A history of Greek Mathematics, Oxford at the Clarendon Press.
Hornby, B. E., Howie, J. M. and Ince, D.W., 2003, Anisotropy correction for deviated-well
sonic logs: Application to seismic well tie, Geophysics, 68:464-471.
Hornby, B.E., Bostick, F.X., Williams, B.A., Lewis, K.A. e Garossino, P.G., 2005, Field test
of a permanent in-well fiber-optic seismic system, Geophysics, 70(4):E11-E19.
Hubral, P. e Krey, T., 1980, Interval velocities from seismic relfection time measurements,
SEG, 203 p.
Huck, A., Rooij, M., Groot, P., Henke, C. and Rauer, S., 2005, Populating a PSDM created
earth model with PSTM predicted seismic properties, FB 23(10):87-91.
Hughes, S., Barton, P., Harrsion, D. e Johnson, M., 1995, Exploration in the Faeroe-
Shetland Basin Using Densely Space Arrays of Ocean Bottom Seismometers: 57th Mtg.
EAEG., Abstracts,Session:C002.
Hwang, L. e McCorkindale, D., 1994, Troll field depth conversion using geostatically
derived average velocities, TLE, 13(4):262-269.
Justice, J.H., Mathisen, M.E., Vassilou, A.A., Shiao, I., Alameddine, B.R. e Guinzy, N.J.,
1993, Crosswell seismic tomography in improved oil recovery, FB, 11(6):229-239.
Kalkomey, C.T., 1997, Potential risks when using seismic attributes as predictors of
reservoir properties, TLE, 16(?):247-251.
Kallweit, R.S. e Wood, L.C., 1982, The limits of resolution of zero-phase wavelets,
Geophysics, 47(7):1035-1046.
Kong, F.N., Westerdahl, H., Ellingsrud, S., Eidesmo, T. e Johansen, S.E., 2002, SeaBed
Logging: A possible direct hydrocarbon indicator for deep sea prospects using EM energy,
Oil & Gas Journal, May 13.
Koster, K., Gabriels, P., Hartung, M., Verbeek, J., Deinum, G. e Staples, R., 2000, Time-
lapse seismic surveys in the North Sea and their business impact, TLE, 19(?):286-293.
174
Krail, P.M., 1991, Case history: Vertical cable 3-D acquisition: 53rd Mtg. EAEG, Abstracts,
206.
Krail, P.M., 1994, Vertical cable as a subsalt imaging tool: TLE, 13(8): 885-887.
Krebes, E.S., 1989, Seismic theory and methods, Geophysics 551 Course Notes, Univ. of
Calgary.
Journel, A.G., Xu, W. e Tran, T., 1992, Integrating seismic data in reservoir modeling : the
collocated cokriging alternative, SCRF, Stanford Univesity, Report 5, p. 1-34.
Landro, M., Solheim, O.A., Hilde, E., Ekren, B.O. e Stronen, L.K., 1999, The Gulfaks 4D
seismic study, Petroleum Geoscience, 5(?):213-226.
Landro, M., 2001, Discrimination between pressure and fluid saturation changes from
time-lapse seismic data, Geophysics, 66:836-844.
Levin, F.K., 1984, The unreasonable success of reflection seismology, TLE, 3(1):16-18.
Lindseth, R.O., 1979, Synthetic sonic logs – a process for stratigraphic interpretation,
Geophysics, 44(1):3-26.
Lindseth, R.O., 2005, Seismic attributes – some recollections, Canadian SEG Recorder,
30(3):16-17.
Lindsey, J.P., 1989, The Fresnel zone and its interpretative significance, TLE, 8(?):33-39.
Liner, C., Li, C.F., Gersztenkorn, A. e Smythe, J., 2004, SPICE: A new general seismic
attribute, 720 Congresso da SEG:433-436.
Loewnthal, D., Lee, S.S. and Gardner, G.H.F. 1985, Deterministic Estimation of a Wavelet
Using Impedance Type Technique, GP, 33(7):956-969.
Lu, W., Li, Y., Zhang, S., Xiao, H. e Li, Y., 2005, Higher-order-statistics and supertrace-
based coherence-estimation algorithm, Geophysics, 70(3):P13-P18.
Lumley, D.E. e Tura, A., 1999, Estimating pressure and saturation changes from time-
lapse AVO data, 69th SEG Meeting, p. 1655-1658.
175
Luo, M., Takahashi, I., Takanashi, M. e Tamura, Y., 2005, Study reservoir flow anomaly
through mapping a fracture network, FB, 23(7)35-38.
Macrides, C.B., Kanasewich, E.R. e Bharatha, S., 1988, Multiborehole seismic imaging in
steam injection heavy oil recovery projects, Geophysics, 53(?):227-237.
Maia, W., Rubio, R., Junior, F., Haldorsen, J., Guerra, R. e Dominguez, C., 2006, First
borehole acoustic reflection survey mapping a deepwater turbidite sand, 76th SEG Mtg.
Makris, J. e Thiessen, J., 1983, Offshore seismic investigations of sedimentary basins with
a newly developed ocean bottom seismograph: 53rd Annual Internat. Mtg., SEG, Expanded
Abstracts, Session:S15.7.
Margrave, G.F., 1996, Applied 2-D and 3-D seismic analysis, Course lecture notes,
Crewes, University of Calgary.
Martini, F., Hobbs, R.W., Bean, C.J. e Single, R., 2005, A complex 3D volume for sub-
basalt imaging, FB, 23(7):41-51.
Mayne, W.H., 1962, Common reflection point horizontal data stacking techniques,
Geophysics, 27(6):927-938.
McCann, C., 1994, Estimating the permeability of reservoir rocks from P-wave velocity and
quality factor, 56th EAGE Mtg, session P172.
McQuillin, R., Bacon, M. And Barclay, W., 1984, An Introduction to Seismic Interpretation,
Reflection seismics inpetroleum exdploration. Graham&Trtam, 2nd ed., Oxford, 287 p.
Mjelde, R., Berg, E.W., Strom, A., Riise, O., Shimamura,H., Shiobara, H., Kodaira, S. e
Kanazawa, T., 1995, Three-component ocean bottom seismographs used in prospecting
in the Voring Basin, N. Norway: 65th Annual Internat. Mtg., SEG., Expanded Abstracts,
537-540.
Moinard, L., 1987, Application of kriging to the mapping of a reef from wireline logs and
seismic data: a case history, Geostatistical Case Studies, eds. G. Matheron e M.
Armstrong, p.93-103.
Moldoveanu, N., van Baaren, P., Addessi, D., Stubbington, L. e Combee, L., 1996,
Repeatability of the seismic experiments for 4D seismic in transiton zone surveys, 66th
SEG Mtg, p.5-8.
Neff, D.B., 1993, Amplitude map analysis using forward modeling in sandstone and
carbonate reservoir, Geophysics, 58(10):1428-1441.
176
Nelson Hr. H.R., Mastoris, S. e Hoxohi, C., 1991, Visualization of map and seismic
attributes, 53rd EAEG Meeting, Florença, A044, p. 86-87.
Nes, O.M., Holt, R.M., Fjaer, E., 2000, The reliability of core data as input to seismic
reservoir monitoring studiesI, SPE 65180.
Ng, H.T., Bentley, L.R. e Krebes, E.S., 2005, Monitoring fluid injection in a carbonate pool
using time-lapse analysis: Rainbow Lake case study , TLE, 24(5): 530-534 .
Nur, A., 1993, Rock Physics short course, apostila de curso Unicamp.
Oldenburg, D.W., Scheuer, T. e Levy, S., 1983, Recovery of the acoustic impedance from
reflection seismograms, Geophysics, 48(?):1318-1337.
Oldenburg, D, Eso, R., Napier, S. e Haber, E., 2005, Controlled source eletromagnetic
inversion for resource exploration, FB, 23(7):67-73.
Ostrander, W.J., 1984, Plane-wave reflection coefficients for gas sands at nonnormal
angles of incidence, Geophysics, 49(10)1637-1648.
Paffenholz, J. e Barr, F.J., 1995, Ann improved method for deriving water-bottom
reflectivities for processing dual-sensor ocean-bottom cable data, 65th Int. SEG Mtg.,
p.987-990.
Parr, R.S. e Marsh, M., 2000, Development of 4-D reservoir management West of
Shetland, World Oil, setembro:39-47.
Paulsson, B.N.P., Smith, M.E., Tucker, K.E. e Faibon, J.W., 1992, Characterization of a
steamed oil reservoir using cross-well seismology, TLE, 14(7):24-32.
Pennebaker Jr., E.S, 1968, Seismic data indicate depth, magnitude of abnormal
pressures, World Oil, Junho, p.73-77.
PGS, 2006, PGS Data Processing, Preliminary Seismic Processing Report, Campos
Basin Albacora-Roncador HD3D, PGS Job No. 2004095, 74 p.
P/GSI, 2005, Borehole seismic records 1000 earthquakes during San Andreas Fault
research, FB, 23(9):17.
177
Pharez, S.J., Jones, N., Dirks, V., Zimine, S. Pringent, H., Ibbotson e Gruffeille, J.-P.,
2005, Prestack wave-equation migration as a routine production tool, TLE, 24(6):608-613.
Pon, S. e Lines, L.R., 2005, Sensitivity analysis of seismic depth migrations, Geophysics,
70(2):S39-S42.
Puckett, M., 1991, Offset VSP: a tool for development drilling, TLE,13(8):18-24.
Ribeiro, N., Formiga, L., Sansonowski, R. e Jaeger, M., 2006, First deepwater 3-VSP in
Brazil minimizes drilling risk in the Marlim field, 76th SEG Mtg.
Richards, P.G. e Frasier, C.W., 1976, Scattering of elastic waves from depth dependent
inhomogeneities, Geophsycis, 41(?):441-458.
Richards, P.G. e Menke, W., 1983, The apparent attenuation of a scattering medium, Bull.
Seism. Soc. of America, 73(?):1005-1021.
Robertson, J.D. e Nogami, 1984, Complex seismic trace analysis of thin beds,
Geophysics, 49(?):344-352.
Robertson, J.D. e Fisher, D.A., 1988, Complex seismic trace attributes, TLE, 7(6):22-26.
Rodriguez, C., Aguiar, L.A.M., Souza, R.S., Fonseca, R.C.S. e Maia, F.J., 1995,
Delimitação de depósitos de leques aluviais e fluviais através de sísmica 3D – um caso
histórico, IV Cong. SBGf, p.827-830.
Rodriguez, C., Stewart, R.R., Li, X. e Bancroft, J.C., 1998, Imaging of the Valhall field
Norway using 4-C seismic data, AAPG Intern. Conf., Rio de Janeiro, p.120-1.
Rodriguez, C. and Stewart, R.R., 1999, Survey design for vertical cable seismic
acquisition, 61st EAGE Mtg, session 6007.
Rodriguez, C., 2000, Advanced Marine Seismic Methods: Ocean-Bottom and Vertical
Cable Analyses, Tese de Doutorado, Univ. of Calgary.
Rodriguez, C.,Stewart, R.R., and Margrave, G., 2000, Where does S-wave energy on
OBC recordings come from?, 70th SEG Mtg, p.1170-1173.
Rodriguez, C., 2002, Seismic interpretation of an ultra-deepwater field – a case study from
Roncador, Brazil, 64th EAGE Mtg, G031.
178
Rodriguez, C., Souza, J.A.B., Sarzenski, D.J., Ida, M. e Elias, V.L.G., 2004, Reservoir
characterization of an ultra-deepwater giant oil fiel offshore Brazil, 66th EAGE Mtg, A009.
Rodriguez, C., Costa, F., Mihaguti, M. e Carvalho, F., 2006a, Aquisição e processamento
sísmico HD3D em Roncador – um estudo de caso, I Simp. Geof. Reservatorio Petrobras.
Rodriguez, C., Costa, F., Sarzenski, D. e Carvalho, F., 2006b, O uso de atributos sísmicos
para caracterização geológica em Roncador, X Simpósio de Geof. da Petrobras.
Rosa, A.L.R. e Tassini, J., 1990, Introdução à Inversão do Traço Sísmico, Apostila de
curso interno, Petrobrás.
Rosa, A.L.R. e Tassini, J., 1995, Introdução à Inversão do Traço Sísmico, Apostila de
curso interno, Petrobrás.
Rosa, A.L.R., 2002, Análise do Sinal Sísmico, Apostila de curso interno, Petrobrás, 500 p..
Ross, C.P., Carlson, .DH. e Starr, J.G., 1996 , Comparison of AVO using ocean bottom
seismic and marine streamer data, 66th SEG Mtg, p.1755-1758..
Rowbotham, M., Williamson, E. e Swaby, L., 2003, The implication of anisotropy for
seismic impedance inversion, First Break, 21(?):53-58.
RSI (Rock Solid Images), 2002 (?), Calculation, classification and calibration of seismic
attributes to well log attributes, A non-linear Kohonen self-organized mapping approach,
Campos Basin, Brasil, Cenpes-UN-Rio/Atp-BrC/Res, 57 p.
Russel, B., 1990, Introduction to seismic inversion methods, SEG Course Notes Series,
vol. 2.
Saltzer, R., Finn, C. e Burtz, O., 2005, Predicting Vshale and porosity using cascade seismic
and rock physics inversion, TLE, ??(7):732-736.
179
Schultz, P.S., Ronen, S., Hattori, M. e Corbett, C., 1994, Seismic-guided estimation of log
properties, TLE, 13(5):305-315.
Schwedersky , G., Siqueira, A.G., Becker, M.R., Rosa, A.L.R., Bettini, C., Menezes, S.X. e
Alegre, L., 1992, Geofísica de Reservatório, IV Sem. Geof. Petrobrás, p.535-539.
Schwedersky, G., Almeida, A.S. e Bettini, C., 1995, Diferentes abordagens na utilização
de dados sísmicos na geração de modelos de porosidade, IV Cong. SBGf, Rio.
Sheriff, R.E., 1978, A first course in geophysical exploration and interpretation, IHRDC,
Boston, 313 pg.
Sheriff R.E., 1980, Nomogram for Fresnel zone calculation, Geophysics, ??(??):??
Sheriff, R.E., 1985, Aspects of seismic resolution, AAPG Memoir 39, p.1-10.
Sheriff, R.E., 1992, Petrophysical and geophysical background, in Sheriff R.E. (ed.),
Reservoir Geophysics, SEG Investigations in Geophysics, vol. 7.
Sheriff, R.E., 1991, Encyclopedic Dictionary of Applied Geophysics, 3rd ed., SEG.
Sheriff, R.E., 2002, Encyclopedic Dictionary of Applied Geophysics, 4th ed., SEG,
Geophysical Reference Series 13.
Sheriff, R.E. e Geldart, L.P., 1995, Exploration Seismology, Cambridge, 2a ed, 592 p.
Sherwood, J.R., 1993, 3D seismic and geostatistical methods provide more accurate
reesrvoir models, Petr. Engineer Internat., dezembro, p.15-19.
Sonneland, L., Navrestad, T. e Roed, 1995, Sub-sea seismic: Acquisition and data
analysis procedures, 65th SEG Mtg, p.963-965.
Souza Jr., O.G. e Sousa, M.T.A., 1993, Aplicação de análise de regressão para geração
de perfis sônicos sintéticos, ?? Informe Geofísico 105 // Relatório interno DEBAR.
Spencer, T.W., Sonnad, J.R. e Butler, T.M., 1982, Seismic Q – Stratigraphy or dissipation,
Geophysics, 47(1):16-24.
Stewart, R.R., 1992, Exploration seismic tomography: fundamentals, SEG Course Notes
Series, vol. 3.
180
Stolt, R.H., 1978, Migration by Fourier transform, Geophysics, 43(?):23-48.
Taner, M.T. e Koehler, F., 1969, Velocity spectra – digital computer derivation and
applications of velocity functions, Geophysics, 34,(?):859-881.
Taner, M.T., Koehler, F. e Sheriff, R.E., 1979, Complex seismic trace analysis,
Geophysics, 44(?):1041-1063.
Tatham, R.H. e Stoffa, P.L., 1976, VP/VS – A potential hydrocarbon indicator: Geophysics,
41:837-849.
Tenghanm, R. e Long, A., 2006, PGS shows off electrical marine vibrator to capture
‘alternative’ seismic source market, FB, 24(1):33-36.
Traub, B. e Li, X.-Y, 2006, The effects of near-surface conditions on anisotropy parameter
estimations from 4C seismic data, GP,54(?):15-28.
Varela, C.L., Rosa, A.L.R. e Ulrich, T.J., 1993, Modeling of attenuation and dispersion,
Geophysics, 58(?):1167-1173.
Vasquez, G.F. e Carvalho, R.D., 1993, Sísmica de muito alta resolução na Bacia Potiguar,
V Sem. de Geofísica da Petrobras, p.184-189.
Vernik, L., 1994, Predicting lithology and transport properties from acoustic velocities
based on petrohysical classification of siliciclastics. Geophysics, 59(3):420-427.
181
Wagner, S.R., Pennington, W.D. e MacBeth, C., 2006, Gas saturation prediction and effect
of low frequencies on acoustic impedance images at Foinaven Field, GP,54(??):75-87.
Whitcombe, D.N., Murray, E.H., Aubin, L.A.S. e Carrol, R.J., 1994, The application of 3D
depth migration to the development of an Alaskan offshore oil field, Geophysics,
59(10):1551-1560.
White, J.E., 1965, Seismic waves – radiation, transmission , and attenuation, McGraw-Hill.
Widdes, M.B., 1973, How thin is a thin bed?, Geophysics, 38(6):1176-1180. Reimpressão
de Proceedings of the Geophysical Society of Tulsa, 1957-58.
Wood, L.C., 1982, Imaging the subsurface, in: Concepts and techniques in oil and gas
exploration, SEG, 45-90.
Wyllie, M.R.J, Gregory, A.R. e Gardner, L.W., 1956, Elastic wave velocities in
heterogeneous and porous media, Geophysics, 21(?):41-70
Xu, S e White, R.E., 1995, A new velocity model for clay-sand mixture, GP, ??(?):91-118.
Yilmaz, O., 1987, Seismic data processing, Investigation in Geophysics vol. 2, SEG.
Yilmaz, O., 2001, Seismic data analysis: processing, inversion, and interpretation of
seismic data, 2a edição, SEG.
Zachariadis, R.G., Thomason, H.B. e Teagye, H.E., 1983, Ocean Bottom Seismometers in
Seismic Exploration Surveys: Planning and Operations: 53rd Annual Internat. Mtg., SEG,
Expanded Abstracts, Session:S15.6.
Zachariadis, R.G. e Bowden, E.A., 1986, Ocean Bottom Cable: A Fixed Multichannel Sea
Floor Reflection System: 56th Annual Internat. Mtg., SEG., Expanded Abstracts,
Session:S4.4.
Zhou, C., Cai, W., Luo, Y., Schuster, G. e Hassanzadeh, S., 1993, High-resolution cross-
well imaging by seismic traveltime + waveform inversion, TLE, 12(10):988-991.
182