Você está na página 1de 53

RESUMO DA AVALIAÇÃO DE DADOS

DEPÓSITO: WALKER LAKE, NEVADA, EUA

METALOGENIA: DEPÓSITO DO TIPO VULCANOGÊNICO MACIÇO SULFETADO.

RECURSOS METÁLICOS: OURO E COBRE

CORPO GEOLÓGICO: CORPO GEOLÓGICO ALONGADO NA DIREÇÃO NORTE-SUL NO FLANCO OESTE E PEQUENOS CORPOS
ARREDONDADOS NO FLANCO LESTE.

DISPOSIÇÃO DOS DADOS: HETEROTOPIA

COBRE -> REGULARMENTE AMOSTRADO COM ADENSAMENTO NAS ÁREAS DE INTERESSE

OURO-> SOMENTE NOS CORPOS GEOLÓGICOS DE MAIOR TEOR DE COBRE

ESTATÍSTICA DAS AMOSTRAS: t m=( μ ± 2. σ ) = COBRE ( 2.69 ± 2.401) g/ton (CONDICIONADO AO


DOMÍNIO)

t m=( μ ± 2. σ ) = OURO (0.60 ± 1.534812) g/ton (CONDICIONADO AO CORPO


GEOL.)

CORRESPONDÊNCIA DAS DISTRIBUIÇÕES: NÃO

CORRESPONDÊNCIA DOS TEORES:

Au = 0.0548 Cu + 0.0141| r2=0.2701 (PARA OS CORPOS GEOLÓGICOS)

Au = 0.0757 . Cu – 0.1007 | r2 = 0.53 (PARA A REGIÃO DE MÁXIMA CORRESPONDÊNCIA, FORA DA FALHA DO CONTROLE DE
FORMAÇÃO DOS CORPOS)

CONTINUIDADE ESPACIAL DO COBRE: γ (h) =2.5+9.0 Sph ( h67 + h30 )


167.5 77.5

TAMANHO DE BLOCO UTILIZADO PARA KRIGAGEM: 10 x 10

ESTRATÉGIA DE BUSCA UTILIZADA:

MÍNIMO DE OCTANTES NÃO VAZIOS -3, MÍNIMO DE 1 DADO POR OCTANTE, MÁXIMO DE 1 DADO POR OCTANTE

RANGE -> MÁXIMO 60, MÉDIO 25 , AZIMUTE: 160

KRIGAGEM t m=(μ ± 2. σ ) = COBRE (2.920± 2.124) g/ton

BLOCOS NEGATIVOS: NÃO

ERRO RELATIVO DA MÉDIA DOS DADOS E DA KRIGAGEM: 7.77%

MÉDIA DOS ERROS DA CROSS-VALIDAÇÃO: 0.043


REVISÃO BIBLIOGRÁFICA

INTRODUÇÃO

A geoestastística é a disciplina que lida com variáveis aleatórias regionalizadas, ou do tratamento


de dados dispostos espacialmente. A diferença entre as operações estatísticas clássicas daquelas lidadas
pela geoestastítica, é que a mesma associa cada amostragem por uma componente espacial. Se para os
fenômenos puramente probabilísticos a condição de independência é um quesito para a utilização das
técnicas estatísticas clássicas, em fenômenos espaciais é necessário existir continuidade dos dados, ou
seja, é mais provável que um valor situado mais próximo de uma amostra seja parecido do que um
distal. Cita-se como exemplo a gênese de um depósito mineral, em que um uma rocha sedimentar é
formada a partir de um fluxo em um delta. Como na formação do corpo geológico existe um controle por
meio de um processo físico, é de se esperar que a montante do canal os fragmentos sejam mais
parecidos que os sedimentos a jusante do mesmo.

Como todo modelo matemático, a geoestatística utiliza uma variável como um artifício
matemático que abstrai a ideia de que vários valores podem ser assumidos dentro de condições de
contorno definidas. Esta variável representa uma característica a ser analisada na área, como por
exemplo, número de pessoas acima de vinte anos, teor de contaminantes em um rio ou um tipo de
rocha considerada no depósito. Em alguns modelos em que usamos variáveis aleatórias, apenas alguns
valores podem ser assumidos dentro de sua definição física. O teor é uma variável aleatória que pode
assumir apenas valores fracionários entre 0 e 1. A massa pode apenas ser calculada para valores acima
de 0. Entre as classificações previstas, podemos ter variáveis contínuas, quando seus valores se
modificam dentro de um conjunto real, discretas, quando seus valores modificam dentro de um
conjunto inteiro ou categóricas, quando assumem apenas valores distintos no universo. Quando podem
ser consideradas somáticas, a representação de variáveis pode ocorrer através de combinações lineares
delas, sendo representativo o uso de estatísticas tais como a média aritmética.

No entanto, apenas estabelecer variáveis que reflitam a realidade do problema a ser modelado
não garante que tenhamos informação sobre os dados dispostos em uma região. É necessário utilizar
operações que reduzam uma quantidade grande de dados e transponham informação segundo critérios,
para locais próximos das regiões de amostragem, cobrindo uma região de incerteza do fenômeno. O
processo de operação das variáveis em geoestatística advém do conhecimento de momentos, que se
caracterizam como medidas dependentes do conjunto de dados e que representam propriedades do
conjunto. A vantagem de se utilizar uma estimativa ao invés de uma metodologia de interpolação é a
utilização de momentos permite a reprodutibilidade espacial dos dados associada ao comportamento
destes e não somente à sua disposição espacial.
Por meio dessas operações ocorre perda de informação geral dos dados, mas em contrapartida a
análise se torna legível e de fácil compreensão. O momento de primeira ordem, também conhecido
como esperança matemática, é uma prova de que ao tomarmos uma estatística de um fenômeno
ganhamos uma informação para um conjunto de dados, mas perdemos sentido sobre as características
de dispersão dos mesmos. A interpretação física do momento de primeira ordem pode ser representada
como o ponto de uma barra ao qual conseguimos equilibrá-la perfeitamente. No caso de dados
simetricamente dispostos, a média dos valores constituí no ponto central da barra. Se, no entanto, a
barra apresentar um abaulamento maior na região de início, o ponto médio será deslocado para uma
região mais próxima da base.

A esperança matemática de uma variável aleatória Z pode ser representada pelo


somatório das z realizações possíveis da variável multiplicadas pela sua frequência relativa:
n
E ( Z i ) =m=∑ ρi z i
i=1

Outro momento estatístico que por analogia podemos fazer com um sistema físico é a variância.
Se pensarmos na distribuição de peso em uma barra, quanto mais longínqua for a posição com o seu
centro de massa, mais fácil é a torque e a rotação dessa barra em um eixo. A variância seria a
desestabilização dos pontos e sua dispersão ao longo de um centro.

A variância pode ser representada pelo somatório da diferença das n realizações possíveis para a
variável pela sua média, elevado ao quadrado, como na seguinte fórmula:
n
σ ( Zi ) =∑ ( z i−m )2
2

i=1
Devido ao ganho de informação sobre as propriedades dos dados, consequentemente ocorre
perda de outras características que seriam também importantes, o que determina a necessidade de que
a utilização conjunta de momentos matemáticos para uma melhor interpretação do fenômeno. Como
exemplo, citaríamos o caso em que duas pessoas consomem cigarros em um dia. Um deles utiliza uma
quantidade de 30 cigarros diários, enquanto outro não fuma. Em média as duas pessoas seriam
consideradas fumantes, utilizando 15 cigarros por dia. De nada garantiria saber a média dos dados sem
saber associar sua dispersão. As características da utilização de momentos como ferramentas significa
também dizer que a utilização do modelo é afetada por valores extremos, que são suavizados na maioria
dos processos geoestatísticos, tais como a krigagem.

Não somente os momentos univariados representam operadores importantes para o modelo


geoestatístico, mas também os bivariados representam característica essencial. A principal ferramenta
de determinação da relação entre a dependência linear entre duas variáveis é a covariância. Esta pode
ser descrita como:
n
Cov ( X , Y )=∑ ( X i−m x ) ( Y i −m y )
i=1

A covariância é uma medida da dependência entre o comportamento dos dados. Uma


covariância positiva apresenta crescimento de uma variável em detrimento do crescimento de outra,
negativa quando apresenta crescimento de uma e decrescimento de outra e nula quando os valores são
independentes.
A geoestatística definirá momentos bivariados associados a vetores no espaço, que submetidos
às considerações de momentos univariados constantes, determinará modelos que permitam a inferência
de propriedades para regiões não amostradas. Essa premissa inicial é também chamada de
estacionaridade. Essa propriedade pode ser demonstrada com o exemplo de cotas calculadas em um
morro. No primeiro exemplo demonstrado na figura abaixo, a estacionaridade está representada por
uma média global representada por um valor médio das médias locais, mas o mesmo não ocorre com o
segundo exemplo que demonstra uma deriva dos valores médios. ( E ( Z i )=μ ∀ i∈ D )
Diferentemente da interpolação que delimita uma função determinística entre os valores
amostrados, a geoestatística procura associar o caráter aleatório na dimensão considerada. Para poder
conjugar as propriedades dos momentos matemáticos com as características da função aleatória, é
necessário definir hipóteses no domínio estipulado, pois ao assumirmos que as variáveis possuem
momentos estatísticos de ordem inferior constantes no domínio, todo o tratamento é simplificado e
estimação nos pontos inter-amostrais se torna possível.

Considerando a função aleatória abaixo, podemos determinar a sua variância segundo a fórmula
abaixo:

u
λi Z (¿ ¿i)
n
Y =∑ ¿
i=1

u
λi Z (¿ ¿i)−μ
n

∑¿
i=1
¿
¿
Var (Y )=E ¿
u
u
Z (¿ ¿ j)
Z (¿¿ i)¿
¿
¿
u
Z (¿¿ i)
¿ ∀ i∈ D
n

∑ λ j λi E ¿
j=1
n
Var (Y )=∑ ¿
i=1

u
¿
u
Z (¿¿ j)
u
Z (¿¿ i)
¿ ∀ i∈ D
Z (¿ i¿),¿ ← E ( Y )=E ¿
n

∑ λ j λi Cov ¿
j=1
n
Var ( Y )=∑ ¿
i=1

Ou seja, quando se estabelece o valor esperado da variável aleatória como uma constante,
podemos definir as variações da função aleatória em qualquer ponto do domínio pela utilização da
covariância entre as amostras separadas. Ao assumirmos constância nas estatísticas individuais de cada
variável, podemos definir por meio de estatísticas bipontuais os valores desconhecidos entre os pontos
amostrados.

A utilização da geoestatística permite obter informações pelo resumo dos valores amostrados no
espaço ou pela estimação em regiões entre as medidas realizadas. Além disso, funções de recorrência
podem ser utilizada na transformação de dados estimados, e análises podem ser realizadas não somente
com a variável preditora . No entanto, como a geoestatística utiliza de funções relacionadas ao conjunto
de dados, a garantia de um modelamento adequado somente é possível se os valores amostrados são
consistentes. Portanto, a garantia de um menor erro de amostragem é decisiva no modelamento, pois se
está incorreta, subsequentemente os valores estimados também estarão.
Como característica do processo de estimação na geoestastística, utiliza-se de ponderadores
lineares que calculam pesos para a colaboração dos valores amostrados em volta do valor a ser estimado
n

( Z =∑ ρi Z(ui)
¿

i=1
)
Entre as aplicações práticas da geoestatística podemos averiguar seu uso na estimação de teores
em depósitos minerais, na agricultura, em etapas de amostragem em usinas, no âmbito ambiental, ou
em todas as práticas que envolvam análise espacial de dados.

ESTATÍSTICA PONDERADA COMO FERRAMENTA DE ANÁLISE CONJUNTA À


GEOESTATÍSTICA

Antes que qualquer análise geoestatística seja realizada, é importante definir uma condição de
equiprobabilidade dos dados para que possam ser tratados de forma adimensional. A condição de que
as amostragens não sejam enviesadas no conjunto de dados analíticos requer antes que os dados não
sejam enviesados de forma espacial, e isso somente é possível quando se formata geometricamente
uma malha regular.

Uma malha é uma orientação geométrica constituída de nós e células. Cada local amostrado
pode ser considerado como um nó desta célula que é distribuído nas arestas de um polígono. Quando
essas células possuem dimensão regular, tal como um quadrado então ela inevitavelmente garante
distribuição uniforme da informação.

Ao garantir equiprobabilidade dos dados, é possível utilizar um tratamento estatístico


convencional. No entanto, uma malha regular é uma condição quase que improvável de ocorrência no
meio de trabalho com variáveis espaciais. Muitas vezes a amostragem em alguns pontos fica prejudicada
por uma condição física, seja pela deformação do terreno, vegetação que cresce em uma região, por
condições políticas e sociais, como áreas de residência ou terras de um proprietário, ou por uma
necessidade econômica em que a delimitação de uma região de interesse é preferencial.
Ao depararmos com regiões de cluster, aos quais os dados se encontram concentrados em uma
região, são necessárias técnicas de ponderação para atribuir pesos diferenciados a cada ponto
amostrado, e assim garantir que frequências altas em regiões com dados redundantes não produzam
estatísticas errôneas.

Entre as técnicas clássicas de declusterização, podemos citar os polígonos de influência e o


desagrupamento por células. A técnica dos polígonos de Voronoi consiste em atribuir áreas para um
dado ponto no centro que constitui na região do semi-espaço amostral entre nós mais próximos ao de
origem. Considere os colares do furo como na condição esquemática abaixo:

Nó a ser ponderado

A cada ponto mais próximo do ponto a ser ponderado existe uma reta que o liga com seus
vizinhos. A interseção do plano horizontal com o plano perpendicular à metade da distância entre os
pontos forma uma reta como demonstrado na figura a seguir.

A região delimitada por dentro de todas essas retas forma um polígono regular convexo,
denominado de polígono de Voronoi.
Uma propriedade que auxilia no desenho manual dos polígonos é que o centro do círculo
circunscrito entre três pontos vizinhos é um vértice do polígono de Voronoi. Algumas etapas podem ser
simplificadas, porque não há necessidade do cálculo das retas que ligam os pontos e as perpendiculares
situadas na sua distância média.

A resolução geométrica atribuída ao algoritmo é unívoca, mas considerando um problema


tridimensional, o resultado determinístico é de grande dificuldade de obtenção, sendo necessária uma
simplificação pela discretização do espaço em blocos.

Outro algoritmo que também auxilia no processo de desagrupamento e que funciona melhor em
ambiente tridimensional é a declusterização por células. Neste caso o grid é dividido em N partes iguais,
e o peso para cada amostra será o valor do produto das N células por n amostras contidas em cada
célula.

1
ponderador=ρ=
N .n
O processo de desagrupamento por células é uma metodologia interativa ao qual se determina
vários tamanhos de células diferentes, até se obter um tamanho ótimo que minimiza a média global dos
dados.

ESTATÍSTICA UNIVARIADA DOS DADOS

A estatística univariada de dados é uma etapa anterior à utilização de técnicas de


reconhecimento espacial, pois garante informações primárias antes do estabelecimento de parâmetros
que constituirão as análises subsequentes. Com ela é possível verificar o comportamento geral dos
dados, como concentração de valores altos e baixos, a variação possível de valores obtidos nas amostras,
dados errôneos ou anômalos, ou qualquer possível informação que seja de conteúdo generalizado. A
validação inicial de dados deve ser acompanhada pela transparência entre as metodologias de
amostragem para a adequação correta da modelagem. Dados que são incluídos no banco que
apresentam digitação incorreta, valores muito acima ou abaixo dos valores globais, devem ser
certificados antes da sua inclusão ou exclusão da análise. No entanto, valores outliers nem sempre
podem ser caracterizados como errados, pois eventos naturais pode gerá-los como uma modificação
anômala do controle geológico.

METODOLOGIAS GRÁFICAS DE ANÁLISE ESTATÍSTICA


HISTOGRAMA
Um histograma é um gráfico de barras que caracteriza uma variável segundo bandas que são
interpretadas pela sua frequência em um intervalo. Cada uma destas bandas é determinada como uma
classe de valores em um intervalo constante. Ao observarmos a figura abaixo, podemos verificar que a
variável ouro apresenta na banda de 0-0,1 quase 50% dos valores totais. O histograma é uma estatística
gráfica que não somente garante informação facilitada para leitura mas que também pode falsear o
comportamento global dos dados.
As figuras abaixo representam o comportamento da variável ouro quando classes de tamanho muito
grande ou muito pequeno. Quando o tamanho de uma classe envolve toda a variação dos dados
possíveis ela se transforma em uma informação gráfica inútil. Da mesma forma quando colocamos uma
classe extremamente pequena, muitos dados apresentaram frequência absoluta igual a 1, o que também
envolve em uma informação ruim. Algumas fórmulas clássicas da estatística como a de Sturges
determinam o número de classes adequado para o histograma baseado no conjunto de dados, mas a
melhor representação gráfica deve ser aquela que o avaliador altera manualmente o número de classes
para transmitir a informação que ele queira interpretar.
DIAGRAMA DE BOX PLOT
O gráfico Box plot é um recurso gráfico que dispõe as estatísticas da variável aleatória de uma
forma linear e que auxilia a identificar valores outliers. Em uma caixa é plotado os valores dos quartis dos
dados e uma linha dispõe de um intervalo de aceitação de ± 1.5 do intervalo Interquartil. Os pontos que
se situam fora deste limite podem ser considerados estatisticamente anômalos.

A utilização do Box Plot baseia-se na desigualdade de Sturges, em que associa-se a probabilidade


de um dado pertencer à uma distribuição pela relação com o desvio padrão das amostras.

MAPA DOS COLARES DO FURO


Os mapas dos colares do furo são uma indicação espacial de onde se encontram valores outliers
no banco de dados. Após o reconhecimento dos valores anômalos pela utilização de um diagrama de
boxplot, os valores erráticos podem ser verificados em um mapa, de forma a observar se os valores
próximos apresentam comportamento semelhante com aquele anômalo. A figura abaixo foi alterada do
livro (Applied Geostatistics, Issack Srivastava) e corresponde a um conjunto de sondagens de ouro do
depósito de Walker Lake. Podemos identificar dois valores que se apresentam diferenciados dos demais.
Um deles, cujo valor é -20 está completamente errado, pois não existe valores de teor negativos. O outro
não pode ser classificado como errado, mas apresenta um valor muito alto que deve ser questionado,
reavaliando a amostragem e verificando a anomalia.
Figure 1 -Mapa alterado de (Srivastava, 1989)

MAPA DE ISOVALORES
Outra forma inicial de verificação do comportamento dos dados é a utilização de um mapa de isovalores
que mostra regionalmente como é a distribuição geral da variável. Com ele é possível identificar regiões
de maior ou menor recorrência de valores altos ou baixos, ou um comportamento que possa definir o
controle geológico do ambiente e que pode ser utilizadas como característica de inferência da
continuidade espacial dos dados. O mapa abaixo demonstra regiões de concentração da radiação gama
no sítio do Jambuaçu. É possível notar que o flanco leste apresenta uma concentração muito mais
acentuada que a do no noroeste. O importante a se pensar é que as técnicas de interpolação lineares
utilizadas pelos mapas de isocontorno geram estimativas piores que a dos mapas utilizando as técnicas
geoestatísticas. A utilização de isolinhas para verificação da disposição espacial dos dados deve ser
apenas intuitiva e não qualitativa.
Figure 2 - Mapa de isocontornos1

METODOLOGIAS DE ANÁLISE PONTUAL DOS DADOS


Algumas estatísticas pontuais podem ser realizadas no banco de dados para que possamos
inferir propriedades dos dados ou estimar valores que constituam ordem de grandeza geral. A utilização
de estatísticas pontuais pode ser uma estimativa dos momentos característicos da população, mas ao
assumir uma hipótese forte como essa, pode-se sujeitar a erros drásticos.

As estatísticas pontuais se dividem segundo a propriedade a ser medida do conjunto de dados.


Podem se referir às tendências centrais, de dispersão, de forma ou assimetria geralmente. Cada uma é
uma representação do conjunto de dados que tem objetivo de resumir os valores em uma informação,
mas que são tendenciosas caso não sejam relativizadas com outras estatísticas.

MEDIDAS DE TENDÊNCIA CENTRAL


Entre as medidas de tendência central destacam-se a média aritmética, a média ponderada, a
moda e a mediana.

A média aritimética é um caso particular da média ponderada ao qual as realizações da variável


aleatória ganham o mesmo peso. Matematicamente pode ser escrita como:
n
1
Z= ∑z
n i=1 i

1 http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0102-261X2010000200009
A média ponderada é o caso mais particular de uso como estimação do valor esperado da variável. Pode
também ser descrita como:
n
Z =∑ ρi z i
i=1

A mediana é o valor assumido pela realização que corresponde a aproximadamente 50% da frequência
acumulada de um conjunto de dados.

(∑ ) { (∑ ) }
n n
Mediana z i = z i∨Prob z i =0,5
i=1 i=1

A média é uma estatística sensível à utilização de valores extremos, mas o mesmo não é
observado para a mediana que é mais sensibilizada pelo número de dados disponíveis. Em alguns casos
de distribuições assimétricas, a mediana é um estimador de tendência central preferível à utilização da
média geométrica.

MEDIDAS DE DISPERSÃO
As medidas de dispersão demonstram quão diferenciado ou amplo é o comportamento dos
dados. Entre as medidas de dispersão mais comuns podemos citar a variância, o desvio padrão e o
intervalo de dados.

O intervalo de dados pode ser dado por:

ID=|máx ( z ni=1 )−min ⁡( z ni=1)|

O intervalo de dados é uma estimativa muito sensível ao conjunto de valores. A incorporação de um


outlier no banco pode gerar um valor superestimado do intervalo.

A variância é uma medida de dispersão centrada no valor médio dos dados. Ela pode também
ser calculada por:
n n 2

σ (z i )=∑
2

i=1
( 1
z i −∑ z i
i=1 n
)
A variância é uma estatística que não produz um valor na mesma unidade do conjunto de dados.
Para uma análise da variabilidade de uma forma mais funcional, geralmente utiliza-se do desvio padrão,
que consiste na raiz quadrada da variância dos dados.

√∑ (
n n 2

σ ( z i )=±
i=1
z i−∑ zi
1
i =1 n
)
MEDIDAS DE POSIÇÃO
Dentre as medidas de posição que mais se destacam são os quartis e os percentis. Os quartis são
as medidas que dividem igualmente a distribuição de dados em uma frequência acumulada relativa de
25%. O primeiro quartil corresponde a 25% da frequência, o segundo quartil igual a 50%, o terceiro
corresponde a 100%.

(∑ ) { }
n n
Q1
i=1
z i = z i∨Prob (∑ )
i=1
z i =0,25

(∑ ) { (∑ ) }
n n
Q2 z i = z i∨Prob z i =0,50
i=1 i=1

( ){ (∑ ) }
n n
Q3 ∑ z i = z i∨Prob z i =0,75
i=1 i=1

( ){ (∑ ) }
n n
Q4 ∑ z i = z i∨Prob z i =1,00
i=1 i=1

Os percentis são semelhantes aos quartis e demonstram frequências acumuladas segundo a


necessidade de localização. Quartis e percentis são estatísticas não portáveis e dependentes da
quantidade de dados do banco.

ESTATÍSTICA BIVARIADA DOS DADOS


A estatística bivariada dos dados comportam as técnicas de comparação entre dois conjuntos de
amostras. Inicialmente uma das informações mais relevantes a ser considerada na distribuição de dados
é se eles apresentam características de isotopia ou heterotopia. Dados isotópicos são aqueles em que as
realizações das variáveis são concordantes em todos os pontos de amostragem. Heterotopia, ao
contrário, consiste em ausência de uma variável em contrapartida da outra. Em um determinado furo de
sondagem, por exemplo, poderíamos ter dados heterotópicos que não foram amostrados teores de
cobre no mesmo local que teores de ouro. A figura abaixo foi retirada do livro (Applied Geostatistics –
Issac Srivastava) . Podemos notar que em cada local em que foi amostrado um valor, correspondente ao
dado numérico acima da cruz, foi também avaliada outra variável, correspondente ao dado numérico
que situa abaixo da cruz.

Figure 3 - Exemplificação de dados isotópicos

Além da análise espacial demonstrada pela exemplificação numérica em mapa, a estatística


gráfica e pontual procede da mesma maneira que em dados univariados.

METODOLOGIA GRÁFICA DE ANÁLISE DE DADOS BIVARIADOS


Da mesma forma que em um histograma univariado medimos a frequência de uma determinada
variável pela variação da mesma, outra forma de realizar a comparação entre diferentes variáveis é por
uma distribuição marginal, ao qual associamos a cada range de variação de uma variável a frequência de
variação de outra variável. A figura abaixo demonstra a relação da variável ouro pela frequência de
observações da variável cobre. Elaborar histogramas marginais é a forma de se conseguir determinar
também leis de probabilidade conjuntas.
A forma de demonstração mais simples da relação entre duas variáveis é pela utilização de um
gráfico de pontos ou também chamado de scatterplot. Pela visualização do comportamento de pontos
plotados nos eixos cartesianos, podemos saber as relações possíveis entre as variáveis, tais como efeitos
de proporção crescente, decrescente ou até independência total das medidas.

Eventualmente os dados podem apresentar relação proporcional. É adequado neste caso


verificar se a relação da média dos valores apresenta algum tipo de crescimento que pode ser modelado
por uma função. Neste caso utiliza-se de um ajuste de regressão linear, que permite determinar a reta
que se ajusta melhor ao conjunto de dados para o menor erro quadrático possível.

Atenção deve ser dada para o modelo e o conjunto de dados quando ajustada uma reta de
regressão. Dizer que a alternância da variável independente gera uma realização da variável dependente
está errado, pois na verdade apenas estima-se o valor médio como resposta do modelo. O verdadeiro
valor para uma dada mudança na variável independente só ocorre no ponto amostrado. Um intervalo de
segurança para o modelo de regressão pode ser ajustado para o nível de confiabilidade a ser julgado
pelo modelador. O gráfico abaixo demonstra os limites determinados para a aceitação do modelo. Nota-
se que vários pontos são estatisticamente inaceitáveis para a contribuição do valor médio. Estes valores
devem ser analisados de forma que possam ou não ser incorporados no modelo.

Outro gráfico que também possui importância para a descrição da variável aleatória é o
chamado Q-Q plot. Este gráfico constitui na ordenação dos percentis em um eixo cartesiano,
demonstrando uma série de pontos que representam o comportamento da distribuição dos dados. Uma
relação diretamente proporcional indica que as distribuições de probabilidade das duas variáveis são
semelhantes. Variáveis que possuem boa correlação linear e histogramas semelhantes podem até
mesmo ser caracterizadas como um mesmo fenômeno, e utilizadas conjuntamente na avaliação de um
fenômeno espacial. No caso, por exemplo, de possuirmos análises de cobre de um mineral de calcocita e
um de cuprita, apesar de serem diferentes minérios, se apresentarem o mesmo comportamento e
distribuição dos dados e submetidos às mesmas condições técnicas podem ser tratados como apenas
um minério.
ESTATÍSTICA PONTUAL BIVARIADA

A principal estatística de análise bipontual dos dados é a covariância, como demonstrado


anteriormente no trabalho.
n
Cov ( X , Y )=∑ ( X i−m x ) ( Y i −m y )
i=1

A covariância é, no entanto, uma medida de relação entre variáveis pouco sensíveis à


interpretação, da mesma forma como ocorre entre a variância e o desvio padrão. Para padronizar a
estatística em uma medida mais palpável, regulariza-se a covariância pelos desvios padrão das duas
variáveis, obtendo assim uma estatística portável chamada de coeficiente de correlação.

Cov ( X , Y )
ρ=
σ X σY

O coeficiente de correlação é uma medida que varia entre 0 quando não existe similaridade
entre as amostras e 1 quando existe completa similaridade entre as amostras. A correlação é, no
entanto, uma medida de dependência linear, e não deve ser utilizados para modelos cuja dependência
dos valores médios apresenta diferentes comportamentos.

Outro coeficiente de correlação dos dados é o coeficiente de Spearman. A estatística possui


fórmula análoga ao coeficiente de correlação, mas ao invés de utilizar como variável independente as
suas realizações, usa ranks que determinam a ordem da variável. O objetivo desta função é apenas uma
comparação entre proporções das duas populações, de forma a averiguar tendências de ordenação
diretamente proporcional dos dados.

ANÁLISE DA CONTINUIDADE ESPACIAL DOS DADOS


A análise da continuidade espacial pode ser analogamente comparada à similaridade de
características ao longo do espaço. Uma interpretação geológica do conceito poderia ser um depósito de
gênese deposicional lacustre como um arenito. Em um dado período ocorrem eventos de pluviosidade
intensos à montante, com isso uma grande quantidade de material se deposita no lago. Em seguida
ocorre um novo evento de enxurrada após um longo período de seca. Uma grande quantidade de
material diferente se acumula na parte superior. Como consequência pode-se notar que cada camada é
similarmente mais parecida que a camada abaixo.

Uma medida de similaridade do teor de um dado elemento neste depósito é maior na direção horizontal
que na vertical.

A geoestatística como uma ferramenta bipontual de análise, que associa modelos a vetores,
utiliza da correlação espacial para medir padrões de continuidade em uma direção. A ferramenta
estatística utilizada para isso é a covariância, mas não calculada entre espécies diferentes, mas da
mesma variável espaçada em um lag com direção e sentido. Outra medida de continuidade espacial
utilizada é o variograma, mas que, no entanto, não mede a similaridade entre variáveis, mas a
dissimilaridade entre elas. Ao retornar a diferença quadrática entre as variáveis espaçadas por um lag, o
variograma é ortogonal à covariância.

O modelamento da continuidade espacial pelo uso de covariâncias implica que o domínio possui
uma média constante e igual às médias locais, o que não ocorre pelo modelamento da continuidade com
o uso dos variogramas. No entanto, as duas funções são automaticamente convertidas em uma e em
outra pela diferença da variância dos dados, também chamada de variância à priori dos dados.

1
γ (h) = E ( Z i−Z i+h )2
2

C(h)=E ( Z i . Zi +h )−m

2 γ (h)=E ( Z i2 +Z i +h2−2 Z i . Z i+h )


2 γ (h)=E ( Z i2 ) + E ( Z i+h2 ) −2 E ( Z i . Z i+h )

2 γ (h)=E ( Z i2 ) −m+ E ( Z i+ h2) −m−2 E ( Z i . Z i+ h ) +2 m← m=constante

2 γ (h)=C (0)+C (0)−2 Cov( h)← m=constante

γ (h) =C( 0)−Cov( h) ← m=constante

Assim podemos realizar uma figura esquemática do comportamento de uma função variograma.
A representação abaixo é uma demonstração da classe de variogramas permissivos, considerados
aqueles que estabilizam segundo um valor fixo da variância dos dados.

Muitas vezes a função variograma pode apresentar dispersão infinita do fenômeno. Fenômenos
tais como movimento Browniano permitem tipos de modelo não permissíveis. No entanto, para
fenômenos geológicos, fenômenos de dispersão infinita são fisicamente ainda indeterminados.

Cada componente da função variograma possui uma característica importante na análise de


continuidade espacial do fenômeno. O alcance é a medida que permite concluir quão similar estão os
dados a uma distância vetorial. O patamar representa a variabilidade máxima alcançada pelo
variograma, que é análoga a variância à priori dos dados. O efeito pepita é uma medida de
dissimilaridade entre valores espaçados de uma distância nula.

O resultado do efeito pepita é uma característica dos erros de amostragem e das


heterogeneidades naturais do material. Naturalmente ao realizarmos medidas de teor de um depósito
na ordem de grandeza de uma amostra, definitivamente ela será incomparável em uma escala de
variabilidade de metros como é calculado o variograma. Consequentemente o efeito pepita possui
participação no erro de amostragem tomado em dimensões extremamente pequenas.

O variograma é uma medida dependente da escala de observação do fenômeno. Se pensarmos


em um depósito mineral, existem diferenças abruptas dentro de domínios geológicos diferentes. Se
reduzirmos a escala para a dimensão do corpo mineral, é possível notarmos diferenças entre estruturas
litológicas. Dentro da própria rocha haverá diferenças entre minerais diferentes e cada vez mais que
ocorrer a redução da dimensão considerada, mais eventualmente aparecerá algum tipo de
heterogeneidade.

Figure 4 - Relação da variografia e a escala considerada

Na verdade a homogeneidade é um parâmetro irreal. Não existe na natureza nenhum fenômeno


completamente homogêneo, apenas se considerarmos a escala adequada para ele. A determinação da
distância entre lags para modelamento de um variograma deve considerar a escala de trabalho utilizada.
Para um depósito mineral com uma escala entre as amostras de 100 em 100 metros, considerar uma
distância de lags em centímetros é uma questão impalpável.

Quando realizamos o cálculo dos valores de variograma, de forma vetorial, somente é possível
caracterizar a dissimilaridade entre os dados se considerarmos uma malha regular. Na verdade, para fins
práticos, é necessário atribuir um relaxamento na captura dos dados para que possa ser caracterizado o
fenômeno, utilizando de um variograma experimental com diferenças em suas dimensões.
Uma figura representativa do variograma experimental está demonstrada abaixo. Ao estipular
valores de tolerância para o vetor considerado, o campo de procura já não é mais um segmento de reta,
mas um cone ou cilindro dependendo do tamanho do lag considerado.

A utilização de uma tolerância angular é importante, pois para regiões de maior proximidade,
diferenças pequenas de posição podem produzir variações angulares grandes. Ao estipular que nas
zonas de procura mais próximas os pontos são mais confidentes com a direção do variograma, o
comportamento do fenômeno é mais bem reproduzido.

Na verdade o modelamento do variograma nos comprimentos mais curtos é uma das


características que mais afetam os processos de krigagem subsequentes. A figura abaixo demonstra o
comportamento para lags pequenos. Existe a condição de que as funções modeladas do variograma
apresentem comportamento sempre crescente e que sejam positivas, não há permissividade de ajustes
variográficos acima da segunda ordem.

AJUSTE DE MODELOS DE VARIOGRAMA

O ajuste de modelos variográficos é uma forma de desprender a dependência da similaridade


com os valores in situ e criar uma função que ajuste a similaridade apenas pelo vetor associado ao
espaço. O modelo é uma representação média da covariância entre os dados, ajustado a partir de
valores médios de relações entre teor. Dessa forma a suavização da continuidade espacial pela utilização
do ajuste é dupla, o que torna o variograma uma função extremamente sensível às variações de valores
extremos. Cada par apresentado no gráfico é uma estimativa realizada a partir de um número grande de
amostras, por isso quando um ponto apresentado possui uma quantidade de dados pequena, ajustes
devem ser realizados no variograma experimental para que possam ser incorporados mais dados.

Figure 5 - Variograma como uma função de valores médios no espaço 2

MODELOS DE VARIOGRAMA
MODELO ESFÉRICO
O modelo esférico também é chamado de “ forma ideal” por Matherow é representado pela
equação abaixo:

γ ( h )=
{(
C
3 h 1 h3

2 a 2 a3 )tal que h ≤ a

C tal que h> a


}

2 [ CITATION Emm00 \l 1046 ]


(Goovaerts, 1988) demonstra que o variograma esférico está relacionado com o próprio
padrão de uma esfera. Isso significa que um modelo omnidirecional associado garantiria a melhor
representação em todas as direções possíveis.

MODELO EXPONENCIAL
O modelo exponencial tem um crescimento mais lento na proximidade da origem, mas possuí
uma assíntota no que se refere ao patamar. O modelo exponencial pode ser representado pela equação
abaixo:

(
γ ( h )=C 1−exp ⁡ ( ha ))
Algum cuidado deve ser levado em consideração com os softwares de geoestatística quando
relacionado ao range do variograma exponencial. Em alguns casos considera-se que o valor do range é o
que alcança 95% do patamar, isto porque na verdade o modelo possui alcance infinto. A função
exponencial é assíntota e não alcança nunca a variância à priori dos dados.

MODELO GAUSSIANO
O modelo gaussiano é relacionado com a seguinte fórmula:
(
γ ( h )=C 1−exp ( ))
−h 2
a
2

O modelo gaussiano atribui uma continuidade muito maior para os dados mais próximos, o
que no processo de krigagem acentua o efeito de screening, permitindo que dados vizinhos recebam um
peso muito maior do que dados mais afastados na mesma direção, sendo que esses pesos possam ser
negativos.

COMPORTAMENTO DOS MODELOS DE VARIOGRAMA PERTO DA ORIGEM


Os modelos de variograma apresentam características bem diferenciadas próximo à origem. O
modelamento das funções variograma deve se ater principalmente ao ajuste de pontos na região de
menor lag. O variograma esférico possui comportamento linear, que atribui um crescimento mais rápido
da dissimilaridade dos dados. O variograma gaussiano, no entanto, apresenta crescimento lento e
caracteriza-se no modelo de maior continuidade espacial.

EFEITO DE ANISOTROPIA
O modelo de variograma é respectivo a uma dada direção no espaço. No entanto, nada
garante, sem verificação, que o mesmo modelo de variograma representa todas as direções espaciais.
Quando um modelo de variograma é equivalente em todas as direções ele é chamado de
omnidirecional.

A anisotropia é uma característica definida pelo modo de formação do depósito. Em um corpo


geológico de origem sedimentar lacustre, tal como um carvão, nota-se que naturalmente que a direção
perpendicular à direção da camada possui variações maiores que na regularidade do plano de
deposição. Essa diferença de comportamento produzido pela gênese de formação criará um modelo com
diferenças de propriedade direcionais nas variáveis aleatórias.

Duas formas são naturalmente encontradas como modelos de anisotropia em depósitos


naturais. Associação entre os dois modelos é possível dependendo da complexidade do fenômeno
estudado. O primeiro modelo é também chamado de geométrico, em que diferentes direções possuem
alcances diferentes, mas mesmo domínio estacionário, alcançando juntamente o mesmo valor de
variância à priori dos dados. O segundo modelo é também chamado de regional e constitui em alcances
iguais, mas variância dos dados diferenciada.

Figure 6 - Modelo de anisotropia geométrica

O modelo de anisotropia zonal deve ser tratado com cuidado. Se de alguma forma em direções
diferentes não se alcança a variabilidade dos dados, por algum motivo pode ser que domínios
estacionários diferentes possam estar sendo tratados como um mesmo domínio. Dessa forma para a
utilização de metodologias de krigagem é melhor segregar regiões de mesmo comportamento e modelá-
las diferentemente.

Figure 7 - Modelo de anisotropia zonal

Todos os modelos de anisotropia podem ser transformados em modelos omnidirecionais a partir


de transformações dos eixos coordenados, seja pela rotação ou pelo redimensionamento dos mesmos.
KRIGAGEM

O processo de krigagem utiliza do modelo de continuidade espacial para atribuir pesos a um


ponto a ser estimado a partir de valores proximais.

O objetivo da krigagem é encontrar os ponderadores das amostras que reduzem ao máximo o erro de
estimação do valor médio do bloco. Para isso se minimiza a variância do erro segundo as equações
abaixo:

n 2

(
σ ε =E Z u−∑ λ i Z i
2

i=1
)
n n n
2
(
σ ε =E Z u −2 Z u ∑ λi Z i + ∑ ∑ λ i λ j Z i Z j
2

i=1 j=1 i=1


)
n n n
σ 2 ε =E ( Zu2 ) −2 ∑ λi E ( Z i Z u ) + ∑ ∑ λi λ j E ( Zi Z j )
i=1 j=1 i =1

n n n n
σ 2 ε =( E ( Z u2 ) −m 2)−2 ∑ λ i ( E ( Z i Z u )−m2 )+ ∑ ∑ λi λ j ( E ( Zi Z j )−m 2 ) ← m=const . , ∑ λ i=1
i=1 j =1 i=1 i=1

n n n n
σ 2 ε =Cov(Z u , Z u)−2 ∑ λi Cov ( Zu , Z i )+ ∑ ∑ λi λ j Cov ( Z i , Z j ) ← m=const . , ∑ λ i=1
i=1 j =1 i=1 i=1
A variância do erro é então encontrada pela minimização de cada ponderador, pela utilização de uma
derivada parcial para cada variável.

( ))
n n
δ σ2 ε
=
δ
δ λ1 δ λ 1 j=2
(
−2 λ1 Cov(Z u , Z 1)+ λ1 ∑ λ j Cov ( Z 1 , Z j ) + λ 1 ∑ λ i Cov ( Z i , Z 1) + λ1 λ1 Cov ( Z 1 , Z 1 )
i=2

n n
δ σ2 ε
δ λ1
=−2 Cov( Z u , Z 1)+ ( ∑ λ j Cov ( Z 1 , Z j ) +∑ λ i Cov ( Z i , Z 1) + 2. λ 1 Cov ( Z 1 , Z 1)
j=2 i=2
)
n n
δ σ2 ε
δ λ1
=−2 Cov(Z u , Z 1)+ ( ∑ λ j Cov ( Z 1 , Z j ) +∑ λ i Cov ( Z i , Z 1)
j=1 i=1
)
Como Cov ( Z1 , Z j )=Cov ( Z i , Z 1)

n
δ σ2 ε
δ λ1
=−2 Cov ( Z u , Z 1 ) +2 (∑
j=1
)
λ j Cov ( Z 1 , Z j ) =0

n
Cov ( Zu , Z 1 ) =
( ∑ λ j Cov ( Z 1 , Z j )
j=1
)
n n n

i=1
(
∑ Cov ( Z u , Z i )= ∑ ∑ λ j Cov ( Z n , Z j )
i=1 j=1
) ∀ i≤ n

O resultado gerado se transforma em um sistema de equações lineares em que a estimativa de cada ponto
é dada pelos ponderadores otimizados.

[ ] [ ][ ]
Cov ( Z u , Z 1 ) λ1 Cov ( Z1 , Z 1 ) … Cov ( Z 1 , Z n )
… =… … … …
Cov ( Z u , Z n ) λn Cov ( Z n , Z 1 ) … Cov ( Z n , Z n )

As matrizes obtidas no sistema de krigagem geram dois propósitos que são a essência do
método.

[ ] [ ][ ]
Cov ( Z u , Z 1 ) λ1 Cov ( Z1 , Z 1 ) … Cov ( Z 1 , Z n )
… = … … … …
Cov ( Z u , Z n )
D = Matriz de distâncias correlacionadas
λ n Cov ( Z n , Z 1 ) … Cov ( Z n , Z n )Matriz de declusterização
É formada uma matriz que correlaciona os pesos com a distância vetorial dos pontos, chamada
de matriz de distâncias e uma segunda matriz, chamada de declusterização, em que os pontos que se
encontram aglomerados ganham menores pesos com a proximidade entre si.

Para que a matriz de krigagem seja fiel ao processo de estimação espacial, é necessário
acrescentar a condição de que a soma dos pesos seja igual a 1. Essa é uma condição de não viés, tal que:

n
E ( Z¿ u )=E (∑ )
i=1
λi Z i

Z
λ i E (¿¿ i)
n

∑¿
i=1
E ( Z¿ u )=¿

n n
μ=
( i=1
)
∑ λ i μ ↔ ∑ λ i=1
i=1

Para isso no sistema de krigagem é adicionado um operador langragiano que determina a


condição de que a soma dos valores seja igual a 1.

n n n n
σ 2 ε =Cov(Z u , Z u)−2 ∑ λi Cov (Zu , Z i )+ ∑ ∑ λi λ j Cov ( Z i , Z j ) −μ
i=1 j =1 i=1
(∑ )
i=1
λi−1

Na verdade o processo de krigagem determina que a soma dos pesos deva totalizar uma
unidade, mas não coloca condições de que os valores dos ponderadores tenham que ser positivos. A
este efeito denomina-se screen effect, e ocorre por amostras que se encontram na mesma direção de
procura, mas com diferenças de distância.

Figure 8 - Amostras blindadas (screen effect)


A krigagem tem uma importante função geométrica na estipulação dos pesos nos teores. Valores
que se encontram mais próximos do ponto de estimação tem um peso atribuído maior. Valores que se
encontram mais longe tendem a receber um peso menor.

Além disso, quanto mais amostras redundantes estiverem em uma mesma direção,
menor será o peso atribuído a elas.

VALIDAÇÃO DOS DADOS

O processo de validação é necessário após a aplicação do modelo de krigagem, de forma a


certificar se existe aderência com a realidade e com os dados. A primeira verificação a ser feita é
certificar se a média dos valores krigados é semelhante à média dos dados. Eventualmente como a
krigagem é uma metodologia de suavização, a variabilidade dos dados krigados tende a ser
relativamente menor que a variabilidade dos valores amostrados, mas a condição da aderência da média
é essencial para um não viés do processo.

Outra metodologia utilizada é a validação cruzada. O processo consiste em retirar uma amostra
do local e estimá-la a partir da krigagem. Se os valores corresponderem adequadamente, então a
validação é pelo menos uma boa indicação de que o modelo variográfico e as premissas utilizadas se
adéquam ao modelo.

É de se esperar que as diferenças entre os valores retroavaliados seja a mínima possível, e sem
um viés sistemático, demonstrando um erro com média próxima de zero e variância pequena.
METODOLOGIA

CARACTERIZAÇÃO DO DEPÓSITO DE WALKER LAKE

Os dados utilizados para a formatação do trabalho considerado advêm do depósito de Walker


Lake em Nevada, nos Estados Unidos, a que se atribuiu características importantes na economia pela
produção de uma série de recursos metálicos tais como ouro, prata, lítio mercúrio além de ser recurso
para a produção energética geotermal e gipsita. Os metais estão associados primeiramente às rochas
ígneas pela pulsão de magma durante o Jurássico, Cretácio e Terciário. A barita é, no entanto, está
associada às rochas sedimentares do paleozoico e a gipsita associada às rochas sedimentares do
Permiano, Triássico, Jurárissico e no período terciário. A energia geotermal é retirada a partir de falhas
encontradas em rochas Quaternárias. Abaixo se situa o mapa de localização do depósito segundo
coordenadas geográficas (119o-120o)N, (118,119o)L

Depósito de Walker Lake

Nevada, EUA

Figure 9 - Mapa geográfico do distrito de Nevada3

Em [ CITATION Mar88 \l 1046 ] relata-se que o depósito é característico de ambiente evaporítico


remanescente do sistema fluvial do lago Lathotan, formado até a época do Pleistoceno do período
quaternário da era Cenozóica. O corpo mineral está situado na proximidade da Serra das montanhas de

3 http://www.nbmg.unr.edu/GeneralGeology/docs/GeologyOfNevadaArticle.pdf
Nevada. O processo genético do depósito foi influenciado por mudanças abruptas na profundidade do
fundo do lago, volume e mudança da composição química e variações de fluxo de entrada e saída do
lago. A superfície do lago apresenta em torno de 15,000 hectares, com um volume de aproximadamente
3.5 bilhões dee metros cúbicos e uma profundidade máxima de 33m. A diferença característica das
dimensões planares em contrapartida da profundidade do lago demonstram que o tratamento dos
dados estatísticos pode ser realizado em uma análise bidimensional. O depósito tem características de
21 vezes a alcalinidade da água do mar apresentando uma concentração extensiva de íons sódio,
potássio, magnésio e cálcio. Quanto a classificação estratigráfica do depósito podemos ordená-lo como:

1) Embasamento de rochas graníticas do domínio geológico de Wassuk Range


2) Acamamento sedimentar lacustre e litoral posteriormente sobrepostos por sedimentos de
matacos
3) Leques aluviais do Holoceno médio
4) Leques aluviais ativos

Figure 10 - Foto retirada do depósito de walker Lake 4

O gráfico abaixo demonstra a evolução da extração de bens minerais no depósito, o que


demonstra a importância do distrito como um depósito polimetálico e energético:

4 http://www.walkerlakenv.org/articles%201.htm
Relatos demonstram que o depósito de Walker Lake foi sondados pela USGS e esperado
econtrar uma quantidade de sedimentos grande de sedimentos, mas apenas poucos foram encontrados,
demonstrando períodos de seca descorrelacionados com o clima local. No começo dos anos de 1870,
uma quantidade pequena de prata e ouro foi retirada de veios de granito associados ao depósito. A mina
mais importante foi Big Indian Mine. Em 1920 foi encontrado ouro em Cat Crrek associado a zonas de
falha onde foram disseminadas piritas e calcopiritas.

ESTATÍSTICA UNIVARIADA DOS DADOS

1) Plotagem da localização das amostras

Os dados apresentados no exercício correspondem ao depósito de Walker Lake que possui como
recurso metálico, minerais associados ao ouro e ao cobre. Foram realizadas 470 amostragens que se
encontra clusterizadas nas regiões que de maior conteúdo metálico, resultando em uma malha irregular.
A foto abaixo demonstra um mapa bidimensional da área com a disposição geométrica da retirada dos
testemunhos.
Figure 11 -Mapa Cobre Figure 12 - Mapa Ouro

2 ) Plotagem dos High Grades e Low Grades

Realizou-se o histograma acumulado dos valores extremos para as duas variáveis consideradas:

Por análise gráfica dos percentis podemos verificar que os valores extremos das duas variáveis
são:

Valores extremos das distribuições de conteúdo metálico


P10 - Cobre 0,5 ppm
P90 - Cobre 8 ppm
P10 - Ouro 0 ppm
P90 - Ouro 1,5ppm
Os mapas das regiões de maior frequência dos dados estão representados abaixo:

Os mapas de menor frequência dos dados estão demonstrados abaixo:

Verifica-se por uma visualização dos mapas que os teores de maior valor se encontram no flanco
oeste em direção aproximadamente norte- sul. Parece haver correspondência entre os valores de ouro e
de cobre. São encontradas amostras com conteúdo metálico de ouro igual a zero e, portanto, as
amostras nestes locais devem ser certificadas quanto o valor mensurado, pois os padrões de similaridade
espacial indicam correspondência dos elementos sob um mesmo controle geológico.

2) Estatística univariada dos teores de cobre e ouro

A estatística univariada utilizada neste momento não possui sentido físico, mas apenas
comparativo, pois a distribuição de amostras está clusterizada, o que não permite uma atribuição de
pesos correta pelo domínio espacial.
Estatística univariada do Cobre Estatística univariada do Ouro
Média 4.352987 Média 0.604081
Erro padrão 0.138325 Erro padrão 0.046276
Mediana 4.24 Mediana 0.3193
Moda 0 Moda 0
Desvio padrão 2.998823 Desvio padrão 0.767406
Variância da Variância da
amostra 8.992939 amostra 0.588911
Curtose -0.11765 Curtose 7.101364
Assimetria 0.46064 Assimetria 2.29561
Intervalo 15.281 Intervalo 5.1901
Mínimo 0 Mínimo 0
Máximo 15.281 Máximo 5.1901
Soma 2045.904 Soma 166.1223
Contagem 470 Contagem 275

Existe uma discrepância grande em relação ao número de amostras contadas de ouro e


cobre, o que demonstra um caráter claro de heterotopia. Caso seja realizada análise multivariada dos
dados haverá necessidade de incorporação dos dados faltantes por meio de ferramentas estatísticas, ou
na divisão de domínios para análise, já que nos corpos orientados para norte-sul, que se encontram no
flanco leste e oeste, as amostragens de ouro são sistemáticas.

A distribuição de dados de cobre apresenta assimetria positiva, o que não parece ser
uma realidade de corpos metalogenéticos de baixo conteúdo metálico. Atribui-se essa inconformidade
aos dados alocados com viés espacial, e por isso é necessário utilizar de técnicas de declusterização para
certificar dos parâmetros dos dados.

Calculou-se o coeficiente de variação das duas amostras de forma a verificar a ordem de


grandeza de suas diferenças.
σ (Cu) 2.998
CV = = =0.689=68,89
m( Cu) 4.353

σ ( Au) 0.767
CV = = =1.270=127,03
m( Au) 0.604

Apesar do valor residual médio pequeno apresentado pelo ouro, a variação grande
apresentada pelo elemento torna-o mais errático que o cobre. Ao verificarmos em mapa a distribuição
das variáveis, a impressão deixada pela variação pequena esquematizada pela forma gráfica na verdade
não condiz com a ordem de grandeza das unidades tomadas.

ESTATÍSTICA DECLUSTERIZADA DOS DADOS

Realizaram-se duas metodologias de declusterização para a análise dos dados. A primeira


utilizando polígonos de influência, que determinou as áreas que caracterizam os ponderadores entre as
amostras. Para o cobre onde houveram medidas sistematizadas por todo o domínio, e por isso a
declusterização por polígonos de influência é adequada.
ESTATÍSTICA COBRE
DECLUSTERIZADA
média 2.69327
variância 5.76629
máximo 15.281
quartil superior 4.246
mediana 2.096
quartil inferior 0.622
mínimo 0

Podemos notar que após a declusterização a diferença entre a mediana e a média


cresceu e a apresentou-se uma assimetria positiva mais característica dos dados de baixo teor do cobre.

A apresentação da declusterização por polígonos de Thyssen do ouro está demonstrada


abaixo. Como os dados não estão sistematicamente amostrados como no caso do cobre, a atribuição das
áreas de influência são desfavorecidas por uma irregularidade geométrica.

ESTATÍSTICA OURO DECLUSTERIZADA


média 0.345893
variância 0.248131
máximo 5.1901
quartil superior 0.4209
mediana 0.1751
quartil inferior 0.034
mínimo 0

A estatística declusterizada do ouro demonstrou uma redução da variabilidade e da


média dos dados significativa, o que reduziu em torno de 50%. Pelos dados se demonstrarem
heterotópicos a estatística declusterizada não possui sentido físico neste caso, pois o espaçamento das
amostras não permite atribuição de pesos por todo o domínio. Opta-se por considerar a análise apenas
dentro do corpo geológico amostrado utilizando a estatística dos dados originais que reproduzirá melhor
as propriedades da variável.

O outro modelo utilizado para declusterizar as amostras foi a metodologia de células


móveis. Foi utilizada uma variação de 22 células de tamanho 5x5 até o tamanho 100x100

O valor das estatísticas retornadas pelo conjunto de interações está demonstrado abaixo. As células que
retornaram o menor valor de média foram as que geraram a dimensão de 14.5 x 14.5
ESTATÍSTICA DECLUSTERIZADA COBRE
MÉDIA CÉLULAS MÓVEIS 2.96731
VARIÂNCIA 6.62678
MÍNIMO 0
MÁXIMO 15.281
SOMA 2045.9
ASSIMETRIA 0.955917
CURTOSIS 0.868289

Quanto ao melhor processo de descluterização para o caso do cobre o valor retornado para o
coeficiente de variação dos polígonos de Thyssen foi 0.867 em contrapartida do coeficiente de variação
pelas células móveis de 0.891. Opta-se, portanto, utilizar a estatística determinada pela área de
influência.
ESTATÍSTICA BIVARIADA DOS DADOS

Para a análise bivariada dos dados de ouro e cobre, as amostras que não apresentavam valores
conjuntamente foram excluídas, logo os procedimentos somente tem influência na região dos corpos
mineralizados. O gráfico de Q-Q plot apresenta um comportamento dos dados bilinear, o que mostra que
os histogramas dos elementos metálicos são diferentes, o que sugere controles de formação geológica
diferenciados.

Quanto à relação entre as variáveis notamos que a regressão linear é pobre para o conjunto de
dados contidos no corpo mineral. Valores outliers fora do nível de aceitação de 90% das amostras indica
haver formas diferenciadas de controle geológico em regiões diferenciadas. O coeficiente de
determinação é de 0.27.
Para a análise subsequente dos dados, os valores que se encontraram no limite superior do nível
de aceitação foram separados no banco de dados dividindo em dois domínios de correlação entre as
variáveis. Pelo mapa esquemático abaixo parece haver uma região no interior do corpo geológico do
flanco oeste em que as variações de teor de cobre e ouro variam diferentemente do restante do corpo.
Em algumas partes dos corpos menores do flanco leste também parece haver uma discordância entre a
correlação das variáveis. Questiona-se o fato de que poderia haver uma estrutura geológica que
controlasse a formação do corpo na direção norte – sul e propõe-se analisar um mapa estrutural para a
certificação dos resultados.
O valor de regressão para os dados da região de maior correspondência dos valores está
modelada abaixo:

CONTINUIDADE ESPACIAL DOS DADOS

VARIOGRAMA EXPERIMENTAL DO COBRE

Optou-se pelo modelamento da continuidade espacial pelo uso da função variograma. Os dados
de entrada para o cálculo do variograma experimental do cobre estão demonstrados abaixo. A busca foi
preferenciada nas direções de aparente maior e menor continuidade, principalmente a N-S e L-O. O
espaçamento dos lags foi observado no mapa como aproximadamente aquele com maior frequência das
distâncias entre as amostras.

NÚMERO DE VARIOGRAMAS CALCULADOS 8


LAG 10
TOLERÂNCIA ANGULAR 11.5
TOLERÂNCIA LINEAR 5
BANDA 5
AZIMUTE INICIAL 0
AZIMUTE FINAL 167.5
DIFERENÇA ANGULAR 22.5
NÚMERO DE VALORES APRESENTADOS 100
VARIOGRAMA MODELADO DO COBRE

As direções de maior e menor continuidade espacial foram determinadas no modelo, tal que o
valor do maior range encontrado foi de 67m, enquanto o de menor continuidade foi 30m na direção
perpendicular à de 167.5o. A continuidade espacial parece ter demonstrado uma similaridade com o
controle geológico da falha demonstrada

γ (h) =2.5+9.0 Sph ( h67 + h30 )


167.5 77.5

A região de maior correlação espacial do cobre apresentou-se, no entanto, na direção de


menor correspondência com os valores de teor de ouro. A possível estrutura geradora do depósito criou
uma situação de preferência de um elemento metálico em contrapartida de outro.
KRIGAGEM ORDINÁRIA DOS DADOS

Foi realizada a krigagem ordinária do cobre optando por uma estratégia de busca que
correspondesse às direções de máxima e mínima continuidade dos dados. A melhor forma de se evitar
ponderadores negativos foi utilizando uma divisão por octantes e reduzindo os eixos de procura o
suficiente para incorporar apenas dados dentro do domínio de influência da continuidade espacial.

VARIÁVEIS VALORES
MÍNIMO DE DADOS 1
MÁXIMO DE DADOS 10
OCTANTES
MÍN OCT. VAZIOS 3
MÍN DE DADOS POR OCTANTE 1
MÁX DE DADOS POR OCTANTE 1
RANGE MÁXIMO 60
RANGE MÍNIMO 20
ROTAÇÃO EM Z 160

O valor do suporte utilizado para a avaliação foi de 10x10. O mapa gerado pela krigagem
está demonstrado abaixo juntamente com o mapa de valores de soma dos ponderadores:

MAPA VALORES KRIGADOS DEPÓSITO WALKER LAKE


h167.5 h77.5
CONTINUIDADE ESPACIAL γ (h) =2.5+9.0 Sph ( 67
+
30 ) VARIÁVEL KRIGADA

TEOR DE COBRE g/t

TÍTULO: MAPA VALORES KRIGADO DO DEPÓSITO DE WALKER LAKE

DATA DE PUBLICAÇÃO: 31/03/2015

LOCALIZAÇÃO: NEVADA, EUA

RESPONSÁVEL: DAVID ALVARENGA DRUMOND

MAPA VALORES KRIGADOS DEPÓSITO WALKER LAKE


PERCENTUAL DA SOMA DE PESOS IGUAL A : 75%

REGIÕES ENTRE OS CORPOS DE MINÉRIO COM MÁ ESTIMAÇÃO DOS VALORES, NECESSIDADE


DE TRUNCAMENTO DE REGIÕES COM VALOR NEGATIVO DO TEOR

TÍTULO: MAPA VALORES KRIGADO DO DEPÓSITO DE WALKER LAKE

DATA DE PUBLICAÇÃO: 31/03/2015

LOCALIZAÇÃO: NEVADA, EUA

RESPONSÁVEL: DAVID ALVARENGA DRUMOND


Os resultados da krigagem ordinária podem ser exemplificados pelo histograma abaixo. Nota-se que
ESTATÍSTICA VALOR
MÉDIA 2.9202
VARIÂNCIA 4.5107
MÁXIMO 13.4851
MÍNIMO 0.0000
MEDIANA 2.5953

A relação do erro relativo dos dados desclusterizados e da krigagem foi de:

Erro relativo = (2.9202-2.69327)/ 2.9202 = 7.77%

Foi realizada a validação cruzada dos dados obtendo uma média de 0.043 do erro.

Você também pode gostar