Você está na página 1de 65

FUNDAMENTOS DE SENSORIAMENTO REMOTO

EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

SUMÁRIO

1- INTRODUÇÃO .............................................................................................................................................. 16
1.1- Sensoriamento Remoto............................................................................................................................ 16
1.2- ........................................................................................................................ Fotogrametria
.......................................................................................................................................................................... 17
2- PRINCÍPIOS................................................................................................................................................... 19
2.1- Espectro Eletromagnético ...................................................................................................................... 19
2.3- Comportamento Espectral...................................................................................................................... 22
3- SENSORES ..................................................................................................................................................... 24
3.1- Tipos.......................................................................................................................................................... 24
3.2- Características das imagens.................................................................................................................... 27
3.3- Resoluções ................................................................................................................................................ 28
3.3- Formato .................................................................................................................................................... 30
4- SISTEMAS SENSORES ................................................................................................................................ 30
4.1- Sistema Imagens LANDSAT ................................................................................................................. 30
4.2- Sistema SPOT .......................................................................................................................................... 32
4.3- IKONOS ................................................................................................................................................... 33
4.4- Quickbird ................................................................................................................................................. 34
4.5 Outros sistemas ......................................................................................................................................... 36
4.6- Imagem de Radar .................................................................................................................................... 37
4.7- Principais Sensores Radar ...................................................................................................................... 39
4.8- Laser Scanner .......................................................................................................................................... 40
5- PRINCIPIOS DE PROCESSAMENTO DIGITAL DE IMAGEM NO CONTEXTO SIG..................... 43
5.1- Generalidades........................................................................................................................................... 43
5.2- Noções de Processamento........................................................................................................................ 44
5.3- Etapas do Processamento........................................................................................................................ 44
5.4- Processamento.......................................................................................................................................... 45
5.4.1- Realce ................................................................................................................................................. 45
5.4.2- Filtragem............................................................................................................................................. 48
5.4.3- Composição Colorida ......................................................................................................................... 52
5.4.4- Correção Geométrica .......................................................................................................................... 53
6- CLASSIFICAÇÃO ......................................................................................................................................... 60
6.1- Interpretação de imagem ........................................................................................................................ 60
6.1.1- Tonalidade e cor ................................................................................................................................. 61
6.1.2- Forma.................................................................................................................................................. 61
6.1.3- Padrão ................................................................................................................................................. 62
6.1.4- Textura................................................................................................................................................ 63
6.1.5- Associação (ou convergência de evidências)...................................................................................... 63
6.1.6- Sombra............................................................................................................................................... 63
6.1.5- Chave da interpretação de imagem..................................................................................................... 64
6.2- Classificação Digital ................................................................................................................................ 66
6.2.1- Classificação Supervisionada ............................................................................................................. 66
6.2.2- Classificação baseada em objetos: segmentação ................................................................................ 73
6.2.3- Acurácia.............................................................................................................................................. 74
6.2.4- Qualidade da Imagem Temática ......................................................................................................... 75
7- SENSORIAMENTO REMOTO E SIG ........................................................................................................ 77
8- BIBLIOGRAFIA ............................................................................................................................................ 77

14
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Apresentação

Este material didático visa única e exclusivamente atender a disciplina de Sensoriamento

Remoto em ambiente de Geoprocessamento referente ao Curso de Especialização em

Geoprocessamento. O conteúdo está de acordo com a ementa da disciplina. Aqueles que

necessitarem de um maior aprofundamento em um dos tópicos descritos recomenda-se

consultar a bibliografia citada. Roga-se aos alunos que apontem falhas e façam sugestões a

fim de melhorar as próximas edições.

15
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

1- INTRODUÇÃO

1.1- Sensoriamento Remoto

Pode-se definir sensoriamento remoto ou teledetecção como a ciência que tem por
objetivo a captação de imagens da superfície terrestre. Segundo BARRETT & CURTIS
(1992) “é a ciência de observação à distância”. Isto contrasta com o sensoriamento in situ,
onde os objetos são medidos e observados no local onde ocorrem. Em outras palavras, o
sensoriamento remoto está relacionado à ausência de contacto físico entre o sensor (câmara
fotográfica, satélite) e o alvo (objeto). Desta forma, o sensoriamento remoto também pode
incluir o estudo das técnicas de aerofogrametria e fotointerpretação, uma vez que fotografias
aéreas são remotamente captadas. Contudo, o termo se refere a captação, processamento e
representação de imagens orbitais. As imagens de sensoriamento remoto disponíveis
atualmente, são a forma mais rápida de se obter informações espaciais em formato digital,
permitindo que estas fontes sejam combinadas a outras informações, de forma a constituir um
banco de dados geográfico sobre o espaço em questão. O processamento dessas
informações,espacialmente referenciadas em meio digital é a base dos sistemas de informação
geográfica. Dentro das geotecnologias hoje disponíveis (sistemas de posicionamento global,
aerofotogrametria digital) o sensoriamento remoto desponta como tecnologia imprescindível
em aplicações geoambientais.

Resumindo, o sensoriamento pode ser definido segundo alguns autores da seguinte forma:

• É a aquisição de informações sobre um objeto sem entrar em contato físico com ele
(Hutton).
• Sensoriamento Remoto: é a ciência e a arte de obter informações sobre um objeto, área ou
fenômenos através da análise de dados adquiridos sem entrar em contato enquanto estão sob
investigação (Lillesand & Kiefer).
• Sensoriamento remoto é a coleção de informações sobre os recursos naturais e meio
ambiente usando imagens adquiridas por sensores a bordo de avião ou satélites (Ryerson).
• Sensoriamento remoto é um termo restrito a métodos que aplicam a energia eletromagnética
como meio para a detecção e mensuração das características dos objetos (Sabins).

As imagens provenientes do sensoriamento remoto podem ser processadas


digitalmente por modernos softwares em potentes hardwares, a fim de se obter da imagem o
maior número de informações possíveis. JENSEN (1986) denomina o processamento digital
de imagens como “conjunto de procedimentos relativos à manipulação e análise de imagens
por meio do computador”. A Figura 1 mostra o processo de captação das imagens através de
sensores a bordo dos satélites.
O tratamento digital de imagens difere, muitas vezes, dos procedimentos de
restituição de fotografias aéreas afetas ao campo aerofotogrametria, visto que a geometria da
fotografia aérea difere da geometria da imagem.

16
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 1: Captação da Imagem

Em geral uma imagem é um registro da energia solar refletida pelos objetos ou


feições da superfície física da terra e captada pelo sensor a bordo de um satélite.

As aplicações do sensoriamento remoto nas décadas de 70 e 80 estavam ligadas ao


mapeamento ambiental em escalas médias e pequenas (1:50.000 a 1.000.000). A partir de
1997, esta realidade começou a mudar com entrada da órbita de novos satélites de melhor
resolução, havendo um aumento do campo de aplicação. Assim sendo, as imagens orbitais
passaram a servir de base para mapeamento em grandes e médias escalas (1:5.000 à
1:25.000). Em 1999 as imagens passaram a reproduzir um maior nível de detalhes ampliando
ainda mais as aplicações desta geotecnologia. Num futuro próximo as imagens apresentarão
um nível de detalhamento similar a fotografia aérea, o que permitirá que o sensoriamento
remoto atinja um maior número de usuários, e conseqüentemente diminuição de custos.

1.2- Fotogrametria

A fotogrametria segundo alguns autores pode ser definida como: A ciência, a arte e a
tecnologia de se obter medidas confiáveis, mapas, modelos de elevação digital e outros
produtos a partir de fotografias”. A fotografia aérea tem sido usada desde os primórdios do
Século XX como provedor de dados espaciais em uma grande gama de aplicações. A maioria
das bases cartográficas são provenientes desta geotecnologia e difere geometricamente das
imagens captadas por satélite. A Figura 2 mostra a câmara aérea dentro da aeronave que
realiza a cobertura do fotográfica do terreno. A câmera fotogramétrica tem por finalidade
prover imagens fotográficas com estabilidade geométrica a fim de serem utilizadas
cartograficamente. As fotografias devem ser verticais e possuem uma escala variável de
acordo com a altura de vôo e o relevo do terreno.

17
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 2: Câmara aérea 1 (Adaptado, WOLF, 1981)

23cm
Distância Focal
( c ou f )

Sistema
de lentes

Feixe óptico Centro Perspectivo


terreno
(CP)

A escala de uma fotografia aérea é dada por pela distância focal da câmara e a altitude de
vôo- altura da aeronave em relação ao terreno. A figura 3 apresenta a determinação da escala
de uma fotografia aérea.
Figura 3: Escala de uma fotografia (Adaptado, Wolf, 1981)

23 cm
Plano do negativo
p d
c c= constante
Espaço Imagem

Centro
Escala da Fotografia
Perspectivo

H
Espaço Objeto

P
D Terreno

Como já foi citada a imagem de satélite e fotografias aéreas possuem diferenças na forma de
captação de maneira de os métodos de tratamento são também diversos, bem como de certa
maneira as aplicações. A Tabela 1 mostra as principais diferenças entre uma imagem e uma

18
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

fotografia aérea. A restituição fotogramétrica é ainda a maneira mais exata de se extrair


informações cartográficas em grandes escalas(Ex:.1: 1.000 a 1: 5.000).

Tabela 1: Características das imagens


Características de Aplicações
Captação
FOTOGRAFIA • Projeção central; • Mapeamento em
• Imagem em quadro; grandes escalas (1:
• Posição vertical; 1.000 à 1: 50.000)

• Varredura ou • Mapeamento de
IMAGEM ( S. Remoto) escanerização; escalas a partir de 1:
10.000

2- PRINCÍPIOS

2.1- Espectro Eletromagnético

O sensoriamento remoto e a fotogrametria baseiam-se na aquisição de informações


armazenadas pelos sensores e câmaras , que captam a energia eletromagnética irradiada por
um objeto. A energia emitida ou refletida por objetos da superfície física da terra é
transmitida aos sensores em forma de ondas eletromagnéticas (figura 1). A informação
recebida pelo sensor pode ser codificada em termos de freqüência, intensidade e polarização
da onda. O conjunto de comprimentos de onda que compõem a radiação eletromagnética é
denominado espectro eletromagnético. Todas as ondas propagam-se a uma mesma
velocidade de 3 x 108 m/s, conhecida como a velocidade da luz. A fonte energética, sol,
origina as perturbações periódicas em forma de campos elétricos e magnéticos. O espectro
eletromagnético é dividido em regiões onde o componente comprimento de onda possui
características similares (Figura 4). O espectro eletromagnético se estende da região dos raios
gama(γ) às microondas.

Figura 4: Espectro eletromagnético ( Adaptado: Erdas, 2004)

19
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

µm

Azul Verde Verm .

Comprim ento de onda Vis ível µm


µm

Infra Term al M icroondas R adio/TV


γ Raio R aioX Ultra-Violeta Vermelho

Os instrumentos de sensoriamento remoto operam em todos os campos de energia


exceto nas regiões dos raios x e γ e ondas de rádio. A estreita faixa da região visível (0,4µm –
0,7µm) possui uma particular importância, não apenas por ser detectável ao olho humano,
mas também pela quantidade de energia disponível para detecção. Os sensores detectam e
armazenam a energia (fótons) em bandas ou faixas nas quais o sensor é sensível. O número de
fótons (intensidade de energia) que alcança o detector varia de acordo com a quantidade de
energia emitida pela fonte de iluminação(sol), com a quantidade de energia absorvida pela
atmosfera e pelo grau de energia emitida e refletida pelos objetos da superfície.
A luz visível ou luz branca é um conjunto de ondas com diferentes freqüências e
comprimentos de onda, que nosso cérebro traduz como cores. Portanto, cada cor corresponde
a uma determinada onda eletromagnética, com freqüência e comprimento de onda específico,
que se refere a uma pequena faixa do espectro (0,4µm – 0,7µm).

2.2- Janelas Atmosféricas

As porções do espectro eletromagnético apropriadas para captação pelos sensores


são bastante restritas devido à absorção da atmosfera. A atmosfera reduz a percentagem de
radiação solar transmitida a terra. No obstante existem zonas em que a absorção é baixa, ou
seja, alta percentagem de transmissão de energia solar. Estas regiões são denominadas janelas
atmosféricas. São nestas janelas que trabalham as maiorias dos sensores que captam a energia
refletida por objetos da superfície terrestre. Desta forma, apenas parte do espectro
eletromagnético é apropriada para a captação de imagens. A absorção de energia pela
atmosfera reduz a percentagem de energia transmitida do alvo até o sensor. Logo, somente as
zonas de baixa absorção (janelas) serão utilizadas na captação de energia.
O conhecimento da interação e dependência entre a janela espectral da atmosfera e a
energia utilizada pelo sensoriamento remoto é requisito pelos diversos métodos de
sensoriamento, iniciando pela construção de um sensor até a análise do comportamento
espectral e reconhecimento dos alvos. Neste caso devem ser considerados os seguintes
fatores:

1. sensibilidade espectral do sensor;

20
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

2. existência da janela atmosférica;


3. existência da fonte de energia, com intensidade de radiação e composição espectral;
4. conhecimento sobre as alterações da radiação recebida através do objeto analisado.

A Energia Incidente (I) sobre os alvos da superfície terrestre interage de formas


diferentes de acordo com as características de geometria e físico-químicas de cada um deles.
Esta interação é específica para cada alvo e pode ser mensurada através das seguintes
componentes (Figura 5):

• Energia Refletida – R
• Energia Absorvida – A
• Energia Transmitida – T

Figura 5: Interação da energia com o alvo : Folha (Adaptado: Lingnau, 2003)

As três porções de energia podem ser mensuradas pela seguinte equação:

I=R+A+T

onde cada componente é uma função do comprimento de onda. A igualdade é um balanço da


energia e explica de uma forma geral a reflexão, absorção e a transmissão.

Deve ser considerado que:

1. para cada objeto as proporções entre reflexão, absorção e a transmissão são diferentes, o
que possibilita que os objetos possam ser identificados ou diferenciados;
2. significa também que para um mesmo objeto as proporções entre reflexão, absorção e a
transmissão são diferentes em relação ao comprimento de onda, ou seja, um objeto pode ser
diferenciado do outro em um determinado comprimento de onda e em outro comprimento de
onda não.
Pode-se dizer que a energia emitida ou refletida por objetos da superfície da terra é
transmitida aos sensores em forma de ondas eletromagnéticas. Na natureza ocorre uma grande
variabilidade da energia refletida, sendo que o seu conhecimento é de grande importância no
reconhecimento e identificação dos alvos a partir de dados de sensores remotos. Assim sendo,

21
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

deve-se descrever e explicar o conceito das características da reflexão dos alvos, objetos ou
feições do terreno.

2.3- Comportamento Espectral

Os objetos da superfície terrestre refletem e absorvem seletivamente energia eletromagnética,


devido a sua diferente composição molecular. Esta característica, denominada resposta
espectral dos objetos permite identificá-los numa imagem de sensoriamento remoto. Esta
depende das diferenças na composição físico-química dos materiais que compõem os objetos,
e estes interagem de maneira diferente com as ondas eletromagnéticas.
Com base na complicada estrutura da geometria e da heterogeneidade, ou seja, da
composição variável da superfície natural, as características de reflectância não podem ser
explicadas através de uma simples teoria eletromagnética. A heterogeinidade se reflete no
grau de reflectância e seu comprimento de onda.
O gráfico que representa o comportamento espectral de determinado objeto dentro de
determinadas faixas espectrais (bandas) denomina-se assinatura espectral. Como exemplo,
na figura 6 observa-se a assinatura espectral para vegetação sadia, apresentando picos e
vales. A reflexão visível nas diferentes faixas espectrais é originada dos pigmentos das
plantas. A clorofila absorve energia nos comprimentos de onda de 0.45-0.67 µm. A reflexão
no infravermelho próximo é determinada pela estrutura celular da planta. No infravermelho
médio, a reflexão é devida ao conteúdo de água na planta. A reflexão espectral da planta varia
durante o seu ciclo de crescimento. A resposta espectral da cobertura vegetal depende de sua
profundidade, densidade, idade e diversidade.

A alta reflexão da vegetação ocorre na faixa de 0,7-1,3 µm (infravermelho próximo). Os


valores da reflexão da vegetação nessa faixa espectrais podem ser influenciados pela
refletância do solo.
Figura 6 – Reflexão das folhas, observando-se no plano do infravermelho (0.75-1.3 µm) a
baixa absorção da água (Fonte: Barret & Curtis 1992).

Reflexão da Folha
Absorção da Agua

100

80

% 60

40

20

0
0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0 2.2 2.4 2.6
Mm

µm

22
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Maior Reflexão conseqüentemente menor absorção. Percebe-se no gráfico da figura


4 que a absorção eletromagnética é inversamente proporcional a reflexão. No caso em
questão, existe alta reflexão da vegetação na faixa do infravermelho (0.76-1,4 µm). Muitas
feições ou objetos do terreno possuem boa resposta espectral na faixa do infravermelho tais
como: solos, relevo e sedimentação. Cada objeto terá diferentes respostas espectrais em
diferentes faixas do espectro, logo o usuário de estar ciente de que faixas escolher para
melhor mapear os objetos de interesse.

23
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Tabela 3: refletância dos alvos (Adaptado: INPE, 2003)


ÁGUA VEGETAÇÃO

SOLO COMPARAÇÃO DAS REFLETANCIAS

Solo

% Veg.

Água

Visível IV próximo IV médio

3- SENSORES

3.1- Tipos

Os sistemas sensores são equipamentos que estão a bordo das aeronaves ou satélites e sua
função é captar e registrar a energia eletromagnética proveniente dos objetos na superfície
terrestre. Sem eles não seria possível para o satélite obter imagens, ele estaria literalmente
“cego”.
Os sensores podem ser classificados em apenas duas classes:
• ATIVOS E
• PASSIVOS.
Os sensores passivos, tal como a fotografia, detecta e armazena energia solar ou
terrestre refletida ou emitida pelos objetos da superfície (Ex: imagens de satélite Landsat e
Spot). As imagens deste tipo de sensor irão depender das condições atmosféricas, pois áreas
com nuvens ou bruma não serão imageadas adequadamente. As características físico-químico

24
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

dos alvos imageados permitirão que a energia refletida seja registrada diferentemente em cada
porção do espectro eletromagnético (Figura 7).

Os sensores ativos, tal como o radar, gera energia ou radiação que é refletida pelos
objetos do solo. A energia refletida pode ser armazenada em meio fotográfico ou na forma
digital. Os sensores de microondas são um exemplo, pois detectam energia de 0.1 a 25 cm,
onde a absorção atmosférica é mínima. A energia emitida para os objetos é refletida por esses
ao sensor ( Ex: Radarsat, ERS-1). O imageamento independe das condições atmosféricas
(Figura 7).

Figura 7: Tipos de sensores

Cada satélite possui então as suas características peculiares de obtenção de dados.


Esta característica refere-se ao percurso que ele realiza em torno da superfície terrestre. Esta
rota denominamos de órbita. Dependendo do objetivo do satélite para o qual foi projeto ele
terá uma órbita específica.
Por exemplo, satélites de comunicação possuem órbita geossíncrona. Um satélite em
órbita geossíncrona equatorial (GEO) localiza-se diretamente acima da linha do equador,
aproximadamente a 36.000 Km de altura. Nesta distância o satélite demora 24 horas para dar
uma volta completa no planeta. Sabendo que a Terra demora 24 horas para dar uma volta
sobre o seu eixo (Movimento de
rotação), podemos observar que o satélite e a Terra se movem juntos. Sendo assim o satélite
GEO sempre está parado em relação ao mesmo ponto na terra, e por isso é denominado de
órbita geossíncrona ou órbita geoestacionária.
Mesmo com muitos satélites de comunicação em órbitas Geoestacionárias , eles não cobrem
as regiões polares da Terra. Para isso, são necessários os satélites de órbitas elípticas, que
cobrem as áreas extremas dos dois hemisférios.
Órbitas polares são muito usadas para a observação da superfície de nosso planeta. Como a
órbita do satélite tem a direção Norte-Sul e a Terra gira na direção Leste-Oeste, isto resulta
que um satélite em órbita polar pode eventualmente "varrer" a superfície inteira da Terra. Por
essa razão, satélites de monitoramento global como satélites de sensoriamento remoto e
meteorológicos sempre efetuam uma órbita polar. Nenhum outro tipo de órbita consegue uma
melhor cobertura da terra, Figura 8.

25
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 8: Satelite de órbita polar

Existe diferentes níveis de aquisição de dados e o sistema do sensor, em geral os sensores


podem ser • imageadores (varredura) ou• não-imageadores (não varredura). Os sensores são
criados de acordo com o objetivos e aplicações. O quadro 1 abaixo apresenta o grupo de
sensores de acordo com sua origem.
Quadro1: Classificação dos sensores

26
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

3.2- Características das imagens

A localização de pixels (picture element) na imagem é determinada através de um


sistema bidimensional de linhas e colunas, expressas em coordenadas X e Y. A imagem
organizada desta forma num reticulado de linhas e colunas é denominada dado raster ou
formato matricial. A imagem está relacionada a uma função bidimensional de intensidade da
luz f (x, y), onde x e y são coordenadas espaciais linhas e colunas. Existe ainda uma outra
variável z relacionada à variação tons de cinza da imagem. O valor de z é denominado, digital
number- DN, ou tom de cinza (Figura 9).

A imagem digital pode ser representada por uma matriz de linhas x, colunas y e z
para os DN. Desta forma, uma imagem digital é uma função discreta f (x, y), definida por uma
grade regular de m linhas e n colunas, representada por:
f (i,j), onde : 0<i<m-1 e 0<j< n-1;
para f variando de [0 ,k-1];
onde, k= níveis de cinza (DN).
Cada elemento dessa matriz (i, j) é determinado por elementos da imagem, pixel.
Este sistema poderá ser transformado para um sistema cartográfico de coordenadas através de
pontos de controle reconhecíeis na imagem. Desta forma, uma imagem devidamente tratada,
poderá servir de base para à concepção de carta imagem (uma fonte de dados para Sistema de
Informações Geográficas).

Figura 9: Captação da Imagem

27
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

3.3- Resoluções

Um dado orbital geralmente é descrito por sua resolução, ou seja, características da


imagem de acordo com a radiometria, tamanho do pixel e faixas espectrais. As resoluções
podem ser:
• Espacial
• Espectral
• Radiometrica
• Temporal
A resolução espacial corresponde à área do terreno representada por um pixel na
imagem. O tamanho do pixel esta diretamente relacionado à informação contida na imagem,
quanto menor o pixel mais detalhes podem ser extraídos da imagem, logo melhor a resolução,
figura 10.
O sistema sensor tem a capacidade de cobrir uma linha de largura especifica composta
por um conjunto de pixels. Cada pixel corresponde a uma unidade mínima de área, que se
muito grande os detalhes são perdidos, visto que os vários objetos ou feições são agrupados
em um mesmo pixel, denominado pixel mistura (figura 10). O tamanho do pixel depende das
características de cada sensor a resolucao espacial é função o ângulo de visada do sensor e a
altura da plataforma.
Figura 10: Resolução Espacial- Tamanho do Pixel

Resolução de 30 metros Resolução de 4 metros

Tabela 3: Classificação das imagens quanto a resolução espacial

Tamanho do Pixel (metros) Sensores Aplicações


0,67- 05: Alta Quickbird, Ikonos Mapeamento em escalas
grandes
10-30 : media Landsat, CBERS II Mapeamento em escalas
medias. Meio Ambiente.
40- 1000: Baixa NOAA, SPOT Veg, CBERS Monitoramento Ambiental
WFI

28
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

A Resolução Espectral refere-se a um intervalo específico de comprimento de onda do


espectro-eletromagnético armazenado pelo sensor (ex: bandas do visível e infravermelho). A
resolução espectral dos sensores é inerente às imagens multiespectrais e hiperespectrais.
Neste caso, a resolução indica a quantidade de regiões do espectro eletromagnético e pelo
intervalo de comprimento de onda. Estas imagens denominam-se bandas espectrais e
representam a energia registrada pelos detectores do sensor numa determinada região do
espectro eletromagnético, figura 11.
Assim sendo, uma imagem pode possuir conjuntos de dados de uma mesma cena.
Cada banda refere-se à determinada porção do espectro eletromagnético de reflexão e emissão
de luz ou calor de uma parte da superfície terrestre, que compõe a cena. Cada porção do
espectro eletromagnético detectado pelo sensor irá gerar uma imagem, com características
especificas segundo a resposta espectral de cada objeto.

Figura 11: Resolução Espectral

A Resolução Radiométrica refere-se ao número possível de dados para cada banda, ou seja,
o número de bits. Por exemplo, em um dado de 8 bits os valores dos tons de cinza para cada
pixel variam de 0 a 255 (ex: uma imagem de 11bits possui 2048 tons de cinza, figura 12).
Figura 12: Níveis de Cinza

29
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

A Resolução Temporal é a periodicidade em que determinada área é registrada pelo satélite.


A resolução temporal é de fundamental importância quando se pretende monitorar processos
dinâmicos como, por exemplo: a ocorrência de incêndios ou queimadas em reservas florestais,
derramamento de óleo no oceano, maremotos, mudanças fenológicas de culturas e o
crescimento de uma cidade. Alguns satélites como Ikonos revista uma mesma região a cada 5
dias.

3.3- Formato

Em geral imagens de sensoriamento remoto apresentam-se como arquivo multi-


banda (conjuntos de várias imagens referentes às faixas espectrais) ou banda simples (ex.
imagem digitalizada), de formato contínuo. Para cada (linha , coluna) existe um z (nível de
cinza). Um dado contínuo é aquele que contém um conjunto valores contínuos para os DNs
(Ex. Landsat, Spot, MDT). Um outro tipo de formato muito comum é o temático, oriundo de
imagens processadas de uma banda, associada a uma tabela de atributo. Esta imagem está
vinculada a dados qualitativos e/ou categóricos (Ex: mapa de uso do solo, vegetação), este
tipo de dado é bastante comum ao SIG. A imagem temática pode ser descontínua, pois
determinado pixel pode não estar associado à determinada classe ou valor. Atualmente
existem vários formatos para as imagens dependendo do software disponível, contudo o
formato mais comumente utilizado é o tiff ou geotiff.

4- SISTEMAS SENSORES

4.1- Sistema Imagens LANDSAT

Talvez a mais importante fonte de dados digitais em forma de imagens sobre a superfície
terrestre pertence ao conjunto de satélites do projeto Landsat, programa lançado pela NASA a
partir de 1972 para aquisição contínua de dados digitais de sensoriamento remoto (NASA,
1988). Landsat 4 foi lançado em julho de 1982 e o Landsat 5 em março de 1984. O Landsat 6
caiu e nunca entrou em fase operacional. O Landsat 7 foi lançado em abril de 1999, tendo
funcionado normalmente até março de 2003 quando interrompeu-se a captação de imagens
por problemas técnicos. As imagens apresentam distorções o que inviabilizou o seu uso
comercial. A nova geração de satélite Landsat está prevista para 2007.
Apesar dos problemas é ainda hoje o sistema Landsat o maior provedor de imagens
sobre a superfície terrestre, figura 13.
Figura 12: Característica da captação da Imagem

30
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

TABELA 4- Bandas do sistema Landsat TM 7

Bandas Comprimento de Onda Aplicações


Resolução µm
Espacial
1 30m 0.45-0.52 - Azul Mapeamento de corpos d’água; diferenciação de
água e solo
2 30m 0.52-0.60 – Verde Reflexão de vegetação sadia
3 30m 0.63-0.69 – Vermelho Absorção de clorofila; diferenciação de espécies
vegetais, solo úmido e solo seco.
4 30m 0.76-0.90-Infravermelho Levantamentos de biomassa, copas das árvores,
próximo rios.
5 30m 1.55-1.75- Detecção de umidade da vegetação
Infravermelho Médio
6 60m 10.4-11.7 – Termal Umidade da vegetação; geologia.

7 30m 2.08-2.35- Umidade da vegetação; solos e geologia.


Infravermelho Alto
PAN 15m 0,50 – 0,90 µm- Útil no reconhecimento de padrões que necessite
Pancromático. de uma maior resolução espacial. Ex: estradas,
Exclusivo TM7 avenidas, quadras. Atualização cartográfica.

O Landsat 7 Thematic Mapper Plus (ETM+), que apresentou como principal inovação à
banda pancromática com 15 metros de resolução espacial . A banda pancromática inclui a

31
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

faixa do visível 0,50 a 0,90 µm, sobrepondo a faixa do espectro visível. Apesar de senilidade
o satélite Landsat 5 continua a mandar imagem à terra pouco utilizáveis devido a ruídos e
distorções geometricas. A tabela 4 mostra a característica do Landsat 7.

4.2- Sistema SPOT

O programa SPOT (Systéme Probatoire de l’Observation de la Terre) foi planejado e


projetado como um sistema operacional e comercial. Estabelecido pelo governo francês em
1978, com a participação da Suécia e Bélgica, o programa é gerenciado pelo Centro Nacional
de Estudos Espaciais – CNES (Tolouse-França), que é o responsável pelo desenvolvimento
do programa e operação dos satélites. Já foram lançados os SPOT 1, 2 e 3 ,4 e o mais recente
Spot 5 em 2002. O SPOT 5 apresenta maior detalhamento,mantendo as mesmas faixas de
observação.
Dois novos instrumentos HRG (High-Resolution Geometric) imageiam com 5 m de
resolução em Pancromático e 2.5 metros em "supermode". Cada um dos dois instrumentos
recobre uma faixa de 60 Km no solo, dentro de um corredor potencial de visibilidade de ±420
km.
Da mesma forma que os sensores dos antecessores do SPOT 5, os instrumentos HRG podem
imagear igualmente em modo multiespectral em 4 bandas (faixa espectral da luz verde,
vermelho, infravermelho próximo e infravermelho médio) . Graças as bandas no
infravermelho o SPOT 5 permite uma maior aplicabilidade ao mapeamento temático.
Se comparado com seu antecessor (SPOT 4) ainda em funcionamento pode-se
resumir as inovações a partir dos seguintes aspectos:
¾ 5 m e 2.5 m de resolução em P&B no modo Pancromático, contra 10m
anteriormente;
¾ 10 m de resolução em cores contra 20 m anteriormente;
¾ A área recoberta por cada cena será mantida 60 km x 60 km.
¾ Resolução temporal de 3 a 5 dias.
Estas características permitem o uso das imagens SPOT 5 para aplicações nas escalas entre
1:10.000 e 1:50.000. Atualmente este tipo de imagem vem sendo utilizado com vistas a
atualização do mapeamento sistemático.

32
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 14: Cobertura SPOT 5

4.3- IKONOS

O satélite IKONOS lançado em 1999, foi o primeiro de alta resolução espacial de


1m na banda pancromática e de 4 metros nas bandas multiespectral. A Tabela 5 mostra as
principais características das imagens e do satélite IKONOS.
Tabela 5- Características da Imagem Ikonos (Adaptado, Engesat, 2003)

Resolução no terreno de Pancromática: 1m (considerando posição nominal de 26º fora


cada banda do nadir)
Multiespectral: 4m (considerando posição nominal de 26º fora
do nadir)
Bandas espectrais 0.45 a 0.90µ (pan)
Azul 0.45 - 0.52µ
Verde 0.52 - 0.60µ
Vermelho 0.63 - 0.69µ
Infra vermelho próximo 0.76 - 0.90µ
Faixa de imageamento 13km no nadir (cena simples 13km x 13km)
Tamanho das cenas Faixas de 11km x 100km até 11km x 1000km
sugeridos Mosaicos de até 12.000km2
Até 20.000km2 de área continua imageada em uma única

33
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

passagem
Acurácia métrica Horizontal: 12m
Vertical: 10m
(correção de sistema, sem pontos de controle cartográficos)
Precisão relativa de pelo menos 90% da cena;
Horizontal: 2m
Vertical: 3m (com pontos de controle)
Precisão relativa em pelo menos 90% da cena;
Tempo de Revisita 2.9 dias (pan)
1.5 dias (multiespectral)
Esses valores referem-se a alvos ao longo da latitude de 40º. O
tempo de revisita para latitudes maiores será menor, enquanto
que para as latitudes próximas ao Equador, o tempo será mais
longo.

Dentre os principais avanços, podem ser citados os seguintes:


• A maior resolução espacial possível entre as imagens orbitais atualmente disponível no
mercado.
• Facilidade para interpretação visual.
• Radiometria de 11 bits (2048 níveis de cinza) aumenta o poder de contraste e de
discriminação das imagens.
• Bandas espectrais no visível são mais largas (quando comparadas com Landsat 5 e 7),
permitindo uma maior penetração na atmosfera e maior poder de discriminação dos alvos
terrestres, principalmente da cobertura vegetal, áreas sombreadas e de corpos d’água.
• Imagens com 4m de resolução espacial oferecem até 25 vezes mais informações que
imagens com 20m de resolução.
• Com imagens pancromáticas de 1m, é possível distinguir objetos do tamanho de 1m 2.

4.4- Quickbird

O Satélite de alta resolução Quickbird , além de sua apurada precisão, conta ainda com
sensores pancromáticos e multiespectrais. A grande capacidade de armazenamento de dados a
bordo de si, aliado ao fato de que este satélite capta cenas de 2 a 10 vezes maiores que
qualquer outro satélite de alta resolução, fazem com que o Quickbird seja o melhor em sua
categoria, no que concerne a resolução espacial.

Tabela 6- Características do Quickbird (FONTE: Engesat)


QuickBird
Data de lançamento Outubro de 2001

Veículo de lançamento Boeing Delta II

Local de lançamento Vandenberg Air Force Base, California

Capacidade de armazenamento de 128 Gbytes, aproximadamente 57 áreas imagens

34
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

dados simples

Altitude da órbita 450 km

Inclinação da órbita 98 graus, em sincronismo com o Sol

Velocidade 7.1 km / segundo

Horário de passagem 10:30 h

Duração da órbita 98 minutos

Capacidade de envio de dados 320 Mbps em banda X

Peso, tamanho 953 kg, 3.04-metros de comprimento

Tempo de vida útil No mínimo de 7 anos

Tempo de revisita 1 a 3,5 dias, dependendo da latitude (30o off-nadir)

Largura do imageamento 16.5 km x 16.5 km, no nadir

Horizontal: 23 metros (CE 90%)


Precisão métrica
Vertical : 17 metros (LE 90%)

Digitalização 11 bits

Pan: 61 cm (nadir) a 72 cm (25o off-nadir)


Resolução* Multiespectral: de 2.44 m (nadir) até 2.88 m (25o off-
nadir)

Formatos disponíveis GeoTIFF 1.0, NITF 2.1 ou NITF 2.0

Máximo para aquisição simples 1x10, 1 par estéreo

Pancromática 450 - 900 nm

Azul: 450 - 520 nm

Bandas Verde: 520 - 600 nm

Vermelho: 630 - 690 nm

Infravermelho próximo : 760 - 900 nm

A resolução dos satélites de alta resolução depende do ângulo visada nadiral e pós-
nadiral. Dependendo deste ângulo a área imageada é maior, porem a resolução do pixel é
deteriorada, Para o Quickbird a imagem Pan: 61 cm no nadir até 72 cm (ângulo de 25o pós-
nadir), igualmente para imagem multiespectral de 2.44 m (nadir) até 2.88 m (25o pos-nadir
ou off-nadir), Figura 13.
Figura 13: Imagem Nadiral e Pós-Nadiral

35
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Inclinação
maior área

Pixel 0,67 cm , nadir Pixel 0,88 cm , nadir

4.5 Outros sistemas

Hoje existe no mercado um grande numero de satélites dentre os quais podemos citar:

a) CBERS: China Brazil Earth Resources Satellite. Lançado em 1999 na China, o satélite
sino-brasileiro passou a gerar imagens comerciais a partir do segundo semestre de 2000;
b) IRS: Indian Remote Sensing Satellite, possui a pancromática de 5 m de resolução, cada
uma recobrindo 70 por 70 Km;
c) ASTER (Advanced Spacebone Thermal Emission and Reflection Radiometer) é um dos
Instrumentos a bordo do satélite EOS AM-1 e obtém imagens de alta resolução (15 a 90
m);
d) NOAA : são satélites originariamente concebidos para observação de dados
meteorológicos, no entanto estes dados tem sido utilizados em agronomia e oceanografia.
O primeiro satélite foi lançado em 1978. Abrange pequenas escalas visto que apresenta
um resolução espacial de 1.1 x 1.1 km e a varredura é de 2700 km.

36
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Tabela 6: Sistemas Sensores


SENSOR RESOLUÇÃO RESOLUÇÃO PAIS APLICAÇOES
ESPACIAL ESPECTRAL
CBERS II, CCD: 20m 4 bandas + Pan Brasil/China, Monitoramento
2002 WFI: 260m 2 bandas IV Ambiental
IR-MSS 3 Bandas + Pan
IRS, 1997 Pan: 5 m 1 bandas Índia Atualização
MSS: 20 m 3 bandas Cartográfica

ASTER VNIR 15 m 3 bandas EUA Monitoramento


SWIR 30 m 6 bandas Ambiental
TIR 90m 3 bandas

NOAA, 1978 MSS: 1,1 km Visível + IV EUA Meteorologia

4.6- Imagem de Radar

O Radar é um sensor ativo da faixa da microonda. Uma imagem Radar é construída


digitalmente pela seqüência de uma quantidade de pontos ou pixels como os demais tipos de
imagens de satélites. Cada pixel na imagem Radar representa a intensidade da reflexão o
pulso de energia para a área correspondente no solo, onde:
• áreas mais escuras são superfícies de retorno ou reflexão de fraca intensidade do sinal
Radar, ou seja que uma proporção menor ou mínima da energia do pulso Radar foi
refletida pelo alvo de volta para a antena do Instrumento Radar;
• áreas mais brilhantes correspondem a alvos para os quais a reflexão de energia para a
antena do instrumento Radar foi maior e mais intensa.
A reflexão do sinal de Radar para uma alvo ou uma área de interesse num comprimento de
onda específico varia bastante em função de uma quantidade de condições físicas:

™ Tamanho e geometria do alvo ou reflector;


™ Umidade do alvo;
™ Polarização do sinal emitido;
™ Ângulos de incidência do sinal emitido.

37
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 15: Comportamento dos alvos numa imagem radar

A pesar das imagens ópticas serem mais fáceis de ser interpretada pelo usuário a imagem de
Radar apresentam algumas vantagens:

o devido ao maior comprimento de onda da faixa de microondas este tipo de energia é


capaz de atravessar as nuvens;

o por possuírem fonte própria de energia, não necessitam do Sol como fonte de
iluminação;

o comparativamente às outras faixas do espectro eletromagnético, as microondas


penetram mais na vegetação, além de eventualmente poderem adentrar no solo.

Quando a radiação é refletida por uma superfície cuja rugosidade é da mesma ordem de
grandeza que o comprimento de onda, a interferência das ondas produz o ruído chamado
Speckle. É um ruído multiplicativo, proporcional à intensidade do sinal recebido. Visualmente
percebe-se o efeito deste ruído através de uma textura granulosa que dificulta a interpretação
das imagens, figura 16. Para amenizar este ruído existem dois métodos: multi-look e
filtragem. O multi-look pode ser utilizado quando se tem imagens obtidas por SAR, sendo que
a imagem corrigida é composta da média das imagens de cada look geradas separadamente.
As imagens de radar atualmente podem ser associadas à imagens de sensores passivos a
fim de compor novas faixas espectrais, o que permite extrair mais dados sobre os alvos de
interesse, a integração e fusão de imagens é um tema que vem sendo muito discutido pela
comunidade afeta.

38
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 16: Imagem Radar

4.7- Principais Sensores Radar

Radarsat

O satélite canadense Radarsat lançado em 1995 é composto por um sensor ativo de


microondas, o que permite obtenção de dados independentemente das condições atmosféricas
e iluminação. O sistema possui as seguintes características:
a) observa a terra com um angulo obliquo variável, o que permite ampliar o leque de
aplicações (Figura 16);
b) possui resolução variável de 10 a 100 metros e periodicidade de 85 dias.

39
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 16: Modo de operação (Fonte:www.radarsar.com)

A quantidade de energia espalhada pelo satélite é influenciada pela rugosidade da superfície.


Isto permite distinguir diferentes padrões de textura na imagem, os quais são úteis para
detectar áreas desmatadas, áreas de cultivos, florestas, corpos d’água e feições antrópicas
(RADARSAT,1997).

ERS-1: satélite de radar lançado pela Agência Européia em 1991, é uma das maiores fontes
de dados radar disponível. Possui uma resolução espacial de 30 x 30 metros e uma cena cobre
100 km2 (ERDAS, 1995).

JERS-1: imageador a radar janonês, lançado em fevereiro de 1992. Resolução espacial 18


metros

4.8- Laser Scanner

O sistema de escaneamento a laser embarcado (ALS), é um sistema de modelagem de


superfície que tem como principio a emissão e recepção de feixes de raios laser da plataforma
até a superfície da terra e transformar o intervalo de tempo envolvido em distância. Esta
técnica é um sistema que integra uma serie de sensores que juntos, permitem
determinar a posição tridimensional georeferenciada de pontos da superficie terrestre.
O sistema ALS é composto por: a) a unidade laser de medida: dispositivo
responsável pela medida das distancias entre o sensor e superfície; b) unidade de varredura:
dispositivo responsável pela deflexão dos pulsos laser emitidos transversalmente a linha de
vôo; c) unidade de posicionamento: constituído de um receptor GPS dupla freqüência que
permite o posicionamento geodésico dos pontos (Figura 17).
Oprincipio de funcionamento baseia-se na utilização de um feixe de laser (LASER:
Light Amplification by Stimulatied Emission of Radiance) que é emitido em direção aos
objetos. Ao atingir sua superfície, este feixe é refletido e uma parte dele retorna ao sistema. A
partir da intensidade do sinal de retorno é possível derivar informações a respeito da natureza
da superfície do objeto, mas o dado mais relevante é o tempo decorrido entre a emissão do
feixe e o registro do retorno, pois permite calcular a distância entre o sensor e o objeto. Este

40
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

tipo de sistema também é chamado de LIDAR - Light Detection And Ranging ou LADAR -
Laser Detection And Ranging (BRANDALIZE, 2004).
Figura 17- Esquema de funcionamento do sistema

A unidade de Varredura a Laser é composta de um dispositivo de medição laser, um


sistema de varredura óptico-mecânico e uma unidade de registro de medições de apoio. A
unidade de medição laser é responsável pela geração e emissão dos pulsos laser. Estes pulsos
são gerados pelo estímulo de um cristal sintético. O tipo de cristal geralmente utilizado é
Nd:YAG (Neodiminium: Yttrium Aluminum Garnet) e seu estímulo varia entre 10-15 ηs. A
maioria dos sistemas laser operam numa faixa do espectro eletromagnético variando entre 0,8
µm e 1,6 µm . Os pulsos emitidos pelo sistema são apontados a diferentes pontos na
superfície. Ao atingir a superfície, parte do pulso é refletido de volta ao sensor, onde é
transformado em digital e armazenado.

O produto gerado a partir do processamento dos dados coletados por um sistema ALS
é, basicamente, grades ou malhas regulares de pontos 3D georreferenciadas (E,N,H). O
processamento é totalmente automático, mesmo quando as etapas de classificação, filtragem e
interpolação não são realizadas pelo programas fornecidos pelos fabricantes de tais sistemas.
Em geral o produto é uma imagem resultante de uma grade regular de pontos. Estas grades
são resultantes da interpolação o que nada mais é que um método de geração de superfície,
que pode ser classificada em:

• Modelo Digital de Elevação: grade que exclui a vegetação e as feições artificiais (Ex:

prédios, postes etc.), é um modelo similar aquele gerado a partir de curvas de nível;

• Modelo Digital de Superfície: estes incorporam os valores da altitude para todas as

feições que se encontram acima da superfície do terreno, tais como arvores, prédios,

torres, etc.

41
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Para direcionar os pulsos, um sistema de varredura (scanner) é necessário. O sistema


de varredura pode ser uni ou bidirecional. Eles podem ser do tipo óptico-mecânico, mais
utilizado, como o espelho oscilante, a varredura Palmer e o polígono de rotação.
Para o cálculo da posição do feixe incidente na superfície do terreno são necessárias
duas unidades de apoio que são encarregadas da determinação da atitude e posição do sensor
na hora da emissão do feixe. A posição é determinada mediante um sistema de GPS
diferencial (DGPS), encarregado de calcular a posição da plataforma no espaço.
O feixe associado a um pulso Laser disparado desde um avião sofre uma pequena
divergência. Por este motivo, a área associada ao feixe depende da altura do vôo. O tamanho
dos objetos, em relação à projeção do feixe (footprint), bem como o material que compõe a
superfície, determinam a intensidade do pulso que retorna ao sensor. Assim sendo, o feixe
pode não atingir um único objeto e pode ser refletido por diferentes pontos localizados a
diferentes distâncias do sensor, como é mostrado na Figura 18. Sendo assim, o ponto mais
próximo ocasionará um pulso que retorna mais rapidamente e o ponto mais distante um
retorno mais demorado. Esta característica ganha relevância quando se leva em consideração
a diferença de penetração que pode existir em um único pulso, pois permite a distinção de
elevações. Alguns sistemas laser possuem como característica a medição de diferentes
retornos do sinal emitido, refletido por diferentes objetos dentro da projeção do feixe no
terreno (footprint). É possível medir o primeiro e o último retorno do pulso (first/last pulse),
ou até pode-se medir toda a variação do retorno, se for necessário. Na figura 19 é mostrado
um exemplo de duas grades altimétricas de uma mesma região, associadas ao primeiro e
último pulso. Pode-se verificar visualmente que alguns feixes conseguem atravessar a copa
das árvores, atingindo o terreno.

42
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 18 – Demonstração do primeiro e último pulso (adaptado www.toposys.com, 2005)

Figura 19 – Diferentes retornos do pulso Laser. (a) Primeiro retorno. (b) Segundo retorno.

(a) (b)

Os resultados encontrados até o momento levam a uma acurácia horizontal de 0,5 a 1 m e


uma acurácia vertical pode chegar até 0,15 m, estes valores são obtidos para uma altura de
vôo de 1.000 m. Isto faz que os dados altimétricos extraídos do perfilamento a Laser sejam
adequados ao mapeamento em grandes escalas, podendo por vezes substituir a restituição
altimétrica.

5- PRINCIPIOS DE PROCESSAMENTO DIGITAL DE IMAGEM NO CONTEXTO


SIG

5.1- Generalidades

As imagens digitais tais como Landsat, Spot, Ikonos, Quickbird e Radar são uma
importante fonte de informação hoje disponível, em algumas partes do planeta a única. Em

43
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

algumas situações é a fonte mais barata de informação de dados geoambientais. Com


aquisição de imagens de alta resolução próxima a 1 metro houve uma ampliação dos
aplicativos de Sensoriamento Remoto à área do planejamento urbano.

A classificação de dados digitais pode gerar, atualizar e complementar um banco de


dados geográficos. A associação de dados vetoriais e matriciais, hoje viabilizada nos
principais softwares de sensoriamento remoto (Erdas, Emapper, Spring, PCI, Envi, Idrisi
dentre outros), permitem através de rotinas de álgebra matricial e análise estatística extrair
informações acuradas dos objetos imageados.
Na atualidade, os usos das técnicas de sensoriamento remotos já se tornaram
imprescindível para análise de alterações ambientais e onde a tecnologia de Sistemas de
Informações Geográficas tem um papel fundamental. A tendência é que as imagens de
satélite passem a minimizar a grande lacuna para a implementação do SIG: a aquisição de
dado. Com custo decrescente e disponibilidade crescente, o sensoriamento remoto será a
maior e mais barata fonte de dados para os sistemas de informação.

5.2- Noções de Processamento

O objetivo do uso do processamento digital de imagens, consiste em melhorar o


aspecto visual de certas feições estruturais para o analista humano e fornecer outros subsídios
para a sua interpretação, inclusive gerando produtos que possam ser posteriormente
submetidos a outros processamentos. Área de processamento digital de imagens tem atraído
grande interesse nas últimas duas décadas. A evolução da tecnologia de computação digital,
bem como o desenvolvimento de novos algoritmos para lidar com sinais bidimensionais está
permitindo uma gama de aplicações cada vez maior.
Como resultado dessa evolução, a tecnologia de processamento digital de imagens
vem ampliando seus domínios, que incluem as mais diversas áreas, como por exemplo:
análise de recursos naturais e meteorologia por meio de imagens de satélites; transmissão
digital de sinais de televisão ou facsímile; análise de imagens biomédicas, incluindo a
contagem automática de células e exame de cromossomos; análise de imagens metalográficas
e de fibras vegetais; obtenção de imagens médicas por ultrassom, radiação nuclear ou técnicas
de tomografia computadorizada; aplicações em automação industrial envolvendo o uso de
sensores visuais em robôs, etc.
GONZALEZ & WOODS (2000) descrevem o objetivo do processamento digital de
imagem como sendo um conjunto de procedimentos que melhoram a informação pictorial
para interpretação do olho humano, bem como, para o reconhecimento do dado imageado
pelo computador. O processamento de imagens orbitais envolve procedimentos que são
expressos em forma de algorítmica de aplicação específica. A concepção de programas
computacionais para eliminação de ruídos, melhora da nitidez da imagem e segmentação irá
depender do tipo e sensor que gerou a imagem (ex. radar, multiespectral).

5.3- Etapas do Processamento

Para o usuário de SIG, as imagens são úteis na geração e atualização da base


cartografia. O processamento deve de certa forma permitir a extração de informação da
imagem. As imagens de sensoriamento remoto são, em geral, multibandas ou de natureza

44
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

multiespectral, que em sua forma natural, muitas vezes são de difícil interpretação. O
esquema da figura 20 mostra os passos do processamento digital (PDI) onde a imagem é
submetida à uma análise dirigida denominada pré-processamento. Este permite obter
composições coloridas (pseudocores) por meio de combinação de bandas, salientar
determinadas feições através do aumento de contraste e eliminação de ruídos (filtragem). A
segmentação que divide uma imagem de entrada em partes ou objetos constituintes o que
facilita a obtenção de regiões homogêneas na imagem. O processo de descrição, também
chamado seleção de características, procura extrair caracteristicas que resultem em alguma
informação quantitativa de interesse ou que sejam básicas para discriminação entre classes de
objetos (em se tratando de reconhecimento de caracteres, descritores tais como vegetação,
solo, etc) . O último estágio envolve reconhecimento e interpretação. reconhecimento é o
processo que atribui um rótulo a um objeto, baseado na informação fornecida pelo seu
descritor. A interpretação envolve a atribuição de significado a um conjunto de objetos
reconhecidos.

Figura 20: Etapas do Processamento Digital PDI

5.4- Processamento

De acordo com o exposto no item acima será abordado alguns práticas de processamento com
vistas a extrair informações da imagem para formar a base de dados de um SIG. As
procedimentos mais conuns são:
a)- Realce de imagem;
b)- Correção geométrica;
c)- Segmentação;
d)- Classificação.

5.4.1- Realce

Uma imagem de sensoriamento remoto deve num primeiro momento ser avaliada
através do seu histograma. O usuário deve perceber as variações tonais e a relacionadas com

45
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

os dados estatísticos da imagem. O histograma de uma imagem fornece informação útil para
fazer realce e análise da imagem. O histograma de uma imagem revela a distribuição dos
níveis de cinza da imagem. É representado por um gráfico que dá o número de pixels na
imagem para cada nível de cinza.

Definição: Seja uma imagem digital g de M linhas e N colunas. O histograma da imagem


g, Hg, pode, analiticamente, ser definido por :

onde nk é o número de vezes que o nível de cinza K aparece na imagem.


O histograma permite obter informação sobre quantos pixels na imagem possuem
determinado valor de cinza (que numa imagem de 8 bits varia de 0, preto, a 255, branco). Os
dados discretos, representados nos histogramas de freqüências, são de fundamental
importância no que concerne manipulação de contraste e realce de uma imagem
(RICHARDS, 1997). Análise do histograma fornece informações a respeito de brilho e
contraste da imagem. Toda a imagem possui um histograma, que permite para cada banda
distribuir no eixo horizontal os valores de tons de cinza e no eixo vertical o número de pixels
para cada um desses valores.
A manipulação do histograma permite contrastar, melhorar a sua qualidade visual
sob critérios subjetivos ao olho humano. Esse processo não aumenta a quantidade de
informação contida na imagem, mas torna mais fácil a sua percepção. É normalmente
utilizada como uma etapa de pré-processamento. Tipicamente, os sensores são capazes de
discretizar os valores recebidos da cena em um intervalo máximo que vai de 0 até 255 (8 bits
= 256 possíveis valores). Devido à má iluminação, defeitos do sensor ou mesmo às
características da cena, o intervalo de valores de intensidade ocupados pelos pixels presentes
em uma imagem, pode ser muito menor que esse intervalo máximo. Diz-se então que a
imagem possui baixo contraste, o que torna difícil a sua visualização ou interpretação por um
intérprete humano ou um sistema de processamento digital, figura 21.

46
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 21: Aumento de contraste baseado na manipulação do histograma

Imagem: efeito Histograma

0 255
DN

0 255
DN

O brilho e contraste da imagem podem ser modificados alterando os níveis de cinza. Uma
imagem pode se tornar adicionando um valor constante ao nível de cinza. Um dos métodos
mais comuns é o aumento linear de contraste onde:

g(x)= f(x). a + b ; seja


g(x)= novos valores
f(x)= distribuição original
b= constante
Se a>1 o contraste é aumentado e a<1 o contraste é reduzido, figura 22
Figura 22: Manipulação linear do contraste (equação da reta)

47
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

g g
a<1 e b=0 a>1 e b≠0
Diminuição de Aumento de
Contraste Contraste

f f
Quando muitos valores de intensidade na imagem original são mapeados para o valor mínimo
ou máximo na imagem original diz-se que, ocorreu uma saturação (overflow) e uma perda de
informação, pois os pixels que originalmente podiam ser diferenciados na imagem original
agora possuem o mesmo valor de intensidade. No entanto isto pode ser um efeito desejado,
por exemplo, quando as regiões escuras da imagem com pequenas variações radiométricas
correspondem a áreas com o mesmo tipo de cobertura as quais não se deseja diferenciar.

Um procedimento de modificação de contraste útil é o mapeamento linear por partes


ou pontos de quebra com a função de mapeamento caracterizada por um conjunto de pontos
de quebra, que pode ser escolhido pelo usuário, figura 23. Funções de mapeamento não-
lineares podem ser usadas para realçar detalhes específicos na imagem.
Figura 23: Pontos de quebra

g
Pontos de quebra

Uma função linear também utilizada é a função negativa. Ela realiza o mapeamento inverso
dos níveis de cinza, revertendo a ordem do preto para o branco, de tal forma que pixels com
intensidade clara serão mapeados para escuro e vice-versa. A escolha do mapeamento direto
adequado é, em geral, essencialmente empírica, mas existe uma classe de métodos nos quais o
mapeamento tem por finalidade produzir uma imagem cujo histograma tenha um formato
desejado.

5.4.2- Filtragem

O grande número de diferentes freqüências de uma imagem dificulta muitas vezes a


interpretação das feições. Para minimizar este problema, utilizam-se técnicas de filtragem
espacial da freqüência. As operações matemáticas efetuadas na imagem com a finalidade de
realçar padrões, são realizadas por dois processos distintos: um que opera no domínio espacial
da imagem, convolução cúbica (janelas m x n), e outro que opera no domínio da freqüência
baseado nas transformadas de Fourrier.

48
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

O termo domínio espacial refere-se ao agregado de pixels que compõem uma imagem, e o
métodos no domínio espacial são procedimentos que operam diretamente sobre estes pixels.
Funções de processamento em f (x,y) é uma imagem de entrada e g (x,y) é uma imagem de
saída, e T é um operador sobre f , definido sobre uma vizinhança de (x, y).

Os filtros são geralmente utilizados a fim de realçar algumas feições da imagem através da
alteração das freqüências espaciais. O processo de convolução ou filtragem espacial da
imagem consiste na alteração do valor de determinados conjuntos de pixels ao longo da
imagem. Uma matriz (m x n) é utilizada para modificar os valores dos pixels levando-se em
conta os valores dos pixels vizinhos.

Em geral, a matriz (m x m) é passada por toda a imagem alterando o valor dos pixels. Na
Figura 24 observa-se uma matriz (janela) 3 x 3 aplicada para um pixel na terceira coluna e
terceira linha, centro da convolução.

Figura 24- Convolução ou filtragem matriz 3 x 3 (Fonte: Erdas Field, 2002)

Janela 3x3

Movimento da janela

Imagem

Entrada: 9 valores dos pilxels da imagem


Saída : valor do pixel central baseado nos pesos da janela.

Figura 25- Exemplo de filtragem

Dado Filtro (kernel)

49
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

De acordo com o esquema da figura 25, para computar novo valor deste pixel, cada valor do
filtro é multiplicado pelo valor do pixel correspondente no filtro. O somatório do produto é
dividido pelo total da soma dos valores do filtro, tal como se segue:

V=((-1 x 8) + (-1 x 6) + (-1 x 6) + (-1 x 2) + (16 x 8) + (-1 x 6) + (-1 x 2) + (-1 x 2) +


(-1 x 8) / (-1 + -1 + -1 + -1 + 16 + -1 + -1 + -1 + -1) = (88/8) = 11;

generalizando,

Os valores da nova imagem filtrados serão dados pela fórmula:

q  q  
∑  ∑ fijdij  
V =  i =1  j =1  
 F 
 
 

onde:
f ij = coeficiente referente ao filtro (m x n) na posição i,j ;
d ij = coeficiente referente ao valor do pixel correspondente fij;
q = dimensão da matriz, no exemplo 3 x 3;
F = soma dos coeficientes do filtro;
V = novo valor do pixel.

Este filtro é um exemplo de um filtro de alta freqüência, onde os valores mais baixos tornam-
se ainda mais baixos e valores mais altos tornam-se ainda maiores, aumentando a freqüência
espacial da imagem.
Vale a pena lembrar que as bordas da imagem original não podem ser calculadas por não
existir vizinhança. Em geral as bordas da imagem filtrada (linhas e colunas) possuem os
valores iguais o da imagem. Em outras palavras são se pode filtrar as linhas e colunas
limítrofes de uma imagem.

3.4.1- Tipos de Convolução

Os filtros de baixa freqüência, ditos de passa baixa ou suavização, eliminam as altas


freqüências da imagem deixando passar somente as baixas freqüências, suavizando assim a
imagem. A matriz abaixo exemplifica um filtro de baixa freqüência que de acordo com a
fórmula de convolução vista acima. A nova imagem terá pixels mais homogêneos, uma vez
que, os novos valores seriam uma média dos pixels vizinhos, resultando numa imagem mais
suavizada:

Os filtros de alta freqüência ou passa alta eliminam as feições de baixa freqüência, deixando
apenas as de alta freqüência. Os filtros de alta freqüência servem para realçar bordas ( limites
entre padrões na imagem). Os filtros de alta freqüência servem com filtros de realce de bordas
uma vez que estes salientam limites bordas entre grupos de pixels com DNs próximos. Os
valores das matrizes abaixo, mostram um filtro de alta freqüência aplicado numa janela 3 x 3.

50
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

De acordo com os valores dos pixels vizinhos valores baixos ficam ainda mais baixos (ex:
100 para 009) e o valores altos mais altos (ex:125 para 187).
Existe um grande número de filtros que podem ser elaborados pelo próprio usuário a fim de
facilitar a interpretação da mesma. As janelas ou matrizes podem variar de dimensão, as mais
usuais são: (3 x 3), (5 x 5) e ( 7 x 7).
Os filtros de passa alta e baixa são filtro lineares pouco aplicáveis em imagens
temáticas e segmentadas. A aplicação das técnicas de convolução são por meio de filtros não
lineares de mediana, moda em imagens temáticas destina-se, geralmente, na eliminação de
ruídos, generalização de classes e análise espacial. No filtro de moda , a freqüência relativa
dos valores dos pixels na vizinhança é calculada para depois escolher o pixel mais freqüente, a
moda, que é utilizado para substituir ao valor do pixel central referente a máscara ou janela.

Figura 26- Exemplos de filtros passa alta e passa baixa


Imagem Original

Landsat Pan

Imagem Filtrada Janela 3x3

Passa Alta -1 - 1 - 1
-1 17 -1
Efeito: -1 - 1 -1

Detecção de Bordas

Imagem Filtrada Janela 3x3

1 1 1
Passa Baixa 1 1 1
1 1 1
Efeito:

Suavização

51
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

5.4.3- Composição Colorida

Imagens multiespectrais são aquelas que possuem diversas bandas que podem ser
combinadas entre si de maneira a melhorar a interpretação da imagem. Como foi citadas
anteriormente as características de refletância dos objetos podem ser representados por tons
de cinza ou dn. O sistema de cores geralmente utilizado é o RGB (vermelhor, verde, azul)
baseado nas cores primarias. Logo se pode visualizar neste sistema de cores somente três
bandas de cada vez. A cor pura é representada pelo valor Maximo de bits como na tabela 7
abaixo:
Tabela 7 – Cores sistema RGB, coordenadas para 8 bits
COR R- vermelho G- verde B- azul
Vermelho 255 0 0
Verde 0 255 0
Azul 0 0 255

As diferentes cores são formadas misturando os valores dos tons de cinza de três bandas
multiespectrais. Supondo que se deseje fazer uma composição colorida ou falsa cor de uma
imagem Landsat, escolheriam-se três bandas, e para cada uma delas se associaria uma cor
primaria do sistema RGB.
Supondo uma composição 4, 3, 2, pode-se dizer que os tons de cinza da banda quatro esta em
tons de vermelho, os tons da banda 3 estao em tons de verde e a banda 2 em tons de azul. As
sobreposições destes tons artificiais darão a composição colorida denominada falsa cor, como
pode ser observado na Figura 27.

Figura 27- Composição colorida de uma imagem Landsat 7 do município de Paranaguá-Pr


Composição: R= banda 4; G= banda 3, B= banda 2.

Observa-se solo exposto em tons de cor de rosa, vegetação em tons de verde, alterando a
disposição das bandas os objetos do terreno teriam diferentes cores. As composições coloridas
principalmente quando se misturam as bandas do infravermelho pode ser bastante útil para a
descriminação de diferentes objetos que dificilmente seriam inidentificáveis quando
observadas as bandas individualmente (preto e branco).

52
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

5.4.4- Correção Geométrica

5.4.4.1- Conceito

As imagens de sensoriamento remoto, por abrangerem uma grande área da superfície


terrestre, apresentam distorções devido à curvatura da terra e do sensor. O registro de uma
imagem compreende uma transformação geométrica que relaciona coordenadas de imagem
(linha, coluna) com coordenadas de um sistema de referência, em geral UTM ou coordenadas
geodésicas. O registro estabelece uma relação entre coordenadas de imagem e coordenadas
geodésicas. A este processo ainda denomina geocodificação e georreferenciamento. É
importante, contudo, fazer uma distinção clara entre registro e correção geométrica. O
processo de correção geométrica de imagens elimina as distorções geométricas sistemáticas
introduzidas na etapa de formação das imagens, enquanto o registro apenas usa
transformações geométricas simples (usualmente transformações polinomiais de 1o. e 2o.
graus) para estabelecer um mapeamento entre coordenadas de imagem e coordenadas
geodésicas.
O georreferenciamento ou registro é uma operação necessária para se fazer a
integração de uma imagem à base de dados existente num SIG. A sobreposição de informação
de dados matriciais e vetoriais só é possível se estiverem num mesmo sistema de
coordenadas.Alem disso, o georreferenciamento também é importante para se combinar
imagens de sensores diferentes sobre uma mesma área ou para se realizar estudos multi-
temporais, caso em que se usam imagens tomadas em épocas distintas.
A imagem captada pelo satélite após a correção geométrica , passa a ter um sistema
de coordenadas. As deformações da imagem podem ser reduzidas através de transformações,
entre o sistema matricial (n x m) da imagem e o sistema referencia cartográfica. A correção
geométrica permite corrigir a imagem geral estas distorções são minimizadas por meio de um
estabelecimento matemático que relaciona o endereço dos pontos na imagem com os
respectivos pontos no terreno. Alguns autores denominam o processo de correção geométrica
quando esta permite corrigir as distorções do relevo de ortorretificação.

Figura 28 - Transformação de diferente sistema de coordenadas

53
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

5.4.4.2- Distorções da Imagem

O objetivo primordial das transformações para a retificação de uma imagem é gerar uma
nova imagem vertical sem as distorções introduzidas pela atitude do sensor durante a tomada
da imagem. A imagem resultante poderá, inclusive, está isenta dos erros de deslocamento
devido ao relevo. As distorções geométricas verificadas são :

™ Distorções inerentes à plataforma: Efemérides (posição e velocidade) e atitude;

™ Distorções inerentes ao instrumento;

™ Distorções inerentes ao modelo da Terra: Rotação,esfericidade e relevo.

Em geral em imagens de alta resolução alguns erros oriundos a variação da altitude da


plataforma poderá acarretar uma alteração de escala na direção da plataforma. A figura 29
ilustra de forma conjunta as distorções devido as variações de altitude e velocidade da
plataforma(Figura 29).

54
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 29 : Distorções devido às variações de altitude e velocidade da plataforma.

Altitude Rotação

Velocidade Ondulação

As transformações matemáticas empregadas para corrigir as deformações geométricas


podem ser agrupadas em modelos matemáticos de sensores físicos rigorosos e modelo
generalizado.Os modelos generalizados independem da plataforma, ex: Transformação afim
no Plano e Polinomial; Transformação Linear Direta (DLT).
Já os modelos matemáticos físicos ou rigorosos dependem dos parâmetros da
plataforma (efemérides , altitude, ângulo de inclinação; freqüência de varredura; orientação
entre os sistema de referencia do instrumento e do sensor de altitude). As vantagens deste
modelo são :
™ Eliminar as distorções geométricas globalmente;
™ Permitir a representação da imagem corrigida em qualquer sistema de projeção
cartográfica;
™ Permite o refinamento dos dados de altitude ou dos dados de efemérides a partir de
alguns pontos de controle;
As desvantagens porem sao :
™ Complexidade
™ Dificuldade em se obter os parâmetros orbitais

55
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 30- Distorções de imageamento, ortoretificação

5.4.4.2- Modelos Matemáticos

Seja u= f (E,N) e v=g(E,N); onde E, N são coordenadas no ponto no terreno (UTM)


e u, v o local desses pontos na imagem. Geralmente, essas funções são desconhecidas, logo se
utilizam polinômios para impor este relacionamento. As funções são relacionadas através de
pontos de controle que estabelece a relação terreno e imagem. Existe influencia do número
de pontos de controle na estimação dos parâmetros de transformação e na eficiência do
modelo matemático. Com a introdução das imagens de alta resolução faz-se necessário à
revisão das técnicas de correção geométrica. Os modelos matemáticos polinomiais 2D (ex:.
transformação afim ) amplamente utilizados em imagens tipo Landsat 7, Spot 4 e Cbers,
possuem eficiência reduzida quando aplicados em imagem tipo Ikonos ou Quickbird, neste
caso vem-se testando modelos matemáticos 3D, ou ainda, modelos de ortorretifição
aplicados na fotogrametria.

A- Transformação afim

Para transformar um sistema de coordenadas em outro sistema devem-se conhecer os


parâmetros de transformação denominada afim (rotação, translação, escala). Estes parâmetros
podem ser determinados por meio de pontos de controle (ground control points, CGP), ou
seja, pontos que sejam reconhecíveis e conhecidos em ambos sistemas, de maneira a formar
um sistema de equações.

56
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Xo= a1xi + a2yi + Tx


Yo= a3xi + a4yi + Ty

onde: Xo, Yo: coordenadas a serem retificadas;


xi, yi : Coordenadas originais
a1 a2 Tx
a3 a4 Ty ; parâmetros de transformação.

Na verdade, com o mínimo de três pontos de controle este sistema teria solução (6
equações a 6 incógnitas), porém quanto maior o número de pontos de controle mais acurado
será a determinação dos parâmetros de transformação. Com vários pontos de controle, tem-se
um sistema superabundante de equações, o que permite avaliar o erro da transformação e
rejeitar os pontos de controle que acumulam maior erro. Este modelo é bastante utilizado em
imagens tipo Landsat, Spot 4, Cbers, onde a distorção causada pelo relevo possui uma
relevância secundária.

Determinação da Acurácia da Transformação

Uma vez que se possui vários pontos de controle pode-se verificar quais dos pontos
se ajustam melhor à transformação. O erro total cometido na transformação é dado pelo erro
quadrático médio EQM ou RMS, determinado pela fórmula:

EQM= ( xt − xm ) 2 + ( yt − y m ) 2

onde: xt, yt, são as coordenadas transformadas e xm,ym são os pontos de controle(GCP), onde :

Ex= xt -xm e Ey=yt-ym, os resíduos.

O erro quadrático médio pode ser expresso pela diferença em distância entre os pontos de
controle e os transformados a partir destes (Figura 31)

Figura 31 -Erro (RMS)

Coordenada do ponto de controle


Ex
Ey

Ec

Coordenada transformada

57
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Da mesma maneira, pode-se determinar os erros individuais para cada ponto de


forma que a erro será dado por:

n n
Ec= ∑ Ex
1=1
2
+ ∑ Ey 2 , onde EQMi erro por pontos, n número de pontos GCP, Ex2 e Ey2, são
i =1

os resíduos para as coordenadas x e y (Figura 32).

Figura 32 - (A) pontos de controle distribuídos na imagem

Erro tolerável depende da resolução da imagem e da escala do mapeamento. Uma


transformação com um RMS de 1 pixel significa para uma imagem Ikonos cuja resolução é 1
x 1 metro, o erro é de um raio de um metro. Alguns autores aceitam para o Ikonos um erro de
até um pixel. Por esta razão, nem sempre o mapas servem para retificar imagens uma vez que
estes podem acumular um erro posicional superior à resolução da imagem. No entanto, muitos
destes mapas podem ser úteis quando a escala que se pretende trabalhar na imagem é menor
que a do mapa topográfico (Ex.: um mapa na escala 1:50.000 pode ser utilizado na retificação
se a escala da imagem for inferior 1:100.000).
Para se obter um erro mínimo na transformação deve-se levar em conta:

• A precisão dos pontos de controle deve ser melhor que a resolução do pixel;
• O erro total da transformação deverá ser compatível com a acurácia esperada para escala
da imagem;
• A localização dos pontos de controle deve ser em nível de pixel na imagem;
• As curvas de nível e/ou altitudes devem ser precisas oriundas de mapas em escala 1:5.000,
ou maior (ver item 4.1).

Imagem de Alta Resolução

Uma outro conceito vindo da fotogrametria é a ortoretifição que significa


transformar as imagens ou fotografias,adquiridas em perspectiva central para a projeção
ortogonal, ou corrigindo os erros advindos do relevo. No que se refere as imagens de alta
resolução, a transformação geométrica deve levar em conta a variação do relevo. Com a

58
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

disponibilidade de imagens de alta resolução espacial, o modelo de polinômios racionais (ou


razões polinomiais) está sendo amplamente utilizado para a correção geométrica. TAO &HU
(2001) consideram que os polinômios racionais são essencialmente uma forma genérica de
polinômios, e apresentam a descrição das soluções direta e iterativa dos polinômios racionais
pelo MMQ. A resolução dos polinômios racionais utilizados nos testes descritos a seguir foi
efetuada pela solução direta, sendo consideradas como observações (ou medições) apenas as
coordenadas de imagem; assim, o método adotado para o ajustamento pelo MMQ foi
oparamétrico (como na transformação afim). O modelo de polinômios racionais é utilizado
para modelar a superfície topográfica (representada pelo modelo digital de elevação) na
correção geométrica de imagens de alta resolução espacial. O modelo poder ser extraído
através das curvas de nível ou mais modernamente por laser scanning.

A equação geral para os polinômios racionais é:

Ln= P1(XN,YN,ZN)/ P2(XN,YN,ZN) (1)


Cn= P3(XN,YN,ZN)/ P4(XN,YN,ZN)

Onde:
Ln e Cn são, respectivamente, as coordenadas de imagem linha e coluna normalizados
correspondentes a um ponto objeto cujas coordenadas normalizadas são Xn, Yn, e Zn.
Para o caso de 3º grau, os polinômios são expressos como:
P1 = (1 Z Y X . . . Y3 X3 )* (a0 a1 . . . a19)T
P2 = (1 Z Y X . . . Y3 X3 )* (1 b1 . . . b19)T (2)
P3 = (1 Z Y X . . . Y3 X3 )* (c0 c1 . . . c19)T
P4 = (1 Z Y X . . . Y3 X3 )* (1 d1 . . . d19)T
Os termos ai e bi são os parâmetros a serem determinados por meio dos pontos de controle.
Um outro modelo que pode ser utilizado é o modelo APM , conhecido como equação
de projeção paralela que projeta o espaço 3D no plano 2D. Modelo é o que se segue:

x a1 a2 a3 X a4
y = a5 a6 a7 Y + a8
z a9 a10 a11 Z a12

Onde:
x, y, z : coordenadas do espaço imagem;
X,Y,Z: coordenadas no terreno
a1 ...a12: : parâmetros de transformação
Para o modelo Afim 3D se deve obter as coordendas Z, por meio do modelo digital
do terreno, Figura 33. O resultado da transformação é uma ortoimagem que não possui
distorções devido ao relevo. A ortoimagem por si só não é substituta para a carta, deve ser
apenas uma ferramenta para a produção ou atualização cartográfica e integração com o
geoprocessamento. A pesquisa de modelos matemáticos, métodos e técnicas para a geração de
ortoimagens ainda é um tema em discussão pela comunidade de S. Remoto.

Figura 33- Geração de uma ortoimagem

59
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

6- CLASSIFICAÇÃO

6.1- Interpretação de imagem

Um dos objetivos principais do sensoriamento remoto é a extração de


feições das imagens brutas por meio do processo de Classificação ou Categorização dos
Pixels, por meio de amostragem estatística. Define-se como classificação das imagens de
sensoriamento remoto, a associação a cada pixel uma informação qualitativa (atributo). Os
valores de cada nível de cinza (DN) para cada pixel pode ser associado à reflectância dos
materiais que o compõem no terreno. Desta forma, cada pixel ou um conjunto de pixels, estará
associado a uma classe ou tema.
A fotointerpretação ou interpretação da imagem é o primeiro passo para se
classificar uma imagem, pois o correto reconhecimento dos objetos da imagem é fundamental
para a aplicação de algoritmos de classificação digital. A interpretação visual da imagem faz
uso de elementos de reconhecimento, os quais servem de fatores-guia no processo de
reconhecimento e identificação dos alvos na superfície terrestre através de uma fotografia
aérea ou imagem de satélite. Estes elementos básicos de leitura de uma fotografia ou imagem
são os seguintes:
• Tonalidade e cor;

• Forma e tamanho;

60
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

• Padrão;

• Textura;

• Associação

• Sombra.

6.1.1- Tonalidade e cor


A tonalidade refere-se a intensidade de energia eletromagnética refletida por um tipo de
alvo na superfície terrestre, em uma determinada banda do espectro eletromagnético,
em outras palavras, a tonalidade está estreitamente relacionada com o comportamento
espectral das diferentes coberturas da superfície terrestre. Em fotografias aéreas a cor está
associada ao tipo de filme (preto e branco, colorido normal, infravermelho preto e branco e
infravermelho colorido). Em uma imagem de satélite, devido à reflexão seletiva dos alvos
existentes na superfície terrestre, nas distintas bandas do espectro eletromagnético,
analisamos os tons de cinza nas bandas individualmente ou as cores através das composições
coloridas. O olho humano é mais sensível a cores que a tons de cinza. Desta forma
associamos cores aos tons de cinza (Figura 34).

Figura 34- Exemplo de Tonalidade e cor- imagem LANDSAT /TM do encontro das águas dos
rios Solimões (azul claro) e Negro (preto) formando o rio Amazonas

6.1.2- Forma
A forma é definida através da geometria dos objetos e o tamanho é diretamente
proporcional à escala. A forma é um elemento importante, pois facilita o reconhecimento
de alguns alvos na superfície terrestre, tais como: estradas e linhas férreas (que apresentam

61
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

formato longitudinal), cultivos (que tem formas regulares e bem definidas pois as culturas são
plantadas em linha ou em curva de nível), reflorestamentos (que tem formas regulares)
(Figura 35), áreas irrigadas por pivô central (que apresentam formas arredondadas)
reservatórios, complexos industriais, aeroportos, estruturas geológicas e geomorfológias,
cidades (que apresentam formas reticulares devido aos cruzamentos de suas avenidas e ruas)
(Figura 3), rios (que apresentam forma sinuosa) etc. Paralelamente a forma deve-se
também levar em consideração o tamanho dos alvos, pois algumas vezes alvos diferentes
apresentam formas semelhantes, mas tamanhos diferentes, o que auxilia na sua caracterização.
Por exemplo, as áreas de horticultura têm forma semelhante às áreas de plantio de cana-de-
açúcar, porém elas têm tamanhos diferentes. O mesmo acontece com rios, os rios principais e
os tributários têm a mesma forma sinuosa, mas tamanhos diferentes (LINGNAU, 2003).

Figura 35- Imagem IKONOS de área agrícola com padrão quadriculado bem definido.
(Fonte: http://www.engesat.com.br).

6.1.3- Padrão
Este elemento é bastante utilizado em fotografias aéreas e em imagens de alta resolução.
O padrão é definido a partir da união e extensão das formas que podem se repetir
regularmente com variações tonais na imagem. O padrão pode ser representado por obras
feitas pelo homem ou feições naturais, p. ex. padrões de drenagem, padrão das plantações, de
construções, de minerações, etc. Em estudos de bacias de drenagem o padrão de drenagem é
um elemento importante, pois ele está associado ao tipo de solo, rocha e estrutura geológica
na área que está sendo estudada. O Padrão também nos permite identificar alguns tipos de
coberturas artificiais tais como plantações, áreas de reflorestamento, áreas urbanas, distritos
industriais, área urbana (Figura 36) e algumas áreas de lazer, etc

62
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 36: Padrão linear, típico em áreas de plantios agrícolas ou florestais.

6.1.4- Textura

A textura pode ser definida como a variação de tonalidade criada em função do


conjunto de objetos demasiadamente pequenos para ser percebidos individualmente. A textura
poderia também ser defina como a repetição tonal de alguns grupos de objetos não
identificáveis individualmente. A textura é o produto da forma, tamanho, sombra e tom de
cada objeto. A textura oferece a impressão visual de rugosidade ou lisura de determinada
superfície. Em geral a textura é uma ferramenta valiosa na interpretação de padrões florestais
e formas de relevo em imagens orbitais de alta resolução e fotografias aéreas. A textura varia
sempre com a escala.

Figura 37- Comparação entre a imagem LANDSAT e IKONOS de uma parte da Bacia
Paracatú na escala 1:25.000.

6.1.5- Associação (ou convergência de evidências)


Elementos ou objetos que estão comumente associados, nos quais um tende a ocorrer
em função do outro. Por exemplo, a ocorrência de mangue se dá por uma conjuntura de
fatores de influência fluvio-marinha.

6.1.6- Sombra
É outro elemento importante na interpretação de imagens de satélite,mas na maioria das
vezes dificulta a interpretação das imagens, porque esconde a informação onde ela está
sendo projetada. De um modo geral o relevo sempre provoca uma sombra do lado oposto a

63
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

incidência do sol, fazendo com que estas áreas apresentem tonalidades escuras na imagem,
dificultando assim a caracterização dos alvos na superfície terrestre.

6.1.5- Chave da interpretação de imagem


Com base nestes elementos elabora-se então uma chave de classificação, a qual serve de guia
ao fotointérprete para identificar rapidamente os alvos na fotografia ou na imagem. A chave
vem a ser descrição e ilustração típica dos alvos. Este tipo de interpretação visual pode ser
muito interessante quando não se quer ou não é viável realizar uma classificação digital da
imagem Este material também pode ser preparado um trabalho com finalidades de
interpretação preliminar em campo para posterior classificação automática. As chaves de
interpretação não têm aplicabilidade ampla, ou seja, ela deve ser desenvolvida para uma
determinada região e imagem.

A vantagem da utilização de chaves é que elas podem ser adaptadas para sensores de
diferentes satélites e permite que o fotointérprete iniciante organize as informações na
fotografia ou imagem, de modo a melhorar a eficiência do mapeamento.

A tabela 8 mostra o exemplo da chave da fotointerpretação para uma composição colorida


para a Imagem IKONOS no município de Nova Esperança – PR. Na imagem onde a
vegetação aparece em vermelho, a combinação de bandas foi feita da seguinte forma: a cor
azul foi associada à banda 2 (visível), a cor verde à banda 3 (visível) e a cor vermelha à banda
4 (infra-vermelho próximo). Esta combinação é chamada de falsa-cor, porque os alvos
aparecem na imagem em cores falsas, e não como são vistos na natureza. Este tipo de
combinação é muito usado para identificação de diferentes tipos de matas ou diferenciar
áreas de mata sadia das atacadas por enfermidades, ou para realçar sedimentos em
suspensão na água.

64
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Tabela 08 – Exemplo dos elementos de interpretação para a Imagem IKONOS, composição


B4, B3 e B2 em RGB. (Fonte: Adaptado, ANTUNES, 2003)

Descrição em Campo Imagem IKONOS Característica no Campo

azul mesclado c/ rosa e


Cor
rosa

Textura áspera

Padrão Linear

Áreas de agricultura que podem ser


facilmente subdivididas em função do
tipo de cultura e época de plantio.

Cor azul escuro

Textura Lisa

Áreas pequenas e com solo exposto

Cor Azul escuro

Textura Marmorizada

Área úmida ao redor do eixo do


córrego, a qual possui uma vegetação
típica de banhado.

Cor vermelha

Textura grosseira

Vegetação arbórea que ocorre ao


longo do curso d’água.

Cor Azul

Textura Lisa

Lago artificial com baixo índice de


sedimentação.

65
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Cor Azul claro

Textura Fina

Solo exposto e arado pouco antes da


obtenção da imagem.

Cor azul e rosa

Textura Fina

Padrão Linear

Os diferentes tons indicam os


diferentes tipos de pasto.

6.2- Classificação Digital

O processo de se associar pixels a feições distintas pode ser realizado por diferentes
métodos, denominados classificação supervisionada e não supervisionada.

A método de classificação supervisionada consiste na classificação controlada pelo


usuário ou conhecedor da área (analista) a ser classificada. Baseado na chave da
fotointerpretação o analista seleciona na imagem amostras (pixels) de feições conhecidas
previamente. Estas amostras devem representar o melhor possível as feições a serem
classificadas. Este tipo de classificação é indicado quando o analista tem facilidade de
reconhecer todos os padrões da imagem e classes bem distintas entre si. O analista deve
primeiramente determinar as classes e posteriormente as assinaturas, ou seja, o conjunto de
dados estatísticos de cada amostra coletada na imagem. Através da análise estatística saber-
se-á a qualidade da amostra.

A classificação a não supervisionada requer do usuário apenas alguns parâmetros


tais como número de classes e interações. O algoritmo permite agrupar pixels com
características espectrais similares. É necessário posteriormente associar classes aos
agrupamentos, procedimento este que é feito de maneira totalmente automatizada. Este
processo também pode ser denominado de segmentação, que significa o agrupamento de
pixels dentro de determinados intervalos de variação. O método mais utilizado é o Self-
Organizing Data Analysis Technique ou Isodata (agrupamento). Este algoritmo permite
reunir pixels de maneira seqüencial, através de uma mínima distância espectral. Assim sendo,
cada pixel é associado a determinado agrupamento ou cluster. O resultado da classificação
não supervisionada é a segmentação da imagem dentro de intervalos pré-fixados de variação
espectral.

6.2.1- Classificação Supervisionada

66
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

O primeiro requisito para proceder à classificação supervisionada é o correto


reconhecimento e interpretação da imagem por parte do usuário. Uma vez que, as feições do
terreno são reconhecidas na imagem, inicia-se o processo de seleção das áreas de
treinamento ou amostras. Vários autores definem como áreas de treinamento ou
amostragem de imagem um conjunto de pixels que representam determinada feição, classe ou
categoria. Estas irão compor um arquivo de assinaturas que servirá de base à classificação
(JANSEN, 1986; SABINS, 1987; RICHARDS, 1997; McCLOY, 1995 ).

As amostras são selecionadas interativamente na imagem através do agrupamento de pixels


que possuam uma variação espectral pequena. Na Figura 39 observa-se a amostragem de um
conjunto de pixels a serem associados à classe de solo exposto.

Figura 39- Seleção de uma amostra, imagem Ikonos multiespectral.

Amostra
Ex: Reflorestamento

As amostras devem representar o melhor possível as classes a que estão associadas. A


estatística da amostra é fundamental para que se obtenha amostras mais homogêneas
possíveis, com pouca variação espectral entre os pixels. Os parâmetros mais comuns de
avaliação estatística são os seguintes:

• Histograma da Amostra
• Desvio padrão, Variância
• Elipses

Observa-se na Figura 40 o histograma da amostra de reflorestamento da


figura 32, há um grande espalhamento dos valores dos DNs que variam de 51 à 243, porém a
maioria dos pixels encontra-se na faixa de 100 à 200. Supõe-se que no centro do histograma
estejam os valores mais prováveis da classe de solos expostos. Esta amostra possui um alto
desvio padrão 15,7 o que leva a crer que a amostra é homogênea, se tratando de uma
imagem de alta resolução. Entretanto, uma amostra pode ter diferentes desvios padrões para
diferentes bandas. Dessa forma deve-se levar em consideração todas as bandas da imagem.

67
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 40- Histograma da amostra reflorestamento para banda 3

nº Pixels

70 125 Nível de Cinza

Na avaliação das amostras numa imagem multi-banda, as elipses são ferramentas


úteis. A partir das médias e desvios padrões do arquivo das amostras, pode-se construir numa
figura bidimensional onde no eixo vertical tem-se as variações dos níveis de cinza para uma
banda e, no eixo horizontal, as mesmas variações para uma outra banda. Geralmente, as
assinaturas possuem elipses que se sobrepõem , representando classes de difícil distinção
espectral (Figura 41). O seu efeito visual permite a melhor compreensão da distribuição
espectral dos dados amostrados em cada assinatura ou classe.
Observa-se na Figura 41: a) que as amostras das assinaturas 1 e 2 se sobrepõem,
significando uma confusão entre estas duas classes; b) a separação entre as elipses mostra
uma boa amostram para as assinaturas 1 e 2 neste par de bandas. As elipses devem ser
analisadas par a par de bandas a fim de se determinar em quais faixas se pode selecionar as
melhores amostras.

Figura 41- Elipses (Fonte: adaptação Erdas fieldguide, 2003)

(a) (b)

Para realizar uma seleção adequada de amostras na imagem, deve-se levar em


consideração os seguintes requisitos:
• As amostras mais homogêneas possíveis - baixo desvio padrão;
• Amostras representativas das categorias a serem classificadas;

68
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

• Serem constituídas por no mínimo 15 pixels;


• O histograma deverá ter uma distribuição próxima de uma curva normal.

Após a amostragem das diferentes feições do terreno pode-se proceder a classificação da


imagem por métodos paramétricos que levam em conta a estatística das amostras coletadas os
principais métodos são : mínima distância; máxima probabilidade. Existem ainda métodos
não paramétricos como o baseado em Lógica Fuzzy.

6.2.1.1- Mínima distância

A regra da mínima distância, também denominada distância espectral, determina a distância


espectral entre a medida do vetor do pixel candidato e do vetor médio para cada assinatura nas
diferentes bandas da imagem. O pixel candidato é classificado na assinatura mais próxima
espectralmente. A equação de classificação basea-se na distância Euclidiana (Figura 42).

Figura 42- Pixel candidato e a distancia espectral entre as classes


Pixel Candidato

∑ (µ − X xyi )
2
n
SD xyc = i =1 ci

Onde: n = numero de bandas


i = uma banda em particular
c = uma classe em particular
Xxyi = valor do pixel para uma banda i
µci = média do valor na banda i para a classe c
SDxyc = distância espectral do pixel x,y para a média da classes c

Por esta regra não existirão pixels sem classificação, não obstante, não se considera a
variabilidade da classe, ou seja, a variância, uma vez que os pixels longe da média com uma
grade variância poderiam pertencer a uma outra classe. O método de Mahalonobis é uma
regra de decisão, que associa a matriz covariância da amostra à mínima distância, melhorando
a precisão da classificação. Entretanto, tende a superclassificar amostras que possuam amplos
valores de covariância. Este método é bastante utilizado para se classificar imagens de media
resolução com diferentes bandas espectrais( Ex:. Landsat; Cbers)

69
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

6.2.1.2- Máxima probabilidade ou verossimilhança

Este método estatístico baseado no teorema de Bayes é o mais utilizado em


sensoriamento remoto para classificação digital de imagens multiespectrais de media
resolução.
Seja ωi classes espectrais de imagem, o teorema de Bayes preconiza que a
probabilidade de pixel x pertencer a uma classe ωi é dada por:

P (ωi| x)= P (x|ωi). P (ω1)/P (x),

onde:

P(ωi| x) = probabilidade a posteriori baseada em amostragem;


P(ωi) = probabilidade a priori ou evidência baseada num conhecimento prévio.

A amostragem de determinada feição permite associar determinado pixel a determinada


classe. Logo um vetor de observação X poderá pertencer a uma classe ω1 ou ω2 de acordo
com as probabilidades descritas pelas funções f1(x) e f2(x) da Figura 43

Figura 43: funções densidade de probabilidade para classes ω1 e ω2

f(x)
P(X|ω1) = a;
P(X|ω2) = b;
classe(ω2) f(x) = função densidade de probabilidade
(distribuição normal)
classe(ω1) (1/σ (2π)1/2 )∗ (e –1/2[(X -µ/σ)]2)
Regra de decisão: a > b X pertence a ω1
a < b X pertence a ω2

f1 (x) f2 (x)
a b X (reflectância)

Assumindo que P(ωi) ≠ P(ωj) de diferentes probabilidades a priori, então, as funções


descriminantes poderiam ser dadas pela seguinte expressão matemática:

gi (X) = ln P (x|ωi).P (ω1) ; gi (X) = ln P(x|ωi) + lnP(ω1);


logo , X ∈ ω1 se gi (X) > gj (x) para todo j≠i.

Muitas vezes as probabilidades a priori são as mesmas, sendo assim, são desconsideradas no
cálculo da probabilidade a posteriori:

gi (x)= -0.5{ln|Ci| + di2(X)};


o termo -0.5ln|Ci| releva algo sobre o tamanho e forma da função para classe ωi;
o termo di2(X) é a distância estatística baseada na variância (Figura 44).

70
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Figura 44: Regra de decisão


f(X)
ω1• ω2

X ∈ ω2 d2>d1
d2

d1
∗X

µ1 µ2 X

O algoritmo de decisão da máxima probabilidade, as assinaturas apresentarão


distribuições normais e as distâncias calculadas levarão em conta a matriz covariância. De
forma mais simplificada poder-se-ia determinar a distância pela seguinte expressão:

D = ln(ac) − [0.5l ( | Covc| )] − [0,5(X − µc)t(1 / Covc)(X − µc)]


onde:
D = distância com pesos;
c = classe;
X = vetor dos dados do pixel candidato;
µc = vetor média dos valores para classe c;
ac = probabilidade a priori de qualquer pixel pertencer à classe c;
Covc = matriz covariância da assinatura c;
|Covc| = determinante da matriz covariância;
1/Covc = matriz inversa da covariância;
ln = logaritmo natural;
t = transposta.

Assume-se neste caso, que em todas as assinaturas as probabilidades são iguais para
todas as classes, ou seja, ac = 1. Todos os pixels da imagem são classificados de acordo com
esta regra de decisão. Este método, em relação a mínima distância é o que apresenta
melhores resultados. Isto se deve-se ao fato de considerar um maior número de variáveis. No
entanto, existe uma tendência de superclassificação, ou seja, relacionar um maior número de
pixels às amostras com maiores valores relativos contidos na matriz. Deve-se em mente que a
classificação baseada em probabilidade estatística está sempre sujeita a erros. O resultado
deve ser sempre confrontado com a realidade de campo.

6.2.1.3- Classificação Fuzzy

Definindo matematicamente um conjunto fuzzy, sendo X o espaço dos pontos


(pixels), com um elemento genérico de X denotado por x, então:
X= {x}
A= {x, fA(x)}; x ∈ X.

71
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

O conjunto fuzzy (classe) A em X é caracterizado por uma função de pertinência


fA(x) que associa cada ponto em X a um número real no intervalo [0,1]. O valor de fA(x)
representa o grau de pertinência de x em A. Este grau não é uma medida de probabilidade,
mas sim uma possibilidade. Desta forma pontos podem pertencer a um conjunto fuzzy num
grau maior ou menor (WANG, 1990; AZEVEDO et al., 2000). A função de pertinência de um
conjunto fuzzy é expressa por fA(x), definido o grau de pertinência de x em A (Figura 45).

Figura 45- Função de pertinência

Possibilidade

1- fA(x)

0.5 -

0 Nível de Cinza

Na representação fuzzy, as classes podem ser definidas como conjunto fuzzy e os


pixels como elementos. Um pixel pode pertencer a uma determinada classe com um grau de
pertinência e a uma outra classe com outro grau de pertinência. A Figura 46 mostra os graus
de pertinência de diferentes classes baseadas em uma função de pertinência.
A representação fuzzy é bastante adequada à classificação quando se deseja obter
condições intermediárias entre classes, através dos graus de pertinência. Estes graus podem
ser utilizados como um conhecimento a priori da área a ser classificada, bastante útil para a
melhora da imagem temática resultante ( ANTUNES & LINGNAU, 2001). Espaço espectral
Fuzzy (WANG, 1990b). O pixel em preto possui uma maior pertinência a classe várzea. Os
pixels coloridos mostram o valor médio para cada classe.

Figura 46- Espaço espectral Fuzzy (Adaptado, ANTUNES, 2003)


Superfícies de
decisão

Várzea fVarzea = 0,60


fAgricultura= 0,4

B3 Agricultura B3

B4 B4

72
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

6.2.2- Classificação baseada em objetos: segmentação

A classificação baseada em objeto ou segmentos permite o agrupamento de


pixels dentro de uma variação espectral estipulada pelo usuário. É um processo de
segmentação da imagem onde o usuário pode diferenciar algumas feições de características
espectrais similares. Métodos de classificação supervisionada e não supervisionada podem ser
processados conjuntamente. Os agrupamentos de pixels podem ser úteis na seleção de
amostras mais homogêneas. Isto permite ao usuário obter amostras (assinaturas) de dispersão
mais baixa e conseqüentemente maior separabilidade entre as diferentes feições da imagem.
Objetiva-se também com a segmentação dividir uma imagem em grupos de pixels ou
objetos de acordo com determinado grau de homogeneidade, a fim de associá-los a uma
feição do terreno. Dependendo do tipo de imagem e do objetivo, diferentes métodos de
segmentação podem ser aplicados.
A segmentação de uma imagem pode ser definida conforme FU & MUI (1981) como a
divisão de uma imagem em diferentes regiões, onde cada uma destas regiões possui
propriedades específicas. As regiões consistem em um agrupamento de valores
multiespectrais ou hiper-espectrais similares. A segmentação é uma componente importante
para o reconhecimento de padrões. Entretanto, não existe um modelo formal para
segmentação. O processo é essencialmente empírico e, em geral, ajustável aos diferentes tipos
de imagem, com limiares definidos face a complexidade dos alvos investigados.
De acordo com GONZALEZ & WOODS (2000) e TILTON (2002) os algoritmos para
segmentação de imagens são geralmente baseados nas propriedades básicas de valores de
níveis de cinza, descontinuidade e similaridade. Na primeira categoria, a abordagem é
particionar a imagem baseada em mudanças bruscas de tons de cinza. Este tipo de
segmentação é utilizado quando se deseja detectar bordas e pontos isolados. A segunda
categoria (similaridade) baseia-se em limiarização e crescimento de regiões.
De acordo com GONZALEZ & WOODS (2000) o crescimento de regiões é uma
técnica de agrupamento espacial no qual somente pixels adjacentes, contíguos na imagem,
podem ser agrupados. Esta técnica consiste em partir de um ou vários pixels considerados
uniformes, analisar os pixels na vizinhança e adicionar os vizinhos que forem similares ao
grupo inicial, de maneira que a região formada cresça num processo iterativo que termina
quando as fronteiras naturais dos objetos presentes na cena forem atingidas. Ao final do
processo, a imagem encontra-se dividida em várias sub-regiões.
Seja I todos os objetos da imagem, a segmentação por região pode ser vista como o processo
de subdivisão de I em n sub-regiões, R1, R2, ...RN, tal que:
n
U i =1 Ri = R , onde todos os pixels devem pertencer a uma única região,
Ri , região conexa, i=1,2,3 ...n;
As regiões devem ser disjuntas, tal que, Ri ∩ Rj = Ø para todo i e j, i≠j;
Os pixels em Ri de uma mesma região devem possuir a mesma intensidade ou característica;
P(Ri)= verdadeiro para i= 1,2,..n e para diferentes regiões P(Ri U Rj )= falso, para i ≠ j. Em
que P(Ri) é um predicado lógico sobre os pontos do conjunto Ri e Ø é o conjunto vazio;
A condição (1) sugere que a segmentação deve ser completa . A segunda condição requer que
pixels de uma mesma região devem ser conexos.

73
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

A região cresce através da agregação de pixels com características similares tipo cor,
brilho. A agregação que forma o objeto ou região é interrompida até não poder crescer mais,
baseados nos parâmetros associados e limiar, exemplo Figura 47.

Figura 47- Imagem multiespectral segmentada em regiões homogêneas espectralmente

Segmentos

Imagem tipo IKONOS e QUICKBIRD são em geral classificadas após serem


segmentadas. Os segmentos ou objetos oriundos da segmentação podem ser categorizados
automaticamente por algoritmos tipo fuzzy, mínima distância, ou manualmente pelo usuário.
A Figura 48 mostra a classificação digital posteriormente a segmentação.

Figura 48- Classificação orientada a objeto, imagem Ikonos.

Objetos Classificados manualmente por fotointerpretação após a segmentação

6.2.3- Acurácia

A discussão sobre a análise da confiabilidade temática da imagem requer que


inicialmente sejam definidos os termos acurácia, precisão e exatidão, os quais geralmente são
usados de forma confusa. Define-se precisão como o grau de concordância de uma série de
observações ou medidas, enquanto a acurácia esta relacionada a proximidade de uma
observação ou medida do seu valor real. Pode-se, então, associar a precisão os erros aleatórios
ou acidentais, e acurácia aos efeitos dos erros aleatórios e sistemáticos conjuntamente. Uma
observação pode ser considerada como exata se não tiver ocorrido o erro sistemático ou bias.
A falta de exatidão das observações são geralmente oriundas dos erros sistemáticos e tendem
a se acumular num mesmo sentido.

74
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

Considerando uma amostragem, a acurácia seria expressa pelo desvio padrão da


amostra do valor real da população. A precisão poderia ser relacionada ao desvio padrão da
média da amostra. É possível que uma amostragem possua uma alta precisão, ou seja em
pequeno desvio em relação a média, e ao mesmo tempo, devido a falta de exatidão, um grau
acurácia inferior.

6.2.4- Qualidade da Imagem Temática

A conservação, preservação, planos de manejo ambiental com vistas a compor a base


de um SIG requerem um mapeamento da situação atual da área em questão. Os mapas
temáticos então disponíveis são tidos geralmente como corretos. No entanto, sabe-se que
erros desde a obtenção dos dados até a geração de um mapa podem ocorrer em diferentes
níveis e escalas.
Grande parte do mapeamento digital do uso do solo, a nível regional, vem sendo
realizado através de imagens de sensoriamento remoto. Técnicas de classificação
supervisionada associadas ao processamento digital de imagens tem dado bons resultados na
extração de informação que compõem determinada região. No entretanto, todo o processo de
classificação está sujeito a erros dos mais diversos tipos e fontes. A avaliação da acurácia
dos dados extraídos das imagens está diretamente relacionado com a qualidade do
mapeamento. Todas as classes que compõem a imagem ou o mapa temático devem ser
associadas a um controle de qualidade para que estas possam ser validadas. Entende-se que
um mapeamento temático só deva ser utilizado como fonte fidedigna de informações quando
associados a processos de avaliação da acurácia dos dados que o compõem. Observa-se que
raramente mapas temáticos provenientes de classificação digital ou mesmo da
fotointerpretação apresentam um relatório de acurácia das informações, apesar da maioria dos
softwares de processamento digital de imagem possuírem ferramentas para tal fim.
Erros podem ocorrer em diferentes níveis, ou seja, desde a aquisição de dados,
processamento até na verificação dos resultados obtidos. Estes diferentes tipos de erros muitas
vezes não são distinguíveis mensuráveis. Na obtenção dos dados a partir de imagens de
satélite os erros podem ser primários ou secundários. Erros primários são ocasionados devido
a sensor, condições do meio (variações de temperatura, umidade, iluminação) e ainda na
interpretação da imagem. Existem, também os erros secundários, que são introduzidos
através do processamento dos dados e sua reprodução. A classificação automatizada de
imagens de alta resolução pode conter erros temáticos muitas vezes superiores às
imagens de média resolução quando aplicado o classificador maxver.
• No processamento podem ocorrer erros na correção geométrica, sendo estes ainda
podem ser devido a má definição dos pontos de controle e/ou no algorítmo de
interpolação dos elementos de imagem;
• Áreas de treinamento mal definidas: caso as áreas de treinamento não forem
homogêneas e um mínimo de variância entre os níveis de cinza for obtido, na
classificação os elementos de imagem poderão ser agrupados errôneamente;
• Elementos de imagem mistos são aqueles que representam mais de uma categoria.
Ocorrem geralmente em bordaduras das classes;
• Sobreposição de classes no espaço de atributos, daqueles que foram escolhidos de
forma representativa;
• Erros na classificação em função das condições topográficas e atmosféricas;
• Categorização errada devido ao tipo de imagem e classificador utilizado.

75
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

A qualidade temática da imagem pode ser realizada por avaliação da acurácia


através coeficientes de concordância, sendo que estes podem ser expressos como
concordância total ou para classes individuais.O coeficiente mais comum é o coeficiente
Kappa, usado para avaliar a grau de concordância entre a realidade do terrono ou de campo
com as classes observadas na imagem temática. O coeficiente Kappa é determinado após a
montagem da matriz de erros, ou seja, pás cada classe do mapa temático deve-se escolher um
numero de amostras e verificá-las em campos. Erros e acertos devem ser computados de
maneira a calcular Kappa, de acordo com a equação geral abaixo:
P − Pe
κ= o
1 − Pe

Seja, Po para toda a matriz de erros é dado pela razão do somatório da diagonal
principal pelo número total de observações (N). Po pode ser traduzido pela proporção de
unidades (pontos de referência) que concordam. Pc é expresso pelo somatório do produto dos
elementos das linhas e colunas marginais pelo número total de observações ao quadrado. Pc
traduz a proporção de elementos atribuídos a determinada classe ao acaso. O valor positivo de
Kappa sugere que o valor observado de concordância é maior que a concordância ao acaso
esperada. O valor κ= 1 ocorre quando houver total concordância entre os pontos de referência
e as categorias classificadas. Kappa é um valor abstrato, ou seja, mostra um tendência de
qualidade da classificação, alguns autores comentam que o coeficiente de concordância
aceitável para um mapa temático deve ser superior a 0,70. Deve-se considerar obviamente o
contexto de cada classificação para fixar nível ou índice de qualidade.

76
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

7- SENSORIAMENTO REMOTO E SIG

De acordo com o que foi visto as imagens de satélite pode ser aplicada num projeto
de sistema de informações geográficas nas seguintes áreas:
¾ Atualização da base cartográfica;
¾ Analise espacial por álgebra de Mapas;
¾ Classificação digital
Seja qual for a aplicação a imagem deve ser sempre corrigida geometricamente e
associada ao sistema cartográfico de referência, a fim de se possa sobrepor à imagem outras
informações.
Uma imagem classificada a partir de imagem multiespectral possui uma tabela de
atributos que pode ser associada à base de dados. Comumente uma imagem temática pode
ser convertida em formato vetorial baseado com topologia. A topologia permite relacionar os
diferentes vetores com fins de análise espacial, figura 49.

Figura 49: Conversão matrical para vetor com topologia de polígonos.


Imagem Temática Camada vetorial

8- BIBLIOGRAFIA
ANTUNES, A.F.B. Object oriented analysis and semantic network for high resolution image classification.
Boletim de Ciências Geodésicas. Volume 9, n 2, 2003.

ANTUNES, A. F.B & LINGNAU, C. Análise da aplicabilidade da teoriat fuzzy para classificação de
imagens de alta resolução. Anais II Colóquio Brasileiro de Ciências Geodésicas. UFPR. Curitiba. 2001.

ANTUNES, F.B. Análise do uso do processamento digital de imagem na segmentação de tipologias


vegetais da APA de Guaraqueçaba-Pr. Dissertação de mestrado. Universidade Federal do Paraná. 1996

ANTUNES, A . F.B & LINGNAU, C. Avaliação da acurácia de mapas temáticos oriundos da classificação
digital de imagem. VI Simpósio de Geoprocessamento. São Paulo. 1977.

ANTUNES, A . F.B & LINGNAU, C. Curso de educação a distância em geoprocessamento. Apostila.IEP &
Universidade Eletrônica do Paraná. Curitiba. 2002.

ANTUNES, F.B. Avaliação da resolução temática de imagem híbrida resultante da fusão spot-landsat.
Artigo PGCCG. Universidade Federal do Paraná. 1999

77
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes

BARRETT, E. C.; CURTIS, L. Introduction to environmental remote sensing. Londres:Chapman & Hall.
1992.

CAMARA, G. Geoprocessamento para aplicações em meio ambiente. Salvador: Apostila . VII Simpósio
brasileiro de sensoriamento remoto. INPE, 1996.

CRÓSTA, A. P. Processamento digital de imagens de sensoriamento remoto. Instituto de Geociências,


UNICAMP. Campinas, 1993.

CURRAN, P. J. Principles of remote sensing . 5ºed. Londres. Longman Scientific & Technical. 1995.

DRURY, S. A. Image interpretation in geology. London: Allen & Unwin. 1987.

ERDAS. Erdas field guide. Manual Erdas Imagine 8.6, Atlanta. 2002.

GONZALEZ,R.C, WOODS, R. Processamento de imagens digitais. Editora Edgard Blucher Ltda. S


Paulo.2000.

HOFFER, R. M. Biological and physical considerations in applying computer-aided analysis techniques to


remote sensor data. In: SWAIN, P.H; DAVIS, S.M. Remote Sensing –The quantitive approach. san
Francisco, MacGraw-Hill, p.227-286. 1988.

HUDSON,W. D.; RAMM, W. Correct formulation of Kappa coeficient of agreement. Photogrammetric


engineering and remote sensing, nº4, p.421-422, 1987.

INPE. Sensoriamento remoto. Aplicações para a preservação, conservação e desenvolvimento sustentável


da amazônia, CDROM, 2003.

INPE, Setélite CBERS. www.inpe.br . acesso abril 2000.

JANSEN, J. R. Introductary digital image processing. New Jersey : Prentice Hall. 1986.

MULLER, J. P. Digital Image Processing. London: Taylor & Francis. 1988.

RICHARDS, A. J. Remote sensing digital image analysis. Berlim: Springer- Verlag. 1997.

ROBINSON, H.A et Al. Elements of Cartography. John Wiley & Sons, Inc. Sixth Edition, p127-158. 1995

SABINS, F. F. Remote Sensing: Principles and Interpretation. San Francisco: W.H Freeman. 1987.

ENGESAT, Sensor IKONOS. www.engesat.com.br. acesso maio 2005.

WANG, Fangju. Fuzzy Supervised Classification of Romote Sensing Images. IEEE Transations on
Geoscience and Remote Sensing. vol.28, pp194-201. 1990.

USDA, FOREST SERVICE. Guidelines of the use of digital imagery for vegetation mapping. Salt Lake
City: Integration of Remote sensing Program Nationwide Forestry Application Program, 1994.

78