Você está na página 1de 254

Sensoriamento Remoto II

Prof. Volney Junior Borges de Bitencourt

Indaial – 2021
1a Edição
Copyright © UNIASSELVI 2020

Elaboração:
Prof. Volney Junior Borges de Bitencourt

Revisão, Diagramação e Produção:


Centro Universitário Leonardo da Vinci – UNIASSELVI

Ficha catalográfica elaborada na fonte pela Biblioteca Dante Alighieri


UNIASSELVI – Indaial.

B624s
Bitencourt, Volney Junior Borges de
Sensoriamento remoto II. / Volney Junior Borges de Bitencourt. –
Indaial: UNIASSELVI, 2021.
246 p.; il.
ISBN 978-65-5663-442-5
ISBN Digital 978-65-5663-438-8
1. Sensoriamento remoto. - Brasil. II. Centro Universitário Leonardo
da Vinci.
CDD 526.982

Impresso por:
Apresentação
O Sensoriamento Remoto (SR) é uma tecnologia ou ferramenta
relativamente recente. Contudo, é empregada em praticamente todos os
campos da ciência, com vastas aplicações em certas áreas do mercado de
trabalho.

As vantagens do SR incluem, por exemplo, a capacidade de coletar


informações em grandes áreas espaciais; para caracterizar recursos naturais
ou de interesse econômico; observar áreas de superfície e monitorar suas
mudanças ao longo do tempo; e a capacidade de integrar esses dados com
outras informações para auxiliar na tomada de decisão.

No geral, o SR é uma ciência ampla que lida com dados e informações


que são adquiridos por sensores sem contato direto com o alvo de interesse;
isto é, sem encostar-se ao objeto de investigação.

É importante frisar que o conteúdo aqui apresentado é abordado de


forma objetiva e resumido. Ou seja, você, aluno, não deve se ater somente a
este material, mas também deve buscar ler a bibliografia indicada bem como
outras publicações de renomados autores.

Bons Estudos!

Volney Junior Borges de Bitencourt


NOTA

Você já me conhece das outras disciplinas? Não? É calouro? Enfim, tanto para
você que está chegando agora à UNIASSELVI quanto para você que já é veterano, há novi-
dades em nosso material.

Na Educação a Distância, o livro impresso, entregue a todos os acadêmicos desde 2005, é


o material base da disciplina. A partir de 2017, nossos livros estão de visual novo, com um
formato mais prático, que cabe na bolsa e facilita a leitura.

O conteúdo continua na íntegra, mas a estrutura interna foi aperfeiçoada com nova diagra-
mação no texto, aproveitando ao máximo o espaço da página, o que também contribui
para diminuir a extração de árvores para produção de folhas de papel, por exemplo.

Assim, a UNIASSELVI, preocupando-se com o impacto de nossas ações sobre o ambiente,


apresenta também este livro no formato digital. Assim, você, acadêmico, tem a possibilida-
de de estudá-lo com versatilidade nas telas do celular, tablet ou computador.
 
Eu mesmo, UNI, ganhei um novo layout, você me verá frequentemente e surgirei para
apresentar dicas de vídeos e outras fontes de conhecimento que complementam o assun-
to em questão.

Todos esses ajustes foram pensados a partir de relatos que recebemos nas pesquisas
institucionais sobre os materiais impressos, para que você, nossa maior prioridade, possa
continuar seus estudos com um material de qualidade.

Aproveito o momento para convidá-lo para um bate-papo sobre o Exame Nacional de


Desempenho de Estudantes – ENADE.
 
Bons estudos!
LEMBRETE

Olá, acadêmico! Iniciamos agora mais uma disciplina e com ela


um novo conhecimento.

Com o objetivo de enriquecer seu conhecimento, construímos, além do livro


que está em suas mãos, uma rica trilha de aprendizagem, por meio dela você
terá contato com o vídeo da disciplina, o objeto de aprendizagem, materiais complemen-
tares, entre outros, todos pensados e construídos na intenção de auxiliar seu crescimento.

Acesse o QR Code, que levará ao AVA, e veja as novidades que preparamos para seu estudo.

Conte conosco, estaremos juntos nesta caminhada!


Sumário
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II.................................. 1

TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS............ 3


1 INTRODUÇÃO..................................................................................................................................... 3
2 DEFINIÇÕES BÁSICAS...................................................................................................................... 3
3 PLATAFORMAS DE AQUISIÇÃO DE DADOS E PRODUTOS
DE SENSORIAMENTO REMOTO................................................................................................... 8
3.1 O ESPECTRO ELETROMAGNÉTICO........................................................................................ 10
3.2 CATEGORIAS DE SENSORES REMOTOS................................................................................ 13
3.3 AS ETAPAS DO SENSORIAMENTO REMOTO....................................................................... 15
3.4 ONDE O SENSORIAMENTO REMODO É APLICADO?....................................................... 17
4 PRINCIPAIS SOFTWARES UTILIZADOS NO SENSORIAMENTO REMOTO.................. 18
RESUMO DO TÓPICO 1..................................................................................................................... 23
AUTOATIVIDADE............................................................................................................................... 24

TÓPICO 2 — COMPORTAMENTO ESPECTRAL DE ALVOS.................................................... 27


1 INTRODUÇÃO................................................................................................................................... 27
2 ASSINATURAS ESPECTRAIS DE ALVOS TERRESTRES........................................................ 27
2.1 SENSORES MULTESPECTRAIS E HIPERESPECTRAIS......................................................... 30
2.2 ASSINATURA ESPECTRAL........................................................................................................ 33
2.3 FATORES QUE INTERFEREM NAS MEDIDAS DO COMPORTAMENTO
ESPECTRAL DOS ALVOS............................................................................................................ 43
3 TIPOS DE BANDAS ESPECTRAIS E SUAS COMPOSIÇÕES................................................ 44
RESUMO DO TÓPICO 2..................................................................................................................... 52
AUTOATIVIDADE............................................................................................................................... 53

TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS.......................................... 57


1 INTRODUÇÃO................................................................................................................................... 57
2 OPERAÇÕES COM BANDAS......................................................................................................... 57
2.1 ANÁLISE DE COMPONENTES PRINCIPAIS (ACP).............................................................. 58
2.2 TASSELED CAP............................................................................................................................. 62
2.3 IHS – INTENSIDADE, TONALIDADE E SATURAÇÃO........................................................ 64
2.4 ÍNDICES ESPECTRAIS................................................................................................................. 67
LEITURA COMPLEMENTAR............................................................................................................. 74
RESUMO DO TÓPICO 3..................................................................................................................... 77
AUTOATIVIDADE............................................................................................................................... 79
REFERÊNCIAS....................................................................................................................................... 81

UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS....................... 85

TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E


TÉCNICAS DE REALCE DE IMAGENS................................................................. 87
1 INTRODUÇÃO................................................................................................................................... 87
2 NÍVEL DE PROCESSAMENTO DE DADOS............................................................................... 89
3 CORREÇÕES RADIOMÉTRICAS E GEOMÉTRICAS.............................................................. 93
4 TÉCNICAS DE REALCE DE CONTRASTE (MANIPULAÇÃO DE HISTOGRAMA).............. 103
5 OPERAÇÕES ARITMÉTICAS....................................................................................................... 110
6 TÉCNICAS DE FILTRAGEM......................................................................................................... 114
RESUMO DO TÓPICO 1................................................................................................................... 117
AUTOATIVIDADE............................................................................................................................. 119

TÓPICO 2 — FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS................................ 121


1 INTRODUÇÃO................................................................................................................................. 121
2 FUSIONAMENTO DE IMAGENS ORBITAIS........................................................................... 121
3 MOSAICOS....................................................................................................................................... 125
4 SEGMENTAÇÃO DE IMAGENS.................................................................................................. 127
RESUMO DO TÓPICO 2................................................................................................................... 130
AUTOATIVIDADE............................................................................................................................. 132

TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS................................... 135


1 INTRODUÇÃO................................................................................................................................. 135
2 NOÇÕES DE CLASSIFICAÇÃO DE IMAGENS ...................................................................... 135
3 CLASSIFICAÇÃO NÃO SUPERVISIONADA........................................................................... 139
4 CLASSIFICAÇÃO SUPERVISIONADA...................................................................................... 142
5 AFERIÇÃO E ACURÁCIA DE CLASSIFICAÇÕES (EXATIDÃO GLOBAL,
ÍNDICE KAPPA E ÍNDICE TAU).................................................................................................. 146
6 ANÁLISE MULTITEMPORAL...................................................................................................... 148
LEITURA COMPLEMENTAR........................................................................................................... 152
RESUMO DO TÓPICO 3................................................................................................................... 154
AUTOATIVIDADE............................................................................................................................. 156
REFERÊNCIAS..................................................................................................................................... 158

UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E


EXEMPLOS DE APLICAÇÕES............................................................................ 163

TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL


DE IMAGENS DE SATÉLITE.................................................................................. 165
1 INTRODUÇÃO ................................................................................................................................ 165
2 CARACTERÍSTICAS UTILIZADAS PARA INTERPRETAÇÃO........................................... 166
3 ETAPAS NA ESCOLHA DE UMA IMAGEM............................................................................. 180
4 CHAVES DE INTERPRETAÇÃO DE IMAGENS...................................................................... 183
LEITURA COMPLEMENTAR........................................................................................................... 191
RESUMO DO TÓPICO 1................................................................................................................... 195
AUTOATIVIDADE............................................................................................................................. 196

TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS


DE SENSORIAMENO REMOTO........................................................................... 199
1 INTRODUÇÃO................................................................................................................................. 199
2 RESOLUÇÕES E APLICABILIDADES DE SENSORES REMOTOS..................................... 200
3 VANTAGENS E DESVANTAGENS DO SENSORIAMENTO REMOTO (SR)................... 206
4 MODELOS DIGITAIS DE ELEVAÇÃO (MDE)......................................................................... 208
5 PRÁTICAS EM SOFTWARES LIVRES UTILIZANDO MDE................................................. 212
6 PRÁTICAS NO MULTISPEC UTILIZANDO IMAGENS DE SATÉLITE............................. 225
LEITURA COMPLEMENTAR........................................................................................................... 235
RESUMO DO TÓPICO 2................................................................................................................... 240
AUTOATIVIDADE............................................................................................................................. 242
REFERÊNCIAS..................................................................................................................................... 244
UNIDADE 1 —

FUNDAMENTOS DE SENSORIAMENTO
REMOTO II

OBJETIVOS DE APRENDIZAGEM
A partir do estudo desta unidade, você deverá ser capaz de:

• recapitular alguns conceitos-chaves do Sensoriamento Remoto (SR);


• consolidar os conhecimentos sobre os diferentes níveis de coleta de da-
dos, sensores remotos e os principais produtos de SR;
• conhecer os principais softwares livres e comerciais utilizados no SR;
• aprofundar o estudo das respostas de alvos naturais e artificiais quando
expostos à radiação eletromagnética;
• dissociar os diferentes tipos de bandas a partir de seu intervalo de com-
primento de onda no espectro eletromagnético;
• aprender sobre composições e operações matemáticas aplicadas em
bandas espectrais;
• compreender as principais técnicas envolvidas na transformação espec-
tral de bandas e como são gerados os índices espectrais, como o NDVI,
por exemplo.

PLANO DE ESTUDOS
Esta unidade está dividida em três tópicos. No decorrer da unidade,
você encontrará autoatividades com o objetivo de reforçar o conteúdo
apresentado.

TÓPICO 1 – REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES


INICIAIS
TÓPICO 2 – COMPORTAMENTO ESPECTRAL DE ALVOS
TÓPICO 3 – TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

CHAMADA

Preparado para ampliar seus conhecimentos? Respire e vamos


em frente! Procure um ambiente que facilite a concentração, assim
absorverá melhor as informações.

1
2
UNIDADE 1
TÓPICO 1 —

REVISÃO DOS PRINCIPAIS CONCEITOS E


DEFINIÇÕES INICIAIS

1 INTRODUÇÃO
Neste tópico, revisaremos alguns conceitos fundamentais envolvidos na
ciência denominada de Sensoriamento Remoto (SR). Faremos um apanhado
geral do tema. Assim, veremos que o SR raramente é utilizado de forma isolada.
Na verdade, o SR é habitualmente empregado e trabalhado em um Sistema de
Informação Geográfica (SIG), por meio de técnicas de Geoprocessamento, ou
seja, embora tais tecnologias sejam conceitualmente diferentes, elas podem ser
interligadas e normalmente interagem entre si.

No geral, o SR é uma ciência ampla que lida com dados e informações que
são adquiridos por sensores sem contato direto com o alvo de interesse; isto é, sem
encostar-se ao objeto de investigação. Veremos que essa aquisição de dados pode
ocorrer desde alguns poucos metros até centenas de quilômetros de distância
do alvo. Essas informações geradas, que chamamos de produtos de SR, são bem
variadas e, consequentemente, vão possuir finalidades e aplicações distintas.
Nesse contexto, há uma boa variedade de programas computacionais (softwares),
tanto pagos quanto gratuitos, que lidam com o SR. Assim, revisaremos e fixaremos
alguns conceitos fundamentais envolvidos na área da ciência chamada de SR no
decorrer deste tópico. Boa leitura!

2 DEFINIÇÕES BÁSICAS
Ao iniciarmos alguma leitura de livros ou artigos científicos que versam
sobre o Sensoriamento Remoto (SR), vamos nos deparar com numerosas definições
diferentes sobre o que de fato significa esse termo. Então, a seguir, traçaremos
algumas das respostas – desde uma mais curta e simples até uma mais longa e
complexa – para o questionamento: “o que é sensoriamento remoto”?

• (I) Barrett e Curtis (1999) conceituam o SR como a ciência da observação à distância.


• (II) Conforme Jensen (2009), SR é a ciência e a arte de adquirir informações sobre
objetos sem o contato físico direto.
• (III) Para Schowengerdt (2006), o SR consiste em medições das propriedades de
objetos na superfície da Terra, usando dados obtidos a partir de aeronaves e satélites.
É, portanto, uma tentativa de medir algo à distância, e não in situ.
• (IV) Segundo Prost (2013), o SR pode ser conceituado como técnicas e tecnologias que
são utilizadas para obter informações sobre objetos distantes, por meio da emissão
ou reflexão da radiação eletromagnética, energia acústica, campos potenciais
(gravitacionais, magnéticos) ou medidas geoquímicas.
3
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

• (V) Novo (2010, p. 28) estabelece o SR “como sendo a utilização conjunta de sensores,
equipamentos para processamento de dados, equipamentos de transmissão de dados
colocados a bordo de aeronaves, espaçonaves, ou outras plataformas, com o objetivo
de estudar eventos, fenômenos e processos que ocorrem na superfície do planeta
Terra a partir do registro e da análise das interações entre a radiação eletromagnética
e as substâncias que o compõem em suas mais diversas manifestações”.

Podemos notar que a definição de Sensoriamento Remoto (SR) é bem


ampla e pode ser interpretada de várias formas diferentes (LORENZZETTI,
2015). Enquanto alguns autores são mais abrangentes em suas definições, outros
preferem um conceito mais específico. Além disso, algumas definições também
podem refletir a área de formação e atuação do autor (agronomia, física, geografia,
oceanografia etc.). Em suma, independente do conceito específico de algum
determinado autor, quando nos referimos ao SR estamos lidando com a coleta
de dados a distância. Essa distância pode ser da ordem de poucos centímetros a
milhares de quilômetros do objeto/fenômeno ou da área de investigação (JENSEN,
2009). O SR consiste na tecnologia que oferece grande parte das informações
utilizadas em estudos espaciais (FITZ, 2008).

DICAS

Você pode assistir a uma curta apresentação do Prof. Antonio Miguel Vieira
Monteiro, docente do Instituto Nacional de Pesquisas Espaciais (INPE), que está dispo-
nível no YouTube. O vídeo intitulado de Sensoriamento Remoto: princípios e aplicações
possui cerca de 13 minutos de duração. Na íntegra em: https://bit.ly/35mgjji.

Ao iniciarmos um trabalho que envolva alguma ferramenta ou produto


de SR, vamos lidar com dois outros conceitos que funcionam em harmonia:
Geoprocessamento e Sistema de Informação Geográfica (SIG). O termo
Geoprocessamento é composto por uma série de geotecnologias, e engloba tanto
o SR quanto o SIG. Considerando Câmara, Davis e Monteiro (2001), Piroli (2010)
e Rosa (2013), podemos definir o Geoprocessamento como: área de ciência que
utiliza técnicas computacionais e matemáticas para coletar, visualizar e tratar
dados localizados espacialmente (informações geográficas georreferenciadas)
com um propósito específico. É importante ressaltar que o termo Geomática
também é empregado como sinônimo de Geoprocessamento.

A geotecnologia SIG corresponde a uma ferramenta computacional do


Geoprocessamento, que tem por objetivo a manipulação de dados espaciais (com

4
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS

um sistema de coordenadas definido, isto é, possuem uma posição “amarrada”


na superfície do planeta). Um SIG representa a integração entre o software
(aplicativo ou programa) e o hardware (equipamentos) com a capacidade de
armazenar (banco de dados), analisar e processar informações geográficas; ou
seja, há a preservação locacional do dado espacial em duas ou três dimensões
(FURTADO; RODRIGUES; TÔSTO, 2014). Basicamente, todo objeto presente
na Terra pode ser georreferenciado. Além disso, o SIG torna possível produzir
documentos cartográficos (mapas) de forma automatizada.

De modo geral, o SR possui o seu funcionamento intimamente relacionado


ao SIG. Não obstante, o SR também opera em harmonia com outras disciplinas,
como a cartografia e os levantamentos. Podemos chamar todas estas quatro
áreas de ciência de informação geográfica (Geoinformática), pois lidam com a
construção de representações do espaço por meio de computadores. A Figura 1
mostra um modelo de interação entre as ciências de informação geográfica, de
acordo com Jensen (2009). Conforme o autor, embora cada subdisciplina possua
sua área única e que ocorre sobreposição de conhecimento, não há um domínio
de alguma. Além do mais, a partir da análise da Figura 1, podemos perceber
que as ciências da informação geográfica, em especial o SR, são utilizadas nos
principais grandes campos da ciência.

FIGURA 1 – MODELO DE INTERAÇÃO ENTRE O SENSORIAMENTO REMOTO

FONTE: Adaptada de Jensen (2009, p. 5)

5
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

Em nosso contexto, o SR e o SIG podem ser considerados os aspectos mais


importantes da Geoinformática. Então, vamos relembrar algumas características
importantes sobre tais ciências. De uma forma muito simples, a principal
diferença entre ambos é que o SR é baseado principalmente em dados matriciais
ou raster (imagens de satélite, por exemplo) ao passo que o SIG trabalha tanto
com dados vetoriais (linhas, pontos e polígonos) quanto com dados matriciais.
Em outros termos, a maioria dos programas que lidam com SIG possuem o
foco de manipular um banco de dados feito com dados vetoriais, mas também
apresentam componentes para manipular um banco de dados composto por
dados matriciais. Por meio de um SIG, é possível georreferenciar uma informação
oriunda do SR.

Uma forma de entender melhor essa relação é que através do SR podemos


coletar e analisar dados, mas é numa integração com um SIG que esse dado vai
adquirir um significado para o mundo real, possibilitando a construção de um
mapa, por exemplo. A Figura 2 exemplifica essa relação dos modelos de dados
(formatos matricial ou vetorial) com a sua integração e interpretação em um SIG
por meio de camadas.

FIGURA 2 – INFORMAÇÕES MATRICIAIS/RASTER PROVENIENTES DO SR

FONTE: Adaptada de Souza et al. (2016, p. 1)

6
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS

Para finalizar esta parte dos modelos/estrutura de dados (também deno-


minada de elementos da cartografia digital), podemos considerar que os modelos
de dados matriciais (raster) possuem um maior custo computacional em relação
ao armazenamento (ocupam mais espaço), são teoricamente simples, e também
são os mais apropriados para representar fenômenos que possuem uma variação
espacial contínua (dados contínuos). Dados contínuos de declividade e elevação
são armazenados em formato matricial, por exemplo. Contudo, dados matriciais
também podem armazenar dados categóricos, como o uso e ocupação do solo e
classes de elevação, por exemplo. É importante frisar que os termos “resolução”
e “pixel” são ligados aos dados matriciais e não aos vetoriais. O pixel representa
visualmente uma célula com um valor numérico único (Figura 3). Tal valor é as-
sociado, após o devido tratamento, a alguma informação útil sobre o ambiente,
como: elevação, temperatura, reflectância etc.

Em se tratando dos dados vetoriais, é possível inferir que são mais


“precisos” e compactos do que os matriciais e que possuem algumas relações
próprias como conectividade (se há ligação entre elementos), contiguidade (se
ocorre contato entre os elementos) e proximidade (como dois elementos estão
distanciados) (FITZ, 2008). Embora mais complexos, a manipulação de gráficos e
de atributos é realizada mais eficientemente quando lidamos com a estrutura de
dados vetorial. Em algumas ocasiões é útil realizar um procedimento chamado
de vetorização, que serve para converter arquivos matriciais (valores de pixels) em
dados vetoriais. A conversão de dados vetoriais para dados raster é teoricamente
fácil de ser realizada, em contrapartida a conversão de dados matriciais para
vetoriais consiste numa tarefa mais difícil.

FIGURA 3 – EXEMPLO DA REPRESENTAÇÃO DO MODELO MATRICIAL OU RASTER

FONTE: <https://bit.ly/35n3x40>. Acesso em: 16 nov. 2020.

7
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

Em suma, apesar do SR envolver primariamente estruturas matriciais, é


importante ter noções das estruturais vetoriais, pois ambas vão habitualmente
aparecer juntas para o usuário ou profissional do Geoprocessamento.

3 PLATAFORMAS DE AQUISIÇÃO DE DADOS E PRODUTOS


DE SENSORIAMENTO REMOTO

Como vimos anteriormente, a tecnologia ou ferramenta denominada


de Sensoriamento Remoto (SR) é um dos componentes mais importantes do
Geoprocessamento. Também vimos que o SR compreende basicamente dados
matriciais, ou seja, uma célula (pixel) que possui um valor representativo. Todavia,
é importante relembramos os diferentes níveis de coleta de dados (as plataformas
que acomodam e carregam os sensores) e o que os sensores conseguem “captar”
acerca de algum objeto ou alvo de investigação (o que um sensor remoto mede?).
Da forma mais simplificada possível, podemos entender o termo plataforma de
SR como qualquer sistema ou o equipamento na qual os sensores estão fixados
ou montados. A seguir, revisaremos o processo de funcionamento de um sensor.

Atualmente, dados de sensores remotos podem ser adquiridos a partir


de variadas plataformas, como os satélites, aviões e helicópteros, veículos aéreos
não tripulados (VATNs ou drones), balões, dentre algumas outras (REES, 2012;
SHIRATSUCHI et al., 2014). De modo geral, é possível classificar as plataformas
que acomodam os sensores de acordo com o seu nível de aquisição de dados
(altitude em relação ao solo), formando três grandes categorias principais:

• (I) plataformas orbitais (e.g. satélites e ônibus espaciais);


• (II) plataformas aéreas ou suborbitais (e.g. aeronaves);
• (III) plataformas terrestres (e.g. torres de aquisição de dados, medidas em campo por
sensores portáteis).

A Figura 4 (a seguir), adaptada de Jensen (2009), mostra os três grandes


grupos de níveis utilizados para coletar dados a distância. Lembrando que quase
todas essas plataformas podem portar sensores capazes de coletar variados tipos
de dados (com diferentes finalidades). É importante salientar que os satélites
em si não produzem dados, os responsáveis por gerar os dados são os sensores
presentes nos satélites. Em suma, o objetivo da plataforma é posicionar um
sensor – que realiza medidas ou leituras de alguma propriedade – acima da área
ou objeto de interesse. Essa coleta de dados pelo sensor remoto, seja de algum
objeto ou fenômeno, ocorrerá dentro do campo de visada instantâneo (IFOV –
Instantaneous Field of View), conforme pode ser visualizado na Figura 4 (JENSEN,
2009).

Com relação às plataformas ou níveis de coletas de dados de SR, as


plataformas orbitais (satélites) são as que mais fornecem volume de dados
atualmente (FORMAGGIO; SANCHES, 2017), pelos seguintes motivos: visão

8
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS

sinóptica da superfície e constância de recobrimento. Nos últimos anos, os VANTs


tornaram-se uma importante plataforma para geração de produtos no âmbito
do SR. Estes equipamentos conquistaram um grande espaço em levantamentos
que demandam pouca área levantada e grande resolução. Por fim, a escolha da
plataforma ideal pelo usuário do Geoprocessamento dependerá da escala de
trabalho, do custo e do objetivo do monitoramento para a aquisição de dados.

DICAS

Recomenda-se, para ampliar seus estudos sobre a crescente demanda pelo


uso de VANTs em várias aplicações no contexto brasileiro, a leitura de uma publicação do
periódico Revista Brasileira de Geomática (v. 5, n. 3, 2017), intitulada de: Sensoriamento
Remoto com VANTs: uma nova possibilidade para a aquisição de geoinformações.
Neste artigo científico, o autor apresenta algumas possibilidades da aplicação dos drones
que carregam diferentes tipos de sensores. Além disso, o autor apresenta uma revisão
da literatura sobre o tema. Na íntegra em: https://periodicos.utfpr.edu.br/rbgeo/article/
view/5511.

As plataformas que carregam os sensores remotos são divididas em três


grandes grupos: plataformas orbitais, aéreas (suborbitais) e terrestres. O objetivo
das plataformas é posicionar um sensor de coleta de dados acima de um objeto ou
fenômeno dentro do campo de visada instantâneo (IFOV – Instantaneous Field of
View). Na Figura 4, também é possível verificar uma pesquisadora utilizando um
sensor espectrorradiômetro portátil, que é considerado uma plataforma terrestre.

FIGURA 4 – PLATAFORMAS QUE CARREGAM OS SENSORES REMOTOS

9
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

FONTE: Adaptada de Jensen (2009, p. 3)

Via de regra, quanto maior a altitude de um sensor, maior será a sua área
“coberta” para obter dados; em outras palavras, o IFOV fica maior. A altitude
acima do solo (AGL – height above ground level) em que se localiza a plataforma é
considerada como uma variável importante no que tange ao nível de detalhamento
de um determinado sensor. Melhor dizendo, quanto mais próximo do solo (mais
próximo do alvo) maior o nível de detalhe e vice-versa. Por exemplo, quanto
menor a altitude de um levantamento fotográfico aéreo, maior será a escalas das
fotos. Entretanto, o avanço tecnológico recente também permite adquirir dados
muito detalhados a grandes distâncias do alvo. Isto tem implicações na resolução
espacial dos sensores, que se refere ao menor tamanho de um objeto que pode ser
identificado. Outra definição para a resolução espacial é a seguinte: medida da
menor separação angular ou linear entre dois objetos a partir de um sensor.

3.1 O ESPECTRO ELETROMAGNÉTICO


Voltamos à questão feita no início deste tópico: “o que um sensor remoto
mede?”. Antes de respondermos a esta questão, vamos fazer algumas considerações
sobre o espectro eletromagnético. Este termo representa os diferentes tipos de
ondas que possuem seus próprios intervalos de frequência e comprimento. O
espectro eletromagnético se estende desde as gigantescas ondas longas de rádio
(com comprimento de centenas de metros) até as ondas com comprimento em
nível atômico (raios gama) (Figura 5). É importante mencionar que todas as
regiões das ondas eletromagnéticas viajam na “velocidade da luz” no vácuo do
espaço.

No SR utilizamos diferentes faixas do espectro eletromagnético com


objetivos e finalidades distintos; isto é, geramos produtos de SR diferentes a partir
10
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS

do processamento e análise de diferentes intervalos do espectro eletromagnético


(JENSEN, 2009; REES, 2012). O intervalo entre dois comprimentos de ondas
no espectro eletromagnético é denominado de banda espectral ou de canal
espectral. Ao atravessar a atmosfera da Terra, um feixe de radiação eletromagnética
(REM) será atenuado por meio de dois processos: espalhamento e absorção. Após
passar pela atmosfera, já na superfície do planeta, a interação da REM com algum
objeto (alvo) vai resultar em absorção, transmissão e reflexão. Brevemente, estes
fenômenos da interação da REM com a superfície terrestre, bem como de sua
propagação e sua natureza dual, podem ser descritos e explicados por modelos
ondulatórios e por modelos corpusculares (LORENZZETTI, 2015). Veremos
melhor estes conceitos no próximo tópico desta unidade.

Chamamos de espectro eletromagnético o intervalo completo composto


por diferentes comprimentos de ondas eletromagnéticas. Sete regiões (grandes
intervalos) do espectro eletromagnético recebem uma denominação comum:
raios gama, raios-x, radiação ultravioleta (UV), radiação visível (luz), radiação
infravermelha (IV), micro-ondas e ondas de rádio. Mais de 98% da energia
solar que chega à superfície terrestre (espectro solar) concentra-se entre 250 a
4000 nm (0,25 a 4 µm). Comprimento e frequência das ondas são inversamente
proporcionais.

FIGURA 5 – ESPECTRO ELETROMAGNÉTICO

FONTE: O autor

11
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

E
IMPORTANT

Vivemos num planeta repleto de REM, mas só podemos, de fato, ver


diretamente as radiações entre 400 a 700 nm ou 0,4 a 0,7 µm. O SR serve para podermos
extrair informações que existem, mas que não podemos enxergar.

De acordo com Meneses, Almeida e Baptista (2019), três faixas descontínuas,


situadas entre os comprimentos de onda de 450 nm a 10⁹ nm (1 m) do espectro
eletromagnético observado na Figura 5, são utilizadas no SR (principalmente a
partir de sensores a bordo de plataformas orbitais). Ainda, segundo os autores,
isso se deve a atenuação da REM na atmosfera, que criam janelas de transparência
para que a REM atinja a superfície terrestre, e ao fato das fontes naturais de REM
serem basicamente o Sol e a Terra.

NOTA

Janela Atmosférica é um conceito muito importante no que concerne o


Sensoriamento Remoto orbital. Basicamente, a atmosfera do nosso planeta interage
(absorção e espalhamento) menos com algumas regiões específicas do espectro.
Então, isto possibilita que alguns comprimentos de onda específicos da radiação
eletromagnética (REM) atinjam a superfície do planeta (alvos de interesse) com mais
facilidade.

A Tabela 1 apresenta os intervalos espectrais de transparência atmosférica


que são utilizados no SR orbital. Aproximadamente 70% da REM do Sol se
concentra entre 400 a 700 nm, e nestes comprimentos de onda a atmosfera
interage pouco com a REM, portanto, este intervalo constitui uma importante
janela atmosférica (NOVO, 2010). Há, também, regiões do espectro oriundo do
Sol que são praticamente absorvidos em sua totalidade pela atmosfera; ou seja,
neste caso, não são úteis para o SR, pois estamos interessados nas radiações que
conseguem passar pela atmosfera, atingir e interagir com um alvo e ser, pelo
menos em parte, refletida para o sensor (em se tratando de plataformas orbitais/
satélites).

12
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS

TABELA 1 – REGIÕES DO ESPECTRO ELETROMAGNÉTICO QUE SÃO UTILIZADOS NO SR A


PARTIR DAS JANELAS ATMOSFÉRICAS

Intervalo do
Propriedades
Região do espectro comprimento Fonte de REM
da medida
de onda
Visível (VIS) 450 – 760 nm Sol Reflectância
Infravermelho
próximo (IVP ou 760 – 910 nm Sol Reflectância
NIR)
Infravermelho
1190 – 1340 nm
de ondas curtas Sol Reflectância
1550 – 2500 nm
(SWIR)

Materiais
terrestres com
Infravermelho
3,5 – 4,2 µm altas temperaturas,
médio (IVM ou Emitância
4,5 – 5,0 µm como florestas
MIR)
com incêndios ou
vulcões ativos

Infravermelho
8,0 – 9,2 µm
termal (TIR ou Terra Emitância
10,2 – 14,0 µm
LWIR)
Micro-ondas Reflectância
3,2 – 100 cm Artificial
(radar) retroespalhada
FONTE: Adaptada de Meneses, Almeida e Baptista (2019, p. 33)

Os principais constituintes que interferem na transmitância espectral da


atmosfera são representados pelo ozônio (absorvem os raios ultravioletas) e pelo
vapor d’água e dióxido de carbono (absorvem a região do infravermelho). Do
total da radiação solar que chega a Terra (na camada mais exterior da atmosfera),
somente cerca de 50% consegue “atingir” a superfície terrestre. Alguns autores
denominam determinadas partes do espectro eletromagnético que compreendem
mais de uma região, por exemplo, a REM ótica, que é o recorte do espectro mais
utilizado no SR, englobando os intervalos do visível até o infravermelho de ondas
curtas (450 a 2500 nm) (MENESES; ALMEIDA; BAPTISTA, 2019).

3.2 CATEGORIAS DE SENSORES REMOTOS


Especificamente para as plataformas orbitais e aéreas, foco da presente
publicação, os sensores são elaborados para medir a proporção ou intensidade da
radiação eletromagnética (REM) que é emitida ou refletida por um alvo, objeto
ou área de interesse (cada objeto diferente na superfície da Terra possui diferentes

13
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

características dessa reflexão). Nesse contexto, os sensores assumem duas formas:


sensores ativos ou sensores passivos:

• O sensor remoto ativo vai funcionar a partir de uma fonte artificial de REM e
independe da energia solar (é necessária alguma fonte de alimentação de energia
para o equipamento emitir a radiação para poder captar a radiação refletida). Neste
caso, um equipamento vai emitir um feixe de REM para um alvo e em seguida o
sensor vai captar quanto deste feixe foi refletido de volta, como uma fotografia
no escuro utilizando flash, por exemplo. RADAR (Radio Detection and Ranging) e
LIDAR (Light Imaging Detection and Ranging) são exemplos de sensores ativos. A
maioria dos sensores ativos operam na região do micro-ondas (conseguem penetrar
na atmosfera com maior facilidade).
• Os sensores passivos, que correspondem na maior parte dos sensores que operam
em nosso planeta, trabalham com a captura da energia refletida a partir de fontes
naturais (luz solar ou radiação da Terra). Assim, o sensor passivo irá captar a
resposta que um objeto dá quando iluminado pelo Sol, como uma fotografia num
dia ensolarado, por exemplo. Portanto, não é necessária uma fonte de emissão
artificial de REM. Radiômetros e os espectrorradiômetros são considerados sensores
passivos. A maioria dos sensores passivos do SR operam nas regiões do visível,
infravermelho, infravermelho termal e no micro-ondas.

Além da classificação dos sensores quanto à fonte de REM, também po-


demos classificá-los com relação ao produto obtido (LIU, 2006; LORENZZETTI,
2015). Neste caso, teremos os sensores imageadores e os sensores não imagea-
dores:

• Sensores imageadores produzem imagens da cena de interesse. Os produtos


gerados podem ser imagens em 2D ou, em alguns casos, em 3D. Exemplos: sensores
fotográficos, sensores eletro-óticos e SAR (Synthetic Aperture Radar).
• Os sensores não imageadores não produzem imagens dos alvos, mas produzem
um resultado numérico em forma de tabelas e gráficos. Esta classe abrange os
radiômetros e os espectrorradiômetros, por exemplo. O radar altimétrico é um
exemplo de um sensor remoto que não produz imagens, mas sim resultados de
anomalias altimétricas do terreno.
• Os sensores de imagens gravam os dados em formato analógico (e.g. fotografia
aérea antiga) ou em formato digital, que consiste numa matriz de duas dimensões
composta por vários pixels em que cada um possui um valor próprio para a REM
medida (KHORRAM et al., 2016), conforme pode ser visualizado na Figura 3. O valor
da REM de cada pixel vai corresponder, após o devido tratamento e interpretação do
dado, a alguma propriedade de interesse (como elevação, temperatura, reflectância
etc.) que será utilizada para gerar produtos de SR (modelo de elevação, cena de uma
região etc.).

As imagens são, sem sombra de dúvidas, o produto de SR mais utilizado


no mundo. Entretanto, devemos saber que este termo se inter-relaciona com
outros dois: imagem digital e fotografia (convencional). Imagem digital, como
já foi mencionado anteriormente, possui números digitais ou valores de brilho
atrelados aos pixels (tais números digitais gravam “a força” e a energia do sinal
eletromagnético que é capturado pelo sensor). As fotografias se referem às imagens
14
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS

que foram detectadas e gravadas por um filme fotográfico (através de reações


químicas que acontecem na superfície de um filme sensível à luz), e, normalmente,
só representam as reflexões e emissões da região visível do espectro.

As fotografias também podem ser digitais. Existem técnicas de digitaliza-


ção de fotografia, na qual ela é dividida em células com tamanho e formato igual
(pixels) e então um valor numérico irá representar o brilho. Já a palavra Imagem
pode ser entendida, de uma forma simples, como qualquer representação picto-
ral (composta por pixels) independente de quais foram os comprimentos de onda
ou de qual equipamento de SR foi utilizado; ou seja, é uma classe genérica que
engloba tanto as imagens digitais quanto as fotografias convencionais.

3.3 AS ETAPAS DO SENSORIAMENTO REMOTO


A aquisição de dados por sensores remotos em plataformas aéreas e
orbitais é um processo com várias etapas, como pode ser analisado (de forma
simplificada) na Figura 6. Tais etapas são: (A) fonte de REM; (B) interação da
REM com a atmosfera; (C) interação da REM com o alvo; (D) reflexão e emissão
da REM pelo alvo; (E) transmissão, recepção e processamento dos dados pelos
equipamentos; (F) interpretação e análise dos dados pelos especialistas e (F)
produtos e aplicações. Dessa forma, os sistemas sensores do SR transformam
os dados de REM em informações sobre o ambiente investigado. Os sistemas
de digitalização dos dados pelos sensores podem ser de varredura eletrônica
(pushbroom) e de varredura mecânica (whiskbroom). Além disso, os satélites podem
ser classificados com relação a sua órbita.

FIGURA 6 – ELEMENTOS OU ETAPAS SIMPLIFICADAS DO PROCESSO DO SENSORIAMENTO


REMOTO

FONTE: Adaptada de Canada Centre for Mapping and Earth Observation (CCMEO, 2020)

15
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

Como já vimos ao decorrer desta unidade, o termo resolução é atribuído principalmente


aos dados matriciais relacionados ao SR. Podemos conceituar resolução como a
habilidade de identificação ou distinção entre dois ou mais objetos localizados próximos
um do outro, tanto em termos espaciais quanto em termos espectrais. Os produtos
do SR vão possuir quatro tipos diferentes de resolução: (I) resolução espacial; (II)
resolução espectral; (III) resolução radiométrica e (IV) resolução temporal. Para Novo
e (2001), estes quatro termos são os domínios que fundamentam o SR. Podemos defini-
los resumidamente como:

• resolução espacial: menor tamanho de área representada por um sensor ou tamanho


do menor objeto que pode ser identificado em uma imagem. GSI (Ground Sampling
Interval) é um termo usado como sinônimo para resolução espacial. Na grande
maioria das situações, o tamanho de pixel indica a resolução espacial de uma
imagem;
• resolução espectral: número e largura de bandas espectrais (comprimentos de onda)
medidos (quanto menor a largura do intervalo de bandas captado, maior será a
resolução espectral de um sensor);
• resolução radiométrica: também chamada de nível de quantização, é capacidade do
sensor em detectar a intensidade de pequenos sinais, expressos pela quantidade de
níveis de cinza (bits);
• resolução temporal: tempo de revisita de um sensor para realizar duas medições
consecutivas sobre uma mesma área. Estas resoluções nos permitem caracterizar
uma determinada imagem (podemos considerar as resoluções espacial, temporal e
espectral como as três dimensões do SR). Nesse contexto, várias propriedades dos
sensores (e de suas plataformas) vão influenciar nessas resoluções, e elas mais ou
menos independentes uma das outras (Figura 7).

Conforme a Figura 7, de acordo com uma dada largura de banda, algumas trocas têm
que ser consideradas para a escolha de um produto (imagem orbital, no caso).

FIGURA 7 – TRADE-OFFS DO SENSORIAMENTO REMOTO

16
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS

FONTE: Adaptada de Key et al. (2001, p. 101)

Os usuários do SR devem considerar algumas características e “trocas” (tradeoffs) para


selecionar o melhor produto para uma determinada aplicabilidade (KEY et al., 2001)
(Figura 7). Por exemplo: caso seja necessária uma imagem de alta resolução espacial
para uma dada finalidade, o usuário terá que recorrer para a banda pancromática; em
contrapartida, devido ao pequeno campo de visão (FOV – field of view) dos sensores
remotos de alta resolução especial, seu tempo de revisita (resolução temporal) é baixo.
Imagens de sensores mais regulares e frequentes, e com uma maior cobertura de área,
normalmente possuem uma resolução espacial mais baixa. No geral, imagens de alta
resolução especial geralmente possuem uma baixa resolução radiométrica. De fato,
nenhum sensor remoto orbital consegue otimizar simultaneamente todas as resoluções.

3.4 ONDE O SENSORIAMENTO REMODO É APLICADO?


De fato, a aquisição de dados por sensores remotos, especialmente por meio de
plataformas orbitais e aéreas, revolucionou a forma de como entendemos nosso
planeta. Coletar uma variedade de dados com uma ampla extensão espacial e temporal
já é uma realidade. Utilizamos produtos de SR para inúmeras aplicações. Então, vamos
listar algumas delas (SCHOWENGERDT, 2006):

17
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

• avaliação e monitoramento ambiental (e.g. crescimento de áreas urbanizadas,


controle de resíduos);
• monitoramento e detecção de Mudanças Globais (e.g. desmatamento, aquecimento
global, nível dos oceanos);
• agricultura (e.g. previsão de safras, qualidade de um cultivo, estado do solo);
• exploração de recursos não renováveis (e.g. minerais, petróleo, gás natural);
• exploração de recursos renováveis (e.g. florestas, oceanos);
• meteorologia (e.g. previsão do tempo, entendimento da dinâmica atmosférica,
estabelecimento de teleconexões);
• mapeamento e cartografia (e.g. mapas topográficos, mapas de uso e ocupação da
terra, mapeamentos na área de engenharia civil);
• defesa e vigilância militar (e.g. traçar estratégias militares, identificar as melhores
rotas, reconhecimento);
• conservação e pesquisa (e.g. conservação do ambiente marinho e terrestre,
monitoramento de espécies, zoneamento ecológico);
• monitoramento de desastres naturais (e.g. inundações, terremotos);
• notícias da mídia (e.g. ilustrações, análises).

4 PRINCIPAIS SOFTWARES UTILIZADOS NO SENSORIAMENTO


REMOTO
A manipulação dos produtos de SR por meio de programas computacionais específicos
é indispensável. Além do usuário do Geoprocessamentos possuir a capacidade de
estabelecer qual o tipo de produto ideal para uma determinada aplicação, é fundamental
que ele também domine algum programa para processar e interpretar o dado,
gerando um produto ou aplicação final. Nesse contexto, há uma gama de programas
disponíveis para o usuário do Geoprocessamento que trabalha com produtos de SR,
seja com imagens de satélite, fotografias aéreas, LIDAR, SAR etc. Essa variedade
engloba programas simples com a função principal de analisar dados de imagens
de satélites, como o MultiSpec©, até programas muito completos que lidam com uma
grande variedade de temas do Geoprocessamento (incluindo funcionalidades para o
SR), como o ArcGIS®. Por um lado, há programas que fazem alguns processamentos
mais específicos, enquanto outros são mais robustos e designados para, além de fazer
processamentos, entregar um produto final pronto (mapas topográficos, por exemplo).

Além do domínio de programas que lidam com o SR integrado a um SIG, é recomendável


que o usuário do Geoprocessamento tenha noções de programação (principalmente
das linguagens IDL, Python e C++). No geral, a programação de uma determinada
linguagem é uma habilidade que, uma vez aprendida, é facilmente aplicada a outras
linguagens. Isto é particularmente muito útil com relação aos softwares livres de
código aberto (open source), pois podem ser adaptados conforme as necessidades do
usuário, além de que a programação permite automatizar o processamento de uma
grande quantidade de dados.

Os modelos de softwares livres são normalmente colaborativos e não centrados numa


figura central (desenvolvedor/empresa). Não obstante, grande parte dos softwares
comerciais que lidam com SR e SIG possuem módulos (API – Application Programming
Interface) que podem ser programados pelos usuários (com intuito de automatizar
processos e criar ferramentas, por exemplo). Por fim, muitos programas possuem

18
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS

repositórios ou “livrarias” na qual é possível obter, de forma automática, alguns


produtos públicos de SR, principalmente a partir de grandes agências governamentais
(e.g. INPE, NASA, NOAA, USGS).

O inglês é o idioma da maioria dos programas. Praticamente todos os softwares


possuem manuais detalhados que ensinam e orientam o usuário inicial. Além disso,
tais programas também contam com vários tutorais feitos pelos usuários avançados
(há uma grande quantidade de vídeos no YouTube sobre cada programa). É importante
mencionar que a maioria dos programas comerciais possuem cursos e treinamentos
específicos (organizados pela empresa desenvolvedora ou distribuidora), e
normalmente contam com uma política de preços mais baixos para estudantes (também
contam com períodos de uso grátis – free trial).

A seguir, serão mencionados e brevemente descritos alguns dos programas


mais conhecidos e utilizados no que tange produtos do SR georreferenciados
(principalmente com relação à manipulação de imagens de sensores remotos orbitais
ou aerotransportados):

• MultiSpec© é um software livre, desenvolvido pela Universidade de Purdue (EUA).


É um programa idealizado para processamento e análise interativa de dados de
imagens digitais, como as imagens multiespectrais da Terra produzidas por satélites
da série Landsat, bem como as imagens hiperespectrais de sistemas aéreos e espaciais
(AVIRIS – Airborne Visible / Infrared Imaging Spectrometer). Para mais informações:
https://engineering.purdue.edu/~biehl/MultiSpec/index.html.
• TerrSet© (antigo IDRISI) é um software comercial, desenvolvido pela Universidade
Clark (EUA). Programa completo feito para a manipulação geoespacial de dados,
incluindo análises em SIG e com diversas ferramentas para processar imagens do
SR. Para mais informações: http://www.terrset.com.br/index.php.
• ENVI® é um software comercial, desenvolvido pela empresa Harris Geospatial
Solutions (EUA). Criado para visualizar, explorar, analisar e apresentar dados
e SR/SIG, é considerado um dos principais programas de SR. Permite realizar
processamentos de imagens com várias ferramentas, e conta com funcionalidades
específicas para análise e processamento espectral. Para mais informações: http://
www.envi.com.br/envi.php.
• ERDAS IMAGINE®: é um software comercial, desenvolvido pela empresa Hexagon
Geospatial (EUA). Consiste no programa mais utilizado no SR, com a função principal
de extrair informações de imagens, por meio de várias fermentas. O software é bem
completo e conta com soluções diversas para os usuários. Para mais informações:
https://www.hexagongeospatial.com/.
• Geomatica® é um programa comercial da PCI Geomatics (Canadá). É um programa
completo, que trabalha com o processamento de imagens de sensores remotos de
diversas plataformas diferentes, integrados em uma base geoespacial. Para mais
informações: https://www.pcigeomatics.com/.
• eCognition® é um programa pago da Trimble (EUA). Foi desenvolvido para lidar com
dados geoespaciais e de sensoriamento remoto, oferecendo recursos para todos os
tipos de campos de aplicação, ou seja, urbano, florestal, agrícola (extração de recursos,
detecção de alterações etc.). Possui muitas funcionalidades para processamento de
imagens digitais. Para mais informações: .
• ILWIS (Integrated Land and Water Information System) é um software livre criado
pela Universidade de Twente (Holanda). É designado tanto para processamento
matricial quanto para vetorial. Compreende um pacote completo de processamento
de imagem, análise espacial e mapeamento digital. Para mais informações: https://

19
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

www.itc.nl/ilwis/.
• SNAP (Sentinel Application Platform): conjunto de ferramentas de acesso livre lançada
pela ESA (Agência Espacial Europeia). Composto por três “caixas de ferramentas”
(Sentinel-1, 2 e 3) que são idealizadas para trabalhar com dados de SR. Por meio
desse programa é possível tratar imagens de satélite, classificá-las, aplicar correção
atmosférica etc. Para mais informações: https://step.esa.int/main/toolboxes/snap/.
• ArcGIS® Desktop é um programa comercial da ESRI (EUA). É um dos programas
mais conhecidos e utilizados no Geoprocessamento como um todo. Embora seja
conhecido por trabalhar com SIG e produzir mapas, há várias funcionalidades para
lidar dos dados matriciais oriundos do SR neste software. Para mais informações:
https://desktop.arcgis.com/en/.
• GRASS GIS é um programa livre de código aberto, criado pela GRASS Development
Team (EUA), utilizado para gerenciamento e análise de dados geoespaciais,
processamento de imagens, produção de gráficos e mapas, modelagem espacial e
visualização de dados. Para mais informações: https://grass.osgeo.org/.
• gvSIG Desktop é um software livre e colaborativo de SIG, desenvolvido com o apoio da
União Europeia. Dentre suas funcionalidades com dados raster, podemos destacar:
recorte de dados e bandas, processamento por pixel, tratamento de interpretação de
cor etc. Para mais informações: http://www.gvsig.com/pt.
• QGIS é um programa livre e muito completo, desenvolvido por uma ampla rede
de colaboradores ao redor do mundo, que permite criar, manipular, visualizar e
interpretar dados geoespaciais. Possui muitas funcionalidades envolvidas com
produtos de SR, sendo uma boa opção para processamento digital de imagens,
classificação de imagens etc. Para mais informações: https://www.qgis.org/pt_BR/
site/.
• SPRING é um importante programa de SIG (Sistema de Informações Geográficas)
gratuito, desenvolvido pelo INPE. O programa conta com o estado da arte de
funções de processamento de imagens, análise espacial, modelagem numérica de
terreno, consulta a bancos de dados espaciais etc. Um dos seus objetivos é criar um
ambiente unificado envolvendo SIG e SR para aplicações urbanas e ambientais. Para
mais informações: http://www.dpi.inpe.br/spring/portugues/index.html.
• TerraView (TerraLib) é um aplicativo, desenvolvido pelo INPE, que manipula
dados vetoriais (pontos, linhas e polígonos) e matriciais (grades e imagens), ambos
armazenados em SGBD relacionais ou georelacionais de mercado, incluindo
ACCESS, PostgreSQL, MySQL e Oracle. Para mais informações: http://www.dpi.
inpe.br/terraview.
• TerraAmazon foi criado pelo INPE (programa livre). É uma ferramenta de SIG
projetada para ser um editor multiusuário de dados geográficos vetoriais. Possui
ferramentas de classificação de uso e cobertura do solo, assim como operações
espaciais entre dados vetoriais. Também possui um plug-in de PDI (processamento
digital de imagem). Para mais informações: http://www.terraamazon.dpi.inpe.br/.

Ademais, há alguns softwares do tipo IDE (Integrated Development Environment), que


são bastante utilizados, como o MATLAB® e o R, que possuem pacotes para tratar dados
do SR. Programas de tratamento de imagem, em geral, também podem ser utilizados
em alguns casos, como o Photoshop da Adobe, por exemplo. Com relação aos VANTs
(drones), que geram excelentes produtos para uma base cartográfica de interesse (e.g.
fotogrametria, mosaico de ortofotos, modelos de elevação da área), há dois exemplos de
softwares mais específicos que são muito utilizados por empresas e por universidades
(pesquisas cientificas), o Pix4D (https://www.pix4d.com/) e o Agisoft Metashape (https://
www.agisoft.com/). Tais programas permitem criar Modelos Digitais de Elevação
(MDE) a partir de levantamentos fotogramétricos por drones, por exemplo.

20
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS

É importante mencionar que muitas empresas também oferecem pacotes para processar
dados em nuvem (on-line); ou seja, neste caso, não há a necessidade da instalação de um
software no computador. O Google Earth Engine é um bom exemplo de uma plataforma
avançada para processamento geoespacial e análise de dados de ciências da Terra em
nuvem. A ESRI também possui o “ArcGIS Pro Online”.

Para finalizar este tópico: qual é o melhor software para Sensoriamento Remoto (SR)?
A resposta é: depende! Há muitas variáveis a se considerar como: custo, sistema
operacional e o hardware disponível, necessidade de integrar dados matriciais com
vetoriais, os produtos que o usuário lida etc. Alguns softwares “mais específicos”
costumam desempenhar melhor uma mesma funcionalidade em comparação com os
mais “completos”, que tendem a não aperfeiçoar toda a sua amplitude de funções e
objetivos. Normalmente, os programas pagos costumam ter uma interface mais
amigável e de mais fácil manipulação. Todavia, em algumas ocasiões o usuário de SR
vai precisar realizar procedimentos e tratamentos em vários programas distintos.

21
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

E
IMPORTANT

Há um bom número de softwares para os usuários que lidam com todos os


dados e produtos que o Sensoriamento Remoto (SR) permite adquirir. Independente se
o usuário do Geoprocessamento utiliza fotogrametria, análise de imagem baseada em
objeto (OBIA), LiDAR, SAR, imagens de satélites dentre muitos outros, vão existir várias
opções de programas de SR (tanto pagos quanto gratuitos) para explorar e tratar o dado,
transformando-o em produto final aplicado.

DICAS

Caso você queria saber mais sobre softwares e aplicativos, tutoriais, produtos
e novidades sobre o SR, há três sites interessantes, acesse:
• Processamento Digital: http://www.processamentodigital.com.br/.
• Mundo Geo: https://mundogeo.com/.
• Mundo Geomática: http://www.mundogeomatica.com.br/.

NTE
INTERESSA

A compreensão sobre a nossa Galáxia e o Universo tem muita contribuição de


dados coletados por sensores que operam ao longo de todo espectro eletromagnético.
Acesse o site em português na íntegra em: https://chromoscope.net/ (desenvolvido pela
Universidade de Cardiff, no Reino Unido) e veja como todos os comprimentos de ondas
do espectro nos trazem informações!

22
RESUMO DO TÓPICO 1
Neste tópico, você aprendeu que:

• O Sensoriamento Remoto (SR) consiste em adquirir dados sobre um alvo (objeto) ou


área sem que haja um contato físico.

• O SR é intimamente relacionado com o Sistema de Informação Geográfica (SIG).


Ambos são dois dos principais pilares da ciência de informação geográfica
(Geoinformática).

• A estrutura matricial de dados (raster) corresponde à forma de armazenamento do


SR. Os pixels são a menor unidade das imagens.

• Há três grandes categorias de plataformas de aquisição de dados: orbitais, suborbitais


ou aéreas e plataformas terrestres. Um satélite em si (plataforma orbital) não produz
informações, quem produz a informação é o sensor remoto acoplado ao satélite.

• A radiação eletromagnética (REM) que atinge a superfície terrestre pode ter três
interações: absorção, transmissão e reflexão. O sensor remoto vai mensurar a energia
refletida ou emitida pelo alvo. O SR não utiliza todos os comprimentos de onda do
espectro eletromagnético.

• Os sensores podem ser ativos (emitem REM para depois captar o quanto foi refletido)
ou passivos (medem a REM da luz solar refletida por um alvo). Os sensores ainda
podem ser imageadores (produzem imagens) ou não imageadores (produzem
resultados numéricos).

• O SR é composto por etapas distintas e os seus produtos (imagens) podem


ser caracterizados por sua: resolução espacial; resolução espectral; resolução
radiométrica e resolução temporal.

• Informações geradas por meio do SR são utilizadas em praticamente todas as áreas


de ciência, e estão presentes no nosso cotidiano.

• Existem vários softwares disponíveis para o usuário do Geoprocessamento que


trabalham com produtos de SR. A escolha de um determinado software dependerá
do tipo de dados, do custo e da finalidade (aplicação).

23
AUTOATIVIDADE

1 Os tipos de dados espaciais fornecem as informações que um computador necessita


para reconstruir os dados espaciais em formato digital. Nos dados matriciais ou
raster, temos células de grade (pixels) que representam as propriedades do mundo
real. No tipo de dado vetorial, temos pontos, linhas e polígonos que consistem
em vértices e caminhos. Os dados vetoriais e matriciais têm suas vantagens e
desvantagens. Com relação aos formatos ou estruturas de dados (matriciais e
vetoriais), analise as sentenças a seguir:

I- O formato matricial (raster) não é importante para o Sensoriamento Remoto.


II- O formato matricial é mais simples ao passo que o formato vetorial é mais
complexo.
III- Resolução e pixel são termos ligados aos dados matriciais.
IV- Não há integração e nem interação entre os formatos de dados matriciais e
vetoriais.
V- O formato de dados vetorial é mais preciso.

Assinale a alternativa CORRETA:

a) ( ) Todas as sentenças estão corretas.


b) ( ) As sentenças I, II, III e V estão corretas.
c) ( ) As sentenças II, III e V estão corretas.
d) ( ) As sentenças I e III estão corretas.
e) ( ) As sentenças I, II e V estão corretas.

2 O primeiro requisito para o Sensoriamento Remoto (SR) é ter uma fonte de energia
para iluminar o alvo (área de interesse). Assim como nossos olhos precisam que
objetos sejam iluminados para que possamos vê-los, os sensores também precisam
de uma fonte de energia para “iluminar” a superfície da Terra, com a posterior
mensuração da energia refletida. O sol é a principal fonte natural de energia.
Essa energia está na forma de radiação eletromagnética (REM). Considerando as
características de sensores orbitais com relação a sua fonte de energia, analise as
sentenças a seguir:

I- Sensores ativos não emitem radiação eletromagnética (REM), apenas conseguem


captá-las.
II- Sensores ativos geram sua própria fonte de REM.
III- Os sensores remotos do tipo ‘passivos’ conseguem captar e registrar a REM
refletida ou emitida de um alvo.
IV- RADAR (Radio Detection and Ranging) e LIDAR (Light Imaging Detection and
Ranging) são exemplos de sensores passivos enquanto um radiômetro é exemplo
de um sensor ativo.
V- Os sensores passivos somente operam na região do micro-ondas.

Assinale a alternativa CORRETA:

a) ( ) Todas as sentenças estão corretas.

24
b) ( ) Nenhuma das sentenças está correta.
c) ( ) As sentenças II, III e IV estão corretas.
d) ( ) As sentenças II e III estão corretas.
e) ( ) As sentenças I, IV e V estão corretas.

3 Os diferentes produtos oriundos de Sensoriamento Remoto (SR) da superfície


da Terra, adquiridos por diferentes plataformas de aquisição de dados (aeronaves
e satélites, por exemplo), estão prontamente disponíveis em formato digital;
espacialmente, os dados são compostos de elementos de imagem discretos (os
pixels), e que são radiometricamente quantizados em níveis de brilho. Além disso,
mesmo que os dados não tenham sido gravados originalmente em formato digital
(e.g. fotografia aérea antiga), podem ser convertidos em dados discretos com o
emprego de digitalizadores. Assim sendo, as imagens oriundas de SR, em espacial
as adquiridas por sensores a bordo de satélites, podem ser caracterizados por
meio de quatro propriedades principais. A partir do exposto, disserte sobre estas
propriedades que definem as imagens de SR.

25
26
UNIDADE 1
TÓPICO 2 —

COMPORTAMENTO ESPECTRAL DE ALVOS

1 INTRODUÇÃO
No tópico anterior, tivemos a oportunidade de rever alguns conceitos
importantes que estão ligados ao Sensoriamento Remoto (SR). Além disso,
verificamos que o SR é uma classe genérica de geotecnologias que permite gerar
uma gama de produtos diferentes (a partir de três principais plataformas de
aquisição), os quais podem ser visualizados e tratados em vários softwares livres
ou comerciais que são intimamente relacionados com SIG.

Nesse contexto, para compreender as aplicações dos produtos de SR, é


fundamental saber como os diferentes alvos naturais e antrópicos respondem
perante a exposição da radiação eletromagnética (REM) de fontes artificiais ou
do Sol primariamente; ou seja, como é o comportamento espectral dos materiais
que compõem a superfície do nosso planeta. Além de conhecer o comportamento
ou assinatura que os alvos possuem, também é crucial conhecer detalhadamente
quais fatores interferem nessa informação. Concentre-se e bons estudos!

2 ASSINATURAS ESPECTRAIS DE ALVOS TERRESTRES


Como foi visto no tópico anterior, os produtos do SR são basicamente
reflexões ou emissões de radiação eletromagnética (REM) de objetos ou áreas
que são captadas por sensores. De forma mais completa, o fluxo de REM, ao
incidir em um determinado alvo, sofre reflexão, absorção e transmissão (Figura
8). Denominamos estas interações de reflectância, absortância e transmitância,
respectivamente. Normalmente, parte da energia que chega a um objeto é
absorvida e transformada em calor ou em alguma outra forma de energia, ao passo
que parte da energia é refletida pelo objeto e se espalha pelo espaço. A seguir,
relembraremos e faremos algumas breves considerações sobre os fundamentos
físicos e radiométricos do SR.

As três interações incidentes sobre a superfície: reflectância (ρλ);


absortância (αλ) e transmitância (τλ), que chamamos de fluxo radiante (Φiλ)
(medido em watt – W), podem ser totais ou parciais, e seus valores são expressos
entre zero (0) a um (1) ou em porcentagem (NOVO, 2010). Um alvo opaco e muito
escuro vai apresentar um valor alto para absortância, nulo para transmitância
e baixo para reflectância, por exemplo. Assim, o balanço do fluxo radiante é
expresso pela seguinte equação: Φiλ = Φρλ +Φαλ +Φτλ

27
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

Podemos entender estas interações (fluxo radiante) desta forma: caso a


reflectância de uma folha verde de uma planta sadia seja 45%, os outros 55% serão
compostos por absorção e transmissão (EPIPHANIO; NOVO; MACHADO, 2010).
Segundo Meneses, Almeida e Baptista (2019) o termo “reflectância” é empregado
todas as vezes em que imagens são usadas para caracterizar espectralmente os
materiais da superfície da Terra (solos, florestas, rios etc.).

Observamos na Figura 8 as três formas principais de interação da radiação


com a superfície de um alvo: absorção, reflexão e transmissão. A proporção de
cada uma dessas interações dependerá do comprimento de onda da radiação
incidente e do material e condição do objeto (rugosidade, umidade etc.). No SR,
estamos interessados mais na reflexão e emissão da radiação.

FIGURA 8 – FORMAS PRINCIPAIS DE INTERAÇÃO DA RADIAÇÃO COM UM ALVO

FONTE: Adaptada de Canada Centre for Mapping and Earth Observation (CCMEO, 2020) e
Olsen (2007, p. 49)

Há algumas outras grandezas radiométricas envolvidas no SR, como a irradiância,


exitância e radiância. A irradiância, cuja unidade é W·m-2, indica o fluxo radiante que incide
num alvo por unidade ou superfície de área, ao passo que a exitância (mesma unidade
que a irradiância) corresponde ao fluxo radiante que provém ou emerge de um alvo por

28
TÓPICO 2 — COMPORTAMENTO ESPECTRAL DE ALVOS

unidade ou superfície de área. O conceito da radiância espectral (medida em W·m-2·sr-1)


compreende o fluxo que é emitido ou refletido por uma superfície numa determinada
direção e encerrado num ângulo sólido (EPIPHANIO; NOVO; MACHADO, 2010). A
reflectância é calculada através da razão da radiância pela irradiância.

De fato, as grandezas radiométricas do SR envolvem várias unidades, conceitos,


fórmulas, cálculos e leis físicas, como a Lei de Kirchhoff, a Lei de Stefan-Boltzman, a Lei
de Wein, a Lei de Planck, dentre outras. Vamos, então, apenas conceituar alguns destes
termos (sem entrar no mérito das equações envolvidas):

• A Lei da radiação de Kirchhoff afirma que a absorção e a emissão de radiação de uma


superfície em uma determinada temperatura e comprimento de ondas são iguais.
Em outras palavras, a eficiência de absorção e emissão de radiação por um objeto é
a mesma (bons absorvedores de radiação serão bons emissores, ao passo que bons
refletores serão maus emissores de radiação).
• A Lei de Stefan-Boltzman diz que a intensidade da radiação é em função da quarta
potência da temperatura absoluta (objetos com a temperatura mais alta vão emitir
mais energia total por unidade de área em comparação com objetos de menor
temperatura).
• A Lei de Wien determina o comprimento de onda dominante que um é emitido por
um corpo negro teórico. Corpo negro é um sistema ideal (teórico) que é capaz de
absorver toda a radiação incidente (não há radiação refletida).
• A Lei de Planck diz que a intensidade e distribuição da radiação dependem da
temperatura do corpo.
• A superfície Lambertiana é uma superfície que reflete a radiação incidente de forma
igual para todas as direções e o albedo consiste no “poder de reflexão” de um alvo
(e.g. neve tem alto albedo e asfalto tem baixo albedo).

Como foi visto no tópico anterior, a atmosfera interage com REM através da absorção e
do espalhamento. O espalhamento na atmosfera pode ser de três formas: Espalhamento
Rayleigh, Espalhamento de Mie e Espalhamento não seletivo (geométrico). Tais tipos diferentes
de espalhamento são em função do comprimento de onda da REM versus o tamanho
(diâmetro) das partículas, moléculas e elementos presentes na atmosfera.

O Espalhamento Rayleigh ocorre quando o diâmetro do agente espalhador (geralmente


gases da atmosfera como o oxigênio e o nitrogênio) é menor que o comprimento
de onda da REM (esse espalhamento que é responsável pela cor azul do céu). Os
espalhamentos de Mie e o não seletivo acontecem quando o comprimento de onda é da
mesma ordem de grandeza que o tamanho da partícula (fumaça e poeira, por exemplo)
e quando a partícula é maior que 10 vezes o comprimento de onda (nuvens e nevoeiros,
por exemplo), respectivamente. Para aprofundar seus estudos, o leitor deve consultar
materiais como: Jensen (2009), Novo (2010), Moreira (2011), Lorenzzetti (2015), dentre
outros.

29
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

DICAS

Prezado acadêmico, para ampliar seus conhecimentos com relação às pro-


priedades físicas do Sensoriamento Remoto (SR) de sistemas aquáticos, você pode ler o
capítulo 3 (Princípios Físicos do Sensoriamento Remoto Aquático) do livro “Introdução
ao Sensoriamento de Sistemas Aquáticos: Princípios e Aplicações”. Disponível gratuita-
mente no site do INPE. Na íntegra em: http://www.dpi.inpe.br/labisa/livro/.

2.1 SENSORES MULTESPECTRAIS E HIPERESPECTRAIS


Antes de estudarmos com detalhe o comportamento espectral de alvos (naturais
e antrópicos), presentes na superfície do nosso planeta, é importante ter em mente
alguns conceitos mais fundamentais. Definimos, no tópico anterior, banda espectral
(canal espectral) como sendo o intervalo entre dois comprimentos de onda do espectro
eletromagnético; isto é, uma faixa estreita de comprimento de onda do espectro
eletromagnético na qual são capturadas e armazenadas informações. Em se tratando
de bandas espectrais – isto é, resolução espectral – há dois conceitos que precisam ser
entendidos, pois são extremamente importantes: Multiespectral e Hiperespectral.

A grande diferença entre multiespectral e hiperespectral é a quantidade de bandas e


quão estreitas são estas bandas que estão sendo medidas (largura de banda). De fato, os
sensores hiperespectrais consistem numa evolução dos multiespectrais (FORMAGGIO;
SANCHES, 2017). Entretanto, a grande maioria dos sensores que estão a bordo dos
satélites em órbita na Terra são multiespectrais. O rápido crescimento tecnológico da
humanidade está propiciando uma nova geração de sensores remotos chamados de
ultraespectrais, que têm a sensibilidade de captar milhares de bandas espectrais.

As imagens multiespectrais normalmente possuem entre três a 12 bandas (cada uma


dessas bandas possui um título descritivo) e essas bandas são mais largas. Além disso,
as bandas dos multiespectrais não são contíguas uma com as outras (o sensor captura
intervalos discretos e separados). Portanto, as bandas capturadas pelo sensor possuem
“intervalos vazios” entre elas. Imagens multiespectrais se equivalem a imagens que
possuem diferentes canais ou bandas espectrais. Podemos dizer que o sensoriamento
remoto multiespectral possui elementos mais qualitativos.

Os sensores hiperespectrais, embora possam parecer com os multiespectrais no que


concerne o sistema “passivo” de medida (fonte da REM), possuem dezenas a centenas
de bandas espectrais mais finas; isto é, conseguem captar a energia refletida dos alvos
em “fatias” muito mais finas e detalhadas (largura de banda de 5 a 10 nm). Além dis-
so, as bandas mensuradas pelos sensores hiperespectrais são contíguas (sem grandes
intervalos na qual não há informação coletada). Neste caso, cada pixel possui um nú-
mero do espectro contínuo. Podemos dizer que o sensoriamento remoto hiperespectral
é tanto quantitativo quanto qualitativo (JENSEN, 2009).

A Figura 9 mostra uma comparação da diferença entres os multiespectrais e os


hiperespectrais. Os sensores hiperespectrais, além de gerar os mesmos resultados que

30
TÓPICO 2 — COMPORTAMENTO ESPECTRAL DE ALVOS

os sensores multiespectrais, permitem inferir propriedades biofísico químicas dos


alvos presentes na cena capturada (FORMAGGIO; SANCHES, 2017). Cada tecnologia
tem vantagens e desvantagens. Imagens multiespectrais possuem uma interpretação
mais simples (menos complexidade de informação) que os hiperespectrais.

Observe um breve exemplo da aplicação de ambas as técnicas numa área rural


(agricultura): por meio do SR multiespectral é possível estimar com precisão a área
cultivada de uma determinada cultura, contabilizando o número de plantas por área,
estabelecendo a saúde vegetação das plantas e do cultivo em geral, podendo ainda
ser utilizado no controle sanitário vegetal e animal do cultivo (detecção de pragas)
e na identificação de dificuldades no processo de produção. Já com a utilização
do SR hiperespectral é possível produzir todas estas informações citadas para os
multiespectrais, mas também com a adição de novas e importantes informações
sobre a composição bioquímica das plantas, detalhes sobre as características físico-
químicas dos materiais que compõe a superfície da área de interesse, o grau e tipo de
cristalinidade, bem como a forma detalhada dos materiais imageados (FORMAGGIO;
SANCHES, 2017).

DICAS

Para ampliar seus conhecimentos sobre o potencial de utilização de senso-


res multiespectrais e hiperespectrais em alvos agrícolas, recomenda-se a leitura de uma
publicação da XII Jornada Acadêmica da Embrapa Soja de 2017, intitulada de: Potencial
de utilização de sensores multiespectral e hiperespectral no estudo de diferentes alvos
agrícolas. Veja na íntegra em: https://www.embrapa.br/soja/busca-de-publicacoes/-/
publicacao/1072792/potencial-de-utilizacao-de-sensores-multiespectral-e-hiperespectral-
-no-estudo-de-diferentes-alvos-agricolas.

A Figura 9 demonstra a comparação dos sensores multiespectrais e


hiperespectrais. Os primeiros realizam medidas discretas e não contíguas da
energia, ao passo que os do segundo tipo capturam a radiação de forma contínua
e sem grandes intervalos, permitindo construir curvas (já com os sensores
multiespectrais é possível construir somente gráficos com pontos discretos).

31
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

FIGURA 9 – COMPARAÇÃO DOS SENSORES MULTIESPECTRAIS E HIPERESPECTRAIS

FONTE: Adaptada de Tan (2017, p. 7)

O SR hiperespectral permite que sejam extraídas informações relativas


ao espectro de reflectância e absortância que, por sua vez, possibilitam a
identificação da composição química/molecular dos materiais que compõem a
superfície terrestre, bem como os componentes atmosféricos. Tudo isso a partir
de suas imagens hiperespectrais. Neste caso, como cada pixel possui o dado
detalhado de centenas de bandas espectrais captadas pelo sensor remoto, um
detalhado espectro de reflectância pode ser criado (JENSEN, 2009). O sensor
AVIRIS (Airborne Visible and Infrared Imaging Spectrometer) é um bom exemplo de
sensor hiperespectral, com 224 bandas capturadas no intervalo do espectro entre
400 a 2.500 nm (intervalo entre bandas de apenas 10 nm).

Os sensores multiespectrais costumam possuir uma única banda espectral


com uma resolução espacial maior, em contraste com as outras bandas do mesmo
sensor, a denominada banda pancromática. Este tipo de banda possui maior
resolução espacial porque possui uma maior amplitude de comprimento de
bandas medido (PETTORELLI et al., 2018). Tomamos por base o Landsat 8 (OLI
e TIRS): a banda verde (banda 3) compreende o intervalo entre 0,53 a 0,59 µm, ao
passo que a banda pancromática deste sensor engloba o intervalo de 0,50 a 0,68
µm de comprimento de onda do espectro eletromagnético.
32
TÓPICO 2 — COMPORTAMENTO ESPECTRAL DE ALVOS

No próximo subtópico você poderá comparar a diferença dos sensores


multiespectrais e hiperespectrais em relação às assinaturas de reflectância.
Veremos com maior detalhe as bandas espectrais dos sensores mais adiante.

2.2 ASSINATURA ESPECTRAL


Os materiais que compõe a Terra possuem diferentes propriedades
biofísico químicas, e cada um destes materiais absorvem uma porção de REM
específica do espectro eletromagnético; isto é, absorvem e refletem determinados
comprimentos de onda da REM. Dessa forma, sabendo quais comprimentos de
onda são absorvidos e quais comprimentos são refletidos por meio da utilização
de sensores, é possível traçar uma assinatura espectral deste material (alvo, área).
Em outras palavras, os alvos terrestres como a vegetação, a água e o solo absorvem,
transmitem e refletem a REM em diferentes proporções. Assim, a assinatura
espectral de um alvo consiste na relação da reflectância versus o comprimento
de onda da REM. A Figura 10 mostra exemplos de uma comparação geral da
assinatura espectral de alguns materiais.

Os sensores hiperespectrais (que conseguem distinguir o espectro


eletromagnético em várias fatias finas) são os mais utilizados para produzir
as respostas espectrais dos materiais quando estes interagem com a radiação.
Embora não produzem uma curva contínua e detalhada, sensores multiespectrais
também podem ser utilizados em alguns casos específicos (Figura 11). Além do
SR hiperespectral orbital ou aéreo, espectrorradiômetro portáteis também são
utilizados para construir curvas detalhadas de materiais por meio de medições
em campo ou em laboratório.

Na Figura 7 temos a comparação de reflectância de diferentes materiais


em relação ao espectro eletromagnético (diferentes comprimentos de onda). A
natureza ou como os materiais vão absorver, transmitir ou refletir determinados
comprimentos de onda da REM é o que chamamos de assinatura ou comportamento
espectral. Exemplo: a água é, em geral, mais refletiva nas regiões azul e verde
do espectro visível. Já além da região do visível, no infravermelho (IV), a água
absorve quase toda a REM e, portanto, em imagens captadas no IV de ondas
curtas e no IV médio, fica praticamente preta. Por fim, quanto maior for o pico da
reflectância, mais claro será o objeto numa dada imagem e vice-versa.

33
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

FIGURA 10 – COMPARAÇÃO DE REFLECTÂNCIA DE DIFERENTES MATERIAIS EM RELAÇÃO AO


ESPECTRO ELETROMAGNÉTICO

FONTE: <http://bit.ly/3q1w7jk>. Acesso em: 17 nov. 2020.

Na Figura 11 observamos a comparação das reflectância feita a partir de


sensores hiperespectrais (A e B) e multiespectrais (C e D). As barras verticais na
C e D indicam as bandas dos sensores presentes no Landsat 7. Note que em A
e C (hiperespectral e multiespectral) a distinção dos alvos é fácil. Em B e D a
identificação da vegetação fotossintética, embora seja similar, ainda é distinguível
com maior facilidade com os dados hiperespectrais. Note que os valores de
reflectância estão entre 0 a 1.

FIGURA 11 – CURVAS DE REFLECTÂNCIA DE SENSORES HIPERESPECTRAIS E MULTIESPECTRA

FONTE: Adaptada de Bradley (2014, p. 1415)

34
A assinatura ou comportamento espectral de um material corresponde
ao conjunto dos valões sucessivos da reflectância da REM. Todavia, é a forma, a
intensidade e a localização de cada banda de absorção que caracteriza o material
ou objeto (NOVO, 2010). Assim, cada pixel numa imagem de satélite contém um
valor do espectro amostrado e, por meio da reflectância gravada neste pixel, um
determinado material pode ser devidamente identificado. Por exemplo, caso
uma imagem de um alvo apresente altos valores digitais referentes à região do
infravermelho próximo (NIR), podemos concluir, de antemão, que o alvo reflete
de forma mais intensa a REM dessa região do espectro.

Não obstante, o conhecimento da assinatura espectral dos alvos é crucial


para a escolha da região do espectro eletromagnético em que se pretende obter
dados para gerar produtos. Além disso, é praticamente impossível analisar
imagens de sensores remotos sem o conhecimento básico de como os principais
constituintes da superfície da terra respondem quando ocorre a interação com
a REM (NOVO, 2010; MENESES; ALMEIDA; BAPTISTA, 2019). Isso se torna
claro a partir das técnicas de processamento de imagens digitais, que se baseiam
principalmente em análise espectral (manipulação dos dados espectrais das
imagens), pois, é a resolução espectral que é analisada para criar as curvas de
comportamento espectrais dos alvos terrestres.

NOTA

Os sensores chamados de espectrorradiômetros são utilizados para rea-


lizar as medidas de reflectância dos materiais. Podem ser equipamentos portáteis que
permitem, entre outras aplicações, calibrar e definir corretamente as bandas espectrais
de sensores orbitais.

Há curvas de assinaturas espectrais para grande parte dos grandes


alvos presentes na superfície da Terra. Entre as curvas mais importantes para
estudarmos, pois terão implicações tanto no sensoriamento remoto rural (e
florestal) quanto no sensoriamento remoto urbano (superfícies construídas pelos
humanos), estão:

• vegetação;
• água;
• neve;
• solo;
• rochas e minerais;
• asfalto;
• telhados (cerâmicos e metálicos);
• concreto.
Veremos uma descrição da assinatura espectral de alguns destes elementos

35
mencionados. A Figura 12 nos traz um exemplo do comportamento de folhas
(vegetação). Através da análise desta figura, que mostra a assinatura espectral de
uma folha verde (A), uma folha seca (B) e um solo com muito ferro e pouca matéria
orgânica (C), podemos perceber que é possível diferenciar a reflectância de um
objeto para cada região do espectro eletromagnético que o atinge, construindo
uma curva. Por que essa diferença ocorre? A chave para entender a assinatura da
vegetação está relacionada com a fotossíntese (síntese de substâncias orgânicas
pelas folhas das plantas com a ajuda da energia solar). Portanto, este assunto
é extremamente importante no que tange o SR de agricultura de precisão.
Reflectância é a grandeza utilizada para gerar a assinatura espectral de um alvo.
Curvas para os comprimentos de onda entre 400 a 1000 nm.

FIGURA 12 – EXEMPLOS DA ASSINATURA ESPECTRAL DE FOLHAS DE UMA ÁRVOREIS

FONTE: <https://bit.ly/39pX0qB>. Acesso em: 17 nov. 2020.

Na região visível do espectro a baixa reflectância observada se dá por causa da


grande absorção da luz pelos pigmentos fotossintetizantes (principalmente clorofilas,
carotenos e xantofilas) presentes nas folhas verdes (sadias), ao passo que na região
da banda do infravermelho (IV) ocorre uma maior reflectância como consequência
da interação dessa faixa do espectro com a estrutura celular superficial da folha. O
principal pigmento para a fotossíntese da maior parte das plantas é a clorofila, que
absorve majoritariamente os comprimentos em entre 400 a 500 nm (azul) e 600 a 700 nm
(vermelho). Assim, enxergamos as folhas em tons verdes por causa da maior reflexão
no comprimento de onda do verde (nas regiões do azul e do vermelho do espectro há
mais fotossíntese e, consequentemente, há maior absorção de luz e menor reflectância).
Quando as folhas apresentam grande quantidade dos pigmentos carotenos e xantofilas
(carotenoides), elas apresentam tons mais amarelados, pois os carotenoides possuem o
pico de absorção na faixa do verde (JENSEN, 2009).

No geral, quanto mais pigmentos fotossintetizantes há no dossel, maior é a absorção da


radiação (mais fotossíntese) e menor e reflectância. A reflectância no infravermelho pela
folha é associada com o conteúdo de água na estrutura celular superficial, e por isso é um

36
bom indicador do estado das plantas (tipo de vegetação, estágio de desenvolvimento,
se está estressada ou saudável etc.). A vegetação sadia possui maior reflectância no
IV próximo (NIR). Nessa região do espectro, as características de reflectância são
controladas pela estrutura fisiológica interna (mesófilo esponjoso) das plantas. Já
no IV médio (MIR), há maior absorção por causa da presença de água nas folhas e,
consequentemente, há maior reflectância. Conforme Liu (2006), folhas mais verdes no
estágio de crescimento vegetativo e folhas mais amareladas no estágio de maturação
são evidências de uma planta mais saudável. Dessa forma, tais características podem
ser utilizadas para monitorar a produtividade em termos de biomassa e o crescimento
da vegetação.

Em suma, há alguns fatores fisiológicos que influenciam nas reflectâncias espectrais


de uma folha, como maturidade (folhas maduras, bem estruturadas e esponjosas
absorvem 5% mais na faixa do visível e 15% mais na faixa do NIR em comparação com
as folhas mais jovens e compactas), pigmentos (que produzem mais fotossíntese no
azul e no vermelho), densidade da cobertura vegetal e distância entre folhas, conteúdo
de água etc. (LIU, 2006). No entanto, a assinatura espectral da vegetação não é única,
mas depende da espécie vegetal (diferentes organizações das células das plantas das
espécies vão gerar curvas de reflectância diferentes). Como a estrutura interna das
plantas varia, a região do infravermelho pode ser utilizada para identificar espécies por
meio do SR. Em suma, a resposta espectral da vegetação é definida pelos pigmentos
da folha na região do visível, pela estrutura celular no IV próximo e pelo conteúdo de
água no IV médio.

O comportamento espectral da água pode ser alterado em função de algumas variáveis,


como: presença de sedimento em suspensão; presença de fitoplâncton e plantas
marinhas (pigmentos fotossintetizantes), matéria orgânica dissolvida, sólidos em
suspensão, dentre outros. Em seu estado puro, a reflectância da água é relativamente
bem baixa (a água limpa possui o pico de reflectância na parte azul do espectro visível).
Já na região do infravermelho (próximo e médio) a água absorve quase toda a radiação
(por isso, em imagens de satélite que englobam a região do IV, a água aparece na cor
preta). É possível ver exemplos da assinatura espectral na Figura 10 e na Figura 11. Os
corpos hídricos são de fácil identificação em imagens de satélite, e, por isso, são muito
utilizados como referência para identificar outros alvos.

Já as águas com sedimento em suspensão, representadas por rios, lagoas e a parte do


mar próximo à costa, vai possui um comportamento espectral diferente. Entretanto,
normalmente, a reflectância de água com sedimento não vai ultrapassar os 10% (quanto
maior a reflectância, maior será a quantidade de sedimento em mg/L). Os comprimentos
de onda entre 580 a 690 nm podem fornecer informações sobre qual o tipo de
sedimento que está em suspensão na água (sedimento mais lamoso ou mais arenoso)
e os comprimentos de onda entre 714 a 880 nm podem fornecer informações sobre a
quantidade/concentração de sedimento em suspensão (JENSEN, 2009). Uma aplicação
das curvas espectrais da água com sedimentos em suspensão é na possibilidade de
monitorar a erosão do solo em uma bacia hidrográfica. Frequentemente a erosão causa
o assoreamento dos cursos d’água.

O comportamento espectral das águas com fitoplâncton (termo genérico utilizado

37
para agrupar micro-organismos fotossintéticos que ficam à deriva na água) e plantas
marinhas; ou seja, organismos que possuem clorofila, apresenta picos de reflectância
(na faixa do verde) e picos de absortância nas faixas do azul e do vermelho (exatamente
como acontece com a curva da vegetação terrestre). As espécies de fitoplâncton
possuem diferentes concentrações de clorofila a, e por isso apresentam como cores
diferentes em imagens de SR. Os sensores orbitais mais utilizados para estimar a
concentração do plâncton (fitoplâncton, produtividade das águas etc.) são o SeaWiFS
e o MODIS. Os sensores OLI (Operational Land Imager) do satélite Landsat-8 e o sensor
MSI (Multispectral Instrument) do satélite Sentinel-2A também podem ser utilizados
para estimar a concentração de clorofila a nas águas, por exemplo (WATANAB et al.,
2017). Cada sistema sensor possui um algoritmo próprio para calcular a abundância do
fitoplâncton (JENSEN, 2009).

Gelo e neve têm alta refletância (alto albedo) em todos os comprimentos de onda
visíveis, dessa forma ficam com a aparência branca bem brilhante (Figura 13). A
refletância diminui na parte do infravermelho próximo (NIR) e há uma alta absortância
no SWIR (infravermelho de ondas curtas). A baixa reflexão de gelo e neve no SWIR está
relacionada ao seu conteúdo, em escala microscópica, de água líquida.

A seguir na Figura 13 observamos a curva da resposta espectral (reflectância) da neve


fina, neve grossa e gelo de geleira. A imagem também mostra as bandas espectrais de
alguns sensores orbitais (retângulos cinza com a numeração correspondente à banda).
Note que o sensor Hyperion/EO-1 é hiperespectral, enquanto os outros sensores
mostrados são multiespectrais.

FIGURA 13 – Resposta espectral de alguns elementos

FONTE: <http://bit.ly/3ozCEBu>. Acesso em: 17 nov. 2020.

38
A refletância da neve e do gelo é diferente, pois depende da composição do material
(incluindo impurezas e tamanho da partícula). As nuvens também possuem uma
alta reflectância (mas menor que a da neve) em praticamente todos os comprimentos
de onda do espectro eletromagnético, com regiões de maior absorção em cerca de
1000, 1300 e 2000 nm. Adicionalmente, a Figura 13 mostra a localização (em termos
do comprimento de onda) das bandas espectrais de alguns sensores remotos orbitais
importantes.

As propriedades espectrais dos solos, rochas e minerais são bem semelhantes, e são
importantes para estudos em agronomia e geologia. A curva de reflectância do solo
exposto (bare soil) aumenta com o aumento do comprimento de onda, com maior
refletância no infravermelho próximo (NIR) e infravermelho de ondas curtas (SWIR).
Tal curva é influenciada por fatores como: rugosidade e textura do solo, tipo de solo,
conteúdo de matéria orgânica, conteúdo de água (umidade) e composição química
(elementos químicos presentes no solo, principalmente a concentração de óxido
de ferro) (JENSEN, 2009; FLORENZANO, 2011). A Figura 14 mostra diferenças na
assinatura a partir de variações de algumas destas propriedades.

Solos com superfícies mais rugosos tendem a refletir menos a radiação, devido ao efeito
de sombreamento e espalhamento. Partículas maiores vão refletir mais (em se tratando
de solos com uma mesma composição mineralógica). É possível afirmar que o aumento
da reflexão é proporcional ao aumento dos grãos no tamanho areia. A umidade e o
conteúdo de matéria orgânica são outras variáveis importantes no estabelecimento da
curva espectral de um determinado tipo de solo. Via de regra, quanto maior a umidade
e maior a concentração de matéria orgânica, maior é a capacidade do solo em absorção
a energia e, consequentemente, a reflexão será diminuída (JENSEN, 2009). O óxido de
ferro influencia na cor do solo, dando aspectos mais avermelhados e amarelados (ou
seja, maior reflectância na região do vermelho).

A Figura 14 nos mostra: (A) Relação para solos expostos (sem vegetação) com diferentes
proporções de matéria orgânica (MO); (B) e (C) mostram a influência do conteúdo de
água em solos arenosos e argilosos, respectivamente. Quanto maior a umidade, maior
é a absorção.

FIGURA 14 – COMPARAÇÃO DA REFLECTÂNCIA DE SOLOS

39
FONTE: Adaptada de Jensen (2009, p. 464-465)


Segundo Jensen (2009), é possível diferenciar a textura (tipo) de solos a
partir de sensores com alta resolução espectral e radiométrica. Além disso, também
é possível utilizar sensores de micro-ondas ativos (radar) para classificar os solos
em relação ao seu aspecto textural. Igualmente é possível utilizar as diferentes
regiões do espectro para estudar propriedades físico-químicas de rochas (NOVO,
2010).

A Figura 15 mostra assinaturas espectrais de alguns materiais comumente


encontrados em áreas urbanas (JENSEN, 2009). Dentre os quais podemos desta-
car o concreto e o asfalto, que possuem uma reflectância similar, mas com magni-
tudes menores para o último. O concreto possui uma curva bem uniforme, com
um leve pico de reflectância no comprimento de onda de 600 nm. Já o asfalto
apresenta uma curva de crescimento ascendente da reflectância com o aumento
do comprimento de onda do espectro.

A Figura 15 nos apresenta assinaturas espectrais de alvos urbanos


(superfícies construídas/artificias). Tais curvas foram obtidas em laboratório.

40
FIGURA 15 – ASSINATURAS ESPECTRAIS DE ALVOS URBANOS

FONTE: Adaptada de Jensen (2009, p. 537)

Vamos para um exercício prático: imagine que você queira diferenciar dois tipos de
árvores (decíduas/folhas largas e coníferas/folhas aciculares) num mapeamento no
bosque no verão utilizando SR, qual seria uma forma eficiente de realizar essa tarefa?
Lembrando que ambas irão apresentar os mesmos tons de verde a olho nu numa
fotografia aérea convencional e em imagens no espectro do visível. Além do mais,
diferenciar por meio da forma da copa das árvores também pode ser uma tarefa muito
difícil.

A chave da resposta para estar pergunta acima está na assinatura espectral de ambos
os tipos de árvores (Figura 16). Após analisar a curva de reflectância de ambos os tipos
de árvores, podemos perceber que a faixa do infravermelho próximo (NIR) seria a
ideal para identificá-las (~0,8 µm de comprimento de onda), uma vez que há uma clara
separação das assinaturas nessa região do espectro. Dessa forma, podemos utilizar um
VANT com sensor fotográfico preto e branco que opere no NIR, por exemplo (Figura
17). Isto mostra a grande importância de conhecer o comportamento espectral dos
materiais que compõe a superfície terrestre.

A Figura 12 apresenta envelopes generalizados da assinatura espectral de árvores do


tipo decíduas (folhas largas) e do tipo coníferas (folhas em forma de agulha). Na região
do visível a assinatura é praticamente indistinguível. No infravermelho próximo (NIR)
há uma grande diferença na reflectância. Para diferenciar materiais, devemos avaliar a
assinatura espectral de ambos e escolher a região do espectro em que há maior distância
das curvas.
FIGURA 16 – COMPARAÇÃO DE ÁRVORES DO TIPO DECÍDUAS E DO TIPO CONÍFERAS

41
FONTE: Adaptada de Lillesand, Kiefer e Chipman (2015, p. 14)

A Figura 13 nos mostra fotografias aéreas oblíquas de baixa altitude de um


bosque com árvores de folhas largas (decídua) e de folhas em forma de agulha
(coníferas). (A) Fotografia pancromática que captura a região do visível (0,4 a 0,7
µm de comprimento de onda). (B) Fotografia em P&B na região do infravermelho,
registrando a energia entre 0,7 a 0,9 µm. Dessa forma, utilizando imagens na
região do NIR, é possível distinguir as árvores, pois as do tipo decíduas vão
aparecer muito mais claras.

FIGURA 17 – RESPOSTA DE ÁRVORES DECÍDUAS E DE CONÍFERAS

FONTE: Adaptada de Lillesand, Kiefer e Chipman (2015, p. 15)

42
DICAS

O Serviço Geológico dos Estados Unidos (USGS) possui uma ferramenta


on-line chamada de “Spectral Characteristics Viewer”. A ferramenta permite aos usuários
determinar quais bandas de satélite são mais adequadas para seu interesse. É possível
construir curvas para vários tipos de vegetação, minerais, água e rochas, e para vários
sistemas sensores diferentes. Acesse na íntegra em: https://landsat.usgs.gov/spectral-
-characteristics-viewer.

Para frisar bem: como construímos uma curva de reflectância? De fato, qualquer
equipamento (sistema sensor) capaz de captar a energia refletida por uma alvo pode
ser usado para plotar uma curva (ou pontos) espectral, a grande diferença é que a
resolução espectral varia de sensor para sensor. No entanto, como falado anteriormente,
o ideal é utilizar sensores remotos hiperespectrais (possuem bandas espectrais mais
“estreitas” e contínuas) e assim pode-se construir uma verdadeira curva (em se tratando
de sensores orbitais). O procedimento é relativamente simples, e envolve converter
o número digital (brilho relativo) de cada pixel em radiância (top-of-atmosphere TOA
radiance) e posteriormente converter essa radiância em reflectância. Dependendo do
software que está sendo usado, há algumas funções específicas e simples para tal tarefa.

Ao longo deste subtópico foram observadas várias curvas de respostas dos materiais
quando atingidos por radiação eletromagnética (REM). É necessário resultar que as
curvas exemplificadas e mostradas em figuras refletem o padrão geral, mas na verdade
cada curva se situa dentre de um envelope com valores máximos e mínimos (a curva
pode variar um pouco). Em laboratórios ou em saídas de campo para coletar dados
in situ com sensores móveis a reflectância pode ser medida sob a forma do fator de
reflectância, que é definida como a razão entre a radiância de um alvo de um dado
comprimento de onda pela radiância de um material de superfície lambertiana (teórico).

2.3 FATORES QUE INTERFEREM NAS MEDIDAS DO


COMPORTAMENTO ESPECTRAL DOS ALVOS
Florenzano (2011) e Chuvieco (2016) destacam de forma muito clara quais são os
principais fatores que interferem no comportamento espectral dos alvos, quando a
reflectância é medida por sistemas sensores orbitais ou aéreos. Então, temos:

• nível de aquisição dos dados (plataforma utilizada): a altitude da aquisição vai


influenciar no tamanho da área que será imageada ou observada, na interferência de
alguns fatores ambientais, na resolução dos dados;
• método de aquisição de dados utilizados: engloba o tipo de sensor que está sendo
utilizado, o tipo de detecção da radiação até a transformação e o processamento do
sinal pelo sensor remoto;
• características do alvo ou área: estado da matéria (sólido, líquido ou gasoso),
biomassa e demais variações na composição da cobertura da superfície causam
mudanças nas composições físico-químicas, como: densidade, pimentos, umidade
e rugosidade. O solo ou substrato também pode interferir no sinal detectado pelo
sensor.

43
• condições ambientais: relaciona-se com variações em condições externas do alvo ou
área de interesse, como: iluminação, precipitação e inundação, interferência humana
(e.g. poluição, desmatamento), dentre outros fatores;
• posição do alvo em relação à fonte e ao sensor remoto: a localização do alvo perante
a fonte de radiação solar depende da estação do ano, do dia e da hora. Não obstante,
a posição desse alvo também é influenciada pela topografia do terreno (haverá
diferentes respostas espectrais de um mesmo objeto que se localiza numa superfície
plana e numa área inclinada). Geometria de aquisição de dados;
• interação com a atmosfera: os componentes atmosféricos podem absorver ou
causar o espalhamento tanto da radiação incidente quanto da radiação que o corpo
emite. Tal interferência pelos gases e particulados da atmosfera poderá diminuir da
qualidade do sinal que será registrado pelo sensor.

Dessa forma, os dados de sensoriamento remoto quase sempre precisam de correções


antes de ser devidamente utilizados.

3 TIPOS DE BANDAS ESPECTRAIS E SUAS COMPOSIÇÕES


Sabemos que banda espectral (canal espectral) é um trecho conhecido do espectro
eletromagnético (um intervalo definido do espectro). Visto isso, com qual cor
representamos essa banda espectral “solitária”? Uma única banda espectral se
apresenta em tons de cinza (8 bits, 0 = preto e 255 = branco), ao passo que com uma
combinação de pelo menos três bandas espectrais é possível gerar uma imagem
colorida. Através da análise do espectro eletromagnético, vimos que a luz visível (que
podemos enxergar) possui um limitado intervalo de comprimento ou onda, mas, como
podemos representar as cores em nossos computadores, por exemplo?

E
IMPORTANT

Banda se refere a uma única imagem contida em um conjunto de dados


multiespectral ou hiperespectral, e corresponde a uma região específica e normalmente
estreita do espectro eletromagnético. As imagens de uma única banda são geralmente
em escala de cinza e exibem informações sobre o brilho relativo da superfície da Terra
em um pixel. Por exemplo, em uma imagem da banda 3 do OLI/Landsat-8, um pixel
muito branco (brilhante) corresponde a um material de superfície que reflete uma quan-

44
tidade significativa de radiação na faixa de comprimento de onda de 0,525 a 0,600 µm
(faixa que enxergamos como luz verde). Já se o pixel for de cor escura, em comparação,
indicaria que pouca luz verde está sendo refletida por esse material de superfície (maior
absorção). Importante: nem todos os sensores orbitais possuem bandas em todas as
regiões do espectro eletromagnético (observe a Figura 13).

Embora as imagens em tons de cinza possam apresentar muitos níveis, o olho humano
– que é um excelente exemplo de “sensor remoto” – é capaz de distinguir somente algo
entre 16 a 30 níveis de cinza. Basicamente, a sensibilidade às variações de cores é mais
facilmente percebida pelos humanos do que os diferentes tons de cinza (brilho). O
sistema ótico humano pode perceber milhares de cores a partir da adição de três cores
puras ou primárias: vermelho (R – red), verde (G – green) e azul (B – blue). A cor preta
é formada quando há ausência destas três cores primárias (quando um alvo absorve
tudo), enquanto a cor branca é formada pela mistura dos valores máximos destas três
cores puras. O modelo IHS (Intensity, Hue, Saturation) também é bem difundido no
SR (em alguns casos, podemos transformar o modelo RGB para IHS para interpretar
melhor os dados). Existe também o modelo subtrativo de cores, CMYK (Cyan, Magenta,
Yellow, Black), que são utilizados em algumas impressoras coloridas, por exemplo.

O sistema RBG é o mais utilizado para processamento de imagens e análises visuais


em SR, e utilizado para produzir imagens coloridas (composições) no que tange
o SR (JENSEN, 2009). Este sistema é comumente representado por um cubo de três
dimensões (sistema cartesiano), na qual as cores vermelho, verde e azul formam os
eixos do cubo (valor máximo de cada eixo é 255). Então, as representações das mais
diversas cores que enxergamos podem ser feitas através de uma combinação linear
de diferentes proporções (porcentagem) de cores RGB, resultando em inúmeras
cores (cerca de 256³ cores). As cores, que representam diferentes proporções das
cores primárias azul, verde e vermelha, podem ser caracterizadas no espaço em três
dimensões (o cubo RGB é apresentado no próximo Tópico). Os níveis de cinza são os
valores diagonais do cubo RGB 3D. No geral, são utilizadas tabelas de cores e de níveis
de cinza para melhorar a interpretação por parte do usuário do SR. Em suma, nossos
hardwares (displays, monitores, TVs etc.) são feitos em sistema RBG; ou seja, possuem
os três canais de cores primárias.

As diferentes formas de combinação de cores são muito importantes no que concerne o


SR, uma vez que permitem correlacionar as cores puras com as informações espectrais
(oriundas em três bandas espectrais de qualquer sistema sensor), gerando uma
composição colorida (QUARTAROLI; BATISTELLA, 2005). As cores são propriedades
que simplificam a identificação de diferentes alvos em uma cena e aumentam a
capacidade de distinguir objetos. Dessa forma, é mais fácil de extrair informações dos
produtos.

Então, vimos que é mais útil combinar bandas, formando uma imagem colorida, do que
analisar uma banda isoladamente. A Figura 16 mostra o processo de formação de uma
composição colorida em cor natural ou verdadeira. Neste caso, foi utilizada as bandas
azul (banda 2), verde (banda 3) e vermelha (banda 4) do sensor orbital Sentinel-2 MSI;
ou seja, a composição em cor natural para este sensor é R4G3B2 (podemos ler dessa
forma: banda 4 alocada no canal R, banda 3 alocada no canal G e banda 2 alocada no
canal B). Note que a combinação RBG de cor natural ou verdadeira pode mudar de um
sensor para outro (nem sempre a composição em cor verdadeira/natural será R4G3B2).
Por exemplo: a composição em cor natural do Landsat 7 ETM+ é R3G2B1. Isso é válido
45
para todas as composições de todos os sensores. Dessa forma, sempre é importante
consultar as tabelas de características de cada sensor, como número das bandas, sua
descrição e seu intervalo. É possível encontrar tabelas de todos os sistemas sensores na
internet.

Como pode ser visualizado nas Figuras 19 e 20, podemos realizar várias combinações
além da combinação em cor natural ou verdadeira. Por que fazer isso? Como vimos
anteriormente, os elementos presentes na superfície da Terra apresentam diferentes
intensidades de reflectância. Então, podemos combinar as bandas de jeitos diferentes
para extrair melhor os dados e poder, de fato, enxergar uma informação que está ali,
mas é invisível para a nossa percepção ótica (pois só enxergamos os comprimentos de
onda do visível).

Conhecer a assinatura espectral dos principais materiais que compõe a superfície da


Terra é crucial para a devida manipulação das diferentes composições de bandas,
entendendo o porquê de uma determinada composição ser mais utilizada para um
propósito específico. Em outras palavras, vimos a resposta espectral de vários objetos,
e constatamos que muitos deles são diferenciáveis somente em regiões do espectro
que não podemos enxergar (e.g. infravermelho próximo NIR, infravermelho de ondas
curtas SWIR e infravermelho termal TIR). Então, podemos utilizar tais regiões para
fabricar uma imagem que possamos realmente “enxergar”.

Na Figura 18 temos o processo de formação de uma composição colorida. As bandas


espectrais na região do azul, verde e vermelho, que são naturalmente em escala de
cinza, foram combinadas numa sequência específica para gerar uma composição em cor
verdadeira ou natural. Composições coloridas multiespectrais nos permitem interpretar
o brilho relativo, pixel por pixel, para três regiões do espectro eletromagnético (bandas
diferentes) de forma simultânea.

FIGURA 18 – PROCESSO DE FORMAÇÃO DE UMA COMPOSIÇÃO COLORIDA

46
FONTE: Adaptado de Pettorelli et al. (2018, p. 19)

A Figura 19 nos apresenta o exemplo de combinação de bandas (do Landsat 8 OLI


e TIRS) com diferentes aplicações. A) Composição na cor verdadeira, B) composição
em falsa cor, C) IV (vegetação), D) agricultura, E) saúde vegetal e F) Terra/Água. Lo-
cal: Lago Crater (EUA) – Lat. 42º52’44.10” N e Long. 122º06’34.51” O.

FIGURA 19 – COMBINAÇÕES DE BANDAS (COMPOSIÇÕES) PARA O LANDSAT 8/OLI

47
FONTE: <https://gsp.humboldt.edu/OLM/Courses/GSP_216_Online/lesson3-1/composites.
html>. Acesso em: 18 nov. 2020.

Na Figura 20 temos um exemplo de combinação de bandas (do Landsat 8 OLI e TIRS)


com diferentes aplicações. A) Cor natural sem atmosfera, B) penetração atmosférica, C)
infravermelho curto e D) análise de vegetação. As diferentes composições resultam em
cores diferentes que são utilizadas para melhor diferenciar alvos. Note que algumas
composições são bem similares a olho nu. Local: Lago Crater (EUA) – Lat. 42º52’44.10”
N e Long. 122º06’34.51” O.

FIGURA 20 – COMBINAÇÕES DE BANDAS (COMPOSIÇÕES) PARA O LANDSAT 8/OLI

48
FONTE: <https://gsp.humboldt.edu/OLM/Courses/GSP_216_Online/lesson3-1/composites.
html>. Acesso em: 18 nov. 2020.

Uma banda muito útil presente em alguns sistemas sensores orbitais é


a banda (imagem) pancromática (canal único do espectro com uma largura
de banda maior). Quando a faixa da banda pancromática coincide o visível,
podemos interpretá-la como uma forma de fotografia aérea em P&B (possuem
maior resolução espacial, mas a informação espectral detalhada ou cor dos alvos
é perdida). Alguns procedimentos utilizam a banda espectral para aumentar a
resolução espacial de uma composição colorida. As composições coloridas podem
ser consideradas como técnicas de realce (em termo de processamento digital
de imagens). A Tabela 2 apresenta algumas bandas espectrais, seus intervalos
(os intervalos podem mudar um pouco de acordo com o sistema sensor) e suas
potenciais aplicações (o que cada uma “vê” melhor).

49
TABELA 2 – REGIÃO DO ESPECTRO E SUAS POSSÍVEIS APLICAÇÕES

Bandas (região
Possível aplicação
do espectro)
- Monitoramento da biodiversidade marinha, como a
população de baleias (essa faixa do espectro penetra
dezenas de metros em águas claras).
Aerossol Costeiro - Batimetria por satélite (banda é absorvida menos pela
(0,43 - 0,45 µm) água).
- Aerossóis: como a faixa de aerossóis costeiros é mais
sensível às nuvens, fumaça e neblina, está sendo usada
para filtrar nuvens no processamento de imagens.
- Dependendo da claridade da água, a luz visível na faixa
azul pode atingir profundidades de mais de 40 metros
- Imagens de água profunda de mares e oceanos
Azul (0,45 - 0,51
(mapeamento de recifes, vegetação aquática, batimetria,
µm)
feições de fundo etc.).
- Fumaça, atmosfera e nuvens.
- Separação de nuvens, neve e rochas.
- Vigor e vegetação de plantas.
Verde (0,53 - 0,59 - Florações de algas e cianobactérias.
µm) - Recreação urbana e aplicação no esporte (estado de
gramados etc.).
- Tipos de solo e recursos geológicos.
Vermelho (0,64 -
- Áreas naturais versus áreas construídas.
0,67 µm)
- Absorção pela clorofila.
- Banda nova, encontrada no WorldView-2.
Amarelo (0,585 - - Doenças em árvores.
0,625 µm) - Pragas (insetos) na copa de árvores.
- Classificação de árvores por estação.
- Transição entre a porção do vermelho e o infravermelho
próximo (IVP/NIR) (clorofila absorve a luz vermelha e
Borda do
reflete o IVP).
vermelho (0,705 –
- Condições de uma dada cultura.
0,745 µm)
- Saúde das plantas e estado de maturação.
- Monitoramento (agricultura).
- Separação de água e vegetação.
Infravermelho - Biodiversidade.
Próximo 1 - NIR- - Conteúdo de biomassa.
1 (0,76 - 0,90 µm) - Sítios arqueológicos.
- NDVI (índice de vegetação).
Infravermelho - Menos afetada pela atmosfera que a NIR-1.
Próximo 2 - NIR- - Estudos de vegetação.
2 (0,86 - 1,04 µm) - Limites terra/água.
Infravermelho
- Estudos de solos (solos secos vs. solos úmidos).
de ondas curtas
- Estudos geológicos (identificação de minerais).
1 - SWIR-1 (1,57 -
- Aplicação em queimadas (atravessa a fumaça).
1,65 µm)
50
- O SWIR-2 é usado principalmente para geração de
Infravermelho imagens de tipos de solo, características geológicas e
de ondas curtas minerais, como cobre e sulfatos. Também é sensível às
2 - SWIR-2 (2,08 - variações de umidade da vegetação e do solo.
2,35 µm) - Forte absorção pela água.
- Neve e gelo e as nuvens parecem mais escuras.
- Toda a energia refletida é armazenada em um único
canal (em P&B).
Pancromática
- Maior resolução espacial.
(0,50 - 0,68 µm)
- Utilizada para aumentar a resolução de imagens
coloridas (Pansharpening).
Cirrus (1,36 -1,38
- Detecção de nuvens do tipo Cirro.
µm)
- Detecção calor (sensores do Landsat nesta banda
Infravermelho captam a energia emitida, não a refletida).
termal - TIRS-1 - Atividade vulcânica.
(10,60 -12,51 µm) - Calor urbano (e.g. ilhas de calor, parques)
- Previsão do tempo.

FONTE: < https://gisgeography.com/landsat-8-bands-combinations/>. Acesso em: 17 nov. 2020.

51
RESUMO DO TÓPICO 2
Neste tópico, você aprendeu que:

• A radiação eletromagnética (REM) interage com os alvos, gerando três formas


principais de resposta: reflectância (ρλ), absortância (αλ) e transmitância (τλ). A
reflectância é o foco do Sensoriamento Remoto (SR).

• Podemos medir a reflectância de alvos por meio de sistemas sensores multiespectrais


e hiperespectrais. O primeiro possui um número limitado de bandas não contínuas,
e tais bandas são mais largas (captam informação de um intervalo maior, com
menor detalhamento). Já os hiperespectrais possuem centenas de bandas estreitas e
contíguas (grande detalhe espectral).

• Os diferentes materiais que existem na superfície da Terra vão absorver e refletir


diferentes comprimentos de onda do espectro eletromagnético. Cada material tem
sua própria resposta, que pode ser caracterizada. Assim, cada objeto possui sua
própria assinatura ou comportamento espectral.

• Quanto maior for o pico da reflectância, mais claro será o objeto numa dada imagem
e vice-versa.

• Sistemas sensores hiperespectrais são utilizados para produzir as curvas do


comportamento espectral de cada alvo. Sensores multiespectrais também podem
ser utilizados para tal tarefa, mas não produzem curvas (e sim pontos discretos na
localização de cada banda do sensor).

• A resposta espectral da vegetação é definida pelos pigmentos da folha na região do


visível, pela estrutura celular no NIR e pelo conteúdo de água no IV médio (MWIR).
A água é, em geral, mais refletiva nas regiões azul e verde do espectro visível. Já
além da região do visível, no infravermelho (IV), a água absorve quase toda a REM
e, portanto, em imagens captadas no IV de ondas curtas (SWIR) e no IV médio, fica
praticamente preta.

• As medidas da assinatura espectral dos materiais sofrem interferência de várias


fontes, por isso os dados necessitam de correção.

• Uma única banda espectral é representada em níveis de cinza. As composições RGB


nos permite interpretar três bandas juntas. Podemos combinar as bandas de formas
e sequências diferentes, em ordem para analisar melhor um alvo.

52
AUTOATIVIDADE

1 Analise as curvas de reflectância e as imagens ‘A’ e ‘B’. As imagens ‘A’ e ‘B’,


oriundas do sensor orbital geoestacionário MeteoSat-8 (2º Geração – MSG), foram
feitas com duas bandas (comprimentos de ondas) distintas. Uma delas está no
canal 0,6 µm e outra em 0,8 µm. Nitidamente, é possível diferenciar melhor o
contato terra/água em uma dessas imagens. Dessa forma, analise a figura a seguir
e assinale a alternativa CORRETA:

FONTE: O autor

a) ( ) A imagem ‘B’ foi feita a partir do comprimento de onda de 0,6 µm,


pois há uma grande diferença nas curvas de reflectância de todos os
materiais, e por isso é mais fácil diferenciar o contato terra/água.
b) ( ) A imagem ‘B’ foi feita a partir do comprimento de onda de 0,8 µm,
pois não há uma clara diferença nas curvas de reflectância e, por isso, é
mais fácil distinguir o contato terra/água.
c) ( ) A imagem ‘A’ foi feita a partir do comprimento de onda de 0,6 µm,
consequentemente há uma grande diferença nas curvas de reflectância
das árvores e das folhas somente, e por isso é mais fácil a distinção do
contato terra/água.
d) ( ) A imagem ‘A’ foi feita a partir do comprimento de onda de 0,8 µm,
uma vez que há uma grande diferença nas curvas de reflectância (solo
e árvores com uma grande reflectância), possibilitando uma mais fácil
distinção do contato terra/água.
e) ( ) Não é possível utilizar o gráfico das assinaturas espectrais para
identificar o comprimento de onda central de uma imagem.

2 Atualmente, a maioria dos satélites mede energia refletida em muitos comprimentos


de onda, englobando diferentes regiões do espectro eletromagnético. Isso é chamado
de imagem multiespectral. Um conjunto de dados multiespectral contém uma
enorme riqueza de informações, mas pode ser frustrante tentar interpretar esses
dados examinando bandas individuais (em escala de cinza). Contudo, podemos
combinar as informações contidas em três faixas (bandas) em uma única imagem
colorida, criando uma composição. As composições RBG dependem de sensor para

53
sensor, pois a localização, a existência e a largura da banda são variáveis entre os
sistemas sensores. Dessa forma, analise as composições a seguir, feitas a partir de
bandas espectrais do OLI (Landsat 8) para um trecho do litoral do Rio Grande do
Sul (RS), e assinale a alternativa CORRETA:

FONTE: O autor

a) ( ) I composição falsa-cor urbano (R7G6B4); II composição água/terra


(R5G6B4); III composição infravermelho de ondas curtas (R7G5B4).
b) ( ) I composição em cor natural (R4G3B2); II composição no infraver-
melho (para vegetação) (R5G4B3); III composição da penetração atmos-
férica (R7G6B5).
c) ( ) I composição em cor natural (R8G1B3); II composição no infraver-
melho (para vegetação) (R5G5B2); III composição da penetração atmos-
férica (R1G2B3).
d) ( ) I composição falsa-cor (R3G2B1); II composição de saúde vegetal
(R4G3B2); III composição infravermelho de ondas curtas (R7G5B4).
e) ( ) I composição em cor natural urbano (R6G5B4); II composição de
saúde vegetal (R4G3B2); III composição infravermelho termal (R7G5B4).

3 As diferentes características da superfície refletem e absorvem a radiação


eletromagnética (REM) de diferentes maneiras. As propriedades de reflectância de
um objeto dependem do material e de seu estado físico e químico, da rugosidade
da superfície e do ângulo da luz solar. A refletância de um material também varia
com o comprimento de onda REM. A quantidade de refletância de uma superfície
pode ser medida em função do comprimento de onda, isso é conhecido como
refletância espectral. A refletância espectral é uma medida de quanta energia (como
uma porcentagem) uma superfície reflete em um comprimento de onda específico.
Tendo isso em vista, as assinaturas espectrais e composições de bandas, analise as
sentenças a seguir:

I- Com relação ao comportamento espectral de alvos, podemos afirmar que

54
geralmente o solo arenoso seco possui alta energia refletida no IV, a água limpa
possui baixa reflexão no IV, a água com sedimento em suspensão possui energia
refletida no visível e a vegetação sadia (folha verde) possui alta reflexão no IV
próximo.
II- A principal diferença entre os sensores multiespectrais e os hiperespectrais está
na resolução espacial.
III- A assinatura espectral da neve e do asfalto são similares, pois são materiais de
alto albedo.
IV- Uma única banda (imagem) espectral é sempre representada em cores.
V- As diferentes composições espectrais são úteis, pois é uma forma de analisar três
bandas espectrais simultaneamente, utilizando o sistema RBG de cores.

Assinale a alternativa CORRETA:


a) ( ) Todas as sentenças estão corretas.
b) ( ) Nenhuma das sentenças está correta.
c) ( ) As sentenças I, III e IV estão corretas.
d) ( ) As sentenças II e IV estão corretas.
e) ( ) As sentenças I e V estão corretas.

55
56
UNIDADE 1
TÓPICO 3 —

TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

1 INTRODUÇÃO
Prezado aluno, até agora passamos por conhecimentos essenciais no que tange ao
Sensoriamento Remoto (SR). Conhecer as assinaturas espectrais dos diferentes alvos
que compões a superfície do nosso planeta é importantíssimo, pois formam a base para
a compreensão das diferentes composições espectrais coloridas.

Conforme Zanotta, Ferreira e Zortea (2019), nossa capacidade de interpretar os dados


está limitada por causa dos equipamentos que utilizamos para visualizá-los. Em outras
palavras, só podemos ver apenas três bandas espectrais combinadas (composições)
porque nossos hardwares são orientados no sistema de três cores primárias (R-vermelho,
G-verde e B-azul). Isso faz com que se percam algumas informações importantes no
processo de análise e interpretação dos dados, pois algumas bandas ficarão “de fora”
da composição. No entanto, há algumas técnicas que visam otimizar a análise das
informações, aumentando nosso poder de interpretação, pois maximizam a extração
das informações mais importantes de uma determinada série de dados.

Nesse contexto, lidaremos com o conceito principal (princípios básicos) e a


aplicabilidade de algumas técnicas de transformações espectrais. A maior parte dos
softwares que lidam com dados raster possuem funções específicas e simples para
produzir tais técnicas de transformações (em tese, é necessário somente apertar um
“botão virtual” para obter as transformações prontas). É importante ressaltar que tais
técnicas também fazem parte da classe das operações de processamento digital de
imagens (PDI) (veremos o processamento de imagens orbitais na próxima unidade).
Tenha um bom aprendizado!

2 OPERAÇÕES COM BANDAS


A aplicação de operações matemáticas em imagens de satélite, especialmente no que
tange ao domínio espectral, é um importante pilar do SR e do Geoprocessamento
como um todo. Como as bandas espectrais são de certa forma números (números
digitais – ver a Figura 3), é possível realizar operações com funções trigonométricas,
adição, subtração, multiplicação e divisão/razão de bandas, todas de forma pixel a
pixel; ou seja, mantendo a referência geográfica espacial (CRÓSTA, 1992; ZANOTTA;
FERREIRA; ZORTEA, 2019).

Como cada vez mais há um maior volume de dados disponíveis para os usuários de
SR, torna-se uma tarefa necessária reduzir a dimensionalidade dos dados originais,
objetivando extrair e comprimir todas as principais informações em apenas três
bandas (em composição RBG), com a finalidade de permitir a exibição os dados em um
monitor de vídeo (CRÓSTA, 1992). Basicamente, podemos combinar as informações de
várias imagens, adquiridas em faixas espectrais diferentes, para melhor determinar um

57
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

objeto. Em geral, a adição e a multiplicação são funções para aumentar as similaridades


espectrais (entre bandas ou imagens), enquanto os procedimentos de subtração e razão
de bandas evidenciam diferenças. Conforme Crósta (1992), a razão de bandas é uma
das operações espectrais mais utilizadas nas ciências ambientais, com amplo uso
tanto em áreas rurais quanto em zonas urbanas. A produção de índices espectrais é
um exemplo disso. No entanto, a maioria dessas funções supracitadas é explorada no
tratamento e processamento de imagens digitais. Então, tal conteúdo será mais bem
abordado na Unidade 2.

A seguir, vamos explorar as técnicas e transformação espectral, que visam aperfeiçoar


a aplicação das imagens orbitais, através da extração de informações mais importantes
presentes nas imagens e da concentração de dados de várias bandas espectrais em
um número menor (reduzindo a dimensão dos dados) (ZANOTTA; FERREIRA;
ZORTEA, 2019). Veremos o conceito e a aplicabilidade (sem abordar os algoritmos) de
quatro técnicas ou métodos: Análise de Componentes Principais (ACP), Tasseled Cap,
transformação IHS e os índices espectrais de vegetação. Segundo Zanotta, Ferreira e
Zortea (2019), a ACP é um método clássico de SR que objetiva a extração e a redução da
dimensão dos dados, sem perder informações importantes. A transformação Tasseled
Cap, que é similar à ACP, possui uma aplicação mais voltada para áreas rurais. A
conversão IHS é correlacionada com a transformação de pixels no espaço de cores.
Por fim, os índices espectrais de vegetação (NDVI e EVI, por exemplo) são obtidos por
combinações matemáticas de bandas e das respostas espectrais dos alvos.

Para um estudo mais aprofundado (aprendendo sobre outras transformações como


o modelo de mistura espectral), com o intuito de entender o conceito matemático por
trás dos algoritmos, é recomendado que você busque um material adicional, como as
publicações de Jensen (2009), Meneses e Almeida (2012) e Zanotta, Ferreira e Zortea
(2019).

2.1 ANÁLISE DE COMPONENTES PRINCIPAIS (ACP)


A Análise de Componentes Principais (ACP ou PCA – Principal Component Analysis)
é uma análise estatística multivariada utilizada em praticamente todos os campos
da ciência. O cerne da ACP consiste em gerar combinações lineares, extraindo
as informações mais úteis e explicativas dos dados, reduzindo a sua dimensão e
aumentando o foco nas variáveis de interesse. No SR, também é bastante empregada
tanto em dados multiespectrais quanto em dados hiperespectrais (CÂMARA et al.,
1996).
Uma grande vantagem desta técnica é que podemos reduzir o número de bandas
necessárias para alguma análise (classificação por pixel, por exemplo), sem perder
informação essencial (mantendo a variabilidade dos dados) e evitando redundância,
diminuindo assim o custo computacional das análises, tornando o processo mais rápido
(SCHOWENGERDT, 2006). Melhor dizendo, a ACP transforma um conjunto de dados
correlacionados (bandas espectrais originais) em um conjunto menor de variáveis
não correlacionadas que conseguem manter toda a informação importante. As novas
variáveis criadas são chamadas de componente principal 1, componente principal 2 e assim
sucessivamente (é comum representar essas componentes principais como PC1, PC2
etc., vem do inglês principal component). Cada um dos PCs será um eixo que acumula
uma proporção de variância (contraste) dos dados. A quantidade dos componentes
principais será a mesma do número de bandas. O primeiro componente principal

58
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

(PC1) vai possuir a maior quantidade de dados. Normalmente os três primeiros eixos
(PC1, PC2 e PC3) são suficientes para explicar toda a variação dos dados.

Para entender melhor esta técnica, observe a Figura 21, que mostra imagens e seu
histograma das cores verde e vermelho sob a forma de gráfico de dispersão. Podemos
notar que a imagem de SR (Figura 21B) compreende um número limitado de cores
em comparação com uma fotografia de alta resolução (Figura 21A). No gráfico de
dispersão da imagem Figura 21B, podemos notar que há um forte padrão de correlação
entre os canais; isto é, toda a informação dos pixels está junta numa linha diagonal. A
forte correlação significa que se um pixel está mostrando um valor alto na banda do
vermelho, há uma grande chance de ele também possuir um valor alto nas duas outras
bandas do espectro visível (verde e azul). Isso ocorre por causa de sombras resultantes
da topografia, sobreposição de bandas espectrais e até mesmo pela própria natureza
do alvo (CÂMARA et al., 1996). Então, pode haver efeitos indesejáveis, pois pouca
informação é adicionada quanto mais se adiciona cores (bandas espectrais, no caso).

Observe o mesmo gráfico da imagem de satélite após a transformação pela ACP (Figura
21C), nota-se que a nuvem dos dados não está mais numa linha, e sim numa nuvem de
pontos independentes. Segundo Câmara et al. (1996), a ACP produz um novo conjunto
de imagens individuais na qual as bandas possuem informações adicionais de outras
bandas. Como mencionado antes, as três primeiras bandas (três primeiros PCs) têm
mais dados e costumam ser utilizadas para fazer uma composição multiespectral
colorida. Observamos na Figura 21 diferentes imagens com seu respectivo gráfico de
dispersão (scattergram) das cores verde e vermelho. A) Fotografia de alta resolução. B)
Imagem de satélite em sua cor verdadeira. C) Imagem de satélite após a transformação
pela ACP.

FIGURA 21 – GRÁFICO DE DISPERSÃO DE DIFERENTES IMAGENS

59
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

FONTE: <https://eo.belspo.be/en/principal-component-analysis/>. Acesso em: 17 nov. 2020.

Exemplo: a Figura 22 mostra uma cena do Landsat ETM+ em composição


RBG (543) e todas as suas bandas (com exceção da banda pancromática e da banda
do termal). Através da ACP podemos condensar toda a informação importante
de seis bandas em apenas três bandas (denominadas agora de PC1, PC2 e PC3)
(todas as bandas são transformadas em bandas ortogonais, mas as três primeiras
geralmente contêm os dados, e as outras são “ruídos”). Feito isso, podemos fazer
uma composição RBG utilizando estas três novas bandas (PC1 no canal R, PC2 no
canal G e PC3 no canal B). De fato, em alguns casos, a interpretação pode se tornar
um pouco mais complexa, mas tal técnica pode ser muito eficaz. A contribuição de
cada nova banda formada pode ser medida por meio de autovalores e autovetores.
Em suma: a ACP maximiza a variância espectral nos primeiros componentes
(PCs) e elimina a correlação entre os componentes, gerando imagens mais ricas
em termos de informação.

Observamos na Figura 22 o processo de transformação de bandas pelo


método de Análise de Componentes Principais (ACP). A) Imagem do sensor
ETM+ (Landsat 7) com todas as suas bandas (exceto a banda 6 do IV Termal e a
banda 8 pancromática) e uma composição em falsa cor formada pela combinação
R5G4B3. B) As seis bandas originais foram transformadas em seis novas bandas
(chamadas de PCs). Os três primeiros PCs (bandas espectrais) foram combinadas
no modo RGB para formar uma composição colorida, R(PC1) G(PC2) B(PC3).

60
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

FIGURA 22 – TRANSFORMAÇÃO DE BANDAS PELO MÉTODO DE ACP

FONTE: <http://bit.ly/2XsgCVr>. Acesso em: 17 nov. 2020.

DICAS

Acesse o site do software SPRING do INPE. Lá você poderá aprofundar o


estudo da Análise de Componentes Principais (ACP) e aprender sobre outras técnicas
espectrais, como o modelo linear de mistura espectral. O site também conta com tuto-
riais e explicações sobre algumas outras técnicas. Na íntegra em: http://www.dpi.inpe.br/
spring/portugues/tutorial/index.html

61
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

2.2 TASSELED CAP


A transformação Tasseled Cap (Kauth-Thomas) é um tipo de transformação espectral
na qual é gerada uma nova imagem por meio de uma combinação linear das bandas
espectrais originais (CRIST; KAUTH, 1986). É chamada de Tasseled Cap por causa da
forma da distribuição dos dados num gráfico (similar a um chapéu pontudo). É uma
técnica que visa maximizar os dados mais importantes e reduzir os menos importantes,
facilitando e simplificando a análise e interpretação, ou seja, através desta técnica
podemos criar novas imagens que contenham mais informação num volume de dados
menor. Para alguns autores, a Tasseled Cap é considerada uma variação do ACP.

Esta técnica foi criada por Kauth e Thomas (1976) utilizando as informações espectrais
do MSS (Multispectral Scanner System) do Landsat. Atualmente, há coeficientes dessa
transformação espectral para os principais sistemas sensores orbitais, incluindo:
TM, ETM+ e OLI da série Landsat; sensores do SPOT; MODIS; ASTER, Sentinel-2,
IKONOS, dentre outros. Originalmente, o método foi criado para entender fenômenos
importantes do desenvolvimento da cultura agrícola do trigo no espaço espectral. Os
autores observaram que houve um aumento do IVP (infravermelho próximo) e uma
menor reflectância na banda vermelha do visível por causa da cobertura do solo, como
consequência do crescimento e maturidade das plantas ao longo do tempo. Esta técnica
permite que espécies vegetais sejam mais bem classificadas.

A aplicação da transformação permite que as bandas espectrais originais se convertam


em um novo conjunto de bandas com interpretações já conhecidas, sendo muito utilizada
para análise e mapeamento de áreas rurais e florestais, dentre muitas outras que lidam
com vegetação. No Tasseled Cap as três primeiras bandas (resultado da transformação)
serão as bandas importantes para as análises. Elas são fixas e chamadas de brightness,
greenness e wetness (todas são ortogonais entre si). O brightness é racionado com o brilho
total das imagens (representa a soma ponderada de todas as bandas espectrais) e
evidencia o tipo de solo. O eixo greenness corresponde à vegetação fotossinteticamente
ativa (obtido por meio da diferença das bandas do IVP, visível e do IVM) e o eixo
wetness é relatado com a umidade da área de interesse.

Exemplo: caso aplicássemos a função Tasseled Cap em uma imagem do sensor TM do


Landsat 5, que possui seis bandas espectrais, iríamos obter as mesmas seis bandas como
resultado, mas apenas as três primeiras (eixos ou componentes chamados de brightness,
greenness e wetness) iriam realmente possuir a informação maximizada, enquanto as
outras bandas seriam “ruídos”. Dessa forma, o método seleciona os melhores pixels de
todas as bandas para cada um dos eixos. Então, a partir das três novas bandas formadas
(brightness, greenness e wetness), podemos combiná-las para formar uma composição
colorida RGB (lembre-se que uma única banda é normalmente representada em tons
de cinza) (Figura 23). Para alguns sensores o quarto eixo (atmospheric haze) pode ser
utilizado para algumas tarefas mais específicas.
Podemos concluir que a transformação Tasseled Cap objetiva separar melhor o solo,
a vegetação e o conteúdo de água de uma cena (ou seja, é uma espécie de “índice
de vegetação global”). Não obstante, tal técnica também realiza a normalização
radiométrica das imagens (eliminando efeitos atmosféricos). De fato, o SR não
consiste apenas em medir a quantidade de vegetação. Solos, florestas, corpos d'água,
afloramentos rochosos, áreas urbanas e rurais também são alvos importantes em
termos ambientais, e trabalhar com três dimensões de informação independentes
permite análises mais robustas e eficientes da superfície terrestre. Por fim, a Tasseled
Cap também pode indicar o estágio de crescimento dos campos agrícolas, desde o

62
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

brotamento até a senescência, o vigor da vegetação e outras fenomenologias aplicadas


na agricultura.

Na Figura 23 temos o exemplo da aplicação do método de transformação espectral


denominado de Tasseled Cap para uma imagem do sensor TM Landsat 5 de 2008. Em
(A) temos a cena de uma determinada região agrícola em composição na cor natural
(RGB, bandas 321). B) o primeiro eixo ou componente formado, chamado de brightness
que é associado com o tipo de solo (como é uma banda única, está em níveis de cinza).
C) Composição colorida em RGB em falsa cor das três bandas criadas pela Tasseled Cap:
R (brightness), G (greenness) e B (wetness).

FIGURA 23 – TRANSFORMAÇÃO ESPECTRAL POR TASSELED CAP

FONTE: <http://bit.ly/2XyH7s0>. Acesso em: 17 nov. 2020.

TUROS
ESTUDOS FU

Antes de qualquer alteração e manipulação nas imagens (bandas), é sempre


útil examinar os histogramas (diagrama das frequências). O eixo x do histograma é o
intervalo dos números digitais disponíveis (0 a 255). O eixo y é o número de pixels na
imagem que possui um dado número digital ou a sua distribuição estatística em níveis
de cinza. O histograma é um tipo de gráfico que contém informações radiométricas.
Veremos os histogramas na próxima unidade.

63
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

2.3 IHS – INTENSIDADE, TONALIDADE E SATURAÇÃO


No tópico anterior, vimos que o sistema RGB (baseado em coordenadas cartesianas)
consiste num espaço de três cores puras (vermelho, verde e azul) que originam outras
cores através de suas adições/combinações em diferentes proporções. Sendo assim,
por meio da combinação destas três cores, podemos reproduzir milhões de cores que
podem ser percebidas pelo sistema ótico humano. A maior parte dos nossos hardwares
(TVs, projetores, monitores de computador etc.) é baseada neste sistema aditivo de
combinação de cores (a reflexão de todas as cores forma o branco e a absorção de todas
gera o preto).

Contudo, conforme Zanotta, Ferreira e Zortea (2019), ajustar as cores puras para
encontrar uma cor ideal pode ser uma tarefa árdua no espaço RGB, mas no espaço
IHS a procura se torna mais intuitiva, pois alterações causadas por cada variável
são correlacionadas com características objetivas da cor. O acrônimo IHS significa:
Intensidade (luminosidade), Hue (matiz/tonalidade) e Saturação (pureza). Segundo
Meneses e Almeida (2012) e Zanotta, Ferreira e Zortea (2019), podemos definir estas
três propriedades como:

• Intensidade: é relacionada com a quantidade de brilho de uma cor. Esta propriedade


define quão clara ou escura será a cor de uma cena. É definida pelo albedo que
é refletido de áreas iluminadas e sombreadas de todos os objetos de uma cena
(quantidade de luz que ilumina um alvo).
• Hue: corresponde a cor espectral dominante. É a característica que engloba toda a
paleta de cores do espectro, a partir do vermelho até o violeta (cores puras do arco-
íris). A imagem hue, que é feita a partir de três bandas pela transformação IHS,
não possui sombra porque seus valores de pixels são independentes de iluminação
(correspondem às respostas de reflectância das três bandas).
• Saturação: é associada com o grau de pureza de uma cor (grau de diluição de
uma cor pura por luz branca). Se esse valor for baixo, significa que a cor está mais
misturada com outras, ficando com tons acinzentados. As cores saturadas são
também chamadas de cores vivas, ao passo que as cores com pouca saturação são
denominadas de tons pastéis.

Há variações da IHS, como a HSB (Hue, Saturation, Brightness – tonalidade, saturação


e brilho) e a HSV (Hue, Saturation, Value – tonalidade, saturação e valor) que também
são utilizadas para representar a cor de objetos (converter imagens de um modelo para
outro é uma tarefa realizada facilmente pelos softwares).

Como foi falado no tópico anterior, o espaço de cores RBG pode ser representado
por um cubo, enquanto o espaço de cores IHS é representado por um cone, como
pode ser visualizado na Figura 24. Segundo Zanotta, Ferreira e Zortea (2019) existem
algumas formas de realizar a transformação do RGB para o espaço IHS, uma delas
consiste em converter partes dos valores RBG que estão em formato byte (0 a 255)
para IHS normalizado utilizando os valores máximos e mínimos de cada pixel. Essa
transformação do espaço de cores pode ser feita para qualquer banda em separado,
conforme o exemplo de Zanotta, Ferreira e Zortea (2019) na Figura 25.

A Figura 24 apresenta modelos de espaço de cores mais comuns no SR: A) O modelo RGB
é representado por um cubo em que é possível utilizar coordenadas cartesianas para
identificar uma determinada cor (baseada no sistema aditivo de cores). B) Modelo IHS

64
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

(Intensidade, Hue-matiz/tonalidade e Saturação/pureza) representado graficamente


por um cone, no qual as cores são encontradas por coordenadas polares (Saturação
e Hue) e por uma linha vertical, que liga o vértice ao topo do cone, representando a
Intensidade.

FIGURA 24 – MODELOS DE ESPAÇO DE CORES MAIS COMUNS NO SR

FONTE: Adaptada de Zanotta, Ferreira e Zortea (2019, p. 88)

A Figura 25 é o Exemplo da aplicabilidade conversão entre os espaços RGB


e IHS para as bandas 3, 4 e 5 do Landsat 5 TM (cena de desmatamento da Floresta
Amazônica). A transformação pode ser feita para cada banda em separado. Note
que a composição colorida RGB está em níveis de cinza.

65
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

FIGURA 25 – CONVERSÃO ENTRE OS ESPAÇOS DE CORES RGB E IHS

FONTE: Adaptada de Zanotta, Ferreira e Zortea (2019, p. 93)

Conforme Câmara et al. (1996), na transformação RGB para IHS, são escolhidas três
bandas espectrais que são associadas a cada uma das cores puras (vermelho, verde
e azul). Desta forma, cada pixel da imagem transformada corresponderá a um ponto
no espaço de cores IHS. Então, o resultado da conversão das três bandas originais
são três novas imagens, cada uma representando o I (Intensidade), H (Hue/matiz) e S
(Saturação). Por fim, pode ser feita uma composição RGB destas bandas transformadas
por IHS, permitindo uma melhor separação de cores e, consequentemente, identificando
melhor os alvos.

Segundo Zanotta, Ferreira e Zortea (2019), em seu exemplo sobre o desmatamento


da Amazônia (Figura 25), a categorização das classes dos alvos (vegetação nativa,
vegetação rasteira e solo exposto) é mais facilmente identificável com o IHS porque
as suas cores de classes não variam simultaneamente em todas as componentes RGB
(os pixels vão preservar a sua Hue, independente da variação da intensidade ou da
saturação). Já se for utilizado o sistema RGB clássico sem conversão, as diferenças de
cores vão ocorrer de forma simultânea nas componentes. Portanto, para classificar

66
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

vegetação, solos, culturas, tal transformação de espaço de cores é bem útil, pois a
separação das cores é mais intuitiva. Ademais, as transformações IHS também são
importantes para as técnicas de fusionamento de imagens e combinação de bandas.

Por fim, a transformação RBG-IHS pode ser resumida em três etapas: (I) transformação
de pixels de um espaço para outro; (II) aplicação de um contraste linear nas propriedades
I (Intensidade) e S (Saturação) para aperfeiçoar o novo espaço da cores e (III) o retorno
para RGB, pois nossos hardwares são baseados neste espaço.

2.4 ÍNDICES ESPECTRAIS


Da forma mais simples possível, podemos entender o termo índice espectral (também
chamados de índices físicos) como o resultado de operações matemáticas entre os
valores dos números digitais dos pixels das bandas espectrais das imagens. Existem
índices espectrais para vários campos da ciência que são abarcados pelo SR (índices de
queimadas, índices de solos, índices para geologia e oceanografia etc.). Todavia, nosso
interesse está nos índices de vegetação, pois são importantíssimos para a agricultura
de precisão, silvicultura, reflorestamento, desmatamento, monitoramento ambiental
etc. Nesta seção vamos lidar apenas com a aritmética de razão de bandas. Na próxima
unidade veremos as outras operações aritméticas.

Por que utilizar estes índices? Basicamente, porque as combinações matemáticas


de bandas em diferentes faixas do espectro permitem que mais respostas espectrais
sejam analisadas de uma só vez, melhorando a análise vegetal. Em outras palavras,
“juntamos” mais informação importante em um só raster. Em essência, os índices
envolvem a divisão (razão) de bandas espectrais, e por isso também são denominados
de razões multiespectrais. Os índices acentuam as diferenças nas feições (alvos) para que
elas apareçam diferentes de outras feições na imagem.

Conforme Liu (2006), os índices de vegetação foram desenvolvidos para monitorar e


quantificar propriedades da vegetação a partir de sua reflectância espectral, e podem
ser obtidos através de várias combinações das bandas espectrais em diferentes fórmulas
(Tabela 3). Liu (2006) destaca três grandes vantagens dos índices de vegetação:

• as informações são calculadas utilizando as respostas espectrais de várias regiões


do espectro eletromagnético, e os dados são mais compactos (redução no volume
de dados);
• a maior ou menor intensidade da energia eletromagnética é compensada por valores
relativos dos índices;
• fatores que interferem nas medidas de reflectância, como os efeitos atmosféricos
e geométricos (ângulo dos raios do sol em relação ao sensor), são parcialmente
corrigidos (caso tais fatores sejam similares para todas as diferentes bandas que
compõe um determinado índice de vegetação).

Há uma grande quantidade de índices de vegetação, mas alguns são mais utilizados e
famosos que outros. Observe o grande número de índices na Tabela 3 (SHIRATSUCHI
et al., 2014). Podemos notar que a maior parte dos índices de vegetação são baseados
primariamente nas bandas da faixa do visível e no infravermelho próximo (NIR). Neste
contexto, conforme destacado por Shiratsuchi et al. (2014), é fundamental conhecer a

67
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

assinatura espectral das plantas (veja a Figura 12 do tópico anterior). Como já vimos, a
curva espectral da vegetação é definida pelos pigmentos fotossintetizantes (principalmente
pela clorofila) da folha na região do visível (ápice de reflexão na região do verde, com
maior absorção nas regiões azul e vermelho do visível), pela estrutura celular no IV
próximo (NIR) (dependendo da espécie vegetal, a reflexão varia entre 30 a 80%) e pelo
conteúdo de água no IV médio (MIR).

Então, a partir do conhecimento da resposta espectral de alvos terrestres (especialmente


as planas), os cientistas criaram ainda na década de 1960 os índices de vegetação com
o objetivo de ressaltar o comportamento espectral da vegetação em relação aos solos
e a outros objetos presentes na cena, avaliando os recursos naturais e caracterizando
a cobertura vegetal. De lá para cá, houve uma grande evolução nos índices. Em geral,
os índices permitem avaliar precisamente as lavouras agrícolas, verificar os efeitos de
secas prolongadas, avaliar estimativas de produtividade, verificar a saúde da cultura
(produção de mapas do vigor da vegetação), enfim, são várias possibilidades de
aplicação para auxiliar as tomadas de decisão nas propriedades rurais (PONZONI;
SHIMABUKURO; KUPLICH, 2012).

Uma definição apropriada é a seguinte: índice espectral de vegetação é a integração


de duas ou mais bandas espectrais, conforme alguma técnica estabelecida (algoritmo),
com o objetivo de realçar algumas propriedades biofísicas da vegetação como
biomassa, vigor vegetativo, produtividade primária líquida, índice de área foliar (IAF)
e quantidade de cobertura vegetal (EPIPHANIO et al., 1996; JENSEN, 2009; NOVO,
2010).

TABELA 3 – PRINCIPAIS ÍNDICES DE VEGETAÇÃO CRIADOS PARA MONITORAR LAVOURAS E


VEGETAÇÃO EM GERAL

68
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

FONTE: Adaptada de Shiratsuchi et al. (2014, p. 61)

69
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

Como podemos perceber após analisar a Tabela 3, as bandas do vermelho e do


infravermelho próximo (NIR) são utilzidas em todos as fórmulas (algumas equações
utilizam toda a radiação do visível). Além da boa resposta espectral das plantas nestas
faixas do espectro, quanto menor for o comprimento de onda, mais haverá interferência
atmosférica, por isso são utilizados tais comprimentos de onda (red e NIR). Dois dos
índices são de especial importância; o NDVI (Normalized Difference Vegetation Index/
Índice de Vegetação da Diferença Normalizada) e o EVI (Enhanced Vegetation Index/
Índice de Realce da Vegetação). Ambos são os índices mais utilizados.

O NDVI é dado pela equação: NDVI= ou seja, realizamos a subtração da reflectân-


cia do objeto no infravermelho próximo menos a reflectância na banda do vermelho, e
dividimos este resultado pela soma da reflectância no infravermelho próximo mais a
reflectância do objeto na banda do vermelho. Por meio do NDVI é possível verificar se
plantas de uma determinada cultura estão estressadas antes mesmo que elas mostrem
sintomas visuais, pois as plantas expressam o estresse na faixa no NIR antes do visível.
Além disso, é o índice mais utilizado para inferir a dinâmica da cobertura vegetal,
como mudanças sazonais e anuais do estado da vegetação (cultura agrícola).

Este índice resulta em um número para um dado pixel entre -1 (menos um) a +1 (mais
um); isto é, trata-se de uma medida adimensional (MOREIRA, 2011). Um valor zero de
NDVI significa que não há vegetação associada ao pixel, e perto de +1 (entre 0,8 a 0,9)
indica uma maior densidade possível de folhas verdes. A água limpa vai possuir um
NDVI negativo, mais próximo de -1. Áreas desérticas ou com muita areia ou neve vão
possuir um valor NDVI bem baixo (0,1 ou menos). Vegetação mais esparsa (rasteira
ou arbustiva) ou cultivos em senescência geralmente vão apresentar um NDVI entre
0,2 a 0,5. Os valores entre 0,6 a 0,9 de NDVI são considerados altos, e refletem uma
vegetação densa como florestas ombrífilas ou culturas no seu estágio máximo de
desenvolvimento. O NDVI possui uma grande sensibilidade para detectar variações
na solo sob o dossel (valores de NDVI são altos para solos/substratos mais escuros).

Embora possua uma boa sensibilidade à densidade da cobertura vegetal e seja simples
de ser produzido, o NDVI possui alguns entraves relacionados com a saturação de áreas
vegetais muito densas e uma não linearidade nas relações do IAF e com a porção da
radiação fotossinteticamente absorvida (FPAR) (FERREIRA; FERREIRA; FERREIRA,
2008). Melhor dizendo, o NDVI perde sensibilidade quando a vegetação é muito densa
(e.g. florestas ombrífilas) por causa desta saturação (SCHOWENGERDT, 2006). Nesse
contexto, para suprir as limitações impostas pelo NDVI, surgiu o EVI.

O EVI possui uma equação mais elaborada: EVI= onde NIR, red
e blue são as reflectâncias do objeto no infravermelho próximo, no vermelho e no azul,
respectivamente; C1 é o coeficiente de efeitos atmosféricos para a faixa do vermelho (no
valor de 6), C2 é coeficiente de efeitos atmosféricos para a faixa do azul (valor de 7,5), L
é o fator de correção para a influência do solo (valor de 1) e 2,5 é o fator de ganho. Este
índice designado para ser mais sensível na detecção de mudanças em áreas com alta
biomassa, para reduzir a influência dos efeitos atmosféricos nos valores transformados
e para melhor corrigir os sinais de fundo (background) originado pelo dossel vegetativo.
Dessa forma, o EVI tende a ser mais sensível às diferenças do dossel, como o IAF,
estrutura do próprio dossel e estresse das plantas em comparação com o NDVI (que
apenas retorna um índice da quantidade de clorofila).

Algumas análises utilizam a mesma amplitude de -1 a +1 do NDVI, mas normalmente


os valores do EVI variam de 0 (solo exposto/sem cobertura) a +1 (cobertura vegetal

70
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

completa). Objetos muito claros (nuvens, prédios etc.) e muito escuros (água) podem
resultar em valores de pixels anômalos em um índice EVI. Portanto, é aconselhável
limitar os valores dos pixels entre 0 a 1.

A Figura 26 mostra uma comparação do NDVI com o EVI. Imagem do sensor MODIS
com o índice NDVI (A) e EVI (B) para a mesma data e mesma área. O NDVI tem
tons verdes mais escuros porque perde sensibilidade em áreas com muita biomassa
(florestas, no caso), ao passo que o EVI mantém uma distribuição uniforme.

FIGURA 26 – EXEMPLO DE NDVI

FONTE: <http://bit.ly/3nxrig4>. Acesso em: 17 nov. 2020.

É necessário ressaltar que antes de calcular qualquer índice espectral


(na verdade, antes de qualquer transformação espectral), os valores brutos de
pixel (números digitais/brilho) de cada banda, devem estar convertidos em
grandezas físicas. As três conversões em variáveis físicas mais comuns são:
radiância, reflectância TOA (atmosfera superior) e reflectância de superfície (ou
simplesmente reflectância) (JENSEN, 2009). Os índices espectrais calculados a
partir de qualquer um desses tipos de dados está tecnicamente correto, embora
cada um deles produzirá resultados diferentes para as mesmas condições de

71
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

superfície. Todavia, a radiância depende da energia que é radiada pela fonte


e pode não ser associada exclusivamente com o brilho de um alvo. Assim, é
recomendado utilizar a reflectância para as transformações e índices espectrais,
pois é correspondente à reflexão da energia incidente sobre um objeto. Por fim,
calibrar imagens para refletir a superfície também garante consistência e robustez
ao comparar índices ao longo do tempo e de diferentes sistemas sensores. Veremos
tais correções radiométricas a seguir, na Unidade 2.

DICAS

Explore a vegetação do nosso planeta em ambiente virtual!


É possível analisar e baixar índices NDVI semanais, mensais ou com uma longa série his-
tórica, bem como diversos mapas de vegetação em ambiente on-line, através de alguns
excelentes sites de universidade e órgãos governamentais. Na íntegra em:

NOAA STAR Vegetation Health Maps

FONTE: <https://bit.ly/3ovKhsy>. Acesso em: 9 dez. 2020.

FAO/ONU Global Maps

FONTE: <https://bit.ly/2LK0lZ2>. Acesso em: 9 dez. 2020.

72
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

Vegetation Index & Phenology Lab (University of Arizona):

FONTE: <https://vip.arizona.edu/viplab_data_explorer.php>. Acesso em: 9 dez. 2020.

DICAS

Leia este artigo de Schaparini e colaboradores: SCHAPARINI, L. P. et al. Análi-


se comparativa entre índices de vegetação e sua relação com o balanço hídrico em soja.
Revista da Sociedade Brasileira de Agrometeorologia, v. 27, n. 1, p. 183-190, 2019.
Na íntegra em: https://seer.sct.embrapa.br/index.php/agrometeoros/article/view/26574.

73
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

LEITURA COMPLEMENTAR

ANÁLISE COMPARATIVA ENTRE ÍNDICES DE VEGETAÇÃO E SUA


RELAÇÃO COM O BALANÇO HÍDRICO EM SOJA

Laura Pigatto Schaparini et al.

A agricultura é uma das principais bases da economia do Brasil, abrangendo desde


extensas monoculturas até a diversificação da produção em pequenas propriedades.
O Rio Grande do Sul (RS) contribui, de forma marcante, para a definição da oferta
nacional de alimentos. Cerca de 90% da área de cultivo é voltada à produção de grãos
(cereais e oleaginosas), que se configura na principal atividade agrícola do Estado
(CONAB, 2018). A soja (Glycine max) é uma leguminosa de ciclo anual de primavera-
verão que ocupa a maior área cultivada, sendo, portanto, a de maior importância
econômica. Ao longo das últimas décadas, a produção de soja tem apresentado grande
avanço, impulsionada não somente pelo aumento de área cultivada, mas também
pela aplicação de técnicas de manejo avançadas, que tem permitido o incremento na
produtividade (FREITAS, 2011).

As condições meteorológicas quando adversas são aquelas que, com maior frequência,
determinam limitações no incremento de biomassa e, consequentemente, da
produtividade agrícola. Segundo Hoogenboom (2000), dentre todas as variáveis
meteorológicas, a radiação solar, a temperatura do ar e a precipitação pluvial são as que
mais determinam o crescimento, o desenvolvimento e a produtividade das culturas.
Porém, no Rio Grande do Sul, a variabilidade na precipitação pluvial é a responsável
pelos maiores impactos negativos às culturas produtoras de grãos. Para Bergamaschi
et al. (2003), a variação sazonal da condição hídrica no estado é causada principalmente
pela maior demanda evaporativa da atmosfera no verão que, via de regra supera a
precipitação pluvial. Nestas condições é comum a ocorrência de déficit hídrico, o qual
se desenvolve quando a absorção de água do solo é menor do que a transpiração das
plantas.

Para a soja, cujos períodos críticos de desenvolvimento ocorrem eminentemente no


período de verão, estresses provocados por deficiência hídrica são responsáveis
pela instabilidade na produtividade e na produção de grãos do Estado, sendo muito
variável de um ano para o outro (BERLATO; FONTANA, 1999). Dependendo do nível
de estresse hídrico e do estádio fisiológico em que as plantas se encontram, diferentes
processos biológicos podem ser afetados, causando importante variabilidade no
rendimento de grãos da cultura e na qualidade do grão (ARIAS et al., 2015), o que se
constitui em um dos principais problemas de perdas do setor.

A evapotranspiração (ET) é o processo biofísico pelo qual a energia do ambiente é


trocada entre a superfície e a atmosfera através da evaporação direta da água do solo,
da evaporação da água disponível em outras partes do sistema e da água que passa
pelo dossel de plantas via processo de transpiração. É, portanto, um componente crítico
ao desenvolvimento de vários processos físicos e biológicos dentro de um sistema de
produção agrícola. Por exemplo, no desenvolvimento das plantas a evapotranspiração
pode afetar, direta e indiretamente, processos em escala celular, foliar, copa e dossel
da cultura (KATUL et al., 2012). Dada a estreita relação entre ET e o crescimento e
desenvolvimento das plantas (MONTEIRO, 2009), esta variável tem sido muito

74
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS

utilizada na elaboração de modelos de estimativa de produtividade para várias culturas


de importância agrícola (MELO et al., 2004). Tais modelos frequentemente esbarram
na necessidade de uma representação espacial mais detalhada dos rendimentos de
grãos, do que aquela possível de ser obtida a partir de dados oriundos de estações
meteorológicas de superfície, necessitando de outras estratégias de abordagem.

Uma das ferramentas que vem sendo amplamente utilizada na agricultura, com
potencial de ampliar a amostragem de respostas de plantas, de forma mais detalhada
geograficamente (MELO et al., 2008), é o sensoriamento remoto (SR). Os dados obtidos
por SR podem servir de importante subsídio para a modelagem de crescimento e
desenvolvimento das culturas, até mesmo da estimativa do rendimento de grãos das
mesmas. Isso decorre de uma ampla gama de opções na hora da escolha do sensor,
possibilitando a escolha de bandas espectrais específicas para a avaliação de processos
específicos, ou momentos distintos do desenvolvimento de uma cultura (JENSEN,
2011).

Nos estudos com SR é muito frequente o uso dos denominados índices de vegetação (IV).
Os IVs são medidas radiométricas adimensionais que indicam a abundância relativa e
a atividade da vegetação verde, incluindo índice de área foliar (IAF), porcentagem de
cobertura verde, teor de clorofila, biomassa verde e radiação fotossinteticamente ativa.
Entre as muitas possibilidades de equações disponíveis na literatura para este fim, o
NDVI (do inglês Normalized Difference Vegetation Index) é o mais utilizado. Outro IV
com potencial de uso para acompanhamento da dinâmica da vegetação é o Enhanced
Vegetation Index (EVI), o qual foi proposto posteriormente ao NDVI, por Huete et al.
(2002). O EVI é um NDVI modificado desenvolvido para promover a redução das
influências atmosféricas e do solo de fundo do dossel no monitoramento da vegetação.
As fases de crescimento e desenvolvimento das culturas anuais apresentam valores
de IVs distintos ao longo do ciclo, caracterizando os denominados perfis temporais
dos IVs (Risso et al., 2009). Estes podem ser úteis em sistemas de monitoramento para
identificar o impacto de eventos adversos em estádios fenológicos críticos.

Sabendo-se da importância econômica da soja para o RS, e do fato de que um dos


principais fatores de variabilidade na produtividade é a deficiência hídrica e, ainda,
que é possível monitorá-la usando índices de vegetação, o objetivo deste trabalho foi
analisar o padrão temporal dos índices NDVI e EVI para três safras soja com condições
hídricas distintas durante o ciclo, de forma a possibilitar a avaliação da relação entre
IVs e as condições hídricas para a cultura.

(...)
O experimento foi conduzido em formato On Farm, em uma área comercial de uma
propriedade de 553,7 hectares, localizada no Município de Carazinho, RS sob as
coordenadas 28°13’46” S e 52°54’32”, nas safras 2015-2016, 2016- 2017 e 2017-2018. Os
dados de NDVI (Equação 1) e EVI (Equação 2) foram extraídos através da plataforma
Google Earth Engine (GEE), uma plataforma gratuita de processamento em nuvem.
Ambos os índices foram extraídos para o polígono envolvente da área experimental.
(...) Os dados de IVs (índices de vegetação) do sensor MODIS são gerados a partir de
uma composição de imagens a cada 16 dias. Para realizar uma melhor comparação
entre os dados meteorológicos e IVs, os valores de precipitação pluvial (mm) medidos
e os valores de ETc (mm), excesso e deficiência hídrica (mm), oriundos do balanço
hídrico diário foram somados para períodos de 16 dias.

(...)

75
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

Os índices de vegetação, NDVI e EVI, podem ser utilizados como indicadores


do desenvolvimento da soja ao longo da safra. Períodos de deficiência hídrica,
demonstrados pelo balanço hídrico, acarretam em oscilações no perfil temporal dos IVs
ao longo do ciclo da cultura. Safras de soja em que ocorrem pequenos ou nulos períodos
de deficiência hídrica tendem a apresentar perfis de NDVI e EVI mais contínuos.

FONTE: <http://bit.ly/2Lm1aYp>. Acesso em: 9 dez. 2020.

76
RESUMO DO TÓPICO 3

Neste tópico, você aprendeu que:

• Existem metodologias aplicadas em bandas espectrais que permitem aperfeiçoar


a análise de dados, aumentando nosso poder de interpretação, pois condensam
ou transformam informações importantes de uma determinada série de bandas
espectrais em outras. As transformações são realizadas de forma fácil pelos softwares
específicos de SR.

• A Análise de Componentes Principais (ACP) e a transformação Tasseled Cap


objetivam a extração e a redução da dimensão dos dados, sem perder informações
importantes (evitando redundância de pixels). A conversão IHS é correlacionada
com a transformação de pixels no espaço de cores. Os índices espectrais de vegetação
(NDVI e EVI) são obtidos por razões de bandas espectrais, explorando mais a região
do NIR e do vermelho.

• A ACP transforma todas as bandas espectrais em novas bandas que condensam


toda a informação, as novas bandas são chamadas de PCs (principal component).
Normalmente, as três primeiras novas bandas abarcam toda a informação útil das
bandas espectrais transformadas. Pode ser feita uma composição multiespectral
utilizando as três novas bandas mais significativas (que explicam toda a variância
dos dados).

• A Tasseled Cap, similar a ACP, permite que as bandas espectrais originais se


convertam em um novo conjunto de bandas com interpretações já conhecidas. Elas
são fixas e chamadas de brightness, greenness e wetness (todas são ortogonais entre
si). É uma transformação muito utilizada para análise e mapeamento de áreas rurais
e florestais, dentre muitas outras que lidam com vegetação (é similar a um índice de
vegetação).

• A conversão RGB para IHS é uma transformação no espaço de cores. As cores


podem ser mais facilmente identificadas no sistema de coordenadas polares do IHS.
Nossos monitores de computador são orientados em sistema RGB (sistema aditivo
de cores). A separação de cores no IHS é mais intuitiva, facilitando a identificação
de alvos em uma cena.

• Índice espectral de vegetação é a integração de duas ou mais bandas espectrais,


com o objetivo de realçar algumas propriedades biofísicas da vegetação como
biomassa, vigor vegetativo, produtividade primária líquida, índice de área foliar

77
(IAF) e quantidade de cobertura vegetal. O NDVI e o EVI figuram entre os mais
importantes.

CHAMADA

Ficou alguma dúvida? Construímos uma trilha de aprendizagem


pensando em facilitar sua compreensão. Acesse o QR Code, que levará ao
AVA, e veja as novidades que preparamos para seu estudo.

78
AUTOATIVIDADE

1 Os dados de imagens de sensoriamento remoto (SR) são comumente transformados


tanto nos domínios espaciais quanto nos domínios espectrais. As conversões
acontecem para melhorar a identificação dos alvos de interesse numa determinada
cena (ressaltar objetos). Além disso, algumas operações como suavização, detecção
de limites e ganhos radiométricos e geométricos podem não ser aplicáveis em
dados originais, mas são teoricamente simples nos dados transformados. Sobre
os métodos compreendidos pelas transformações espectrais de bandas, assinale a
alternativa CORRETA:

a) ( ) Transformada de Fourier, Transformada Wavelet (onduleta) e Trans-


formada de Hough.
b) ( ) Transformada de Radon, Transformada Discreta do Cosseno (DCT)
e Assinatura Espectral.
c) ( ) RGB-IHS, Tasseled Cap e Transformada de Fourier.
d) ( ) Tasseled Cap, Análise de Componentes Principais (ACP) e OLI-Landsat
8.
e) ( ) Tasseled Cap, Análise de Componentes Principais (ACP) e NDVI.

2 Os índices espectrais, especialmente os índices de vegetação, são extremamente


importantes no que concerne à agricultura de precisão e identificação de áreas de
reflorestamento. Com relação ao conceito de um índice espectral de vegetação,
assinale a alternativa CORRETA:

a) ( ) É a integração de no máximo duas bandas espectrais, através de ope-


rações geométricas (especialmente por meio da soma de bandas), com o
objetivo de realçar algumas propriedades das imagens.
b) ( ) É a integração de até duas bandas espectrais, através de operações
de reflectância (especialmente por meio da multiplicação de bandas),
com o objetivo de realçar algumas propriedades das imagens.
c) ( ) É a assimilação de no mínimo cinco bandas espectrais, através de
operações matemáticas (especialmente por meio da razão de bandas),
com o objetivo de realçar algumas propriedades das imagens.
d) ( ) É a integração de duas ou mais bandas espectrais, através de opera-
ções matemáticas (especialmente por meio da razão de bandas), com o
objetivo de realçar algumas propriedades das imagens.
e) ( ) É a assimilação de até três bandas espectrais, através de operações
matemáticas (especialmente por meio da razão de bandas), com o
objetivo de minimizar e generalizar algumas propriedades das imagens.

3 O NDVI (Normalized Difference Vegetation Index/Índice de Vegetação da


Diferença Normalizada) e o EVI (Enhanced Vegetation Index/Índice de Realce da
Vegetação) são dois dos índices espectrais de vegetação mais utilizados. Tais índices
possuem equações diferentes. A respeito destes índices, assinale a alternativa

79
CORRETA:
a) ( ) A diferença entre os índices está somente na sensibilidade à água.
b) ( ) O NDVI utiliza a reflectância do visível, já o EVI utiliza a banda
pancromática.
c) ( ) O NDVI utiliza as bandas do infravermelho (NIR) e do vermelho, e
o EVI utiliza o NIR, o vermelho e também o azul.
d) ( ) São índices utilizados apenas para quantificar a vegetação que ocorre
em parques de cidades.
e) ( ) O NDVI e o EVI utilizam apenas as bandas do infravermelho e do
vermelho.

80
REFERÊNCIAS
BARRETT, E. C.; CURTIS, L. Introduction to Environmental Remote Sensing.
4. ed.Londres: Routledge, 1999.

BRADLEY, B. A. Remote detection of invasive plants: a review of spectral,


textural and phenological approaches. Biological Invasions, v. 16, p. 1411-1425,
2014.

CÂMARA, G.; DAVIS, C.; MONTEIRO, A. M. V. Introdução à Ciência da


Geoinformação. São Paulo: INPE, 2001. Disponível em: http://www.dpi.inpe.br/
gilberto/livro/introd/. Acesso em: 17 nov. 2020.

CÂMARA, G. et al. SPRING: Integrating remote sensing and GIS by object-ori-


ented data modelling. Computers & Graphics, v. 20, n. 3, 1996, p. 395-403.
Disponível em: http://www.dpi.inpe.br/spring/portugues/tutorial/index.html.
Acesso em: 17 nov. 2020.

CHUVIECO, E. Fundamentals of Satellite Remote Sensing: An Environmental


Approach. 2. ed. Boca Raton: CRC Press, 2016.

CCMEO - Canada Centre for Mapping and Earth Observation. Remote Sensing
Tutorials. Disponível em: https://www.nrcan.gc.ca/maps-tools-publications/
satellite-imagery-air-photos/tutorial-fundamentals-remote-sensing/9309. Acesso
em: 28 set. 2020.

CRIST, E. P.; KAUTH, R. J. The Tasseled Cap De-Mystified. Photogrammetric


Engineering and Remote Sensing (PE&RS), v. 52, n. 1, p. 81-86, 1986.

CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.


Campinas: UNICAMP, 1992.

EPIPHANIO, J. C.; NOVO, E. M. L. M.; MACHADO, L. A. T. Espaço. São Paulo:


Edgard Blucher, 2010.

EPIPHANIO, J. C. N. et al. Índices de vegetação no sensoriamento remoto da


cultura do feijão. Pesquisa Agropecuária Brasileira, v. 31, n. 6, p. 445-454, 1996.

FERREIRA, L. G.; FERREIRA, N. C.; FERREIRA, M. E. Sensoriamento remoto da


vegetação: evolução e estado-da-arte. Acta Scientiarum Biological Sciences, v.
30, n. 4, p. 379-390 2008.

FITZ, P. R. Geoprocessamento sem Complicação. São Paulo: Oficina de Textos,


2008.

81
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

FLORENZANO, T. G. Iniciação em Sensoriamento Remoto. 3. ed. São Paulo:


Oficina de Textos, 2011.

FORMAGGIO, A. R.; SANCHES, I. D. Sensoriamento Remoto em Agricultura.


São Paulo: Oficina de Textos, 2017.

FURTADO, A. L. S.; RODRIGUES, C. A. G.; TÔSTO, S. G. Satélites e Produtos.


In: TÔSTO, S.G. (Org.) Geotecnologias e Geoinformação: o produtor pergunta,
a Embrapa responde. Brasília: EMBRAPA, 2014.

JENSEN, J. R. Remote Sensing of the Environment: An Earth Resource Perspec-


tive. 2. ed. Pearson Education, 2009.

KAUTH R. J.; THOMAS, G. S. The tasseled Cap-A Graphic Description of the


Spectral-Temporal Development of Agricultural Crops as Seen by LAND-
SAT. 1976. Disponível em: https://citeseerx.ist.psu.edu/viewdoc/download?-
doi=10.1.1.461.6381&rep=rep1&type=pdf. Acesso em: 17 nov. 2020.

KEY, T. et al. Remote Sensing of Environment: A Comparison of Multispectral


and Multitemporal Information in High Spatial Resolution Imagery for Classi-
fication of Individual Tree Species.Temperate Hardwood Forest, v. 75, n. 1, p.
110-112, 2001.

KHORRAM, S. et al. Principles of Applied Remote Sensing. Nova Iorque:


Springer, 2016.

LILLESAND, T. M.; KIEFER, R. W.; CHIPMAN, J. W. Remote Sensing and Im-


age Interpretation. 7. Ed. Hoboken: Wiley, 2015.

LIU, W. T. H. Aplicações de Sensoriamento Remoto. Capo Grande: UNIDERP,


2006.

LORENZZETTI, J. A. Princípios Físicos de Sensoriamento Remoto. São Paulo:


Blucher, 2015.

MENESES, P. R.; ALMEIDA, T.; BAPTISTA, G.M.M. Reflectância dos Materiais


Terrestres. São Paulo: Oficina de Textos, 2019.

MENESES, P. R.; ALMEIDA, T. Introdução ao Processamento de Imagens de


Sensoriamento Remoto. Brasília: UnB, 2012.

MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e Metodologias de


Aplicação. 4. ed. Viçosa: UFV, 2011.

NOVO, E. M. L. M. Sensoriamento Remoto: Princípios e Aplicações. 4. ed. São


Paulo: Blucher, 2010.

82


NOVO, E. M. L. M.; PONZONI, F. J. Introdução ao Sensoriamento Remoto. São


José dos Campos: INPE, 2001.

OLSEN, R. C. Remote Sensing from Air and Space. Bellingham: SPIE, 2007.

PETTORELLI, N. et al. Satellite Remote Sensing for Conservation. WWF Conser-


vation Technology Series, v. 1, n. 4, 2018.

PIROLI, E. L. Introdução ao Geoprocessamento. Ourinhos: UNESP/Campus


Experimental de Ourinhos, 2010.

PONZONI, F. J.; SHIMABUKURO, Y. E.; KUPLICH, T. M. Sensoriamento Re-


moto da Vegetação. 3. ed. São Paulo: Oficina de Textos, 2012.

PROST, G. L. Remote Sensing for Geoscientists Image Analysis and Integra-


tion. Boca Raton: CRC Press, 2013.

QUARTAROLI, C. F.; BATISTELLA, M. Processamento de Imagens de Senso-


riamento Remoto: Tutorial Básico. Campinas: Embrapa, 2005.

REES, W. G. Physical Principles of Remote Sensing. 3. ed. Cambridge: Cam-


bridge University Press, 2012.

ROSA, R. Introdução ao Geoprocessamento. Uberlândia: Laboratório de Geo-


processamento (UFU), 2013.

SCHOWENGERDT, R. A. Remote Sensing: Models and Methods for Image Pro-


cessing. 3. ed. Burlington: Academic Press, 2006.

SHIRATSUCHI, L. S. et al. Sensoriamento Remoto: conceitos básicos e aplicações


na Agricultura de Precisão. In: BERNARDI; A. C. C. et al. Agricultura de Preci-
são: Resultados de um Novo Olhar. Brasília: Embrapa, 2014.

SOUZA, A. D. et al. Using Gis To Monitor Public Works. 2016. Disponível em:
http://intosaijournal.org/using-gis-to-monitor-public-works/. Acesso em: 17 nov.
2020.

TAN, SY. Developments in Hyperspectral Sensing. In: PELTON, J. N.; MAD-


RY, S.; CAMACHO-LARA, S. (Orgs.), Handbook of Satellite Applications. 2. Ed.
Cham: Springer, 2017.

WATANAB, F. et al. Remote sensing of the chlorophyll-a based on OLI/Land-


sat-8 and MSI/Sentinel-2A (Barra Bonita reservoir, Brazil). In: Academia Brasi-
leira de Ciências, v. 90, n. 2, 2017.

ZANOTTA, D. C.; FERREIRA, M. P.; ZORTEA, M. Processamento de Imagens


de Satélite. São Paulo: Oficina de Textos, 2019.

83
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II

84
UNIDADE 2 —

NOÇÕES DE PROCESSAMENTO DE
IMAGENS DIGITAIS

OBJETIVOS DE APRENDIZAGEM
A partir do estudo desta unidade, você deverá ser capaz de:

• aprender sobre as divisões que existem no processamento digital de


imagens orbitais;
• conhecer sobre os diferentes níveis de processamento de imagens de
satélite, que são disponibilizadas por agências distribuidoras;
• compreender o que são e quais as variáveis envolvidas na correção ra-
diométrica e geométrica de imagens orbitais;
• aprofundar os conhecimentos em relação às diferentes técnicas de real-
ce, operações aritméticas em bandas e filtros;
• perceber as possibilidades que os processamentos chamados de fusão,
segmentação e mosaicos podem abrir para melhorar a extração da infor-
mação de produtos de Sensoriamento Remoto (SR);
• diferenciar os mosaicos e os recortes (extração) de dados matriciais (ras-
ter);
• aprender sobre as classificações de imagens digitais, com ênfase nos mé-
todos supervisionados e não supervisionados;
• compreender os métodos de aferição da qualidade de uma classificação
e aprender sobre o conceito de análise multitemporal.

PLANO DE ESTUDOS
Esta unidade está dividida em três tópicos. No decorrer da unidade
você encontrará autoatividades com o objetivo de reforçar o conteúdo
apresentado.

TÓPICO 1 – NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E


TÉCNICAS DE REALCE DE IMAGENS
TÓPICO 2 – FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS
TÓPICO 3 – CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

CHAMADA

Preparado para ampliar seus conhecimentos? Respire e vamos


em frente! Procure um ambiente que facilite a concentração, assim
absorverá melhor as informações.

85
86
UNIDADE 2
TÓPICO 1 —

NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO


E TÉCNICAS DE REALCE DE IMAGENS

1 INTRODUÇÃO
Prezado acadêmico, na Unidade 1 estudamos importantes aspectos do Sensoriamento
Remoto (SR), desde os princípios mais básicos até os conteúdos que formam um dos
pilares do SR, que consiste na assinatura espectral de alvos e nos tipos de bandas e
suas composições. Ademais, também estudaremos algumas técnicas aritméticas
de processamento no domínio espectral das imagens, dando ênfase para os índices
espectrais de vegetação (NDVI e EVI), pois são amplamente utilizados no Brasil e no
mundo pelos usuários de Geoprocessamento. Agora, na Unidade 2, trataremos de
aprender mais sobre o processamento digital de imagens (PDI) obtidas por sistemas
sensores orbitais (satélites). No entanto, é fundamental que o aluno busque bibliografias
adicionais para ampliar seus conhecimentos. Algumas publicações gratuitas (livros e
artigos) serão sugeridas ao longo desta unidade.

A aquisição de uma cena por um sistema sensor remoto segue algumas etapas, e o
resultado é a geração de um produto (imagem) que é gravado sob a forma de números
digitais (valores dos pixels), uma vez que a grande maioria dos sensores orbitais
registram os dados no formato digital em detrimento do formato analógico. Os números
digitais representam normalmente variações de brilho, ou seja, correspondem à energia
eletromagnética refletida em maior ou menor proporção por um dado alvo, mas não
possuem uma grandeza física atrelada. Nesse contexto, o devido processamento de
imagens de satélite é uma parte essencial para melhor extrair informações de imagens.

De fato, o processamento não vai criar novas informações acerca de um determinado


produto de SR, mas pode melhorar a visualização dos dados, ampliando nosso poder
de interpretação e análise (LIU; MASON, 2009). Segundo os autores, não há nenhuma
mágica envolvida no processamento de imagens que vá criar algo numa cena que já
não esteja lá, mas o processamento poderá deixar feições de interesse mais distinguíveis
para variadas aplicações, tanto em ambiente urbano (e.g. mapeamentos de residências
para cálculos de IPTU) quanto em ambientes rurais (e.g. análise da saúde vegetal de
um cultivo).

Uma gama de técnicas de processamento e análise de imagens foi desenvolvida ao


longo das últimas décadas para ajudar na interpretação de imagens de SR, com o
intuito de extrair o máximo de informações possível dos produtos. Além disso, todos os
meses surgem novas técnicas para processamento de imagens na literatura especializa
(periódicos, por exemplo). Todavia, a escolha de técnicas ou transformações específicas
a serem utilizadas vai depender dos objetivos de cada projeto individual. Vamos
apresentar os métodos mais comuns nesta unidade.

No decorrer desta unidade, vamos lidar com alguns procedimentos mais frequentemente
usados para deixar as imagens orbitais prontas para serem mais bem interpretadas. Na
literatura, há vários esquemas/diagramas e fluxogramas (flowchart) que hierarquizam

87
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

ou organizam o processamento e o tratamento de imagens. A Figura 1 traz um exemplo


de diagrama que mostra algumas técnicas mais comumente utilizadas no que tange
ao processamento de imagens digitais orbitais. Há vários diagramas diferentes na
literatura, propostos por diferentes autores. Os procedimentos a serem realizados
primeiro são as correções.

FIGURA 1 – ETAPAS DO PROCESSAMENTO DE IMAGENS DE SR

FONTE: Adaptada de Hatzopoulos (2008, p. 508)

Podemos notar através da visualização da Figura 1 que existe uma grande diversidade
de métodos para o processamento de imagens. Todavia, não há a necessidade de aplicar
todas as técnicas e procedimentos mostrados na figura. Tudo vai depender da aplicação
final do dado (qual a finalidade dos dados de SR?) pelo usuário do Geoprocessamento.
Os dados brutos (raw data) classificados como nível 0 ou 1 vão requerer um maior
número de operações no processamento digital, ou seja, o nível de pré-processamento
no qual uma agência disponibiliza uma determinada imagem vai balizar os passos
necessários para deixá-la ajustada e pronta para as análises. Dessa forma, os passos
de processamento vão variar de imagem para imagem conforme o tipo de formato da
imagem, as condições iniciais da coleta do dado, informação de interesse e a natureza
de uma cena (VANI, 2017). No entanto, podemos agrupar o processamento de imagens
digitais em três grandes grupos de etapas (procedimentos que possuem um objetivo
em comum), como pode ser visualizado a seguir:

88
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

• (I) Pré-processamento (pre-processing).


• (II) Realce (enhancement).
• (III) Extração das informações de interesse (classificação).

Cada uma destas etapas é composta por diferentes operações que possuem finalidades
distintas. O pré-processamento (alguns autores chamam de “processamento”)
consiste na etapa de preparar o dado para os passos subsequentes. Nessa etapa, são
feitas correções necessárias e obrigatórias. Basicamente, as imagens digitais possuem
imprecisões de várias fontes diferentes, incluindo a atmosfera, a geometria do sistema
sensor (fonte de radiação) em relação ao alvo, bem como calibrações radiométricas (o
sensor tem que captar todos os pixels da mesma forma).

A maioria das agências de distribuição de imagens orbitais já faz as correções


atmosféricas, geométricas e a calibração radiométrica. A segunda etapa, o realce
de contraste, consiste em operações para aumentar o poder de interpretação do
usuário através do aumento da diferença (contraste) entre os pixels dos diferentes
alvos que compõe uma cena. Na extração das informações (ou análises da imagem)
são feitos procedimentos quantitativos e qualitativos sobre os pixels da cena (como
classificações). Podemos também discorrer, em uma última etapa, que consiste na
produção de materiais cartográficos, representação gráfica etc. Vamos detalhar as
principais operações mostradas na Figura 1 ao longo desta unidade.

DICAS

Amplie seus conhecimentos acerca deste tema por meio da leitura do


excelente livro: Introdução ao Processamento de Imagens de Sensoriamento Remoto,
organizado em 2012, pelo Prof. Dr. Paulo Roberto Meneses e pela Prof.ª Dr.ª Tati de Al-
meida, ambos da Universidade de Brasília (UnB). O livro, com 276 páginas distribuídas em
15 capítulos, é uma publicação gratuita. Na íntegra em: http://www.cnpq.br/document-
s/10157/56b578c4-0fd5-4b9f-b82a-e9693e4f69d8.

2 NÍVEL DE PROCESSAMENTO DE DADOS


As imagens brutas obtidas por sensores aéreos e orbitais possuem deficiências e
imprecisões (como a influência da atmosfera) que devem ser corrigidos no pré-
processamento (pelo usuário ou pela agência distribuidora de imagens). Isso é
especialmente essencial para as coleções de imagens do Landsat nível 1 (Level 1) que,
segundo o Serviço Geológico dos Estados Unidos (USGS – United States Geological

89
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

Survey), não são corrigidos para os efeitos atmosféricos, ao passo que os produtos
Landsat nível 2 (Level 2) já incluem os valores de reflectância (reflectância de superfície),
por exemplo. A série Landsat também possui dados científicos categorizados como
nível 3. Observe a Figura 2, que compara alguns exemplos de produtos da série
Landsat com diferentes níveis de processamento realizados pela própria agência (antes
do download pelo usuário).

Os termos “níveis” referem-se à quantidade de processamento que uma imagem


recebeu do momento em que a radiação refletida foi captada pelo sistema sensor, até
o momento em que é baixada por um usuário como “dado original” (PIWOWAR, 2001).
As agências de distribuição de imagens (e.g. USGS, NASA, INPE) criaram diferentes
níveis de processamento para descrever o quanto uma imagem já foi processada por
elas. Isto ocorre porque, como mencionado anteriormente, grande parte dos dados
coletados por sistemas sensores remotos necessitam de quantidades semelhantes
de processamento básico; portanto, tais processamentos foram agrupados em níveis
(NASA, 2019).

Saber o nível de uma imagem orbital é primordial, e facilita a vida do usuário de


Geoprocessamento. Os metadados (informações sobre como foram coletadas as
imagens originais; ou seja, informações sobre o dado original) das imagens vão mencionar
qual o seu atual “nível” (e.g. nível 0, nível 1, nível 2). Então, o usuário saberá quais
procedimentos básicos já foram feitos pelas agências e quais não foram. Afinal, saber
com que tipo de produto está lidando é fundamental.

A Figura 1 mostra a comparação de alguns produtos nível 2 e nível 3 disponibilizados


pela série Landsat. Quanto mais processada e tratada uma imagem é, mais específica
ela se torna (e mais sutis detalhes radiométricos são perdidos).

FIGURA 2 – DIFERENTES TIPOS DE PRODUTOS DO LANDSAT

FONTE: Adaptada de: <http://on.doi.gov/3ntJO92>. Acesso em: 19 nov. 2020.

90
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

Conforme Piwowar (2001) houve um grande esforço por parte das grandes agências
distribuidoras de imagens para padronizar os níveis, pois estes se referem aos
procedimentos básicos comuns. No entanto, ainda há certa ambiguidade. Por isso, o
usuário dos dados de SR sempre deve buscar a definição de cada “nível” de acordo
com a agência do qual se inquiriu uma determinada imagem. No geral, temos cinco
classificações de níveis (ou categorias) de produtos de SR que são disponibilizadas por
agências para os usuários (PIWOWAR, 2001; INPE, 2004; PIRES, 2019; NASA, 2019), e
cada um destes níveis possui um avanço de processamento básico em relação ao nível
subsequente. Então, temos:

• Nível 0 (level 0): são as imagens totalmente brutas (raw). Necessitam de correções
obrigatórias antes de serem utilizadas para qualquer fim. Por esta razão, dificilmente
este nível será disponibilizado para os usuários, e não será útil para o conteúdo
deste livro. Este tipo de dado é muito específico, e pode ser utilizado por acadêmicos
que desenvolvem algoritmos ou novas técnicas. Para as imagens CBERS-1, 2 e 2B, o
INPE classifica o nível 0 como “imagem recebida diretamente pela estação de recepção do
INPE, contendo dados não calibrados, e informação adicional sobre atitude e efemérides do
satélite”. E são de uso interno do INPE.

• Nível 1 (level 1): refere-se a dados que foram corrigidos em parte para variações do
detector presente no sensor remoto. Os sensores são calibrados para “ler” os pixels
de uma cena de forma uniforme, pois o SR é baseado nas variações de brilho dos
pixels. Normalmente, os pixels não são diferenciados em relação ao que significam
em termos ambientais (água, floresta, nuvens etc.); isto é, são processados na mesma
forma para todos os alvos e não são expressos em unidades físicas (reflectância e
radiância, por exemplo) – lembre-se que os números digitais não possuem significado
físico. Este nível normalmente envolve a aplicação de equalização entre os sensores
(uma espécie de correção radiométrica). Os metadados desta categoria incluem a
referência temporal e os coeficientes radiométricos utilizados na calibração, que
podem ser usados para converter o número digital dos pixels em unidades físicas.
Dependendo do sistema sensor, este nível é subdividido em até três partes: 1A, 1B
e 1C, ou seja, os produtos do nível 1 podem ter um processamento mais complexo
de acordo com a agência geradora dos dados, por isso é importante consultar os
metadados e o seu significado no manual de cada sistema sensor. Para as imagens
CBERS-1, 2 e 2B, o INPE classifica o nível 1 como “imagem resultante da aplicação de
procedimentos de calibração radiométrica a uma imagem nível 0”.

• Nível 2 (level 2): todos os pixels foram adquiridos ao mesmo tempo (em poucos
instantes, durante uma passagem do satélite), mas aqui, o processamento pode
incluir informações sobre a natureza do pixel, por exemplo, se o pixel corresponde
à atmosfera, vegetação, água etc. Contudo, os pixels podem ser processados
de maneira diferente, de acordo com sua natureza. No geral, as imagens neste
nível estão corrigidas no domínio radiométrico e no domínio geométrico (são
georreferenciadas), na qual os dados dos satélites são utilizados para modelar e
corrigir as distorções ocasionadas pelo deslocamento do sensor (órbita do satélite)
e rotação da Terra. A Figura 3 mostra uma comparação de imagens nível 1 e nível
2 do Landsat-8/OLI. Algumas agências que possuem sensores orbitais subdividem
este nível em 2A e 2B para categorizar seus produtos em relação à qualidade do
georreferenciamento (e.g. Radarsat). Para as imagens CBERS-1, 2 e 2B, o INPE
classifica o nível 2 como “Trata-se da imagem nível 1, à qual foi aplicado procedimento
de correção geométrica de sistema, com uso de dados da plataforma e sem uso de pontos de
controle. Trata-se da imagem básica disseminada pelo INPE, em formato GeoTIFF”.

91
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

• Nível 3 (level 3): este nível de correção usa pontos de controle para melhorar a
geometria e o posicionamento. Ademais, os produtos deste nível possuem dados
adquiridos em diferentes datas. O processamento básico pode ser alterado conforme
a natureza do pixel (tipo de material que compõe a superfície da Terra ou o alvo). São
dados bem consistentes e íntegros, e possuem sobreposição de datas. Esta categoria
também possui variações em nível 3A e 3B de acordo com o sensor. Para as imagens
CBERS-1, 2 e 2B, o INPE classifica o nível 3 como: Imagem CBERS nível 2 à qual foram
aplicados procedimentos adicionais de correção geométrica com o uso de pontos de controle,
que permitem a localização dos elementos lineares na imagem, em um terreno plano, com
precisão compatível com o padrão de exatidão cartográfica na escala 1:50.000 (dados CCD),
1:250.000 (dados IRMSS) e 1:1.000.000 (dados WFI).

• Nível 4 (level 4): são produtos prontos para uso, como modelos ou resultados de
análises multitemporal de imagens, ou seja, não são produtos medidos diretos
da reflexão ou emissão da radiação eletromagnética (REM) por sensores, mas são
seus derivados. Para as imagens CBERS-1, 2 e 2B, o INPE classifica o nível 4 como
“imagem CBERS nível 3 refinada pelo uso de modelo digital de elevação, e compatível com
aplicações que requerem uma modelagem cartográfica acurada em qualquer tipo de terreno”.

Recentemente, o INPE disponibilizou em seu catálogo imagens do CBERS-4A, que


possui uma resolução espacial de aproximadamente 2 m. A Figura 2 apresenta o
mosaico de imagens Landsat-8/OLI dos EUA mostrando à esquerda imagens de nível
1 (pixel em número digital), e à direita imagens de nível 2, já com o número digital dos
pixels convertidos em reflectância, conforme a Humboldt State University (HSU, 2019).

FIGURA 3 – COMPARAÇÃO DE IMAGEM COM NÚMERO DIGITAL E COM REFLECTÂNCIA

FONTE: Adaptada de: <https://earthexplorer.usgs.gov/>. Acesso em: 19 nov. 2020.

92
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

Segundo Piwowar (2001), quanto mais processada pela agência de distribuição, mais os
detalhes radiométricos das imagens se perdem. Isto é, os valores dos pixels vão sendo
calculados cada vez mais como “média”, e isso acaba reduzindo algumas variações
sutis em termos radiométricos, entre eles (e essa variação de brilho de cada pixel nos
interessa). Entretanto, isso é uma questão um pouco mais preocupante para estudos
extremamente detalhados e refinados, que têm a finalidade de criar metodologias.

Com relação à série Landsat, que consiste na série de satélites mais utilizados em
estudos de imagens de SR, seja para aplicação em ambientes urbanos ou rurais, o nível
2 é o mais empregado. Lembrando que o site do USGS (https://earthexplorer.usgs.gov/)
e o site do INPE (http://www.dgi.inpe.br/CDSR/) permitem o download gratuitos das
cenas do Landsat em vários níveis diferentes. Ademais, ambos os sites permitem baixar
uma gama de produtos de SR de vários outros sistemas sensores orbitais.

3 CORREÇÕES RADIOMÉTRICAS E GEOMÉTRICAS


As principais correções empregadas nas imagens de satélite são as do tipo radiométricas
e as geométricas. Tais correções têm que ser feitas porque os instrumentos, a atmosfera
e o arranjo do sistema sensor-alvo (geometria) são fontes de erro, distorção e imprecisão
(ruídos). Contudo, grande parte dos produtos de SR estão disponíveis e já corrigidos
para os usuários do Geoprocessamento, como as imagens nível 2 da coleção 1 e 2 do
TM Landsat 4-5, ETM+ do Landsat 7 e OLI do Landsat 8 (que já são corrigidas em
termos radiométricos e atmosféricos).

Os procedimentos de correção radiométrica, que também englobam as correções


atmosféricas, normalmente envolvem a conversão do número digital para radiância
espectral (no sensor), seguido da conversão da radiância espectral para reflectância
aparente ou de topo da atmosfera (TOA) e, por fim, remoção dos efeitos de absorção e
espalhamento da atmosfera, gerando a reflectância de superfície (ou somente reflectância),
que é o nosso interesse de trabalho. Tudo é feito pelos softwares de processamento de
imagens de SR. Lembre-se que essa correção depende do nível de processamento básico
que uma imagem sofreu na agência distribuidora. Todavia, não é incomum receber
dados sem calibração por parte das agências (no caso, teremos que fazer o procedimento
de conversão do número digital até chegarmos à reflectância de superfície).

Esta correção também visa amenizar os efeitos de absorção e espalhamento da


atmosfera sobre os valores digitais registrados por um sensor remoto para cada
imagem. Dessa forma, a calibração radiométrica objetiva corrigir e calibrar o valor de
brilho nos pixels mediante a aplicação de coeficientes próprios para cada sensor. Não
obstante, a correção radiométrica é útil para retificar imagens de satélite quando os
sensores sofrem alguma falha ou falta de energia (criando linhas/estrias de pixels sem
números digitais nas imagens), pois os sensores sofrem uma degradação ótica e elétrica
natural com o passar do tempo.
Por que essa correção é importante? – Porque os sensores a bordo dos satélites não
registram somente a radiação refletida pela superfície terrestre, mas também a radiação
oriunda do espalhamento pela atmosfera. Como estamos interessados somente nos
valores de brilho da superfície (alvos/objetos), a correção radiométrica é necessária. É
um processamento realizado principalmente quando estamos interessados em fazer

93
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

análise multitemporal de imagens (JENSEN, 2015).

Conforme Meneses e Almeida (2012), a intensidade dos efeitos atmosféricos depende


do comprimento de onda (Espalhamento de Rayleigh afeta os menores comprimentos
de onda do visível), da data das coletas das imagens e da trajetória da energia radiante.
Ainda, segundo os autores, o espalhamento atmosférico tende a diminuir o contraste
entre os objetos de uma determinada cena. No geral, a influência da atmosfera se dá de
duas maneiras opostas: adicionando a radiação que é captada pelo sensor (path radiance)
e reduzindo a radiação que chega até o sensor por causa da absorção (radiação incidente
ou irradiação). A maioria dos softwares possuem modelos/algoritmos com coeficientes
de calibração de vários sistemas sensores orbitais diferentes, que são utilizados para
avaliar e compensar os efeitos atmosféricos e, assim, estimar a reflectância na superfície
a partir da reflectância do topo da atmosfera (TOA). A Figura 4 mostra a diferença da
reflectância TOA (à esquerda) versus imagem de reflectância de superfície (atmosfera
corrigida). Imagem OLI/Landsat-8 (R4G3B2) coleção 1 da cidade de Los Angeles (EUA).

FIGURA 4 – COMPARAÇÃO DE TOA COM REFLECTÂNCIA (ATMOSFERA CORRIGIDA)

FONTE: <https://bit.ly/2Lr1HYZ >. Acesso em: 19 nov. 2020.

Caso necessário, os metadados das imagens em nível 1 possuem os coeficientes que


são utilizados para realizar a calibração radiométrica. A título de curiosidade, observe
as variáveis envolvidas na equação de conversão de números digitais brutos em
reflectância do topo da atmosfera (TOA) para o sensor OLI/Landsat-8 (USGS, c2020):
, onde:

• é a reflectância TOA;
• corresponde ao fator de redimensionamento multiplicativo de banda;
• são os valores de pixel-padrão quantizados e calibrados (números digitais);
• corresponde ao fator de redimensionamento aditivo de banda;
• é o zênite do ângulo solar local (este ângulo é dado pela equação:
, na qual o significa o ângulo de elevação do Sol no centro da cena
94
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

em graus).

A partir do resultado desta equação acima, é aplicado algum algoritmo/modelo de


correção (e.g. FLAASH) para remover os efeitos atmosféricos (vapor d’água, gases e
aerossóis) para, enfim, termos a reflectância da superfície em cada pixel da imagem.
Segundo Meneses e Almeida (2012), o ideal seria ter estimativas locais das condições
atmosféricas, mas tais dados são difíceis de obter, pois exigem equipamentos caros.
Em contrapartida, os modelos de correção são satisfatórios para tal tarefa. A Figura 5
mostra os níveis de correção radiométrica conforme Schowengerdt (2006).

Em suma, caso o usuário esteja lidando com a necessidade de utilizar um algoritmo


para corrigir os efeitos atmosféricos, será, muito provavelmente, necessário informar
dados como latitude e longitude, data e horário da aquisição da cena, altitude da
aquisição e elevação do alvo, modelo atmosférico (que contemple a estação climática
do ano e qual hemisfério), dentre algumas outras variáveis.

Uma das técnicas de correção atmosférica para obter a reflectância de superfície é


através da subtração de objetos escuros (Dark Object Subtraction), que estima que a
radiação captada pelos sensores a partir de pixels localizados em zonas de sombras/
escuras é inteiramente por causa da atmosfera, e não por causa da reflexão de superfície
(MENESES; ALMEIDA, 2012).

A Figura 5 nos apresenta o Fluxograma para calibração de imagens de SR de números


digitais para unidades físicas (reflectância de superfície).

FIGURA 5 – FLUXOGRAMA PARA CALIBRAÇÃO DE IMAGENS DE SR

95
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

FONTE: Adaptada de Schowengerdt (2006, p. 335)

DICAS

Para ampliar seus conhecimentos acerca das correções atmosféricas, leia


o artigo: Correção Atmosférica em Sensoriamento Remoto: uma revisão, publicado na
Revista Brasileira de Geografia Física (v. 13, n. 1, 2020). Veja na íntegra em: https://periodi-
cos.ufpe.br/revistas/rbgfe/article/view/242735.

96
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

Com relação às correções geométricas, há muito mais fontes de erros do que as


radiométricas. Nesse contexto, segundo Richards e Jia (2006), podemos destacar as
seguintes fontes de distorções correspondentes à posição do sensor em relação ao alvo:

• (I) movimento de rotação da Terra durante a aquisição da imagem;


• (II) taxa de varredura limitada de alguns sistemas sensores;
• (III) o amplo campo de visão (FOV – Field of View) de alguns sensores;
• (IV) curvatura da Terra e topografia do terreno;
• (V) sensores com deficiências ou não ideais, orientação dos satélites;
• (VI) variações na altitude e velocidade da plataforma de aquisição;
• (VII) efeitos panorâmicos relacionados à geometria da imagem.

Os sistemas sensores atribuem uma coordenada as suas imagens capturas (é criada


uma projeção). No entanto, durante o processo de aquisição das imagens, pode
haver diferenças entre o objeto da imagem e sua posição real na superfície da Terra
(UNI-BONN, c2020). Como podemos notar, através da lista citada anteriormente, há
múltiplas razões para causar distorções geométricas em imagens. Para diferenciar
bem: as correções radiométricas são feitas para retificar erros em valores de brilho de
pixel (por causa de erros de instrumentos, natureza do comprimento de onda, efeitos
atmosféricos etc.), ao passo que as geométricas são para reparar erros na geometria
das imagens (isto é, forma, localização, dimensão etc.). Da lista de fontes de erros/
distorções supracitadas, vamos pontuar algumas fontes de distorções mais habituais,
seguindo as definições de Green, Clark e Edwards (2000):

• Distorção panorâmica: sabemos que as imagens são projeções bidimensionais de uma


porção da superfície de três dimensões da Terra, pois esta superfície é curva. Esta é
a maior fonte de distorção geométrica observada em imagens oriundas de sensores
que possuem um amplo campo de visão (FOV).
• Orientação: as imagens que são adquiridas por sensores orbitais raramente serão
orientadas para o norte verdadeiro. Já em relação à orientação de imagens aéreas, a
orientação dos produtos segue o plano de voo do levantamento.
• Movimento de rotação da Terra: os satélites Landsat 4, 5 e 7 possuem uma órbita
sincronizada com o Sol, com um ângulo de inclinação de 98,2°. Logo abaixo do
satélite, a Terra está girando para leste. Por causa disso, cada nova linha de varredura
do sensor estará ligeiramente a oeste da linha anterior, e o resultado disso é uma
distorção. A Figura 6 mostra como a rotação da Terra afeta o registro das imagens. A
velocidade de rotação da Terra varia com a latitude (vai diminuindo do equador em
direção aos polos). Para imagens de aerolevantamentos, o efeito da rotação da Terra
não é um problema significante.
• Sensores com erros: o sistema ótico do sensor pode causar distorções, não linearidade
do mecanismo de varredura e taxas de amostragens não uniformes. Neste caso, a
correção de sensores aerotransportados é mais fácil do que nos sensores orbitais.
Essa correção dos sensores aerotransportados é feita com dados dos eixos de controle
da aeronave (“atitude”: Roll, Pitch, e Yaw).
• Instabilidade da plataforma de aquisição: as plataformas orbitais possuem pouca
instabilidade de altitude. Em contrapartida, o Roll, Pitch, e Yaw podem ser a causa
de graves distorções em aerolevantamentos.

A Figura 6 mostra a distorção de imagens de satélite por causa da rotação da Terra.


Os satélites Landsat 4, 5 e 7 possuem uma órbita sincronizada com o Sol, com um
ângulo de inclinação de 98,2°. Os sensores presentes nestes satélites realizam medidas
contínuas, mas a Terra gira de oeste (W) para leste (E), o que causa uma distorção

97
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

sistêmica nas matrizes de pixels.

FIGURA 6 – DISTORÇÃO DE IMAGENS DE SATÉLITE POR CAUSA DA ROTAÇÃO DA TERRA

FONTE: Adaptada de Jensen (2015, p. 237)

98
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

Todas as imagens aéreas e orbitais possuem algum grau de distorção


geométrica, ou seja, independentemente da plataforma de aquisição de dado
(avião, sensor passivo ou sensor ativo em satélites, dentre outros), alguma
deformação espacial ocorrerá no processo de registro da radiação pelo sensor.
Além disso, diferentes formas de aquisição de imagens por sensoriamento remoto
vão acarretar diferentes tipos de distorções geométricas!

ATENCAO

A correção geométrica em uma imagem aérea ou de satélite pelo usuário é


geralmente necessária, mas em algumas situações pode ser dispensável. Por exemplo:
caso o objetivo do estudo seja estimar quantidades relativas de cobertura do solo de
áreas extensas, informações de posições geográficas muito precisas podem não ser tão
necessárias. Dessa forma, essa longa etapa de processamento poderia ser suprimida
neste caso hipotético (GREEN; CLARK; EDWARDS, 2000).

No entanto, da mesma forma que para as correções radiométricas, a necessidade


das correções geométricas a serem feitas pelos usuários de Geoprocessamento vai
depender do nível de pré-processamento da imagem que foi entregue por uma dada
agência de distribuição de imagens. Isto é, alguns níveis mais baixos podem não conter
informações geográficas, enquanto algumas outras de níveis mais altos podem exibir
algum deslocamento (erro) de georreferenciamento (GREEN; CLARK; EDWARDS,
2000). Obviamente, tudo isso varia de sensor para sensor e de agência para agência.
Por isso´, é sempre importante consultar os metadados das imagens, bem como as
suas informações básicas fornecidas pelas agências. Não obstante, as necessidades de
correções geométricas também dependem do objetivo do estudo ou projeto.

Normalmente, as correções geométricas são quase que obrigatórias para alguns


estudos ou projetos que possuem, por exemplo, a finalidade de: comparação de dados
utilizando imagens (dados de campo ou mapas); trabalhar imagens de SR junto a outros
produtos da Geoinformática (SIG, por exemplo); estimar áreas, distância ou tamanho
de feições a partir de imagens e análise multitemporal de uma mesma cena (GREEN;
CLARK; EDWARDS, 2000). Para frisar bem, Meneses e Almeida (2012) destacam que
as correções geométricas mais elementares são, usualmente, realizadas pelas agências
ou laboratórios de distribuição das imagens, pois estes possuem o conhecimento
com exatidão das fontes de erro das imagens. Por exemplo: no caso das imagens de
satélite SPOT, é possível adquirir imagens não corrigidas geometricamente (nível 1A,
conforme a CNES – Agência Espacial Francesa), mas é mais comum trabalhar com as
imagens nível 1B, pois as imagens deste nível da série SPOT já são corrigidas para as
distorções geométricas.
O usuário de Geoprocessamento possui sua atuação mais ligada às distorções das visadas
cônicas e oblíquas dos sensores remotos, em imagens já corrigidas geometricamente
(em termos elementares). Em outras palavras, o usuário vai atribuir um sistema de
projeção com coordenadas que se referem à superfície da Terra (MENESES; ALMEIDA,
2012). Conforme Green, Clark e Edwards (2000), a correção da geometria das imagens

99
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

envolve cálculos e algoritmos bem complexos. Todavia, assim como nas outras etapas
do processamento de dados de SR, tal tipo de correção pode ser feita em uma gama
de softwares pagos (e.g. ERDAS Imagine, ENVI, ArcGIS) e softwares livres (e.g. QGIS,
MultiSpec, ILWIS) (STARS PROJECT, 2020).

Jensen (2015) ressalta que o processamento em dados/imagens oriundas de SR é


necessário para remover as distorções geométricas e assim situar cada pixel numa
posição X e Y (e Z, caso nosso interesse esteja na elevação da feição) num dado modelo
planimétrico de projeção ou sistema de coordenadas, ou seja, a posição exata de cada
objeto/alvo em uma imagem de SR deve representar sua posição geográfica exata
e verdadeira na superfície terrestre (imagem georreferenciada). De fato, algumas
distorções são mais previsíveis e fáceis de serem corrigidas, ao passo que algumas
outras são mais difíceis e complicadas de serem resolvidas.

As imagens de SR exibem erros geométricos internos e externos (TOUTIN, 2003). Os


erros internos são relacionados com imprecisões no próprio sistema sensor, aliado com
a rotação da Terra (e sua superfície curva, bem como relevo mais acidentado). Já os
erros externos são mais atribuídos aos levantamentos aéreos, pois tal tipo de distorção
se deve a movimentos aleatórios e repentinos como a mudança de altitude de um voo
por causa de turbulências (mudanças no Roll, Pitch,e Yaw), por exemplo (tais oscilações
não se observam nas plataformas orbitais). Ademais, é de suma importância identificar
se, tanto o erro interno quanto o externo é sistemático (previsível) ou não sistemático
(aleatório). Os erros sistemáticos são do tipo mais simples de serem corrigidos (o ângu-
lo de uma câmera é um bom exemplo de erro que é facilmente corrigido), e são em sua
maioria compostos pelos erros/distorções internas.

Como proceder para realizar a correção geométrica? – Primeiro, a imagem deve ser geor-
referenciada, isto é, ser “amarrada” na superfície terrestre com uma dada projeção,
esferoide e datum. Em seguida, as imagens devem ser retificadas. Há vários métodos
matemáticos para realizar tal tarefa, mas uma das mais comuns consiste no emprego
de transformações polinomiais de pixels (MENESES; ALMEIDA, 2012). Este método
serve para rearranjar os pixels de um raster por meio da comparação com uma imagem
ou mapa já corrigido. Neste processo de utilizar uma camada com um sistema de co-
ordenadas já corrigido, será necessário identificar os GCPs (Ground Control Points); ou
seja, os pontos de controle. Estes pontos são de fácil localização, como esquinas de ruas,
postes, construções, árvores isoladas etc. O usuário deve identificar pontos fixos, que
não mudam ao longo do tempo, distribuindo-os pela imagem, principalmente em suas
bordas. Estes pontos de controle também podem ser levantados em campo, utilizando
equipamentos com uma alta precisão, como um RTK e um DGPS.
As equações polinomiais envolvidas na correção geométrica variam, normalmente, do
primeiro ao terceiro grau (de acordo com a complexidade da correção). Segundo Gre-
en, Clark e Edwards (2000), o usuário do Geoprocessamento deve possuir a habilidade
de escolher a melhor ordem da equação polinomial através da análise de três fatores:
quantidades de GCPs utilizados; a distribuição espacial desses pontos de controle e o
grau de distorção de uma imagem. A Figura 7 mostra a aplicação de uma equação de
transformação polinomial para corrigir a distorção de pixels de uma imagem espectral.
Esta figura também mostra o processo de reamostragem de pixel. Reamostragens en-
globam métodos que são baseados em estimar valores de pixel por meio de repetidas
amostragens dentro do mesmo raster.

100
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

Na Figura 7 observamos a correção geométrica de uma imagem orbital distorcida (à


esquerda) com o auxílio de pontos de controle (GCP) e uma imagem já georreferenciada
(à direita). Note que as distorções foram removidas depois da aplicação do polinômio
abaixo das cenas. Nas fórmulas abaixo das imagens, as variáveis x e y representam a
latitude e a longitude, ao passo que as variáveis u e v representam as linhas e colunas
dos pixels.

FIGURA 7 – PROCESSO DA CORREÇÃO GEOMÉTRICA

FONTE: Adaptada de: <https://bit.ly/2LC2E0q>. Acesso em: 19 nov. 2020.

Outro processo realizado dentro das operações de correção geométrica


consiste na ortorretificação. Este processamento é feito para corrigir a angulação
de um sensor e a topografia (relevo) da superfície terrestre. São correções que
precisam de mais dados que o georreferenciamento, como os Coeficientes
Polinomiais Racionais (RPC – Rational Polynomial Coefficient) e um bom Modelo
Digital de Superfície (MDS). Grande parte dos dados de plataformas orbitais,
como os produtos do Landsat e do MODIS, já foram ortorretificados (HSU, 2020).

101
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

Green, Clark e Edwards (2000) elaboraram um excelente guia simplificado


de como executar a correção geométrica. Segundos os autores, é necessário seguir
as seguintes etapas: (I) coletar pontos de controle (GCPs); (II) utilizar estes GCPs
na equação polinomial; (III) utilizar a equação polinomial da imagem original
em um sistema de projeção de mapa (este processo vai corrigir a distorção,
retificando a imagem); (IV) avaliar o erro para saber se a transformação foi
aceitável, ou se é preciso remover ou adicionar GCPs e, por fim, (V) realizar a
reamostragem (extrapolando os valores de pixel da imagem original para a nova
imagem gerada). O resultado destes passos é um raster em que seus pixels podem
ser expressos em linhas e colunas ou unidades de projeção do mapa, e sem
distorções. A Figura 8 mostra um fluxograma da correção geométrica, conforme
Green, Clark e Edwards (2000).

A Figura 8 nos apresenta as etapas simplificadas do processo de correção


geométrica. O RMS (root-mean-square error) ou raiz quadrada do erro-médio é
uma medida muito comum em Geoprocessamento, e sua aplicação retorna para
as diferenças entre os valores previstos (os mais “ideais”); e os valores que foram
efetivamente observados.

FIGURA 8 – ETAPAS DO PROCESSO DE CORREÇÃO GEOMÉTRICA

FONTE: Adaptada de Green, Clark e Edwards (2000, p. 98)

102
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

DICAS

Para ampliar seus estudos, você pode baixar a Circular Técnica nº 18 (de-
zembro de 2012) da Embrapa. A publicação “Procedimentos para correção geométrica
de imagens de satélite” estabelece protocolos práticos para correção geométrica de
imagens orbitais em três aplicativos de SR diferentes: ArcGIS, ENVI e ERDAS. Você pode
baixá-la na íntegra em: https://bit.ly/2LKpumo.

4 TÉCNICAS DE REALCE DE CONTRASTE (MANIPULAÇÃO DE


HISTOGRAMA)
Após as devidas correções geométricas e radiométricas, é extremamente útil realizar
o procedimento chamado de realce (Enhancement) nas imagens de SR. As variadas
técnicas de realce aumentam a qualidade de uma determinada imagem para ser mais
bem percebida pelos humanos. Nesse contexto, é sempre bom analisar primeiro os
histogramas das imagens (também denominados de diagramas de frequência), que
são representações em duas dimensões (plano cartesiano) de dados de imagens. O
histograma é a peça-chave para entender o realce das imagens!

Há algumas formas de construir um histograma, mas a mais comum é plotar no eixo


x o intervalo dos números digitais disponíveis (0 a 255), e plotar no eixo y o número
de pixels da imagem (quantidade ou a sua distribuição estatística). O histograma é
um tipo de gráfico que contém informações radiométricas e não contém informações
espaciais (RICHARDS; JIA, 2006).

Como falamos na unidade anterior, nossos sistemas de hardware para visualização de


imagens são baseados no sistema RGB, com 256 graus de intensidade (valores de 0 a
255), por canal (8 bits). Em outras palavras, nossos monitores de computador dividem
uma das três cores puras (vermelho, verde e azul) em 256 partes (multiplicando os
256 tons pelas três cores primárias, ultrapassamos 16 milhões de cores que podem ser
representadas pelos monitores).

Observe a Figura 9 e note que a foto que possui mais pixels distribuídos ao longo de
toda a amplitude de valores (256 graus de intensidade) possui melhor contraste, ao
passo que a imagem que usa só uma estreita faixa de valores em cada canal possui um
aspecto acinzentado (BEO, 2020). De acordo com Lillesand, Kiefer e Chipman (2015), as
principais técnicas de realce vão agir de duas formas: mudando o valor de brilho de um
determinado pixel de um raster de forma independente (ponto a ponto) ou mudando
o valor de um dado pixel com base nos valores de pixels vizinhos (Neighborhood). As
Transformações Espectrais, que vimos na Unidade 1, também podem ser consideradas
como técnicas de realce segundo alguns autores.
A manipulação de histogramas de imagens oriundas de SR é uma prática comum, e
a aplicação de funções para “espalhar” os valores dos pixels ao longo de todo o grau
de intensidade do histograma (eixo x, 0 a 255) é feita quase que 100% das vezes antes
de qualquer outro tipo de processamento, pois melhora a qualidade visual da imagem
e, consequentemente, facilita a interpretação dos alvos (mas lembre-se que nenhuma
nova informação é “criada” na imagem).
103
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

DICAS

Faça o download do livro “Processamento de Imagens de Sensoriamento


Remoto: Tutorial Básico” do ano de 2005 da Embrapa. A publicação é gratuita e possui,
entre vários conteúdos, exemplos de aplicação de técnicas de realce de contraste. O
livro é gratuito. Acesse na íntegra em: http://ainfo.cnptia.embrapa.br/digital/bitstream/
item/102823/1/DOC-44-05.pdf.

Na Figura 9 temos fotografias ilustrando a diferença de contraste por meio da análise


do seu histograma. Note a diferença na distribuição dos valores. Na imagem à esquerda
(imagem bruta) os valores RGB estão concentrados, ao passo que na figura à direita os
valores estão distribuídos por causa de alguma função de realce. Veremos a seguir que
há vários tipos de técnicas de realce de contrastes diferentes.

FIGURA 9 – DIFERENÇA DE CONTRASTE DE IMAGENS

FONTE: Adaptada de: <https://eo.belspo.be/en>. Acesso em: 19 nov. 2020.

104
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

Crósta (1992) define o contraste como uma medida do espalhamento dos


níveis de intensidade da imagem. O autor ainda alerta que parte da informação
de uma imagem pode ser perdida dependendo de como é feito o aumento de
contraste. Ademais, o histograma também pode ser entendido como uma
distribuição discreta de probabilidade, uma vez que a altura da barra no gráfico
(normalizada pelo número total de pixels) pode indicar a chance de encontrar um
pixel que possui um determinado valor de brilho na imagem (RICHARDS; JIA,
2006), ou seja, os histogramas são também representações estatísticas dos dados
de cada banda.

A Figura 10 nos traz outro exemplo da qualidade radiométrica de uma


imagem, que pode ser avaliada perante a análise de seu histograma. Em geral,
o contraste entre dois objetos também pode ser definido como a razão entre os
níveis de cinza médios desses objetos (CÂMARA et al., 1996). A expansão do
histograma é essencial para melhor analisar as imagens orbitais. Não obstante,
outras questões de estatísticas básicas como média e desvio padrão são muito
atreladas aos histogramas. Portanto, é importante estudar e buscar material que
versem sobre tais temas.

A Figura 10 nos traz três exemplos de imagens de satélite em P&B com


diferentes histogramas. O histograma mostra os valores de brilho quantizados
no eixo das abscissas (x) versus o número de pixels no eixo das ordenadas (y).
Uma imagem com melhor aspecto visual utiliza um “espalhamento” das barras
por toda a amplitude do eixo x do histograma (mas sem concentrar barras na cor
preta ou branca). A imagem em (A) possui pouco contraste, pois seu histograma
está concentrado numa pequena amplitude de valores. A imagem (B) está com um
alto contraste no branco e no preto, resultando numa perda de discriminação de
alvos. A imagem (C) mostra um bom espalhamento das barras, resultado de uma
otimização do histograma (sem concentração de barras). Em composições, cada
canal RGB vai possuir seu próprio histograma, mas os softwares vão normalmente
processá-los de forma simultânea para evitar distorções (o usuário pode processar
cada canal isoladamente também).

105
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

FIGURA 10 – EXEMPLOS DE IMAGENS DE SATÉLITE EM P&B COM DIFERENTES HISTOGRAMAS

FONTE: Adaptada de Richards e Jia (2006, p. 85)


Entre as técnicas mais comuns que no concerne o aumento de realce nas imagens de
satélite – isto é, técnicas visam manipular os histogramas para melhorar a distinção
dos objetos – estão as operações: Linear, Mínimo e Máximo, Raiz Quadrada, Quadrado,
Negativo, Fatia, Equalização de Histograma e Realce por Edição (CÂMARA et al., 1996).
Logo a seguir veremos uma breve descrição de tais algoritmos. Meneses e Almeida
(2012) agrupam as classes de algoritmo de realce em lineares e não lineares. Em suma,
praticamente todas estas são funções básicas estão presentes nos principais softwares
de processamento de imagens de SR e Geoprocessamento. De acordo com Meneses e
Almeida (2012), os contrastes da classe não linear acabam por distorcer a radiometria
da imagem, enquanto os lineares não. No entanto, é necessário informar que a
classificação das técnicas varia de autor para autor.

106
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

Para frisar bem, a manipulação do contraste de uma determinada imagem digital


serve para corrigir efeitos de sombreamento e má iluminação, problemas com o
sensor remoto e até mesmo características intrínsecas da cena imageada (CÂMARA
et al., 1996). Todavia, Jensen (2015) ressalta que não existe uma técnica de realce ideal
(a “melhor” técnica), pois as imagens são avaliadas por humanos, que, por sua vez,
possuem particularidades e subjetividades específicas. Além, é claro, que cada imagem
espectral é um caso, e não há como generalizar uma técnica que seja melhor para todos
os casos. Não obstante, não custa lembrar que as diferentes técnicas de realce podem
ser tanto feitas em imagens espectrais de banda única quanto nas bandas que integram
alguma composição de imagens. Por fim, o produto da operação de realce pode ser
exibido em cores ou em P&B (LILLESAND; KIEFER; CHIPMAN, 2015).

Por que aplicar realce de contraste? Basicamente, porque mesmo após uma imagem ser
processada, ela ainda pode ter um contraste espectral de baixa qualidade, dificultando
a interpretação por parte do usuário de SR (MOREIRA, 2003). No caso de composições
coloridas RGB, também é possível modificar os três histogramas que estão nos canais
RGB.

As Figuras 11 e 12 trazem exemplos da aplicação de alguns algoritmos de transformação


de histogramas, com os histogramas originais (entrada/input) e com os transformados
(saída/output), conforme Câmara et al. (1996) (Manual do SPRING). Então, seguindo as
definições desta excelente fonte bibliográfica mencionada, temos:

• O algoritmo de aumento de contraste linear, como o próprio nome diz, é relacionado


com a aplicação de funções matemáticas lineares do tipo y = (fx) = ax +b, onde y é o
novo valor do pixel (valor de cinza transformado); x é o valor original do nível de
cinza do histograma; a representa a inclinação da reta (tangente do ângulo) e, por
fim, a variável b corresponde a um coeficiente de incremento (que é definido por
meio dos limites mínimos e máximos que o usuário fornece) (CÂMARA et al., 1996).
Contudo, a distribuição dos valores ao longo de toda a faixa do histograma nem
sempre é uma boa opção, especialmente se os valores de entrada da imagem original
não são uniformemente distribuídos (CCMEO, 2020). Em suma, é considerada a
função de aumento de contraste mais simples. Ver a Figura 11.
• O aumento de contraste por meio da operação Mínimo e Máximo é uma
transformação que utiliza os valores de níveis de cinza mínimos, onde é posicionada
a base da reta; e máximos, onde ficará o topo da reta. É considerada idêntica a uma
curva linear. Nesta operação, não há perda de dados e os pixels vão continuar a ter
todos os níveis de cinza (CÂMARA et al., 1996). Ver a Figura 11.
• A função Raiz Quadrada é descrita pela fórmula y = (fx) = a√x, na qual y é o novo
valor de nível de cinza pós-transformação; x representa o nível de cinza original e a
é variável correspondente a um coeficiente de ajuste para que os níveis de saída se
situem entre 0 a 255. É uma função mais útil para aumentar o contraste das áreas
mais escuras de uma dada imagem (CÂMARA et al., 1996). Ver a Figura 11.
• O realce Quadrado é formulado pela seguinte expressão matemática: y = (fx) = a . x²,
onde y é o novo valor de nível de cinza; x é o nível de cinza original e a é o fator de
ajuste para que os níveis de saída se situem entre 0 a 255 níveis. É um algoritmo que
aumenta o contraste de partes claras em uma imagem (CÂMARA et al., 1996). Ver
a Figura 12.
• O aumento de contraste Logarítmico também é mais útil para aumentar o contrates
de regiões mais escuras (que têm valores de cinza menores). Seu objetivo é similar
ao objetivo da Raiz Quadrada. É descrita pela seguinte fórmula: y = (fx) = a . log(x+1),

107
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

na qual y é o novo valor de nível de cinza resultante; x é o valor de cinza original e


a é o fator de ajuste para que os níveis de saída possuam valores entre 0 a 255 níveis
(CÂMARA et al., 1996). Ver a Figura 12.
• O realce Negativo é um algoritmo que funciona de modo reverso; isto é, áreas
escuras (que possuem baixos valores de nível de cinza) vão se transformar em áreas
com altos valores (ficando claras), e vice-versa. É representada pela mesma função
que a Linear, mas com o sinal negativo na frente: y = (fx) = - (ax = b), onde y é o novo
valor do pixel (valor de cinza resultante); x corresponde ao valor original de nível de
cinza; a representa a inclinação da reta (tangente do ângulo) e, por fim, a variável b
corresponde ao fator de incremento (que é definido por meio dos limites mínimos e
máximos que o usuário fornece) (CÂMARA et al., 1996). Ver a Figura 12.
• A operação Fatia (fatiamento de níveis de cinza/brilho) serve para aumentar
os valores de pixels que pertencem em um intervalo de valores específicos (uma
“fatia” do histograma). Nesta técnica de realce, o intervalo total dos níveis de cinza
do histograma é dividido em várias fatias que têm seus valores máximos e mínimos
definidos (CÂMARA et al., 1996).
• A Edição se traduz numa operação matemática para realçar aspectos específicos
de uma dada imagem espectral (tais aspectos são definidos pelo usuário através de
uma tabela de transformação radiométrica) (CÂMARA et al., 1996).
• A Equalização de Histograma (também conhecida como Achatamento) é uma técnica
que realiza um contraste não linear no histograma, aumentando o contraste em
áreas que possuem maiores concentrações de níveis de cinza/brilho (ZANOTTA,
FERREIRA; ZORTEA, 2019). De fato, tal operação diminui de forma automática o
contraste em regiões muito claras ou muito escuras em uma determinada imagem
(CÂMARA et al., 1996). A Equalização parte do princípio que uma imagem seria mais
bem aperfeiçoada se utilizasse toda a amplitude de valores do histograma (0 a 255),
então, este algoritmo “espalha” as barras verticais, achatando o histograma. De fato,
esta operação atribui mais valores para as porções mais frequentes que ocorrem
no histograma e, assim, os detalhes nessas porções serão mais bem realçados em
relação às outras porções que ocorrem com menos frequência (CCMEO, 2019).

Na Figura 11 temos o exemplo de histogramas na qual foram aplicadas as técnicas de


realce de Mínimo e Máximo, Linear e Raiz Quadrada. Os histogramas em preto são os
originais (entrada) e os histogramas em rosa são os transformados (saída).

FIGURA 11 – EXEMPLOS DE TÉCNICAS DE MANIPULAÇÃO DE HISTOGRAMAS

108
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

FONTE: Adaptada de Rodríguez (2005, p. 30)

Na Figura 12 temos o exemplo de histogramas na qual foram aplicadas as


técnicas de realce de Quadrado, Logaritmo e Negativa. Os histogramas em preto
são os originais (entrada) e os histogramas em rosa são os transformados (saída).

FIGURA 12 – EXEMPLOS DE TÉCNICAS DE MANIPULAÇÃO DE HISTOGRAMAS

FONTE: Adaptada de Rodríguez (2005, p. 31)

É importante salientar que a escolha de um determinado algoritmo de realce de contraste


depende das características do histograma original e das características dos alvos ou
elementos de cena que são de interesse do usuário de SR (JENSEN, 2015). Além disso,
é sempre importante manter backups de imagens, pois a maioria das técnicas de realce
tem como desvantagem a perda de informações radiométricas. Na maioria dos casos,
para usuários iniciais, o melhor realce é encontrado através de sucessivas tentativas

109
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

(testes).

Por fim, vamos considerar um exemplo prático descrito pelo CCMEO (2019). Suponha
que temos uma imagem orbital da desembocadura de um rio do mar, e as porções
no histograma relativas às águas ocupam o intervalo de valores digitais de 40 a 76.
Caso for do interesse em aumentar os detalhes da imagem para melhor visualizar a
água (analisar sedimento em suspensão, por exemplo), poderíamos realçar (expandir)
somente este pequeno intervalo de valores (40 a 76) ao longo de toda a amplitude de
valores (0 a 255). Neste caso, os pixels abaixo ou acima do intervalo de 40 a 76 iriam se
tornar 0 ou 255, respectivamente (ou seja, os detalhes radiométricos das áreas fora de
40 a 76 seriam perdidos). Dessa forma, os detalhes da porção relativa às águas seriam
muito bem realçados (CCMEO, 2019).

5 OPERAÇÕES ARITMÉTICAS

Como vimos na Unidade 1 (Tópico 3), é possível aplicar uma gama de operações
matemáticas e equações em imagens digitais. Isso ocorre porque a matriz de um raster é
composta por pixels que possuem algum valor numérico atrelado (brilho/nível de cinza)
(CRÓSTA, 1992; MENESES; ALMEIDA, 2012; JENSEN, 2015; ZANOTTA, FERREIRA;
ZORTEA, 2019). Na ocasião (Unidade 1), focamos nas operações de divisão ou razão
de bandas, que são as principais operações que utilizamos para produzir os índices
de espectrais (como os índices de vegetação: NDVI, EVI, dentre inúmeros outros).
No entanto, é possível fazer mais algumas operações com as matrizes de pixels do
que somente as divisões, afinal, os raster são matrizes de valores numéricos. Portanto,
as operações aritméticas também são técnicas de realce de imagens. Os softwares
de Geoprocessamento possuem “calculadoras” que são editáveis; ou seja, é possível
produzir a operação aritmética por meio de tal ferramenta.

Conforme Meneses e Almeida (2012), as funções aritméticas quando aplicadas em


imagens/bandas espectrais podem gerar resultados importantes. Nesse contexto, com
exceção da operação de razão ou divisão de bandas (que já foi visto na parte dos índices
espectrais na Unidade anterior), vamos abordar principalmente as operações de adição
(soma), subtração e multiplicação de imagens digitais orbitais (Figura 13).

São operações teoricamente simples, e muito utilizadas para realizar comparações


multiespectrais (diferentes bandas para uma mesma cena) e multitemporais (imagens/
bandas espectrais adquiridas por sobre uma mesma área ao longo de diferentes datas)
(CRÓSTA, 1992). São técnicas realizadas pixel a pixel, e possuem o potencial de ajustar
e suavizar ruídos em imagens, bem como ressaltar áreas de interesse do usuário
(MENESES; ALMEIDA, 2012). O resultado das operações aritméticas será a geração
de uma nova banda (saída) que representa as bandas de entrada (os pixels de entrada).

110
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

DICAS

Para relembrar melhor o conteúdo sobre a razão de bandas, explanado na


Unidade 1, leia o artigo: Processamento de Imagens Digitais – Razão entre Bandas, pu-
blicado na Revista Geociências da UNESP (v. 29, n. 1, 2010). Na íntegra em: http://www.
ppegeo.igc.usp.br/index.php/GEOSP/article/view/7163.

Sabemos que as imagens são compostas por uma matriz numérica (cada
unidade desta matriz é um pixel que possui seu próprio valor de brilho ou nível
de cinza). As operações aritméticas são realizadas pixel a pixel entre bandas ou
imagens espectrais. Observe a Figura 13 a seguir:

FIGURA 13 – OPERAÇÕES ARITMÉTICAS EM DADOS MATRICIAIS

FONTE: Adaptada de Meneses e Almeida (2012, p. 138)

Segundo Câmara et al. (1996), as operações aritméticas são úteis para diminuir o
número de bandas. Contudo, os autores alertam que poderá haver perda de informação
original se os resultados da operação matemática ultrapassarem o intervalo de 0 a 255
(níveis de brilho). Caso isso aconteça, os resultados serão equalizados; isto é, os valores
abaixo de 0 e acima de 255 serão saturados, ocasionando perda de dados espectrais
das imagens (CRÓSTA, 1992; CÂMARA et al., 1996). Ainda, conforme os autores, tais
operações podem demandar algum coeficiente de ganho (multiplicativo) ou de offset
(aditivo), que possuem o objetivo de melhorar o contraste das imagens (isto é, caso
um novo valor fique muito pequeno, haverá um fator de ganho para aumentá-lo). Em
suma, podemos salientar que, em geral, as funções de adição são usadas para enfatizar
similaridades entre imagens ou bandas, ao passo que a subtração e a multiplicação
servem mais para destacar as diferenças espectrais (CÂMARA et al., 1996).

Crósta (1992) define que a adição (soma) é considerada a operação mais simples a
ser realizada em imagens espectrais. De fato, podemos entender essa operação como
uma forma de obter a média entre as imagens/bandas que estão sendo trabalhadas,
o que acaba por diminuir a ocorrência de ruído na imagem. Segundo Meneses e

111
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

Almeida (2012), a soma de imagens também pode ser feita para obter uma banda
pancromática (somando as bandas do visível de um determinado sensor remoto). A
Figura 14 exemplifica este processo de formação de uma banda pancromática por meio
do somatório de três bandas do visível do sensor ETM.

FIGURA 14 – FORMAÇÃO DE UMA IMAGEM NA BANDA PANCROMÁTICA

FONTE: Adaptada de Meneses e Almeida (2012, p. 140)


A subtração objetiva realçar pequenas diferenças espectrais entre imagens
(CRÓSTA, 1992). Da mesma forma como a operação de soma, a de subtração
também é uma operação linear. A partir do conhecimento da assinatura espectral
dos objetos de interesse e o intervalo espectral dos sensores, é possível escolher
quais serão as bandas espectrais selecionadas para estabelecer a diferença

112
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

(CÂMARA et al., 1996). Para Crósta (1992), a subtração é uma operação bem
importante para identificar sutis variações no comportamento espectral de
alvos. Ainda, conforme este autor, as operações de subtração são bem úteis para
identificar diferentes tipos de cobertura vegetal (além de quantificá-las) e também
para identificar minerais que possuem óxido de ferro em sua fórmula química.
Não obstante, tal técnica também pode ser utilizada para detectar mudanças entre
imagens ao longo do tempo, com uma grande aplicação na detecção de mudanças
ambientais e de cobertura do solo, por exemplo. A Figura 15 nos traz um exemplo
da aplicação de um algoritmo de subtração de imagens em diferentes datas, em
ordem para captar mudanças temporais (MENESES; ALMEIDA, 2012).

Na Figura 15 temos a operação aritmética do tipo subtração utilizada


para detectar mudanças entre imagens de diferentes datas. Os tons de cinza na
imagem que é o resultado da operação indicam as áreas que tiveram as maiores
mudanças no período analisado.

FIGURA 15 – EXEMPLO DA OPERAÇÃO ARITMÉTICA DO TIPO SUBTRAÇÃO

FONTE: Adaptada de Meneses e Almeida (2012, p. 143)


Câmara et al. (1996) alerta para a necessidade de equalizar as imagens antes de realizar
a subtração, no caso das médias e dos desvios padrão dos histogramas de ambas não
coincidirem. Esse procedimento visa evitar a detecção de mudanças não reais entre as
imagens. Conforme Meneses e Almeida (2012), a subtração de pixels entre diferentes
imagens espectrais pode gerar resultados máximos negativos (-255) e máximos positivos
(+255), caso ocorra pixels com valores digitais mínimos iguais a zero e máximos igual a
255. Como não existe radiância negativa, é adicionado um valor de 255 na operação (o
valor que seria -255 vai para 0) e, dessa forma, o novo intervalo não vai possuir valores
negativos, pois vai se situar entre 0 a 511. Então, este novo intervalo vai ser dividido
por dois para se obter uma imagem reescalonada com um intervalo comum de 8 bits (0
a 255 níveis de brilho) (MENESES; ALMEIDA, 2012).

A multiplicação é uma operação aritmética não linear que é pouco habitual no


processamento de imagens de SR (CRÓSTA, 1992). Tal operação exige uma compressão
muito grande, uma vez que dois pixels com valor de 255 multiplicados vão gerar um
valor de 65025, sendo necessário transformar novamente para um valor máximo de 255
(8 bits, que é a orientação comum dos novos hardwares de visualização). Conforme

113
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

Crósta (1992), essa operação aritmética evidencia os pixels (informação) que é comum
em ambas as imagens utilizadas no referido procedimento. Ainda, segundo o autor,
a multiplicação de imagens pode ser bem útil para ressaltar feições morfológicas,
situação importante para os campos das Geociências.

Meneses e Almeida (2012) utilizam um bom exemplo compilado de Florenzano et
al. (2001) para mostrar a aplicação prática da operação de multiplicação de bandas
espectrais (Figura 16). No dito exemplo, a multiplicação das imagens foi útil para
integrar a informação espectral com a informação textual da geomorfologia do relevo.
Para tanto, a banda 4 do ETM (Infravermelho próximo), que consegue mostrar os
dados de relevo em regiões com cobertura vegetal, foi multiplicada pelas bandas 2,
5 e 7 (sensor ETM) A seguir, foi feita uma composição colorida com o resultado desta
multiplicação. Compare essa composição gerada por meio da multiplicação de bandas
com uma imagem em composição simples (RGB257) e perceba como a interpretação
do relevo se torna mais intuitiva (FLORENZANO et al., 2001; MENESES; ALMEIDA,
2012).

A Figura 16 nos traz um exemplo da aplicação da operação de multiplicação de bandas


(imagens espectrais orbitais) para uma parte da região Amazônica do Brasil. Em A)
temos uma imagem do Landsat 5 ETM em composição R(5) G(5 B(2) e em B) temos a
mesma área, mas com multiplicação de bandas, e a composição espectral ficou assim:
4×5(R) 4×2(G) 4×7(B).

FIGURA 16 – EXEMPLO DA OPERAÇÃO DE MULTIPLICAÇÃO DE BANDAS

FONTE: Adaptada de Meneses e Almeida (2012, p. 141)

6 TÉCNICAS DE FILTRAGEM

Além da manipulação do histograma e de operações aritméticas entre bandas, outra
técnica muito importante no que concerne o processamento elementar de imagens
digitais é a filtragem. Segundo Câmara et al. (1996), a aplicação de filtros espaciais é

114
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS

feita pixel a pixel e não depende apenas do valor digital do pixel, mas também engloba
o valor de níveis de cinza dos pixels vizinhos. Em geral, os filtros são do tipo passa-
baixa (Low-pass filtering) e passa-alta (High-pass filters). Os primeiros vão suavizar as
imagens (e até desfocá-las), ao passo que os do segundo tipo vão realçar informações
de frequências mais altas (extremos locais, bordas/limites etc.) (CRÓSTA, 1992).
Observe a diferença de ambos na Figura 17. Há ainda o filtro de passa-banda, mas este
é somente utilizado para processamentos mais específicos. Não obstante, as classes de
filtragem também podem ser enquadradas como lineares e não lineares, de acordo com
o algoritmo utilizado.

A operação de filtragem é normalmente feita por máscaras ou janelas móveis, que são
matrizes com valores numéricos de pixels vizinhos (o tamanho da “máscara” é definido
pelo usuário). Podemos utilizar as operações de filtragem para aumentar nosso poder
de interpretação em uma imagem ou para extrair informações dela. Por exemplo, se
o valor de cada pixel em uma nova imagem for o resultado da média de nove pixels
vizinhos da imagem original, vamos ter uma suavização.

FIGURA 17 – EXEMPLO DA APLICAÇÃO DE FILTROS PASSA-BAIXA E PASSA ALTA

FONTE: Adaptada de Câmara et al. (1996, s.p.)

A Figura 18 mostra o funcionamento de filtragem do tipo de máscara


(janela), na qual o valor de um pixel da imagem de saída é formado por meio
da média da soma de nove pixels vizinhos multiplicados por um coeficiente ou
algoritmo. A operação se repete sucessivamente (a janela se move linha por linha
e coluna por coluna). A máscara/janela vai possuir um número ímpar de linhas e
colunas (3x3, 5x5, e assim por diante). O tamanho da janela vai influenciar a taxa
de uma suavização de uma dada imagem (ZANOTTA, FERREIRA; ZORTEA,
2019).

A Figura 18 apresenta o funcionamento de filtragem por máscara ou janela.


O valor de um novo pixel (na imagem de saída) é calculado através dos valores de
nove pixels vizinhos da imagem original (imagem de entrada). A máscara muda
de posição na imagem original. Note que os valores foram arredondados.

115
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

FIGURA 18 – FUNCIONAMENTO DE FILTRAGEM POR MÁSCARA OU JANELA

FONTE: Adaptada de: <https://eo.belspo.be/en>. Acesso em: 19 nov. 2020.


Segundo Meneses e Almeida (2012), a maior parte dos filtros espaciais vai
utilizar um operador de convolução discreta. Conforme os autores, a convolução
é uma espécie de operador matemático que vai lidar com a imagem e com o filtro.
Por fim, é crucial escolher uma janela com os coeficientes adequados para obter
o melhor resultado.

DICAS

Uma publicação on-line interessante para fixar seus conhecimentos, apren-


dendo algumas técnicas novas, além das esboçadas nesta seção, consiste no artigo:
Processamento de Imagens: Métodos e Análises. Trata-se de um artigo curto (12 pági-
nas), mas com um excelente material preparado pelo Dr. Marcio Portes de Albuquerque e
pelo Dr. Marcelo Portes de Albuquerque, ambos do Centro Brasileiro de Pesquisas Físicas
(CBPF). Publicação disponível na íntegra em: http://www.cbpf.br/cat/pdsi/pdf/Processa-
mentoImagens.PDF.

116
RESUMO DO TÓPICO 1

Neste tópico, você aprendeu que:

• Há certa divisão do processamento de imagens digitais em: pré-processamento,


realce e extração de dados.

• Os produtos de SR obtidos por meio de agências disponibilizadora (e.g. INPE,


USGS) são classificados em níveis de acordo com o que já foi pré-processado por ela
para o usuário final.

• É de suma importância analisar os metadados dos produtos de SR, bem como


informações das agências, para o usuário saber o que de pré-processamento já foi
feito e o que ainda falta fazer de correções.

• As principais correções empregadas no pré-processamento de imagens de SR são as


do tipo radiométricas e as geométricas. Tais correções têm que ser feitas porque os
instrumentos, a atmosfera e o arranjo do sistema sensor-alvo (geometria) são fontes
de erro e distorção.

• Os procedimentos de correção radiométrica, que também englobam as correções


atmosféricas, normalmente envolvem a conversão do número digital para radiância
espectral (no sensor), seguido da conversão da radiância espectral para reflectância
aparente ou de topo da atmosfera (TOA) e, por fim, remoção dos efeitos de absorção
e espalhamento da atmosfera, gerando a reflectância de superfície.

• As correções geométricas são realizadas para reparar erros na geometria das imagens
(forma, localização, dimensão etc.). Há muitas fontes de erros nessa classe. Podemos
agrupar os erros em sistemáticos (previsíveis) e não sistemáticos (aleatórios), e
internos ou externos.

• Os histogramas correspondem às informações estatísticas básicas das imagens, é um


tipo de gráfico que contém informações radiométricas e não contém informações
espaciais. O Eixo X do histograma é o intervalo de digitais disponíveis (0 a 255, para
8 bits) e o eixo Y é número de pixels da imagem (distribuição estatística/frequência).

• Há várias técnicas que visam manipular os histogramas para aumentar a capacidade


de interpretação para o usuário. A manipulação não cria informação, apenas pode
mostrar o que está “escondido” na imagem.

• Além da razão de bandas, utilizadas para produzir os índices de vegetação (e.g.


NDVI), há outras operações aritméticas que são utilizadas para realçar similaridades
ou diferenças entre bandas/imagens espectrais, são elas: soma (adição), subtração e
multiplicação.

117
• As técnicas de filtragem são feitas pixel a pixel e consideram o valor de níveis de
cinza/brilho da vizinhança (pixels vizinhos), utilizando máscaras ou janelas móveis
de número ímpar. Os filtros mais comuns são os do tipo passa-baixa (Low-pass
filtering) e os do tipo passa-alta (High-pass filters).

118
AUTOATIVIDADE
1 Os sistemas sensores remotos aéreos e orbitais permitem coletar vários tipos de
dados. No entanto, existem alguns erros e distorções associados a esta coleta. Dessa
forma, é necessário pré-processar os dados de SR, para remover ou compensar
os erros e assim, utilizá-los devidamente. Além disso, é importante analisar o
nível de processamento elementar que um dado produto de SR foi entregue por
alguma agência de distribuição. A respeito das técnicas de pré-processamento,
analise as afirmativas a seguir:

I- O pré-processamento de imagens de SR consiste basicamente na análise das


características geométricas e radiométricas dos sensores, e envolvem correções
destas duas propriedades.
II- O pré-processamento é somente realizado em composições RGB de sensores
presentes na série de satélites Landsat.
III- Entre as técnicas de pré-processamento radiométricas, estão: altitude de voo,
velocidade de voo e georreferenciamento.
IV- Os erros geométricos podem ser sistemáticos ou não sistemáticos, e internos
ou externos.
V- As correções radiométricas levam em conta a presença da atmosfera.

Assinale a alternativa CORRETA:


a) ( ) As afirmativas I, II e III estão corretas.
b) ( ) As afirmativas I, III e V estão corretas.
c) ( ) As afirmativas I, IV e V estão corretas.
d) ( ) Todas as alternativas estão corretas.
e) ( ) Nenhuma das alternativas está correta.

2 A aplicação de operações matemáticas em imagens de satélite é uma etapa


importante no processamento de imagens, e é muito utilizada tanto para realçar
similaridades quanto diferenças entre bandas ou imagens espectrais. São técnicas
realizadas pixel a pixel. Uma das mais importantes consiste na divisão ou razão
de bandas (que são utilizadas para produzir os índices espectrais de vegetação).
Além disso, há algumas outras operações importantes como a soma (adição),
a subtração e a multiplicação. Sobre o objetivo geral destas três operações
aritméticas, assinale a alternativa CORRETA:

a) ( ) A soma é utilizada para minimizar a presença de ruído. A subtra-


ção é usada para realçar diferenças espectrais e a multiplicação,
embora menos comum, pode ser utilizada para ressaltar (realçar)
feições geomorfológicas.
b) ( ) A soma é utilizada para produzir os índices espectrais da água. A
subtração é usada para minimizar e generalizar diferenças espec-
trais e a multiplicação, embora menos comum, pode ser utilizada
para ressaltar feições geomorfológicas.
c) ( ) A soma é utilizada para aumentar a presença de ruído. A subtração
é usada para realçar grandes diferenças espectrais e a multiplica-
ção, embora menos comum, pode ser utilizada para ressaltar simi-
laridades nas bandas espectrais.

119
d) ( ) A soma é utilizada para realçar pequenas diferenças espectrais.
A subtração é usada para realçar similaridades espectrais e a
multiplicação, embora menos comum, pode ser utilizada para não
ressaltar similaridades nas bandas espectrais.
e) ( ) Todas as operações aritméticas só são utilizadas para realçar
similaridade entre bandas ou diferentes imagens.

3 No processamento digital de imagens, as estatísticas das imagens são


apresentadas em um histograma em tons de cinza (estes histogramas representam
a distribuição de frequência dos valores de cinza dos pixels). A forma e arranjo de
um histograma descreve a faixa de contraste de uma imagem espectral, e permite
caracterizá-la com relação a sua homogeneidade ou heterogeneidade de valores.
Uma distribuição de escala de cinza com um máximo extremo indica pequeno
contraste. Observe as imagens e os histogramas a seguir e, em seguida, assinale a
alternativa CORRETA:

FONTE: Adaptada de: <https://seos-project.eu/>. Acesso em: 19 nov. 2020.

a) ( ) O histograma A pertence a imagem 2, e foi utilizada alguma


função de concentração de valores do histograma para melhorar
a visualização.
b) ( ) O histograma B pertence a imagem 2, e foi utilizada alguma
função de concentração de valores do histograma para melhorar
a visualização.
c) ( ) O histograma A pertence a imagem 1, e foi utilizada alguma
função de concentração de valores do histograma para melhorar
a visualização.
d) ( ) O histograma B pertence a imagem 2, e foi utilizada alguma
função de espalhamento ou expansão de valores do histograma
para melhorar a visualização.
e) ( ) O histograma B pertence a imagem 2, e não foi utilizada funções
de espalhamento ou expansão de valores do histograma, pois
os histogramas são fixos.

120
UNIDADE 2 TÓPICO 2 —

FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS

1 INTRODUÇÃO

No tópico anterior, você teve a oportunidade de estudar algumas questões
importantíssimas no que dizer respeito ao uso de produtos de Sensoriamento Remoto
(SR), especialmente as imagens geradas por sensores a bordo de satélites em órbita ao
redor do nosso planeta. Vimos os diferentes níveis que certa agência disponibiliza uma
imagem; isto é, o quanto de pré-processamento essa agência já fez numa determinada
imagem antes de você baixá-la. É crucial avaliar os metadados das imagens, bem
como as informações básicas que cada agência de distribuição sempre fornece sobre
seus produtos. Não obstante, também vimos como que se procede para realizar as
correções radiométricas e geométricas, que compõe o pré-processamento de imagens
orbitais digitais; as principais técnicas de realce de contraste, por meio da manipulação
e expansão dos histogramas e de operações matemáticas; bem como as técnicas de
filtragem.

Todavia, há vários outros tipos de processamento de imagens que visam aumentar
o poder de visualização e, consequentemente, análise/intepretação por parte do
usuário de Geoprocessamento que utiliza produtos de SR. Nesse contexto, veremos
alguns processamentos muito úteis, que são rotineiramente utilizados por usuários
de Geoprocessamento. Observaremos, então, a fusão de imagens, os métodos de
segmentação e os mosaicos. Ao longo desta seção, serão indicadas leituras para
complementar o entendimento do assunto. A ciência do tratamento de imagens de SR
é complexa, e requer muita leitura, estudo e prática.

2 FUSIONAMENTO DE IMAGENS ORBITAIS



De um jeito bem simplificado, a fusão é o processo que consiste em combinar ou
juntar diferentes imagens orbitais com o intuito de aumentar a resolução espacial de
um produto multiespectral final (em cores). Os sensores multiespectrais possuem um
campo de visão instantâneo (IFOV) mais largo (isto é, maior tamanho de pixel e menor
resolução espacial) em contraste aos sensores da banda pancromática, que, por sua
vez, possuem uma maior largura de banda e menor IFOV (menor tamanho de pixel e
maior resolução espacial, mas com menor distinção espectral) (GHASSEMIAN, 2016).
Então, com a utilização de um processamento correto, é possível combinar o melhor
da ambos, produzindo imagens coloridas (sintética) com alta resolução espacial e alta
resolução espectral (Figura 19).
O fusionamento de imagens espectrais obtidas a partir de sistemas sensores remotos
possui um papel muito importante no que tange à extração de informações dos
produtos.

121
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

DICAS

Amplie seus conhecimentos por meio da leitura da seguinte publicação:


Tutorial do Sensoriamento Remoto. Publicação de 2013, gratuita e fundeada pela União
Europeia. É um material bem ilustrado (337 páginas) e com vários exemplos, e pode ser
baixado no site da Sociedade de Geociências e Sensoriamento Remoto (GRSS, sigla em
inglês). Na integra em: https://www.grss-ieee.org/wp-content/uploads/2014/07/PT_TU-
TORIAL_COMPLETO.pdf.

Na Figura 19 temos um exemplo da aplicação do método de fusão de


imagens a partir de uma imagem na banda pancromática com uma composição
colorida (multiespectral). A imagem fusionada é idealizada para manter uma alta
resolução espacial com o advento das cores.

FIGURA 19 – FUSÃO DE IMAGEM DE SATÉLITE

FONTE: Adaptada de González et al. (2014, p. 224)

Há três fatores principais que uma determinada técnica de fusão de


imagem deve considerar: (I) eficiência computacional; (II) preservação da alta
resolução espacial e (III) redução da distorção de cores (CHOI, 2006). Segundo
González et al. (2014), há algumas vantagens proporcionadas pelo fusionamento
de imagens, dentre as quais:

• aumento da qualidade visual de imagens e, consequentemente, aumento na


capacidade de interpretação;
• melhoria na detecção e extração de feições e recursos nas imagens;

122
TÓPICO 2 — FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS

• aperfeiçoamento no processo de classificação temáticas de imagens;


• melhoria na distinção nas análises multitemporais de imagens de satélite.

DICAS

Para fixar melhor seus conhecimentos em relação às técnicas de fusão de


imagens orbitais, você pode ler o artigo: Avaliação de Técnicas de Fusão de Imagens
Orbitais Utilizando Produtos do Satélite CBERS 4 para a APA do Rio Machado-MG
(Caderno de Geografia, v. 30, Número Especial 1, 2019). Na íntegra em: http://periodicos.
pucminas.br/index.php/geografia/article/view/p.2318-2962.2019v29nespp58.

Esta técnica de fusão entre uma imagem de alta resolução espacial na


banda pancromática e uma imagem multiespectral de baixa resolução espacial
para se obter uma imagem multiespectral de alta resolução é chamada de
Pansharpening (ZANOTTA, FERREIRA; ZORTEA, 2019). Em outras palavras,
tal técnica usa uma banda pancromática para aumentar a nitidez de três bandas
(composição) de resolução especial mais baixa. As bandas a serem fusionadas
podem ser do mesmo sensor ou de diferentes sensores e datas, mas quando
a fusão é feita para bandas do mesmo sensor, o desempenho da técnica é
maximizado (JENSEN, 2015). Por exemplo: o sensor ETM+ do Landsat exibe
30 m de resolução espacial para as bandas 1 (azul), 2 (verde), 3 (vermelho),
4 (NIR), 5 (mid-NIR) e 7 (mid-NIR), ao passo que a sua banda pancromática
(banda 8), possui 15 m de resolução espacial. Então, podemos fazer alguma
combinação RGB com três diferentes bandas da 1 a 7 (composição colorida), e
utilizar a banda 8 para deixar o produto final com 15 m de resolução espacial.

Há alguns algoritmos disponíveis para a realização desse procedimento,


onde podemos destacar os mais comuns: Brovey (cor normalizada), IHS
(Intensidade, Matiz e Saturação) e a ACP (Análise de Componentes Principais
– PCA). Caso seja necessário, revise os conteúdos sobre o IHS e sobre a ACP
expostos na Unidade 1. A Figura 20 traz exemplos da aplicação destes três
algoritmos, conforme o manual técnico online do software livre GRASS.

A Figura 20 em: A) temos uma composição multiespectral colorida


RGB (542) do ETM+/Landsat com 30 m de tamanho de pixel (res. espacial).
Em B) a composição foi fusionada com a banda pancromática (15 m de res.
espacial) pelo algoritmo de Brovey, em C) pelo algoritmo de IHS e em D)
foi feita fusão com o algoritmo de ACP. As imagens em B), C) e D) possuem
resolução espacial de 15 m, ao passo que a imagem em composição RGB (A)
sem fusão possui 30 m.

123
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

FIGURA 20 – EXEMPLOS DE ALGORITMOS DE FUSÃO DE IMAGENS (PANSHARPENING)

FONTE: Adaptada de: < http://bit.ly/3bKqZwf >. Acesso em: 19 nov. 2020.

Conforme Meneses e Almeida (2012), o fusionamento por IHS ocorre em duas etapas:
a primeira consiste em transformar uma composição RGB para o espaço de cores IHS
e a segunda corresponde à substituição do componente I (com a preservação dos
componentes H e S) pela banca pancromática. Feito isso, é feita uma conversão para
o espaço RGB novamente (lembre-se que nossos monitores operam em RGB). Dessa
forma, podemos representar a sua operação assim: RGB → IHS → [Pan]HS → RGB.
Tal algoritmo, presente na maior parte dos softwares livres e comerciais, possui a
desvantagem de trabalhar com apenas a fusão de três bandas com uma banda (imagem)
de alta resolução.

O método de Brovey é baseado em uma equação matemática envolvendo soma,


multiplicação e divisão em cada uma das três imagens multiespectrais de baixa
resolução espacial e na imagem da banda pancromática (alta resolução espacial); na
qual cada uma das bandas (multiespectrais) é multiplicada pela banda pancromática
e, logo em seguida, dividida pelo somatório das bandas multiespectrais (MENESES;
ALMEIDA, 2012). Segundo estes autores, o algoritmo de Brovey possui vantagens
com relação ao algoritmo IHS quando as bandas espectrais se localizam na região do
infravermelho.

O algoritmo de ACP não limita o número de bandas que podem sofrer fusão, como
é o caso do IHS e do Brovey. Neste caso, uma Análise de Componentes Principais
é realizada nas três bandas multiespectrais de resolução inferior, criando três
componentes principais (PC1, PC2 e PC3). A banda pancromática vai, então, substituir

124
TÓPICO 2 — FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS

a nova banda PC1 criada. Segundo Meneses e Almeida (2012), são realizados alguns
processamentos na banda pancromática antes de tal substituição, como: equalização de
média e variância, para que ela se torna mais similar à PC1.

3 MOSAICOS
Mosaicagem é o nome do processo de combinar ou juntar dois ou mais produtos de SR
que são contíguos/adjacentes ou sobrepostos uns aos outros (WOLF; DEWITT, 2000).
Os mosaicos servem para criar um único raster a partir de várias outras imagens, em
ambiente com georreferência (Figura 21).

As imagens orbitais e aéreas, que são obtidas por sistemas sensores, possuem dimensão
matricial limitada (tamanho do raster). Daí surge a necessidade de fazer mosaicos com
várias imagens caso a área de interesse seja muito extensa (ELMIRO, 1996). A seguir,
Elmiro (1996) enumera quatro estágios gerais para se obter um mosaico de imagens
digitais:

• (I) – Registro ideal das imagens.


• (II) – Ajuste da tonalidade de cinza das imagens a sofrerem fusão, por meio da
equalização radiométrica das cenas (para todas apresentarem a mesma “escala” de
cores).
• (III) – Criação das linhas de junção e ajuste de bordas.
• (IV) – Suavização de diferenças de cores que possam ocorrer.

A Figura 21 nos dá um exemplo de mosaico. Através de junção de seis imagens, foi


criada uma única cena. Tal procedimento acelera o processo de análise de imagens,
caso usuário esteja interessado em áreas extensas. É um procedimento muito mais
comum em imagens aéreas.

FIGURA 21 – PROCESSO DE FORMAÇÃO DE UM MOSAICO

FONTE: Adaptada de: <http://bit.ly/35uq139>. Acesso em: 19 nov. 2020.

125
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

As imagens selecionadas para fazer os mosaicos podem também apresentar sobrepo-


sição (overlap). Os valores dos pixels das áreas de sobreposição de raster podem ser
tratados de várias maneiras diferentes: pode ser feito uma média de valores, pode ser
escolhido os maiores ou menores valores, pode ser escolhido os valores do raster 1
ao invés do raster 2, por exemplo. Além do mais, alguns detalhes têm que ser leva-
dos em conta, como a projeção de coordenadas, que é aconselhável que seja a mesma
para todas as imagens a serem transformadas em mosaicos, bem como o número de
bandas. Os softwares de Geoprocessamento que lidam com imagens de SR possuem
as ferramentas para produzir uma imagem a partir da junção de várias outras, tanto
sobrepostas quanto contíguas.

Não obstante, rotineiramente é necessário realizar um procedimento que é o antagôni-
co ao mosaico, que é o recorte (clipagem e extração) de imagens (informação). Neste
caso, a imagem de satélite é muito grande para uma determinada aplicação, então as
informações podem ser reduzidas para uma área menor (área de interesse). Por exem-
plo: imagine que você esteja trabalhando com uma cena do Landsat 8 OLI (que possui
dimensão de 185 × 180 km) para a identificação de áreas vegetadas e não vegetadas
para uma área de 25 km², não faz sentido utilizar a cena inteira, pois quanto maior o
tamanho do raster, maior é o custo computacional e mais demorado será para realizar
o devidos tratamentos e processamentos na imagem digital. Então, deve-se selecionar
a área de interesse, cortando a imagem por algum polígono de área; isto é, extraindo
toda a informação (sem perder dados) para a área menor desejada (Figura 22).

É possível fazer o recorte por meio de polígonos de várias maneiras, mantando a área
de dentro do polígono ou mantendo a área de fora do polígono. O resultado do recorte
é um novo raster. Vale ressaltar que alguns softwares fazem distinção entre a nomen-
clatura de recorte de vetores e de raster. Neste caso, clipagem é mais reservada para
os dados vetoriais e extração (e.g. extração por máscaras) é associada para os dados
matriciais. Contudo, ambos possuem a mesma finalidade: reduzir o tamanho da área
dos dados, para trabalhar somente com a área de interesse. Não obstante, é possível
recortar imagens por atributos, por exemplo. No caso da figura 22 a seguir, o interesse
estava numa área menor do que a imagem.

FIGURA 22 – EXEMPLO DE CLIPAGEM POR POLÍGONO

FONTE: Adaptada de: < https://bit.ly/3qdwbMP >. Acesso em: 19 nov. 2020.

126
TÓPICO 2 — FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS

DICAS

Para ampliar seus estudos, você pode ler a Circular Técnica nº 30 (dezembro
de 2014) da Embrapa. A publicação “Geração do mosaico de Moçambique a partir de
imagens do satélite Landsat 8” mostra um passo a passo bem prático, desde a aquisição
da imagem até a produção do mapa final. O processo mostrado na Circular poderá ser
extrapolado para a produção de mosaicos digitais em geral. Na íntegra em: http://bit.
ly/3oyjITD.

4 SEGMENTAÇÃO DE IMAGENS

Conforme González et al. (2014), a segmentação é uma das primeiras etapas realizadas
quando vamos propriamente analisar as informações de uma determinada imagem.
Câmara et al. (1996) (Tutorial de Geoprocessamento do software SPRING), diferenciam
a classificação estatística, que consiste no procedimento convencional de análise de
imagens por meio da análise isolada de pixels (veremos este conteúdo no próximo
tópico), e a segmentação de imagens, que é baseada na divisão da imagem em regiões
de interesse, que, por sua vez, corresponde às áreas de interesse por parte do usuário
(finalidade/aplicação do projeto). Dessa forma, a segmentação de imagens corresponde
ao processamento de agrupar pixels que são similares (MENESES; ALMEIDA, 2012).
Melhor dizendo, a segmentação é o procedimento de subdividir as imagens a partir
de características como o valor de pixel, nível de brilho ou textura (HUSSAIN, 1991).

Segundo Kaur (2015), o objetivo da segmentação é sempre simplificar e/ou transformar


a representação de uma imagem em algo mais significativo e simples de analisar.
Dessa forma, a segmentação de imagens é normalmente usada para localizar
objetos e limites (linhas, curvas etc.). É um processamento realizado antes da fase
de classificação das imagens (veremos o conteúdo de classificação de imagens no
próximo tópico). Isto porque, na segmentação, a imagem será dividida em regiões
espectralmente homogêneas e, a partir de algumas dessas regiões, o treinamento do
classificador será feito (MOREIRA, 2003). Tais regiões formadas pela segmentação serão
analisadas por algoritmos para “buscar” informações de interesse (ALBUQUERQUE;
ALBUQUERQUE, 2001).

O que são as regiões? Para Câmara et al. (1996), as regiões podem ser definidas como “um
conjunto de pixels contíguos, que se espalham bidireccionalmente e que apresentam
uniformidade”. Essas regiões uniformes devem corresponder às áreas de interesse.
Então, para fixar bem, a segmentação é a primeira fase do processo de classificação por
regiões.

Em geral, a segmentação pode ser baseada nas descontinuidades e nas similaridades


das diferentes características (pixels) das imagens. As primeiras representam
mudanças bruscas nas tonalidades de tons de cinza, cores ou texturais, ao passo que
as da segunda categoria se baseiam no quanto os pixels são mais parecidos entre si.

127
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

De um jeito mais simples: ou consideramos a semelhança entre os valores de pixels ou


consideramos suas diferenças. Assim, o usuário definirá o limite de similaridade (ou
descontinuidade) e o tamanho mínimo para os polígonos a serem gerados (quantidade
de pixels que uma dada região vai ter) (MENESES; ALMEIDA, 2012). A Figura 23
mostra quatro exemplos com variação dessas duas variáveis mencionadas (limiar de
similaridade e tamanho para os polígonos em número de pixels).

De uma forma um pouco mais aprofundada, há três processos de dividir uma imagem
por regiões: (I) crescimento de regiões; (II) detecção de bordas/limites e (III) combinação
destes dois (MOREIRA, 2003). Estes três segmentadores estão presentes no software
livre SPRING. Há ainda uma forma de dividir a imagem chamada de “detecção de
bacias”, na qual tal classificação é feita a partir da imagem que resulta do procedimento
de extração de bordas (CÂMARA et al., 1996). Segundo Moreira (2003), o INPE utiliza
o segmentador de crescimento por regiões para analisar áreas agrícolas ou áreas com
florestas (Amazônia), uma vez que tal processo apresenta bom desempenho para esta
finalidade. Nesta técnica (crescimento de regiões), somente as áreas espacialmente
contíguas serão agrupadas conforme o critério de similaridade definido pelo usuário.
No início do processo, a região pode ser um pixel ou um grupo de pixels, e para cada
região, o segmentador calculará as seguintes propriedades espectrais: média, variância
e textura (MOREIRA, 2003).

Na segmentação de imagens por crescimento de regiões, o valor limite de similaridade


corresponde ao valor mínimo abaixo em que duas classes são ditas semelhantes e
agrupadas em uma única região, ao passo que o valor limiar de área definirá a quantidade
mínima de pixels que são necessários para que uma área seja de fato individualizada
(MOREIRA, 2003). De acordo com Câmara et al. (1996), o critério de similaridade é
feito com base em um teste estatístico que pondera a média entre as regiões. Então, a
imagem será dividida e posteriormente unida seguindo o limiar de agregação definido
pelo usuário. Observe novamente a Figura 23 e note como que a segmentação muda
conforme alternamos estas duas varáveis elementares. Não obstante, através da análise
da figura mencionada, é possível inferir que o resultado da segmentação é uma matriz
de N polígonos.

DICAS

Aprenda um passo a passo bem prático sobre o processamento de imagens


de alta resolução no que tange a segmentação e classificação de imagens, desenvolvida
para o software eCognition®. Lançado em 2016, o livro digital e gratuito intitulado de:
“Uso do eCognition 8.9 para classificação de imagem de alta resolução” é de autoria de
pesquisadores/professores da Universidade Estadual do Rio Grande do Norte (UERN) e da
Universidade Federal do Mato Grosso do Sul (UFMS). Na íntegra em: http://www.uern.br/
biblioteca/edicoesuern/default.asp?item=edicoes-uern-ebooks-2016.

128
TÓPICO 2 — FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS

Na Figura 23 temos a segmentação de imagens de satélite (padrão espacial).

• Em A) temos uma imagem segmentada com limiar de similaridade em 15 e área


(pixels) em 50.
• Em B) temos uma imagem segmentada com limiar de similaridade em 15 e área
(pixels) em 100.
• Em C) temos uma imagem segmentada com limiar de similaridade em 30 e área
(pixels) em 100.
• Em D) temos uma imagem segmentada com limiar de similaridade em 50 e área
(pixels) em 100.

FIGURA 23 – IMAGENS SEGMENTADAS COM DIFERENTES LIMIARES DE SIMILARIDADE

FONTE: Adaptada de Meneses e Almeida (2012, p. 211-213)

129
RESUMO DO TÓPICO 2

Neste tópico, você aprendeu que:

• Fusionamento é a técnica que visa combinar ou juntar diferentes imagens orbitais


com o intuito de aumentar a resolução espacial de um produto multiespectral final
(em cores).

• A fusão de imagens utilizando a banda pancromática (Pansharpening) propicia


algumas vantagens como o aumento da qualidade visual de imagens (aumento na
capacidade de interpretação) e uma melhora na detecção e extração de feições e
recursos nas imagens.

• Há alguns algoritmos disponíveis para a realização da fusão de imagens de


Sensoriamento Remoto (SR), onde podemos destacar: Brovey (cor normalizada),
IHS (Intensidade, Matiz e Saturação) e a ACP (Análise de Componentes Principais
– PCA).

• Os mosaicos são o processo de combinar ou juntar duas ou mais imagens que são
contíguas/adjacentes ou sobrepostas umas às outras. Os mosaicos servem para criar
um único raster a partir de várias outras imagens. São importantes quando a área
de interesse de um projeto é muito extensa (isto é, abarcam mais de uma cena de
satélite).

• Comumente é necessário realizar um procedimento que é o antagônico ao mosaico,


que é o recorte dos dados por meio da clipagem (dados vetoriais) e extração (dados
matriciais/imagens). Neste caso, a imagem de satélite é muito grande para uma
determinada aplicação, então as informações podem ser reduzidas para uma área
menor (área de interesse), e assim economizar tempo de processamento.

• É possível fazer o recorte por meio de polígonos de várias maneiras, mantendo a


área de dentro do polígono ou a área de fora do polígono, por exemplo. O resultado
do recorte é sempre um novo raster (o dado original é mantido).

• A segmentação de imagens é baseada na divisão da imagem em regiões, que, por


sua vez, corresponde às áreas de interesse por parte do usuário.

• As regiões podem ser definidas como um grupo de pixels contíguos, que se espalham
de forma bidirecional e que apresentam uniformidade. Essas regiões uniformes
devem corresponder às áreas de interesse.

• A segmentação pode ser baseada nas descontinuidades e nas similaridades das


diferentes características (pixels) das imagens, ou seja, consideramos a semelhança
entre os valores de pixels ou consideramos suas diferenças.

130
• Há três formas principais de segmentar uma imagem em regiões: (I) crescimento de
regiões; (II) detecção de bordas/limites e (III) combinação destes dois. Há ainda uma
forma de dividir a imagem chamada de “detecção de bacias”, na qual tal classificação
é feita a partir da imagem que resulta do procedimento de extração de bordas.

131
AUTOATIVIDADE

1 O imageamento por sistemas sensores, especialmente os que ficam a bordo de


satélites, fornecem uma visão consistente e constante da Terra. Tais sensores, com
o intuito de atender as diferentes necessidades, mostram uma grande variedade de
resolução espacial, espectral, radiométrica e temporal. Normalmente, os sensores
adquirem imagens em várias bandas do espectro eletromagnético, na região do
visível e nas regiões em que os olhos humanos não enxergam. No entanto, eles
não conseguem combinar uma alta resolução espectral junto a uma alta resolução
espacial. Nesse contexto, um procedimento interessante está na fusão de imagens.
Sobre o que conceitua a técnica mencionada, assinale a alternativa CORRETA:

a) ( ) A Fusão permite combinar imagens com diferentes resoluções espaciais


e espectrais, sem perder a informação radiométrica. Brovey, IHS e ACP
são exemplos de algoritmos de fusão de imagens.
b) ( ) O Fusionamento permite combinar rasters somente com diferentes
resoluções espectrais, mas há uma grande perda a informação
radiométrica. Brovey, IHS e ACP são exemplos de algoritmos de fusão
de imagens.
c) ( ) A Fusão de imagens permite somente combinar imagens com as mesmas
resoluções espaciais e espectrais, no entanto há perda da informação
radiométrica. Brovey, Tasseled Cap e ACP são exemplos de algoritmos
de fusão de imagens.
d) ( ) O Fusionamento funciona para combinar imagens com diferentes resolu-
ções temporais e radiométrica, aumentando a informação espacial. RGB e
IHS são exemplos de algoritmos de fusão de imagens.
e) ( ) A Fusão permite combinar imagens com diferentes resoluções espaciais
e espectrais, mas há grande perda da informação espacial. Brovey, IHS
e ACP são os únicos algoritmos de fusão de imagens.

2 A análise de dados oriundos do Sensoriamento Remoto armazenados em formato


matricial (rasters), comumente associadas às imagens, pode ser realizada num
nível de menor escala (e.g. pixel) ou num nível de maior escala (e.g. cena completa).
Não obstante, podemos ainda realizar procedimento para juntar mais de uma
imagem, transformando rasters separados em um único. Além disso, podemos
também diminuir uma imagem para uma área menor, sem mudar as informações
nela presentes. Nesse contexto, os mosaicos e os recortes (clip e extraction) são
duas operações muito empregadas em imagens de SR. Dessa forma, disserte
brevemente sobre o intuito de cada uma destas classes de operações. Além disso,
exemplifique.

3 A segmentação de imagens permite sua divisão em áreas ou regiões que possuem


uma homogeneidade espectral. É um processamento feito antes das demais
técnicas de classificação digital de imagens. Dois limiares são definidos pelos
usuários na segmentação: o grau de similaridade (valor abaixo em que duas
regiões serão consideradas similares e então serão englobadas em uma única

132
região) e a área (valor mínimo de área, expresso em quantidade/número de pixels,
com o intuito que uma região seja dividida). Há algumas formas ou processos
diferentes de segmentar uma imagem em regiões. Sobre o que apresenta dois
destes processos segmentadores de imagens, assinale a alternativa CORRETA:

a) ( ) Descontinuidades e similaridades.
b) ( ) Matriz de polígonos e similaridades.
c) ( ) Similaridade e área.
d) ( ) Crescimento de regiões e detecção de bordas/limites.
e) ( ) Detecção de bacias e descontinuidades.

133
134
UNIDADE 2
TÓPICO 3 —

CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

1 INTRODUÇÃO
Prezado acadêmico, no tópico anterior, tivemos a oportunidade de estudar uma
parte crucial no que tange à utilização de imagens de Sensoriamento Remoto (SR).
O fusionamento, os mosaicos e a extração (recorte), bem como a segmentação de
imagens, constituem processamentos comumente realizados antes de classificarmos as
imagens, analisando-as e interpretando-as com relação ao seu significado ambiental (o
que a imagem mostra da superfície da Terra?).

As classificações digitais funcionam principalmente baseadas nas propriedades


espectrais dos pixels (padrão espectral), utilizando a seguinte afirmativa: objetos de
natureza similar possuem propriedades espectrais similares. A classificação de imagens
digitais utiliza as informações espectrais das imagens, classificando os pixels com base
nessas informações espectrais. Neste caso, há um reconhecimento de padrão espectral,
atribuindo classes ou temas para os pixels (e.g. água, floresta, solo exposto).

2 NOÇÕES DE CLASSIFICAÇÃO DE IMAGENS


Câmara et al. (1996) definem a classificação como o procedimento de extrair informações
de imagens com o intuito de reconhecer padrões e objetos homogêneos que são
utilizados em SR, em ordem para mapear e identificar locais da superfície da Terra
que correspondam aos temas (classes) de interesse por parte do usuário. Em outras
palavras, o objetivo central da classificação consiste em categorizar todos os pixels
em um único raster que possui várias classes, facilitando a vida do usuário/analista
de Geoprocessamento. Dessa forma, neste único raster gerado (e “classificado”), será
possível identificar de forma mais intuitiva as feições e tipos de cobertura da superfície,
com cada classe/tema possuindo uma única cor ou nível de cinza (uma cor para solo
exposto, uma cor para floresta, uma cor para cultivos etc.).

As classificações digitais funcionam principalmente baseadas nas propriedades


espectrais dos pixels (padrão espectral), utilizando a seguinte afirmativa: objetos de
natureza similar possuem propriedades espectrais similares (Figura 24), ou seja, esses
elementos similares possuem uma assinatura espectral parecida (se for necessário,
revise o conteúdo de comportamento espectral de alvos na unidade anterior). De
fato, as técnicas de classificação de imagens compreendem uma ampla porção das
metodologias de tratamento e processamento de imagens. Muita atenção é dada para
tais técnicas, usa vez que sua aplicabilidade ocorre em praticamente todos os campos
das ciências que lidam com imagens de sistemas sensores, incluindo: planejamento
urbano e rural, recursos naturais, gerenciamento costeiro, agricultura de precisão,
dentre vários outros (LI et al., 2014). Alguns autores clamam que a classificação de

135
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

imagens de SR é a parte mais importante de todo o processo de tratamento de imagens


e PDI (JENSEN, 2015).

Segundo o site do CCMEO (2019), a classificação de imagens digitais utiliza as


informações espectrais das imagens, classificando os pixels com base nessas informações
espectrais. Neste caso, há um reconhecimento de padrão espectral, atribuindo classes
ou temas para os pixels (e.g. água, floresta, solo exposto). Dessa forma, o resultado
da operação é um raster composto por pixels que pertencem a “classes” específicas
(CCMEO, 2019). O que é diferente de uma classificação feita a olho nu por um analista
humano, que utiliza os elementos de interpretação visual para agrupar os pixels mais
similares (este agrupamento de pixels representa atributos ou classes de variáveis, por
exemplo). Lembrando que veremos as etapas e os elementos de interpretação visual de
imagens na próxima unidade.

Na Figura 24 temos a imagem do TM/Landsat 4 de 1992. Composição falsa cor em R


(banda do infravermelho) G (banda do vermelho) B (banda do verde). Nesta composição, é
possível distinguir com um bom grau a água, as estradas, florestas de folhas largas e
florestas de coníferas. De uma forma simples, podemos entender como as classificações
funcionam a partir da seguinte colocação: objetos/alvos similares vão ter assinaturas
espectrais parecidas e, assim, poderão ser agrupados. Local: Represa Plate-Taille, na
Bélgica (Lat. 50°11'03.41"N e Long. 04°22'06.60"L).

FIGURA 24 – DISTINÇÃO DE ELEMENTOS NUMA IMAGEM DE SATÉLITE

FONTE: Adaptada de: <http://bit.ly/3i4PMfx> Acesso em: 19 nov. 2020.

136
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

Com relação às classes/temas, é importante diferenciar as classes de informação e as classes


espectrais (CCMEO, 2019). O primeiro grupo consiste no que o usuário está realmente
buscando, como diferentes tipos de cobertura vegetal, unidades geológicas, plantações
etc. Em contrapartida, o segundo grupo (classes espectrais) correspondem aos pixels
que possuem o seu valor digital (brilho/nível de cinza) similar nos diferentes canais
espectrais da imagem. Para frisar bem, o grande objetivo da classificação é combinar
as classes espectrais com as classes de interesse (CÂMARA et al., 1996; JENSEN, 2015;
CCMEO, 2019).

Segundo Câmara et al. (1996), os classificadores podem ser agrupados em duas grandes
técnicas: (I) pixel a pixel e (II) por regiões. Os classificadores do primeiro grupo fazem
uso apenas da informação espectral de cada pixel para delimitar as regiões/áreas
mais similares (homogêneas). Tais tipos de classificadores podem utilizar estatística
(probabilidade) ou podem ser determinísticos (não utilizam probabilidade) (CÂMARA
et al., 1996). Já os classificadores por regiões fazem uso não só da informação espectral
de cada pixel, mas também utilizam a informação espacial dos pixels da vizinhança. Em
suma, de acordo com Lillesand, Kiefer e Chipman (2015), as técnicas de classificação
baseadas no padrão espectral (pixel a pixel) e no padrão espacial (textura, tamanho,
formato, dimensão etc.). Há ainda o tipo de classificação OBIA (análise de imagem
baseada em objeto), que consiste em considerar tanto o padrão espectral (pixel único)
quanto o padrão espacial (vizinhança de pixels) para construir as classes/temas de
cobertura da superfície terrestre.

Li et al. (2014) sumarizam as técnicas de classificação de imagem de SR de uma


outra maneira. Dessa forma, segundo os autores recém ciados, temos a Tabela 1. A
complexidade dos classificadores de imagens pode variar desde o uso de um valor
simples para uma única banda espectral até algoritmos de decisão baseados em
estatísticas complexas que operam em dados multivariados.

Observamos na Tabela 1 o resumo de grupo de técnicas, suas características e exemplos


de métodos classificadores. Há muitos autores na ciência do Sensoriamento Remoto,
e por isso a nomenclatura de técnicas e classificadores pode variar (são as mesmas
técnicas, mas com nomes diferentes).

TABELA 1 – RESUMO DO GRUPO DE TÉCNICAS DE CLASSIFICAÇÃO

137
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

Técnica de
Características Exemplo de classificadores
classificação

- Não supervisionado (e.g.


k-médias, ISODATA, SOM,
Cada pixel é agrupamento hierárquico)
Técnicas de
considerado puro e - Supervisionado (e.g.
classificação
normalmente associado probabilidade máxima,
de pixel
com uma única classe paralelepípedo, vizinhos k-mais
(padrão
(cobertura de solo, por próximos)
espectral)
exemplo). - Machine Learning (e.g. rede neural
artificial, árvore de classificação,
algoritmos genéticos).

Algoritmo Fuzzy, redes neurais,


Cada pixel é
Técnicas de modelagem de regressão, análise
considerado “misto”, e
classificação de árvore de regressão (CART),
a proporção de área de
de sub-pixel análise de mistura espectral, dentre
cada classe é estimada.
outros.
Objetos geográficos
Técnicas de
(e.g. feições de relevo)
classificação
são considerados Segmentação de imagem e demais
de objetos
como a unidade básica técnicas de análise de imagem
(padrão
de classificação, em baseada em objeto (OBIA).
espacial e
detrimento dos pixels
espectral)
isolados.
FONTE: Adaptada de Li et al. (2014, p. 392)

Após ver a Tabela 1 você pode ter se perguntando: “qual destas metodologias de
classificação é a melhor ou a mais correta?” Conforme Lillesand, Kiefer e Chipman (2015)
explicam, não existe a maneira mais correta para todos os produtos de SR. A técnica
de classificação e o classificador a serem adotados dependerão da natureza dos dados
que estão sendo analisados, dos recursos computacionais disponíveis e da aplicação
pretendida dos dados classificados.

No geral, as duas grandes categorias de procedimentos de classificação do pixel


(isto é, sem considerar o padrão espacial da vizinhança) mais comumente utilizadas
são: classificação supervisionada e classificação não supervisionada (LILLESAND;
KIEFER; CHIPMAN, 2015).

Na classificação supervisionada, o usuário de Geoprocessamento vai definir amostras


espectrais homogêneas e representativas das diferentes classes que compõe a superfície
do solo (classes de informação), ou seja, o usuário vai definir os valores numéricos
de cada classe antes de implementar o algoritmo classificador. Estas áreas amostrais
com valores definidos são chamadas de áreas de treinamento. Já na classificação não
supervisionada, o programa computacional que está sendo utilizado vai analisar a
assinatura espectral de todos os pixels, agrupando-os (CRÓSTA, 1992; LILLESAND;
KIEFER; CHIPMAN, 2015). Tais classificações diminuem (e muito) a necessidade de

138
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

mapeamentos em campo. Portanto, diminuem os custos dos projetos, pois uma área
com uma enorme extensão poderá ser rapidamente classificada. Não obstante, muitos
usuários usam uma combinação de processos de classificação supervisionados e não
supervisionados para desenvolver análises de resultados finais e mapas classificados.

A seguir, veremos melhor algumas características e exemplos de ambos métodos


supracitados.

3 CLASSIFICAÇÃO NÃO SUPERVISIONADA

Como acabamos de ver, na classificação não supervisionada, o software tem liberdade


para definir o valor das classes a partir da análise de todos os pixels que compõe
uma cena. Os algoritmos classificadores desta classe não utilizam dados de áreas de
treinamentos (valores prévios definidos pelo usuário).

Os diferentes algoritmos desta classe de técnicas vão agrupar classes espectrais; isto
é, pixels que possuem valores numéricos similares. O usuário pode definir quantas
classes ele quer, e assim “forçar” uma classificação (BEO, 2020). Neste caso, as classes
são definidas por meio de agrupamentos estatísticos. Por exemplo: imagine que você
tenha uma cena que mostra um lago, uma plantação de soja e uma floresta. Você poderá
definir que a classificação não supervisionada tenha três classes (Figura 25). Dessa
forma, muito provavelmente, o lago, a plantação e a floresta serão bem individualizados
(“classificados”) (LILLESAND; KIEFER; CHIPMAN, 2015). No mais, além do número
de classes, os softwares de Geoprocessamento normalmente permitem definir a
quantidade máxima de interações (número de vezes que o algoritmo de classificação
é executado), e a porcentagem de mudança (valor limite), que diz para o software o
momento de terminar de rodar o algoritmo de classificação.

A maior vantagem deste método está em sua rapidez, uma vez que há pouca
interferência do usuário no processo como um todo (JENSEN, 2015). Entretanto, essa
total “confiança” no computador pode gerar dados falseáveis, uma vez que tais métodos
se baseiam somente nas propriedades espectrais, podendo, assim, não corresponder
a realidade observada no terreno. Um problema que costuma ser comum para estes
tipos de classificadores está na distinção de construções urbanas. Por exemplo: os
classificadores automáticos conseguem distinguir bem várias classes de vegetação de
gramíneas, em contrapartida, tais classificadores costumam agrupar todos os tipos de
construções urbanas (telhados de casas, fábricas, asfalto etc.) em uma só classe (BEO,
2020). Dependendo do objetivo da classificação por parte do usuário, isso pode ser um
grande entrave.

Por fim, o usuário terá que ter a capacidade de interpretar as classes formadas pela
classificação não supervisionada. Em alguns casos, é necessário visitar o terreno para
obter a “verdade-terrestre”, ou seja, associar o dado de SR com o dado observado em
campo. Alguns autores dizem que uma dada categoria de uso do solo tem que ocupar
no mínimo 16 pixels para ser devidamente classificada por um algoritmo automático,
mas este ainda é um tema muito debatido.

Na Figura 25 temos o exemplo simplificado da aplicação de um dos muitos algoritmos


que operam de modo não supervisionado. Somente os níveis de cinza (propriedade
espectral) são analisados para gerar a classificação. Cada pixel será associado com uma

139
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

classe. O número de classes poderá ser definido pelo usuário. As classes formadas não
possuem nome, o usuário irá nomeá-las e devidamente identificá-las.

FIGURA 25 – FUNCIONAMENTO DE UMA CLASSIFICAÇÃO NÃO SUPERVISIONADA

FONTE: Adaptada de: < http://bit.ly/38Ej5Cg > Acesso em: 19 nov. 2020.

De acordo com Lillesand, Kiefer e Chipman (2015), uma abordagem em


várias etapas pode ser necessária para melhorar a representação e a diferenciação
das classes muito amplas feitas numa classificação inicial. Assim, dois ou mais
agrupamentos serão utilizados para “balizar” uma classe de interesse específica,
dando um foco maior para o objeto de interesse por parte do analista (Figura

140
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

26). Utilizando a metodologia explicada por Lillesand, Kiefer e Chipman (2015),


uma classe espectral muito ampla poderá ser dividida em dois, facilitando as
interpretações.

No entanto, é importante frisar que às vezes a identificação do significado


ambiental de uma classe (o que esta classe dividida pelo algoritmo representa?) pode
não ser uma tarefa simples (caso o analista nunca tenha tido contato físico com a
área de interesse). Consultar bibliografias (artigos, relatórios etc.) sobre a área de
interesse é fundamental para associar a classe formada pelo computador com seu
correto significado no mundo real (JENSEN, 2015). Por fim, observe um exemplo
de uma cena classificada de modo automático (não supervisionada), na Figura 27.

DICAS

Você pode fazer o download do programa de código aberto InterIMAGE. É


um sistema multiplataforma feito para interpretação automática de imagens. O sistema
fornece suporte para a integração de operadores de processamento de imagens exter-
nos que podem ser codificados em qualquer linguagem de programação ou até mesmo
serem programas proprietários. Na íntegra em: http://www.lvc.ele.puc-rio.br/projects/
interimage/pt-br/.

A Figura 26 nos traz o processo de classificação não supervisionado em vários estágios


(cada quadrado representa um pixel). (a) Classificação inicial não supervisionada com
uma classe muito ampla (em preto) (esta classe ampla é a nossa classe problema). (b)
Máscara para a classe problema de (a). (c) Agrupamento não supervisionado de pixels
de segundo estágio apenas para a máscara de (b). (d) Subclasses espectrais recodificadas
de (c) atribuídas a classes existentes ou novas de (a). (e) Os resultados de (d) voltaram a
ser integrados na primeira classificação de (a). Dessa forma, a classe problema que era
de difícil divisão, foi classificada.

FIGURA 26 – PROCESSO DE CLASSIFICAÇÃO NÃO SUPERVISIONADO EM VÁRIOS ESTÁGIOS

141
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

FONTE: Adaptada de Lillesand, Kiefer e Chipman (2015, p. 559)

FIGURA 27 – EXEMPLO DA APLICAÇÃO DA CLASSIFICAÇÃO NÃO SUPERVISIONADA

FONTE: Adaptada de: <https://bit.ly/2Xw0UbT>. Acesso em: 19 nov. 2020.

4 CLASSIFICAÇÃO SUPERVISIONADA

Com relação à classificação supervisionada, já sabemos que o usuário selecionará
áreas de uma cena que são espectralmente homogêneas. Estas áreas serão as classes de
informação de interesse, e representam os diferentes tipos de cobertura da superfície
terrestre. Nesse grupo de algoritmos de classificação, como o próprio nome sugere, o
usuário de SR vai supervisionar o processo de classificação de pixels das imagens de
interesse. Existe uma interferência e participação muito mais acentuada do analista
neste tipo de classificação, uma vez que ele vai especificar quais as classes ou temas
associados a valores de pixels ou às assinaturas espectrais de diferentes materiais
(HSU, 2019). De fato, há um bom número de algoritmos de classificação supervisionada
que podem ser usados ​​para atribuir um pixel desconhecido a uma determinada classe
(Tabela 1). A escolha de um determinado classificador vai depender da natureza dos
dados de entrada e de saída desejada (KUMAR, 2004).

142
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS


As áreas ou locais de treinamento são regiões da cena que o usuário já conhece. Dessa
forma, ele utilizará estes valores amostrais para uma classe específica. Por exemplo:
imagine, hipoteticamente, que você configura num programa uma determinada classe
X com valores de pixels entre 100 a 110 (você já sabe que estes valores representam
um tipo específico de cobertura do solo). O algoritmo vai analisar a cena de entrada, e
vai categorizar os pixels com o nível de brilho entre 100 a 110 nesta classe X que você
pré-determinou e sabe o que é (no terreno/mundo real). Analise a Figura 28, e observe
que nesse exemplo o usuário delimitou os valores de 0 a 42 para realizar a classificação.
Este valor foi previamente escolhido, pois o usuário sabe que remete à cobertura de
água na cena (veja a Figura 24 para obter uma ideia central sobre esta cena).

O objetivo neste caso específico da figura 28 foi para classificar água superficial. O
histograma a seguir da cena mostra o intervalo de valores digitais dos pixels (0 a 42,
representando a água). Com isso, selecionando este intervalo de interesse, somente
a água será classificada na imagem. Local: Represa Plate-Taille, na Bélgica (Lat.
50°11'03.41"N e Long. 04°22'06.60"L).

FIGURA 28 – EXEMPLO DE CLASSIFICAÇÃO SUPERVISIONADA

FONTE: Adaptada de: < http://bit.ly/2LxAJPo >. Acesso em: 19 nov. 2020.

143
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

As áreas de treinamento são de suma importância, pois vão definir a qualidade da


classificação (JENSEN, 2015). São locais conhecidos e que representam um tipo
de cobertura de superfície específico. Desse modo, o usuário supervisionará a
classificação, conferindo se ela está seguindo a realidade geográfica do local. Na
classificação supervisionada, ocorre o inverso da não supervisionada; isto é, primeiro
serão identificadas as classes de informação de interesse que serão utilizadas para
determinar a classes espectrais que as representam (RICHARDS; JIA, 2006).

No geral, na classificação supervisionada, a maior parte do esforço por parte do usuário


ocorre antes do processo de classificação em si (HSU, 2019). Este tipo de classificação
pode ser mais preciso que o da não supervisionada, mas isto depende das áreas de
treinamento, das habilidades e experiência do usuário de SR e das propriedades
espectrais das classes que compõem uma cena. Em suma, apesar de ser relativamente
mais precisa, a classificação supervisionada necessita de mais tempo e mais trabalho por
parte do analista (uma vez que o analista tem que saber se uma determinada assinatura
espectral corresponde exatamente a um tipo de cobertura da superfície/solo). Há os
seguintes passos na classificação supervisionada (LILLESAND et al., 2015; HSU, 2020):

• (i) – Coleta da informação espectral das áreas de treinamento e especificação das


áreas de treinamento que serão utilizadas na classificação;
• (ii) – O algoritmo vai atribuir os pixels de uma cena a uma determinada classe
(baseada na área de treinamento);
• (iii) – O usuário de Geoprocessamento vai analisar e interpretar o novo raster
formado com as classes ou temas.

A Figura 29 traz, de forma gráfica e mais didática, as etapas básicas da classificação


supervisionada, conforme Lillesand, Kiefer e Chipman (2015). Conforme os autores,
a primeira etapa consiste na identificação das áreas de treinamento (são áreas que
representam uma classe de interesse em termos espectrais). O segundo estágio consiste
em comparar os valores dos pixels desconhecidos da imagem com os valores das
classes de cobertura do solo (se o pixel não se assemelhar com nenhuma das classes,
ele provavelmente será rotulado como “desconhecido”). A terceira etapa consiste
na apresentação de um novo raster com os pixels da imagem original mostrados em
classes. O raster de saída pode ser um mapa temático, alguma tabela com estatística
de cobertura de solo, dados que podem ser trabalhados em SIG, dentro outros
(LILLESAND; KIEFER; CHIPMAN, 2015).

Geralmente, nenhuma classificação, tanto supervisionada quanto não supervisionada


conseguirá categorizar perfeitamente 100% dos pixels de uma imagem. Alguns pixels,
normalmente localizados nas bordas ou encontro de classes, podem ficar de fora, se
tornando “desconhecidos”. Tais pixels podem dar uma aparência “pontilhada” em um
mapa, atrapalhando a produção do material cartográfico (BEO, 2020). Para resolver
isso, pode-se optar por utilizar alguma técnica de filtragem (filtros modais), para
homogeneizar a classificação por meio da redistribuição de pixels, por exemplo. Os
principais softwares que lidam com imagens orbitais possuem ferramentas para tais
procedimentos.

Há vários algoritmos de classificação supervisionada (ver Tabela 1), e encontrar o


“mais ideal” às vezes envolve várias tentativas. A escolha do algoritmo (tanto para os
métodos supervisionados quanto para os não supervisionados) pode afetar o resultado
da classificação. A Figura 30 mostra exemplos de diferentes algoritmos, englobando
um não supervisionado e dois supervisionados. A referida figura também mostra as

144
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

“classes verdadeiras”; isto é, dados coletados em campo (Ground truth). Novamente,


é necessário ressaltar a necessidade de consultar materiais bibliográficos além dos
sugeridos nesta unidade, uma vez que a arte de processar, tratar e classificar imagens
de Sensoriamento Remoto (SR) exige muita leitura e muito treinamento por parte do
usuário de Geoprocessamento.

Percebemos na Figura 29 as etapas básicas do processo de categorização dos pixels das


imagens com a orientação do usuário.

FIGURA 29 – CLASSIFICAÇÃO SUPERVISIONADA

FONTE: Adaptada de Lillesand, Kiefer e Chipman (2015, p. 540)

Na Figura 30 percebemos: A) temos uma imagem de alta resolução. B) mostra as classes


levantadas em campo (Ground truth). Em C) temos o mapa temático da classificação
não supervisionada pelo algoritmo K-Means. Já em D) e E) é exibida a classificação
supervisionada pelos algoritmos Mapeamento por Ângulo Espectral (SAM) e Support
Vector Machine (SVM), respectivamente.

FIGURA 30 – EXEMPLOS DE DIFERENTES TÉCNICAS E ALGORITMOS DE CLASSIFICAÇÃO PARA

145
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

UMA MESMA ÁREA

FONTE: Adaptada de Ceamanos e Valero (2016, p. 185)

DICAS

Aprenda um pouco mais sobre algoritmos de classificação aplicados em ima-


gens de média resolução espacial por meio da leitura do seguinte artigo: Análise compa-
rativa de classificadores digitais em imagens do Landsat-8 aplicados ao mapeamento
temático (Revista Pesquisa Agropecuária Brasileira, 2015, v. 50, n. 7, p. 593-604). Na íntegra
em: https://www.scielo.br/pdf/pab/v50n7/1678-3921-pab-50-07-00593.pdf.

5 AFERIÇÃO E ACURÁCIA DE CLASSIFICAÇÕES (EXATIDÃO


GLOBAL, ÍNDICE KAPPA E ÍNDICE TAU)
Após a classificação digital das imagens, um passo muito importante é a sua validação,
ou seja, as classes ou temas gerados são verdadeiros? Segundo Meneses e Almeida (2012),
100% de acurácia significa que todos os pixels de uma imagem foram corretamente
classificados, conforme o conjunto de dados da verdade terrestre (a “real” composição
da superfície do solo). Em outras palavras, existem índices (Exatidão Global, Índice
Kappa e Tau) que medem a “qualidade” de uma determinada classificação, seja ela
supervisionada (orientada) ou não supervisionada (não orientada) (JENSEN, 2015).
Um outro exemplo: uma porcentagem de 75% de acurácia significa que ¾ dos pixels
foram corretamente atribuídos a sua verdadeira classe temática (em comparação com

146
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

o que realmente compõe o solo no local do pixel).

Conforme Meneses e Almeida (2012), a acurácia de alguma dada classificação depende


de fatores como: complexidade do terreno; as resoluções espaciais e espectrais
do sensor remoto; o tipo de algoritmo utilizado; a legenda empregada no processo
de categorização e os dados que representam a verdade terrestre. Em geral, além
da utilização de índices de acurácia, também é possível verificar a qualidade de
uma classificação por meio da sua comparação com um mapa real ou verificando e
analisando áreas aleatoriamente (por amostragem).

Os principais índices de aferição de acuraria, Exatidão Global, Índice Kappa e Tau,


são encontrados por meio de matrizes de erros, que por sua vez mostram a relação de
correspondência entre a imagem que foi classificada e o dado utilizado para inferir
a verdade terrestre (MENESES; ALMEIDA, 2012). O número de linhas e colunas da
matriz de erros deve ser o mesmo do número de classes gerados na classificação.
Tais matrizes são também denominadas de matriz de confusão (as linhas são as
classificações, as colunas a verdade terrestre e a diagonal da matriz são os pixels que
foram corretamente classificados). A matriz de confusão é uma forma de comparar a
verdade terrestre (dos levantamentos em campo) com o resultado da classificação pelo
computador.

Dentre os índices, Exatidão Global exprime a quantidade de pixels de referências que


foram classificados corretamente. Este índice é obtido através da razão entre o número
total de pixels corretamente classificados (a soma dos elementos ao da diagonal da
matriz de confusão) pelo número total de pixels de referência. É uma medida de
qualidade geral, e não informa quais classes foram mais bem categorizadas. O Índice
Kappa vai determinar a concordância esperada após a exclusão dos efeitos de erros
aleatórios. Os valores deste índice são menores que os valores de Exatidão Global, e
varia entre 0 (concordância nula) a 1 (concordância perfeita). O Índice Tau é similar
ao Kappa, mas é mais simples de ser calculado e possui a vantagem de considerar o
número de categorias ou classes utilizadas nas análises (MENESES; ALMEIDA, 2012).

DICAS

Para ampliar seus estudos sobre os métodos de avaliação de acurácia de clas-


sificações, leia a seguinte publicação: Comparação dos Métodos de Classificação Su-
pervisionada de Imagem Máxima Verossimilhança, Distância Euclidiana, Paralelepípe-
do e Redes Neurais em Imagens VANT, Utilizando o Método de Exatidão Global, Índice
Kappa e o Tau (IV Simpósio Brasileiro de Geomática – SBG, 2017, pp. 244-250). Na ínte-
gra em: http://docs.fct.unesp.br/departamentos/cartografia/eventos/2017_IV_SBG/_arti-
gos/2017_SBG_CTIG_paper_51.pdf.

147
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

6 ANÁLISE MULTITEMPORAL
A análise multitemporal consiste num grupo de técnicas importantíssimas para
a nossa sociedade. Basicamente, por meio de tais técnicas, podemos acompanhar a
evolução e as mudanças na superfície do nosso planeta ao longo do tempo. Com isso,
podemos avaliar a quantidade de desmatamento de florestas nativas; o crescimento
urbano (planejado e desordenado); monitoramento de queimadas; monitoramento
de lavouras; levantamentos multifinalitários para planejamento urbano e instituição
de IPTU. Enfim, há uma enorme gama de aplicações quando lidamos com análise
multitemporal de imagens de satélite (BAN, 2016).

O que de fato é a análise temporal? Da forma mais simplificada possível, consiste na


comparação de uma mesma área em datas diferentes. Pode ser um dia, um mês,
anos e até décadas de diferença entre a primeira imagem e a última que estão sendo
comparadas. Em outras palavras, a análise multitemporal busca captar a variação na
cobertura do solo em épocas diferentes, mas numa mesma cena fixa (região espectral
única), ou seja, as imagens devem estar corretamente georreferenciadas.

A quantidade e a disponibilidade de imagens multitemporais estão crescendo


rapidamente. Isso se deve ao aumento do número de missões espaciais, ao aumento da
resolução temporal, espacial, espectral e radiométrica dos dados, bem como a política
de acesso gratuito aos dados adotados para missões importantes, como Landsat e
Sentinel. Nesse contexto, surgem cada vez mais técnicas de detecção de mudanças em
produtos de SR. A detecção de mudança é o procedimento de identificar diferenças no
estado de um objeto ou fenômeno, observando-o em momentos diferentes (SINGH,
1989). No nosso caso, estamos interessados em analisar a diferença entre imagens
orbitais em datas diferentes.

Segundo Ban (2016), o Sensoriamento Remoto por satélites, devido a sua visão sinóptica
e grande repetibilidade (revisita), pode gerar dados precisos e consistentes sobre a
superfície da Terra, sendo de grande utilidade para monitorar mudanças ambientais
por causa de seu baixo custo. Dessa forma, de acordo com Ban (2016), podemos elencar
algumas áreas de aplicação de análise multitemporal, como:

• gestão de recursos naturais;


• conservação dos ecossistemas e da biodiversidade;
• apoio às decisões para o desenvolvimento sustentável;
• urbanização;
• desmatamento, reflorestamento e queimadas;
• desertificação;
• inundamentos;
• monitoramento de desastres naturais;
• monitoramento da linha de costa (erosão costeira);
• agricultura de precisão e áreas agrícolas;
• parcelamento de solos;
• saúde pública.

De fato, o monitoramento de algum objeto ou fenômeno ao longo do tempo por meio de


imagens obtidas em épocas diferentes nos permite entender como tal processo funciona,
possibilitando o desenvolvimento de ações preventivas, por exemplo (JENSEN, 2015).
Há vários algoritmos utilizados para verificar as mudanças que ocorreram entre datas
diferentes (para uma mesma área), e a maioria utiliza aritmética de bandas para tal.

148
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

A Figura 31 mostra um exemplo da variação temporal para uma área no estado de


Mato Grosso (MT). Nenhum algoritmo foi aplicado, mas podemos notar facilmente a
evolução da paisagem no ambiente (assista ao vídeo de 13 segundos mostrando a time-
lapse de imagens entre as datas de 04/07/2017 a 04/09/2018 que se encontra na legenda da
figura). Não obstante, há algumas técnicas que utilizam transformações espectrais para
“mesclar” imagens com datas diferentes em um único raster, salientando as mudanças
temporais do uso do solo em classes de cores ao longo de vários anos, como pode ser
visualizado na Figura 32 (JENSEN, 2015).

DICAS

Para ver um exemplo sobre a análise multitemporal em áreas rurais


utilizando imagens orbitais, leia o seguinte artigo científico: Análise Multitempo-
ral da Expansão Agrícola no Município de Barreiras – Bahia (1988-2008) (CAM-
PO-TERRITÓRIO: Revista de Geografia Agrária, v. 7, n. 14, p. 1-19, 2012).
Na íntegra em: http://bit.ly/3i9HpiI.

Além disso, para aprofundar mais seus estudos sobre a análise multitemporal em áreas
urbanas utilizando imagens orbitais, leia o seguinte artigo científico: Análise multitempo-
ral do uso e ocupação do solo entre 1987 e 2004 na zona de expansão urbana norte de
Londrina-PR, utilizando Sensoriamento Remoto (SR) e Sistema de Informações Geográ-
ficas (SIG) (Semina: Ciências Agrárias, Londrina, v. 33, p. 2877-2890, 2012).
Na íntegra em: https://www.redalyc.org/pdf/4457/445744117034.pdf.

A Figura 31 apresenta Imagens mostrando a variação da cobertura do solo


ao longo do tempo.

149
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

FIGURA 31 – IMAGENS DO SATÉLITE PLANET (RESOLUÇÃO ESPACIAL DE 3 M)

FONTE: Adaptada de: <http://bit.ly/3bCRzHo>. Acesso em: 19 nov. 2020.

DICAS

Assista ao vídeo no YouTube sobre a time-lapse deste monitoramento diário,


que mostra a variação da cobertura do solo ao longo do tempo, realizado no estado do
Mato Grosso, entre 04/07/2017 a 04/09/2018 (vídeo de 13 segundos). Na íntegra em: ht-
tps://www.youtube.com/watch?v=9tVdbiSZul8.

A Figura 32 nos traz o processo de comparação sistemática das


características espectrais dos dados Landsat, com mudanças temporais entre 1987
a 2009 expressas em classes de cores.

150
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

FIGURA 32 – COMPARAÇÃO SISTEMÁTICA DAS CARACTERÍSTICAS ESPECTRAIS AO LONGO DE


DÉCADAS

FONTE: Adaptada de Jensen (2015, p. 526)

151
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS

LEITURA COMPLEMENTAR

AVALIAÇÃO DO DESEMPENHO DE TRÊS ALGORITMOS NA


CLASSIFICAÇÃO DE USO DO SOLO A PARTIR DE GEOTECNOLOGIAS
GRATUITAS

Miqueias Lima Duarte


Tatiana Acácio da Silva

Sabe-se que a utilização do solo de forma inadequada pode acarretar uma série de
problemas ambientais, como mudanças climáticas, alterações no ciclo hidrológico e na
perda de solo, afetando a estabilidade natural do ambiente. Desse modo, entender o
uso e ocupação do solo e suas alterações ao longo do tempo e em relação ao espaço é
de suma importância, uma vez que possibilita compreender as dinâmicas fisiográficas
e ecológicas de uma região, auxiliando no planejamento.

A compreensão da dinâmica do uso do solo é de suma importância, uma vez que


permite identificar suas relações com diferentes níveis de degradação, possibilitando
estruturar métodos de recuperação dessas áreas. Nesse contexto, o levantamento do uso
do solo, em uma dada região, tornou-se um aspecto fundamental para a compreensão
dos padrões de organização do espaço (BERNADI; DZEDZEJ; CARVALHO, 2007).

O uso de imagens orbitais em consonância com técnicas de geoprocessamento


por meio dos Sistemas de Informações Geográficas (SIGs) mostram-se eficientes
para detectar mudanças no uso e cobertura do solo e as alterações provocadas nas
paisagens em um determinado local (SANTOS et al., 2017). Stević et al. (2016) citam que
a classificação de imagens de sensores orbitais consiste em uma metodologia utilizada
para caracterização, comparação de paisagens, gestão ambiental e ordenamento do
território com aplicação na modelagem e monitoramento das mudanças na paisagem.

Atualmente, existem diversos métodos de classificação de imagens, esses métodos


podem ser divididos segundo critérios distintos, tais como a classificação paramétrica
e não paramétrica, classificação espectral e espacial, e classificação supervisionada e
não supervisionada, sendo a última a forma mais difundida entre os usuários de SIG
para o processamento de imagens (MENESES; ALMEIDA, 2012).

A classificação supervisionada normalmente apresenta maior precisão, ela é obtida


a partir do conhecimento prévio das áreas e dos tipos de ocupação do solo que se
pretendem levantar e classificar (OLIVEIRA et al., 2014). Por outro lado, a classificação
não supervisionada é normalmente utilizada quando não se tem conhecimento da
natureza das classes de alvos ou em análise exploratória. Neste método, os pixels são
agrupados em classes, de acordo com as suas características, determinadas a partir de
cálculos estatísticos (MENESES; ALMEIDA, 2012).

Dentre os métodos não supervisionados estão: IsoData e K-médias; e dentre os


supervisionados estão: paralelepípedo, Mínima Distância, Máxima Verossimilhança,
mapeamento por ângulo espectral, árvores de decisão, Redes Neurais Artificiais e,
mais recentemente, o Support Vector Machines (PEREIRA; CENTENO, 2017).

152
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

Assim como existem diversos métodos de classificação, também existem diversos


softwares utilizados para o processamento digital de imagens, dentre eles, o QGIS é um
software de uso livre e aberto que tem se destacado por sua possibilidade de integração
com outros softwares e disponibilidade de diferentes algoritmos e novos complementos
que proporcionam uma maior automatização e agilidade no processamento de dados,
surgindo como um forte aliado na avaliação do uso/cobertura da terra (PEREIRA;
GUIMARÃES; OLIVEIRA, 2018).

O complemento Semi Automatic Classification Plugin constitui um acessório desenvolvido


especificadamente para o software QGIS, ele realiza a classificação semiautomática,
bem como supervisionada de imagens de sensoriamento remoto, foi desenvolvido
por Congedo (2018). O Plugin tem sido utilizado em várias pesquisas, apresentando
resultados satisfatórios (BARROS; PAMBOUKIAN, 2017; MENESES; MENDES, 2017;
SILVA et al., 2017; SANTOS; AUGUSTO; RICHTER, 2017).

Nesse contexto, o objetivo deste trabalho é realizar a classificação do uso do solo em


uma área no sul do Amazonas com uso de três técnicas de classificação supervisionada
(Mínima Distância, Máxima Verossimilhança, Mapeamento por Ângulo Espectral)
disponível na ferramenta Semi Automatic Classification Plugin, com base em uma imagem
de média resolução espacial obtida pelo sensor Sentinel-2.

FONTE: Adaptado de: https://bu.furb.br/ojs/index.php/rea/article/view/7427/4344. Aces-


so em: 23 nov. 2020.

153
RESUMO DO TÓPICO 3

Neste tópico, você aprendeu que:

• A classificação digital de imagens é o processo de extrair informações de imagens


com o intuito de reconhecer padrões e alvos que são espectralmente homogêneas.
Não obstante, existem também as classificações que são baseadas no padrão espacial
das feições que compõem uma cena.

• O objetivo central da classificação consiste em mapear e identificar locais da


superfície da Terra que correspondam aos temas (classes) de interesse por parte do
usuário. Dessa forma, classificação vai categorizar todos os pixels de uma cena de
entrada em um único novo raster que vai possuir várias classes (e.g. uma classe para
água, uma classe para grama, uma classe para estradas e assim por diante).

• As classificações podem ser baseadas somente no valor digital de um pixel (padrão


espectral) ou podem levar em conta, além do valor do pixel, a vizinhança da região
adjacente (padrão espacial).

• Na classificação não supervisionada, o programa computacional que está sendo


utilizado vai analisar a assinatura espectral de todos os pixels, agrupando-os. Tais
classificações diminuem (e muito) a necessidade de mapeamentos em campo.

• As classificações não supervisionadas diminuem os custos dos projetos, pois uma


área com uma enorme extensão poderá ser rapidamente classificada. A maior
vantagem deste método está em sua rapidez, uma vez que há pouca interferência do
usuário no processo como um todo.

• Na classificação supervisionada, o usuário de Geoprocessamento vai definir


amostras espectrais homogêneas e representativas das diferentes classes que
compõe a superfície do solo (classes de informação), ou seja, o usuário vai definir
os valores numéricos de cada classe antes de implementar o algoritmo classificador.
Estas áreas amostrais com valores definidos são chamadas de áreas de treinamento.

• A maior parte do esforço por parte do usuário de Geoprocessamento ocorre antes


do processo de classificação supervisionada em si (há uma participação efetiva
do usuário neste tipo de classificação, em comparação com a classificação não
supervisionada).

• Após a classificação digital das imagens, um passo muito importante é a sua


validação (verificação da "qualidade" de uma classificação). Há três Índices mais
comuns: Exatidão Global, Índice Kappa e Índice Tau.

• A detecção de mudança é o procedimento de identificar diferenças no estado de um


objeto ou fenômeno, observando-o em momentos diferentes. Em imagens de satélites,

154
tais análises são essenciais devido a sua visão sinóptica e grande repetibilidade
(revisita), podendo gerar dados precisos e consistentes sobre a superfície da Terra,
sendo de grande utilidade para monitorar mudanças ambientais da Terra.

CHAMADA

Ficou alguma dúvida? Construímos uma trilha de aprendizagem


pensando em facilitar sua compreensão. Acesse o QR Code, que levará ao
AVA, e veja as novidades que preparamos para seu estudo.

155
AUTOATIVIDADE

1 Classificação digital é o procedimento que visa extrair informações de imagens


com o intuito de reconhecer padrões e objetos homogêneos, com o objetivo de
mapear e identificar locais da superfície da Terra que correspondam aos temas
(classes) de interesse por parte do usuário. Em outras palavras, o objetivo central
da classificação consiste em categorizar os pixels de uma imagem de entrada em
um único raster que possui várias classes. Sobre as duas propriedades que são
mais utilizadas nas classificações, assinale a alternativa CORRETA:

a) ( ) Padrão espectral e padrão espacial.


b) ( ) Padrão radiométrico e segmentação.
c) ( ) Padrão espacial e verdade terrestre.
d) ( ) Verdade terrestre e análise multitemporal.
e) ( ) Matriz de confusão e padrão espectral.

2 A classificação não supervisionada é o nome do conjunto de técnicas que permitem


os agrupamentos de pixels com características comuns, que são baseados na análise
de software de uma imagem sem que o usuário forneça classes características
espectrais de referência. O computador usa algoritmos para determinar quais
pixels estão relacionados (os que são mais similares) e os agrupa em classes ou
temas. Entretanto, o usuário deve ter conhecimento da área a ser classificada
quando os agrupamentos de pixels com características comuns produzidos
pelo computador tiverem que ser relacionados às características reais no solo
(áreas agrícolas, áreas urbanas, florestas etc.). Diante deste contexto, assinale a
alternativa CORRETA:

a) ( ) Padrão espectPara aumentar a qualidade da classificação não


supervisionada, o usuário pode selecionar áreas homogêneas
espectralmente (áreas de treinamento).ral e padrão espacial.
b) ( ) O usuário pode especificar qual algoritmo o software usará e o número
desejado de classes no raster de saída, mas não “ajuda” no processo de
classificação.
c) ( ) A classificação não supervisionada possui a vantagem que classificam
corretamente todos os pixels de uma dada imagem de entrada em
todas as análises.
d) ( ) Na classificação não supervisionada, o usuário vai definir os limites de
quão similares os pixels devem ser para serem agrupados de acordo
com as áreas de treinamento.
e) ( ) Embora seja uma técnica consagrada, não é possível aferir a qualidade
de uma classificação não supervisionada.

3 A classificação supervisionada é baseada na ideia de que um usuário pode selecionar


pixels de amostra em uma imagem que são representativos de classes específicas e
conhecidas e, em seguida, orientar o software de processamento de imagem para
usar esses locais ou áreas de treinamento como referências para a classificação de

156
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS

todos os outros pixels na imagem. As áreas de treinamento são selecionadas com


base no conhecimento do usuário, e são espectralmente homogêneas. Neste tipo
de classificação, o usuário tem uma participação muito mais efetiva. Diante disto,
disserte brevemente sobre seus passos ou etapas elementares.

157
REFERÊNCIAS
ALBUQUERQUE, M. P.; ALBUQUERQUE, M. P. Processamento de Imagens:
Métodos e Análises. 2001. Disponível em: http://www.cbpf.br/cat/pdsi/pdf/Pro-
cessamentoImagens.PDF. Acesso em: 23 ago. 2020.

BAN, Y. Monitoramento da recuperação de desastres a longo prazo: visual-


izações do espaço e do solo. In: VU, T.T.; KAMTHONKIAT D. (orgs). Multi-
temporal Remote Sensing – Methods and Applications. New York: Springer
International Publishing, 2016. Disponível em: https://link.springer.com/book/10
.1007%2F978-3-319-47037-5. Acesso em: 19 nov. 2020.

BEO. Remote sensing images. 2020. Disponível em: https://eo.belspo.be/en.


Acesso em: 30 jul. 2020.

CÂMARA, G. et al. SPRING: Integrating remote sensing and GIS by object-ori-


ented data modelling. Computers and Graphics, v. 20, n. 3, 1996, p. 395-403.
Disponível em: http://bit.ly/39yJqRC. Acesso em: 19 nov. 2020.

CEAMANOS, X.; VALERO, S. Processing Hyperspectral Images. In: BAGH-


DADI, N.; ZRIBI, M. (orgs.). Optical Remote Sensing of Land Surfaces. Londres:
ISTE Press; Elsevier, 2016.

CCMEO. Remote Sensing Tutorials. 2019. Disponível em: https://www.nrcan.


gc.ca/maps-tools-publications/satellite-imagery-air-photos/tutorial-fundamen-
tals-remote-sensing/9309. Acesso em: 14 ago. 2020.

CHOI, M. A new intensity-hue-saturation fusion approach to image fusion with


a tradeoff parameter. IEEE Trans. Geosci. Remote Sensing. v. 44, n. 6, p. 1672-
1682, jun. 2006. Disponível em: https://ieeexplore.ieee.org/document/1634730.
Acesso em: 19 nov. 2020.

CRÓSTA, A.P. Processamento Digital de Imagens de Sensoriamento Remoto.


Campinas: UNICAMP, 1992.

ELMIRO, M. A. T. Mosaico de Imagens Digitais para Sistemas de Informações


Geográficas. Rio de Janeiro. Disponível em: http://www.carto.eng.uerj.br/fgeorj/
segeo1996/125/index.htm. Acesso em: 20 ago. 2020.

FLORENZANO, T. C. et al. Multiplicação e adição de imagens Landsat no realce


de feições da paisagem. In: SIMPÓSIO BRASILEIRO DE SENSORIAMENTO
REMOTO, n. 10, 2001, Foz do Iguaçu. Anais [...] São José dos Campos: INPE,
2001.
GHASSEMIAN, H. A review of remote sensing image fusion methods. Infor-
mation Fusion, v. 32, Part A, 2016, p. 75-89.

GONZÁLEZ, F. E.; RUIZ, M. J.; ACOSTA, F. M. Tutorial do Sensoriamento


Remoto. 2014, Disponível em: https://www.grss-ieee.org/wp-content/uplo-
ads/2014/07/PT_TUTORIAL_COMPLETO.pdf. Acesso: 17 ago. 2020.

GRASS-GIS 7.8.4dev. Reference Manual. c2020. Disponível em: https://grass.


osgeo.org/grass78/manuals/. Acesso em: 18 ago. 2020.

GREEN, E. P.; CLARK, C. D.; EDWARDS, A. J. Geometric Correction of Satellite


and Airborne Imagery. In: EDWARDS, A. J. (Org.). Remote Sensing Handbook
for Tropical Coastal Management. Paris: UNESCO, 2000, p. 93‐108.

HATZOPOULOS, J. N. Topographic Mapping: Covering the Wider Field of


Geospatial Information Science and Technology (GIS&T). Boca Raton: Universal
Publishers, 2008.

HUSSAIN, Z. Digital Image Processing: Practical Applications of Parallel Pro-


cessing Techniques. New. Jersey: Ellis Horwood, 1991.

HSU (Humboldt State University). Image Processing. 2019. Disponível em:


http://gsp.humboldt.edu/OLM/Courses/GSP_216_Online/lesson4-1/index.html.
Acesso em: 10 ago. 2020.

INPE. Política de Dados CBERS para Usuários Brasileiros. 2004. Disponível


em: http://www.dgi.inpe.br/Suporte/files/politica_de_dados_cbers_v.1.4_
PT.htm. Acesso em: 29 jul. 2020.

JENSEN, J. R. Introductory Digital Image Processing: A Remote Sensing Per-


spective. 4. ed. Glenview: Pearson Education, 2015.

KAUR, H. Review of Remote Sensing Image Segmentation Techniques. Interna-


tional Journal of Advanced Research in Computer Engineering & Technology
(IJARCET), v. 4, n. 4, p. 1667-1674, 2015. Disponível em: <https://citeseerx.ist.
psu.edu/viewdoc/download?doi=10.1.1.1046.6267&rep=rep1&type=pdf>. Acesso
em: 11 dez. 2020.

KUMAR, M. Digital Image Processing. In: SIVAKUMAR, M.V.K.; ROY, P.S.;


HARMSEN, K.; SAHA, S.K. (orgs.). Satellite Remote Sensing and GIS Appli-
cations in Agricultural Meteorology. Dehra Dun: World Meteorological Orga-
nization, 2004, p. 81-102. Disponível em: https://www.wmo.int/pages/prog/wcp/
agm/publications/AGM8_en.php. Acesso em: 19 nov. 2020.

LILLESAND, T. M.; KIEFER, R. W.; CHIPMAN, J. W. Remote Sensing and Im-


age Interpretation. 7. ed. Hoboken: Wiley, 2015.
LI, M.; ZANG, S.; ZHANG, B.; LI, S.; WU, C. A Review of Remote Sensing Im-
age Classification Techniques: the Role of Spatio-contextual Information. Euro-
pean Journal of Remote Sensing, v. 47, p. 389-5411, 2014. Disponível em: https://
www.tandfonline.com/doi/abs/10.5721/EuJRS20144723. Acesso em: 19 nov. 2020.

LIU, J. G.; MASON, P. J. Essential Image Processing and GIS for Remote Sens-
ing. Chichester: John Wiley and Sons, 2009.

MENESES, P. R.; ALMEIDA, T. Introdução ao Processamento de Imagens de


Sensoriamento Remoto. Brasília: UnB, 2012.

MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e Metodologias de


Aplicação. Viçosa: UFV, 2. ed., 2003.

NASA. Data Processing Levels. 2019. Disponível em: https://earthdata.nasa.


gov/collaborate/open-data-services-and-software/data-information-policy/data-
-levels. Acesso em: 29 jul. 2020.

PIRES, J. E. A. M. P. Machine Learning Aplicado a Imagens da Observação da


Terra para o Estudo da Floresta. 2019, 112 p. Dissertação (Mestrado em Enge-
nharia Eletrotécnica e de Computadores) – Universidade Nova Lisboa, Lisboa.

PIWOWAR, J. M. Getting your imagery at the right level. 2001. Disponível em:
http://uregina.ca/piwowarj/Think/ProcessingLevels.html. Acesso em: 15 set.
2020.

RICHARDS, J. A.; JIA, X. Remote Sensing Digital Image Analysis: An Intro-


duction. 4. ed. Berlin: Springer, 2006.

RODRÍGUEZ, A. C. M. Sensoriamento Remoto e Geoprocessamento Aplicados


na Análise da Legislação Ambiental no Município de São Sebastião. 2005, 217
p. Dissertação (Mestrado em Geografia) – Universidade de São Paulo, São Paulo.

SCHOWENGERDT, R. A. Remote Sensing: Models and Methods for Image Pro-


cessing. 3. ed. Burlington: Academic Press, 2006, 560 p.

SINGH, A. Review Article Digital change detection techniques using remote-


ly- sensed data. International Journal of Remote Sensing, v. 10, n. 6, 1989, p.
989-1003.

SPRING-INPE. Processamento de Imagens. c2020.Disponível em: http://www.


dpi.inpe.br/spring/portugues/tutorial/index.html. Acesso em: 12 ago. 2020.

STARS Project. Image analysis. 2020. Disponível em: https://www.stars-project.


org/en/knowledgeportal/magazine/image-analysis/. Acesso em: 8 ago. 2020.
UNI-BONN. Geometric Correction. c2020. Disponível em: http://fis.uni-bonn.de/en/
recherchetools/infobox/professionals/preprocessing/geometric-correction. Acesso
em: 2 ago. 2020.

USGS. Using the USGS Landsat Level-1 Data Product. c2020. Disponível em: ht-
tps://www.usgs.gov/land-resources/nli/landsat/using-usgs-landsat-level-1-data-pro-
duct. Acesso em: 31 jul. 2020.

VANI, K. Satellite image processing. Fourth International Conference on Signal


Processing, Communication and Networking (ICSCN). 2017. Disponível em:
https://ieeexplore.ieee.org/abstract/document/8085410. Acesso em: 19 nov. 2020.

TOUTIN, T. Geometric Correction of Remotely Sensed Images. In: WULDER M.A.,


FRANKLIN S.E. (Orgs.) Remote Sensing of Forest Environments. Boston: Springer,
2003.

WOLF, P. R.; DEWITT, B. A. Elements of Photogrammetry: With Applications in


GIS. 3. ed. EUA: McGraw-Hill Book Company, 2000.

ZANOTTA, D. C.; FERREIRA, M. P.; ZORTEA, M. Processamento de Imagens de


Satélite. São Paulo: Oficina de Textos, 2019.
UNIDADE 3 —

INTERPRETAÇÃO DE IMAGENS DIGITAIS


E EXEMPLOS DE APLICAÇÕES

OBJETIVOS DE APRENDIZAGEM

A partir do estudo desta unidade, você deverá ser capaz de:

• aprender os elementos de interpretação visual de imagens e fotografias;

• caracterizar cada elemento de interpretação, descrevendo-o;

• aprofundar o estudo de como analisar e interpretar uma imagem, co-


nhecendo as etapas de interpretação visual e as etapas de escolha de
uma imagem;

• compreender o conceito das chaves de interpretação, diferenciando as


chaves de seleção e as de eliminação;

• conhecer os principais sistemas sensores orbitais e aéreos e qual a sua


finalidade principal;

• compreender as desvantagens e vantagens do Sensoriamento Remoto


(SR);

• aprender aspectos básicos dos Modelos Digitais de Elevação (MDE), in-


cluindo os Modelos digitais de Superfície (MDS) e os Modelos Digitais
de Terreno (MDT);

• fazer algumas práticas em softwares livres, como o Google Earth, QGIS,


gvSIG e MultiSpec.

163
PLANO DE ESTUDOS
Esta unidade está dividida em dois tópicos. No decorrer da unidade, você
encontrará autoatividades com o objetivo de reforçar o conteúdo apresentado.

TÓPICO 1 – ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE


IMAGENS DE SATÉLITE

TÓPICO 2 – PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE


SENSORIAMENO REMOTO

CHAMADA

Preparado para ampliar seus conhecimentos? Respire e vamos


em frente! Procure um ambiente que facilite a concentração, assim
absorverá melhor as informações.

164
UNIDADE 3
TÓPICO 1 —

ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE


IMAGENS DE SATÉLITE

1 INTRODUÇÃO
Caro acadêmico, nas Unidades 1 e 2 vimos conceitos importantes que permeiam
os produtos de Sensoriamento Remoto (SR), especialmente as imagens adquiridas
por sensores a bordo de satélites que estão na órbita da Terra. Aprendemos, por
exemplo, como são adquiridas as bandas espectrais, como são feitas as composições
multiespectrais coloridas, vimos os níveis de processamento realizados nas próprias
agências disponibilizadoras de imagens, bem como algumas técnicas que aumentam
nosso poder de visualização de dados e extração de informação em uma dada imagem.
No entanto, de nada adiantará ter conhecimentos nas áreas mencionadas, caso o usuário
de Geoprocessamento não dê atenção em como interpretar corretamente tais imagens.

Agora, na Unidade 3, após construirmos todas as bases de conhecimentos da aquisição,
assinaturas e processamento de imagens orbitais digitais (incluindo as classificações),
veremos os elementos e etapas de interpretação visual que analisamos para o correto
julgamento de uma imagem, extraindo o máximo de informação útil da área de interesse,
seja um local urbano ou rural (agrícola). Veremos que a interpretação de imagens
digitais de satélite é um processo que consiste em identificar alvos (feições e objetos)
nelas presentes, com o objetivo de extrair informações qualitativas e quantitativas sobre
tais feições/objetos. Envolve a identificação de vários alvos no terreno, que podem ser
naturais ou artificiais, consistindo em pontos, linhas ou polígonos.

De fato, alguns autores consideram a interpretação de fotos ou imagens como uma


verdadeira e poderosa ferramenta científica, por causa de algumas razões como:
ampla perspectiva aérea e regional da área interesse; percepção em profundidade (três
dimensões); a capacidade de obter conhecimento além de nossa percepção visual humana
(uma vez que podemos trabalhar com comprimentos de onda que não enxergamos sem
a ajuda de um computador) e, por fim, a habilidade de obter um registro de imagem
histórica para documentar a mudança da superfície da Terra (JENSEN, 2009). A correta
interpretação visual de uma imagem é um processo que requer muito estudo por parte
do usuário! Ao longo desta Unidade, você encontrará dicas de bibliografias que são
essenciais para o seu processo de produção de conhecimento com relação à ciência
do SR. Muitas das técnicas utilizadas profissionalmente (no mercado de trabalho) têm
origem na academia, por isso, é importante ler artigos científicos.
2 CARACTERÍSTICAS UTILIZADAS PARA INTERPRETAÇÃO

Os alvos em imagens de SR tratam-se de qualquer característica ou objeto que podem
ser visualizados na imagem. Uma ampla variedade de características em imagens é
capaz de ser identificada, como tipo e condição de uma floresta ou cultivo, lagos e rios,
características antrópicas, e muitas outras. Estes são os elementos de interpretação

165
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

visual de imagens de satélite. Conforme Soares-Filho (2000) é por meio da análise dos
elementos de interpretação que se define a forma de relevo das feições, os caminhos e
padrões de drenagem, as características da vegetação e tipos do uso do solo, geologia
e geomorfologia, e vários outros aspectos. A interpretação de fotografias aéreas ou
imagem de satélite envolve alguma subjetividade. No entanto, podemos treinar muito
e utilizar bibliografias para que tal subjetividade não se torne um erro de interpretação.
Hoje em dia, com a ampla utilização de computadores e com as imagens disponíveis
em formato digital, as imagens podem ser tratadas (conforme abordado na Unidade
2) para melhorar a interpretação visual, maximizando a produção de mapas temáticos
(SCHOWENGERDT, 2006).

O reconhecimento manual de alvos é a chave para a interpretação e extração de


informações de uma imagem digital. Há também análises automáticas feitas por
computadores. Nos últimos anos, tornou-se possível usar o grande potencial de
computadores para realizar a interpretação de fotos e imagens oriundos de SR (BEO,
c2020). Alguns dos elementos utilizados na interpretação visual estão começando a ser
absorvidos por softwares de processamento de imagens, mas ainda estão na fase de testes
e de produção parcial de resultados (BEO, c2020). Aqui, trataremos da fotointerpretação
visual e manual de imagens feitas pelos usuários de Geoprocessamento. De forma
simples, podemos definir a foto ou a interpretação de imagem como: análise de imagens
com o objetivo de identificar alvos, feições e objetos e julgar os seus significados.

De acordo com Richards e Jia (2006), o sucesso de uma determinada interpretação


de imagem dependerá do grau de exploração dos elementos espaciais, espectrais e
temporais presentes nela. Podemos afirmar que a foto ou a interpretação da imagem
é a forma mais básica de análise, uma vez que corresponde à identificação manual
de alvos em uma imagem através da interpretação visual. Por fim, a interpretação de
uma imagem é baseada em seus elementos inerentes (OLSON, 1960; HSU, c2020). Estes
elementos formam um caminho ou um guia para seguirmos e, assim, interpretarmos
uma imagem; isto é, uma interpretação não pode ser aleatória, ela tem que ser baseada
em critérios.

Conforme Jensen (2009) e CCMEO (2019), observar as diferenças entre as feições de


interesse e seus planos de fundo envolve compará-las com base em algum elemento
visual principalmente: localização, forma, tamanho, padrão, tonalidade (tom),
textura, sombra e associação (há alguns outros elementos, mas são menos comuns),
ou seja, podemos diferenciar dois alvos distintos utilizando estas propriedades
(elementos visuais ou atributos). A interpretação visual, usando esses elementos,
costuma fazer parte de nossas vidas, mesmo que não nos damos conta disso. Quando
olhamos imagens de satélite na previsão do tempo de jornais ou o acompanhamos de
perseguições policiais em alta velocidade transmitidas por um helicóptero, estamos
lidando com a interpretação visual de imagens; pois, reconhecemos objetos utilizando
nosso conhecimento prévio (já sabemos como é o objeto). Identificar alvos em imagens
de SR, com base nesses elementos visuais, nos permite interpretar e analisar melhor,
compreendendo o ambiente como um todo (CCMEO, 2019).

Analistas experientes e bem treinados utilizam muitos elementos de interpretação


durante suas análises, sem ter que ficar “pensando” sobre eles (LLOYD; HODGSON;

166
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

STOKES, 2002). É como se fosse um processo automático realizado pelo usuário de SR. A
Figura 1 mostra uma classificação dos elementos de interpretação visual, elaborada por
Jensen (2009); ou seja, uma hierarquia de complexidade (ordenamento dos elementos
de interpretação visual). No entanto, para o nosso estudo, vamos nos concentrar nos
elementos visuais em si.

Para comparar os elementos visuais (elencados no parágrafo anterior), temos que


explorar, também, as suas propriedades espaciais, temporais e espectrais (RICHARDS;
JIA, 2006). A informação espacial dos alvos está presente nos elementos, como
forma (formato do alvo), tamanho, orientação e textura (RICHARDS; JIA, 2006;
FLORENZANO, 2011). Feições extensas como rodovias e ferrovias, praias e rios,
padrões de fratura e lineamentos (geologias), são muito facilmente identificados em
uma imagem por causa da sua disposição espacial (ao batermos o olho numa imagem
de satélite e ao notarmos uma feição muito comprida/extensa, já podemos ter uma
ideia do que se trata). Além disso, variações temporais em imagens feitas em datas
diferentes (ou de uma estação climática para outra), como a mudança da posição
geográfica de um determinado objeto ou alteração no padrão do tipo de cobertura em
uma área podem frequentemente ser usados pelo analista (por exemplo: identificar
vegetações caducifólias ou efêmeras/perenes) (RIEBEEK, 2013).

FIGURA 1 – ORDEM E MÉTODOS DOS ELEMENTOS DE INTERPRETAÇÃO

FONTE: Adaptada de Jensen (2009, p. 110)

167
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

Na Figura 1, de acordo com o diagrama ternário de Jensen (2009), utilizamos diferentes


elementos para balizarmos uma interpretação de uma foto ou imagem. A localização
de um determinado pixel em uma imagem consiste num elemento primário (primeira
ordem). Já os elementos secundários e terciários são arranjos de tom e cor no domínio
espacial. Por fim, os elementos superiores, como área (sítios), situação e associação
usam diversos métodos de pesquisa para uma melhor interpretação das imagens.

Segundo Richards e Jia (2006), assinaturas espectrais também são utilizadas na


interpretação (para relembrar o conteúdo de assinaturas espectrais, releia o Tópico 2
da Unidade 1). Isso é realizado com base no conhecimento prévio do analista e na
sua expertise com os aspectos de resposta da refletância espectral de diferentes tipos
de cobertura da superfície terrestre e como essas características (que são basicamente
um registro da energia eletromagnética-REM refletida) são captadas pelo sensor do
satélite ou aeronave. Vamos, então, definir os principais elementos de interpretação
visual a seguir; ou seja, as características que utilizamos para poder diferenciar um
determinado alvo de outro (propriedades para nos basearmos e, assim, interpretar e
julgar uma imagem/fotografia de SR).

• Localização (Figura 2-A): “onde está o alvo (x, y)?” as coordenadas (Latitude e
Longitude) exatas de uma área podem ser levantadas por métodos tradicionais de
topografia e geodésia em campo ou através de coleta de dados de SR, com posterior
retificação e, por fim, com a extração dos pontos de coordenadas da área de interesse.
Os levantamentos em campo são os mais utilizados, uma vez que os equipamentos
de GNSS (Sistema Global de Navegação por Satélite) estão cada vez mais baratos
e mais precisos. Não obstante, caso a localização seja levantada por SR, a aeronave
também terá um sistema de GNSS acoplado (JENSEN, 2009).
• Forma (Figura 2-B): é o formato ou contorno de um alvo individual. A forma dos
objetos presentes numa imagem ou fotografia pode fornecer informações que
ajudam na interpretação. Dessa forma, é uma excelente pista para a análise de uma
imagem. Formas geométricas regulares e bordas retas geralmente são sinais da
presença humana, uma vez que indicam alvos urbanos (e.g. estradas e rodovias) ou
agrícolas (e.g. plantações e campos agrícolas). Já alvos mais naturais normalmente
possuem bordas mais irregulares (e.g. borda de uma floresta virgem) (CCMEO,
2019; HSU, c2020).
• Tamanho (Figura 2-C): o tamanho dos alvos é em função da escala de trabalho.
Este elemento é de suma importância, uma vez que uma rápida inferência do
tamanho de um objeto pode guiar o usuário para uma interpretação mais fidedigna
(CCMEO, 2019). Assim, a avaliação dos tamanhos dos objetos de interesse em
uma cena (um em relação ao outro), é de grande valia para o julgamento de uma
imagem. Por exemplo: um analista que estivesse interpretando o uso e ocupação
de um município, por imagem de satélite, ao identificar grandes conglomerados e
extensos galpões, iria sugerir que tal área corresponde a uma zona industrial. Já em
uma área com vários pequenos telhados e quintais, com ruas bem padronizadas, o
analista saberia que é um indicativo de uma zona residencial (CCMEO, 2019). Neste
elemento visual, o tamanho dos objetos vizinhos também é utilizado. Podemos fazer
medidas quantitativas (largura, comprimento, área etc.) e qualitativas (pequeno,
médio, grande etc.) utilizando este elemento. Com relação às fotografias áreas, os
procedimentos quantitativos devem ser feitos somente se elas forem ortorretificadas
previamente.
• Padrão (Figura 2-D): de acordo com Jensen (2009) e HSU (c2020), o padrão
corresponde ao arranjo espacial de objetos em uma paisagem. O padrão pode ser
natural ou antrópico. A repetição de certas formas é um indicativo muito bom para

168
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

interpretar de forma efetiva uma imagem. Por exemplo, o arranjo espacial ordenado
das árvores em um pomar, normalmente dispostas em fileiras regularmente
espaçadas, é diferente do arranjo espacial da vegetação de uma floresta natural, que
é mais ou menos aleatória. Assim, o padrão sistemático ou aleatório da paisagem é
umas das ferramentas dos analistas para identificar vegetação natural ou cultivada
pelo homem. Os padrões ainda podem ser lineares, ovais, curvilíneas, retangulares
etc.
• Tonalidade (tom) (Figura 2-E): corresponde ao brilho (variação do branco ao preto)
ou a cor relativa dos alvos em uma imagem (CCMEO, 2019). É considerado o elemento
mais essencial para interpretar uma imagem, uma vez que variações na tonalidade
dos alvos também permitem que os elementos de forma, textura e padrão sejam
mais bem diferenciados (JENSEN, 2009; CCMEO, 2019). As propriedades espectrais
dos alvos, bem como a fonte de iluminação também podem influenciar no tom e na
cor. No Tópico 2 da Unidade 1 foi posto um bom exemplo no que tange a utilização
do tom para distinguir objetos (diferenciação de árvores coníferas e de folhas largas
em uma fotografia na região no infravermelho, entre 0,7 a 0,9 µm).
• Textura (Figura 2-F): corresponde ao arranjo e frequência da variação de tons em
áreas específicas de uma imagem (CCMEO, 2019). Tal arranjo e frequência dos tons
causa um aspecto de “suavidade” (smoothness) ou “rugosidade” (roughness) em uma
dada imagem (JENSEN, 2009). É um elemento visual útil porque algumas feições
da superfície da Terra podem exibir tons semelhantes, mas diferentes texturas (e.g.
areia da praia e areia das dunas). As texturas rugosas possuem um tom manchado na
qual os níveis de cinza mudam abruptamente em uma pequena área, ao passo que
as texturas suaves apresentam pouca variação em seu tom. Texturas mais suaves são
normalmente o resultado de superfícies uniformes e homogêneas, como campos,
asfalto ou pastagens. Já uma área com superfície irregular e heterogênea, como a
copa de uma floresta, vai ter uma aparência de textura mais rugosa. A textura é um
dos elementos mais importantes para distinguir características em imagens de radar
(CCMEO, 2019).
• Sombra (Figura 2-G): as sombras de objetos podem ser úteis em sua identificação
que, de outra forma, seriam difíceis de reconhecer (HSU, c2020). As sombras dos
alvos/feições podem fornecer informações sobre o perfil, a altura, a forma e a sua
orientação. Em contrapartida, as sombras também podem reduzir ou eliminar o
potencial de interpretação em sua área de influência, uma vez que os alvos dentro
das sombras são muito menos (ou nem um pouco) visíveis do que seus objetos na
vizinhança (CCMEO, 2019). É um elemento visual muito utilizado para melhorar ou
identificar a topografia e formas de relevo, particularmente em imagens de radar. Por
fim, a redução do sombreamento é uma das preocupações em SR em fotogrametria,
pois pode dificultar a distinção de objetos, como mencionado anteriormente.
• Associação (Figura 2-H): este é o elemento que leva em consideração a relação
entre um alvo de interesse e outros objetos ou feições visíveis e reconhecíveis em
suas imediações; ou seja, o contexto local pode auxiliar na identificação de objetos
(CCMEO, 2019). Um questionamento feito nesta etapa é o seguinte: o que você espera
encontrar próximo do seu alvo de interesse? Por exemplo, em zonas residenciais,
podemos esperar encontrar escolas, parques infantis e campos esportivos. Assim, é
esta associação lógica que é a base deste elemento visual. Em outras palavras, um
tipo de alvo quase sempre estará próximo de outro alvo conhecido (JENSEN, 2009).

Na Figura 2 temos elementos de interpretação visual de imagens de satélite e fotografias


aéreas. A) as coordenadas são coletadas por sistemas de GNSS, que podem englobar
constelações de satélites de posicionamento dos EUA (GPS), Europa (Galileo), Rússia
(Glonass) e China (Beidou). B) a forma corresponde ao contorno dos alvos. C) o tamanho

169
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

das feições de uma cena é de grande importância para auxiliar o intérprete. D) o padrão
é o arranjo espacial dos objetos (é possível distinguir os objetos naturais dos feitos pelo
homem). E) o tom é a variação de brilho ou cor dos objetos. F) a textura é causada pelo
arranjo e frequência de mudanças nos tons e cores de uma área. G) as sombras podem
ser úteis para evidenciar a altura de um alvo. H) a associação corresponde aos alvos
que são comumente encontrados próximos do nosso objeto de interesse.

FIGURA 2 – EXEMPLOS DOS ELEMENTOS DE INTERPRETAÇÃO DE IMAGENS

FONTE: Adaptada de < http://gis.humboldt.edu/OLM/Courses/GSP_216_Online/lesson2-2/inter-


pretation.html/> Acesso em: 23 nov. 2020.

170
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

Por fim, para fixar o conhecimento, podemos frisar que os parâmetros


fundamentais para a interpretação visual de imagens de Sensoriamento Remoto
(SR) são: localização, forma, tamanho, padrão, tom, textura, sombra e associação.
Em alguns casos, um único elemento já é suficiente para uma identificação bem-
sucedida e correta; entretanto, em outras situações, será necessário o uso de vários
elementos diferentes. Os analistas comumente utilizam os elementos sem fazer
considerações sobre cada um deles (por vezes, em nossa mente, a identificação se
torna “automática”).

DICAS

Para expandir seus conhecimentos acerca do conteúdo desta seção, você


pode ler o artigo: Técnicas de Interpretação Visual de Imagens, que foi publicado na re-
vista GEOUSP – Espaço e Tempo (n. 30, p. 30-43, 2011). Este artigo apresenta um roteiro
metodológico que contém critérios bem definidos e adaptados para a interpretação visual
tanto de fotografias aéreas quanto de imagens de satélite, além de uma proposta de exer-
cício didático. Na íntegra em: http://www.periodicos.usp.br/geousp/article/view/74230.

Podemos utilizar as dicas da NASA Earth Observatory, em seu guia/artigo on-line


intitulado “How to Interpret a Satellite Image: Five Tips and Strategies” (Como Interpretar
uma Imagem de Satélite: Cinco Dicas e Estratégias, em tradução livre) para treinar
melhor e fixar o conhecimento no que se refere à interpretação visual de imagens.
O artigo da NASA (RIEBEEK, 2013) pode ser acessado no seguinte link: https://
earthobservatory.nasa.gov/features/ColorImage.

O guia disponibilizado pela NASA é muito útil para o usuário inicial que está
aprendendo a interpretar imagens orbitais e fotografias aéreas (os principais produtos
de SR). De fato, como já falamos muito ao longo deste livro, as imagens de satélite
podem nos mostrar, por exemplo, como as nossas cidades estão mudando (quase que
em tempo real) e como as safras estão crescendo (e quão sadias e produtivas estão). No
entanto, é necessário saber o que procurar nas imagens. As imagens, feitas por sensores
orbitais ou aerotransportados, são como mapas: estão repletas de informações do nosso
interesse, mas desde que você saiba o que e como interpretá-las (SOARES-FILHO, 2000;
RIEBEEK, 2013). As cinco grandes dicas bem práticas do guia de interpretação dos
cientistas da NASA, que passam pelo conhecimento que acabamos de ver (elementos
de interpretação visual), são:

• (I) defina a escala de trabalho;


• (II) procure os padrões, formas e texturas;
• (III) defina as cores (incluindo sombras);
• (IV) encontre o Norte geográfico;
• (V) considere o seu conhecimento prévio.

A escala de trabalho, balizada pelo objetivo primário do usuário (qual o motivo de


utilizar imagens de SR?), vai definir a resolução espacial (que pode ser entendida,
na maior parte dos casos, como o tamanho do pixel) mínima para a imagem que o
usuário irá necessitar. Assim, de acordo com Riebeek (2013), dependendo da resolução

171
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

da imagem, uma cidade pode ter suas casas perfeitamente discerníveis, na qual até
as casinhas de cachorro podem ser identificadas e mapeadas, ou a cidade pode ser
um pequeno ponto na cena, onde não é possível nem identificar grandes estádios de
futebol. Além do tamanho do pixel (nível de detalhes que podemos ver e diferenciar
objetos), também é necessário saber qual o tamanho da cena. A imagem cobre uma área
de 1 km²? 25 km²? Estas são informações primordiais.

Além do mais, conforme as dicas da NASA (RIEBEEK, 2013), imagens com diferentes
escalas (tamanho da cena) e diferentes resoluções espaciais podem ser utilizadas
simultaneamente, dependendo do objetivo do projeto. Isto é, cada imagem irá responder
a um questionamento diferente. Por exemplo: uma cena relativamente pequena e com
grande resolução espacial poderá mostrar casas e ruas alagadas por uma enchente,
enquanto uma imagem com grande área (e baixa resolução espacial) poderá dar uma
visão dos caminhos da drenagem do rio que provocou a enchente e até mesmo do
sistema meteorológico que causou a inundação (Figura 3). Assim, podemos aprender
coisas diferentes a partir de imagens que possuem diferentes escalas (RIEBEEK, 2013).
A Figura 3 mostra o exemplo da análise em conjunto de diferentes imagens (com
diferentes escalas e resoluções) para a cidade de Boulder, no estado do Colorado
(EUA), objetivando estudar uma enchente.

Os padrões, formas e texturas são fundamentais. Em alguma vez durante sua vida,
você provavelmente ficou olhando para as nuvens para tentar identificar animais
ou outras formas. Isso já dá uma ideia de que os humanos são ótimos em encontrar
padrões (RIEBEEK, 2013). Praticamente todas as pessoas vivem com a percepção visual
de seu ambiente ao redor. De acordo com o guia da NASA, a habilidade de encontrar
padrões é útil na interpretação de imagens de SR porque padrões distintos podem ser
combinados com mapas externos para identificar características principais.

Corpos d’água – como rios, lagos/lagoas e oceanos – costumam ser as feições (recursos)
mais facilmente identificáveis em uma imagem, pois tendem a possuir uma forma única
em mapas (RIEBEEK, 2013). Vários outros padrões que são simples e óbvios de serem
identificados são oriundos da maneira de como as pessoas fazem o uso e ocupação do
solo. Por exemplo: imagine um bairro residencial planejado, que apresenta quadras
regulares e espaçadas, ou fazendas que possuem formas geométricas bem definidas
(e.g. retangulares e circulares) (Figura 4), em ambos os casos a sua identificação destoa
dos padrões aleatórios da natureza. Podemos fazer uma consideração interessante:
a natureza não usa régua! Isto é, os padrões naturais raramente serão perfeitamente
geométricos (claro que há exceções). Assim, linhas retas quase sempre são um indicativo
da presença antrópica.

Estruturas geológicas, como vulcões, ilhas, montanhas, cânions, dentro outros,
também são teoricamente fáceis de serem prontamente identificadas por um usuário
(RIEBEEK, 2013). Além disso, tais elementos geológicos também podem afetar a
circulação atmosférica, causando, por exemplo, acúmulo de nuvens em um lado de
uma cordilheira (facilitando a visualização e fazendo com que o analista faça inferências
sobre a sua altura/relevo). Não obstante, a presença de neve também nos permite
identificar montanhas e cordilheiras (locais com grande altitude).

Observamos, através da Figura 3, que podemos utilizar vários sensores diferentes,


como diferentes escalas e resoluções espaciais (note a diferença da escala em cada
imagem), uma vez que cada imagem com diferente escala servirá para um propósito

172
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

diferente em consonância com um objetivo em comum. A) imagem do WorldView-2


(alta resolução espacial, ~0,50 m de tamanho de pixel), mostrando construções e ruas
alagadas. B) imagem do Landsat 8 (30 m de tamanho de pixel, dando o panorama local
da cidade. C) imagem do Landsat 8 sem aplicação de zoom, exibindo toda a região
atingida pelo alagamento (diferença de cores). D) imagem do MODIS mostrando uma
imensa área dos EUA e as nuvens que causaram as inundações.

FIGURA 3 – UTILIZAÇÃO DE ESCALAS E SENSORES DIFERENTES PARA UM OBJETIVO

FONTE: Adaptada de <https://go.nasa.gov/38JrLYo>; <https://go.nasa.gov/3bIqSB4>. Acesso


em: 23 nov. 2020.

173
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

E
IMPORTANT

Em algumas situações, as sombras podem tornar difícil saber a diferença


entre formações geológicas com relevo alto (e.g. montanhas) e formações de baixo
relevo ou depressões (e.g. cânions) (RIEBEEK, 2013) (nosso cérebro se “confunde”). Essa
ilusão de ótica é chamada de inversão do relevo (LIU; TODD, 2004). Isso decorre do
fato de que muitos de nós temos uma expectativa inconsciente de ver alvos iluminados
de cima (ângulo reto). Contudo, em imagens de satélite e fotografias aéreas (sem a
ortorretificação), nem sempre é o que acontece (rotineiramente, o Sol ilumina as feições
com ângulos oblíquos). Uma solução simples para a inversão do relevo é visualizar as
imagens em vários ângulos diferentes (como utilizar um software de edição de fotos
para rotacionar a imagem). Se uma paisagem parecer confusa, tente observá-la através
de um ângulo diferente (rotacione o seu Norte).

Observamos na Figura 4 que as linhas retas e formas geométricas nesta imagem


da cidade de Reese (Michigan/EUA) são resultado do uso do solo pelo homem.
Coordenadas do local: Lat. 43°26'40.65"N e Long. 83°41'22.90"O.

FIGURA 4 – FORMAS GEOMÉTRICAS ANTRÓPICAS

FONTE: Adaptada de <https://go.nasa.gov/3oFjhXH>. Acesso em: 23 nov. 2020.

Como sabemos, as cores em uma imagem vão depender da fonte


de radiação eletromagnética (REM); ou seja, o tipo de luz (Sol ou artificial)
que o instrumento de sensor remoto foi apto em captar e registrar, além das

174
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

características espectrais dos alvos (JENSEN, 2009; RIEBEEK, 2013). As imagens


em cores reais (composição RBG em cor verdadeira) usam o espectro de radiação
na região da luz visível (comprimentos de onda no vermelho, verde e azul), de
modo que as cores são semelhantes as que um astronauta a bordo da Estação
Espacial Internacional enxerga quando observa a Terra. Imagens em falsa cor
incorporam regiões do espectro que não enxergamos, e assim podem assumir
cores inesperadas (reveja o Tópico 2 da Unidade 1).

No Tópico 2 da Unidade 1 nós vimos que a água absorve muito bem a


radiação eletromagnética (REM), por isso é geralmente preta ou azul escura em
imagens de satélite. No entanto, há materiais que ficam em suspensão que podem
mudar a cor da água, como o sedimento (lama e areia). Quando a areia suspensa
ou a lama são densas, a água parece com uma cor marrom. À medida que o
sedimento se dispersa, em maiores profundidades, a cor da água muda para
verde e depois azul (RIEBEEK, 2013) (Figura 4-A). Águas rasas de mares ou lagos
com fundos arenosos também podem causar um efeito semelhante. A luz do Sol
refletida na superfície da água faz com que ela fique com um aspecto prateada,
a até mesmo cinza e esbranquiçada (Figura 4-B). Esse fenômeno, conhecido
como sunglint (brilho solar) (você já deve ter olhado para o mar num certo dia e
notou que a água estava prateada), pode destacar feições de ondas ou manchas
de óleo, mas também pode mascarar a presença de material em suspensão na
coluna d’água, como sedimentos ou fitoplâncton (RIEBEEK, 2013). Não obstante,
nosso conhecimento da assinatura espectral dos alvos permite manipular as
composições para salientar algo do nosso interesse. No mais, nos oceanos, os
organismos planctônicos podem colorir a água em uma grande variedade de
azuis e verdes. A vegetação submersa, como as florestas de algas (e.g. kelps),
pode fornecer uma tonalidade escura ou marrom às águas costeiras.

Na Figura 5 temos: A) sedimentos em suspensão colorem o mar próximo


à costa (águas costeiras) perto da foz do Rio Zambeze (Moçambique). A água fica
mais escura ao largo da costa à medida que o sedimento se dispersa. B) o efeito
sunglint (quando o Sol faz com que a água se torne prateada aos nossos olhos)
torna possível ver os padrões atuais na superfície do oceano ao redor das Ilhas
Canárias (Espanha).

175
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

FIGURA 5 – DIFERENTES CORES DA ÁGUA EM IMAGENS ORBITAIS

FONTE: Adaptada de <https://go.nasa.gov/39Bk31F>; <https://go.nasa.gov/35DeGh1>. Acesso


em: 23 nov. 2020.

As plantas exibem diferentes tons de verde, e essas diferenças aparecem na visualização


em composição verdadeira a partir de imagens de satélites (JENSEN, 2009). As
pastagens tendem a ser verdes claras, enquanto as florestas possuem um tom verde
escuro. A terra exposta (solo nu), usada para a agricultura, costuma ter um tom muito
mais brilhante do que a vegetação natural (RIEBEEK, 2013). Em alguns locais da Terra,
especialmente em latitudes altas e médias (onde as estações do ano sem bem definidas),
a estação climática vai definir a cor da vegetação, e tudo isso pode ser analisado por
meio do SR (RIEBEEK, 2013). A vegetação da primavera tende a ser mais clara do que a
densa vegetação do verão. A vegetação de outono pode ser vermelha, laranja, amarela
e castanha; a vegetação de inverno é normalmente sem folhas (marrom). Por esses
motivos, é crucial conhecer a data da aquisição da imagem, e assim associá-la a um

176
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

tipo de vegetação e sua época do ano.

A Figura 6 nos mostra a mudança nas cores de uma floresta ao longo das quatro
estações do ano nas Montanhas Great Smoky (Tennessee e Carolina do Norte, EUA).
Coordenadas: Lat. 35° 1'50.25"N e Long. 84° 5'22.76"O.

FIGURA 6 – VARIABILIDADE NAS CORES DA VEGETAÇÃO AO LONGO DO ANO

FONTE: Adaptada de <https://earthobservatory.nasa.gov/ContentFeature/ColorImage/images/


WalkerBranch_amo_seasons_2012-13.jpg> Acesso em: 23 nov. 2020.

177
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

DICAS

Observe a variação de cores da superfície da Terra ao longo de um ano (The


Breathing Earth). Note que os ciclos sazonais/estacionais podem ser perfeitamente cap-
tados por sensores que registram a energia eletromagnética (REM) refletida pelos alvos
terrestres, especialmente pela vegetação. Vídeo de 30 segundos disponível no YouTube.
Na íntegra em: https://www.youtube.com/watch?v=en7DtacHhNs.

De acordo com Riebeek (2013), o solo exposto/nu ou com vegetação bem esparsa
geralmente exibe tons em marrom (do escuro ao claro). Como já sabemos através da
leitura da Unidade 1 (Tópico 2), a cor do solo em composição verdadeira (cor natural)
vai depender de seu conteúdo mineral e, em alguns casos, da quantidade de matéria
orgânica, do conteúdo de água (umidade) e alguns outros fatores. Em alguns lugares,
como o deserto australiano, a terra exposta possui tons avermelhados, por causa da
alta concentração de óxidos de ferro (assim como o planeta Marte, que é conhecido
como o “planeta vermelho” justamente pela alta concentração de óxido de ferro no
solo de sua superfície). Quando o solo é branco ou cinza muito claro, especialmente
em leitos de lagos ou mares secos, pode ser por causa de minerais à base de sal, silício
ou cálcio (dica: pesquise imagens na internet sobre o Mar de Aral) (JENSEN, 2009).
Os detritos vulcânicos são marrons, cinza ou pretos (e.g. material piroclástico e vidros
vulcânicos). Há muitas cores para os solos do nosso planeta, que são oriundos dos
diferentes materiais que os compõem (CCMEO, 2019).

As cores são um excelente elemento visual para interpretar imagens. Entretanto, ao
analisar uma imagem de satélite, toda a informação é condensada nesse plano em duas
dimensões; isto é, vemos tudo “junto” entre o sensor e a superfície (e.g. nuvens, poeira,
neblina, solo) (RIEBEEK, 2013), ou seja, ao observarmos uma mancha branca em uma
imagem orbital, podemos interpretá-la como uma nuvem, mas ela também poderia
ser neve ou uma planície de sal, por exemplo. Dessa forma, é importante combinar
outros elementos visuais para uma correta interpretação, como a forma, a textura e o
contexto das características (RIEBEEK, 2013). O contexto é importante porque você terá
que responder à pergunta “o que devo esperar encontrar em tal local?” Por exemplo:
em num estudo em uma zona urbana, você vai esperar encontrar ruas, casas, e muitos
elementos na cor cinza e na cor magenta (rosa) (caso você esteja utilizando composição
em cor natural), por exemplo.

A quarta dica, de acordo com o roteiro da NASA (RIEBEEK, 2013), é encontrar o Norte;
ou seja, orientar uma imagem. De forma análoga quando uma pessoa se perde em
uma cidade e a forma mais fácil dela “se achar” é encontrar um ponto de referência
conhecido, as imagens de satélite também passam por esta técnica. Se você identificar o
Norte, e em seguida orientar uma imagem para este ponto cardeal, poderá descobrir se
alguma determinada montanha está do norte para o sul ou do leste para o oeste, ou se
uma cidade está no lado leste ou oeste de um rio (RIEBEEK, 2013). Esses detalhes podem
ajudá-lo a combinar os recursos e elementos em um mapa. A convenção é orientar as
imagens para o Norte geográfico, com uma seta indicativa. Todavia, também é comum
rotacionar uma imagem para melhor reproduzi-la (note que a seta indicativa do Norte

178
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

também terá que ser rotacionada em mapas).

Por fim, a quinta e última dica da NASA para os intérpretes de imagens que estão
iniciando suas carreiras é: considere o seu conhecimento prévio acerca da área do
projeto. De acordo com Riebeek (2013), o conhecimento da área de estudo pode ser
considerado como a ferramenta mais poderosa de um intérprete de imagens de SR.
Além disso, a experiência (tanto prática e empírica quanto adquirida pelo estudo de
bibliografias ou base de dados) são primordiais, uma vez que só podemos reconhecer
alvos em imagens que, de fato, conhecemos (não é possível identificar algo que você
não sabe a forma, a cor etc.). Segundo Florenzano (2011), a quantidade de informação
que podemos extrair a partir de uma interpretação de fotografias e imagens de uma
área de estudo é proporcional ao conhecimento de um intérprete sobre esta mesma
área. No geral, o reconhecimento de alvos por meio dos elementos visuais e a sua
correta interpretação é algo que segue uma mecânica fixa, mas é na verdade um
processo repetitivo com interconexões (Figura 7).

Na Figura 7 observamos que as etapas da interpretação visual de imagens podem ser


consideradas como um fluxograma, e o conhecimento de objetos e da área possuem
um papel essencial.

FIGURA 7 – FLUXOGRAMA DAS ETAPAS DA INTERPRETAÇÃO VISUAL DE IMAGENS

FONTE: Adaptada de <https://seos-project.eu/>. Acesso em: 23 nov. 2020.


O conhecimento do local em que o projeto está sendo desenvolvido nos permite
conectar os dados de SR com acontecimentos diários do nosso cotidiano (fazer
correspondências), como crescimento populacional, atividade vulcânica e tectônica,
crescimento de florestas, saúde pública e muitas outras (RIEBEEK, 2013). Dessa
forma, podemos atribuir sentido a um dado que foi adquirido remotamente. É sempre
importante ter em mente que há objetos que são muito difíceis de serem identificados,

179
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

ao passo que outros são prontamente reconhecidos. Nossas experiências e percepções


individuais podem fazer a diferença positivamente. Portanto, podemos concluir que a
interpretação visual de imagens vai depender do conhecimento técnico-científico, do
conhecimento sobre os alvos (características espectrais) e acuidade visual do usuário
de SR.

3 ETAPAS NA ESCOLHA DE UMA IMAGEM


Mesmo após este último conteúdo, dúvidas ainda podem surgir, por exemplo: como
escolher a imagem correta para o meu objetivo? Quais as etapas que devo seguir? De
uma forma mais completa e detalhada, podemos nos basear no fluxograma de Prost
(2013) (Figura 8). Conforme o autor, devemos considerar uma gama de variáveis para
escolhermos o sensor ideal para o nosso projeto, uma vez que cada tipo de sensor irá
gerar uma imagem com características específicas que atendem a objetivos distintos
(veja a Tabela 1 e na Figura 15 no próximo tópico desta unidade). De acordo com o
autor, o primeiro passo consiste no delineamento do objetivo de seu projeto. Isso, como
já sabemos, definirá qual é o tipo de imagem que vamos necessitar.

A Figura 8 mostra um fluxograma idealizado de um típico projeto que utiliza dados


de SR (DEKKER, 1993; PROST, 2013). Em muitas situações práticas do dia a dia, não é
possível seguir a risca o fluxograma, mas é importante seguir suas principais etapas, a
fim de padronizar os procedimentos. Além do mais, o fluxograma de trabalho (etapas)
varia de autor para autor, como veremos a seguir.

FIGURA 8 – FLUXOGRAMA DE UM TÍPICO PROJETO (ACADÊMICO OU PROFISSIONAL) QUE


UTILIZA DADOS ORIUNDOS DE SR AÉREO (SUB-ORBITAL) OU ORBITAL

FONTE: Adaptada de Prost (2013, p. 4)

180
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

Como falado anteriormente, as etapas vão variar de autor para autor. Vejamos mais
um exemplo. De acordo com Soares-Filho (2000), o processo de escolha de materiais
(dados) para a interpretação de imagens é composto pelas seguintes etapas:

• (I) determinação do objetivo do projeto;


• (II) definição da área de interesse, escala de trabalho e definição das classes e legenda
de mapeamento;
• (III) escolha dos dados (imagens), definição do sistema sensor em função do objetivo
e nível de detalhe versus recursos disponíveis (qual sensor é o mais ideal?);
• (IV) determinação da melhor dará de aquisição da imagem, considerando cobertura
de nuvens, ângulo de elevação solar e melhor distinção entre as feições (alvos de
interesse);
• (V) escolha dos canais. Tal seleção vai depender do comportamento/assinatura
espectral dos alvos ou fenômenos que compõem a área de interesse;
• (VI) levantamentos de dados sobre a área de interesse. Buscar bibliografias sobre a
área que está sendo trabalhada;
• (VII) interpretação preliminar da área com análise conjunta com dados colaterais.
Saída de campo para realizar levantamentos sobre a área do mapeamento (busca
das áreas representativas);
• (VIII) correlacionar os dados de campo (verdade terrestre) com os dados oriundos
do SR para a validação e interpretação. Finalizando com a confecção dos produtos
finais.

Como podemos notar, tanto Prost (2013) quanto Soares-Filho (2000) nos apresentam
etapas um pouco diferentes para o processo de escolha de sensores para um dado
projeto. No entanto, em ambos o resultado será o mesmo; ou seja, a produção de um
mapa temático utilizando dados de SR fidedigno a realidade. Assim, é importante ter
em mente que há etapas a serem seguidas em qualquer projeto que utiliza dados de SR,
tanto em ambientes urbanos quando em áreas rurais.

Para fixar bem este conhecimento, que é de suma importância para você acadêmico:
é essencial tomar uma decisão informada sobre qual tecnologia (qual sistema sensor)
escolher para um projeto que requer dados espaciais após considerar todas as
características e necessidades. Tanto as imagens aéreas quanto as imagens de satélite
possuem pontos fortes e fracos.

181
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

E
IMPORTANT

Conforme a SEOS (c2020), uma iniciativa da União Europeia para a utilização


de Sensoriamento Remoto (SR), a prática de interpretação de imagens possui as seguintes
fases:
• aquisição de documentos: imagens de satélite, mapas etc.;
• pré-interpretação: distribuição bruta, divisão da área etc.;
• pré-investigação parcial do terreno: reconhecimento das características e
particularidades regionais da área do projeto;
• interpretação de detalhe: áreas serão consideradas individualmente, os objetos serão
reconhecidos e comparados aos mapas. Os objetos facilmente identificáveis são
tratados primeiro;
• verdade-terrestre/Levantamentos em campo: verificar os dados em campo para
analisar os resultados (a interpretação por SR foi correta?). Podem ser definidas áreas
por amostragem;
• representação dos resultados: produção de mapas, mapeamento temático, relatórios
etc.

DICAS

Dados colaterais ou auxiliares são informações oriundas de uma revisão


de todo o material cartográfico e bibliográfico existente sobre uma determinada área,
fenômeno ou alvo/objeto, os quais podem ajudar no processo de interpretação. O uso de
material colateral também pode resultar em uma melhor definição do escopo, objetivos e
problemas associados a um determinado projeto. O material colateral pode ser relatórios
de órgãos oficiais, artigos científicos, trabalhos acadêmicos, tabelas, mapas, gráficos ou
metadados de imagens, por exemplo.

TUROS
ESTUDOS FU

No próximo tópico, você pode consultar uma tabela bem detalhada (Tabela
1) e uma figura (Figura 15) que mostram quais sistemas sensores (em plataformas orbitais
ou plataformas aerotransportadas) servem para um determinado objetivo. Conhecer os
principais sensores e qual objetivo este sensor desempenha melhor é uma tarefa básica
de um analista de SR.

182
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

4 CHAVES DE INTERPRETAÇÃO DE IMAGENS



Segundo Florenzano (2011), podemos utilizar os elementos de interpretação de
imagens para elaborarmos chaves de interpretação, que são uma espécie de modelos
a serem seguidos. Estas chaves de interpretação correspondem à descrição de um
conjunto de elementos de interpretação visual que caracterizam um determinado
alvo ou classe temática (FLORENZANO, 2011). As chaves normalmente são feitas por
usuários experientes através de seus conhecimentos prévios e análises de imagens
atuais. Elas guiam e sistematizam o processo de reconhecimento de objetos e classes
para a interpretação de fotografias e imagens. Os usuários, ao utilizar chaves, terão um
desempenho melhor, mais consistente e mais organizado na identificação correta de
objetos e feições (FLORENZANO, 2011). Em suma, as chaves de interpretação ajudam
no reconhecimento e interpretação de diversos alvos que são imageados por técnicas
de SR.

As chaves garantem uma mais alta objetividade em relação aos resultados da


interpretação. Além disso, os resultados são padronizados, uma vez que as análises são
feitas por vários usuários individuais; logo, as chaves (que são “guias”) vão garantir
maior consistência em imagens interpretadas por vários usuários (JOSEPH, 2005).
No entanto, as chaves normalmente abordam apenas uma questão ou área de estudo
específica, uma vez que as feições e correspondências espaciais observadas em uma
determinada área particular (seja natural, como florestas, ou antrópica, como zona
rural/urbana) não podem amplamente transferidas para outros locais (isto depende
do tipo de chave e do local) (JENSEN, 2009). Por exemplo: uma chave de identificação
de vegetação na região amazônica não poderá ser utilizada para a identificação de
vegetação em climas temperados, mas, em alguns casos, algumas chaves podem
suprir as necessidades dos usuários de várias localidades diferentes, pois mudam
minimamente.

Para Florenzano (2008; 2011), pelo fato de que os produtos de SR e os alvos que compõem
a superfície do planeta são muito diversos, cada usuário pode desenvolver suas
próprias chaves de interpretação. Vamos utilizar o exemplo proposto por Florenzano
(2008): em uma imagem orbital ou aérea feita na região da luz visível, uma voçoroca,
resultante do processo de erosão por chuvas, pode ser identificada através da seguinte
chave: tonalidade clara (similar à do solo nu), textura lisa e forma alongada, conforme
pode ser analisado na Figura 9.

A Figura 9 apresenta imagens do satélite Ikonos (A) do ano 2000 (resolução espacial
de 1 m) e do satélite Quickbird (B) (2006, resolução de 0,7 m) da cidade de São José dos
Campos/SP. O círculo indica uma voçoroca, ao passo que o quadrado indica um antigo
lago (A) que foi transformado em uma praça (B). Detalhe para a expansão urbana ao
longo das datas das imagens (2000 e 2006).

FIGURA 9 – IDENTIFICAÇÃO DE ALVOS POR DIFERENÇAS NOS ELEMENTOS DE


INTERPRETAÇÃO

183
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

FONTE: Adaptada de Florenzano (2008, p. 50)

De acordo com Joseph (2005) e Florenzano (2011), as chaves são comumente mais
confiáveis para ambientes antrópicos ou culturais (casa, pontes, estradas etc.) do que
para vegetação ou feições naturais em geral. Entretanto, Lillesand, Kiefer e Chipman
(2015) ressaltam que um grande número de chaves têm sido amplamente empregadas
com sucesso para a identificação de variados cultivos agrícolas e de diversas espécies
de árvores. Todavia, Lillesand, Kiefer e Chipman (2015) também salientam que tais
chaves de interpretação são geralmente desenvolvidas em locais específicos e em
estações climáticas específicas, uma vez que a vegetação é fortemente dependente
destas duas variáveis. Portanto, é essencial saber a data e hora em que foi adquirida
a imagem de satélite (ou fotografia aérea digital) e qual composição o usuário está
lidando (quais comprimentos de onda do espectro eletromagnético foram registrados)
para desenvolver uma chave de interpretação.

As chaves de interpretação podem ser de seleção ou de eliminação (JOSEPH, 2005;


LILLESAND; KIEFER; CHIPMAN, 2015). As primeiras são organizadas por meio de
vários exemplos, contendo fotografias/imagens e textos explicativos, na qual o usuário
tentará enquadrar e associar sua feição de interesse com a fotografia/imagens exibida
na chave. Já as chaves de eliminação vão guiar o usuário através de um passo a passo
contendo uma série de escolhas como o tom da cor (claro ou escuro), se a textura lisa ou
rugosa, dentre inúmeras outras (assim, por causa de sucessivas eliminações, o usuário
identificará o seu alvo de interesse). Portanto, dois tipos principais de chaves de
interpretação visual de imagens existem (seleção ou de eliminação), e são diferenciadas
pelo método de apresentação para o usuário (como será feito o diagnóstico por parte do
intérprete); ou seja, como o usuário irá “ler e observar” a chave (LILLESAND; KIEFER;
CHIPMAN, 2015).
A seguir, veremos exemplos de diferentes tipos de chaves de interpretação visual. O
quadro na Figura 10 mostra um exemplo de chave de interpretação do tipo seleção para
o uso e ocupação do solo em uma bacia hidrográfica, na qual há uma classe com sua
imagem correspondente (esta imagem serve para mostrar como a classe é visualizada
no computador). Tal chave foi feita utilizando imagens Landsat e do Google Earth
184
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

(BENINI, 2015). Note que não há descrição de como cada classe é, mas há fotografias
feitas em campo. Neste exemplo, as classes identificadas foram: Área urbana; Pastagem;
Corpo Hídrico; Solo Nu; Área Verde Urbana; e Vegetação Nativa (Figura 10).

Observe na Figura 10 um exemplo de chave de interpretação de classes utilizando


imagens do Landsat e do Google Earth. Note que foram realizados levantamentos para
verificar a verdade terrestre (fotos de campo).

FIGURA 10 – EXEMPLO DE CHAVE DE INTERPRETAÇÃO

FONTE: Adaptada de Benini (2015, p. 87-88)


A Figura 11 exibe um quadro produzido por Santos, Francisco e Almeida (2015). Os
autores produziram uma chave de interpretação visual de imagens (do tipo seleção)
a partir de imagens do Landsat 8/OLI na composição R5G4B3 (infravermelho) (caso

185
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

necessário, revise o conteúdo sobre composições e combinações de bandas espectrais


no Tópico 2 da Unidade 1). Santos, Francisco e Almeida (2015) definiram 12 classes de
cobertura da terra presentes na área de estudo: água limpa, água turva, afloramento
rochoso, apicum, área urbana, brejo, floresta, herbácea, lagoa, mangue, solo arenoso,
solo argilo-arenoso. Note que neste exemplo há um texto descritivo sobre como são
alguns elementos de cada classe (no exemplo anterior havia somente uma fotografia
feita em campo). Lembre-se do comportamento espectral da vegetação e da água.

FIGURA 11 – CLASSES DE COBERTURA DA TERRA A PARTIR DO LANDSAT 8/OLI EM


COMPOSIÇÃO NO INFRAVERMELHO (R5, G4, B3)

FONTE: Adaptada de Santos, Francisco e Almeida (2015, p. 712)

186
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

Uma chave de interpretação por eliminação para a identificação de árvores frutíferas


para uma área no estado da Califórnia (EUA) é apresentada na Figura 12 (LILLESAND;
KIEFER; CHIPMAN, 2015). Este tipo de chave é feito frequentemente sob a forma de
escolhas dicotômicas, na qual há um caminho específico a perseguir de acordo com as
suas respostas. Assim, o intérprete faz uma série de escolhas entre duas alternativas e
vai eliminando progressivamente todas, exceto uma resposta possível (sobre a resposta
que mais se encaixa) (LILLESAND; KIEFER; CHIPMAN, 2015). O uso de chaves de
eliminação pode levar à respostas mais positivas do que chaves seletivas (Figuras 10
e 11), mas pode resultar em respostas erradas se o intérprete for forçado a fazer uma
escolha incerta entre duas características de imagem não familiares. Em suma, as chaves
de eliminação são compostas por descrições de palavras que variam em vários níveis
de discriminação de características (partindo das características amplas em direção às
mais específicas). O usuário avança por essa hierarquia, fazendo escolhas em caminhos
de descrição ramificados. Por fim, pelo processo de eliminação de todos os recursos
diferentes, o alvo é identificado.

A Figura 12 apresenta um exemplo de chave de interpretação por escolhas dicotômicas


(chave por eliminação) para diferentes tipos de árvores frutíferas na região do Vale
de Sacramento, no estado da Califórnia (EUA). Um caminho é trilhado a partir de
suas escolhas (oriundas da observação dos alvos/árvores nas imagens). Esta chave foi
desenvolvida para interpretar imagens aéreas pancromáticas na escala de 1:6000.

FIGURA 12 – EXEMPLO DE CHAVE DE INTERPRETAÇÃO POR ELIMINAÇÃO

FONTE: Adaptada de Lillesand, Kiefer e Chipman (2015, p. 67)

187
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

Também é possível elaborar uma chave de interpretação um pouco mais genérica,


como demonstrado no quadro da Figura 13. Este exemplo mostra uma chave para
o mapeamento da cobertura do solo com imagens Landsat MSS (em se tratando de
imagens de banda única e em composições em falsa cor). Em outras palavras, essa
chave nos indica qual cor vamos enxergar para um determinado alvo.

Na Figura 13 o exemplo apresenta uma chave de cores para o mapeamento da cobertura


do solo com imagens Landsat MSS (em se tratando de imagens de banda única e em
falsa cor), mostrando quais cores dos alvos visualizaremos de acordo com a banda
espectral única ou com composições.

FIGURA 13 – EXEMPLO DE CHAVE DE INTERPRETAÇÃO POR CORES

FONTE: Adaptada de <https://bit.ly/2XICRqd> Acesso em: 23 nov. 2020.

Por fim, a análise de imagem tradicional faz uso de certos elementos-chave de


reconhecimento, e com tais elementos visuais podemos fazer uma espécie de
padronização que vai guiar o usuário para um reconhecimento de objeto por SR
que seja fidedigno ao objeto real. Há chaves de interpretação para muitos ambientes
diferentes, bem como para muitos lugares do globo.

Rotineiramente, o usuário terá que desenvolver suas próprias chaves de interpretação,


observando as características do sensor remoto (suas propriedades de captação
de energia eletromagnética refletida), bem como a data, horário e o local da coleta
da imagem. Não obstante, há chaves muito completas que possuem a descrição
pormenorizada de cada um dos oito elementos de interpretação visual que estudamos
na seção anterior. Em suma, para fixar bem o conteúdo, podemos frisar que as chaves
fornecem um método de organizar as informações de maneira consistente e sistemática,
fornecendo uma orientação sobre a identificação correta de recursos (alvos) ou

188
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

condições presentes em imagens.

E
IMPORTANT

Desenvolvimento das chaves de interpretação

As chaves correspondem a um conjunto de características ou elementos que auxiliam o


usuário/intérprete a reconhecer ou identificar vários alvos de interesse (objetos, classes de
uso do solo etc.) de modo sistemático em imagens de satélite ou fotografias aéreas duran-
te o procedimento de interpretação visual e a classificação digital (GAUR; PANDEY; GOYAL,
2016). Assim, as chaves são uma espécie de análise integrada dos elementos visuais para
atribuição de significado para os alvos e classificação de áreas (zonas homogêneas), que
variam espacialmente e temporalmente com características locais. Idealmente, de acordo
com Gaur, Pandey e Goyal (2016), uma chave de interpretação deve possuir no mínimo
dois componentes principais:

• Coleção de imagens (banco de dados): as cenas tem que ser estudadas para a correta
distinção dos alvos em várias composições de bandas espectrais diferentes e ao longo
das estações do ano, com o intuito de entender o padrão de resposta espectral do
alvo de interesse. Recortar e/ou demarcar os alvos ou classes identificados.

• Descrição de cada objeto ou classe temática: um texto deve acompanhar cada clas-
se ou alvo que foi reconhecido pelo usuário, com a descrição dos elementos (tom,
textura, padrão etc.).

DICAS

Que tal praticarmos um pouco a arte de interpretar imagens orbitais por meio
do software Google Earth? Este programa (também disponível em sua versão on-line; isto
é, sem a necessidade de download e instalação, pode ser acessado na íntegra em: https://
earth.google.com/web/) é muito útil para conhecer uma área previamente (antes de ad-
quirir imagens de satélite da série Landsat, por exemplo.

Observe a Figura 14-A. Você consegue dizer claramente que é um centro urbano,
correto? Podemos fazer algumas inferências sobre o tipo de urbanização, a verticalização
da cidade, o planejamento ou não das ruas (ruas e vias não planejadas nos dão uma
dica da “idade” de uma cidade), a presença de parques e campos de futebol. Tudo
isso utilizando os elementos de interpretação visual. No entanto, para falarmos um
pouco mais sobre qual é exatamente a cidade, precisamos dar um zoom out, isto é,
olhar numa pequena escala para ter um panorama regional (Figura 14-B). Isso mostra

189
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

a importância de combinar diferentes escalas de visualização. Nesta nova imagem, em


menor escala, podemos notar que a cidade está localizada numa ilha (Florianópolis/SC,
na Ilha de Santa Catarina). Assim, abra o Google Earth (caso não tenhas o programa
instalado, acesse sua versão on-line) e procure pela sua cidade.

• (1) Como é o padrão das ruas?


• (2) Há presença de áreas verdes na imagem (contraste de tons verdes e marrons/
cinza)?
• (3) Existe algum alvo que você, que conhece a sua cidade, conseguirá diferenciar
e um usuário iniciante que não conhece a cidade terá dificuldade (conhecimento
sobre a área de estudo)?

A Figura 14 nos apresenta a combinação de diferentes escalas para descrevermos


um objeto ou área de interesse. Em A) temos um zoom numa cidade, mas a falta de
informação não nos permite distingui-la corretamente (alguns hábeis intérpretes
podem ter decifrado a cidade logo numa primeira vista). Já em B) podemos notar que é
uma ilha (Ilha de Santa Catarina), por causa que diminuímos a escala de visualização.
Assim, a imagem em A) consiste num zoom do centro de Florianópolis/SC. Note em A)
como a imagem está oblíqua (sem ortorretificação).

FIGURA 14 – COMBINAÇÃO DE DIFERENTES ESCALAS DE VISUALIZAÇÃO DE UMA CIDADE

FONTE: O autor

190
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE

LEITURA COMPLEMENTAR

ANÁLISE DE IMAGENS DE ALTA RESOLUÇÃO ESPACIAL BASEADA EM


OBJETOS PARA CLASSIFICAÇÃO DE ASSENTAMENTOS PRECÁRIOS

Bruno Dias dos Santos e Carolina Moutinho Duque de Pinho (2017)

De acordo com o Ministério das Cidades (2010), os assentamentos precários são por-
ções do território urbano de grandeza e tipologias variáveis, mantendo em comum o
fato de serem áreas de uso predominantemente residencial e de serem ocupadas por
moradores – em sua maioria – de baixa renda, que exercem múltiplas estratégias para
viabilizar, de modo autônomo, soluções para suas necessidades habitacionais, em con-
sequência do não acesso à moradia pelo Estado e pelas vias do Mercado.

Essas áreas também podem ter inúmeras precariedades nas condições de moradia, tais
como: a irregularidade fundiária; ausência de infraestrutura de saneamento ambiental;
localização em áreas mal servidas por sistema de transporte e equipamentos sociais;
terrenos sujeitos a riscos geotécnicos e alagáveis; adensamento populacional excessivo,
insalubridade e fragilidade construtiva da habitação.

A tipologia adotada pelo Ministério das Cidades (2010) engloba inúmeras categorias,
com destaque para: os cortiços, as favelas, os loteamentos irregulares de baixa renda e
os conjuntos habitacionais produzidos pelo poder público que se acham degradados.

Denaldi (2009) propõe uma classificação dos assentamentos precários, que agrupa
todas as categorias levantadas pelo Ministério das Cidades, objetivando identificar
tipos de assentamento, necessidades habitacionais, intervenções necessárias e tendo
como base as suas características físicas, sendo os assentamentos classificados em
“consolidados” – já integrados urbanisticamente e dotados de infraestrutura básica – e
assentamentos “não consolidados”, sendo o último subdividido em “consolidáveis”
– podendo ou não ter remoções das famílias moradoras – e “não consolidáveis” –
requerem uma intervenção do tipo “remoção” e reassentamento em novas áreas.
Fundamentado na experiência de Denaldi (2009), partimos da hipótese que podemos
estabelecer uma chave de interpretação de imagens visando o grau de consolidação
de um assentamento precário, e utilizaremos os dados de sensoriamento remoto
para identificar as características físicas relevantes desses assentamentos numa área
do município de São Bernardo do Campo – SP. Este estudo insere-se no grupo de
pesquisa intitulado “Observatório de Remoções”, contribuindo na frente de trabalho
de mapeamento.

A área de estudo se restringe um quadrado com área de 25 km², conforme pode ser
visualizado na Figura da Área de Estudo (logo abaixo), situado na porção norte de
São Bernardo do Campo, dentro da Macrozona Urbana Consolidada, na Macrorregião
conhecida como Montanhão, divisa com Santo André e que de acordo com o PLHIS
(2012) possui um dos piores Índices Paulistas de Vulnerabilidade Social do município.
O Montanhão é a macrorregião com a maior quantidade de assentamentos precários,
69 em seu total, todos eles favelas e loteamentos irregulares fora da área de manancial

191
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

determinada pela Represa Billings e com assentamentos bem diversos nas tipologias
definidas no PLHIS.

FIGURA – LOCALIZAÇÃO DA ÁREA DE ESTUDO NO MUNICÍPIO DE SÃO BERNARDO DO


CAMPO

Para o trabalho foi utilizado uma imagem WorldView 3 da área de


trabalho escolhida, adquirida em 30 de agosto de 2015, uma pancromática com
resolução espectral 0,3 m e outra multiespectral com resolução 0,6 m e com 8
bandas: banda 1 (coastal blue), banda 2 (azul), banda 3 (verde), banda 4 (amarelo),
banda 5 (vermelho), banda 6 (red edge), banda 7 (infravermelho próximo 1) e
banda 8 (infravermelho próximo 2); e Ortofotos da EMPLASA, ano de 2010 em
composição natural, de São Bernardo do Campo e com resolução espacial de 1
metro. Os materiais utilizados para processamento da imagem foram: (1) software
ENVI 5.2 para a preparação da imagem WorldView 3; (2) software QGis 2.14.8
para elaboração de mapas temáticos; e (3) raster do Modelo Digital de Elevação
(MDE) da EMPLASA, ano de 2010, em formato tiff.

Um processo de fusão foi realizado sobre as imagens. Fusão de imagens é a


operação que combina imagens diferentes com o objetivo de se obter um produto
sintético final de melhor qualidade. O método de fusão utilizado neste trabalho
foi o de Principais Componentes, que primeiramente realiza a transformação das
bandas multiespectrais em um mesmo número de componentes independentes
(PINHO, 2005). A primeira componente principal (CP1) é substituída pela banda
pancromática e em seguida é realizada uma transformação inversa.
192
Buscando identificar feições em imagens e determinar o significado de
cada uma, foram elaboradas chaves de interpretação de imagem. As chaves,
definidas em função dos elementos de interpretação, ajudam na leitura das
feições presentes em uma imagem. Os assentamentos precários dentro da área
de estudo, com base na imagem WorldView 3, foram analisados em comparação
com as seis tipologias levantadas no PLHIS de São Bernardo do Campo e por
meio dos elementos de interpretação: cor, tamanho, forma, localização/contexto
e textura; e depois foram validados em relação ao restante do município tendo
como base as ortofotos da EMPLASA. O resultado das chaves de interpretação
pode ser observado na Tabela a seguir.

193
Os elementos de interpretação, quando bem explorados, nos permitem
extrair muitas informações de uma imagem de satélite. As chaves de interpretação
de imagem, por sua vez, possibilitam uma melhor leitura das feições presentes
em uma imagem. As chaves de interpretação que foram obtidas neste trabalho
caracterizam os assentamentos precários de São Bernardo do Campo numa forma
autêntica e segura. Podem servir por si só, como um instrumento para os gestores
da área de habitação do município.

FONTE: <http://marte2.sid.inpe.br/col/sid.inpe.br/marte2/2017/10.27.15.43/doc/59283.pdf>.
Acesso em: 12 jan. 2021.

194
RESUMO DO TÓPICO 1
Neste tópico, você aprendeu que:

• Os alvos em imagens de SR tratam-se de qualquer característica ou objeto que podem


ser visualizados na imagem, e algumas características (elementos) são utilizadas
para diferenciá-los, como: localização, forma, tamanho, padrão, tonalidade (tom),
textura, sombra e associação.

• O reconhecimento de objetos e a interpretação de imagens podem ser definidos


como: análise de imagens com o objetivo de identificar alvos, feições e objetos e
julgar os seus significados.

• A qualidade de uma interpretação dependerá do grau de exploração dos elementos


espaciais, espectrais e temporais presentes em uma dada imagem ou fotografia.

• Em alguns casos, um único elemento já é suficiente para uma identificação bem-


sucedida e correta; entretanto, em outras situações, será necessário o uso de vários
elementos diferentes. Os analistas comumente utilizam os elementos sem fazer
considerações sobre cada um deles (por vezes, em nossa mente, a identificação se
torna “automática”).

• Os pesquisadores da NASA baseiam-se nas seguintes dicas em suas interpretações:


(i) definir a escala de trabalho; (ii) procurar os padrões, formas e texturas; (iii) definir
as cores (incluindo sombras); (iv) encontrar o Norte geográfico; e (v) considerar o
conhecimento prévio sobre a área do projeto.

• O conhecimento da área de estudo pode ser considerado como a ferramenta mais


poderosa de um intérprete de imagens de SR, pois nos permite conectar os dados de
SR com acontecimentos diários do nosso cotidiano (fazer correspondências).

• Há etapas a serem seguidas para definir qual imagem e qual resolução será necessário
para o objetivo de seu projeto.

• As chaves de interpretação correspondem à descrição de um conjunto de elementos


de interpretação visual que caracterizam um determinado alvo ou classe temática
(são uma espécie de modelos a serem seguidos).

• As chaves de interpretação podem ser de seleção ou de eliminação, e garantem uma


mais alta objetividade com relação aos resultados da interpretação. Além disso, os
resultados são padronizados, uma vez que as análises são feitas por vários usuários
individuais; logo, as chaves (que são “guias de orientação”) vão garantir uma maior
consistência em imagens interpretadas por vários analistas distintos.

195
AUTOATIVIDADE

1 Uma das principais finalidades do Sensoriamento Remoto (SR) é interpretar as


imagens ou os resultados das rotinas de processamento de imagens digitais;
afinal, adquirimos imagens de SR com o intuito de observar algo nela (extraindo
informações). Essa interpretação pode ser conceituada como o ato de examinar
fotografias aéreas/imagens de satélite com o objetivo de identificar objetos/alvos/
feições/áreas homólogas e julgar seu significado. Alguns elementos comuns para
realizar a interpretação da imagem são: localização, tamanho, forma, sombra,
tom/cor, textura, padrão, altura/profundidade e local/situação/associação. Isto
posto, observe a figura a seguir. Trata-se de uma imagem do IKONOS (1 m de
resolução espacial), que mostra um trecho de diferentes tipos de vegetação.
Assim, disserte sobre qual (ou quais) elemento utilizamos para poder discernir os
tipos de cobertura do solo na imagem e se é possível verificar se há interferência
antrópica/cultural nesta área.

FIGURA – VEGETAÇÕES

FONTE: Adaptada de <https://bit.ly/3oFveN3>. Acesso em: 23 nov. 2020.

2 A interpretação de imagens é a forma mais básica de análise de SR, consistindo


na identificação manual de características em uma imagem por meio de sua
observação por um intérprete. A interpretação da imagem é baseada em elementos
(também chamadas de atributos de imagem) que são inerentes às imagens. Este
método pode ser altamente confiável, e uma ampla variedade de características
pode ser identificada, como tipo e condição de vegetação e características
antrópicas, estradas e atividade de extração mineral, por exemplo. Observe a
figura a seguir (imagem de satélite disponível no Google Earth) e utilizando os

196
conhecimentos adquiridos nesta seção, identifique os recursos/alvos enumerados
(caso necessário, pesquise pelas coordenadas no Google Earth para melhor
visualizar o local). Sobre o exposto, assinale a alternativa CORRETA:

Coordenadas: Lat. 29°58'21.62"S e Long. 51°11'52.61"O

FONTE: Adaptada de <http://bit.ly/3bEVYcR>. Acesso em: 23 nov. 2020.

a) ( ) I corresponde a uma piscina olímpica; II é uma rodovia; III é um rio


canalizado e IV é uma área de cultivo agrícola.
b) ( ) I corresponde a um estádio de futebol; II é um rio; III é uma estrada
e IV é uma fábrica (galpões grandes).
c) ( ) I é uma pista de corrida; II é uma rodovia; III é um rio canalizado e
IV é uma área industrial (talhados grandes).
d) ( ) I corresponde a um estádio de futebol; II é um rio; III é uma
área residencial (telhados pequenos) e IV é uma fábrica (galpões
grandes).
e) ( ) I é um aeroporto; II é uma estrada marginal de uma rodovia; III é
uma rodovia e IV é parque urbano com muitas árvores.

3 Uma chave de interpretação é um conjunto de diretrizes usado para ajudar os


intérpretes a identificar rapidamente os objetos em uma imagem. A determinação
do tipo de chave e do método de apresentação a ser empregado dependerá
de fatores como o número de alvos a serem identificados e variabilidade
normalmente encontrada em cada classe de recursos ou objetos da chave. Alguns
autores afirmam que, como regra geral, as chaves são mais facilmente construídas
e usadas para a identificação de objetos e feições artificiais do que para vegetação
natural e formas de relevo. Dependendo da maneira como as feições diagnósticas
são organizadas, dois tipos de chaves são geralmente reconhecidos. Sobre a
nomenclatura utilizada para estes dois tipos de chaves, assinale a alternativa

197
CORRETA:

a) ( ) As chaves de interpretação podem ser de uso do solo ou de área


urbana.
b) ( ) As chaves de interpretação podem ser de orientativas ou
sistemáticas.
c) ( ) As chaves de interpretação podem ser de área urbana ou de área
rural.
d) ( ) As chaves de interpretação podem ser de seleção ou de eliminação.
e) ( ) As chaves de interpretação podem ser de objetivas ou subjetivas.

198
UNIDADE 3
TÓPICO 2 —

PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE


SENSORIAMENO REMOTO

1 INTRODUÇÃO
Sabemos que diferentes produtos SR podem ser adquiridos por meio de
diferentes plataformas de aquisição para um grande número de locais, dependendo
das necessidades da aplicação. Dessa forma, é fundamental realizar alguns
questionamentos antes de iniciar um novo projeto profissional ou acadêmico que
envolva imagens de satélite. Assim, o usuário deverá considerar principalmente
variáveis como: o tipo de sistema sensor remoto necessário (por exemplo: imagens
multiespectrais, imagem da banda pancromática, dados de radar, se a finalidade
da aplicação exige saber a altitude da área de interesse etc.), a resolução espacial
necessária, fatores temporais (por exemplo, você precisa de uma imagem para
uma data ou época do ano específica? Ou você precisa “acompanhar” a evolução
da cobertura do solo a cada dia ou semana? Ou você precisa verificar a diferença
de uma área ao longo de décadas?) e, por último, mas não menos importante,
sua disponibilidade financeira para aquisição de imagens (imagens de altíssimas
resolução espacial, utilizadas principalmente para mapeamentos de detalhe,
são compradas, e seu valor é de acordo com o satélite e com o tamanho da área
requisitada). O objetivo de seu projeto vai definir a escolha do sensor; ou seja, do
tipo de produto a ser utilizado.

E
IMPORTANT

Existem muitos fornecedores comerciais de imagens de satélite e o custo


por área (normalmente vendidas por km² a partir do mínimo de 25 km²) pode variar
significativamente. Um cotação recente (setembro/2020) de imagens do satélite
WorldView 2 (50 cm de tamanho de pixel) para uma área de oito km² no estado de Santa
Catarina retornou o valor de US$: 437 dólares para 25 km² (embora a venda das imagens
seja por km², a maioria dos fornecedores comerciais trabalham com uma área mínima
para a venda de 25 km²). Vale relembrar que há muitas fontes de imagens de satélite
com menor resolução espacial que são gratuitas (e.g. séries Landsat, Sentinel, CBERS).
Algumas destas gratuitas podem ser úteis em sua aplicação, não sendo necessário o
gasto com a compra.

199
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

Embora, num primeiro momento, os custos de imagens com altíssima


resolução espacial podem abduzir o interesse de uma empresa ou órgão público
em sua compra, há algumas vantagens que podem transformar tal custo em
um verdadeiro investimento. Imagine, em um caso hipotético, que o setor de
fiscalização ambiental e o departamento de tributação de um dado município,
providos de um bom setor de Geoprocessamento, disponham de imagens
anuais de altíssima resolução espacial. Neste caso, será possível um detalhado
monitoramento para aplicação de auto de infração por supressão de vegetação
não autorizada, multas por construções irregulares (sem alvarás ou em áreas de
preservação permanente, por exemplo), regularização fundiária, dentre outras,
ou seja, haverá um aumento de receitas de um município, com a vantagem de
auxiliar no planejamento e na preservação ambiental.

DICAS

Duas bibliografias para ampliar seus conhecimentos com relação às


inúmeras aplicações do Sensoriamento Remoto (SR) (para as mais diversas áre-
as do conhecimento) consistem nos dois volumes da obra Aplicações e Princípios
do Sensoriamento Remoto. Os dois volumes do e-book gratuito possuem um to-
tal de 43 capítulos (dos mais variados temas do SR) que são de grande valia para os
usuários de SR e de Geoprocessamento. Ambos os volumes, publicados em 2018,
são um esforço de pesquisadores e professores de diversas universidades do Brasil.
- Link para o volume 1 na íntegra em: https://bit.ly/2KicT9Z.
- Link para o volume 2 na íntegra em: https://bit.ly/38K9JVD.

2 RESOLUÇÕES E APLICABILIDADES DE SENSORES REMOTOS


No Tópico 2 da Unidade 1, nós vimos uma tabela que relacionou as diversas
regiões do espectro (comprimento de onda específico) e suas possíveis aplicações.
Agora, vamos lidar com a aplicabilidade dos sensores remotos orbitais como
um todo. A Tabela 1 exibe as principais variáveis que podemos medir e os tipos
sensores que podem ser utilizados para a mensuração desta variável biofísica ou
híbrida, ou seja, Sistemas sensores de Sensoriamento Remoto (SR) que podem ser
utilizados para obter possíveis informações sobre variáveis biofísicas e híbridas
selecionadas, de acordo com Jensen (2009). Há muitas opções de sensores remotos
para as mais diversas finalidades.

200
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

TABELA 1 – VARIÁVEIS QUE PODEM SER MENSURADAS E TIPOS SENSORES QUE PODEM SER
UTILIZADOS POR SR

Variáveis biofísicas Sistema de Sensoriamento Remoto

- LiDAR (Light Detection and Ranging)


- Sistema Global de Navegação por Satélite (GNSS)
Controle geodésico - Estereoscopia de imagens aéreas (analógicas ou digitais)
(x, y, z) - Plataformas orbitais: IKONOS (European Space
Posicionamento Imaging®); QuickBird (DigitalGlobe©); OrbView-3
(x, y) a partir (GeoEye/USGS); SPOT-HRV (França); Landsat (sensores
de imagens Thematic Mapper e Enhanced TM+); IRS-1CD (Índia);
ortocorrigidas ERS-1 e 2 (sensores de micro-ondas da Europa); ENVISAT
MERIS (Europa); MODIS (NASA); RADARSAT 1 e 2
(Canadá); CBERS-1, 2 e 2B (Brasil/China).

- GNSS; fotografias aéreas estereoscópicas; LiDAR;


Topografia e SPOT; RADARSAT; IKONOS; QuickBird; OrbView-3;
Batimetria SRTM (Shuttle Radar Topography Mission); ifSAR
- Modelo Digital de ou inSAR (Interferometria por Radar de Abertura
Elevação (MDE) Sintética)
- SONAR (Sound Navigation and Ranging);
- Modelo Digital LiDAR batimétrico; fotografia aérea estereoscópica;
Batimétrico (MDB) Ecobatímetros (single-beam e multi-beam); SDB
(Satellite Derived Bathymetry).

- Fotografia aérea colorida; Landsat ETM+; IKONOS;


Vegetação
QuickBird; OrbView-3; SeaWiFS (NASA); ASTER
- Pigmentos (e.g.
(Radiômetro Espacial Avançado de Emissões Térmicas
clorofilas a e b)
e Reflexão); MODIS (Moderate-Resolution Imaging
- Altura e estrutura
Spectroradiometer-NASA); ENVISAT; Sensores
do dossel (copa)
hiperespectrais aerotransportados (e.g. AVIRIS,
- Biomassa por
HYDICE, AISA)
meio dos índices de
- Fotografia aérea estereoscópica; LiDAR; RADARSAT,
vegetação
ifSAR
- Índice de área
- Fotografia aérea infravermelha colorida (CIR);
foliar (IAF)
Fotografia aérea; Landsat (TM, ETM+); IKONOS;
- Radiação
QuickBird; OrbView-3; AVHRR (Advanced Very High
fotossinteticamente
Resolution Radiometer); CBERS (CCD, WFI); MISR
ativa absorvida
(Multi-angle Imaging SpectroRadiometer); Sensores
(FAPAR)
hiperespectrais aerotransportados (e.g. AVIRIS,
- Evapotranspiração
HYDICE, AISA).

Temperatura
- ASTER; AVHRR; GOES; Hyperion; MISR;
superficial
MODIS, SeaWiFS; Sensor infravermelho termal
(terra, água,
aerotransportado.
atmosfera)

201
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

Solos e Rochas - ASTER; Micro-ondas passivo (SSM/1); RADARSAT;


MISR; ALMAZ (Russo); Landsat (TM, ETM+); ERS-1 e
- Humidade 2; Intermap Star 3i
- ASTER; MODIS; Sistemas hiperespectrais (e.g.,
- Composição AVIRIS, HYDICE, AISA)
mineral - Fotografias aéreas de alta resolução e de
infravermelho colorido (CIR); Sensores hiperespectrais
- Taxonomia aerotransportados (e.g. AVIRIS, HYDICE, AISA)
- Landsat (TM, ETM+); ASTER; MODIS; Sensores
- Alteração hiperespectrais aerotransportados (e.g. AVIRIS,
hidrotermal HYDICE, AISA).

- Fotografia aérea; ALMAZ; ERS-1 e 2; RADARSAT;


Rugosidade
Intermap Star 3i; IKONOS; QuickBird; ASTER;
Superficial
ENVISAT ASAR.

Atmosfera
- MISR; GOES; AVHRR; MODIS; CERES; MOPITT;
MERIS
- Aerossóis
- GOES; AVHRR; MODIS; MISR; CERES; MOPITT;
- Nuvens
UARS; MERIS
- Precipitação
- TRMM (Tropical Rainfall Measuring Mission); GOES;
- Vapor d’água
AVHRR; SSM/1; MERIS
- Ozônio
- MODIS; GOES; MERIS
- Tempestades
- MODIS
elétricas
- GOES.
Água
- Cor
- Hidrologia
- Fotografia aérea colorida e de infravermelho (CIR);
superficial
Landsat (TM, ETM+); SPOT; IKONOS; QuickBird;
- Sedimentos em
OrbView-3; ASTER; SeaWiFS; MODIS; Sensores
suspensão
hiperespectrais aerotransportados (e.g. AVIRIS,
- Clorofila/matéria
HYDICE, AISA); AVHRR; GOES; LiDAR batimétrico,
orgânica em
MISR, CERES, Hyperion, TOPEX/POSEIDON, MERIS.
suspensão
- Matéria orgânica
dissolvida

Neve e Gelo - Fotografia aérea colorida e de infravermelho (CIR);


Marinho Landsat (TM, ETM+); SPOT; SeaWiFS; IKONOS;
- Extensão e QuickBird; ASTER; MODIS; MERIS; ERS-1 e 2;
características RADARSAT.

Vulcanismo
- ASTER; MISR; Hyperion; MODIS; Sensores
- Temperatura,
hiperespectrais aerotransportados.
gases, piroclasto

BRDF (Função
de Distribuição
- MISR; MODIS; CERES.
da Reflectância
Bidirecional)

202
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

Variáveis híbridas
Sistema de Sensoriamento Remoto
selecionadas
Uso do Solo
- Comercial,
residencial,
transporte etc. - Fotografia aérea estereoscópica de alta resolução
- Cadastro pancromática, colorida ou infravermelha (CIR);
Territorial Imagem de satélite de alta resolução espacial (< 1 x 1
Multifinalitário (e.g. m: IKONOS, QuickBird, OrbView-3, WorldView 2);
IPTU) SPOT (2,5 m); CBERS-4A; LiDAR; Sistemas sensores
- Gerenciamento hiperespectrais aerotransportados de alta resolução
Costeiro (e.g. AVIRIS, HYDICE, AISA).
- Auxílio no
Cadastro Ambiental
Rural (CAR)
- Fotografia aérea colorida ou infravermelha;
Cobertura do Solo Landsat (MSS, TM, ETM+); SPOT; ASTER, AVHRR;
- Agricultura, áreas RADARSAT; IKONOS; QuickBird; OrbView-3; LiDAR;
verde, parques, ifSAR; SeaWiFS; MODIS; MISR; MERIS; CBERS-4A,
urbanização etc. Sensores hiperespectrais aerotransportados (e.g.
AVIRIS, HYDICE, AISA).
- Fotografia aérea colorida ou infravermelha; Landsat
Vegetação (TM, ETM+); IKONOS; QuickBird; OrbView-3; AVHRR;
- Estresse (saúde SeaWiFS; MISR; MODIS; ASTER; MERIS; Sensores
das plantas) hiperespectrais aerotransportados (e.g. AVIRIS,
HYDICE, AISA).
FONTE: Adaptada de Jensen (2009 p. 11-12)

NTE
INTERESSA

Maior raio do mundo é registrado no Brasil, com 709 km de extensão. Você


sabia que foi através do SR que os cientistas puderam medir o maior raio do mundo? Tal
façanha foi possível por meio da utilização de dados do sensor Geostationary Lightning
Mappar (GLM), que fica a bordo do satélite GOES.

FIGURA – O MAIOR RAIO DO MUNDO

FONTE: <https://bit.ly/3smbpfU>. Acesso em: 26 nov. 2020.

203
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

O maior raio do mundo, em extensão, cortou o Sul do Brasil em outubro de 2018, percor-
rendo uma distância de 709 km (veja na Figura). Leia esta notícia na íntegra em: http://glo.
bo/3bDCaGR.

Como podemos perceber por meio da visualização da Tabela 1, os tipos


de sistemas sensores (em suas diversas plataformas) e as variáveis biofísicas e/ou
híbridas por eles mensuradas são inúmeras (JENSEN, 2009). Dessa forma, há uma
ampla gama de aplicações para resolver problemas ambientais e da sociedade.
Essa Tabela 1 é de suma importância para os usuários de dados de Sensoriamento
Remoto (SR). É fundamental saber quais satélites (e seus sensores) serão úteis
para o seu projeto. Obviamente que não há necessidade de decorar tal tabela,
mas com o tempo e a experiência, o usuário vai conseguir associar quais sensores
podem ser utilizados para uma determinada aplicação.

Em geral, as propriedades mais importantes para os mapeamentos de


áreas agrícolas e urbanas consistem na resolução temporal (a cada quantos dias
haverá uma nova imagem disponível) e espacial (qual o menor tamanho de
objeto que o pixel permite identificar). De fato, a expertise de um analista de
Geoprocessamento que lida com dados de SR exige muito treino, além da leitura
de bibliografias variadas e atualizadas. Idealmente, seu aprendizado não deve
ficar restrito somente a esta presente obra.

DICAS

O e-book gratuito denominado Satélites para Detecção Remota Aplicada


à Gestão Territorial (publicado em 2012, com 65 páginas) é um guia técnico em
português que tem como objetivos fundamentais proporcionar aos seus leitores uma
breve introdução à detecção remota por satélite e ainda constituir um apoio à aquisição
de imagens de satélite ópticos. A versão em português é uma tradução da obra original
em espanhol "Satélites de Teledetección para la Gestión del Territorio". O livro traz
informações de uma série de satélites que podem gerar imagens que são utilizadas
para o monitoramento e gestão de territórios. Acesse na íntegra em: https://www.
researchgate.net/publication/262215037_Satelites_para_Deteccao_Remota_aplicada_a_
Gestao_Territorial_versao_em_portugues.

A Figura 15 também pode ser analisada para entender quais sensores


podem ser utilizados para um dado objetivo, como agricultura, mapeamento
geológico, áreas urbanas (crescimento e infraestruturas) dentre outros. Como
sabemos, cada tipo de aplicação exigirá uma resolução temporal, espacial,
radiométrica e espectral adequada. Novamente, é importante frisar que a
identificação de qual sistema sensor pode ser utilizado para um dado objetivo é
uma das funções principais de um usuário de dados de SR e Geoprocessamento.
A Figura 15 pode ser entendida como uma forma gráfica de mostrar alguns
204
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

sensores e aplicações que acabamos de ver na Tabela 1. Por exemplo: em situações


de emergências (e.g. deslizamentos de terra, tempestades, fortes ressacas) uma
alta resolução temporal é necessária, pois tais situações mudam frequentemente,
já para analisar a cobertura do solo (e.g. crescimento de zonas industriais), as
imagens não precisam ser tão frequentes (KADHIM; MOURSHED; BRAY, 2016).

Temos na Figura 15 uma visão geral da resolução espectral, espacial,


temporal e radiométrica de diferentes sistemas sensores de satélite e algumas
áreas de aplicação de tais sistemas sensores. Cada aplicação tem seus próprios
requisitos de resolução específicos e, dessa forma, há a necessidade de realizar
compensações ou trocas (trade-offs) entre os diferentes tipos de resolução (espacial,
temporal, espectral e radiométrica). Símbolos: Bs - número de bandas espectrais,
que incluem espectro de luz visível (VLS), infravermelho próximo (NIR),
infravermelho médio (MIR) e porção no infravermelho termal (TIR) do ​​ espectro
eletromagnético; RGB – imagem digital colorida; e PAN – imagem pancromática.

FIGURA 15 – VISÃO GERAL DAS RESOLUÇÕES E APLICABILIDADES DE DIFERENTES SISTEMAS


SENSORES

FONTE: Adaptada de Kadhim, Mourshed e Bray (2016, p. 9)

205
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

Por fim, como vimos através de todo o conteúdo do livro, bem como pelas
sugestões de leituras (UNI DICAS), o SR é empregado em estudos de fenômenos
ambientais; em desastres naturais; monitoramentos de áreas naturais, habitats
e biodiversidade; paisagem urbana e industrial; áreas rurais; estudos florestais,
dentre muitas outras áreas de aplicação. Cada aplicação exige imagens com
diferentes atributos. O usuário de SR deve atentar-se a isto. Entretanto, apesar
de inúmeras vantagens, é possível destacar algumas desvantagens que veremos
a seguir na próxima seção.

DICAS

Um e-book essencial para o usuário de Sensoriamento Remoto (SR),


especialmente com aplicação para zonas agrícolas e ambientes rurais, consiste na obra
“Geotecnologias e Geoinformação – O Produtor Pergunta, a Embrapa Responde” da
coleção 500 Perguntas e 500 Respostas, da Embrapa. Como o próprio título sugere, o
livro é uma coletânea de perguntas e respostas dos mais variados temas. Nessa obra,
publicada em 2014, você encontrará perguntas e respostas sobre os seguintes temas:
Satélites e Produtos; Panorama Atual; Tendências Mundiais; Sensoriamento Remoto;
Processamento de Imagens Digitais e Gestão da Informação; Geoprocessamento;
Agrometeorologia; Hidrologia; Agricultura; Pecuária; Silvicultura; Adequação
Ambiental Rural; Mudanças Climáticas e Modelagem Ambiental; Ordenamento
Territorial e Zoneamento; e Educação e Transferência de Tecnologia. Baixe o e-book
gratuitamente. Na íntegra em: https://mais500p500r.sct.embrapa.br/view/publicacao.
php?publicacaoid=90000028.

Uma excelente bibliografia em se tratando de Sensoriamento Remoto (SR) e técnicas de


Geoprocessamentos aplicados às áreas rurais consiste no livro “Agricultura de Precisão:
Resultados de um Novo Olhar”. O e-book gratuito de 2014, desenvolvido por técnicos
e pesquisadores da EMBRAPA, é extremamente rico em informações, englobando vários
conceitos e metodologias abordados no decorrer da nossa disciplina de Sensoriamento
Remoto II. É uma bibliografia essencial para você, acadêmico! Acesse na íntegra em:
http://bit.ly/3qhgsMO.

3 VANTAGENS E DESVANTAGENS DO SENSORIAMENTO


REMOTO (SR)
De acordo com Kerle e Oppenheimer (2002), Prasad et al. (2014) e Thenkabail (2016)
podemos comparar as técnicas de SR por meio da análise de suas vantagens e
desvantagens (Tabela 2). No geral, um dos maiores trunfos do SR orbital consiste em
nos permitir levantar dados de uma extensa área em pouco tempo. Por exemplo, uma
cena do Landsat cobre uma área de 30 mil km² da superfície terrestre, produzindo
imagens espectrais em várias bandas e com uma resolução espacial de 30 m. Mesmo
com os custos de verificação dos dados em campo, ainda é vantajoso economicamente
(THENKABAIL, 2016). Não obstante, o SR possui a vantagem de ser um método não
invasivo, uma vez que mede a radiação eletromagnética (REM) refletida pelos alvos,

206
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

além de também oferecer uma visão sinótica e histórica da cobertura do solo.


Ademais, com o SR é possível adquirir dados de locais de difícil acesso. Na Era Digital em
que vivemos, os dados digitais oriundos de sensores remotos são facilmente integrados
em uma plataforma de Sistema de Informação Geográfica (SIG), maximizando o poder
de interpretação de um analista. Por fim, há satélites em atividade, produzindo imagens
da superfície da Terra, desde 1972. Esta propriedade multianual e histórica permite ter
uma análise dinâmica da evolução do uso e cobertura do solo.

TABELA 2 – PRINCIPAIS VANTAGENS E DESVANTAGENS DA UTILIZAÇÃO DO SENSORIAMENTO


REMOTO (SR) EM COMPARAÇÃO COM OS MÉTODOS TRADICIONAIS (COLETAS EM CAMPO)

Vantagens Desvantagens
• Os instrumentos (sensores), tanto
• Baixo custo relativo dos produtos
os orbitais, os aerotransportados e
(considerando áreas extensas) e
os portáteis são caros. Além disso,
rapidez. Não obstante, há muitos
há alguns produtos com custo alto
dados de SR gratuitos.
(principalmente para áreas pequenas).
• Os dados de SR não são medidas
diretas, e por isso requerem calibração
• Fornecem uma visão contínua,
com dados reais. Vários sensores não
repetitiva, grande área geográfica e
cobrem toda a superfície da Terra e
visão sinóptica em comparação com
também vários possuem uma resolução
os métodos tradicionais.
temporal e espacial insuficiente para
determinadas aplicações.
• Exigem pré-processamento para
• Fácil obtenção de dados de locais
corrigir distorções radiométricas
perigosos ou de difícil acesso. Variedade
e geométricas, e assim serem
de sensores para mensurar diversas
propriamente utilizados em mapas
variáveis biofísicas e/ou híbridas.
(georreferenciamento).
• Fácil manipulação em • O tratamento (pré-processamento,
computadores. Permitem uma análise realce e extração de informações),
atualizada de algum problema bem como a interpretação dos dados
ou questão de interesse das mais de SR exige profissionais treinados e
diversas áreas. com conhecimento do assunto.
• Dependendo do volume e do tipo
• Permitem a integração com de dado que está sendo trabalhado,
produtos de SIG em ambiente digital. é necessário um computador potente
(caro).
• Podem possuir uma série histórica
• A maioria dos sensores orbitais
que remonta várias décadas atrás.
apenas coleta informações de
Dependendo do sistema sensor, é
superfície (dados em subsuperfície
possível adquirir imagens antes,
ou serão inferidos indiretamente
durante e após certo fenômeno ou
ou serão coletados em campo). Em
área de interesse (e.g. acompanhar
alguns lugares, a interpretação não é
a evolução da superfície, cultivos
uma tarefa fácil.
agrícolas, expansão urbana).
FONTE: Adaptada de Kerle e Oppenheimer (2002, p. 144), Prasad et al. (2014, p. 152) e
Thenkabail (2016, p. 232)

207
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

De acordo com Jensen (2009), talvez a pior desvantagem do SR esteja no fato de ser
excessivamente “vendido” de forma positiva; isto é, como se o SR resolverá todos
os problemas dos profissionais e cientistas (mas sabemos que o SR possui muitas
limitações). Outro ponto negativo está no fato de que os dados de SR são basicamente
reflexões de REM. Tais reflexões têm que ser calibradas para unidades físicas, e
sempre há algum pequeno erro associado às correções necessárias, uma vez que
há uma grande fonte de incertezas e erros (como vimos na Unidade 2). Além disso,
muitos pesquisadores e profissionais não dão atenção à etapa da “verdade terrestre”
(conferência e verificação em campo). Apesar destas desvantagens e das desvantagens
elencadas na Tabela 2, o SR ainda é uma excelente forma de adquirir dados superficiais
de larga-escala, para as mais inúmeras aplicações (veja novamente a Tabela 1, que
mostra as variáveis biofísicas e híbridas, onde tal variável se aplica a quais sistemas de
SR podem ser utilizados para o objetivo).

4 MODELOS DIGITAIS DE ELEVAÇÃO (MDE)


De acordo com o IBGE, um Modelo Digital de Elevação (MDE) é um modelo digital que
representa as altitudes da superfície topográfica agregada aos elementos geográficos
existentes sobre ela, como cobertura vegetal e edificações. Estes produtos possuem uma
gama de aplicação para resolver problemas ambientais (LI; ZHU; GOLD, 2004). No
Brasil, há três termos que são rotineiramente utilizados como sinônimo, mas devemos
saber diferenciá-los. Além do MDE, temos ainda os termos Modelo Digital de Terreno
(MDT) e o Modelo Digital de Superfície (MDS). Você sabe a diferença entre eles?

Em nosso país, o MDE, que é um dado raster, pode ser considerado um sinônimo de
MDT (note que em alguns países, como os EUA, o MDE é diferente de MDT). O MDE/
MDT é contabilizado a partir da altitude do solo em relação ao nível do mar (datum
vertical). Já MDS é contabilizado a partir do topo de edificações e de vegetações, ou
seja, tanto os MDE/MDT e os MDS são dados matriciais que fornecem a altitude de
um alvo, mas exibem altitudes diferentes (um tipo vai exibir a altitude da distância
do solo ou do terreno, já o outro tipo vai mostrar a altitude a partir do topo de algum
objeto, seja ela natural ou artificial). Em outras palavras, o MDS representa a altimetria
de todos os objetos da área mapeada, onde cada pixel representa um ponto mapeado
com uma altitude específica (assim, é possível analisar as feições do terreno mapeado).
Já o MDT representa o perfil do terreno (podendo ser feito através de uma filtragem
do MDS), excluindo suas feições (ou seja, não é possível analisar alvos como casas e
edifícios neste tipo de produto). No mais, existem metodologias para converter MDS
em MDT e vice-versa.

208
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

DICAS

Os Modelos Digitais de Elevação (MDE) possuem uma vasta aplicação para


profissionais e acadêmicos que lidam com áreas urbanizadas, zonas rurais e ambientes
naturais. Uma grande aplicação deste tipo de produto está na confecção de mapas de
curvas de níveis, mapas de declividade, hipsometria, delimitação de vertentes e de bacias
hidrográficas, por exemplo. Por isso, os MDEs são produtos muito utilizados em estudos
para licenciamento ambiental (confecção de laudos hidrológicos, por exemplo). Para am-
pliar seus conhecimentos em relação à aplicação destes produtos na geomorfologia, em
especial o produto SRTM, leia o artigo: Aplicações dos Modelos de Elevação SRTM em
Geomorfologia (Revista Geográfica Acadêmica, v. 2, 2. ed., 2008, p. 73-83) disponível na
íntegra em: https://search.proquest.com/docview/1952388435.

Na Figura 16 temos um exemplo da forma de aquisição de dados para um MDS


(imagem na parte de cima) e de um MDT (porção inferior da imagem). Note que os
MDS mostram as formas de feições como casas e árvores, ao passo que o MDT não
mostra tais feições.

FIGURA 16 – DIFERENÇA DE UM MDS PARA UM MDT

FONTE: Adaptada de: <https://bit.ly/2XENbPU>. Acesso em: 24 nov. 2020.


Muitos autores consideram o MDE como uma grande categoria que


pode ser subdividido em MDS e MDT. Dessa forma, para efeitos práticos, vamos
considerar o termo MDE como uma classe genérica que engloba tanto o MDS
quanto o MDT. Estes modelos são representações matemáticas que reproduzem a
superfície topográfica (relevo) de uma porção da Terra, a partir de um conjunto de
coordenadas e de um datum vertical (normalmente ao nível do mar). A utilização
de MDEs é essencial para a realização de correções geométricas e radiométricas

209
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

em imagens de SR, e permite também a geração de curvas de nível, fornecendo


assim mais uma fonte de informações para análise de seu projeto (CCMEO, 2019).
A disponibilidade de um MDE é fundamental em projetos que lidam com bacias
hidrográficas, por exemplo.

Os diferentes tipos de MDE são amplamente usados em Geoprocessamento


em SIG para uma variedade de objetivos (LI; ZHU; GOLD, 2004). A partir
desses modelos é possível extrair dados planialtimétricos que são utilizados
em cálculos de áreas, aterros, terraplanagem, planejamento urbano e rural,
obras de engenharia, impacto visual de grandes empreendimentos, simulações
de barragens, mapeamento de áreas de risco, manejo florestal e identificação
de Áreas de Preservação Permanente/APP (conforme o novo Código Florestal
Brasileiro, encostas ou parte destas com declividade superior a 45°, equivalente a
100% na linha de maior declive, são consideradas APP). Estes são somente alguns
exemplos da utilização de modelos de elevação/superfície, ou seja, o emprego
de MDEs em locais que exibem um relevo acidentado é crucial (dependendo
do objetivo do projeto, obviamente). De fato, há uma demanda crescente por
MDEs por causa do aumento do uso SIG e Geoprocessamento para a solução de
problemas urbanos e ambientais (CCMEO, 2019).

No geral, é possível produzir um MDE a partir de diferentes técnicas,


principalmente por: topografia tradicional, Sistema Global de Navegação por
Satélite (GNSS), fotogrametria e digitalização cartográfica (LI; ZHU; GOLD,
2004). De acordo com Li, Zhu e Gold (2004), cada um desses métodos de aquisição
de dados altimétricos apresentam vantagens e desvantagens. Portanto, antes de
escolher o produto (que vai definir o tipo de método a ser empregado), devem-se
considerar aspectos como: finalidade do projeto/estudo; requisitos de precisão
(qual a acuraria e o nível de detalhe necessário); condições e disponibilidade de
equipamentos e área do projeto (por exemplo: regiões de montanhas são de difícil
acesso, então a aquisição de dados é mais rápida através de imageamento aéreo
ou orbital). Além disso, os levantamentos tradicionais em conjunto com alguns
mais modernos (utilizando RTK, DGPS e Estação Total), embora extremamente
precisos, consomem muito tempo e esforço, além do fato de que é difícil realizar
extensos levantamentos com tais equipamentos. Por isso, a aquisição de dados
altimétricos por SR é uma boa solução. A Tabela 3 mostra uma comparação de
vários métodos de aquisição de dados para a confecção de MDEs (LI; ZHU;
GOLD, 2004).

210
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

TABELA 3 – COMPARAÇÃO DA ACURÁCIA, VELOCIDADE, CUSTO E O TAMANHO DA ÁREA DE


APLICAÇÃO DOS PRINCIPAIS MÉTODOS DE AQUISIÇÃO MDES
Velocidade Domínio
Método de Acurácia do Custo do
de de
Aquisição Dado Levantamento
Aquisição Aplicação
Levantamento Pequenas
Alta (cm – m) Muito lenta Baixo a alto
tradicional áreas
Levantamento Relativamente Relativamente Pequenas
Lenta
por GNSS alta (cm – m) alto áreas
Médias e
Média à alta Relativamente
Fotogrametria Rápida grandes
(cm – m) baixo
áreas
Fotogrametria Baixa à média Muito Grandes
Baixo
Espacial (m) rápida áreas
Muito Grandes
InSAR Baixa (m) Baixo
rápida áreas
Radargrame- Muito baixa Muito Grandes
Baixo
tria (10 m) rápida áreas
Médias e
LiDAR Alta (cm) Rápida Alto grandes
áreas
Qualquer
Digitalização Relativamente
Lenta Alto tamanho de
de Mapas baixa (m)
área
Qualquer
Escaneamento Relativamente
Lenta Baixo tamanho de
de Mapas baixa (m)
área
FONTE: Adaptada de Li, Zhu e Gold (2004, p. 62)

A produção de um MDE a partir de SR pode ser eficiente e muito econômica.


Podemos destacar duas técnicas de SR que podem ser empregadas para a produção
de dados de elevação: (1) Métodos de Estereogrametria utilizando fotografias
aéreas (fotogrametria), imagens VIR (visível e infravermelho) e dados de Radar
(radargrametria) e (2) Interferometria por Radar (e.g. InSAR) (CCMEO, 2019).

DICAS

Há muitos produtos que exibem as altitudes do alvos/objetos, bem como


as do terreno, tanto oriundos por SR quanto equipamentos em solo. Alguns produtos
de SR são disponibilizados gratuitamente (e.g. ALOS, SRTM, TanDEM-X) enquanto há
produtos prontos que são comprados. Dessa forma, a comparação da qualidade entre os
diferentes produtos é um tema frequentemente debatido entre autores, uma vez que a

211
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

acurácia vertical e espacial deve ser a melhor possível. Assim, a seguir será recomendada
a leitura de três publicações que versam sobre comparações de MDEs:
• Análise Comparativa entre os modelos digitais de elevação ASTER, SRTM
e TOPODATA (Anais XV Simpósio Brasileiro de Sensoriamento Remoto – SBSR,
2011, INPE, p. 4003-4010), disponível na íntegra em: https://bit.ly/39BYb6a.
• Comparação do Uso de Modelos Digitais de Elevação em Mapeamento Digital de Solos
em Dois Irmãos, RS, Brasil (Revista Brasileira de Ciência do Solo, v. 38, n. 5, p. 1367-1376),
disponível na íntegra em: https://www.scielo.br/pdf/rbcs/v38n5/a02v38n5.pdf.
• Avaliação de Modelos Digitais de Elevação Extraídos de Imagem ALOS/PRISM e
Comparação com os Modelos Disponibilizados Gratuitamente na WEB (Revista
Geociências-UNESP, v. 31, n. 4, p. 650-664), disponível na íntegra em: https://bit.ly/3sujZZZ.

A estereogrametria envolve a extração de informações de elevação de


imagens estereoscópicas sobrepostas (a partir de pelo menos dois pontos de vista
diferentes), normalmente fotografias aéreas, imagens de satélite (e.g. SPOT) ou
imagens de radar. Já a interferometria envolve a coleta de dados de elevação
precisos usando passagens sucessivas (ou recepção de antena dupla) de SAR
espacial (orbital) ou aerotransportado (CCMEO, 2019). A Missão Topográfica
Radar Shuttle (SRTM – Shuttle Radar Topography Mission), da NASA, usa duas
imagens de radar de antenas capturadas ao mesmo tempo para criar um MDE.

Além dessas duas grandes classes de técnicas (estereogrametria e


interferometria) há também uma terceira técnica, o LiDAR (Light Detection And
Ranging) que é um sensor remoto ativo a bordo de plataformas (tripuladas,
como aviões ou não tripuladas, como VANTs). Como é um sensor ativo, gera
sua própria fonte de energia, neste caso, uma fonte de luz (laser) (INPE, c2020).
Para fazer o molde em 3D da superfície e de alvos, o LiDAR emite feixes de laser
na banda do infravermelho próximo (NIR – IV) (INPE, c2020). A partir desta
técnica é possível confeccionar um Modelo Digital de Terreno (MDT) e o Modelo
Digital de Superfície (MDS), que representam o terreno (sem nenhuma cobertura)
e a superfície (edifícios, árvores etc.), respectivamente. É muito utilizado em
levantamentos topográficos de detalhe, para caracterizar vegetações e áreas de
reflorestamento, bem como a volumetria de ambientes naturais (e.g. volume
de dunas frontais) e de ambientes urbanos (e.g. edificações) (INPE, c2020). Os
milhões de pontos X, Y, Z coletados pelo equipamento necessitam de um bom
computador para o processamento do dado.

5 PRÁTICAS EM SOFTWARES LIVRES UTILIZANDO MDE


Vamos, então, realizar uma prática que consiste em gerar curvas de nível
a partir de um MDE no software livre QGIS, observando o tutorial desenvolvido
pelo especialista em Geoprocessamento Anderson Medeiros (www.clickgeo.
com.br/). De acordo com o tutorial prático, tal procedimento é muito comum em
projetos de Geoprocessamento, uma vez que compreende dados geográficos com
uma possibilidade de aplicação em várias áreas (engenharia, gestão do território,
estudos ambientais, laudos hidrológicos etc.). A Figura 16 nos traz os passos que
vamos abordar logo a seguir.
212
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

FIGURA 17 – PRODUÇÃO DE CURVAS DE NÍVEL A PARTIR DE UM MODELO DIGITAL DE


ELEVAÇÃO (MDE) NO PROGRAMA DE SIG & GEOPROCESSAMENTO QGIS

FONTE: Adaptada de <www.clickgeo.com.br/>. Acesso em: nov. 2020.


Neste excelente tutorial do especialista em Geoprocessamento Anderson


Medeiros, é utilizado um recorte de um MDE da cidade de Porto Alegre/RS com
a resolução espacial de 1 m como exemplo. O 1º passo na Figura 16 mostra este
recorte do MDE. Ressalta-se que este procedimento é válido para todo o tipo de
MDE, incluindo os de menor resolução espacial, como o TanDEM-X (12 m) e o
SRTM (30 m e 90 m).

213
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

O 2º passo (Figura 16) mostra o comando que deve ser feito “Contorno”.
Para tanto, clique no menu “Raster” e no submenu “Extração”. A seguir, conforme
é mostrado no 3º passo, é necessário indicar o arquivo de entrada (MDE1m, neste
exemplo), o nome do arquivo a ser gerado (arquivo de saída) e o intervalo entre
as linhas de contorno (o quão espaçadas serão as suas isolinhas de altitude).
No 3º passo da Figura 16 também é possível ver as configurações e parâmetros
que foram utilizadas pelo autor do tutorial. Note que é importante definir um
intervalo que corresponda à resolução espacial de seu MDE. O especialista em
Geoprocessamento Anderson Medeiros alerta em seu tutorial que, caso contrário,
o QGIS vai gerar o vetor das isolinhas, mas não serão valores fidedignos. Não
obstante, é necessário indicar o nome do atributo (que por padrão é ELEV) para
que seja incluída na tabela de atributos uma coluna com os valores da altitude de
cada vetor. Feito isso, é necessário clicar em “Ok”.

O 4º passo (Figura 16) mostra o processamento sendo iniciado. Nesta
etapa (4º passo), já é possível ver o resultado de todas as curvas de nível geradas
pelo QGIS (neste exemplo, a camada do MDE foi desativada para facilitar a
visualização). O 5º passo mostrado na Figura 16 já exibe as isolinhas de mesmo
valor; ou seja, as curvas de nível. Nesta imagem do 5º passo é possível verificar os
valores de cada curva.

DICAS

Você pode fazer uma imagem de curvas de nível para o seu bairro! Basta
baixar algum MDE de fontes gratuitas, como o SRTM disponibilizado pela NASA/USGS.
Na íntegra em: https://earthexplorer.usgs.gov/.

O ALOS desenvolvido pela Agência Espacial Japonesa. Na íntegra em: https://www.eorc.


jaxa.jp/ALOS/en/aw3d30/index.htm.

E o TOPODATA produzido pelo INPE. Na íntegra em: http://bit.ly/3nO18pe.

Ressalta-se que o SRTM e o ALOS exigem um cadastro simples (o formulário de cadastro


está em inglês), ao passo que o TOPODATA é em português e não há necessidade de
cadastro. Então, busque o GeoTiff de sua região (arquivos estruturados em quadrículas
com escala de 1:250.000), recorte o raster para a sua região e extraia as curvas de nível
conforme o tutorial aqui esboçado.

Há muitos tutorais gratuitos na internet. Nesse contexto, o YouTube pode ser uma
excelente ferramenta para os usuários iniciais. Existe uma gama de professores e
profissionais que disponibilizam vídeos ensinando procedimentos ao custo zero. Por
exemplo, você quer recortar um raster no QGIS, mas está com dificuldade? Pesquise algo
assim no YouTube: “recortar um raster no QGIS”. Na grande maioria das vezes, haverá um
vídeo de algum usuário de um nível mais avançado ensinando tal procedimento passo
a passo.

Além de vídeos no YouTube, há inúmeras apostilas gratuitas que ensinam


procedimentos passo a passo para diversos programas livres e pagos. A seguir, você

214
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

pode baixar alguns destes manuais e cursos em PDF:


• Sensoriamento Remoto e Monitoramento Ambiental: Guia Prático e Visual com Spring
5.5, disponível na íntegra em: https://bit.ly/36zxCxP.
• Uso de Geotecnologias Livres para Apoio à Gestão de Bacias Hidrográficas (Tutorial
do QGIS), disponível na íntegra em: https://bit.ly/39CD4Az.

Agora, faremos outra prática orientada utilizando dois softwares livres: o QGIS
e o gvSIG. Também será utilizado um MDE para esta atividade. Esta prática está
disponível no livro “Noções Básicas de Geoprocessamento para Análises Ambientais”
(MIOTO et al., 2015). Este é um bom guia prático para usuários iniciais que estão
utilizando programas gratuitos. Esta prática envolve basicamente Geoprocessamento,
mas utilizando dados oriundos de SR (MDE). Salienta-se que será feito um apanhado
geral dos procedimentos esboçados por Mioto et al. (2015); ou seja, por falta de espaço,
não será feito o passo a passo detalhado.

Esta prática vai exigir a utilização de um MDE. Será utilizado o SRTM (Shuttle Radar
Topography Mission, versão 4). Você pode baixá-lo no seguinte link: http://srtm.csi.cgiar.
org/srtmdata/. Você pode fazer a delimitação da bacia hidrográfica de sua região,
basta seguir os passos deste roteiro. Nesta prática, será selecionada a tile da grade que
corresponde ao estado do Mato Grosso do Sul (MS) (mas é importante que você faça
a sua própria delimitação, seguindo este roteiro). Após selecionar a área de interesse é
necessário clicar em “Search” (o nome do arquivo deste guia é srtm_26_17.zip) e fazer
o download (Figura 18). A área de estudo compreende o estado do Mato Grosso do
Sul (MS), com o nome “srtm_26_17.zip”. No entanto, é recomendado que você faça a
delimitação da bacia hidrográfica de sua cidade.

FIGURA 18 – SELEÇÃO DA ÁREA DE ESTUDO (TILE) E SEU DOWNLOAD EM “ZIP”

FONTE: Adaptada de <https://srtm.csi.cgiar.org/srtmdata/>. Acesso em: 23 nov. 2020.

Como o arquivo recém baixado é muito grande (~500 × 550 km), é necessário
recortá-lo no QGIS antes dos procedimentos no gvSIG. O recorte no QGIS utilizou
um polígono de cerca de 25 × 20 km, conforme pode ser visualizado na Figura
19. Após o recorte, é necessário abrir o gvSIG e adicionar o MDE recortado. Note
que como estamos trabalhando com raster, é necessário selecionar “VISTA” ao
abrir o software gvSIG. Após os procedimentos iniciais de configuração do raster
no gvSIG, com a nomeação do projeto, escolha do sistema de coordenadas etc.,
você verá o recorte do MDE pronto para ser trabalhado (Figura 20). Já a Figura 21
215
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

mostra as etapas de extração das curvas de nível do recorte do MDE utilizando


o módulo Sextante no gvSIG. A Figura 21-A mostra o módulo Sextante, a Figura
21-B os parâmetros de entrada e a Figura 21-C o resultado.

FIGURA 19 – OPERAÇÃO DE RECORTE DA ÁREA DE INTERESSE NO DADO ORIGINAL


(RECORTE FEITO COM O POLÍGONO EM VERMELHO)

FONTE: Adaptada de Mioto et al. (2015, p. 107)

Esta etapa da figura 19 foi feita no QGIS, já as próximas serão no gvSIG.

FIGURA 20 – RECORTE DO MDE ABERTO NO GVSIG

FONTE: Adaptada de Mioto et al. (2015, p. 113)

Na Figura 21 temos: A) Módulo Sextante mostrando o comando utilizado


para criar as curvas de nível (Contour lines). Em B) temos os parâmetros do contorno
(foi definida a equidistância entre as isolinhas e o valor máximo e mínimo). Em C)
temos o resultado do contorno (note que é um procedimento similar ao feito na
Figura 17, realizado no QGIS).

216
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

FIGURA 21 – PROCEDIMENTOS A SEREM SEGUIDOS

FONTE: Adaptada de Mioto et al. (2015, p. 113 e 114)


A próxima etapa conforme Mioto et al. (2015) consiste na rasterização
das curvas de nível. Este procedimento está demonstrado na Figura 22. Tal etapa
também será feita no módulo Sextante (comando: Rasterize vector layer), como é
exibido na Figura 22-A. Já nas Figuras. 22-B e 22-C são exibidos os parâmetros
para a rasterização (lembrando que os parâmetros são variáveis de acordo com
o nível de detalhe do produto que está sendo trabalhado). O arquivo gerado por
este processo é apresentado na Figura 22-D.

Na Figura 22 temos: A) Módulo Sextante mostrando a ferramenta a


ser utilizada (Rasterize vector layer). B) e C) são etapas de preenchimento dos
parâmetros para a rasterização das curvas de nível. D) é o resultado final (curvas
de nível rasterizadas).

217
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

FIGURA 22 – PROCEDIMENTOS A SEREM SEGUIDOS

FONTE: Adaptada de Mioto . (2015, p. 115 -116)

A seguir, será feito o preenchimento das células vazias (sem dados), por meio da geração
de um modelo numérico de terreno/MNT, e também outro processo para a eliminação
de depressões (MIOTO et al., 2015). A Figura 23 resume ambos os procedimentos. O
MNT é confeccionado para preencher os espaços vazios que ainda existem entre os
pixels. Para tanto, é necessário abrir o módulo Sextante e pesquisar pela ferramenta
Void filling. Feito isso, selecione o arquivo gerado na etapa anterior; ou seja, as curvas de
nível rasterizadas que aparecem com o nome Countor lines (rasterized). Já no processo de
eliminação de depressão (Figura 23) é gerado um modelo numérico de terreno (MNT)
hidrologicamente correto, sem depressões na superfície do terreno. Tal procedimento
também é feito no módulo Sextante do gvSIG. Para tanto, o layer utilizado nesta etapa
é o resultado do Void filling.

A Figura 23 nos apresenta: A) Preenchimento dos dados para a geração do MNT usando
a função Void Filling no módulo Sextante do gvSIG. B) é o resultado do processo Void
Filling. C) Seleção dos parâmetros para a realização do Sink filling no módulo Sextante
do gvSIG. D) MNT hidrologicamente correto gerado a partir da ferramenta Sink filling.

FIGURA 23 – PROCEDIMENTOS A SEREM SEGUIDOS

218
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

FONTE: Adaptada de Mioto et al. (2015, p. 117-119)


Agora, o procedimento consiste em gerar o plano de informação de acúmulo de fluxo
e a geração da rede de drenagem, ambos a partir de ferramentas que estão presentes
no módulo Sextante do gvSIG (MIOTO et al., 2015). A Figura 24 mostra o procedimento
para gerar o acúmulo de fluxo e a Figura 25 mostra o processo de como gerar a rede
de drenagem.

Na Figura 24 temos: A) Seleção dos parâmetros para realizar a ferramenta Flow


accumulation no Sextante do gvSIG. B) Seleção dos dados da aba Output region (em
Extent from selecione Fit to input layers, e no segundo campo selecione o arquivo das
curvas de nível gerado no início de todo o processo). C) Raster do resultado do processo
Flow accumulation.

FIGURA 24 – PROCEDIMENTOS A SEREM SEGUIDOS

219
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

FONTE: Adaptada de Mioto et al. (2015, p. 120 e 121)

A Figura 25 apresenta: A) Seleção dos parâmetros para realizar a ferramenta


Channel network no módulo Sextante do gvSIG. B) Preenchimento dos parâmetros
na aba Output region. C) Rede de drenagem obtida através da ferramenta Channel
network.

FIGURA 25 – PROCEDIMENTOS A SEREM SEGUIDOS

FONTE: Adaptada de Mioto et al. (2015, p. 122-123)

220
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

Será feito a seguir a delimitação da bacia hidrográfica a partir de um exutório (ponto


de menor altitude de uma bacia hidrográfica onde se dá todo o escoamento superficial;
em outras palavras, é o ponto onde se encerra a bacia) (MIOTO et al., 2015). Para tanto,
é necessário dar um zoom da área de interesse (ponto exutório) (OBS: na “Vista” do
gvSIG deixe selecionado o layer referente ao arquivo channel_network_raster). Ao definir
o ponto, clique no símbolo de informação ( ) e depois clique em cima do ponto
(Figura 26-A). Feito isso, salve em um arquivo de bloco de notas a latitude e longitude
do ponto do exutório (Figura 26-B) e você pode fechar a janela “Identificar resultados”.
Após, de acordo com o guia de Mioto et al. (2015), é necessário abrir o módulo Sextante
(Figura 26-C) e digitar o comando: Upslope area from a single point. Na janela que se
abrir selecione o MNT gerado a partir do processo Sink Filling (Figura 23) para o campo
Elevation; no caso, o arquivo denominado: Contour lines (rasterized)(filled)(preprocessed).
Em Options > Outlet point digite as coordenadas do ponto do exutório que foram
anotadas no bloco de notas. No campo Output > Upslope area[raster] defina o nome e o
local para salvar o arquivo gerado (sugere-se o nome upslope). Por fim, clique em Ok
(Figura 26-D). A Figura 27-E exibe a bacia hidrográfica (ou sub-bacia, como alguns
autores de hidrologia preferem denominar) a partir do ponto exutório.

Todavia, este último arquivo gerado está em formato raster, com isso, faremos um
procedimento para vetorizá-lo (Figura 27). Para vetorializar a bacia hidrográfica que
está em raster, na janela Sextante digite o termo Vectorize raster layer (polygons). A seguir,
na janela Vectorize raster layer (polygons) > Parameters > Input layer selecione o arquivo
gerado no processo anterior, no caso, upslope (Figura 27-A). Especifique o local onde
será salva a bacia vetorizada e clique em Ok. Sugere-se utilizar a nomenclatura upslope_
vector (Figura 27-B).

A Figura 26 no mostra: A) Seleção do ponto de exutório e leitura de suas coordenadas em


UTM. B) Salvando as coordenadas do ponto de exutório. C) Selecionando a ferramenta
Upslope area from a single point. D) Seleção dos parâmetros para a delimitação da bacia
hidrográfica. E) Bacia (ou Sub-bacia, de acordo com alguns autores) hidrográfica
gerada a partir do ponto de exutório escolhido.

FIGURA 26 – PROCEDIMENTOS A SEREM SEGUIDOS

221
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

FONTE: Adaptada de Mioto et al. (2015, p. 124, 125 e 126)

Na Figura 27 temos: A) Janela da vetorização do raster da bacia hidrográ-


fica. B) Bacia hidrográfica vetorizada.

222
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

FIGURA 27 – PROCEDIMENTOS A SEREM SEGUIDOS

FONTE: Adaptada de Mioto et al. (2015, p. 127)


Agora, neste próximo passo, será realizado o recorte da rede de drenagem


correspondente somente à área da bacia hidrográfica (MIOTO et al., 2015). Na aba
superior do programa, clique em Vista > Gestor de geoprocessos (Figura 28-A). Uma nova
janela será aberta. Siga o caminho: Análises > Sobreposição > Recortar > Abrir geoprocessos
(Figura 28-B). Conforme a Figura 28-C (janela “Ferramentas de análises”), no campo
“Camada de entrada” selecione o arquivo relacionado à drenagem, no caso, o arquivo
Channel network-2 e em “Camada de recorte” selecione o arquivo com o limite da bacia
hidrográfica (este arquivo servirá como uma espécie de máscara de recorte), isto é, o
arquivo Result. Em Camada de saída selecione o nome do arquivo a ser gerado e em
qual pasta ele será salvo. É sugerido o nome rec_drenagem. Clique em Aceitar (Figura
28-C). O resultado desse procedimento de recorte é apresentado na Figura 28-D.

A Figura 28 apresenta: A) Abrir o Gestor de geoprocessos. B) Seleção da ferramenta de


recorte (“Recortar”) dentro da pasta Sobreposição. C) Preenchimento das informações
na janela Ferramentas de análises. D) Recorte da rede de drenagem sobre o limite da
bacia.

FIGUARA 28 – PROCEDIMENTOS A SEREM SEGUIDOS

223
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

FONTE: Adaptada de Mioto et al. (2015, p. 128 e 129)

Por fim, podemos realizar o cálculo da área e o perímetro da bacia hidrográfica


delimitada (MIOTO et al., 2015). Para tanto, é necessário clicar com o lado direito
do mouse na camada que foi o resultado do último processamento, ou seja, o layer
denominado Result, e selecione Camada > Adicionar informação geométrica... (Figura 29-
A). Na janela abrirá, no campo “Camada”, selecione o arquivo com o limite vetorial
da bacia hidrográfica, no caso, Result (Figura 29-B). Ao clicar nessa opção, no campo
“Selecione a informação geométrica” aparecerão os dois termos: Área e Perímetro.
Selecione-os e clique no ícone para adicioná-los. Clique em Aceitar (Figura 29-B).
Aguarde o carregamento do processo e selecione a opção Aceitar (Figura 29-C). Ao
terminar o processo, clique com o botão direito do mouse o layer do resultado da
vetorização da bacia, no caso, Result, e selecione a opção “Abrir NavTable” (Figura
29-D). Na janela NavTable serão exibidos o perímetro e a área da bacia hidrográfica na
unidade configurada no início de todo o processo realizado, que neste caso foi o metro
(Figura 29-E) (MIOTO et al., 2015). Para a leitura deste guia pormenorizado, além de
acesso a outros tutoriais detalhados, recomenda-se a leitura de Mioto et al. (2015). Em
suma, a correta delimitação de uma bacia e sub-bacia hidrográfica, com a identificação
dos seus caminhos de drenagens, bem como quantificações morfométricas, é um
grande campo de trabalho para profissionais que lidam com Sensoriamento Remoto
(SR) e Geoprocessamento.

Na Figura 29 temos: A) Caminho para a adição das informações geométricas. B) Adição


das propriedades Área e Perímetro. C) Carregamento do processo (clicar em aceitar
após os 100%). D) Caminho para selecionar a opção “Abrir NavTable”. E) Propriedades
morfométricas (Área e Perímetro) da bacia hidrográfica em metros.

224
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

FIGURA 29 – PROCEDIMENTOS A SEREM SEGUIDOS

FONTE: Adaptada de Mioto et al. (2015, p. 130-132)

6 PRÁTICAS NO MULTISPEC UTILIZANDO IMAGENS DE


SATÉLITE

Neste subtópico, veremos algumas práticas no software gratuito MultiSpec©, que é
um programa para processamento e análise interativa de dados de imagens digitais,
como as imagens multiespectrais da Terra produzidas por satélites da série Landsat e
as imagens hiperespectrais de sistemas aéreos e espaciais (AVIRIS – Airborne Visible /
Infrared Imaging Spectrometer). É um software muito leve e que nem precisa de instalação
(autoexecutável). O próprio site do programa traz um roteiro de tutoriais/exercícios,

225
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

dos quais faremos dois: (I) exibição e análise de uma imagem (exercício nº 1) e (II)
criação de um NDVI (índice espectral de vegetação) (exercício nº 8). Note que há 10
exercícios. É recomendado que você tente fazê-los (os tutoriais estão em inglês, mas
as imagens dos roteiros são intuitivas, e você pode utilizar algum site para traduzir o
conteúdo).

Primeiramente, baixe o arquivo do programa chamado "2020.09.09 MultiSpec 64-bit
version" no site: https://engineering.purdue.edu/~biehl/MultiSpec/download_win.html
(Figura 30). O nome do arquivo baixado é o seguinte MultiSpecWin64z (é uma pasta
comprimida). Note que esta é a versão para o sistema operacional Windows (versões 7,
8 e 10) (também uma versão para Mac).

FIGURA 30 – PÁGINA DE DOWNLOAD DO PROGRAMA MULTISPEC. ESTE PRINT MOSTRA A


VERSÃO PARA WINDOWS DO PROGRAMA

FONTE: <http://bit.ly/39xruHb>. Acesso em: 23 nov. 2020.

Após descomprimir e abrir a pasta (com o nome “MultiSpecWin64”),


abra o programa MultiSpecW64.exe, que possui o seguinte ícone . Note que
no primeiro acesso ao aplicativo o Windows pode pedir uma permissão para
executá-lo. A Figura 31 mostra a aparência do programa aberto (sem a adição de
nenhuma imagem).

226
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

FIGURA 31 – VISÃO GERAL DO PROGRAMA MULTISPEC (SEM ADIÇÃO DE IMAGEM)

FONTE: O autor


Para as práticas, é necessário que você visite a página principal do software
e baixe a imagem chamada de: ag020522_DPAC_cd.lan. Link para o download
dessa imagem: https://engineering.purdue.edu/~biehl/MultiSpec/tutorials.html,
abre esta página e role até encontrar os arquivos de imagens (Figura 32). A Figura
33 mostra como abrir a imagem.

FIGURA 32 – DOWNLOAD DA IMAGEM QUE SERÁ UTILIZADA NAS PRÁTICAS

FONTE: O autor

As três bandas da imagem, na figura 32, estão no intervalo de 0.510 – 0.580 µm, 0.635 –
0.705 µm e 0.736 – 0.863 µm (esta informação é encontrada em Processor > Display Image
> Channel Descriptions).

227
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

A seguir na Figura 33 temos: A) Caminho para adicionar uma imagem no MultiSpec.


B) Abrir o arquivo da imagem (nome: ag020522_DPAC_cd.lan) (lembre-se onde você
salvou quando efetuou o download). C) Especificações técnicas da imagem (709 linhas
× 1501 colunas de pixels). D) Janela do software requisitando o cômputo do histograma
da imagem (não é necessário alterar as opções). E) Imagem carregada no programa, em
composição R3-G1-B1 (por isso está com aspecto de infravermelho).

FIGURA 33 – PROCEDIMENTOS A SEREM SEGUIDOS

FONTE: O autor

Você pode dar um zoom in no ícone e um zoom out no ícone , ambos na barra
de ferramentas do software. Como a imagem possui três canais (cada um em uma

228
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

região específica do espectro eletromagnético), podemos compará-los. Para tanto, siga


este caminho Processor > Display Image > Channel Descriptions para abrir a janela de
especificações de visualização (Set Display Specifications). Vá em Type e altere para “Side
by Side Channels” (para visualizar uma imagem espectral do lado da outra e assim tecer
considerações) (Figura 34). A Figura 35 mostra os três canais espectrais lado a lado (dê
um zoom out) para poder ver todos lado a lado. Observe que as áreas de vegetação no
canal 3 são mais claras do que as mesmas áreas nos canais 1 e 2. A exibição do canal lado
a lado é uma boa maneira de verificar se os canais estão registrados corretamente. Feito
isso, volte para a janela Set Display Specifications e volte para a configuração inicial de 3
Canais (3-Channel Color), com a alocação de bandas R-3, G-2 e B-1 (como está na Figura
33). Note que há opções para tratar a imagem, como a manipulação do histograma
(Stretch) e Min-Max e número de níveis a serem visualizados.

A Figura 34 nos mostra a Janela de especificações de visualização (Set Display


Specifications), onde é possível modificar o mode de exibição da imagem e a modificação
das composições RGB, por exemplo.

FIGURA 34 – JANELA DE ESPECIFICAÇÕES DE VISUALIZAÇÃO

FONTE: O autor

229
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

FIGURA 35 – VISUALIZAÇÃO DOS CANAIS ESPECTRAIS DA IMAGEM LADO A LADO

FONTE: O autor

É possível exibir o sistema de coordenadas no topo da imagem (Figura 36). Não


obstante, é possível mudar a unidade de exibição que aparece quando passamos o
ponteiro do mouse sobre a imagem e também realizar medições de área em diferentes
unidades (desenhando um retângulo na imagem, por exemplo). Na Figura 36 note que
foi desenhado um retângulo e o software computou 2,2 hectares. Para a imagem que
estamos trabalhando, a fim de que possamos visualizar as coordenadas ao passar o
cursor do mouse sobre a imagem é necessário seguir o seguinte caminho: Edit > Image
Map Parameters (este caminho abrirá a janela Set Map Coordinate Specifications). Coloque
em “Zone” o número 16 (que representa o fuso UTM) e no campo ao lado coloque N
(pois a imagem é do hemisfério norte). No Datum, coloque WGS 84. Pronto, agora
na barra de coordenadas será possível selecionar a opção Lat. & Long. (que ainda
não estava habilitada na Figura 36). Observamos na Figura 36 que é possível mudar a
unidade de visualização, bem como realizar medições de área em diferentes unidades.

FIGURA 36 – EXIBIÇÃO DO SISTEMA DE COORDENADAS NO TOPO DA IMAGEM

FONTE: O autor

230
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

A opção de exibição temática de 1 canal (1-Channel Thematic) é útil para exibir imagens
que agrupam valores em classes (como o NDVI). Ou seja, os valores dos dados são
agrupados no número desejado de níveis e uma legenda é exibida à esquerda da
imagem indicando quais cores da paleta estão associadas a cada intervalo de dados
(Figura 37). Embaixo da escala de cores, em Palette, é possível modificá-la.

FIGURA 37– IMAGEM EM ESCALA TEMÁTICA DE CLASSES

FONTE: O autor


Agora, após a familiarização com o MultiSpec, vamos criar um índice de vegetação, o
NDVI (caso necessário, para lembrar da fórmula do NDVI, releia o conteúdo sobre este
índice na Unidade 1). Utilizaremos a mesma imagem da prática anterior (ag020522_
DPAC_cd.lan). Após abrir a imagem, faça o caminho exibido na Figura 38. A Opção
“New Channel from General Algebraic Transformation” permite definir uma fórmula
algébrica de bandas, com divisões e multiplicações. Exatamente o que é necessário
segundo a fórmula do NDVI. Como estamos utilizando uma imagem que possui a
banda vermelha no canal 2 e a banda infravermelha no canal 3, a fórmula ficará assim:
(note como a fórmula já está correta na janela do programa). Feito isso, clique em Ok.
Agora, em “Image File Format Change Options” selecione “32-bit Real”, clique em Ok e
escolha um nome e um local para salvar o arquivo a ser gerado (Figura 39).

FIGURA 38 – CAMINHO A SER SEGUIDO PARA INICIAR A CONFECÇÃO DO NDVI

231
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

FONTE: Adaptada de < https://bit.ly/3nNIYnu >. Acesso em: 24 nov. 2020.

Na fórmula (item 4), o primeiro e o último campo são constantes (que


podem ser positivas ou negativas) e “C” são as bandas/canais espectrais da
imagem.

FIGURA 39 – ESCOLHA DO TIPO DE DADO E DO LOCAL PARA SALVAR

FONTE: Adaptada de <https://bit.ly/3nNIYnu>. Acesso em: 24 nov. 2020.

Após o último procedimento, verifique na janela do “Text Output” se o processo de


criação do NDVI ocorreu de forma satisfatória (o texto deve ser similar ao mostrado na
Figura 40). Deve-se observar também o menor e o maior valor calculado para verificar
se esses valores fazem sentido. Agora, abra a imagem que foi salva (Figura 39) (imagem
em extensão “.tif”). Após abrir, aparecerá a janela de “Set Display Specifications”, altere o
“Type” para “1-Channel Thematic” e de Ok. Por fim, mude a cor da paleta de cores para
“MODIS NDVI”, abaixo das classes e pronto! O índice NDVI entre -1 a +1 foi calculado
(Figura 41).

FIGURA 40 – REGISTRO DO PROCESSAMENTO DO NDVI

232
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

FONTE: Adaptada de <https://bit.ly/3nNIYnu>. Acesso em: 12 jan. 2021.

Na figura 41 a legenda à esquerda relaciona os tons das cores com os


valores NDVI (-1 A +1).

FIGURA 41 – ÍNDICE NDVI FINALIZADO

FONTE: Adaptada de <https://engineering.purdue.edu/~biehl/MultiSpec/tutorials/MultiSpec_Tu-


torial_8.pdf>. Acesso em: 24 nov. 2020.

233
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

DICAS

Pesquisadores da Universidade Federal do Paraná (UFPR), da Universidade de


Maryland (UMD) e da Universidade da Flórida (UF) lançaram no dia 21 de outubro de 2020
o livro gratuito “Explorando o QGIS 3.X”. O livro, com 396 páginas, é uma bibliografia
muito atualizada com roteiros e tutoriais sobre um dos softwares livres mais utilizados em
termos de SIG e SR, o QGIS. Baixe gratuitamente o e-book no seguinte link: http://bit.ly/
EXPLORANDO_QGIS2020.

Conheça também dois excelentes programas de monitoramento da superfície do Brasil,


ambos desenvolvidos por pesquisadores brasileiros por meio de técnicas de Sensoriamen-
to Remoto (SR) e Geoprocessamento:

• MapBiomas (Projeto de Mapeamento Anual da Cobertura e Uso do Solo no Brasil) é


uma iniciativa que envolve uma rede colaborativa com especialistas nos biomas, usos da
terra, sensoriamento remoto, SIG e ciência da computação que utiliza processamento em
nuvem e classificadores automatizados desenvolvidos e operados a partir da plataforma
Google Earth Engine (GEE) para gerar uma série histórica de mapas anuais de cobertura
e uso da terra do Brasil. Visite o site e descubra os produtos disponíveis para download.
Acesse na íntegra em: https://mapbiomas.org/.

• PRODES (Monitoramento do Desmatamento da Floresta Amazônica Brasileira por Saté-


lite) realiza o monitoramento por satélite do desmatamento por corte raso na Amazônia
Legal e produz, desde 1988, as taxas anuais de desmatamento na região, que são usadas
pelo governo brasileiro para o estabelecimento de políticas públicas. O programa utiliza
imagens de satélites da classe LANDSAT (20 a 30 metros de resolução espacial e taxa de
revisita de 16 dias) numa combinação que busca minimizar o problema da cobertura de
nuvens e garantir critérios de interoperabilidade. As imagens do satélite americano LAND-
SAT-5/TM foram, historicamente, as mais utilizadas pelo projeto, mas as imagens do sen-
sor CCD a bordo do CBERS-2/2B, satélites do programa sino-brasileiro de sensoriamento
remoto, foram bastante usadas. O PRODES também fez uso de imagens LISS-3 do satélite
indiano IRS-1 e das imagens do satélite inglês UK-DMC2. Atualmente, faz uso massivo
das imagens do LANDSAT 8/OLI, CBERS 4 e IRS-2. Conheça mais sobre o programa em:
http://www.obt.inpe.br/OBT/assuntos/programas/amazonia/prodes.

234
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

LEITURA COMPLEMENTAR

SENSORIAMENTO REMOTO COMO FERRAMENTA DE


MONITORAMENTO DA QUALIDADE DA ÁGUA DO LAGO
PARANOÁ (DF)

Marilia Teresinha de Sousa Machado


Gustavo Macedo de Mello Baptista

O crescimento da demanda por energia tem incentivado a construção de reservatórios


para a acumulação de água para fins hidrelétricos. Contudo, esses reservatórios se
prestam não somente à geração de energia, mas também para outros fins como o
abastecimento, a pesca e a recreação. Dependendo da origem e do tipo de reservatório
e do fim a que se destina, o monitoramento da qualidade de suas águas tem um
inestimável papel do ponto de vista sanitário, bem como no que se refere à sua vida útil.
Vários fatores podem minimizar a utilização e a vida útil de um reservatório (BUFON;
LANDIM; MELO, 2009; FERREIRA; LOPES; ARAÚJO, 2012) e eles geram sedimentos
que alteram, de modo específico, as propriedades ópticas da água (SAUSEN; PEREIRA,
1986).

A qualidade da água de reservatórios é tradicionalmente monitorada e avaliada com


base na coleta de dados limnológicos (CUNHA et al., 2013). Os reservatórios podem ser
classificados segundo o grau de trofia ou com base nas manifestações ecológicas das
cargas de nutrientes como estímulo aos produtores primários (TUNDISI, 2001). Com
a finalidade de classificar as águas de lagos e reservatórios quanto ao grau de trofia,
Carlson (1977) desenvolveu o Índice de Estado Trófico (IET). Ele facilita a tomada de
decisões de agentes e a comunicação com o público em geral sobre o estado em que se
encontram tais sistemas (VENTURA, 2013).

Com a classificação trófica, os lagos e reservatórios são divididos em uma série de


classes denominadas de estados tróficos. Os sistemas tradicionais dividem-se em três
classes: oligotrófico, mesotrófico e eutrófico (MARGALEF, 1992). Outros sistemas
incluem ainda classes como ultraoligotrófico e hipereutrófico (VOLLENWEIDER,
1976; CARLSON, 1977). Esses modelos simplificados são baseados principalmente
nos teores de nitrogênio, fósforo, clorofila-a e na medida de transparência da água
pelo Disco de Secchi. O monitoramento da qualidade da água em reservatórios serve
para verificar a sua situação e os seus problemas emergentes, bem como para definir
planos, prioridades e programas para o gerenciamento da qualidade da água e avaliar
a efetividade das medidas tomadas (BARTRAM; BALLANCE, 1996; ANGELINI; BINI;
STARLING, 2008; BUZELLI; CUNHA-SANTINO, 2013; CUNHA et al., 2013).

A eutrofização deve ser objeto de crescente ação preventiva e de controle (BRASIL,


1997). Existe, portanto, a necessidade de se ter meios de avaliar alterações nos níveis
tróficos de reservatórios. A determinação do estado trófico de um reservatório por meio
de coleta de dados e da análise dos dados laboratoriais demanda muito tempo. Técnicas
convencionais de avaliação serão, em médio prazo, de difícil aplicação, dada a grande
área conjunta ocupada pelos reservatórios em território brasileiro (NOVO; TUNDISI,
1988). Estudos têm demonstrado que o sensoriamento remoto pode ser usado tanto
na estimativa de parâmetros individuais de qualidade da água (VENTURA, 2013)
quanto na determinação do seu estado trófico (SAUSEN; PEREIRA, 1986; SHEELA

235
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

et al., 2011). Eles já relataram a aplicabilidade das bandas TM1, TM2, TM3 e TM4 em
estudos de parâmetros ambientais em ambientes aquáticos (LILLESAND et al., 1983;
NOVO; TUNDISI, 1988; MITTENZWEY; GITELSON; KONDRATIEV, 1992; CHENG;
LEI, 2001; WALDRON; STEEVES; FINN, 2001).

Diante desse cenário, o sensoriamento remoto surge como uma possível forma de
complementação dos programas de monitoramento usuais, preenchendo lacunas
temporais e espaciais (RITCHIE; ZIMBA; EVERIT, 2003; BUKATA, 2005). A partir
do desenvolvimento de sensores multiespectrais, como o LANDSAT TM, e de novas
tecnologias para o processamento e análise de dados fornecidos pelos sensores dos
satélites, surgiu uma nova fonte potencial para a análise quantitativa e qualitativa de
dados ambientais.

Os dados de sensoriamento remoto podem ser utilizados como entrada no modelo,


permitindo a estimativa do estado trófico dos reservatórios. A existência de uma série
histórica do sistema LANDSAT TM desde 1973 e dos dados limnológicos do Lago
Paranoá, coletados em campo pela Companhia de Saneamento Ambiental do Distrito
Federal (CAESB) desde 1976, permite uma avaliação dos diferentes níveis de trofia
apresentados pelo lago ao longo do tempo.

A bacia do Lago Paranoá (Figura da Área de Estudo) está localizada na região central
do Distrito Federal, Brasil. Tem uma área aproximada de 1.034,07 km², correspondendo
a cerca de 18% do seu território, e está integralmente localizada em seu interior. A sub-
bacia do Lago Paranoá ocupa uma área de 288,69 km², funcionando como bacia de
captação dos principais cursos d’água que drenam o sítio urbano da cidade de Brasília.

FIGURA – MAPA DE LOCALIZAÇÃO DA BACIA DO LAGO PARANOÁ

236
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

FONTE: O autor

A metodologia principal envolveu o Índice de Carlson (CARLSON, 1977) e quatro


cenas LANDSAT TM 5. O Índice de Estado Trófico de Carlson (Carlson TSI) converte
dados de valores de desaparecimento do Disco de Secchi, clorofila-a e fósforo total
para uma escala numérica padrão, na qual são listados valores de 0 a 100, baseados em
relações empíricas entre os parâmetros de qualidade da água.

O Índice de Carlson foi calculado a partir de valores coletados em campo pela CAESB,
referentes às amostragens executadas pelos quatro pontos distribuídos nos principais
braços do reservatório, constantes na Figura I: ponto A (Ribeirão do Riacho Fundo);
ponto B (Ribeirão do Gama); ponto D (Ribeirão do Torto); ponto E (Ribeirão Bananal e
na Região Central — ponto C — nas seguintes datas: 8 de maio de 1984, 22 de junho de
1994, 27 de maio de 1997 e 27 de junho 2001).

As datas citadas foram selecionadas por serem as datas de coleta mais próximas às datas
das imagens geradas pelo sensor TM, que tem resolução espacial de 30 m e temporal
de 16 dias. As amostras contêm dados de coleta mensais, referentes ao período de seca,
que se inicia em maio e se estende até setembro. Esse período foi escolhido visando
à obtenção de imagens sem cobertura de nuvens. Além disso, o revolvimento dos
sedimentos de fundo, quando do período chuvoso, altera o comportamento espectral
da água, o que poderia superestimar parâmetros que alterariam as classes de trofia
encontradas no Lago Paranoá. As cenas LANDSAT TM 5 utilizadas referem-se às datas:
26 de maio de 1984, 7 de junho de 1994, 30 de maio de 1997 e 10 de junho de 2001. As
datas das cenas são as mais próximas das coletas de campo e sem cobertura de nuvens
no momento da aquisição, pois, como salientado anteriormente, a periodicidade de
obtenção dos dados Landsat, ou sua resolução temporal, é de 16 dias.

Este estudo utilizou valores das bandas do visível 1 (TM1, correspondendo à região
da luz azul), 2 (TM2, luz verde), 3 (TM3, luz vermelha) e da banda do infravermelho
próximo 4 (TM4). A escolha dessas bandas baseou-se no comportamento espectral da
água. A água quando limpa, apresenta o seu pico de reflectância na faixa do azul-verde

237
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES

(TM1 e TM2) e tende a deslocar esse pico para a região do verde (TM2) quando do
aumento da biomassa algal e para os maiores comprimentos (TM3 e TM4) quando da
incorporação de sólidos em suspensão. Como a interação da energia eletromagnética
com o alvo é da ordem de alguns micrômetros de profundidade, as informações
avaliadas por sistemas sensores refletem as características da superfície, pois, no caso
de águas transparentes com sedimentos depositados no fundo, a resposta espectral
obtida tende a ser de água limpa. A escolha dos períodos para análise é justificada
pelas nítidas variações nos valores de concentração de fósforo total e clorofila-a e pelas
variações de profundidade de desaparecimento do Disco de Secchi nas quatro fases
limnológicas do Lago Paranoá: eutrofização e oligotrofização 1, 2 e 3 (STARLING;
FERREIRA; ANGELINI, 2002).

238
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO

Na Figura II o Índice de Carlson (Carlson TSI) mostrou que no ano de 1984 todo o
espelho d’água apresenta-se hipereutrófico, com raros pontos eutróficos. Na Figura III
observa-se que, para o Índice de Carlson (Carlson TSI) em 1994, quase todo o espelho
d’água apresenta-se eutrófico, com extensas áreas mesotróficas observadas em toda a
extensão do lago. A porção inicial do Ribeirão do Torto apresenta-se oligotrófica e a
porção inicial do Riacho Fundo apresenta-se hipereutrófica. Na Figura IV, referente às
estimativas de 1997, para o índice de Carlson (Carlson TSI) quase toda Região Central
apresenta-se mesotrófica. Na Figura IV observa-se que, para 2001, o índice de Carlson
(Carlson TSI) mostra que grande parte do espelho d’água apresenta-se mesotrófica.
Áreas eutróficas são observadas nos braços do Riacho Fundo e do Ribeirão do Gama e
na porção inicial dos braços do Ribeirão do Torto e do Ribeirão Bananal. Grande parte
da Região Central apresenta áreas oligotróficas que se estendem até a região próxima
à barragem.

O aumento populacional, aliado à falta de tratamento de esgotos domésticos, levou


à eutrofização do Lago Paranoá. Esse estado eutrófico foi a principal característica
do Lago Paranoá por um longo tempo, desde o início da década de 1960 até 1999
(ANGELINI; BINI; STARLING, 2008). A potencialidade do sistema Landsat para
a espacialização do estado trófico de águas interioranas tem sido testada há muito
tempo, como destacado nos trabalhos de Waldron, Steeves e Finn (2001), que ensejou
na investigação dos algoritmos aqui testados, mas também em trabalhos mais recentes,
como o de Olmanson, Bauer e Brezonik (2008), no qual os autores investigaram 20
anos de claridade de água e de estado trófico de cerca de 10.500 lagos no estado de
Minnesota.

O Sensoriamento Remoto (SR) constitui uma ferramenta para a análise de dados


ambientais de ecossistemas aquáticos e pode ter a sua escala de uso ampliada. De
modo a tornar mais sistemática a utilização desses dados, sugere-se a realização de
novas pesquisas para o desenvolvimento de modelos empíricos que relacionem as
propriedades físicas e químicas da água aos dados de sensoriamento remoto.

FONTE: Adaptada de <https://www.scielo.br/pdf/esa/v21n2/1809-4457-esa-


-S1413_41522016141970.pdf>. Acesso em: 24 nov. 2020.

239
RESUMO DO TÓPICO 2

Neste tópico, você aprendeu que:

• Os diferentes produtos SR podem ser adquiridos por meio de diferentes plataformas


de aquisição para um grande número de locais e através de um grande número de
técnicas. O objetivo do projeto vai definir a escolha do sensor; ou seja, do tipo de
produto a ser utilizado.

• É fundamental saber quais satélites (e seus sensores) serão úteis para um determinado
projeto, seja este em ambiente urbano ou rural.

• Em geral, as propriedades mais importantes para os mapeamentos de áreas


agrícolas e urbanas consistem na resolução temporal (a cada quantos dias haverá
uma nova imagem disponível?) e espacial (qual o menor tamanho de objeto que o
pixel permite identificar?). No entanto, para áreas agrícolas extensas e para florestas
de grande extensão, satélites que produzem imagem com média a baixa resolução
espacial também podem ser muito úteis.

• Um dos maiores trunfos do SR orbital consiste em permitir levantar dados de uma


extensa área em pouco tempo. Por exemplo, uma cena do Landsat cobre uma área
de 30 mil km² da superfície terrestre, produzindo imagens espectrais em várias
bandas e com uma resolução espacial de 30 m. Mesmo com os custos de verificação
dos dados em campo, ainda é vantajoso economicamente. Não obstante, o SR
possui a vantagem de ser um método não invasivo, uma vez que mede a radiação
eletromagnética (REM) refletida pelos alvos, além de também oferecer uma visão
sinótica e histórica da cobertura da superfície da Terra.

• Talvez a pior desvantagem do SR esteja no fato de ser excessivamente “vendido” de


forma positiva; isto é, como se o SR resolvesse todos os problemas dos profissionais
e cientistas (mas sabemos que o SR possui muitas limitações). Outro ponto negativo
está no fato de que os dados de SR são basicamente reflexões de REM. Tais reflexões
têm que ser calibradas para unidades físicas, e sempre há algum pequeno erro
associado às correções necessárias, uma vez que há uma grande fonte de incertezas
e erros.

• Um Modelo Digital de Elevação (MDE) é um modelo digital que representa as


altitudes da superfície topográfica agregada aos elementos geográficos existentes
sobre ela, como cobertura vegetal e edificações. Esses produtos possuem uma gama
de aplicação para resolver problemas ambientais. No Brasil, além de MDE, há dois
outros termos que são relacionados: Modelo Digital de Terreno (MDT) e o Modelo
Digital de Superfície (MDS).

• A produção de um MDE a partir de SR pode ser eficiente e muito econômica.


Podemos destacar duas técnicas de SR que podem ser empregadas para a produção
de dados de elevação: (1) Métodos de Estereogrametria utilizando fotografias
aéreas (fotogrametria), imagens VIR (visível e infravermelho) e dados de Radar
(radargrametria) e (2) Interferometria por Radar.

240
CHAMADA

Ficou alguma dúvida? Construímos uma trilha de aprendizagem


pensando em facilitar sua compreensão. Acesse o QR Code, que levará ao
AVA, e veja as novidades que preparamos para seu estudo.

241
AUTOATIVIDADE

1 Remoto significa algo que não está exatamente em contato físico e Sensoriamento
significa obter informações (dados como temperatura, pressão, reflexão etc.)
por meio de equipamentos detectores. Assim, sabemos que o Sensoriamento
Remoto (SR) é o processo de adquirir informações, detectar, analisar e monitorar
características físicas de uma área ou objeto por meio do registro de sua radiação
eletromagnética (REM) refletida ou emitida. Os satélites, que são plataformas
orbitais de sistemas sensores, desempenham um papel importante no
desenvolvimento de muitas tecnologias, como mapeamento do uso e ocupação
do solo, sistemas digitais de posicionamento por satélite (e.g. GPS, GNSS,
GLONASS), planejamento urbano, monitoramento de vegetação, e muitas outras.
Existe uma grande variedade de sensores com diferentes resoluções: espacial,
temporal, radiométrica e espectral para as mais diversas aplicações. O usuário
deve ter o conhecimento sobre os produtos e sensores, com o intuito de escolher
a melhor imagem para seu objetivo. Sobre os diferentes tipos de imagem e sua
possível aplicação, associe os itens, utilizando o código a seguir.

I- Identificar queimadas e ilhas de calor.


II- Previsão do tempo.
III- Analisar alvos urbanos.
IV- Mapear locais cobertos por nuvens.
V- Monitorar o desmatamento da Floresta Amazônica (área maior que 900 m² - 30 ×
30 m).

( ) Imagens com alta resolução espacial.


( ) Imagens com média resolução espacial.
( ) Imagens de radar.
( ) Imagens do infravermelho termal.
( ) Imagens de alta resolução temporal.

Assinale a alternativa que apresenta a sequência CORRETA:


a) ( ) III – I – IV – V – II.
b) ( ) II – III – V – IV – II.
c) ( ) I – II – III – IV – V.
d) ( ) V – IV – III – II – I.
e) ( ) III – V – IV – I – II.

Justifique sua resposta.

2 Os satélites Landsat 7 e Landsat 8 orbitam a Terra a uma altitude de 705 quilômetros


em uma faixa de 185 quilômetros, movendo-se de Norte a Sul em uma órbita
síncrona do Sol. Cada satélite faz uma órbita completa a cada 99 minutos, perfazem
cerca de 14 órbitas completas a cada dia e cruzam todos os pontos da Terra uma
vez a cada 16 dias. Sem dúvidas, a série Landsat é um marco no Sensoriamento
Remoto (SR) mundial. Situação hipotética: como as imagens Landsat 8 OLI são
gratuitas, um tomador de decisão de uma Prefeitura resolveu consultar um
profissional em Geoprocessamento para saber da viabilidade das imagens deste
242
sensor para aplicações em Uso do Solo, principalmente para mapeamento de alta
resolução espacial com vistas para o cálculo e cobrança de IPTU (terrenos de 12 ×
15 m). Disserte sobre o satélite mencionado, se é recomendado para esta aplicação.

3 O Modelo Digital de Elevação (DEM) é um conjunto de dados cartográficos digitais


em três coordenadas (XYZ); isto é, o valor Z é a altitude. São matrizes de valores
de elevação regularmente espaçados referenciados horizontalmente para uma
projeção de coordenadas planas ou para um sistema de coordenadas geográficas.
Podemos entender o MDE como uma classe genérica que abrange dois tipos
de modelos: Modelo Digital de Superfície (MDS) e Modelo Digital de Terreno
(MDT). O primeiro inclui as altitudes de prédios, árvores etc., ao passo que o
segundo termo se refere à superfície da Terra sem construções (superfície “nua”
do terreno). Tais modelos possuem inúmeras aplicações para os usuários de SR e
de Geoprocessamento. Sobre os diferentes tipos de MDE, assinale a alternativa
CORRETA:

a) ( )
Os MDEs só podem ser produzidos por Estação Total e por RTK.
b) ( )
Os MDS, por incluírem edificações, possuem pouca utilidade.
c) ( )
Os MDT são produzidos somente por técnicas espectrais.
d) ( )
A confecção de um MDE a partir de SR é muito custosa e pouco
eficiente.
e) ( ) Em termos de SR, é possível produzir um MDE por meio de
estereogrametria e interferometria por radar.

243
REFERÊNCIAS
BENINI, S. M. Uso de Sistemas de Informação Geográfica na Análise Ambien-
tal em Bacias Hidrográficas. Tupã: ANAP, 2015. Disponível em: http://media.
wix.com/ugd/f414e0_673547fa0838471489d18f41be4d5adc.pdf. Acesso em: 24
nov. 2020.

BEO (Belgian Earth Observation/Belgian Federal Science Policy Office). Remote


sensing images. c2020. Disponível em: https://eo.belspo.be/en/remote-sensing-
-images. Acesso em: 30 jul. 2020.

CCMEO (Canada Centre for Mapping and Earth Observation). Remote Sensing
Tutorials. 2019. Disponível em: http://bit.ly/2LAw53i. Acesso em: 28 set. 2020.

DEKKER, F. What is the right remote sensing tool for oil exploration? Earth
Observation Magazine, v. 2, n.1, p. 28-35, 1993.

FLORENZANO, T. G. Iniciação em Sensoriamento Remoto. 3. ed. São Paulo:


Oficina de Textos, 2011.

FLORENZANO, T. G. Geomorfologia: Conceitos e Tecnologias Atuais. São Pau-


lo: Oficina de Textos, 2008.

GAUR, M.; PANDEY, C. B.; GOYAL, R. K. Remote Sensing for Natural Resour-
ces Management and Monitoring. India: Scientific Publisher, 2016.

HSU (Humboldt State University). Image Processing. c2020. Disponível em:


http://gsp.humboldt.edu/OLM/Courses/GSP_216_Online/lesson4-1/index.html.
Acesso em: 1º out. 2020.

INPE (Instituto Nacional de Pesquisas Espaciais). LIDAR. c2020. Disponível


em: http://www.dsr.inpe.br/DSR/areas-de-atuacao/sensores-plataformas/lidar.
Acesso em: 13 out. 2020.

JENSEN, J. R. Remote Sensing of the Environment: An Earth Resource Perspec-


tive. 2. ed. Nova Delhi: Pearson Education, 2009.

JOSEPH, G. Fundamentals of Remote Sensing. 2. ed. Cambrigde: Universities


Press, 2005.

KADHIM, N.; MOURSHED, M.; BRAY, M. Advances in remote sensing applica-


tions for urban sustainability. Euro-Mediterranean Journal for Environmental
Integration. v. 1, n.7, 2016, 22 p. Disponível em: https://link.springer.com/arti-
cle/10.1007/s41207-016-0007-4. Acesso em: 24 nov. 2020.
KERLE, N.; OPPENHEIMER, C. Satellite remote sensing as a tool in Lahar di-
saster management. Disasters, v. 26, n. 2, p. 140-60, 2002.

LILLESAND, T. M.; KIEFER, R. W.; CHIPMAN, J. W. Remote Sensing and Im-


age Interpretation. 7. ed. Hoboken: Wiley, 2015.

LI, Z.; ZHU, Q.; GOLD, C. Digital Terrain Modeling Principles and Methodol-
ogy. Boca Raton: CRC Press, 2004.

LIU, B.; TODD, J. T. Perceptual biases in the interpretation of 3D shape from


shading. Vision Research, v. 44, n. 18, p. 2135-2145, 2004.

LLOYD, R.; HODGSON, M. E.; STOKES, A. Visual Categorization with Ae-


rial Photographs. Annals of the Association of American Geographers.
v. 92, p. 241-266, 2002. Disponível em: https://www.tandfonline.com/doi/
abs/10.1111/1467-8306.00289. Acesso em: 24 nov. 2020.

MIOTO, C. L. et al. Noções Básicas de Geoprocessamento para Análises Am-


bientais. Campo Grande: UFMS, 2015.

OLSON, C. E. Elements of photographic interpretation common to several


sensors.1960. Disponível em: http://bit.ly/2KomFra. Acesso em: 25 nov. 2020.

PRASAD, N. et al. Remote Sensing and GIS for Biodiversity Conservation. In:
UPRETI, D. K. et al. Recent Advances in Lichenology. Berlin: Springer, 2014.

PROST, G. L. Remote Sensing for Geoscientists Image Analysis and Integra-


tion. 3. ed. Boca Raton: CRC Press, 2013.

RICHARDS, J. A.; JIA, X. Remote Sensing Digital Image Analysis: An Intro-


duction. Berlin: Springer, 4. ed., 2006.

RIEBEEK, HI. How to Interpret a Satellite Image: Five Tips and Strategies.
2013. Disponível em: https://earthobservatory.nasa.gov/features/ColorImage/.
Acesso em: 27 set. 2020.

SANTOS, G. D.; FRANCISCO, C. N.; ALMEIDA, C. M. Mineração de Dados


Aplicada à Discriminação da Cobertura da Terra em Imagem Landsat 8 OLI.
BCG - Boletim de Ciências Geodésicas, v. 21, n. 4, p. 706-720.

SCHOWENGERDT, R. A. Remote Sensing: Models and Methods for Image Pro-


cessing. 3. ed. Burlington: Academic Press, 2006.

SEOS (Science Education through Earth Observation for High Schools). In-
troduction to Remote Sensing. c2020. Disponível em: https://seos-project.eu/.
Acesso em: 5 out. 2020.
SOARES FILHO, B. S. Interpretação de Imagens da Terra. Apostila do curso de
Especialização em Geoprocessamento. Belo Horizonte: Universidade Federal de
Minas Gerais (UFMG), 2000, 19 p. Disponível em: http://www.csr.ufmg.br/geo-
processamento/publicacoes/intimagem.pdf. Acesso em: 26 set. 2020.

THENKABAIL, P. S. Remote Sensing Handbook: Remotely Sensed Data Char-


acterization, Classification, and Accuracies. Boca Raton: CRC Press, 2016.

Você também pode gostar