Escolar Documentos
Profissional Documentos
Cultura Documentos
Indaial – 2021
1a Edição
Copyright © UNIASSELVI 2020
Elaboração:
Prof. Volney Junior Borges de Bitencourt
B624s
Bitencourt, Volney Junior Borges de
Sensoriamento remoto II. / Volney Junior Borges de Bitencourt. –
Indaial: UNIASSELVI, 2021.
246 p.; il.
ISBN 978-65-5663-442-5
ISBN Digital 978-65-5663-438-8
1. Sensoriamento remoto. - Brasil. II. Centro Universitário Leonardo
da Vinci.
CDD 526.982
Impresso por:
Apresentação
O Sensoriamento Remoto (SR) é uma tecnologia ou ferramenta
relativamente recente. Contudo, é empregada em praticamente todos os
campos da ciência, com vastas aplicações em certas áreas do mercado de
trabalho.
Bons Estudos!
Você já me conhece das outras disciplinas? Não? É calouro? Enfim, tanto para
você que está chegando agora à UNIASSELVI quanto para você que já é veterano, há novi-
dades em nosso material.
O conteúdo continua na íntegra, mas a estrutura interna foi aperfeiçoada com nova diagra-
mação no texto, aproveitando ao máximo o espaço da página, o que também contribui
para diminuir a extração de árvores para produção de folhas de papel, por exemplo.
Todos esses ajustes foram pensados a partir de relatos que recebemos nas pesquisas
institucionais sobre os materiais impressos, para que você, nossa maior prioridade, possa
continuar seus estudos com um material de qualidade.
Acesse o QR Code, que levará ao AVA, e veja as novidades que preparamos para seu estudo.
FUNDAMENTOS DE SENSORIAMENTO
REMOTO II
OBJETIVOS DE APRENDIZAGEM
A partir do estudo desta unidade, você deverá ser capaz de:
PLANO DE ESTUDOS
Esta unidade está dividida em três tópicos. No decorrer da unidade,
você encontrará autoatividades com o objetivo de reforçar o conteúdo
apresentado.
CHAMADA
1
2
UNIDADE 1
TÓPICO 1 —
1 INTRODUÇÃO
Neste tópico, revisaremos alguns conceitos fundamentais envolvidos na
ciência denominada de Sensoriamento Remoto (SR). Faremos um apanhado
geral do tema. Assim, veremos que o SR raramente é utilizado de forma isolada.
Na verdade, o SR é habitualmente empregado e trabalhado em um Sistema de
Informação Geográfica (SIG), por meio de técnicas de Geoprocessamento, ou
seja, embora tais tecnologias sejam conceitualmente diferentes, elas podem ser
interligadas e normalmente interagem entre si.
No geral, o SR é uma ciência ampla que lida com dados e informações que
são adquiridos por sensores sem contato direto com o alvo de interesse; isto é, sem
encostar-se ao objeto de investigação. Veremos que essa aquisição de dados pode
ocorrer desde alguns poucos metros até centenas de quilômetros de distância
do alvo. Essas informações geradas, que chamamos de produtos de SR, são bem
variadas e, consequentemente, vão possuir finalidades e aplicações distintas.
Nesse contexto, há uma boa variedade de programas computacionais (softwares),
tanto pagos quanto gratuitos, que lidam com o SR. Assim, revisaremos e fixaremos
alguns conceitos fundamentais envolvidos na área da ciência chamada de SR no
decorrer deste tópico. Boa leitura!
2 DEFINIÇÕES BÁSICAS
Ao iniciarmos alguma leitura de livros ou artigos científicos que versam
sobre o Sensoriamento Remoto (SR), vamos nos deparar com numerosas definições
diferentes sobre o que de fato significa esse termo. Então, a seguir, traçaremos
algumas das respostas – desde uma mais curta e simples até uma mais longa e
complexa – para o questionamento: “o que é sensoriamento remoto”?
• (V) Novo (2010, p. 28) estabelece o SR “como sendo a utilização conjunta de sensores,
equipamentos para processamento de dados, equipamentos de transmissão de dados
colocados a bordo de aeronaves, espaçonaves, ou outras plataformas, com o objetivo
de estudar eventos, fenômenos e processos que ocorrem na superfície do planeta
Terra a partir do registro e da análise das interações entre a radiação eletromagnética
e as substâncias que o compõem em suas mais diversas manifestações”.
DICAS
Você pode assistir a uma curta apresentação do Prof. Antonio Miguel Vieira
Monteiro, docente do Instituto Nacional de Pesquisas Espaciais (INPE), que está dispo-
nível no YouTube. O vídeo intitulado de Sensoriamento Remoto: princípios e aplicações
possui cerca de 13 minutos de duração. Na íntegra em: https://bit.ly/35mgjji.
4
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS
5
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
6
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS
7
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
8
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS
DICAS
9
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
Via de regra, quanto maior a altitude de um sensor, maior será a sua área
“coberta” para obter dados; em outras palavras, o IFOV fica maior. A altitude
acima do solo (AGL – height above ground level) em que se localiza a plataforma é
considerada como uma variável importante no que tange ao nível de detalhamento
de um determinado sensor. Melhor dizendo, quanto mais próximo do solo (mais
próximo do alvo) maior o nível de detalhe e vice-versa. Por exemplo, quanto
menor a altitude de um levantamento fotográfico aéreo, maior será a escalas das
fotos. Entretanto, o avanço tecnológico recente também permite adquirir dados
muito detalhados a grandes distâncias do alvo. Isto tem implicações na resolução
espacial dos sensores, que se refere ao menor tamanho de um objeto que pode ser
identificado. Outra definição para a resolução espacial é a seguinte: medida da
menor separação angular ou linear entre dois objetos a partir de um sensor.
FONTE: O autor
11
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
E
IMPORTANT
NOTA
12
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS
Intervalo do
Propriedades
Região do espectro comprimento Fonte de REM
da medida
de onda
Visível (VIS) 450 – 760 nm Sol Reflectância
Infravermelho
próximo (IVP ou 760 – 910 nm Sol Reflectância
NIR)
Infravermelho
1190 – 1340 nm
de ondas curtas Sol Reflectância
1550 – 2500 nm
(SWIR)
Materiais
terrestres com
Infravermelho
3,5 – 4,2 µm altas temperaturas,
médio (IVM ou Emitância
4,5 – 5,0 µm como florestas
MIR)
com incêndios ou
vulcões ativos
Infravermelho
8,0 – 9,2 µm
termal (TIR ou Terra Emitância
10,2 – 14,0 µm
LWIR)
Micro-ondas Reflectância
3,2 – 100 cm Artificial
(radar) retroespalhada
FONTE: Adaptada de Meneses, Almeida e Baptista (2019, p. 33)
13
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
• O sensor remoto ativo vai funcionar a partir de uma fonte artificial de REM e
independe da energia solar (é necessária alguma fonte de alimentação de energia
para o equipamento emitir a radiação para poder captar a radiação refletida). Neste
caso, um equipamento vai emitir um feixe de REM para um alvo e em seguida o
sensor vai captar quanto deste feixe foi refletido de volta, como uma fotografia
no escuro utilizando flash, por exemplo. RADAR (Radio Detection and Ranging) e
LIDAR (Light Imaging Detection and Ranging) são exemplos de sensores ativos. A
maioria dos sensores ativos operam na região do micro-ondas (conseguem penetrar
na atmosfera com maior facilidade).
• Os sensores passivos, que correspondem na maior parte dos sensores que operam
em nosso planeta, trabalham com a captura da energia refletida a partir de fontes
naturais (luz solar ou radiação da Terra). Assim, o sensor passivo irá captar a
resposta que um objeto dá quando iluminado pelo Sol, como uma fotografia num
dia ensolarado, por exemplo. Portanto, não é necessária uma fonte de emissão
artificial de REM. Radiômetros e os espectrorradiômetros são considerados sensores
passivos. A maioria dos sensores passivos do SR operam nas regiões do visível,
infravermelho, infravermelho termal e no micro-ondas.
FONTE: Adaptada de Canada Centre for Mapping and Earth Observation (CCMEO, 2020)
15
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
Conforme a Figura 7, de acordo com uma dada largura de banda, algumas trocas têm
que ser consideradas para a escolha de um produto (imagem orbital, no caso).
16
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS
17
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
18
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS
19
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
www.itc.nl/ilwis/.
• SNAP (Sentinel Application Platform): conjunto de ferramentas de acesso livre lançada
pela ESA (Agência Espacial Europeia). Composto por três “caixas de ferramentas”
(Sentinel-1, 2 e 3) que são idealizadas para trabalhar com dados de SR. Por meio
desse programa é possível tratar imagens de satélite, classificá-las, aplicar correção
atmosférica etc. Para mais informações: https://step.esa.int/main/toolboxes/snap/.
• ArcGIS® Desktop é um programa comercial da ESRI (EUA). É um dos programas
mais conhecidos e utilizados no Geoprocessamento como um todo. Embora seja
conhecido por trabalhar com SIG e produzir mapas, há várias funcionalidades para
lidar dos dados matriciais oriundos do SR neste software. Para mais informações:
https://desktop.arcgis.com/en/.
• GRASS GIS é um programa livre de código aberto, criado pela GRASS Development
Team (EUA), utilizado para gerenciamento e análise de dados geoespaciais,
processamento de imagens, produção de gráficos e mapas, modelagem espacial e
visualização de dados. Para mais informações: https://grass.osgeo.org/.
• gvSIG Desktop é um software livre e colaborativo de SIG, desenvolvido com o apoio da
União Europeia. Dentre suas funcionalidades com dados raster, podemos destacar:
recorte de dados e bandas, processamento por pixel, tratamento de interpretação de
cor etc. Para mais informações: http://www.gvsig.com/pt.
• QGIS é um programa livre e muito completo, desenvolvido por uma ampla rede
de colaboradores ao redor do mundo, que permite criar, manipular, visualizar e
interpretar dados geoespaciais. Possui muitas funcionalidades envolvidas com
produtos de SR, sendo uma boa opção para processamento digital de imagens,
classificação de imagens etc. Para mais informações: https://www.qgis.org/pt_BR/
site/.
• SPRING é um importante programa de SIG (Sistema de Informações Geográficas)
gratuito, desenvolvido pelo INPE. O programa conta com o estado da arte de
funções de processamento de imagens, análise espacial, modelagem numérica de
terreno, consulta a bancos de dados espaciais etc. Um dos seus objetivos é criar um
ambiente unificado envolvendo SIG e SR para aplicações urbanas e ambientais. Para
mais informações: http://www.dpi.inpe.br/spring/portugues/index.html.
• TerraView (TerraLib) é um aplicativo, desenvolvido pelo INPE, que manipula
dados vetoriais (pontos, linhas e polígonos) e matriciais (grades e imagens), ambos
armazenados em SGBD relacionais ou georelacionais de mercado, incluindo
ACCESS, PostgreSQL, MySQL e Oracle. Para mais informações: http://www.dpi.
inpe.br/terraview.
• TerraAmazon foi criado pelo INPE (programa livre). É uma ferramenta de SIG
projetada para ser um editor multiusuário de dados geográficos vetoriais. Possui
ferramentas de classificação de uso e cobertura do solo, assim como operações
espaciais entre dados vetoriais. Também possui um plug-in de PDI (processamento
digital de imagem). Para mais informações: http://www.terraamazon.dpi.inpe.br/.
20
TÓPICO 1 — REVISÃO DOS PRINCIPAIS CONCEITOS E DEFINIÇÕES INICIAIS
É importante mencionar que muitas empresas também oferecem pacotes para processar
dados em nuvem (on-line); ou seja, neste caso, não há a necessidade da instalação de um
software no computador. O Google Earth Engine é um bom exemplo de uma plataforma
avançada para processamento geoespacial e análise de dados de ciências da Terra em
nuvem. A ESRI também possui o “ArcGIS Pro Online”.
Para finalizar este tópico: qual é o melhor software para Sensoriamento Remoto (SR)?
A resposta é: depende! Há muitas variáveis a se considerar como: custo, sistema
operacional e o hardware disponível, necessidade de integrar dados matriciais com
vetoriais, os produtos que o usuário lida etc. Alguns softwares “mais específicos”
costumam desempenhar melhor uma mesma funcionalidade em comparação com os
mais “completos”, que tendem a não aperfeiçoar toda a sua amplitude de funções e
objetivos. Normalmente, os programas pagos costumam ter uma interface mais
amigável e de mais fácil manipulação. Todavia, em algumas ocasiões o usuário de SR
vai precisar realizar procedimentos e tratamentos em vários programas distintos.
21
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
E
IMPORTANT
DICAS
Caso você queria saber mais sobre softwares e aplicativos, tutoriais, produtos
e novidades sobre o SR, há três sites interessantes, acesse:
• Processamento Digital: http://www.processamentodigital.com.br/.
• Mundo Geo: https://mundogeo.com/.
• Mundo Geomática: http://www.mundogeomatica.com.br/.
NTE
INTERESSA
22
RESUMO DO TÓPICO 1
Neste tópico, você aprendeu que:
• A radiação eletromagnética (REM) que atinge a superfície terrestre pode ter três
interações: absorção, transmissão e reflexão. O sensor remoto vai mensurar a energia
refletida ou emitida pelo alvo. O SR não utiliza todos os comprimentos de onda do
espectro eletromagnético.
• Os sensores podem ser ativos (emitem REM para depois captar o quanto foi refletido)
ou passivos (medem a REM da luz solar refletida por um alvo). Os sensores ainda
podem ser imageadores (produzem imagens) ou não imageadores (produzem
resultados numéricos).
23
AUTOATIVIDADE
2 O primeiro requisito para o Sensoriamento Remoto (SR) é ter uma fonte de energia
para iluminar o alvo (área de interesse). Assim como nossos olhos precisam que
objetos sejam iluminados para que possamos vê-los, os sensores também precisam
de uma fonte de energia para “iluminar” a superfície da Terra, com a posterior
mensuração da energia refletida. O sol é a principal fonte natural de energia.
Essa energia está na forma de radiação eletromagnética (REM). Considerando as
características de sensores orbitais com relação a sua fonte de energia, analise as
sentenças a seguir:
24
b) ( ) Nenhuma das sentenças está correta.
c) ( ) As sentenças II, III e IV estão corretas.
d) ( ) As sentenças II e III estão corretas.
e) ( ) As sentenças I, IV e V estão corretas.
25
26
UNIDADE 1
TÓPICO 2 —
1 INTRODUÇÃO
No tópico anterior, tivemos a oportunidade de rever alguns conceitos
importantes que estão ligados ao Sensoriamento Remoto (SR). Além disso,
verificamos que o SR é uma classe genérica de geotecnologias que permite gerar
uma gama de produtos diferentes (a partir de três principais plataformas de
aquisição), os quais podem ser visualizados e tratados em vários softwares livres
ou comerciais que são intimamente relacionados com SIG.
27
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
FONTE: Adaptada de Canada Centre for Mapping and Earth Observation (CCMEO, 2020) e
Olsen (2007, p. 49)
28
TÓPICO 2 — COMPORTAMENTO ESPECTRAL DE ALVOS
Como foi visto no tópico anterior, a atmosfera interage com REM através da absorção e
do espalhamento. O espalhamento na atmosfera pode ser de três formas: Espalhamento
Rayleigh, Espalhamento de Mie e Espalhamento não seletivo (geométrico). Tais tipos diferentes
de espalhamento são em função do comprimento de onda da REM versus o tamanho
(diâmetro) das partículas, moléculas e elementos presentes na atmosfera.
29
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
DICAS
30
TÓPICO 2 — COMPORTAMENTO ESPECTRAL DE ALVOS
DICAS
31
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
33
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
34
A assinatura ou comportamento espectral de um material corresponde
ao conjunto dos valões sucessivos da reflectância da REM. Todavia, é a forma, a
intensidade e a localização de cada banda de absorção que caracteriza o material
ou objeto (NOVO, 2010). Assim, cada pixel numa imagem de satélite contém um
valor do espectro amostrado e, por meio da reflectância gravada neste pixel, um
determinado material pode ser devidamente identificado. Por exemplo, caso
uma imagem de um alvo apresente altos valores digitais referentes à região do
infravermelho próximo (NIR), podemos concluir, de antemão, que o alvo reflete
de forma mais intensa a REM dessa região do espectro.
NOTA
• vegetação;
• água;
• neve;
• solo;
• rochas e minerais;
• asfalto;
• telhados (cerâmicos e metálicos);
• concreto.
Veremos uma descrição da assinatura espectral de alguns destes elementos
35
mencionados. A Figura 12 nos traz um exemplo do comportamento de folhas
(vegetação). Através da análise desta figura, que mostra a assinatura espectral de
uma folha verde (A), uma folha seca (B) e um solo com muito ferro e pouca matéria
orgânica (C), podemos perceber que é possível diferenciar a reflectância de um
objeto para cada região do espectro eletromagnético que o atinge, construindo
uma curva. Por que essa diferença ocorre? A chave para entender a assinatura da
vegetação está relacionada com a fotossíntese (síntese de substâncias orgânicas
pelas folhas das plantas com a ajuda da energia solar). Portanto, este assunto
é extremamente importante no que tange o SR de agricultura de precisão.
Reflectância é a grandeza utilizada para gerar a assinatura espectral de um alvo.
Curvas para os comprimentos de onda entre 400 a 1000 nm.
36
bom indicador do estado das plantas (tipo de vegetação, estágio de desenvolvimento,
se está estressada ou saudável etc.). A vegetação sadia possui maior reflectância no
IV próximo (NIR). Nessa região do espectro, as características de reflectância são
controladas pela estrutura fisiológica interna (mesófilo esponjoso) das plantas. Já
no IV médio (MIR), há maior absorção por causa da presença de água nas folhas e,
consequentemente, há maior reflectância. Conforme Liu (2006), folhas mais verdes no
estágio de crescimento vegetativo e folhas mais amareladas no estágio de maturação
são evidências de uma planta mais saudável. Dessa forma, tais características podem
ser utilizadas para monitorar a produtividade em termos de biomassa e o crescimento
da vegetação.
37
para agrupar micro-organismos fotossintéticos que ficam à deriva na água) e plantas
marinhas; ou seja, organismos que possuem clorofila, apresenta picos de reflectância
(na faixa do verde) e picos de absortância nas faixas do azul e do vermelho (exatamente
como acontece com a curva da vegetação terrestre). As espécies de fitoplâncton
possuem diferentes concentrações de clorofila a, e por isso apresentam como cores
diferentes em imagens de SR. Os sensores orbitais mais utilizados para estimar a
concentração do plâncton (fitoplâncton, produtividade das águas etc.) são o SeaWiFS
e o MODIS. Os sensores OLI (Operational Land Imager) do satélite Landsat-8 e o sensor
MSI (Multispectral Instrument) do satélite Sentinel-2A também podem ser utilizados
para estimar a concentração de clorofila a nas águas, por exemplo (WATANAB et al.,
2017). Cada sistema sensor possui um algoritmo próprio para calcular a abundância do
fitoplâncton (JENSEN, 2009).
Gelo e neve têm alta refletância (alto albedo) em todos os comprimentos de onda
visíveis, dessa forma ficam com a aparência branca bem brilhante (Figura 13). A
refletância diminui na parte do infravermelho próximo (NIR) e há uma alta absortância
no SWIR (infravermelho de ondas curtas). A baixa reflexão de gelo e neve no SWIR está
relacionada ao seu conteúdo, em escala microscópica, de água líquida.
38
A refletância da neve e do gelo é diferente, pois depende da composição do material
(incluindo impurezas e tamanho da partícula). As nuvens também possuem uma
alta reflectância (mas menor que a da neve) em praticamente todos os comprimentos
de onda do espectro eletromagnético, com regiões de maior absorção em cerca de
1000, 1300 e 2000 nm. Adicionalmente, a Figura 13 mostra a localização (em termos
do comprimento de onda) das bandas espectrais de alguns sensores remotos orbitais
importantes.
As propriedades espectrais dos solos, rochas e minerais são bem semelhantes, e são
importantes para estudos em agronomia e geologia. A curva de reflectância do solo
exposto (bare soil) aumenta com o aumento do comprimento de onda, com maior
refletância no infravermelho próximo (NIR) e infravermelho de ondas curtas (SWIR).
Tal curva é influenciada por fatores como: rugosidade e textura do solo, tipo de solo,
conteúdo de matéria orgânica, conteúdo de água (umidade) e composição química
(elementos químicos presentes no solo, principalmente a concentração de óxido
de ferro) (JENSEN, 2009; FLORENZANO, 2011). A Figura 14 mostra diferenças na
assinatura a partir de variações de algumas destas propriedades.
Solos com superfícies mais rugosos tendem a refletir menos a radiação, devido ao efeito
de sombreamento e espalhamento. Partículas maiores vão refletir mais (em se tratando
de solos com uma mesma composição mineralógica). É possível afirmar que o aumento
da reflexão é proporcional ao aumento dos grãos no tamanho areia. A umidade e o
conteúdo de matéria orgânica são outras variáveis importantes no estabelecimento da
curva espectral de um determinado tipo de solo. Via de regra, quanto maior a umidade
e maior a concentração de matéria orgânica, maior é a capacidade do solo em absorção
a energia e, consequentemente, a reflexão será diminuída (JENSEN, 2009). O óxido de
ferro influencia na cor do solo, dando aspectos mais avermelhados e amarelados (ou
seja, maior reflectância na região do vermelho).
A Figura 14 nos mostra: (A) Relação para solos expostos (sem vegetação) com diferentes
proporções de matéria orgânica (MO); (B) e (C) mostram a influência do conteúdo de
água em solos arenosos e argilosos, respectivamente. Quanto maior a umidade, maior
é a absorção.
39
FONTE: Adaptada de Jensen (2009, p. 464-465)
Segundo Jensen (2009), é possível diferenciar a textura (tipo) de solos a
partir de sensores com alta resolução espectral e radiométrica. Além disso, também
é possível utilizar sensores de micro-ondas ativos (radar) para classificar os solos
em relação ao seu aspecto textural. Igualmente é possível utilizar as diferentes
regiões do espectro para estudar propriedades físico-químicas de rochas (NOVO,
2010).
40
FIGURA 15 – ASSINATURAS ESPECTRAIS DE ALVOS URBANOS
Vamos para um exercício prático: imagine que você queira diferenciar dois tipos de
árvores (decíduas/folhas largas e coníferas/folhas aciculares) num mapeamento no
bosque no verão utilizando SR, qual seria uma forma eficiente de realizar essa tarefa?
Lembrando que ambas irão apresentar os mesmos tons de verde a olho nu numa
fotografia aérea convencional e em imagens no espectro do visível. Além do mais,
diferenciar por meio da forma da copa das árvores também pode ser uma tarefa muito
difícil.
A chave da resposta para estar pergunta acima está na assinatura espectral de ambos
os tipos de árvores (Figura 16). Após analisar a curva de reflectância de ambos os tipos
de árvores, podemos perceber que a faixa do infravermelho próximo (NIR) seria a
ideal para identificá-las (~0,8 µm de comprimento de onda), uma vez que há uma clara
separação das assinaturas nessa região do espectro. Dessa forma, podemos utilizar um
VANT com sensor fotográfico preto e branco que opere no NIR, por exemplo (Figura
17). Isto mostra a grande importância de conhecer o comportamento espectral dos
materiais que compõe a superfície terrestre.
41
FONTE: Adaptada de Lillesand, Kiefer e Chipman (2015, p. 14)
42
DICAS
Para frisar bem: como construímos uma curva de reflectância? De fato, qualquer
equipamento (sistema sensor) capaz de captar a energia refletida por uma alvo pode
ser usado para plotar uma curva (ou pontos) espectral, a grande diferença é que a
resolução espectral varia de sensor para sensor. No entanto, como falado anteriormente,
o ideal é utilizar sensores remotos hiperespectrais (possuem bandas espectrais mais
“estreitas” e contínuas) e assim pode-se construir uma verdadeira curva (em se tratando
de sensores orbitais). O procedimento é relativamente simples, e envolve converter
o número digital (brilho relativo) de cada pixel em radiância (top-of-atmosphere TOA
radiance) e posteriormente converter essa radiância em reflectância. Dependendo do
software que está sendo usado, há algumas funções específicas e simples para tal tarefa.
Ao longo deste subtópico foram observadas várias curvas de respostas dos materiais
quando atingidos por radiação eletromagnética (REM). É necessário resultar que as
curvas exemplificadas e mostradas em figuras refletem o padrão geral, mas na verdade
cada curva se situa dentre de um envelope com valores máximos e mínimos (a curva
pode variar um pouco). Em laboratórios ou em saídas de campo para coletar dados
in situ com sensores móveis a reflectância pode ser medida sob a forma do fator de
reflectância, que é definida como a razão entre a radiância de um alvo de um dado
comprimento de onda pela radiância de um material de superfície lambertiana (teórico).
43
• condições ambientais: relaciona-se com variações em condições externas do alvo ou
área de interesse, como: iluminação, precipitação e inundação, interferência humana
(e.g. poluição, desmatamento), dentre outros fatores;
• posição do alvo em relação à fonte e ao sensor remoto: a localização do alvo perante
a fonte de radiação solar depende da estação do ano, do dia e da hora. Não obstante,
a posição desse alvo também é influenciada pela topografia do terreno (haverá
diferentes respostas espectrais de um mesmo objeto que se localiza numa superfície
plana e numa área inclinada). Geometria de aquisição de dados;
• interação com a atmosfera: os componentes atmosféricos podem absorver ou
causar o espalhamento tanto da radiação incidente quanto da radiação que o corpo
emite. Tal interferência pelos gases e particulados da atmosfera poderá diminuir da
qualidade do sinal que será registrado pelo sensor.
E
IMPORTANT
44
tidade significativa de radiação na faixa de comprimento de onda de 0,525 a 0,600 µm
(faixa que enxergamos como luz verde). Já se o pixel for de cor escura, em comparação,
indicaria que pouca luz verde está sendo refletida por esse material de superfície (maior
absorção). Importante: nem todos os sensores orbitais possuem bandas em todas as
regiões do espectro eletromagnético (observe a Figura 13).
Embora as imagens em tons de cinza possam apresentar muitos níveis, o olho humano
– que é um excelente exemplo de “sensor remoto” – é capaz de distinguir somente algo
entre 16 a 30 níveis de cinza. Basicamente, a sensibilidade às variações de cores é mais
facilmente percebida pelos humanos do que os diferentes tons de cinza (brilho). O
sistema ótico humano pode perceber milhares de cores a partir da adição de três cores
puras ou primárias: vermelho (R – red), verde (G – green) e azul (B – blue). A cor preta
é formada quando há ausência destas três cores primárias (quando um alvo absorve
tudo), enquanto a cor branca é formada pela mistura dos valores máximos destas três
cores puras. O modelo IHS (Intensity, Hue, Saturation) também é bem difundido no
SR (em alguns casos, podemos transformar o modelo RGB para IHS para interpretar
melhor os dados). Existe também o modelo subtrativo de cores, CMYK (Cyan, Magenta,
Yellow, Black), que são utilizados em algumas impressoras coloridas, por exemplo.
Então, vimos que é mais útil combinar bandas, formando uma imagem colorida, do que
analisar uma banda isoladamente. A Figura 16 mostra o processo de formação de uma
composição colorida em cor natural ou verdadeira. Neste caso, foi utilizada as bandas
azul (banda 2), verde (banda 3) e vermelha (banda 4) do sensor orbital Sentinel-2 MSI;
ou seja, a composição em cor natural para este sensor é R4G3B2 (podemos ler dessa
forma: banda 4 alocada no canal R, banda 3 alocada no canal G e banda 2 alocada no
canal B). Note que a combinação RBG de cor natural ou verdadeira pode mudar de um
sensor para outro (nem sempre a composição em cor verdadeira/natural será R4G3B2).
Por exemplo: a composição em cor natural do Landsat 7 ETM+ é R3G2B1. Isso é válido
45
para todas as composições de todos os sensores. Dessa forma, sempre é importante
consultar as tabelas de características de cada sensor, como número das bandas, sua
descrição e seu intervalo. É possível encontrar tabelas de todos os sistemas sensores na
internet.
Como pode ser visualizado nas Figuras 19 e 20, podemos realizar várias combinações
além da combinação em cor natural ou verdadeira. Por que fazer isso? Como vimos
anteriormente, os elementos presentes na superfície da Terra apresentam diferentes
intensidades de reflectância. Então, podemos combinar as bandas de jeitos diferentes
para extrair melhor os dados e poder, de fato, enxergar uma informação que está ali,
mas é invisível para a nossa percepção ótica (pois só enxergamos os comprimentos de
onda do visível).
46
FONTE: Adaptado de Pettorelli et al. (2018, p. 19)
47
FONTE: <https://gsp.humboldt.edu/OLM/Courses/GSP_216_Online/lesson3-1/composites.
html>. Acesso em: 18 nov. 2020.
48
FONTE: <https://gsp.humboldt.edu/OLM/Courses/GSP_216_Online/lesson3-1/composites.
html>. Acesso em: 18 nov. 2020.
49
TABELA 2 – REGIÃO DO ESPECTRO E SUAS POSSÍVEIS APLICAÇÕES
Bandas (região
Possível aplicação
do espectro)
- Monitoramento da biodiversidade marinha, como a
população de baleias (essa faixa do espectro penetra
dezenas de metros em águas claras).
Aerossol Costeiro - Batimetria por satélite (banda é absorvida menos pela
(0,43 - 0,45 µm) água).
- Aerossóis: como a faixa de aerossóis costeiros é mais
sensível às nuvens, fumaça e neblina, está sendo usada
para filtrar nuvens no processamento de imagens.
- Dependendo da claridade da água, a luz visível na faixa
azul pode atingir profundidades de mais de 40 metros
- Imagens de água profunda de mares e oceanos
Azul (0,45 - 0,51
(mapeamento de recifes, vegetação aquática, batimetria,
µm)
feições de fundo etc.).
- Fumaça, atmosfera e nuvens.
- Separação de nuvens, neve e rochas.
- Vigor e vegetação de plantas.
Verde (0,53 - 0,59 - Florações de algas e cianobactérias.
µm) - Recreação urbana e aplicação no esporte (estado de
gramados etc.).
- Tipos de solo e recursos geológicos.
Vermelho (0,64 -
- Áreas naturais versus áreas construídas.
0,67 µm)
- Absorção pela clorofila.
- Banda nova, encontrada no WorldView-2.
Amarelo (0,585 - - Doenças em árvores.
0,625 µm) - Pragas (insetos) na copa de árvores.
- Classificação de árvores por estação.
- Transição entre a porção do vermelho e o infravermelho
próximo (IVP/NIR) (clorofila absorve a luz vermelha e
Borda do
reflete o IVP).
vermelho (0,705 –
- Condições de uma dada cultura.
0,745 µm)
- Saúde das plantas e estado de maturação.
- Monitoramento (agricultura).
- Separação de água e vegetação.
Infravermelho - Biodiversidade.
Próximo 1 - NIR- - Conteúdo de biomassa.
1 (0,76 - 0,90 µm) - Sítios arqueológicos.
- NDVI (índice de vegetação).
Infravermelho - Menos afetada pela atmosfera que a NIR-1.
Próximo 2 - NIR- - Estudos de vegetação.
2 (0,86 - 1,04 µm) - Limites terra/água.
Infravermelho
- Estudos de solos (solos secos vs. solos úmidos).
de ondas curtas
- Estudos geológicos (identificação de minerais).
1 - SWIR-1 (1,57 -
- Aplicação em queimadas (atravessa a fumaça).
1,65 µm)
50
- O SWIR-2 é usado principalmente para geração de
Infravermelho imagens de tipos de solo, características geológicas e
de ondas curtas minerais, como cobre e sulfatos. Também é sensível às
2 - SWIR-2 (2,08 - variações de umidade da vegetação e do solo.
2,35 µm) - Forte absorção pela água.
- Neve e gelo e as nuvens parecem mais escuras.
- Toda a energia refletida é armazenada em um único
canal (em P&B).
Pancromática
- Maior resolução espacial.
(0,50 - 0,68 µm)
- Utilizada para aumentar a resolução de imagens
coloridas (Pansharpening).
Cirrus (1,36 -1,38
- Detecção de nuvens do tipo Cirro.
µm)
- Detecção calor (sensores do Landsat nesta banda
Infravermelho captam a energia emitida, não a refletida).
termal - TIRS-1 - Atividade vulcânica.
(10,60 -12,51 µm) - Calor urbano (e.g. ilhas de calor, parques)
- Previsão do tempo.
51
RESUMO DO TÓPICO 2
Neste tópico, você aprendeu que:
• Quanto maior for o pico da reflectância, mais claro será o objeto numa dada imagem
e vice-versa.
52
AUTOATIVIDADE
FONTE: O autor
53
sensor, pois a localização, a existência e a largura da banda são variáveis entre os
sistemas sensores. Dessa forma, analise as composições a seguir, feitas a partir de
bandas espectrais do OLI (Landsat 8) para um trecho do litoral do Rio Grande do
Sul (RS), e assinale a alternativa CORRETA:
FONTE: O autor
54
geralmente o solo arenoso seco possui alta energia refletida no IV, a água limpa
possui baixa reflexão no IV, a água com sedimento em suspensão possui energia
refletida no visível e a vegetação sadia (folha verde) possui alta reflexão no IV
próximo.
II- A principal diferença entre os sensores multiespectrais e os hiperespectrais está
na resolução espacial.
III- A assinatura espectral da neve e do asfalto são similares, pois são materiais de
alto albedo.
IV- Uma única banda (imagem) espectral é sempre representada em cores.
V- As diferentes composições espectrais são úteis, pois é uma forma de analisar três
bandas espectrais simultaneamente, utilizando o sistema RBG de cores.
55
56
UNIDADE 1
TÓPICO 3 —
1 INTRODUÇÃO
Prezado aluno, até agora passamos por conhecimentos essenciais no que tange ao
Sensoriamento Remoto (SR). Conhecer as assinaturas espectrais dos diferentes alvos
que compões a superfície do nosso planeta é importantíssimo, pois formam a base para
a compreensão das diferentes composições espectrais coloridas.
Como cada vez mais há um maior volume de dados disponíveis para os usuários de
SR, torna-se uma tarefa necessária reduzir a dimensionalidade dos dados originais,
objetivando extrair e comprimir todas as principais informações em apenas três
bandas (em composição RBG), com a finalidade de permitir a exibição os dados em um
monitor de vídeo (CRÓSTA, 1992). Basicamente, podemos combinar as informações de
várias imagens, adquiridas em faixas espectrais diferentes, para melhor determinar um
57
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
58
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS
(PC1) vai possuir a maior quantidade de dados. Normalmente os três primeiros eixos
(PC1, PC2 e PC3) são suficientes para explicar toda a variação dos dados.
Para entender melhor esta técnica, observe a Figura 21, que mostra imagens e seu
histograma das cores verde e vermelho sob a forma de gráfico de dispersão. Podemos
notar que a imagem de SR (Figura 21B) compreende um número limitado de cores
em comparação com uma fotografia de alta resolução (Figura 21A). No gráfico de
dispersão da imagem Figura 21B, podemos notar que há um forte padrão de correlação
entre os canais; isto é, toda a informação dos pixels está junta numa linha diagonal. A
forte correlação significa que se um pixel está mostrando um valor alto na banda do
vermelho, há uma grande chance de ele também possuir um valor alto nas duas outras
bandas do espectro visível (verde e azul). Isso ocorre por causa de sombras resultantes
da topografia, sobreposição de bandas espectrais e até mesmo pela própria natureza
do alvo (CÂMARA et al., 1996). Então, pode haver efeitos indesejáveis, pois pouca
informação é adicionada quanto mais se adiciona cores (bandas espectrais, no caso).
Observe o mesmo gráfico da imagem de satélite após a transformação pela ACP (Figura
21C), nota-se que a nuvem dos dados não está mais numa linha, e sim numa nuvem de
pontos independentes. Segundo Câmara et al. (1996), a ACP produz um novo conjunto
de imagens individuais na qual as bandas possuem informações adicionais de outras
bandas. Como mencionado antes, as três primeiras bandas (três primeiros PCs) têm
mais dados e costumam ser utilizadas para fazer uma composição multiespectral
colorida. Observamos na Figura 21 diferentes imagens com seu respectivo gráfico de
dispersão (scattergram) das cores verde e vermelho. A) Fotografia de alta resolução. B)
Imagem de satélite em sua cor verdadeira. C) Imagem de satélite após a transformação
pela ACP.
59
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
60
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS
DICAS
61
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
Esta técnica foi criada por Kauth e Thomas (1976) utilizando as informações espectrais
do MSS (Multispectral Scanner System) do Landsat. Atualmente, há coeficientes dessa
transformação espectral para os principais sistemas sensores orbitais, incluindo:
TM, ETM+ e OLI da série Landsat; sensores do SPOT; MODIS; ASTER, Sentinel-2,
IKONOS, dentre outros. Originalmente, o método foi criado para entender fenômenos
importantes do desenvolvimento da cultura agrícola do trigo no espaço espectral. Os
autores observaram que houve um aumento do IVP (infravermelho próximo) e uma
menor reflectância na banda vermelha do visível por causa da cobertura do solo, como
consequência do crescimento e maturidade das plantas ao longo do tempo. Esta técnica
permite que espécies vegetais sejam mais bem classificadas.
62
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS
TUROS
ESTUDOS FU
63
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
Contudo, conforme Zanotta, Ferreira e Zortea (2019), ajustar as cores puras para
encontrar uma cor ideal pode ser uma tarefa árdua no espaço RGB, mas no espaço
IHS a procura se torna mais intuitiva, pois alterações causadas por cada variável
são correlacionadas com características objetivas da cor. O acrônimo IHS significa:
Intensidade (luminosidade), Hue (matiz/tonalidade) e Saturação (pureza). Segundo
Meneses e Almeida (2012) e Zanotta, Ferreira e Zortea (2019), podemos definir estas
três propriedades como:
Como foi falado no tópico anterior, o espaço de cores RBG pode ser representado
por um cubo, enquanto o espaço de cores IHS é representado por um cone, como
pode ser visualizado na Figura 24. Segundo Zanotta, Ferreira e Zortea (2019) existem
algumas formas de realizar a transformação do RGB para o espaço IHS, uma delas
consiste em converter partes dos valores RBG que estão em formato byte (0 a 255)
para IHS normalizado utilizando os valores máximos e mínimos de cada pixel. Essa
transformação do espaço de cores pode ser feita para qualquer banda em separado,
conforme o exemplo de Zanotta, Ferreira e Zortea (2019) na Figura 25.
A Figura 24 apresenta modelos de espaço de cores mais comuns no SR: A) O modelo RGB
é representado por um cubo em que é possível utilizar coordenadas cartesianas para
identificar uma determinada cor (baseada no sistema aditivo de cores). B) Modelo IHS
64
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS
65
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
Conforme Câmara et al. (1996), na transformação RGB para IHS, são escolhidas três
bandas espectrais que são associadas a cada uma das cores puras (vermelho, verde
e azul). Desta forma, cada pixel da imagem transformada corresponderá a um ponto
no espaço de cores IHS. Então, o resultado da conversão das três bandas originais
são três novas imagens, cada uma representando o I (Intensidade), H (Hue/matiz) e S
(Saturação). Por fim, pode ser feita uma composição RGB destas bandas transformadas
por IHS, permitindo uma melhor separação de cores e, consequentemente, identificando
melhor os alvos.
66
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS
vegetação, solos, culturas, tal transformação de espaço de cores é bem útil, pois a
separação das cores é mais intuitiva. Ademais, as transformações IHS também são
importantes para as técnicas de fusionamento de imagens e combinação de bandas.
Por fim, a transformação RBG-IHS pode ser resumida em três etapas: (I) transformação
de pixels de um espaço para outro; (II) aplicação de um contraste linear nas propriedades
I (Intensidade) e S (Saturação) para aperfeiçoar o novo espaço da cores e (III) o retorno
para RGB, pois nossos hardwares são baseados neste espaço.
Há uma grande quantidade de índices de vegetação, mas alguns são mais utilizados e
famosos que outros. Observe o grande número de índices na Tabela 3 (SHIRATSUCHI
et al., 2014). Podemos notar que a maior parte dos índices de vegetação são baseados
primariamente nas bandas da faixa do visível e no infravermelho próximo (NIR). Neste
contexto, conforme destacado por Shiratsuchi et al. (2014), é fundamental conhecer a
67
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
assinatura espectral das plantas (veja a Figura 12 do tópico anterior). Como já vimos, a
curva espectral da vegetação é definida pelos pigmentos fotossintetizantes (principalmente
pela clorofila) da folha na região do visível (ápice de reflexão na região do verde, com
maior absorção nas regiões azul e vermelho do visível), pela estrutura celular no IV
próximo (NIR) (dependendo da espécie vegetal, a reflexão varia entre 30 a 80%) e pelo
conteúdo de água no IV médio (MIR).
68
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS
69
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
Este índice resulta em um número para um dado pixel entre -1 (menos um) a +1 (mais
um); isto é, trata-se de uma medida adimensional (MOREIRA, 2011). Um valor zero de
NDVI significa que não há vegetação associada ao pixel, e perto de +1 (entre 0,8 a 0,9)
indica uma maior densidade possível de folhas verdes. A água limpa vai possuir um
NDVI negativo, mais próximo de -1. Áreas desérticas ou com muita areia ou neve vão
possuir um valor NDVI bem baixo (0,1 ou menos). Vegetação mais esparsa (rasteira
ou arbustiva) ou cultivos em senescência geralmente vão apresentar um NDVI entre
0,2 a 0,5. Os valores entre 0,6 a 0,9 de NDVI são considerados altos, e refletem uma
vegetação densa como florestas ombrífilas ou culturas no seu estágio máximo de
desenvolvimento. O NDVI possui uma grande sensibilidade para detectar variações
na solo sob o dossel (valores de NDVI são altos para solos/substratos mais escuros).
Embora possua uma boa sensibilidade à densidade da cobertura vegetal e seja simples
de ser produzido, o NDVI possui alguns entraves relacionados com a saturação de áreas
vegetais muito densas e uma não linearidade nas relações do IAF e com a porção da
radiação fotossinteticamente absorvida (FPAR) (FERREIRA; FERREIRA; FERREIRA,
2008). Melhor dizendo, o NDVI perde sensibilidade quando a vegetação é muito densa
(e.g. florestas ombrífilas) por causa desta saturação (SCHOWENGERDT, 2006). Nesse
contexto, para suprir as limitações impostas pelo NDVI, surgiu o EVI.
O EVI possui uma equação mais elaborada: EVI= onde NIR, red
e blue são as reflectâncias do objeto no infravermelho próximo, no vermelho e no azul,
respectivamente; C1 é o coeficiente de efeitos atmosféricos para a faixa do vermelho (no
valor de 6), C2 é coeficiente de efeitos atmosféricos para a faixa do azul (valor de 7,5), L
é o fator de correção para a influência do solo (valor de 1) e 2,5 é o fator de ganho. Este
índice designado para ser mais sensível na detecção de mudanças em áreas com alta
biomassa, para reduzir a influência dos efeitos atmosféricos nos valores transformados
e para melhor corrigir os sinais de fundo (background) originado pelo dossel vegetativo.
Dessa forma, o EVI tende a ser mais sensível às diferenças do dossel, como o IAF,
estrutura do próprio dossel e estresse das plantas em comparação com o NDVI (que
apenas retorna um índice da quantidade de clorofila).
70
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS
completa). Objetos muito claros (nuvens, prédios etc.) e muito escuros (água) podem
resultar em valores de pixels anômalos em um índice EVI. Portanto, é aconselhável
limitar os valores dos pixels entre 0 a 1.
A Figura 26 mostra uma comparação do NDVI com o EVI. Imagem do sensor MODIS
com o índice NDVI (A) e EVI (B) para a mesma data e mesma área. O NDVI tem
tons verdes mais escuros porque perde sensibilidade em áreas com muita biomassa
(florestas, no caso), ao passo que o EVI mantém uma distribuição uniforme.
71
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
DICAS
72
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS
DICAS
73
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
LEITURA COMPLEMENTAR
As condições meteorológicas quando adversas são aquelas que, com maior frequência,
determinam limitações no incremento de biomassa e, consequentemente, da
produtividade agrícola. Segundo Hoogenboom (2000), dentre todas as variáveis
meteorológicas, a radiação solar, a temperatura do ar e a precipitação pluvial são as que
mais determinam o crescimento, o desenvolvimento e a produtividade das culturas.
Porém, no Rio Grande do Sul, a variabilidade na precipitação pluvial é a responsável
pelos maiores impactos negativos às culturas produtoras de grãos. Para Bergamaschi
et al. (2003), a variação sazonal da condição hídrica no estado é causada principalmente
pela maior demanda evaporativa da atmosfera no verão que, via de regra supera a
precipitação pluvial. Nestas condições é comum a ocorrência de déficit hídrico, o qual
se desenvolve quando a absorção de água do solo é menor do que a transpiração das
plantas.
74
TÓPICO 3 — TÉCNICAS DE TRANSFORMAÇÕES ESPECTRAIS
Uma das ferramentas que vem sendo amplamente utilizada na agricultura, com
potencial de ampliar a amostragem de respostas de plantas, de forma mais detalhada
geograficamente (MELO et al., 2008), é o sensoriamento remoto (SR). Os dados obtidos
por SR podem servir de importante subsídio para a modelagem de crescimento e
desenvolvimento das culturas, até mesmo da estimativa do rendimento de grãos das
mesmas. Isso decorre de uma ampla gama de opções na hora da escolha do sensor,
possibilitando a escolha de bandas espectrais específicas para a avaliação de processos
específicos, ou momentos distintos do desenvolvimento de uma cultura (JENSEN,
2011).
Nos estudos com SR é muito frequente o uso dos denominados índices de vegetação (IV).
Os IVs são medidas radiométricas adimensionais que indicam a abundância relativa e
a atividade da vegetação verde, incluindo índice de área foliar (IAF), porcentagem de
cobertura verde, teor de clorofila, biomassa verde e radiação fotossinteticamente ativa.
Entre as muitas possibilidades de equações disponíveis na literatura para este fim, o
NDVI (do inglês Normalized Difference Vegetation Index) é o mais utilizado. Outro IV
com potencial de uso para acompanhamento da dinâmica da vegetação é o Enhanced
Vegetation Index (EVI), o qual foi proposto posteriormente ao NDVI, por Huete et al.
(2002). O EVI é um NDVI modificado desenvolvido para promover a redução das
influências atmosféricas e do solo de fundo do dossel no monitoramento da vegetação.
As fases de crescimento e desenvolvimento das culturas anuais apresentam valores
de IVs distintos ao longo do ciclo, caracterizando os denominados perfis temporais
dos IVs (Risso et al., 2009). Estes podem ser úteis em sistemas de monitoramento para
identificar o impacto de eventos adversos em estádios fenológicos críticos.
(...)
O experimento foi conduzido em formato On Farm, em uma área comercial de uma
propriedade de 553,7 hectares, localizada no Município de Carazinho, RS sob as
coordenadas 28°13’46” S e 52°54’32”, nas safras 2015-2016, 2016- 2017 e 2017-2018. Os
dados de NDVI (Equação 1) e EVI (Equação 2) foram extraídos através da plataforma
Google Earth Engine (GEE), uma plataforma gratuita de processamento em nuvem.
Ambos os índices foram extraídos para o polígono envolvente da área experimental.
(...) Os dados de IVs (índices de vegetação) do sensor MODIS são gerados a partir de
uma composição de imagens a cada 16 dias. Para realizar uma melhor comparação
entre os dados meteorológicos e IVs, os valores de precipitação pluvial (mm) medidos
e os valores de ETc (mm), excesso e deficiência hídrica (mm), oriundos do balanço
hídrico diário foram somados para períodos de 16 dias.
(...)
75
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
76
RESUMO DO TÓPICO 3
77
(IAF) e quantidade de cobertura vegetal. O NDVI e o EVI figuram entre os mais
importantes.
CHAMADA
78
AUTOATIVIDADE
79
CORRETA:
a) ( ) A diferença entre os índices está somente na sensibilidade à água.
b) ( ) O NDVI utiliza a reflectância do visível, já o EVI utiliza a banda
pancromática.
c) ( ) O NDVI utiliza as bandas do infravermelho (NIR) e do vermelho, e
o EVI utiliza o NIR, o vermelho e também o azul.
d) ( ) São índices utilizados apenas para quantificar a vegetação que ocorre
em parques de cidades.
e) ( ) O NDVI e o EVI utilizam apenas as bandas do infravermelho e do
vermelho.
80
REFERÊNCIAS
BARRETT, E. C.; CURTIS, L. Introduction to Environmental Remote Sensing.
4. ed.Londres: Routledge, 1999.
CCMEO - Canada Centre for Mapping and Earth Observation. Remote Sensing
Tutorials. Disponível em: https://www.nrcan.gc.ca/maps-tools-publications/
satellite-imagery-air-photos/tutorial-fundamentals-remote-sensing/9309. Acesso
em: 28 set. 2020.
81
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
82
OLSEN, R. C. Remote Sensing from Air and Space. Bellingham: SPIE, 2007.
SOUZA, A. D. et al. Using Gis To Monitor Public Works. 2016. Disponível em:
http://intosaijournal.org/using-gis-to-monitor-public-works/. Acesso em: 17 nov.
2020.
83
UNIDADE 1 — FUNDAMENTOS DE SENSORIAMENTO REMOTO II
84
UNIDADE 2 —
NOÇÕES DE PROCESSAMENTO DE
IMAGENS DIGITAIS
OBJETIVOS DE APRENDIZAGEM
A partir do estudo desta unidade, você deverá ser capaz de:
PLANO DE ESTUDOS
Esta unidade está dividida em três tópicos. No decorrer da unidade
você encontrará autoatividades com o objetivo de reforçar o conteúdo
apresentado.
CHAMADA
85
86
UNIDADE 2
TÓPICO 1 —
1 INTRODUÇÃO
Prezado acadêmico, na Unidade 1 estudamos importantes aspectos do Sensoriamento
Remoto (SR), desde os princípios mais básicos até os conteúdos que formam um dos
pilares do SR, que consiste na assinatura espectral de alvos e nos tipos de bandas e
suas composições. Ademais, também estudaremos algumas técnicas aritméticas
de processamento no domínio espectral das imagens, dando ênfase para os índices
espectrais de vegetação (NDVI e EVI), pois são amplamente utilizados no Brasil e no
mundo pelos usuários de Geoprocessamento. Agora, na Unidade 2, trataremos de
aprender mais sobre o processamento digital de imagens (PDI) obtidas por sistemas
sensores orbitais (satélites). No entanto, é fundamental que o aluno busque bibliografias
adicionais para ampliar seus conhecimentos. Algumas publicações gratuitas (livros e
artigos) serão sugeridas ao longo desta unidade.
A aquisição de uma cena por um sistema sensor remoto segue algumas etapas, e o
resultado é a geração de um produto (imagem) que é gravado sob a forma de números
digitais (valores dos pixels), uma vez que a grande maioria dos sensores orbitais
registram os dados no formato digital em detrimento do formato analógico. Os números
digitais representam normalmente variações de brilho, ou seja, correspondem à energia
eletromagnética refletida em maior ou menor proporção por um dado alvo, mas não
possuem uma grandeza física atrelada. Nesse contexto, o devido processamento de
imagens de satélite é uma parte essencial para melhor extrair informações de imagens.
No decorrer desta unidade, vamos lidar com alguns procedimentos mais frequentemente
usados para deixar as imagens orbitais prontas para serem mais bem interpretadas. Na
literatura, há vários esquemas/diagramas e fluxogramas (flowchart) que hierarquizam
87
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
Podemos notar através da visualização da Figura 1 que existe uma grande diversidade
de métodos para o processamento de imagens. Todavia, não há a necessidade de aplicar
todas as técnicas e procedimentos mostrados na figura. Tudo vai depender da aplicação
final do dado (qual a finalidade dos dados de SR?) pelo usuário do Geoprocessamento.
Os dados brutos (raw data) classificados como nível 0 ou 1 vão requerer um maior
número de operações no processamento digital, ou seja, o nível de pré-processamento
no qual uma agência disponibiliza uma determinada imagem vai balizar os passos
necessários para deixá-la ajustada e pronta para as análises. Dessa forma, os passos
de processamento vão variar de imagem para imagem conforme o tipo de formato da
imagem, as condições iniciais da coleta do dado, informação de interesse e a natureza
de uma cena (VANI, 2017). No entanto, podemos agrupar o processamento de imagens
digitais em três grandes grupos de etapas (procedimentos que possuem um objetivo
em comum), como pode ser visualizado a seguir:
88
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
Cada uma destas etapas é composta por diferentes operações que possuem finalidades
distintas. O pré-processamento (alguns autores chamam de “processamento”)
consiste na etapa de preparar o dado para os passos subsequentes. Nessa etapa, são
feitas correções necessárias e obrigatórias. Basicamente, as imagens digitais possuem
imprecisões de várias fontes diferentes, incluindo a atmosfera, a geometria do sistema
sensor (fonte de radiação) em relação ao alvo, bem como calibrações radiométricas (o
sensor tem que captar todos os pixels da mesma forma).
DICAS
89
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
Survey), não são corrigidos para os efeitos atmosféricos, ao passo que os produtos
Landsat nível 2 (Level 2) já incluem os valores de reflectância (reflectância de superfície),
por exemplo. A série Landsat também possui dados científicos categorizados como
nível 3. Observe a Figura 2, que compara alguns exemplos de produtos da série
Landsat com diferentes níveis de processamento realizados pela própria agência (antes
do download pelo usuário).
90
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
Conforme Piwowar (2001) houve um grande esforço por parte das grandes agências
distribuidoras de imagens para padronizar os níveis, pois estes se referem aos
procedimentos básicos comuns. No entanto, ainda há certa ambiguidade. Por isso, o
usuário dos dados de SR sempre deve buscar a definição de cada “nível” de acordo
com a agência do qual se inquiriu uma determinada imagem. No geral, temos cinco
classificações de níveis (ou categorias) de produtos de SR que são disponibilizadas por
agências para os usuários (PIWOWAR, 2001; INPE, 2004; PIRES, 2019; NASA, 2019), e
cada um destes níveis possui um avanço de processamento básico em relação ao nível
subsequente. Então, temos:
• Nível 0 (level 0): são as imagens totalmente brutas (raw). Necessitam de correções
obrigatórias antes de serem utilizadas para qualquer fim. Por esta razão, dificilmente
este nível será disponibilizado para os usuários, e não será útil para o conteúdo
deste livro. Este tipo de dado é muito específico, e pode ser utilizado por acadêmicos
que desenvolvem algoritmos ou novas técnicas. Para as imagens CBERS-1, 2 e 2B, o
INPE classifica o nível 0 como “imagem recebida diretamente pela estação de recepção do
INPE, contendo dados não calibrados, e informação adicional sobre atitude e efemérides do
satélite”. E são de uso interno do INPE.
• Nível 1 (level 1): refere-se a dados que foram corrigidos em parte para variações do
detector presente no sensor remoto. Os sensores são calibrados para “ler” os pixels
de uma cena de forma uniforme, pois o SR é baseado nas variações de brilho dos
pixels. Normalmente, os pixels não são diferenciados em relação ao que significam
em termos ambientais (água, floresta, nuvens etc.); isto é, são processados na mesma
forma para todos os alvos e não são expressos em unidades físicas (reflectância e
radiância, por exemplo) – lembre-se que os números digitais não possuem significado
físico. Este nível normalmente envolve a aplicação de equalização entre os sensores
(uma espécie de correção radiométrica). Os metadados desta categoria incluem a
referência temporal e os coeficientes radiométricos utilizados na calibração, que
podem ser usados para converter o número digital dos pixels em unidades físicas.
Dependendo do sistema sensor, este nível é subdividido em até três partes: 1A, 1B
e 1C, ou seja, os produtos do nível 1 podem ter um processamento mais complexo
de acordo com a agência geradora dos dados, por isso é importante consultar os
metadados e o seu significado no manual de cada sistema sensor. Para as imagens
CBERS-1, 2 e 2B, o INPE classifica o nível 1 como “imagem resultante da aplicação de
procedimentos de calibração radiométrica a uma imagem nível 0”.
• Nível 2 (level 2): todos os pixels foram adquiridos ao mesmo tempo (em poucos
instantes, durante uma passagem do satélite), mas aqui, o processamento pode
incluir informações sobre a natureza do pixel, por exemplo, se o pixel corresponde
à atmosfera, vegetação, água etc. Contudo, os pixels podem ser processados
de maneira diferente, de acordo com sua natureza. No geral, as imagens neste
nível estão corrigidas no domínio radiométrico e no domínio geométrico (são
georreferenciadas), na qual os dados dos satélites são utilizados para modelar e
corrigir as distorções ocasionadas pelo deslocamento do sensor (órbita do satélite)
e rotação da Terra. A Figura 3 mostra uma comparação de imagens nível 1 e nível
2 do Landsat-8/OLI. Algumas agências que possuem sensores orbitais subdividem
este nível em 2A e 2B para categorizar seus produtos em relação à qualidade do
georreferenciamento (e.g. Radarsat). Para as imagens CBERS-1, 2 e 2B, o INPE
classifica o nível 2 como “Trata-se da imagem nível 1, à qual foi aplicado procedimento
de correção geométrica de sistema, com uso de dados da plataforma e sem uso de pontos de
controle. Trata-se da imagem básica disseminada pelo INPE, em formato GeoTIFF”.
91
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
• Nível 3 (level 3): este nível de correção usa pontos de controle para melhorar a
geometria e o posicionamento. Ademais, os produtos deste nível possuem dados
adquiridos em diferentes datas. O processamento básico pode ser alterado conforme
a natureza do pixel (tipo de material que compõe a superfície da Terra ou o alvo). São
dados bem consistentes e íntegros, e possuem sobreposição de datas. Esta categoria
também possui variações em nível 3A e 3B de acordo com o sensor. Para as imagens
CBERS-1, 2 e 2B, o INPE classifica o nível 3 como: Imagem CBERS nível 2 à qual foram
aplicados procedimentos adicionais de correção geométrica com o uso de pontos de controle,
que permitem a localização dos elementos lineares na imagem, em um terreno plano, com
precisão compatível com o padrão de exatidão cartográfica na escala 1:50.000 (dados CCD),
1:250.000 (dados IRMSS) e 1:1.000.000 (dados WFI).
• Nível 4 (level 4): são produtos prontos para uso, como modelos ou resultados de
análises multitemporal de imagens, ou seja, não são produtos medidos diretos
da reflexão ou emissão da radiação eletromagnética (REM) por sensores, mas são
seus derivados. Para as imagens CBERS-1, 2 e 2B, o INPE classifica o nível 4 como
“imagem CBERS nível 3 refinada pelo uso de modelo digital de elevação, e compatível com
aplicações que requerem uma modelagem cartográfica acurada em qualquer tipo de terreno”.
92
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
Segundo Piwowar (2001), quanto mais processada pela agência de distribuição, mais os
detalhes radiométricos das imagens se perdem. Isto é, os valores dos pixels vão sendo
calculados cada vez mais como “média”, e isso acaba reduzindo algumas variações
sutis em termos radiométricos, entre eles (e essa variação de brilho de cada pixel nos
interessa). Entretanto, isso é uma questão um pouco mais preocupante para estudos
extremamente detalhados e refinados, que têm a finalidade de criar metodologias.
Com relação à série Landsat, que consiste na série de satélites mais utilizados em
estudos de imagens de SR, seja para aplicação em ambientes urbanos ou rurais, o nível
2 é o mais empregado. Lembrando que o site do USGS (https://earthexplorer.usgs.gov/)
e o site do INPE (http://www.dgi.inpe.br/CDSR/) permitem o download gratuitos das
cenas do Landsat em vários níveis diferentes. Ademais, ambos os sites permitem baixar
uma gama de produtos de SR de vários outros sistemas sensores orbitais.
93
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
• é a reflectância TOA;
• corresponde ao fator de redimensionamento multiplicativo de banda;
• são os valores de pixel-padrão quantizados e calibrados (números digitais);
• corresponde ao fator de redimensionamento aditivo de banda;
• é o zênite do ângulo solar local (este ângulo é dado pela equação:
, na qual o significa o ângulo de elevação do Sol no centro da cena
94
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
em graus).
95
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
DICAS
96
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
97
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
98
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
ATENCAO
99
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
envolve cálculos e algoritmos bem complexos. Todavia, assim como nas outras etapas
do processamento de dados de SR, tal tipo de correção pode ser feita em uma gama
de softwares pagos (e.g. ERDAS Imagine, ENVI, ArcGIS) e softwares livres (e.g. QGIS,
MultiSpec, ILWIS) (STARS PROJECT, 2020).
Como proceder para realizar a correção geométrica? – Primeiro, a imagem deve ser geor-
referenciada, isto é, ser “amarrada” na superfície terrestre com uma dada projeção,
esferoide e datum. Em seguida, as imagens devem ser retificadas. Há vários métodos
matemáticos para realizar tal tarefa, mas uma das mais comuns consiste no emprego
de transformações polinomiais de pixels (MENESES; ALMEIDA, 2012). Este método
serve para rearranjar os pixels de um raster por meio da comparação com uma imagem
ou mapa já corrigido. Neste processo de utilizar uma camada com um sistema de co-
ordenadas já corrigido, será necessário identificar os GCPs (Ground Control Points); ou
seja, os pontos de controle. Estes pontos são de fácil localização, como esquinas de ruas,
postes, construções, árvores isoladas etc. O usuário deve identificar pontos fixos, que
não mudam ao longo do tempo, distribuindo-os pela imagem, principalmente em suas
bordas. Estes pontos de controle também podem ser levantados em campo, utilizando
equipamentos com uma alta precisão, como um RTK e um DGPS.
As equações polinomiais envolvidas na correção geométrica variam, normalmente, do
primeiro ao terceiro grau (de acordo com a complexidade da correção). Segundo Gre-
en, Clark e Edwards (2000), o usuário do Geoprocessamento deve possuir a habilidade
de escolher a melhor ordem da equação polinomial através da análise de três fatores:
quantidades de GCPs utilizados; a distribuição espacial desses pontos de controle e o
grau de distorção de uma imagem. A Figura 7 mostra a aplicação de uma equação de
transformação polinomial para corrigir a distorção de pixels de uma imagem espectral.
Esta figura também mostra o processo de reamostragem de pixel. Reamostragens en-
globam métodos que são baseados em estimar valores de pixel por meio de repetidas
amostragens dentro do mesmo raster.
100
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
101
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
102
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
DICAS
Para ampliar seus estudos, você pode baixar a Circular Técnica nº 18 (de-
zembro de 2012) da Embrapa. A publicação “Procedimentos para correção geométrica
de imagens de satélite” estabelece protocolos práticos para correção geométrica de
imagens orbitais em três aplicativos de SR diferentes: ArcGIS, ENVI e ERDAS. Você pode
baixá-la na íntegra em: https://bit.ly/2LKpumo.
Observe a Figura 9 e note que a foto que possui mais pixels distribuídos ao longo de
toda a amplitude de valores (256 graus de intensidade) possui melhor contraste, ao
passo que a imagem que usa só uma estreita faixa de valores em cada canal possui um
aspecto acinzentado (BEO, 2020). De acordo com Lillesand, Kiefer e Chipman (2015), as
principais técnicas de realce vão agir de duas formas: mudando o valor de brilho de um
determinado pixel de um raster de forma independente (ponto a ponto) ou mudando
o valor de um dado pixel com base nos valores de pixels vizinhos (Neighborhood). As
Transformações Espectrais, que vimos na Unidade 1, também podem ser consideradas
como técnicas de realce segundo alguns autores.
A manipulação de histogramas de imagens oriundas de SR é uma prática comum, e
a aplicação de funções para “espalhar” os valores dos pixels ao longo de todo o grau
de intensidade do histograma (eixo x, 0 a 255) é feita quase que 100% das vezes antes
de qualquer outro tipo de processamento, pois melhora a qualidade visual da imagem
e, consequentemente, facilita a interpretação dos alvos (mas lembre-se que nenhuma
nova informação é “criada” na imagem).
103
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
DICAS
104
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
105
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
Entre as técnicas mais comuns que no concerne o aumento de realce nas imagens de
satélite – isto é, técnicas visam manipular os histogramas para melhorar a distinção
dos objetos – estão as operações: Linear, Mínimo e Máximo, Raiz Quadrada, Quadrado,
Negativo, Fatia, Equalização de Histograma e Realce por Edição (CÂMARA et al., 1996).
Logo a seguir veremos uma breve descrição de tais algoritmos. Meneses e Almeida
(2012) agrupam as classes de algoritmo de realce em lineares e não lineares. Em suma,
praticamente todas estas são funções básicas estão presentes nos principais softwares
de processamento de imagens de SR e Geoprocessamento. De acordo com Meneses e
Almeida (2012), os contrastes da classe não linear acabam por distorcer a radiometria
da imagem, enquanto os lineares não. No entanto, é necessário informar que a
classificação das técnicas varia de autor para autor.
106
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
Por que aplicar realce de contraste? Basicamente, porque mesmo após uma imagem ser
processada, ela ainda pode ter um contraste espectral de baixa qualidade, dificultando
a interpretação por parte do usuário de SR (MOREIRA, 2003). No caso de composições
coloridas RGB, também é possível modificar os três histogramas que estão nos canais
RGB.
107
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
108
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
109
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
(testes).
Por fim, vamos considerar um exemplo prático descrito pelo CCMEO (2019). Suponha
que temos uma imagem orbital da desembocadura de um rio do mar, e as porções
no histograma relativas às águas ocupam o intervalo de valores digitais de 40 a 76.
Caso for do interesse em aumentar os detalhes da imagem para melhor visualizar a
água (analisar sedimento em suspensão, por exemplo), poderíamos realçar (expandir)
somente este pequeno intervalo de valores (40 a 76) ao longo de toda a amplitude de
valores (0 a 255). Neste caso, os pixels abaixo ou acima do intervalo de 40 a 76 iriam se
tornar 0 ou 255, respectivamente (ou seja, os detalhes radiométricos das áreas fora de
40 a 76 seriam perdidos). Dessa forma, os detalhes da porção relativa às águas seriam
muito bem realçados (CCMEO, 2019).
5 OPERAÇÕES ARITMÉTICAS
Como vimos na Unidade 1 (Tópico 3), é possível aplicar uma gama de operações
matemáticas e equações em imagens digitais. Isso ocorre porque a matriz de um raster é
composta por pixels que possuem algum valor numérico atrelado (brilho/nível de cinza)
(CRÓSTA, 1992; MENESES; ALMEIDA, 2012; JENSEN, 2015; ZANOTTA, FERREIRA;
ZORTEA, 2019). Na ocasião (Unidade 1), focamos nas operações de divisão ou razão
de bandas, que são as principais operações que utilizamos para produzir os índices
de espectrais (como os índices de vegetação: NDVI, EVI, dentre inúmeros outros).
No entanto, é possível fazer mais algumas operações com as matrizes de pixels do
que somente as divisões, afinal, os raster são matrizes de valores numéricos. Portanto,
as operações aritméticas também são técnicas de realce de imagens. Os softwares
de Geoprocessamento possuem “calculadoras” que são editáveis; ou seja, é possível
produzir a operação aritmética por meio de tal ferramenta.
110
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
DICAS
Sabemos que as imagens são compostas por uma matriz numérica (cada
unidade desta matriz é um pixel que possui seu próprio valor de brilho ou nível
de cinza). As operações aritméticas são realizadas pixel a pixel entre bandas ou
imagens espectrais. Observe a Figura 13 a seguir:
Segundo Câmara et al. (1996), as operações aritméticas são úteis para diminuir o
número de bandas. Contudo, os autores alertam que poderá haver perda de informação
original se os resultados da operação matemática ultrapassarem o intervalo de 0 a 255
(níveis de brilho). Caso isso aconteça, os resultados serão equalizados; isto é, os valores
abaixo de 0 e acima de 255 serão saturados, ocasionando perda de dados espectrais
das imagens (CRÓSTA, 1992; CÂMARA et al., 1996). Ainda, conforme os autores, tais
operações podem demandar algum coeficiente de ganho (multiplicativo) ou de offset
(aditivo), que possuem o objetivo de melhorar o contraste das imagens (isto é, caso
um novo valor fique muito pequeno, haverá um fator de ganho para aumentá-lo). Em
suma, podemos salientar que, em geral, as funções de adição são usadas para enfatizar
similaridades entre imagens ou bandas, ao passo que a subtração e a multiplicação
servem mais para destacar as diferenças espectrais (CÂMARA et al., 1996).
Crósta (1992) define que a adição (soma) é considerada a operação mais simples a
ser realizada em imagens espectrais. De fato, podemos entender essa operação como
uma forma de obter a média entre as imagens/bandas que estão sendo trabalhadas,
o que acaba por diminuir a ocorrência de ruído na imagem. Segundo Meneses e
111
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
Almeida (2012), a soma de imagens também pode ser feita para obter uma banda
pancromática (somando as bandas do visível de um determinado sensor remoto). A
Figura 14 exemplifica este processo de formação de uma banda pancromática por meio
do somatório de três bandas do visível do sensor ETM.
A subtração objetiva realçar pequenas diferenças espectrais entre imagens
(CRÓSTA, 1992). Da mesma forma como a operação de soma, a de subtração
também é uma operação linear. A partir do conhecimento da assinatura espectral
dos objetos de interesse e o intervalo espectral dos sensores, é possível escolher
quais serão as bandas espectrais selecionadas para estabelecer a diferença
112
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
(CÂMARA et al., 1996). Para Crósta (1992), a subtração é uma operação bem
importante para identificar sutis variações no comportamento espectral de
alvos. Ainda, conforme este autor, as operações de subtração são bem úteis para
identificar diferentes tipos de cobertura vegetal (além de quantificá-las) e também
para identificar minerais que possuem óxido de ferro em sua fórmula química.
Não obstante, tal técnica também pode ser utilizada para detectar mudanças entre
imagens ao longo do tempo, com uma grande aplicação na detecção de mudanças
ambientais e de cobertura do solo, por exemplo. A Figura 15 nos traz um exemplo
da aplicação de um algoritmo de subtração de imagens em diferentes datas, em
ordem para captar mudanças temporais (MENESES; ALMEIDA, 2012).
Câmara et al. (1996) alerta para a necessidade de equalizar as imagens antes de realizar
a subtração, no caso das médias e dos desvios padrão dos histogramas de ambas não
coincidirem. Esse procedimento visa evitar a detecção de mudanças não reais entre as
imagens. Conforme Meneses e Almeida (2012), a subtração de pixels entre diferentes
imagens espectrais pode gerar resultados máximos negativos (-255) e máximos positivos
(+255), caso ocorra pixels com valores digitais mínimos iguais a zero e máximos igual a
255. Como não existe radiância negativa, é adicionado um valor de 255 na operação (o
valor que seria -255 vai para 0) e, dessa forma, o novo intervalo não vai possuir valores
negativos, pois vai se situar entre 0 a 511. Então, este novo intervalo vai ser dividido
por dois para se obter uma imagem reescalonada com um intervalo comum de 8 bits (0
a 255 níveis de brilho) (MENESES; ALMEIDA, 2012).
113
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
Crósta (1992), essa operação aritmética evidencia os pixels (informação) que é comum
em ambas as imagens utilizadas no referido procedimento. Ainda, segundo o autor,
a multiplicação de imagens pode ser bem útil para ressaltar feições morfológicas,
situação importante para os campos das Geociências.
Meneses e Almeida (2012) utilizam um bom exemplo compilado de Florenzano et
al. (2001) para mostrar a aplicação prática da operação de multiplicação de bandas
espectrais (Figura 16). No dito exemplo, a multiplicação das imagens foi útil para
integrar a informação espectral com a informação textual da geomorfologia do relevo.
Para tanto, a banda 4 do ETM (Infravermelho próximo), que consegue mostrar os
dados de relevo em regiões com cobertura vegetal, foi multiplicada pelas bandas 2,
5 e 7 (sensor ETM) A seguir, foi feita uma composição colorida com o resultado desta
multiplicação. Compare essa composição gerada por meio da multiplicação de bandas
com uma imagem em composição simples (RGB257) e perceba como a interpretação
do relevo se torna mais intuitiva (FLORENZANO et al., 2001; MENESES; ALMEIDA,
2012).
6 TÉCNICAS DE FILTRAGEM
Além da manipulação do histograma e de operações aritméticas entre bandas, outra
técnica muito importante no que concerne o processamento elementar de imagens
digitais é a filtragem. Segundo Câmara et al. (1996), a aplicação de filtros espaciais é
114
TÓPICO 1 — NÍVEIS DE PROCESSAMENTO, PRÉ-PROCESSAMENTO E TÉCNICAS DE REALCE DE IMAGENS
feita pixel a pixel e não depende apenas do valor digital do pixel, mas também engloba
o valor de níveis de cinza dos pixels vizinhos. Em geral, os filtros são do tipo passa-
baixa (Low-pass filtering) e passa-alta (High-pass filters). Os primeiros vão suavizar as
imagens (e até desfocá-las), ao passo que os do segundo tipo vão realçar informações
de frequências mais altas (extremos locais, bordas/limites etc.) (CRÓSTA, 1992).
Observe a diferença de ambos na Figura 17. Há ainda o filtro de passa-banda, mas este
é somente utilizado para processamentos mais específicos. Não obstante, as classes de
filtragem também podem ser enquadradas como lineares e não lineares, de acordo com
o algoritmo utilizado.
A operação de filtragem é normalmente feita por máscaras ou janelas móveis, que são
matrizes com valores numéricos de pixels vizinhos (o tamanho da “máscara” é definido
pelo usuário). Podemos utilizar as operações de filtragem para aumentar nosso poder
de interpretação em uma imagem ou para extrair informações dela. Por exemplo, se
o valor de cada pixel em uma nova imagem for o resultado da média de nove pixels
vizinhos da imagem original, vamos ter uma suavização.
115
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
Segundo Meneses e Almeida (2012), a maior parte dos filtros espaciais vai
utilizar um operador de convolução discreta. Conforme os autores, a convolução
é uma espécie de operador matemático que vai lidar com a imagem e com o filtro.
Por fim, é crucial escolher uma janela com os coeficientes adequados para obter
o melhor resultado.
DICAS
116
RESUMO DO TÓPICO 1
• As correções geométricas são realizadas para reparar erros na geometria das imagens
(forma, localização, dimensão etc.). Há muitas fontes de erros nessa classe. Podemos
agrupar os erros em sistemáticos (previsíveis) e não sistemáticos (aleatórios), e
internos ou externos.
117
• As técnicas de filtragem são feitas pixel a pixel e consideram o valor de níveis de
cinza/brilho da vizinhança (pixels vizinhos), utilizando máscaras ou janelas móveis
de número ímpar. Os filtros mais comuns são os do tipo passa-baixa (Low-pass
filtering) e os do tipo passa-alta (High-pass filters).
118
AUTOATIVIDADE
1 Os sistemas sensores remotos aéreos e orbitais permitem coletar vários tipos de
dados. No entanto, existem alguns erros e distorções associados a esta coleta. Dessa
forma, é necessário pré-processar os dados de SR, para remover ou compensar
os erros e assim, utilizá-los devidamente. Além disso, é importante analisar o
nível de processamento elementar que um dado produto de SR foi entregue por
alguma agência de distribuição. A respeito das técnicas de pré-processamento,
analise as afirmativas a seguir:
119
d) ( ) A soma é utilizada para realçar pequenas diferenças espectrais.
A subtração é usada para realçar similaridades espectrais e a
multiplicação, embora menos comum, pode ser utilizada para não
ressaltar similaridades nas bandas espectrais.
e) ( ) Todas as operações aritméticas só são utilizadas para realçar
similaridade entre bandas ou diferentes imagens.
120
UNIDADE 2 TÓPICO 2 —
1 INTRODUÇÃO
No tópico anterior, você teve a oportunidade de estudar algumas questões
importantíssimas no que dizer respeito ao uso de produtos de Sensoriamento Remoto
(SR), especialmente as imagens geradas por sensores a bordo de satélites em órbita ao
redor do nosso planeta. Vimos os diferentes níveis que certa agência disponibiliza uma
imagem; isto é, o quanto de pré-processamento essa agência já fez numa determinada
imagem antes de você baixá-la. É crucial avaliar os metadados das imagens, bem
como as informações básicas que cada agência de distribuição sempre fornece sobre
seus produtos. Não obstante, também vimos como que se procede para realizar as
correções radiométricas e geométricas, que compõe o pré-processamento de imagens
orbitais digitais; as principais técnicas de realce de contraste, por meio da manipulação
e expansão dos histogramas e de operações matemáticas; bem como as técnicas de
filtragem.
Todavia, há vários outros tipos de processamento de imagens que visam aumentar
o poder de visualização e, consequentemente, análise/intepretação por parte do
usuário de Geoprocessamento que utiliza produtos de SR. Nesse contexto, veremos
alguns processamentos muito úteis, que são rotineiramente utilizados por usuários
de Geoprocessamento. Observaremos, então, a fusão de imagens, os métodos de
segmentação e os mosaicos. Ao longo desta seção, serão indicadas leituras para
complementar o entendimento do assunto. A ciência do tratamento de imagens de SR
é complexa, e requer muita leitura, estudo e prática.
121
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
DICAS
122
TÓPICO 2 — FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS
DICAS
123
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
FONTE: Adaptada de: < http://bit.ly/3bKqZwf >. Acesso em: 19 nov. 2020.
Conforme Meneses e Almeida (2012), o fusionamento por IHS ocorre em duas etapas:
a primeira consiste em transformar uma composição RGB para o espaço de cores IHS
e a segunda corresponde à substituição do componente I (com a preservação dos
componentes H e S) pela banca pancromática. Feito isso, é feita uma conversão para
o espaço RGB novamente (lembre-se que nossos monitores operam em RGB). Dessa
forma, podemos representar a sua operação assim: RGB → IHS → [Pan]HS → RGB.
Tal algoritmo, presente na maior parte dos softwares livres e comerciais, possui a
desvantagem de trabalhar com apenas a fusão de três bandas com uma banda (imagem)
de alta resolução.
O algoritmo de ACP não limita o número de bandas que podem sofrer fusão, como
é o caso do IHS e do Brovey. Neste caso, uma Análise de Componentes Principais
é realizada nas três bandas multiespectrais de resolução inferior, criando três
componentes principais (PC1, PC2 e PC3). A banda pancromática vai, então, substituir
124
TÓPICO 2 — FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS
a nova banda PC1 criada. Segundo Meneses e Almeida (2012), são realizados alguns
processamentos na banda pancromática antes de tal substituição, como: equalização de
média e variância, para que ela se torna mais similar à PC1.
3 MOSAICOS
Mosaicagem é o nome do processo de combinar ou juntar dois ou mais produtos de SR
que são contíguos/adjacentes ou sobrepostos uns aos outros (WOLF; DEWITT, 2000).
Os mosaicos servem para criar um único raster a partir de várias outras imagens, em
ambiente com georreferência (Figura 21).
As imagens orbitais e aéreas, que são obtidas por sistemas sensores, possuem dimensão
matricial limitada (tamanho do raster). Daí surge a necessidade de fazer mosaicos com
várias imagens caso a área de interesse seja muito extensa (ELMIRO, 1996). A seguir,
Elmiro (1996) enumera quatro estágios gerais para se obter um mosaico de imagens
digitais:
125
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
É possível fazer o recorte por meio de polígonos de várias maneiras, mantando a área
de dentro do polígono ou mantendo a área de fora do polígono. O resultado do recorte
é um novo raster. Vale ressaltar que alguns softwares fazem distinção entre a nomen-
clatura de recorte de vetores e de raster. Neste caso, clipagem é mais reservada para
os dados vetoriais e extração (e.g. extração por máscaras) é associada para os dados
matriciais. Contudo, ambos possuem a mesma finalidade: reduzir o tamanho da área
dos dados, para trabalhar somente com a área de interesse. Não obstante, é possível
recortar imagens por atributos, por exemplo. No caso da figura 22 a seguir, o interesse
estava numa área menor do que a imagem.
FONTE: Adaptada de: < https://bit.ly/3qdwbMP >. Acesso em: 19 nov. 2020.
126
TÓPICO 2 — FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS
DICAS
Para ampliar seus estudos, você pode ler a Circular Técnica nº 30 (dezembro
de 2014) da Embrapa. A publicação “Geração do mosaico de Moçambique a partir de
imagens do satélite Landsat 8” mostra um passo a passo bem prático, desde a aquisição
da imagem até a produção do mapa final. O processo mostrado na Circular poderá ser
extrapolado para a produção de mosaicos digitais em geral. Na íntegra em: http://bit.
ly/3oyjITD.
4 SEGMENTAÇÃO DE IMAGENS
Conforme González et al. (2014), a segmentação é uma das primeiras etapas realizadas
quando vamos propriamente analisar as informações de uma determinada imagem.
Câmara et al. (1996) (Tutorial de Geoprocessamento do software SPRING), diferenciam
a classificação estatística, que consiste no procedimento convencional de análise de
imagens por meio da análise isolada de pixels (veremos este conteúdo no próximo
tópico), e a segmentação de imagens, que é baseada na divisão da imagem em regiões
de interesse, que, por sua vez, corresponde às áreas de interesse por parte do usuário
(finalidade/aplicação do projeto). Dessa forma, a segmentação de imagens corresponde
ao processamento de agrupar pixels que são similares (MENESES; ALMEIDA, 2012).
Melhor dizendo, a segmentação é o procedimento de subdividir as imagens a partir
de características como o valor de pixel, nível de brilho ou textura (HUSSAIN, 1991).
O que são as regiões? Para Câmara et al. (1996), as regiões podem ser definidas como “um
conjunto de pixels contíguos, que se espalham bidireccionalmente e que apresentam
uniformidade”. Essas regiões uniformes devem corresponder às áreas de interesse.
Então, para fixar bem, a segmentação é a primeira fase do processo de classificação por
regiões.
127
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
De uma forma um pouco mais aprofundada, há três processos de dividir uma imagem
por regiões: (I) crescimento de regiões; (II) detecção de bordas/limites e (III) combinação
destes dois (MOREIRA, 2003). Estes três segmentadores estão presentes no software
livre SPRING. Há ainda uma forma de dividir a imagem chamada de “detecção de
bacias”, na qual tal classificação é feita a partir da imagem que resulta do procedimento
de extração de bordas (CÂMARA et al., 1996). Segundo Moreira (2003), o INPE utiliza
o segmentador de crescimento por regiões para analisar áreas agrícolas ou áreas com
florestas (Amazônia), uma vez que tal processo apresenta bom desempenho para esta
finalidade. Nesta técnica (crescimento de regiões), somente as áreas espacialmente
contíguas serão agrupadas conforme o critério de similaridade definido pelo usuário.
No início do processo, a região pode ser um pixel ou um grupo de pixels, e para cada
região, o segmentador calculará as seguintes propriedades espectrais: média, variância
e textura (MOREIRA, 2003).
DICAS
128
TÓPICO 2 — FUSÃO, MOSAICOS E SEGMENTAÇÃO DE IMAGENS
129
RESUMO DO TÓPICO 2
• Os mosaicos são o processo de combinar ou juntar duas ou mais imagens que são
contíguas/adjacentes ou sobrepostas umas às outras. Os mosaicos servem para criar
um único raster a partir de várias outras imagens. São importantes quando a área
de interesse de um projeto é muito extensa (isto é, abarcam mais de uma cena de
satélite).
• As regiões podem ser definidas como um grupo de pixels contíguos, que se espalham
de forma bidirecional e que apresentam uniformidade. Essas regiões uniformes
devem corresponder às áreas de interesse.
130
• Há três formas principais de segmentar uma imagem em regiões: (I) crescimento de
regiões; (II) detecção de bordas/limites e (III) combinação destes dois. Há ainda uma
forma de dividir a imagem chamada de “detecção de bacias”, na qual tal classificação
é feita a partir da imagem que resulta do procedimento de extração de bordas.
131
AUTOATIVIDADE
132
região) e a área (valor mínimo de área, expresso em quantidade/número de pixels,
com o intuito que uma região seja dividida). Há algumas formas ou processos
diferentes de segmentar uma imagem em regiões. Sobre o que apresenta dois
destes processos segmentadores de imagens, assinale a alternativa CORRETA:
a) ( ) Descontinuidades e similaridades.
b) ( ) Matriz de polígonos e similaridades.
c) ( ) Similaridade e área.
d) ( ) Crescimento de regiões e detecção de bordas/limites.
e) ( ) Detecção de bacias e descontinuidades.
133
134
UNIDADE 2
TÓPICO 3 —
1 INTRODUÇÃO
Prezado acadêmico, no tópico anterior, tivemos a oportunidade de estudar uma
parte crucial no que tange à utilização de imagens de Sensoriamento Remoto (SR).
O fusionamento, os mosaicos e a extração (recorte), bem como a segmentação de
imagens, constituem processamentos comumente realizados antes de classificarmos as
imagens, analisando-as e interpretando-as com relação ao seu significado ambiental (o
que a imagem mostra da superfície da Terra?).
135
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
136
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS
137
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
Técnica de
Características Exemplo de classificadores
classificação
Após ver a Tabela 1 você pode ter se perguntando: “qual destas metodologias de
classificação é a melhor ou a mais correta?” Conforme Lillesand, Kiefer e Chipman (2015)
explicam, não existe a maneira mais correta para todos os produtos de SR. A técnica
de classificação e o classificador a serem adotados dependerão da natureza dos dados
que estão sendo analisados, dos recursos computacionais disponíveis e da aplicação
pretendida dos dados classificados.
138
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS
mapeamentos em campo. Portanto, diminuem os custos dos projetos, pois uma área
com uma enorme extensão poderá ser rapidamente classificada. Não obstante, muitos
usuários usam uma combinação de processos de classificação supervisionados e não
supervisionados para desenvolver análises de resultados finais e mapas classificados.
Os diferentes algoritmos desta classe de técnicas vão agrupar classes espectrais; isto
é, pixels que possuem valores numéricos similares. O usuário pode definir quantas
classes ele quer, e assim “forçar” uma classificação (BEO, 2020). Neste caso, as classes
são definidas por meio de agrupamentos estatísticos. Por exemplo: imagine que você
tenha uma cena que mostra um lago, uma plantação de soja e uma floresta. Você poderá
definir que a classificação não supervisionada tenha três classes (Figura 25). Dessa
forma, muito provavelmente, o lago, a plantação e a floresta serão bem individualizados
(“classificados”) (LILLESAND; KIEFER; CHIPMAN, 2015). No mais, além do número
de classes, os softwares de Geoprocessamento normalmente permitem definir a
quantidade máxima de interações (número de vezes que o algoritmo de classificação
é executado), e a porcentagem de mudança (valor limite), que diz para o software o
momento de terminar de rodar o algoritmo de classificação.
A maior vantagem deste método está em sua rapidez, uma vez que há pouca
interferência do usuário no processo como um todo (JENSEN, 2015). Entretanto, essa
total “confiança” no computador pode gerar dados falseáveis, uma vez que tais métodos
se baseiam somente nas propriedades espectrais, podendo, assim, não corresponder
a realidade observada no terreno. Um problema que costuma ser comum para estes
tipos de classificadores está na distinção de construções urbanas. Por exemplo: os
classificadores automáticos conseguem distinguir bem várias classes de vegetação de
gramíneas, em contrapartida, tais classificadores costumam agrupar todos os tipos de
construções urbanas (telhados de casas, fábricas, asfalto etc.) em uma só classe (BEO,
2020). Dependendo do objetivo da classificação por parte do usuário, isso pode ser um
grande entrave.
Por fim, o usuário terá que ter a capacidade de interpretar as classes formadas pela
classificação não supervisionada. Em alguns casos, é necessário visitar o terreno para
obter a “verdade-terrestre”, ou seja, associar o dado de SR com o dado observado em
campo. Alguns autores dizem que uma dada categoria de uso do solo tem que ocupar
no mínimo 16 pixels para ser devidamente classificada por um algoritmo automático,
mas este ainda é um tema muito debatido.
139
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
classe. O número de classes poderá ser definido pelo usuário. As classes formadas não
possuem nome, o usuário irá nomeá-las e devidamente identificá-las.
FONTE: Adaptada de: < http://bit.ly/38Ej5Cg > Acesso em: 19 nov. 2020.
140
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS
DICAS
141
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
4 CLASSIFICAÇÃO SUPERVISIONADA
Com relação à classificação supervisionada, já sabemos que o usuário selecionará
áreas de uma cena que são espectralmente homogêneas. Estas áreas serão as classes de
informação de interesse, e representam os diferentes tipos de cobertura da superfície
terrestre. Nesse grupo de algoritmos de classificação, como o próprio nome sugere, o
usuário de SR vai supervisionar o processo de classificação de pixels das imagens de
interesse. Existe uma interferência e participação muito mais acentuada do analista
neste tipo de classificação, uma vez que ele vai especificar quais as classes ou temas
associados a valores de pixels ou às assinaturas espectrais de diferentes materiais
(HSU, 2019). De fato, há um bom número de algoritmos de classificação supervisionada
que podem ser usados para atribuir um pixel desconhecido a uma determinada classe
(Tabela 1). A escolha de um determinado classificador vai depender da natureza dos
dados de entrada e de saída desejada (KUMAR, 2004).
142
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS
As áreas ou locais de treinamento são regiões da cena que o usuário já conhece. Dessa
forma, ele utilizará estes valores amostrais para uma classe específica. Por exemplo:
imagine, hipoteticamente, que você configura num programa uma determinada classe
X com valores de pixels entre 100 a 110 (você já sabe que estes valores representam
um tipo específico de cobertura do solo). O algoritmo vai analisar a cena de entrada, e
vai categorizar os pixels com o nível de brilho entre 100 a 110 nesta classe X que você
pré-determinou e sabe o que é (no terreno/mundo real). Analise a Figura 28, e observe
que nesse exemplo o usuário delimitou os valores de 0 a 42 para realizar a classificação.
Este valor foi previamente escolhido, pois o usuário sabe que remete à cobertura de
água na cena (veja a Figura 24 para obter uma ideia central sobre esta cena).
O objetivo neste caso específico da figura 28 foi para classificar água superficial. O
histograma a seguir da cena mostra o intervalo de valores digitais dos pixels (0 a 42,
representando a água). Com isso, selecionando este intervalo de interesse, somente
a água será classificada na imagem. Local: Represa Plate-Taille, na Bélgica (Lat.
50°11'03.41"N e Long. 04°22'06.60"L).
FONTE: Adaptada de: < http://bit.ly/2LxAJPo >. Acesso em: 19 nov. 2020.
143
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
144
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS
145
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
DICAS
146
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS
DICAS
147
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
6 ANÁLISE MULTITEMPORAL
A análise multitemporal consiste num grupo de técnicas importantíssimas para
a nossa sociedade. Basicamente, por meio de tais técnicas, podemos acompanhar a
evolução e as mudanças na superfície do nosso planeta ao longo do tempo. Com isso,
podemos avaliar a quantidade de desmatamento de florestas nativas; o crescimento
urbano (planejado e desordenado); monitoramento de queimadas; monitoramento
de lavouras; levantamentos multifinalitários para planejamento urbano e instituição
de IPTU. Enfim, há uma enorme gama de aplicações quando lidamos com análise
multitemporal de imagens de satélite (BAN, 2016).
Segundo Ban (2016), o Sensoriamento Remoto por satélites, devido a sua visão sinóptica
e grande repetibilidade (revisita), pode gerar dados precisos e consistentes sobre a
superfície da Terra, sendo de grande utilidade para monitorar mudanças ambientais
por causa de seu baixo custo. Dessa forma, de acordo com Ban (2016), podemos elencar
algumas áreas de aplicação de análise multitemporal, como:
148
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS
DICAS
Além disso, para aprofundar mais seus estudos sobre a análise multitemporal em áreas
urbanas utilizando imagens orbitais, leia o seguinte artigo científico: Análise multitempo-
ral do uso e ocupação do solo entre 1987 e 2004 na zona de expansão urbana norte de
Londrina-PR, utilizando Sensoriamento Remoto (SR) e Sistema de Informações Geográ-
ficas (SIG) (Semina: Ciências Agrárias, Londrina, v. 33, p. 2877-2890, 2012).
Na íntegra em: https://www.redalyc.org/pdf/4457/445744117034.pdf.
149
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
DICAS
150
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS
151
UNIDADE 2 — NOÇÕES DE PROCESSAMENTO DE IMAGENS DIGITAIS
LEITURA COMPLEMENTAR
Sabe-se que a utilização do solo de forma inadequada pode acarretar uma série de
problemas ambientais, como mudanças climáticas, alterações no ciclo hidrológico e na
perda de solo, afetando a estabilidade natural do ambiente. Desse modo, entender o
uso e ocupação do solo e suas alterações ao longo do tempo e em relação ao espaço é
de suma importância, uma vez que possibilita compreender as dinâmicas fisiográficas
e ecológicas de uma região, auxiliando no planejamento.
152
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS
153
RESUMO DO TÓPICO 3
154
tais análises são essenciais devido a sua visão sinóptica e grande repetibilidade
(revisita), podendo gerar dados precisos e consistentes sobre a superfície da Terra,
sendo de grande utilidade para monitorar mudanças ambientais da Terra.
CHAMADA
155
AUTOATIVIDADE
156
TÓPICO 3 — CLASSIFICAÇÃO DIGITAL DE IMAGENS ORBITAIS
157
REFERÊNCIAS
ALBUQUERQUE, M. P.; ALBUQUERQUE, M. P. Processamento de Imagens:
Métodos e Análises. 2001. Disponível em: http://www.cbpf.br/cat/pdsi/pdf/Pro-
cessamentoImagens.PDF. Acesso em: 23 ago. 2020.
LIU, J. G.; MASON, P. J. Essential Image Processing and GIS for Remote Sens-
ing. Chichester: John Wiley and Sons, 2009.
PIWOWAR, J. M. Getting your imagery at the right level. 2001. Disponível em:
http://uregina.ca/piwowarj/Think/ProcessingLevels.html. Acesso em: 15 set.
2020.
USGS. Using the USGS Landsat Level-1 Data Product. c2020. Disponível em: ht-
tps://www.usgs.gov/land-resources/nli/landsat/using-usgs-landsat-level-1-data-pro-
duct. Acesso em: 31 jul. 2020.
OBJETIVOS DE APRENDIZAGEM
163
PLANO DE ESTUDOS
Esta unidade está dividida em dois tópicos. No decorrer da unidade, você
encontrará autoatividades com o objetivo de reforçar o conteúdo apresentado.
CHAMADA
164
UNIDADE 3
TÓPICO 1 —
1 INTRODUÇÃO
Caro acadêmico, nas Unidades 1 e 2 vimos conceitos importantes que permeiam
os produtos de Sensoriamento Remoto (SR), especialmente as imagens adquiridas
por sensores a bordo de satélites que estão na órbita da Terra. Aprendemos, por
exemplo, como são adquiridas as bandas espectrais, como são feitas as composições
multiespectrais coloridas, vimos os níveis de processamento realizados nas próprias
agências disponibilizadoras de imagens, bem como algumas técnicas que aumentam
nosso poder de visualização de dados e extração de informação em uma dada imagem.
No entanto, de nada adiantará ter conhecimentos nas áreas mencionadas, caso o usuário
de Geoprocessamento não dê atenção em como interpretar corretamente tais imagens.
Agora, na Unidade 3, após construirmos todas as bases de conhecimentos da aquisição,
assinaturas e processamento de imagens orbitais digitais (incluindo as classificações),
veremos os elementos e etapas de interpretação visual que analisamos para o correto
julgamento de uma imagem, extraindo o máximo de informação útil da área de interesse,
seja um local urbano ou rural (agrícola). Veremos que a interpretação de imagens
digitais de satélite é um processo que consiste em identificar alvos (feições e objetos)
nelas presentes, com o objetivo de extrair informações qualitativas e quantitativas sobre
tais feições/objetos. Envolve a identificação de vários alvos no terreno, que podem ser
naturais ou artificiais, consistindo em pontos, linhas ou polígonos.
165
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
visual de imagens de satélite. Conforme Soares-Filho (2000) é por meio da análise dos
elementos de interpretação que se define a forma de relevo das feições, os caminhos e
padrões de drenagem, as características da vegetação e tipos do uso do solo, geologia
e geomorfologia, e vários outros aspectos. A interpretação de fotografias aéreas ou
imagem de satélite envolve alguma subjetividade. No entanto, podemos treinar muito
e utilizar bibliografias para que tal subjetividade não se torne um erro de interpretação.
Hoje em dia, com a ampla utilização de computadores e com as imagens disponíveis
em formato digital, as imagens podem ser tratadas (conforme abordado na Unidade
2) para melhorar a interpretação visual, maximizando a produção de mapas temáticos
(SCHOWENGERDT, 2006).
166
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
STOKES, 2002). É como se fosse um processo automático realizado pelo usuário de SR. A
Figura 1 mostra uma classificação dos elementos de interpretação visual, elaborada por
Jensen (2009); ou seja, uma hierarquia de complexidade (ordenamento dos elementos
de interpretação visual). No entanto, para o nosso estudo, vamos nos concentrar nos
elementos visuais em si.
167
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
• Localização (Figura 2-A): “onde está o alvo (x, y)?” as coordenadas (Latitude e
Longitude) exatas de uma área podem ser levantadas por métodos tradicionais de
topografia e geodésia em campo ou através de coleta de dados de SR, com posterior
retificação e, por fim, com a extração dos pontos de coordenadas da área de interesse.
Os levantamentos em campo são os mais utilizados, uma vez que os equipamentos
de GNSS (Sistema Global de Navegação por Satélite) estão cada vez mais baratos
e mais precisos. Não obstante, caso a localização seja levantada por SR, a aeronave
também terá um sistema de GNSS acoplado (JENSEN, 2009).
• Forma (Figura 2-B): é o formato ou contorno de um alvo individual. A forma dos
objetos presentes numa imagem ou fotografia pode fornecer informações que
ajudam na interpretação. Dessa forma, é uma excelente pista para a análise de uma
imagem. Formas geométricas regulares e bordas retas geralmente são sinais da
presença humana, uma vez que indicam alvos urbanos (e.g. estradas e rodovias) ou
agrícolas (e.g. plantações e campos agrícolas). Já alvos mais naturais normalmente
possuem bordas mais irregulares (e.g. borda de uma floresta virgem) (CCMEO,
2019; HSU, c2020).
• Tamanho (Figura 2-C): o tamanho dos alvos é em função da escala de trabalho.
Este elemento é de suma importância, uma vez que uma rápida inferência do
tamanho de um objeto pode guiar o usuário para uma interpretação mais fidedigna
(CCMEO, 2019). Assim, a avaliação dos tamanhos dos objetos de interesse em
uma cena (um em relação ao outro), é de grande valia para o julgamento de uma
imagem. Por exemplo: um analista que estivesse interpretando o uso e ocupação
de um município, por imagem de satélite, ao identificar grandes conglomerados e
extensos galpões, iria sugerir que tal área corresponde a uma zona industrial. Já em
uma área com vários pequenos telhados e quintais, com ruas bem padronizadas, o
analista saberia que é um indicativo de uma zona residencial (CCMEO, 2019). Neste
elemento visual, o tamanho dos objetos vizinhos também é utilizado. Podemos fazer
medidas quantitativas (largura, comprimento, área etc.) e qualitativas (pequeno,
médio, grande etc.) utilizando este elemento. Com relação às fotografias áreas, os
procedimentos quantitativos devem ser feitos somente se elas forem ortorretificadas
previamente.
• Padrão (Figura 2-D): de acordo com Jensen (2009) e HSU (c2020), o padrão
corresponde ao arranjo espacial de objetos em uma paisagem. O padrão pode ser
natural ou antrópico. A repetição de certas formas é um indicativo muito bom para
168
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
interpretar de forma efetiva uma imagem. Por exemplo, o arranjo espacial ordenado
das árvores em um pomar, normalmente dispostas em fileiras regularmente
espaçadas, é diferente do arranjo espacial da vegetação de uma floresta natural, que
é mais ou menos aleatória. Assim, o padrão sistemático ou aleatório da paisagem é
umas das ferramentas dos analistas para identificar vegetação natural ou cultivada
pelo homem. Os padrões ainda podem ser lineares, ovais, curvilíneas, retangulares
etc.
• Tonalidade (tom) (Figura 2-E): corresponde ao brilho (variação do branco ao preto)
ou a cor relativa dos alvos em uma imagem (CCMEO, 2019). É considerado o elemento
mais essencial para interpretar uma imagem, uma vez que variações na tonalidade
dos alvos também permitem que os elementos de forma, textura e padrão sejam
mais bem diferenciados (JENSEN, 2009; CCMEO, 2019). As propriedades espectrais
dos alvos, bem como a fonte de iluminação também podem influenciar no tom e na
cor. No Tópico 2 da Unidade 1 foi posto um bom exemplo no que tange a utilização
do tom para distinguir objetos (diferenciação de árvores coníferas e de folhas largas
em uma fotografia na região no infravermelho, entre 0,7 a 0,9 µm).
• Textura (Figura 2-F): corresponde ao arranjo e frequência da variação de tons em
áreas específicas de uma imagem (CCMEO, 2019). Tal arranjo e frequência dos tons
causa um aspecto de “suavidade” (smoothness) ou “rugosidade” (roughness) em uma
dada imagem (JENSEN, 2009). É um elemento visual útil porque algumas feições
da superfície da Terra podem exibir tons semelhantes, mas diferentes texturas (e.g.
areia da praia e areia das dunas). As texturas rugosas possuem um tom manchado na
qual os níveis de cinza mudam abruptamente em uma pequena área, ao passo que
as texturas suaves apresentam pouca variação em seu tom. Texturas mais suaves são
normalmente o resultado de superfícies uniformes e homogêneas, como campos,
asfalto ou pastagens. Já uma área com superfície irregular e heterogênea, como a
copa de uma floresta, vai ter uma aparência de textura mais rugosa. A textura é um
dos elementos mais importantes para distinguir características em imagens de radar
(CCMEO, 2019).
• Sombra (Figura 2-G): as sombras de objetos podem ser úteis em sua identificação
que, de outra forma, seriam difíceis de reconhecer (HSU, c2020). As sombras dos
alvos/feições podem fornecer informações sobre o perfil, a altura, a forma e a sua
orientação. Em contrapartida, as sombras também podem reduzir ou eliminar o
potencial de interpretação em sua área de influência, uma vez que os alvos dentro
das sombras são muito menos (ou nem um pouco) visíveis do que seus objetos na
vizinhança (CCMEO, 2019). É um elemento visual muito utilizado para melhorar ou
identificar a topografia e formas de relevo, particularmente em imagens de radar. Por
fim, a redução do sombreamento é uma das preocupações em SR em fotogrametria,
pois pode dificultar a distinção de objetos, como mencionado anteriormente.
• Associação (Figura 2-H): este é o elemento que leva em consideração a relação
entre um alvo de interesse e outros objetos ou feições visíveis e reconhecíveis em
suas imediações; ou seja, o contexto local pode auxiliar na identificação de objetos
(CCMEO, 2019). Um questionamento feito nesta etapa é o seguinte: o que você espera
encontrar próximo do seu alvo de interesse? Por exemplo, em zonas residenciais,
podemos esperar encontrar escolas, parques infantis e campos esportivos. Assim, é
esta associação lógica que é a base deste elemento visual. Em outras palavras, um
tipo de alvo quase sempre estará próximo de outro alvo conhecido (JENSEN, 2009).
169
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
das feições de uma cena é de grande importância para auxiliar o intérprete. D) o padrão
é o arranjo espacial dos objetos (é possível distinguir os objetos naturais dos feitos pelo
homem). E) o tom é a variação de brilho ou cor dos objetos. F) a textura é causada pelo
arranjo e frequência de mudanças nos tons e cores de uma área. G) as sombras podem
ser úteis para evidenciar a altura de um alvo. H) a associação corresponde aos alvos
que são comumente encontrados próximos do nosso objeto de interesse.
170
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
DICAS
O guia disponibilizado pela NASA é muito útil para o usuário inicial que está
aprendendo a interpretar imagens orbitais e fotografias aéreas (os principais produtos
de SR). De fato, como já falamos muito ao longo deste livro, as imagens de satélite
podem nos mostrar, por exemplo, como as nossas cidades estão mudando (quase que
em tempo real) e como as safras estão crescendo (e quão sadias e produtivas estão). No
entanto, é necessário saber o que procurar nas imagens. As imagens, feitas por sensores
orbitais ou aerotransportados, são como mapas: estão repletas de informações do nosso
interesse, mas desde que você saiba o que e como interpretá-las (SOARES-FILHO, 2000;
RIEBEEK, 2013). As cinco grandes dicas bem práticas do guia de interpretação dos
cientistas da NASA, que passam pelo conhecimento que acabamos de ver (elementos
de interpretação visual), são:
171
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
da imagem, uma cidade pode ter suas casas perfeitamente discerníveis, na qual até
as casinhas de cachorro podem ser identificadas e mapeadas, ou a cidade pode ser
um pequeno ponto na cena, onde não é possível nem identificar grandes estádios de
futebol. Além do tamanho do pixel (nível de detalhes que podemos ver e diferenciar
objetos), também é necessário saber qual o tamanho da cena. A imagem cobre uma área
de 1 km²? 25 km²? Estas são informações primordiais.
Além do mais, conforme as dicas da NASA (RIEBEEK, 2013), imagens com diferentes
escalas (tamanho da cena) e diferentes resoluções espaciais podem ser utilizadas
simultaneamente, dependendo do objetivo do projeto. Isto é, cada imagem irá responder
a um questionamento diferente. Por exemplo: uma cena relativamente pequena e com
grande resolução espacial poderá mostrar casas e ruas alagadas por uma enchente,
enquanto uma imagem com grande área (e baixa resolução espacial) poderá dar uma
visão dos caminhos da drenagem do rio que provocou a enchente e até mesmo do
sistema meteorológico que causou a inundação (Figura 3). Assim, podemos aprender
coisas diferentes a partir de imagens que possuem diferentes escalas (RIEBEEK, 2013).
A Figura 3 mostra o exemplo da análise em conjunto de diferentes imagens (com
diferentes escalas e resoluções) para a cidade de Boulder, no estado do Colorado
(EUA), objetivando estudar uma enchente.
Os padrões, formas e texturas são fundamentais. Em alguma vez durante sua vida,
você provavelmente ficou olhando para as nuvens para tentar identificar animais
ou outras formas. Isso já dá uma ideia de que os humanos são ótimos em encontrar
padrões (RIEBEEK, 2013). Praticamente todas as pessoas vivem com a percepção visual
de seu ambiente ao redor. De acordo com o guia da NASA, a habilidade de encontrar
padrões é útil na interpretação de imagens de SR porque padrões distintos podem ser
combinados com mapas externos para identificar características principais.
Corpos d’água – como rios, lagos/lagoas e oceanos – costumam ser as feições (recursos)
mais facilmente identificáveis em uma imagem, pois tendem a possuir uma forma única
em mapas (RIEBEEK, 2013). Vários outros padrões que são simples e óbvios de serem
identificados são oriundos da maneira de como as pessoas fazem o uso e ocupação do
solo. Por exemplo: imagine um bairro residencial planejado, que apresenta quadras
regulares e espaçadas, ou fazendas que possuem formas geométricas bem definidas
(e.g. retangulares e circulares) (Figura 4), em ambos os casos a sua identificação destoa
dos padrões aleatórios da natureza. Podemos fazer uma consideração interessante:
a natureza não usa régua! Isto é, os padrões naturais raramente serão perfeitamente
geométricos (claro que há exceções). Assim, linhas retas quase sempre são um indicativo
da presença antrópica.
Estruturas geológicas, como vulcões, ilhas, montanhas, cânions, dentro outros,
também são teoricamente fáceis de serem prontamente identificadas por um usuário
(RIEBEEK, 2013). Além disso, tais elementos geológicos também podem afetar a
circulação atmosférica, causando, por exemplo, acúmulo de nuvens em um lado de
uma cordilheira (facilitando a visualização e fazendo com que o analista faça inferências
sobre a sua altura/relevo). Não obstante, a presença de neve também nos permite
identificar montanhas e cordilheiras (locais com grande altitude).
172
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
173
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
E
IMPORTANT
174
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
175
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
176
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
A Figura 6 nos mostra a mudança nas cores de uma floresta ao longo das quatro
estações do ano nas Montanhas Great Smoky (Tennessee e Carolina do Norte, EUA).
Coordenadas: Lat. 35° 1'50.25"N e Long. 84° 5'22.76"O.
177
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
DICAS
De acordo com Riebeek (2013), o solo exposto/nu ou com vegetação bem esparsa
geralmente exibe tons em marrom (do escuro ao claro). Como já sabemos através da
leitura da Unidade 1 (Tópico 2), a cor do solo em composição verdadeira (cor natural)
vai depender de seu conteúdo mineral e, em alguns casos, da quantidade de matéria
orgânica, do conteúdo de água (umidade) e alguns outros fatores. Em alguns lugares,
como o deserto australiano, a terra exposta possui tons avermelhados, por causa da
alta concentração de óxidos de ferro (assim como o planeta Marte, que é conhecido
como o “planeta vermelho” justamente pela alta concentração de óxido de ferro no
solo de sua superfície). Quando o solo é branco ou cinza muito claro, especialmente
em leitos de lagos ou mares secos, pode ser por causa de minerais à base de sal, silício
ou cálcio (dica: pesquise imagens na internet sobre o Mar de Aral) (JENSEN, 2009).
Os detritos vulcânicos são marrons, cinza ou pretos (e.g. material piroclástico e vidros
vulcânicos). Há muitas cores para os solos do nosso planeta, que são oriundos dos
diferentes materiais que os compõem (CCMEO, 2019).
As cores são um excelente elemento visual para interpretar imagens. Entretanto, ao
analisar uma imagem de satélite, toda a informação é condensada nesse plano em duas
dimensões; isto é, vemos tudo “junto” entre o sensor e a superfície (e.g. nuvens, poeira,
neblina, solo) (RIEBEEK, 2013), ou seja, ao observarmos uma mancha branca em uma
imagem orbital, podemos interpretá-la como uma nuvem, mas ela também poderia
ser neve ou uma planície de sal, por exemplo. Dessa forma, é importante combinar
outros elementos visuais para uma correta interpretação, como a forma, a textura e o
contexto das características (RIEBEEK, 2013). O contexto é importante porque você terá
que responder à pergunta “o que devo esperar encontrar em tal local?” Por exemplo:
em num estudo em uma zona urbana, você vai esperar encontrar ruas, casas, e muitos
elementos na cor cinza e na cor magenta (rosa) (caso você esteja utilizando composição
em cor natural), por exemplo.
A quarta dica, de acordo com o roteiro da NASA (RIEBEEK, 2013), é encontrar o Norte;
ou seja, orientar uma imagem. De forma análoga quando uma pessoa se perde em
uma cidade e a forma mais fácil dela “se achar” é encontrar um ponto de referência
conhecido, as imagens de satélite também passam por esta técnica. Se você identificar o
Norte, e em seguida orientar uma imagem para este ponto cardeal, poderá descobrir se
alguma determinada montanha está do norte para o sul ou do leste para o oeste, ou se
uma cidade está no lado leste ou oeste de um rio (RIEBEEK, 2013). Esses detalhes podem
ajudá-lo a combinar os recursos e elementos em um mapa. A convenção é orientar as
imagens para o Norte geográfico, com uma seta indicativa. Todavia, também é comum
rotacionar uma imagem para melhor reproduzi-la (note que a seta indicativa do Norte
178
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
Por fim, a quinta e última dica da NASA para os intérpretes de imagens que estão
iniciando suas carreiras é: considere o seu conhecimento prévio acerca da área do
projeto. De acordo com Riebeek (2013), o conhecimento da área de estudo pode ser
considerado como a ferramenta mais poderosa de um intérprete de imagens de SR.
Além disso, a experiência (tanto prática e empírica quanto adquirida pelo estudo de
bibliografias ou base de dados) são primordiais, uma vez que só podemos reconhecer
alvos em imagens que, de fato, conhecemos (não é possível identificar algo que você
não sabe a forma, a cor etc.). Segundo Florenzano (2011), a quantidade de informação
que podemos extrair a partir de uma interpretação de fotografias e imagens de uma
área de estudo é proporcional ao conhecimento de um intérprete sobre esta mesma
área. No geral, o reconhecimento de alvos por meio dos elementos visuais e a sua
correta interpretação é algo que segue uma mecânica fixa, mas é na verdade um
processo repetitivo com interconexões (Figura 7).
O conhecimento do local em que o projeto está sendo desenvolvido nos permite
conectar os dados de SR com acontecimentos diários do nosso cotidiano (fazer
correspondências), como crescimento populacional, atividade vulcânica e tectônica,
crescimento de florestas, saúde pública e muitas outras (RIEBEEK, 2013). Dessa
forma, podemos atribuir sentido a um dado que foi adquirido remotamente. É sempre
importante ter em mente que há objetos que são muito difíceis de serem identificados,
179
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
180
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
Como falado anteriormente, as etapas vão variar de autor para autor. Vejamos mais
um exemplo. De acordo com Soares-Filho (2000), o processo de escolha de materiais
(dados) para a interpretação de imagens é composto pelas seguintes etapas:
Como podemos notar, tanto Prost (2013) quanto Soares-Filho (2000) nos apresentam
etapas um pouco diferentes para o processo de escolha de sensores para um dado
projeto. No entanto, em ambos o resultado será o mesmo; ou seja, a produção de um
mapa temático utilizando dados de SR fidedigno a realidade. Assim, é importante ter
em mente que há etapas a serem seguidas em qualquer projeto que utiliza dados de SR,
tanto em ambientes urbanos quando em áreas rurais.
Para fixar bem este conhecimento, que é de suma importância para você acadêmico:
é essencial tomar uma decisão informada sobre qual tecnologia (qual sistema sensor)
escolher para um projeto que requer dados espaciais após considerar todas as
características e necessidades. Tanto as imagens aéreas quanto as imagens de satélite
possuem pontos fortes e fracos.
181
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
E
IMPORTANT
DICAS
TUROS
ESTUDOS FU
No próximo tópico, você pode consultar uma tabela bem detalhada (Tabela
1) e uma figura (Figura 15) que mostram quais sistemas sensores (em plataformas orbitais
ou plataformas aerotransportadas) servem para um determinado objetivo. Conhecer os
principais sensores e qual objetivo este sensor desempenha melhor é uma tarefa básica
de um analista de SR.
182
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
Para Florenzano (2008; 2011), pelo fato de que os produtos de SR e os alvos que compõem
a superfície do planeta são muito diversos, cada usuário pode desenvolver suas
próprias chaves de interpretação. Vamos utilizar o exemplo proposto por Florenzano
(2008): em uma imagem orbital ou aérea feita na região da luz visível, uma voçoroca,
resultante do processo de erosão por chuvas, pode ser identificada através da seguinte
chave: tonalidade clara (similar à do solo nu), textura lisa e forma alongada, conforme
pode ser analisado na Figura 9.
A Figura 9 apresenta imagens do satélite Ikonos (A) do ano 2000 (resolução espacial
de 1 m) e do satélite Quickbird (B) (2006, resolução de 0,7 m) da cidade de São José dos
Campos/SP. O círculo indica uma voçoroca, ao passo que o quadrado indica um antigo
lago (A) que foi transformado em uma praça (B). Detalhe para a expansão urbana ao
longo das datas das imagens (2000 e 2006).
183
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
De acordo com Joseph (2005) e Florenzano (2011), as chaves são comumente mais
confiáveis para ambientes antrópicos ou culturais (casa, pontes, estradas etc.) do que
para vegetação ou feições naturais em geral. Entretanto, Lillesand, Kiefer e Chipman
(2015) ressaltam que um grande número de chaves têm sido amplamente empregadas
com sucesso para a identificação de variados cultivos agrícolas e de diversas espécies
de árvores. Todavia, Lillesand, Kiefer e Chipman (2015) também salientam que tais
chaves de interpretação são geralmente desenvolvidas em locais específicos e em
estações climáticas específicas, uma vez que a vegetação é fortemente dependente
destas duas variáveis. Portanto, é essencial saber a data e hora em que foi adquirida
a imagem de satélite (ou fotografia aérea digital) e qual composição o usuário está
lidando (quais comprimentos de onda do espectro eletromagnético foram registrados)
para desenvolver uma chave de interpretação.
(BENINI, 2015). Note que não há descrição de como cada classe é, mas há fotografias
feitas em campo. Neste exemplo, as classes identificadas foram: Área urbana; Pastagem;
Corpo Hídrico; Solo Nu; Área Verde Urbana; e Vegetação Nativa (Figura 10).
A Figura 11 exibe um quadro produzido por Santos, Francisco e Almeida (2015). Os
autores produziram uma chave de interpretação visual de imagens (do tipo seleção)
a partir de imagens do Landsat 8/OLI na composição R5G4B3 (infravermelho) (caso
185
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
186
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
187
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
188
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
E
IMPORTANT
• Coleção de imagens (banco de dados): as cenas tem que ser estudadas para a correta
distinção dos alvos em várias composições de bandas espectrais diferentes e ao longo
das estações do ano, com o intuito de entender o padrão de resposta espectral do
alvo de interesse. Recortar e/ou demarcar os alvos ou classes identificados.
• Descrição de cada objeto ou classe temática: um texto deve acompanhar cada clas-
se ou alvo que foi reconhecido pelo usuário, com a descrição dos elementos (tom,
textura, padrão etc.).
DICAS
Que tal praticarmos um pouco a arte de interpretar imagens orbitais por meio
do software Google Earth? Este programa (também disponível em sua versão on-line; isto
é, sem a necessidade de download e instalação, pode ser acessado na íntegra em: https://
earth.google.com/web/) é muito útil para conhecer uma área previamente (antes de ad-
quirir imagens de satélite da série Landsat, por exemplo.
Observe a Figura 14-A. Você consegue dizer claramente que é um centro urbano,
correto? Podemos fazer algumas inferências sobre o tipo de urbanização, a verticalização
da cidade, o planejamento ou não das ruas (ruas e vias não planejadas nos dão uma
dica da “idade” de uma cidade), a presença de parques e campos de futebol. Tudo
isso utilizando os elementos de interpretação visual. No entanto, para falarmos um
pouco mais sobre qual é exatamente a cidade, precisamos dar um zoom out, isto é,
olhar numa pequena escala para ter um panorama regional (Figura 14-B). Isso mostra
189
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
FONTE: O autor
190
TÓPICO 1 — ELEMENTOS E ETAPAS DE INTERPRETAÇÃO VISUAL DE IMAGENS DE SATÉLITE
LEITURA COMPLEMENTAR
De acordo com o Ministério das Cidades (2010), os assentamentos precários são por-
ções do território urbano de grandeza e tipologias variáveis, mantendo em comum o
fato de serem áreas de uso predominantemente residencial e de serem ocupadas por
moradores – em sua maioria – de baixa renda, que exercem múltiplas estratégias para
viabilizar, de modo autônomo, soluções para suas necessidades habitacionais, em con-
sequência do não acesso à moradia pelo Estado e pelas vias do Mercado.
Essas áreas também podem ter inúmeras precariedades nas condições de moradia, tais
como: a irregularidade fundiária; ausência de infraestrutura de saneamento ambiental;
localização em áreas mal servidas por sistema de transporte e equipamentos sociais;
terrenos sujeitos a riscos geotécnicos e alagáveis; adensamento populacional excessivo,
insalubridade e fragilidade construtiva da habitação.
A tipologia adotada pelo Ministério das Cidades (2010) engloba inúmeras categorias,
com destaque para: os cortiços, as favelas, os loteamentos irregulares de baixa renda e
os conjuntos habitacionais produzidos pelo poder público que se acham degradados.
Denaldi (2009) propõe uma classificação dos assentamentos precários, que agrupa
todas as categorias levantadas pelo Ministério das Cidades, objetivando identificar
tipos de assentamento, necessidades habitacionais, intervenções necessárias e tendo
como base as suas características físicas, sendo os assentamentos classificados em
“consolidados” – já integrados urbanisticamente e dotados de infraestrutura básica – e
assentamentos “não consolidados”, sendo o último subdividido em “consolidáveis”
– podendo ou não ter remoções das famílias moradoras – e “não consolidáveis” –
requerem uma intervenção do tipo “remoção” e reassentamento em novas áreas.
Fundamentado na experiência de Denaldi (2009), partimos da hipótese que podemos
estabelecer uma chave de interpretação de imagens visando o grau de consolidação
de um assentamento precário, e utilizaremos os dados de sensoriamento remoto
para identificar as características físicas relevantes desses assentamentos numa área
do município de São Bernardo do Campo – SP. Este estudo insere-se no grupo de
pesquisa intitulado “Observatório de Remoções”, contribuindo na frente de trabalho
de mapeamento.
A área de estudo se restringe um quadrado com área de 25 km², conforme pode ser
visualizado na Figura da Área de Estudo (logo abaixo), situado na porção norte de
São Bernardo do Campo, dentro da Macrozona Urbana Consolidada, na Macrorregião
conhecida como Montanhão, divisa com Santo André e que de acordo com o PLHIS
(2012) possui um dos piores Índices Paulistas de Vulnerabilidade Social do município.
O Montanhão é a macrorregião com a maior quantidade de assentamentos precários,
69 em seu total, todos eles favelas e loteamentos irregulares fora da área de manancial
191
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
determinada pela Represa Billings e com assentamentos bem diversos nas tipologias
definidas no PLHIS.
193
Os elementos de interpretação, quando bem explorados, nos permitem
extrair muitas informações de uma imagem de satélite. As chaves de interpretação
de imagem, por sua vez, possibilitam uma melhor leitura das feições presentes
em uma imagem. As chaves de interpretação que foram obtidas neste trabalho
caracterizam os assentamentos precários de São Bernardo do Campo numa forma
autêntica e segura. Podem servir por si só, como um instrumento para os gestores
da área de habitação do município.
FONTE: <http://marte2.sid.inpe.br/col/sid.inpe.br/marte2/2017/10.27.15.43/doc/59283.pdf>.
Acesso em: 12 jan. 2021.
194
RESUMO DO TÓPICO 1
Neste tópico, você aprendeu que:
• Há etapas a serem seguidas para definir qual imagem e qual resolução será necessário
para o objetivo de seu projeto.
195
AUTOATIVIDADE
FIGURA – VEGETAÇÕES
196
conhecimentos adquiridos nesta seção, identifique os recursos/alvos enumerados
(caso necessário, pesquise pelas coordenadas no Google Earth para melhor
visualizar o local). Sobre o exposto, assinale a alternativa CORRETA:
197
CORRETA:
198
UNIDADE 3
TÓPICO 2 —
1 INTRODUÇÃO
Sabemos que diferentes produtos SR podem ser adquiridos por meio de
diferentes plataformas de aquisição para um grande número de locais, dependendo
das necessidades da aplicação. Dessa forma, é fundamental realizar alguns
questionamentos antes de iniciar um novo projeto profissional ou acadêmico que
envolva imagens de satélite. Assim, o usuário deverá considerar principalmente
variáveis como: o tipo de sistema sensor remoto necessário (por exemplo: imagens
multiespectrais, imagem da banda pancromática, dados de radar, se a finalidade
da aplicação exige saber a altitude da área de interesse etc.), a resolução espacial
necessária, fatores temporais (por exemplo, você precisa de uma imagem para
uma data ou época do ano específica? Ou você precisa “acompanhar” a evolução
da cobertura do solo a cada dia ou semana? Ou você precisa verificar a diferença
de uma área ao longo de décadas?) e, por último, mas não menos importante,
sua disponibilidade financeira para aquisição de imagens (imagens de altíssimas
resolução espacial, utilizadas principalmente para mapeamentos de detalhe,
são compradas, e seu valor é de acordo com o satélite e com o tamanho da área
requisitada). O objetivo de seu projeto vai definir a escolha do sensor; ou seja, do
tipo de produto a ser utilizado.
E
IMPORTANT
199
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
DICAS
200
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
TABELA 1 – VARIÁVEIS QUE PODEM SER MENSURADAS E TIPOS SENSORES QUE PODEM SER
UTILIZADOS POR SR
Temperatura
- ASTER; AVHRR; GOES; Hyperion; MISR;
superficial
MODIS, SeaWiFS; Sensor infravermelho termal
(terra, água,
aerotransportado.
atmosfera)
201
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
Atmosfera
- MISR; GOES; AVHRR; MODIS; CERES; MOPITT;
MERIS
- Aerossóis
- GOES; AVHRR; MODIS; MISR; CERES; MOPITT;
- Nuvens
UARS; MERIS
- Precipitação
- TRMM (Tropical Rainfall Measuring Mission); GOES;
- Vapor d’água
AVHRR; SSM/1; MERIS
- Ozônio
- MODIS; GOES; MERIS
- Tempestades
- MODIS
elétricas
- GOES.
Água
- Cor
- Hidrologia
- Fotografia aérea colorida e de infravermelho (CIR);
superficial
Landsat (TM, ETM+); SPOT; IKONOS; QuickBird;
- Sedimentos em
OrbView-3; ASTER; SeaWiFS; MODIS; Sensores
suspensão
hiperespectrais aerotransportados (e.g. AVIRIS,
- Clorofila/matéria
HYDICE, AISA); AVHRR; GOES; LiDAR batimétrico,
orgânica em
MISR, CERES, Hyperion, TOPEX/POSEIDON, MERIS.
suspensão
- Matéria orgânica
dissolvida
Vulcanismo
- ASTER; MISR; Hyperion; MODIS; Sensores
- Temperatura,
hiperespectrais aerotransportados.
gases, piroclasto
BRDF (Função
de Distribuição
- MISR; MODIS; CERES.
da Reflectância
Bidirecional)
202
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
Variáveis híbridas
Sistema de Sensoriamento Remoto
selecionadas
Uso do Solo
- Comercial,
residencial,
transporte etc. - Fotografia aérea estereoscópica de alta resolução
- Cadastro pancromática, colorida ou infravermelha (CIR);
Territorial Imagem de satélite de alta resolução espacial (< 1 x 1
Multifinalitário (e.g. m: IKONOS, QuickBird, OrbView-3, WorldView 2);
IPTU) SPOT (2,5 m); CBERS-4A; LiDAR; Sistemas sensores
- Gerenciamento hiperespectrais aerotransportados de alta resolução
Costeiro (e.g. AVIRIS, HYDICE, AISA).
- Auxílio no
Cadastro Ambiental
Rural (CAR)
- Fotografia aérea colorida ou infravermelha;
Cobertura do Solo Landsat (MSS, TM, ETM+); SPOT; ASTER, AVHRR;
- Agricultura, áreas RADARSAT; IKONOS; QuickBird; OrbView-3; LiDAR;
verde, parques, ifSAR; SeaWiFS; MODIS; MISR; MERIS; CBERS-4A,
urbanização etc. Sensores hiperespectrais aerotransportados (e.g.
AVIRIS, HYDICE, AISA).
- Fotografia aérea colorida ou infravermelha; Landsat
Vegetação (TM, ETM+); IKONOS; QuickBird; OrbView-3; AVHRR;
- Estresse (saúde SeaWiFS; MISR; MODIS; ASTER; MERIS; Sensores
das plantas) hiperespectrais aerotransportados (e.g. AVIRIS,
HYDICE, AISA).
FONTE: Adaptada de Jensen (2009 p. 11-12)
NTE
INTERESSA
203
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
O maior raio do mundo, em extensão, cortou o Sul do Brasil em outubro de 2018, percor-
rendo uma distância de 709 km (veja na Figura). Leia esta notícia na íntegra em: http://glo.
bo/3bDCaGR.
DICAS
205
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
Por fim, como vimos através de todo o conteúdo do livro, bem como pelas
sugestões de leituras (UNI DICAS), o SR é empregado em estudos de fenômenos
ambientais; em desastres naturais; monitoramentos de áreas naturais, habitats
e biodiversidade; paisagem urbana e industrial; áreas rurais; estudos florestais,
dentre muitas outras áreas de aplicação. Cada aplicação exige imagens com
diferentes atributos. O usuário de SR deve atentar-se a isto. Entretanto, apesar
de inúmeras vantagens, é possível destacar algumas desvantagens que veremos
a seguir na próxima seção.
DICAS
206
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
Vantagens Desvantagens
• Os instrumentos (sensores), tanto
• Baixo custo relativo dos produtos
os orbitais, os aerotransportados e
(considerando áreas extensas) e
os portáteis são caros. Além disso,
rapidez. Não obstante, há muitos
há alguns produtos com custo alto
dados de SR gratuitos.
(principalmente para áreas pequenas).
• Os dados de SR não são medidas
diretas, e por isso requerem calibração
• Fornecem uma visão contínua,
com dados reais. Vários sensores não
repetitiva, grande área geográfica e
cobrem toda a superfície da Terra e
visão sinóptica em comparação com
também vários possuem uma resolução
os métodos tradicionais.
temporal e espacial insuficiente para
determinadas aplicações.
• Exigem pré-processamento para
• Fácil obtenção de dados de locais
corrigir distorções radiométricas
perigosos ou de difícil acesso. Variedade
e geométricas, e assim serem
de sensores para mensurar diversas
propriamente utilizados em mapas
variáveis biofísicas e/ou híbridas.
(georreferenciamento).
• Fácil manipulação em • O tratamento (pré-processamento,
computadores. Permitem uma análise realce e extração de informações),
atualizada de algum problema bem como a interpretação dos dados
ou questão de interesse das mais de SR exige profissionais treinados e
diversas áreas. com conhecimento do assunto.
• Dependendo do volume e do tipo
• Permitem a integração com de dado que está sendo trabalhado,
produtos de SIG em ambiente digital. é necessário um computador potente
(caro).
• Podem possuir uma série histórica
• A maioria dos sensores orbitais
que remonta várias décadas atrás.
apenas coleta informações de
Dependendo do sistema sensor, é
superfície (dados em subsuperfície
possível adquirir imagens antes,
ou serão inferidos indiretamente
durante e após certo fenômeno ou
ou serão coletados em campo). Em
área de interesse (e.g. acompanhar
alguns lugares, a interpretação não é
a evolução da superfície, cultivos
uma tarefa fácil.
agrícolas, expansão urbana).
FONTE: Adaptada de Kerle e Oppenheimer (2002, p. 144), Prasad et al. (2014, p. 152) e
Thenkabail (2016, p. 232)
207
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
De acordo com Jensen (2009), talvez a pior desvantagem do SR esteja no fato de ser
excessivamente “vendido” de forma positiva; isto é, como se o SR resolverá todos
os problemas dos profissionais e cientistas (mas sabemos que o SR possui muitas
limitações). Outro ponto negativo está no fato de que os dados de SR são basicamente
reflexões de REM. Tais reflexões têm que ser calibradas para unidades físicas, e
sempre há algum pequeno erro associado às correções necessárias, uma vez que
há uma grande fonte de incertezas e erros (como vimos na Unidade 2). Além disso,
muitos pesquisadores e profissionais não dão atenção à etapa da “verdade terrestre”
(conferência e verificação em campo). Apesar destas desvantagens e das desvantagens
elencadas na Tabela 2, o SR ainda é uma excelente forma de adquirir dados superficiais
de larga-escala, para as mais inúmeras aplicações (veja novamente a Tabela 1, que
mostra as variáveis biofísicas e híbridas, onde tal variável se aplica a quais sistemas de
SR podem ser utilizados para o objetivo).
Em nosso país, o MDE, que é um dado raster, pode ser considerado um sinônimo de
MDT (note que em alguns países, como os EUA, o MDE é diferente de MDT). O MDE/
MDT é contabilizado a partir da altitude do solo em relação ao nível do mar (datum
vertical). Já MDS é contabilizado a partir do topo de edificações e de vegetações, ou
seja, tanto os MDE/MDT e os MDS são dados matriciais que fornecem a altitude de
um alvo, mas exibem altitudes diferentes (um tipo vai exibir a altitude da distância
do solo ou do terreno, já o outro tipo vai mostrar a altitude a partir do topo de algum
objeto, seja ela natural ou artificial). Em outras palavras, o MDS representa a altimetria
de todos os objetos da área mapeada, onde cada pixel representa um ponto mapeado
com uma altitude específica (assim, é possível analisar as feições do terreno mapeado).
Já o MDT representa o perfil do terreno (podendo ser feito através de uma filtragem
do MDS), excluindo suas feições (ou seja, não é possível analisar alvos como casas e
edifícios neste tipo de produto). No mais, existem metodologias para converter MDS
em MDT e vice-versa.
208
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
DICAS
209
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
210
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
DICAS
211
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
acurácia vertical e espacial deve ser a melhor possível. Assim, a seguir será recomendada
a leitura de três publicações que versam sobre comparações de MDEs:
• Análise Comparativa entre os modelos digitais de elevação ASTER, SRTM
e TOPODATA (Anais XV Simpósio Brasileiro de Sensoriamento Remoto – SBSR,
2011, INPE, p. 4003-4010), disponível na íntegra em: https://bit.ly/39BYb6a.
• Comparação do Uso de Modelos Digitais de Elevação em Mapeamento Digital de Solos
em Dois Irmãos, RS, Brasil (Revista Brasileira de Ciência do Solo, v. 38, n. 5, p. 1367-1376),
disponível na íntegra em: https://www.scielo.br/pdf/rbcs/v38n5/a02v38n5.pdf.
• Avaliação de Modelos Digitais de Elevação Extraídos de Imagem ALOS/PRISM e
Comparação com os Modelos Disponibilizados Gratuitamente na WEB (Revista
Geociências-UNESP, v. 31, n. 4, p. 650-664), disponível na íntegra em: https://bit.ly/3sujZZZ.
213
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
O 2º passo (Figura 16) mostra o comando que deve ser feito “Contorno”.
Para tanto, clique no menu “Raster” e no submenu “Extração”. A seguir, conforme
é mostrado no 3º passo, é necessário indicar o arquivo de entrada (MDE1m, neste
exemplo), o nome do arquivo a ser gerado (arquivo de saída) e o intervalo entre
as linhas de contorno (o quão espaçadas serão as suas isolinhas de altitude).
No 3º passo da Figura 16 também é possível ver as configurações e parâmetros
que foram utilizadas pelo autor do tutorial. Note que é importante definir um
intervalo que corresponda à resolução espacial de seu MDE. O especialista em
Geoprocessamento Anderson Medeiros alerta em seu tutorial que, caso contrário,
o QGIS vai gerar o vetor das isolinhas, mas não serão valores fidedignos. Não
obstante, é necessário indicar o nome do atributo (que por padrão é ELEV) para
que seja incluída na tabela de atributos uma coluna com os valores da altitude de
cada vetor. Feito isso, é necessário clicar em “Ok”.
O 4º passo (Figura 16) mostra o processamento sendo iniciado. Nesta
etapa (4º passo), já é possível ver o resultado de todas as curvas de nível geradas
pelo QGIS (neste exemplo, a camada do MDE foi desativada para facilitar a
visualização). O 5º passo mostrado na Figura 16 já exibe as isolinhas de mesmo
valor; ou seja, as curvas de nível. Nesta imagem do 5º passo é possível verificar os
valores de cada curva.
DICAS
Você pode fazer uma imagem de curvas de nível para o seu bairro! Basta
baixar algum MDE de fontes gratuitas, como o SRTM disponibilizado pela NASA/USGS.
Na íntegra em: https://earthexplorer.usgs.gov/.
Há muitos tutorais gratuitos na internet. Nesse contexto, o YouTube pode ser uma
excelente ferramenta para os usuários iniciais. Existe uma gama de professores e
profissionais que disponibilizam vídeos ensinando procedimentos ao custo zero. Por
exemplo, você quer recortar um raster no QGIS, mas está com dificuldade? Pesquise algo
assim no YouTube: “recortar um raster no QGIS”. Na grande maioria das vezes, haverá um
vídeo de algum usuário de um nível mais avançado ensinando tal procedimento passo
a passo.
214
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
Agora, faremos outra prática orientada utilizando dois softwares livres: o QGIS
e o gvSIG. Também será utilizado um MDE para esta atividade. Esta prática está
disponível no livro “Noções Básicas de Geoprocessamento para Análises Ambientais”
(MIOTO et al., 2015). Este é um bom guia prático para usuários iniciais que estão
utilizando programas gratuitos. Esta prática envolve basicamente Geoprocessamento,
mas utilizando dados oriundos de SR (MDE). Salienta-se que será feito um apanhado
geral dos procedimentos esboçados por Mioto et al. (2015); ou seja, por falta de espaço,
não será feito o passo a passo detalhado.
Esta prática vai exigir a utilização de um MDE. Será utilizado o SRTM (Shuttle Radar
Topography Mission, versão 4). Você pode baixá-lo no seguinte link: http://srtm.csi.cgiar.
org/srtmdata/. Você pode fazer a delimitação da bacia hidrográfica de sua região,
basta seguir os passos deste roteiro. Nesta prática, será selecionada a tile da grade que
corresponde ao estado do Mato Grosso do Sul (MS) (mas é importante que você faça
a sua própria delimitação, seguindo este roteiro). Após selecionar a área de interesse é
necessário clicar em “Search” (o nome do arquivo deste guia é srtm_26_17.zip) e fazer
o download (Figura 18). A área de estudo compreende o estado do Mato Grosso do
Sul (MS), com o nome “srtm_26_17.zip”. No entanto, é recomendado que você faça a
delimitação da bacia hidrográfica de sua cidade.
Como o arquivo recém baixado é muito grande (~500 × 550 km), é necessário
recortá-lo no QGIS antes dos procedimentos no gvSIG. O recorte no QGIS utilizou
um polígono de cerca de 25 × 20 km, conforme pode ser visualizado na Figura
19. Após o recorte, é necessário abrir o gvSIG e adicionar o MDE recortado. Note
que como estamos trabalhando com raster, é necessário selecionar “VISTA” ao
abrir o software gvSIG. Após os procedimentos iniciais de configuração do raster
no gvSIG, com a nomeação do projeto, escolha do sistema de coordenadas etc.,
você verá o recorte do MDE pronto para ser trabalhado (Figura 20). Já a Figura 21
215
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
216
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
A próxima etapa conforme Mioto et al. (2015) consiste na rasterização
das curvas de nível. Este procedimento está demonstrado na Figura 22. Tal etapa
também será feita no módulo Sextante (comando: Rasterize vector layer), como é
exibido na Figura 22-A. Já nas Figuras. 22-B e 22-C são exibidos os parâmetros
para a rasterização (lembrando que os parâmetros são variáveis de acordo com
o nível de detalhe do produto que está sendo trabalhado). O arquivo gerado por
este processo é apresentado na Figura 22-D.
217
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
A seguir, será feito o preenchimento das células vazias (sem dados), por meio da geração
de um modelo numérico de terreno/MNT, e também outro processo para a eliminação
de depressões (MIOTO et al., 2015). A Figura 23 resume ambos os procedimentos. O
MNT é confeccionado para preencher os espaços vazios que ainda existem entre os
pixels. Para tanto, é necessário abrir o módulo Sextante e pesquisar pela ferramenta
Void filling. Feito isso, selecione o arquivo gerado na etapa anterior; ou seja, as curvas de
nível rasterizadas que aparecem com o nome Countor lines (rasterized). Já no processo de
eliminação de depressão (Figura 23) é gerado um modelo numérico de terreno (MNT)
hidrologicamente correto, sem depressões na superfície do terreno. Tal procedimento
também é feito no módulo Sextante do gvSIG. Para tanto, o layer utilizado nesta etapa
é o resultado do Void filling.
A Figura 23 nos apresenta: A) Preenchimento dos dados para a geração do MNT usando
a função Void Filling no módulo Sextante do gvSIG. B) é o resultado do processo Void
Filling. C) Seleção dos parâmetros para a realização do Sink filling no módulo Sextante
do gvSIG. D) MNT hidrologicamente correto gerado a partir da ferramenta Sink filling.
218
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
Agora, o procedimento consiste em gerar o plano de informação de acúmulo de fluxo
e a geração da rede de drenagem, ambos a partir de ferramentas que estão presentes
no módulo Sextante do gvSIG (MIOTO et al., 2015). A Figura 24 mostra o procedimento
para gerar o acúmulo de fluxo e a Figura 25 mostra o processo de como gerar a rede
de drenagem.
219
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
220
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
Todavia, este último arquivo gerado está em formato raster, com isso, faremos um
procedimento para vetorizá-lo (Figura 27). Para vetorializar a bacia hidrográfica que
está em raster, na janela Sextante digite o termo Vectorize raster layer (polygons). A seguir,
na janela Vectorize raster layer (polygons) > Parameters > Input layer selecione o arquivo
gerado no processo anterior, no caso, upslope (Figura 27-A). Especifique o local onde
será salva a bacia vetorizada e clique em Ok. Sugere-se utilizar a nomenclatura upslope_
vector (Figura 27-B).
221
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
222
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
223
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
224
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
225
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
dos quais faremos dois: (I) exibição e análise de uma imagem (exercício nº 1) e (II)
criação de um NDVI (índice espectral de vegetação) (exercício nº 8). Note que há 10
exercícios. É recomendado que você tente fazê-los (os tutoriais estão em inglês, mas
as imagens dos roteiros são intuitivas, e você pode utilizar algum site para traduzir o
conteúdo).
Primeiramente, baixe o arquivo do programa chamado "2020.09.09 MultiSpec 64-bit
version" no site: https://engineering.purdue.edu/~biehl/MultiSpec/download_win.html
(Figura 30). O nome do arquivo baixado é o seguinte MultiSpecWin64z (é uma pasta
comprimida). Note que esta é a versão para o sistema operacional Windows (versões 7,
8 e 10) (também uma versão para Mac).
226
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
FONTE: O autor
Para as práticas, é necessário que você visite a página principal do software
e baixe a imagem chamada de: ag020522_DPAC_cd.lan. Link para o download
dessa imagem: https://engineering.purdue.edu/~biehl/MultiSpec/tutorials.html,
abre esta página e role até encontrar os arquivos de imagens (Figura 32). A Figura
33 mostra como abrir a imagem.
FONTE: O autor
As três bandas da imagem, na figura 32, estão no intervalo de 0.510 – 0.580 µm, 0.635 –
0.705 µm e 0.736 – 0.863 µm (esta informação é encontrada em Processor > Display Image
> Channel Descriptions).
227
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
FONTE: O autor
Você pode dar um zoom in no ícone e um zoom out no ícone , ambos na barra
de ferramentas do software. Como a imagem possui três canais (cada um em uma
228
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
FONTE: O autor
229
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
FONTE: O autor
FONTE: O autor
230
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
A opção de exibição temática de 1 canal (1-Channel Thematic) é útil para exibir imagens
que agrupam valores em classes (como o NDVI). Ou seja, os valores dos dados são
agrupados no número desejado de níveis e uma legenda é exibida à esquerda da
imagem indicando quais cores da paleta estão associadas a cada intervalo de dados
(Figura 37). Embaixo da escala de cores, em Palette, é possível modificá-la.
FONTE: O autor
Agora, após a familiarização com o MultiSpec, vamos criar um índice de vegetação, o
NDVI (caso necessário, para lembrar da fórmula do NDVI, releia o conteúdo sobre este
índice na Unidade 1). Utilizaremos a mesma imagem da prática anterior (ag020522_
DPAC_cd.lan). Após abrir a imagem, faça o caminho exibido na Figura 38. A Opção
“New Channel from General Algebraic Transformation” permite definir uma fórmula
algébrica de bandas, com divisões e multiplicações. Exatamente o que é necessário
segundo a fórmula do NDVI. Como estamos utilizando uma imagem que possui a
banda vermelha no canal 2 e a banda infravermelha no canal 3, a fórmula ficará assim:
(note como a fórmula já está correta na janela do programa). Feito isso, clique em Ok.
Agora, em “Image File Format Change Options” selecione “32-bit Real”, clique em Ok e
escolha um nome e um local para salvar o arquivo a ser gerado (Figura 39).
231
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
232
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
233
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
DICAS
234
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
LEITURA COMPLEMENTAR
235
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
et al., 2011). Eles já relataram a aplicabilidade das bandas TM1, TM2, TM3 e TM4 em
estudos de parâmetros ambientais em ambientes aquáticos (LILLESAND et al., 1983;
NOVO; TUNDISI, 1988; MITTENZWEY; GITELSON; KONDRATIEV, 1992; CHENG;
LEI, 2001; WALDRON; STEEVES; FINN, 2001).
Diante desse cenário, o sensoriamento remoto surge como uma possível forma de
complementação dos programas de monitoramento usuais, preenchendo lacunas
temporais e espaciais (RITCHIE; ZIMBA; EVERIT, 2003; BUKATA, 2005). A partir
do desenvolvimento de sensores multiespectrais, como o LANDSAT TM, e de novas
tecnologias para o processamento e análise de dados fornecidos pelos sensores dos
satélites, surgiu uma nova fonte potencial para a análise quantitativa e qualitativa de
dados ambientais.
A bacia do Lago Paranoá (Figura da Área de Estudo) está localizada na região central
do Distrito Federal, Brasil. Tem uma área aproximada de 1.034,07 km², correspondendo
a cerca de 18% do seu território, e está integralmente localizada em seu interior. A sub-
bacia do Lago Paranoá ocupa uma área de 288,69 km², funcionando como bacia de
captação dos principais cursos d’água que drenam o sítio urbano da cidade de Brasília.
236
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
FONTE: O autor
O Índice de Carlson foi calculado a partir de valores coletados em campo pela CAESB,
referentes às amostragens executadas pelos quatro pontos distribuídos nos principais
braços do reservatório, constantes na Figura I: ponto A (Ribeirão do Riacho Fundo);
ponto B (Ribeirão do Gama); ponto D (Ribeirão do Torto); ponto E (Ribeirão Bananal e
na Região Central — ponto C — nas seguintes datas: 8 de maio de 1984, 22 de junho de
1994, 27 de maio de 1997 e 27 de junho 2001).
As datas citadas foram selecionadas por serem as datas de coleta mais próximas às datas
das imagens geradas pelo sensor TM, que tem resolução espacial de 30 m e temporal
de 16 dias. As amostras contêm dados de coleta mensais, referentes ao período de seca,
que se inicia em maio e se estende até setembro. Esse período foi escolhido visando
à obtenção de imagens sem cobertura de nuvens. Além disso, o revolvimento dos
sedimentos de fundo, quando do período chuvoso, altera o comportamento espectral
da água, o que poderia superestimar parâmetros que alterariam as classes de trofia
encontradas no Lago Paranoá. As cenas LANDSAT TM 5 utilizadas referem-se às datas:
26 de maio de 1984, 7 de junho de 1994, 30 de maio de 1997 e 10 de junho de 2001. As
datas das cenas são as mais próximas das coletas de campo e sem cobertura de nuvens
no momento da aquisição, pois, como salientado anteriormente, a periodicidade de
obtenção dos dados Landsat, ou sua resolução temporal, é de 16 dias.
Este estudo utilizou valores das bandas do visível 1 (TM1, correspondendo à região
da luz azul), 2 (TM2, luz verde), 3 (TM3, luz vermelha) e da banda do infravermelho
próximo 4 (TM4). A escolha dessas bandas baseou-se no comportamento espectral da
água. A água quando limpa, apresenta o seu pico de reflectância na faixa do azul-verde
237
UNIDADE 3 — INTERPRETAÇÃO DE IMAGENS DIGITAIS E EXEMPLOS DE APLICAÇÕES
(TM1 e TM2) e tende a deslocar esse pico para a região do verde (TM2) quando do
aumento da biomassa algal e para os maiores comprimentos (TM3 e TM4) quando da
incorporação de sólidos em suspensão. Como a interação da energia eletromagnética
com o alvo é da ordem de alguns micrômetros de profundidade, as informações
avaliadas por sistemas sensores refletem as características da superfície, pois, no caso
de águas transparentes com sedimentos depositados no fundo, a resposta espectral
obtida tende a ser de água limpa. A escolha dos períodos para análise é justificada
pelas nítidas variações nos valores de concentração de fósforo total e clorofila-a e pelas
variações de profundidade de desaparecimento do Disco de Secchi nas quatro fases
limnológicas do Lago Paranoá: eutrofização e oligotrofização 1, 2 e 3 (STARLING;
FERREIRA; ANGELINI, 2002).
238
TÓPICO 2 — PRINCIPAIS APLICAÇÕES DOS PRODUTOS DE SENSORIAMENO REMOTO
Na Figura II o Índice de Carlson (Carlson TSI) mostrou que no ano de 1984 todo o
espelho d’água apresenta-se hipereutrófico, com raros pontos eutróficos. Na Figura III
observa-se que, para o Índice de Carlson (Carlson TSI) em 1994, quase todo o espelho
d’água apresenta-se eutrófico, com extensas áreas mesotróficas observadas em toda a
extensão do lago. A porção inicial do Ribeirão do Torto apresenta-se oligotrófica e a
porção inicial do Riacho Fundo apresenta-se hipereutrófica. Na Figura IV, referente às
estimativas de 1997, para o índice de Carlson (Carlson TSI) quase toda Região Central
apresenta-se mesotrófica. Na Figura IV observa-se que, para 2001, o índice de Carlson
(Carlson TSI) mostra que grande parte do espelho d’água apresenta-se mesotrófica.
Áreas eutróficas são observadas nos braços do Riacho Fundo e do Ribeirão do Gama e
na porção inicial dos braços do Ribeirão do Torto e do Ribeirão Bananal. Grande parte
da Região Central apresenta áreas oligotróficas que se estendem até a região próxima
à barragem.
239
RESUMO DO TÓPICO 2
• É fundamental saber quais satélites (e seus sensores) serão úteis para um determinado
projeto, seja este em ambiente urbano ou rural.
240
CHAMADA
241
AUTOATIVIDADE
1 Remoto significa algo que não está exatamente em contato físico e Sensoriamento
significa obter informações (dados como temperatura, pressão, reflexão etc.)
por meio de equipamentos detectores. Assim, sabemos que o Sensoriamento
Remoto (SR) é o processo de adquirir informações, detectar, analisar e monitorar
características físicas de uma área ou objeto por meio do registro de sua radiação
eletromagnética (REM) refletida ou emitida. Os satélites, que são plataformas
orbitais de sistemas sensores, desempenham um papel importante no
desenvolvimento de muitas tecnologias, como mapeamento do uso e ocupação
do solo, sistemas digitais de posicionamento por satélite (e.g. GPS, GNSS,
GLONASS), planejamento urbano, monitoramento de vegetação, e muitas outras.
Existe uma grande variedade de sensores com diferentes resoluções: espacial,
temporal, radiométrica e espectral para as mais diversas aplicações. O usuário
deve ter o conhecimento sobre os produtos e sensores, com o intuito de escolher
a melhor imagem para seu objetivo. Sobre os diferentes tipos de imagem e sua
possível aplicação, associe os itens, utilizando o código a seguir.
a) ( )
Os MDEs só podem ser produzidos por Estação Total e por RTK.
b) ( )
Os MDS, por incluírem edificações, possuem pouca utilidade.
c) ( )
Os MDT são produzidos somente por técnicas espectrais.
d) ( )
A confecção de um MDE a partir de SR é muito custosa e pouco
eficiente.
e) ( ) Em termos de SR, é possível produzir um MDE por meio de
estereogrametria e interferometria por radar.
243
REFERÊNCIAS
BENINI, S. M. Uso de Sistemas de Informação Geográfica na Análise Ambien-
tal em Bacias Hidrográficas. Tupã: ANAP, 2015. Disponível em: http://media.
wix.com/ugd/f414e0_673547fa0838471489d18f41be4d5adc.pdf. Acesso em: 24
nov. 2020.
CCMEO (Canada Centre for Mapping and Earth Observation). Remote Sensing
Tutorials. 2019. Disponível em: http://bit.ly/2LAw53i. Acesso em: 28 set. 2020.
DEKKER, F. What is the right remote sensing tool for oil exploration? Earth
Observation Magazine, v. 2, n.1, p. 28-35, 1993.
GAUR, M.; PANDEY, C. B.; GOYAL, R. K. Remote Sensing for Natural Resour-
ces Management and Monitoring. India: Scientific Publisher, 2016.
LI, Z.; ZHU, Q.; GOLD, C. Digital Terrain Modeling Principles and Methodol-
ogy. Boca Raton: CRC Press, 2004.
PRASAD, N. et al. Remote Sensing and GIS for Biodiversity Conservation. In:
UPRETI, D. K. et al. Recent Advances in Lichenology. Berlin: Springer, 2014.
RIEBEEK, HI. How to Interpret a Satellite Image: Five Tips and Strategies.
2013. Disponível em: https://earthobservatory.nasa.gov/features/ColorImage/.
Acesso em: 27 set. 2020.
SEOS (Science Education through Earth Observation for High Schools). In-
troduction to Remote Sensing. c2020. Disponível em: https://seos-project.eu/.
Acesso em: 5 out. 2020.
SOARES FILHO, B. S. Interpretação de Imagens da Terra. Apostila do curso de
Especialização em Geoprocessamento. Belo Horizonte: Universidade Federal de
Minas Gerais (UFMG), 2000, 19 p. Disponível em: http://www.csr.ufmg.br/geo-
processamento/publicacoes/intimagem.pdf. Acesso em: 26 set. 2020.