Você está na página 1de 80

Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A.

Homem Antunes, UFRRJ, Abril de 2021 1

UNIVERSIDADE FEDERAL RURAL DO RIO DE JANEIRO


INSTITUTO DE TECNOLOGIA
DEPARTAMENTO DE ENGENHARIA

NOTAS DE AULA DE IT 533–SENSORIAMENTO REMOTO

Este material tem por objetivo auxiliar os alunos da disciplina de IT 533 do


Departamento de Engenharia da UFRRJ. Para um melhor entendimento do material
este deve ser acompanhado das aulas presenciais, onde são mostradas e explicadas
com detalhes as figuras, os gráficos e o texto. Importante: Não deve ser utilizado
como única fonte de estudos para a disciplina, mas apenas como guia sobre o
conteúdo passado em sala de aula. Portanto é fundamental estudar utilizando a
bibliografia recomendada.
Pré-requisito: Física IV ou conhecimento equivalente de eletromagnetismo e teoria
da radiação.

Qualquer utilização deste material fora da UFRRJ requer a autorização do autor.

Prof. Mauro Antonio Homem Antunes, Ph.D.


homemantunes@gmail.com

Esta disciplina é dividida em duas partes e é esquematizado da seguinte maneira:

Seção I – Princípios Físicos do SR, onde se estuda:


• Características da radiação, as fontes de radiação e as leis da radiação;
• A atmosfera e suas características;
• A superfície e suas características espectrais;
• Os sensores, suas características e respostas à radiação;
• As imagens, suas características e formatos.
Seção II – Processamento Digital de Imagens de SR, onde se estuda:
• Pré-processamento de imagens;
• Melhorias nas imagens (realce e outros processamentos);
• Classificação digital de imagens;
• Aplicações do sensoriamento remoto.

BIBLIOGRAFIA RECOMENDADA:

BÁSICA:

JENSEN, J. R. (2009), Sensoriamento Remoto do Ambiente: Uma Perspectiva em


Recursos Terrestres, Parêntese Editora, Tradução da 2ª Edição. ISBN:
97885605070601.
MENESES, P. R. Sensoriamento Remoto: Reflectância dos Alvos Naturais, Editora
EMBRAPA, 1ª. ed., 2002.
MENESES, P.R., ALMEIDA, T. (2012), Introdução ao Processamento de Imagens de
Sensoriamento Remoto. 1ª. ed. Brasília, CNPq, v. 1. 256p. (Disponível online
em http://www.cnpq.br/documents/10157/56b578c4-0fd5-4b9f-b82a-
e9693e4f69d8)
MORAES NOVO, E. M. L. Sensoriamento Remoto: Princípios e Aplicações, 3ª Ed.
Revista E Ampliada, Editora Edgar Blucher Ltda, São Paulo, 2009.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 2

MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e Metodologias de


Aplicação, Editora da UFV, 3ª. ed., 2008.
PONZONI, F.J., PINTO, C.T., LAMPARELLI, R.A.C., ZULLO JR, J., ANTUNES,
M.A.H. Calibração de Sensores Orbitais. 1ª. ed. São Paulo: Oficina de Textos,
2015. 96p.

COMPLEMENTAR:

AVERY, T.E. Fundamentals of Remote Sensing and Airphoto Interpretation, 5ª ed. -


New York: MacMillan; 1992. 472p.
ELACHI, C. (1987), Introduction to the Physics and Techniques of Remote Sensing,
New York: John & Willey, 413p.
KUX, H.J.H., BLASCHKE, T. Sensoriamento Remoto e SIG avançados – novos
sistemas sensores - métodos inovadores. 01. ed. São Paulo - SP: Oficina de
Textos Ltda., 2005. v. 01. 286 p
LIU, W.T.H. (2007), Aplicações de Sensoriamento Remoto, Editora UNIDERP, 1ª ed,
908p.
PONZONI, F. J., SHIMABUKURO, Y. E. (2010), Sensoriamento Remoto no Estudo
da Vegetação, Parêntese Editora, 1ª Ed., 144 p.
REES, W. G. Physical Principles of Remote Sensing / W. G. Rees. - Cambridge, ENG
: Cambridge University, 1990. 247p.

PERIÓDICOS CIENTÍFICOS RECOMENDADOS:


1 Remote Sensing of Environment
2 International Journal of Remote Sensing
3 IEEE Transactions on Geoscience and Remote Sensing
4 ISPRS Journal of Photogrammetry and Remote Sensing
5 Revista Brasileira de Cartografia
6 Boletim de Ciências Geodésicas

Secção I - PRINCÍPIOS FÍSICOS E SISTEMAS SENSORES


Esta primeira parte descreve a radiação eletromagnética e as características
da fonte (leis da radiação), uma parte sobre as interações da radiação com a
atmosfera, uma parte sobre as interações da radiação com a superfície, uma parte
sobre as características das imagens e finalmente uma listagem de sistemas
sensores atualmente utilizados em aplicações de sensoriamento remoto.

1. O QUE É O SENSORIAMENTO REMOTO

Sensoriamento Remoto consiste na aquisição de informações sobre um alvo


sem que ocorra contato físico entre o mesmo e o sensor. Deste modo, qualquer
obtenção de informações à distância pode ser classificada como sensoriamento
remoto. Por exemplo, o sonar, que utiliza ondas mecânicas na água, as fotografias
aéreas, que utilizam a radiação eletromagnética que chega à câmara, as imagens de
satélite, que utilizam também a radiação eletromagnética que chega aos sensores, o
laser, que mede o retorno de pulsos de radiação eletromagnética principalmente na
faixa visível e infravermelho próximo do espectro retornados pela superfície em
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 3

direção ao sensor, o radar, que utiliza o retorno da radiação eletromagnética na faixa


de microondas do espectro eletromagnético, dentre outros exemplos.

O sensoriamento remoto pode ser utilizado para o estudo de corpos celestes,


para o estudo da atmosfera bem como para o estudo da superfície terrestre. No nosso
caso, estudaremos apenas o sensoriamento remoto relacionado com a utilização de
ondas eletromagnéticas para a obtenção de informações sobre a superfície.

O sensoriamento remoto tem um papel fundamental no mapeamento e no


monitoramento dos recursos terrestres. Na engenharia é utilizado não só para o
mapeamento, mas também para os estudos iniciais e de impactos ambientais antes
das obras de engenharia. A Figura 1 ilustra estas aplicações dentro do contexto de
dados espaciais georreferenciados.

Figura 1. Sensoriamento remoto como fonte de dados para a análise espacial de


dados ambientais. Fonte: Jensen (2009).

Um sistema de obtenção de dados é composto basicamente por quatro


componentes (Figura 2): A fonte, que pode ser o sol (nas faixas espectrais do visível,
infravermelho próximo e infravermelho médio), a superfície (na faixa do infravermelho
termal) e o próprio sensor (caso do RADAR na faixa de microondas). O sensor pode
também ser a fonte na faixa do visível e infravermelho próximo em sensores do tipo
Laser Scanner.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 4

Figura 2. Partes constituintes de um sistema de aquisição dos dados de


sensoriamento remoto: a fonte de radiação; a atmosfera; a superfície e o sensor.

Dependendo da faixa espectral e do tipo de sensor, a fonte de radiação pode


ser o sol (faixa do visível, infravermelho próximo e infravermelho médio), a superfície
(faixa do infravermelho termal) ou o próprio sensor (faixa de micro-ondas e no caso
de laser).

2. MODELOS DA RADIAÇÃO ELETROMAGNÉTICA (REM)

A REM pode ser caracterizada por uma natureza quântica (corpuscular) e por
uma natureza eletromagnética ou modelo ondulatório.

2.1 MODELO ONDULATÓRIO DA RADIAÇÃO ELETROMAGNÉTICA

O modelo ondulatório da REM é caracterizado por um campo elétrico e um


campo magnético conforme a figura abaixo:

Figura 3. Modelo de uma onda eletromagnética.


Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 5

A radiação é caracterizada pelo comprimento de onda e pela frequência com


que ela propaga. O comprimento de onda e a frequência estão relacionados conforme
a equação abaixo:

c = 
c= velocidade de propagação da radiação no vácuo = 3 x 10 8 ms-1
 = comprimento de onda (m)
 = frequência em ciclos por segundo (Hertz)

O comprimento de onda pode ser expresso em uma das seguintes unidades:

Å - Ångstrom = = 10-10m; nm - nanômetro = 10-9 m;


m - micrômetro = 10-6m; mm - milímetro = 10-3m;
cm - centímetro = = 10-2m; km - quilômetro = 103m.

A frequência pode ser expressa como:

Hertz (Hz) = s-1;


KiloHertz (kHz) =103 s-1;
MegaHertz (MHz) = 106 s-1;
GigaHertz (GHz) = 109 s-1.

Por exemplo, uma radiação EM com onda de 0,50 m (entre azul e verde), tem
frequência de:

=c/ = (3 x 108 ms-1)/(0,50 x 10-6 m),  6 x 1014 s-1


ou 6 x 1014 Hz ou 6 x 1011 kHz ou 6 x 108MHz ou 6 x 105GHz.

2.2 MODELO CORPUSCULAR DA RADIAÇÃO ELETROMAGNÉTICA

A natureza quântica da REM diz respeito à natureza de partícula da radiação


e relaciona a energia contida em cada pacote de energia, denominado quantum. A
energia de um quantum é dada por:

Q = h  = energia de um quantum de energia (1 mol de fótons) em Watts (W);


h = constante de Planck = 6,6256 x 10-34 W s2;
 = frequência em ciclos por segundo (Hertz).

1 mol de fótons tem 6,022 x 1023 fótons = 1 E (Einstein)

2.3 Faixas de Espectro Eletromagnético

Obs.: os limites das faixas podem ter pequenas variações entre autores.

Faixa do Espectro EM Comprimento de onda


Radiação cósmica < 4 * 10-6 m (< 4 * 10-2 Å)
Radiação gama 4 * 10-2 Å a 1Å
Raios X 1Å a 10 nm (0,010 m)
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 6

Ultravioleta (UV)
UV extremo 0,010 m a 0,280 m
UV médio 0,280 m a 0,315 m
UV próximo 0,315 m a 0,400 m
Visível (corresponde também à faixa fotossinteticamente ativa)
Azul 0,400 m a 0,500 m
Verde 0,500 m a 0,600 m
Vermelho 0,600 m a 0,700 m
Infravermelho (IV)
Próximo 0,700 m a 1,4 m
Médio 1,4 m a 3,0 m
Termal 3,0 m a 15 m
Distante 15 m a 30 m
Micro-ondas
Ka 0,83 cm a 1,18 cm
K 1,18 cm a 1,67 cm
Ku 1,67 cm a 2,70 cm
X 2,70 cm a 4,80 cm
C 4,80 cm a 7,50 cm
S 7,50 cm a 19,0 cm
L 19,00 cm a 77,0 cm

Ondas de rádio
VHF 30,00 cm a 100,0 cm
P 77,00 cm a 133,00 cm

Figura 4. Partes do espectro eletromagnético.

No caso da faixa do visível, as cores possíveis são o vermelho, o verde e o


azul (RGB do inglês "Red, Green, Blue", em ordem da menor para a maior
frequência). Estas são denominadas cores primárias porque não podem ser recriadas
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 7

com a mistura de outras cores, enquanto que as outras cores do visível podem ser
recriadas com misturas de diferentes proporções das cores primárias.

A faixa do visível é também subdividida por alguns autores em faixas mais finas
que correspondem às cores do arco íris:
Violeta 0,380 m a 0,446 m
Índigo 0,446 m a 0,464 m
Azul 0,464 m a 0,500 m
Verde 0,500 m a 0,578 m
Amarelo 0,578 m a 0,592 m
Laranja 0,592 m a 0,620 m
Vermelho 0,620 m a 0,750 m

No caso da cor amarela, esta sensação pode ser causada tanto por uma
faixa específica do espectro como pela adição do verde com vermelho.

A faixa de REM compreendida entre 0,70 m e 3,00 m é chamada de


"infravermelho refletido", pois os objetos à temperatura ambiente não emitem
quantidade significativa de radiação nesta faixa do espectro. Portanto a fonte de
radiação para o sensoriamento remoto nesta faixa do espectro é o Sol.

De 3,00 m a 15,00 m é chamado de "infravermelho termal ou


infravermelho emitido pela superfície", pois os objetos à temperatura ambiente
emitem radiação significativamente nesta faixa. Na faixa do infravermelho termal a
fonte de radiação que chega ao sensor é emitida pela superfície e pela atmosfera,
que são as fontes de radiação nesta faixa do espectro. Dentro do termal, a faixa entre
3,0 m e 7,00 m é sem importância para o sensoriamento remoto da superfície
devido à grande absorção pela atmosfera.

A faixa de comprimentos de onda que se estendem de 0,30 m a 15,0 m é


chamada de espectro óptico, pois pode ser direcionada para os detectores por meio
de lentes e espelhos. Esta é a faixa mais utilizada por sensores orbitais embora alguns
utilizem a faixa de micro-ondas.

A maioria dos sensores de micro-ondas são ativos, ou seja, a fonte de radiação


é o próprio sensor. Neste caso são chamados de RADAR (Radio Detection And
Ranging). São de grande importância porque as micro-ondas atravessam as nuvens
e podem ser utilizados tanto em dias nublados como à noite.

Um exemplo típico de programa bem sucedido utilizando RADAR é o


RADAMBRASIL, no Brasil, 1971, que tinha um sensor de RADAR a bordo de avião e
mapeou o Brasil todo na década de 1970 na escala 1:250.000. Atualmente existem
plataformas orbitais que têm sensor de RADAR a bordo. Os sensores de micro-ondas
têm a grande vantagem de a radiação nessa faixa atravessar as nuvens. Estes são
ideais para regiões tropicais onde ocorre uma grande incidência de nuvens. Na faixa
do espectro óptico as nuvens impedem a obtenção de imagens da superfície, como
é o caso da região Norte e partes do Nordeste do Brasil, onde a obtenção de imagens
livres de nuvens é bastante dificultada. Um dos grandes desafios do sensoriamento
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 8

remoto no Brasil é o estabelecimento de uma cultura de maior utilização dos sensores


de micro-ondas como o radar para a obtenção de informações da superfície.

3. LEIS DA RADIAÇÃO E IRRADIÂNCIA SOLAR

3.1 LEI DE PLANCK

A lei de Planck descreve a distribuição de radiação emitida (E, em W m-2 m-


1
) por um corpo negro por comprimento de onda ao longo de todo o espectro (Figura
4). Um corpo negro ideal é um corpo que absorve 100% da radiação que incide sobre
ele e tem uma emissividade igual a 1 (100%).

2hc 2
E  = 5 hc / kT
 e  −1 
h = 6,6256 * 10-34 W s2 (Constante de Planck);
c = 2,997925 * 108 m s-1  3 * 108 m s-1 (Velocidade da luz no vácuo);
k = 1,38054 * 10-23 W s K-1 (Constante de Boltzmann);
T = Temperatura em Kelvin;
 = Comprimento de onda em metros.

Por esta lei é possível calcular a quantidade de radiação emitida por um corpo
por cada comprimento de onda, sendo importante no SR para o cálculo da quantidade
de radiação emitida nas bandas de um dado sensor.

Figura 5. Curva de emissão de um corpo negro a 6000 K e a radiação solar que


chega no topo da atmosfera e na superfície, mostrando também as principais faixas
de absorção por gases da atmosfera. Fonte: Gates, 1962.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 9

3.2 LEI DE STEFAN-BOLTZMANN

Toda matéria acima de zero absoluto ou zero Kelvin (0 K = -273,15 C) emite
REM continuamente. A intensidade, bem como o tipo de REM emitida, depende da
temperatura deste corpo assim como de seu material constituinte.

WB = T 4
Esta equação diz que um "corpo negro" (B - Black, um hipotético radiador ideal
de energia) emite energia EM radiante (W em watts/m 2 =W/m2) de acordo com sua
temperatura (T em K) e com a constante de proporcionalidade de Stefan-Boltzmann
( = 5,6697 * 10-8 W m-2 K-4). Esta equação é a integral da equação de Planck ao
longo de todo o espectro.

Como um "corpo negro" ideal não existe, os radiadores naturais, chamados


"corpos cinza”, emitem apenas uma fração da energia emitida pelo "corpo negro",
ficando então a Lei de Stefan- Boltzmann adaptada para estes corpos na forma:

WG = T 4
onde  é um “fator de emissividade” que depende do material, e que na prática é
obtido por: =WG/WB, logo sempre menor que 1. (Ex.: água 0,99; árvore com folhagem
0,96; areia 0,95; concreto 0,92; solo seco 0,90; neve 0,85 e, prata polida 0,02, isto é,
como a prata polida é alta refletora, absorve pouca energia sendo, então, ruim como
emissora).

A energia EM emitida por um corpo (WB) é formada por diferentes


comprimentos de onda e em intensidades também diferentes.

Ex.: A água a uma temperatura de 310 K terá uma emissão total de 518,37 W m-2

Esta lei pode ser invertida para se calcular a temperatura dos alvos para os
quais a radiação emitida foi calculada. Por exemplo, se um sensor mediu que a
quantidade total de radiação emitida no termal para uma superfície de areia (=0,95)
é igual a 520 wm-2, a temperatura do mesmo será:

WG 520
T =4 =4 = 313,46 K = 40,31º C
 0,95 * 5,6697 *10 -8

Os termômetros de infravermelho termal (IRT) obtêm a temperatura desta


maneira, medindo a radiação emitida e calculando a temperatura com base na
emissividade do objeto.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 10

3.3 LEI DO DESLOCAMENTO DE WIEN

A
max =
T
A Lei dos deslocamentos de Wien calcula o comprimento de onda de máxima
emissão (max em m) como uma função inversa da temperatura deste corpo (T em
K) e de uma constante (A = 2898 m K). Essa fórmula pode ser obtida através da
derivada da equação de Planck.

Exemplo: Um corpo com temperatura de 310 K (37o C) terá emissão máxima em 9,34
m, que é na faixa do infravermelho termal. Já um corpo com 6000 K (o sol) terá
emissão máxima em 0,483 m, que é na faixa do azul próximo do verde.

3.4 LEI DE KIRCHHOFF

A lei de Kirchhoff diz que para um corpo cinza em equilíbrio térmico com o
ambiente à volta a emissividade é igual à absorbância:

WG
=  = 1−  =  ,
WB

sendo  a reflectância e  a absorbância do alvo. A lei de Kirchhoff é na realidade


uma consequência da lei de conservação da energia, ou seja, um objeto que não gera
calor e está em equilíbrio térmico (não varia a temperatura) deve emitir a mesma
quantidade de energia que absorve e deve refletir a quantidade de energia que o
difere de um corpo negro (1-).

3.5 LEI DO COSSENO DE LAMBERT

Segundo esta lei, a quantidade de radiação que chega a uma superfície


inclinada em relação à direção da fonte é proporcional ao cosseno do ângulo entre a
normal da superfície e os raios. Se um corpo emite I (em W m-2), a quantidade de
irradiância (E) que chega a uma superfície inclinada do ângulo  e à distância d da
fonte será:

E = I cos 
3.6 LEI DO INVERSO DO QUADRADO DA DISTÂNCIA

Neste caso, considerando uma fonte pontual, a quantidade de radiação que


chega a uma superfície é inversamente proporcional à distância da fonte até a
superfície em questão. Se um corpo emite I (em W m -2), a quantidade de irradiância
(E) que chega a uma superfície a uma distância d da fonte em unidades astronômicas
(UA) será:
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 11

E= 1
d2

Uma unidade astronômica (1,0) equivale à distância média entre o Sol e a


Terra.

A Lei do Cosseno de Lambert e a lei do Inverso do quadrado da distância são


necessárias nas transformações radiométricas, uma vez que os valores de irradiância
tabelados para cada banda de um dado sensor são relativos ao topo da atmosfera e
perpendicular aos raios solares. Assim, estes dados fornecidos pelos fabricantes do
sensor são multiplicados pelo cosseno do ângulo zenital solar e divididos pela
distância Sol-Terra elevada ao quadrado, a fim de se achar o valor de radiância para
banda em questão no momento da tomada da imagem, uma vez que o ângulo zenital
solar e a distância Sol-Terra variam ao longo do ano mesmo para o mesmo horário
de passagem do satélite.

3.7 IRRADIÂNCIA SOLAR NO TOPO DA ATMOSFERA

A irradiância solar total (ou seja, no espectro solar todo) em uma superfície
plana perpendicular aos raios solares e fora da atmosfera (no espaço livre) e a uma
distância média entre o sol e a terra tem sido obtido através de observações por
sensores em satélites orbitais. Às vezes é chamada constante solar, embora esta
quantidade varie ao longo dos anos e através dos anos devido a variações na
atividade solar. O ciclo solar varia em ciclos de 11,5 anos em média, com flutuações
de +- 0,5% na quantidade de radiação que chega ao topo da atmosfera considerando
uma unidade astronômica.

Alguns experimentos da NASA indicam os seguintes valores para a irradiância solar:


Experimento ACRIM I : 1364,48 a 1369,71 W m -2;
Experimento ACRIM II : 1363,75 a 1367,14 W m-2;
Experimento ERB : 1368,50 a 1374,80 W m -2;
Experimento ERBS : 1363,10 a 1367,60 W m -2;
Experimento SORCE : 1357,30 a 1362,15 W m-2

Média dos experimentos: 1367,39 W m -2 + 7,415 -4,285

Por exemplo, no dia 8 de dezembro de 2010 ao meio dia solar (às 11:46:44
desconsiderando o horário de verão) o ângulo zenital solar em Seropédica é de 0 o,
ou seja, o sol neste dia está “a pino” no meio dia solar e a distância Sol-Terra é de
0,985 UA (Unidade Astronômica). Daí a irradiância total exoatmosférica (em todo
espectro e fora da atmosfera) é dada por:

E = 1367,39 cos0
0 , 9852
= 1409,35Wm -2

No solstício de inverno de 2010 (21/06) o ângulo no meio dia solar é de 43,81o


e a distância Sol-Terra é de 1,016 UA e a irradiância exoatmosférica é dada por:
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 12

cos 43,81
E = 1367,39 1, 0162 = 955,93Wm -2

Observação: Estes cálculos foram feitos considerando apenas a média da constante


solar, sem considerar a variabilidade devido ao ciclo de atividade solar.

Esta variação da irradiância no topo da atmosfera ao longo do ano é importante


para o sensoriamento remoto, pois isso leva a uma grande variação no brilho das
imagens em nível de cinza ao longo do ano, levando a uma necessidade de
normalizar estes dados, principalmente quando são analisadas imagens de diversas
épocas do ano.

4. INTERAÇÕES DA RADIAÇÃO COM A ATMOSFERA

Os dados coletados por sensores remotos são resultantes da interação da


radiação solar que interage com a atmosfera até atingir o alvo e que retorna ao sensor
interagindo novamente com a atmosfera, somado com a porção de radiação que vai
para o sensor sem atingir o alvo ou provenientes de alvos vizinhos (Figura 6). Existe
também um efeito de subtração da radiação na direção do sensor devido ao
espalhamento e à absorção.

A atmosfera atua no processo de aquisição de dados de sensoriamento remoto


pelo espalhamento (ou dispersão), pela absorção e pela emissão na faixa do
infravermelho termal. A radiação direta do sol que atinge a superfície provém da
transmissão através da atmosfera e a radiação refletida pela superfície que atinge o
sensor é proveniente da transmissão através da atmosfera. Também atinge o sensor
a radiação proveniente do espalhamento atmosférico bem como de cenas vizinhas à
que aparece no plano focal do sensor.

No geral, nas bandas do azul e do verde o efeito de adição de radiação na


direção do sensor é maior do que a subtração, neste caso a correção atmosférica
leva a uma diminuição no brilho das cenas, devido a uma diminuição no fluxo de
radiação na direção do sensor. No infravermelho próximo e médio o efeito de
subtração de radiação na direção do sensor devido à absorção da água são mais
proeminentes do que a adição. Daí, nestas faixas do espectro a correção atmosférica
tende a aumentar ligeiramente o brilho das cenas devido à adição de radiação que
chega ao sensor. Na faixa do vermelho a adição e a subtração podem ser bem
próximas, mas vai depender da concentração de partículas sólidas em suspensão na
atmosfera (aerossóis).
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 13

Figura 6. Interação da radiação com a atmosfera até chegar ao sensor remoto.


Fonte: Jensen (2000).
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 14
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 15

L
 =
E i

Pi é em (esferrorradiano)
L é em W m-2 Sr-1
Enquanto E é em Wm-2

A reflectância coletada pelo satélite pode ser considerada uma grandeza


bidirecional, ou seja, o fluxo de radiação incidente na superfície é em grande parte
direcional e a radiação detectada pelo sensor é também direcional, por estar
concentrada em um ângulo sólido fino. O albedo é uma grandeza que é muito
utilizada, principalmente em Meteorologia. O albedo consiste na integral da
reflectância ao longo de todo o espectro solar e integrado sobre todo o hemisfério.
Sua estimativa a partir de dados de satélites requer uma integração tanto no espectro
quanto em todas as direções para se tornar uma estimativa hemisférica.

4.1 ESPALHAMENTO OU DISPERSÃO

A energia solar incidente na atmosfera ao interagir com esta irá gerar um


campo de luz difusa que se propagará em todas as direções.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 16

O espalhamento depende do comprimento de onda () e do diâmetro dos


constituintes da atmosfera ().

ESPALHAMENTO DE RAYLEIGH - Produzido pela porção gasosa da atmosfera. O


diâmetro das moléculas espalhadoras () é pequeno e muito menor do que os
comprimentos de onda da radiação espalhada:

 << 

A intensidade (I) de espalhamento é proporcional ao inverso da quarta potência


do comprimento de onda (I1/4). Assim, quanto menor o comprimento de onda maior
o espalhamento (Figura 7). Isso explica a cor azul do céu.

Figura 7. Espalhamento Rayleigh em função do comprimento de onda. Fonte:


Jensen (2000).

Este espalhamento provoca perda do contraste na imagem orbital e na


fotografia aérea, principalmente para comprimentos de ondas menores. O principal
fator nesse espalhamento é a latitude, a qual afeta a espessura da atmosfera, além
do ângulo de incidência e de espalhamento, uma vez que estes afetam o caminho
óptico percorrido pela radiação através da atmosfera.

ESPALHAMENTO MIE – Neste caso o diâmetro das partículas é da mesma ordem


do comprimento de onda:


Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 17

Ocorre para as partículas sólidas suspensas na atmosfera, chamadas


aerossóis. Na maioria dos casos ocorre na primeira camada da atmosfera onde estas
partículas estão em maior quantidade, principalmente em grandes centros urbanos e
em áreas rurais onde ocorrem queimadas. É mais significativo na época da seca
quando não chove muito, pois as chuvas “varrem” grande parte dos aerossóis da
atmosfera.

ESPALHAMENTO NÃO SELETIVO – Espalha todos os comprimentos de onda na


mesma intensidade:

 >> 

O espalhamento não seletivo é causado principalmente por gotículas de água


na atmosfera. É o tipo de espalhamento que ocorre em nevoeiros e em nuvens.

4.2 ABSORÇÃO

A absorção é causada principalmente pelos componentes moleculares


existentes na atmosfera: O2, O3, H2, H2O, CO2, CH4. Atuam sobre a REM de forma
diferente para as diversas regiões do espectro.

No UV e visível o O3 é o principal fator enquanto que no infravermelho o


principal fator é a água em forma gasosa e dispersa na atmosfera. Um mesmo
componente atmosférico pode absorver radiação em diversas regiões do espectro
EM.

Janelas atmosféricas: são faixas do espectro que não são severamente afetadas
pela absorção da radiação eletromagnética pela atmosfera. Os sensores são
desenhados de modo que as bandas espectrais estejam dentro das janelas
atmosféricas (Figura 8). Uma banda espectral que estivesse fora de uma janela
atmosférica não receberia radiação suficiente para ser gravada e só faria sentido
colocar uma banda espectral em um sensor se esta tivesse por objetivo estudar a
atmosfera.

Figura 8. Localização das bandas de dois sensores dentro das janelas atmosféricas.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 18

4.3 EMISSÃO

O enunciado da lei de Kirchhoff para os gases é: "Todo gás que absorve


radiação de um certo comprimento de onda emite radiações no mesmo comprimento
de onda". Esta lei é válida para objetos em equilíbrio térmico com o ambiente em que
se encontram. O resultado é que a atmosfera emite radiação conforme previsto pela
lei de Stefan-Boltzmann e emite na mesma intensidade de um corpo negro entre 200
e 300 K, dependendo da temperatura em que se encontra.

A emissão de radiação é importante quando se trabalha com bandas na faixa


do infravermelho termal. Neste caso, para se obter a temperatura da superfície é
necessário realizar a correção para a emissão da atmosfera.

4.4 TRANSMISSÃO

A parte da radiação que não é absorvida nem espalhada transmite através da


atmosfera (Figura 9). No caso da radiação refletida pela superfície na direção ao
sensor, a fração transmitida é a parte que leva as informações da superfície ao sensor
e que são gravadas na imagem. A eliminação dos efeitos da absorção e
espalhamento se dá através da correção atmosférica, a ser discutida na parte I deste
material. A correção atmosférica bem como a consideração das condições de
iluminação (Lei de Lambert e do inverso do quadrado da distância) são essenciais
para a obtenção de informações confiáveis da superfície uma vez que estes fatores
levam a uma variação ao longo do tempo nas condições de iluminação e visada do
alvo.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 19

Figura 9. Transmissão da radiação através da atmosfera.

5. INTERAÇÕES DA RADIAÇÃO ELETROMAGNÉTICA COM A SUPERFÍCIE


(RESPOSTA ESPECTRAL OU REFLECTÂNCIA ESPECTRAL)

5.1 DEFINIÇÕES

Curva de resposta espectral: é a curva de reflectância do alvo em questão por


comprimento de onda. Normalmente é medida em experimentos de campo ou
laboratório utilizando equipamentos chamados espectrorradiômetro, ou seja,
radiômetros com bandas espectrais finas, normalmente de 10 nanômetros (nm), que
equivale a 0,01 μm.

Irradiância: energia incidente sobre uma superfície, em Watts por metro quadrado
(Wm-2). Observe que a lei do cosseno de Lambert afeta a irradiância, dependendo
do ângulo de incidência.

Radiância: Energia incidente por área e por ângulo sólido (Wm -2 sr-1), sendo sr a
unidade de ângulo sólido, chamada de esferoradiano.

Da energia total incidente em uma superfície (Ei), parte é refletida (Er), parte
é transmitida (Et) e parte é absorvida (Ea):

Ei  = Er + Et  + Ea 
Na fórmula acima a letra grega lambda (λ) se refere ao comprimento de onda.
Considerando cada componente acima como uma fração em relação à radiação
incidente, temos:

Ei Er Et  Ea


= + + = 1 =   +   +  
Ei Ei Ei Ei

Onde   é a reflectância do objeto,   é a transmitância do objeto e   é a


absorbância do objeto, para um dado comprimento de onda.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 20

Em Sensoriamento Remoto a energia de interesse é a refletida uma vez que


essa é a que chega ao sensor. A reflectância é dada pela relação entre energia
refletida e energia incidente:

Er
 =
Ei 

Os tipos de reflexão possíveis para um fluxo de radiação incidente sobre uma


superfície são:
• Reflexão especular ideal: a superfície reflete como um espelho toda a radiação
incidente. Para uma superfície horizontal o ângulo de reflexão é igual ao ângulo
de incidência;
• Reflexão especular quase perfeita: para uma superfície horizontal o ângulo de
reflexão é igual ao ângulo de incidência, mas a quantidade refletida é menor
do que 100%. Exemplo: superfície de água;
• Reflexão difusa quase perfeita: A reflexão ocorre em todas as direções, mas
nem todo o fluxo incidente é refletido e a intensidade pode variar de acordo
com a direção de reflexão;
• Reflexão difusa ideal (superfície Lambertiana): A reflexão ocorre para todo o
fluxo incidente e a intensidade é a mesma em todas as direções. Exemplo:
Padrões utilizados na calibração de radiômetros, como o sulfato de bário e o
spectralon.

5.2 RESPOSTA ESPECTRAL DA ÁGUA

As moléculas de água causam um aumento da absorção espectral da radiação


a partir da faixa espectral do azul (Figura 10). Assim, a reflectância espectral da água
em 0,4 μm decresce até atingir valores próximos de zero no infravermelho próximo e
mantendo-se em torno de zero a partir daí. Esta baixa reflectância limita o estudo das
características espectrais da água na região do visível e impossibilita no infravermelho
próximo. Na região do visível a faixa mais adequada para o estudo da água é o azul.
Aplicações comuns são: detecção de concentração de clorofila, batimetria, detecção
de poluentes e sedimentos.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 21

Figura 10. Espectro de absorção da água.

MATÉRIA ORGÂNICA: O aumento da concentração de matéria orgânica decomposta


resulta na diminuição da reflectância em toda a faixa do visível.

MATERIAL PARTICULADO INORGÂNICO EM SUSPENSÃO: Estes são


provenientes de materiais carreados de solos e rochas. A alteração da reflectância da
água vai depender da reflectância do material e da concentração.

Um exemplo típico é a diferença de resposta entre o Rio Negro e o Solimões,


no estado do Amazonas. A junção dos dois rios nas imediações de Manaus é bem
vista nas imagens de satélites daquela área.

A presença de algas é também um fator que altera a reflectância da água, conforme


pode ser visto na Figura 11.

Figura 11. Reflectância da água limpa e água com algas.


Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 22

5.3 RESPOSTA ESPECTRAL DOS SOLOS

De um modo em geral, a reflectância dos solos aumenta com o aumento do


comprimento de onda na faixa do visível até o infravermelho próximo, com a
diminuição em duas bandas de absorção de água bastante pronunciadas no
infravermelho médio em torno de 1,4 μm e em 1,9 μm. No entanto, há uma variação
entre os diferentes tipos de solos devido a variações nos fatores que afetam a sua
reflectância. A reflectância dos solos é de grande importância porque afeta a
reflectância da vegetação e pode ser utilizado como um parâmetro auxiliar para os
estudos dos solos, principalmente através de amostras com reflectância de solo seco
em estufa. No entanto, as imagens de satélites mostram a reflectância apenas do
horizonte superficial (Figura 12) que podem não representar bem a reflectância de
horizonte como o B por exemplo.

Figura 12. Perfil hipotético de um solo.

Os seguintes fatores afetam a reflectância espectral dos solos:

TEXTURA: Solos de textura mais fina formam uma superfície mais lisa e mais
reflexiva por formarem menos sombras. Além disso, em um experimento com o
aumento o diâmetro das partículas de 0,022 para 2,65 mm (de argila para silte) houve
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 23

um aumento de 14% na absorção da radiação incidente. A Figura 13 mostra o


exemplo de reflectância de dois solos com texturas diferentes.

Figura 13. Resposta espectral de um solo siltoso e um arenoso.

UMIDADE: Na faixa do visível os solos aparecem mais escuros quando úmidos do


que quando secos, em consequência da diminuição da reflectância. Esta diminuição
na reflectância com o aumento da umidade ocorre ao longo de todo o espectro. Assim,
independente da textura, quanto mais úmido o solo menor é a reflectância (Figura
14).
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 24

60 Sand 0 – 4% moisture content


50

Percent Reflectance
40
30 5 – 12%
20 22 – 32%
10
0
0.5 0.7 0.9 1.1 1.3 1.5 1.7 1.9 2.1 2.3 2.5
a.
60 Clay
50
Percent Reflectance

2 – 6%
40
30
20
35 – 40%
10
0
0.5 0.7 0.9 1.1 1.3 1.5 1.7 1.9 2.1 2.3 2.5
b. Wavelength (m)

Figura 14. Resposta espectral de um solo em função do conteúdo de umidade.

MATÉRIA ORGÂNICA: Em proporções abaixo de 2% a matéria orgânica tem um


efeito pouco pronunciado na reflectância do solo, não mascarando os efeitos dos
constituintes do solo. Acima deste percentual a matéria orgânica altera as
propriedades espectrais dos solos, causando uma diminuição da reflectância do solo
com o aumento do teor de matéria orgânica.

ÓXIDOS DE FERRO: Em geral, quanto maior a concentração de óxidos de ferro


menor é a reflectância dos solos, conforme o exemplo da curva c da Figura 15.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 25

Figura 15. Assinaturas espectrais representativas de horizonte superficial de solos:


(a) forma dominada pela matéria orgânica; (b) forma minimamente alterada; (c) forma
afetada pelo ferro; (d) forma afetada pela matéria orgânica; (e) forma dominada pelo
ferro. Fonte: Stoner e Baungardner (1981).

A reflectância espectral tem sido utilizada para estudos das características


físico-químicas deste, sendo pesquisada até mesmo a classificação dos solos através
da reflectância espectral. No entanto, alguns fatores limitam essa aplicação: Na
maioria dos casos os solos estão cobertos por vegetação, o horizonte superior dos
solos normalmente tem mais de 2% de matéria orgânica, o efeito atmosférico mascara
pequenas diferenças na reflectância dos solos, a maioria dos sensores tem bandas
largas demais para estudos dos solos e o horizonte de maior interesse para estudos
é o B, que está abaixo da superfície e que, portanto não é imageado pelo sensor.

Em estudos de laboratórios a utilização de reflectância espectral nos estudos


de solos são bem mais promissores. Pequenas bandas de absorção têm sido
utilizadas nesse sentido, sendo para isso necessário a utilização de bandas bem finas
e equipamento bem calibrado, pois as bandas são difíceis de serem detectadas. As
regiões do espectro eletromagnético mais adequadas ao estudo de propriedades
físico-químicas dos solos são:

• 0,57 m – estudo do conteúdo de matéria orgânica em solos;


• 0,7 a 0,9 m – estudos de conteúdo dos compostos de Fe +3;
• 1,0 m – estudos de conteúdo dos compostos de Fe+2;
• 2,2 m – estudo de umidade do solo.

5.4 RESPOSTA ESPECTRAL DAS SUPERFÍCIES CONSTRUÍDAS


(CONCRETO, ASFALTO, TELHADOS, ETC.)

A resposta espectral dos alvos construídos depende do tipo de material, do


tempo de exposição da superfície às intempéries do tempo e à deposição de algum
tipo de material sobre a superfície (poeira ou poluição, por exemplo). Por exemplo,
um asfalto é escuro quando novo e á medida que o tempo passa vai se tornando mais
claro. Ainda no caso do asfalto, apesar de escuro na região do visível, a reflectância
aumenta do visível para o infravermelho próximo (Figura 16).

No caso de telhados, estes dependem do tipo de material utilizado. Telhas de


barro tendem a terem uma resposta próxima do tipo de solo utilizado para a sua
fabricação.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 26

Figura 16. Resposta espectral de alvos construídos em relação à resposta espectral


de alvos naturais.

5.5 RESPOSTA ESPECTRAL DA VEGETAÇÃO

A resposta espectral de uma folha de vegetação pode ser dividida em 3 regiões


características: Visível (faixa fotossinteticamente ativa), infravermelho próximo e
infravermelho médio (também chamado de infravermelho de ondas curtas).

De 0,400 a 0,700 m (Visível)

Esta faixa consiste na faixa fotossinteticamente ativa para as plantas e coincide


com a faixa visível do espectro. A radiação que compõe a luz visível e que é mais
eficiente para a fotossíntese está compreendida na faixa do azul (0,400 a 0,500 m)
e vermelho (0,600 a 0,700 m). A faixa do visível que corresponde ao verde (0,500 a
0,600 m) é menos utilizada para a fotossíntese.

Os principais pigmentos responsáveis pela absorção são:

Clorofila, Carotenóides, Xantofilas e Antocianinas.

De 0,700 a 1,300 m (Infravermelho próximo)

Nesta faixa ocorre uma baixa absorção da radiação e a resposta espectral da


vegetação é normalmente alta comparada com a resposta na faixa do visível. A
reflexão é principalmente influenciada pela estrutura celular das folhas, onde ocorre
uma grande quantidade de interfaces entre ar e água. Nessas interfaces ocorrem a
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 27

mudança de direção do fluxo devido à diferença de índice de refração entre ar e água.


Assim, quanto maior a área total de interface paredes celulares/ar maior a reflexão.
Índice de refração do ar: 1,00
Índice de refração das paredes celulares hidratadas: 1,42

Ao incidir na folha a radiação é difundida e espalhada através da cutícula e


epiderme para o mesófilo celular e cavidades de ar no interior da folha (Figura 17).

Figura 17. Múltiplos espalhamentos em uma folha devido às diferenças de índice de


refração entre ar e água. Fonte: Gates et al. (1965).

A radiação é espalhada e passa por múltiplas reflexões e refrações e


aproximadamente metade da radiação sai pela superfície superior da folha (face
adaxial) e metade pela inferior (abaxial), uma vez que a absorção é muito baixa. Com
isso nesta faixa do espectro tanto reflectância como transmitância têm valores
próximos de 50%.

De 1,300 a 2,500 m (Infravermelho médio ou Infravermelho de ondas curtas)

Nessa faixa do espectro ocorre uma grande absorção da radiação pela água,
com bandas bem definidas em torno de 1,4 m e 1,9 m. Nesta faixa existe até
mesmo a possibilidade de se monitorar a vegetação quanto ao estresse hídrico, pois
com a perda de água ocorre um aumento da reflectância.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 28

A Figura 18 mostra a resposta espectral de uma folha nas três faixas


características de resposta espectral e a Figura 19 mostra a relação entre reflectância,
transmitância e absorbância.

Figura 18. Reflectância espectral de uma folha de vegetação verde e sadia e as


principais faixas do espectro com suas características de resposta espectral. Fonte:
Hoffer (1978).

Figura 19. Reflectância e transmitância de folhas. Fonte: Gausman et al. (1971).

Reflectância do dossel e efeito do Índice de Área Foliar (IAF) na resposta


espectral:
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 29

O dossel é a porção aérea das plantas onde estão distribuídas as folhas. O


principal fator que afeta a reflectância de um dossel é o IAF, definido como a área de
foliar de uma dada área dividido pela área do solo:

área de folhas (um lado)


IAF = (sem unidades).
área do solo

O empilhamento de folhas umas sobre as outras causa a possibilidade de


múltiplas reflexões e transmissões pelas folhas (exemplo na Figura 20). Assim, uma
pequena diminuição da reflectância na faixa do azul e vermelho, devido à alta
absorção da radiação pelos pigmentos (observe que nesta faixa a reflectância de
folhas verdes já é baixa). No infravermelho próximo até 1,300 m há um aumento da
reflectância até haver uma saturação para um número acima de 5 ou 6 folhas. Além
de 1,300 m a absorção pela água tem grande influência sobre a reflectância. No
caso de dosséis de culturas ou vegetação natural o efeito de múltiplos espalhamentos
(reflectância e transmitância) ocorre, mesmo estando as folhas aleatoriamente
distribuídas no espaço, sendo a reflectância das folhas e o IAF os principais
responsáveis pelas características da reflectância do dossel de vegetação.

Figura 20. Efeito do empilhamento de folhas e consequentemente do IAF na


reflectância de um dossel. Fonte: Jensen (2000).

A reflectância do sistema solo e vegetação é influenciada pelos seguintes


fatores:
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 30

Resposta espectral das folhas;


Índice de área foliar;
Reflectância do solo;
Ângulo de iluminação (solar);
Ângulo de observação pelo sensor;
Distribuição espacial e angular das folhas;
Percentagem de fluxo de iluminação difuso.

6. SISTEMAS SENSORES NÃO-FOTOGRÁFICOS (SCANNERS, CCDs E


ANTENAS)

6.1 CLASSIFICAÇÃO DOS SENSORES

Os sensores remotos são equipamentos com capacidade para obter dados da


superfície à distância a partir de uma plataforma. No caso específico dos sensores
imageadores os dados obtidos da superfície correspondem a imagens que contêm
medidas da radiação eletromagnética. Neste caso a amostragem da superfície ocorre
com espaçamento fixo e os dados são normalmente gravados em meio digital,
embora nas fotografias aéreas filmes são ainda utilizados para gramar as imagens da
superfície.

A plataforma diz respeito ao satélite ou outro aparelho que leva o sensor e que
dá condições para realizar o imageamento. A plataforma pode ser orbital (satélite),
aérea (drone ou vant (UAV), avião, helicóptero, balão, dirigível e girocóptero) ou
terrestre (imagem feita da superfície). As plataformas orbitais mais novas são do tipo
multimissão, ou seja, levam mais de um sensor com diferentes objetivos.

As imagens digitais coletadas por sensores remotos são formadas por matrizes
de linhas e colunas sendo que cada elemento (chamado pixel) corresponde a uma
determinada área da superfície terrestre. Estas imagens podem ser constituídas de
apenas uma banda espectral ou podem ser constituídas por mais de uma banda
espectral.

Os sensores podem ser classificados como:

Quanto à plataforma:
Orbital (satélite);
Aérea;
Terrestre.

Quanto ao meio de gravação da quantidade de energia recebida:


Analógico (filmes);
Digital.

Quanto ao meio de detecção da energia:


Fotográfico (filmes);
Não fotográfico (eletrônico).

Quanto ao sistema de varredura:


Varredura lateral perpendicular à órbita ou linha de voo ("whiskbroom");
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 31

Varredura longitudinal à órbita ou linha de voo ("pushbroom").

Quanto ao sistema de captação das ondas eletromagnéticas:


Óptico (as ondas passam por lentes e/ou espelhos);
Antenas (microondas e ondas de rádio, exemplo: Radar).

Quanto à fonte de radiação (Figura 21):


Ativo (Radar e laser-scanner);
Passivo (a fonte de radiação é o Sol na faixa do visível até o
infravermelho médio ou a superfície no infravermelho termal).

A Figura 21 abaixo mostra exemplos de diferentes sensores quanto à fonte de


radiação.

Figura 21. Tipos de sensores quanto à fonte de radiação. Fonte: Wageningen UR


(1999).

6.2 PRINCIPAIS TIPOS DE SENSORES

Os sensores são constituídos por detectores de radiação, os quais geram um


sinal elétrico (uma voltagem) o qual é medido e quantizado em um número inteiro. Os
detectores são feitos de materiais em que ocorre o deslocamento de elétrons quando
são atingidos pela radiação, o que causa a voltagem (geralmente da ordem de
milivolts).

Os principais tipos de sensores são:

• SENSORES ÓPTICOS
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 32

São sensores que têm sistemas de varredura da cena na terra e que utilizam
o espectro óptico, ou seja, do visível ao infravermelho termal. Por serem óticos os
feixes de radiação são direcionados aos detectores através de lentes e espelhos.
Estes podem ser do tipo Whiskbroom ou Pushbroom. Como exemplos de
Whiskbroom temos os sensores TM do Landsat 5 e o ETM+ do Landsat 7. A vantagem
do ponto de vista de engenharia do Whiskbroom é que a quantidade de detectores
(elementos que detectam a anergia) é muito menor. Por outro lado, problemas
geométricos nas imagens são mais comuns devido a falhas no sistema ou mesmo
devido à incorreta correção geométrica dos dados. Um bom exemplo do Pushbroom
é o sensor OLI do satélite Landsat 8. Neste caso a parte óptica é mais simplificada,
levando a menos distorções geométricas causadas pela junção das varreduras, mas
requer uma quantidade de detectores muito maior.

A grande maioria dos sensores óticos usam os CCDs ("Charge Couple Device",
em português dispositivo de carga acoplada). A tecnologia dos CMOS
(Complementary metal–oxide–semiconductor, em português semicondutor metal-
óxido complementar) apareceu recentemente como opção para substituir os CCDs,
mas para a maioria dos sensores que vão além do visível os CCDs ainda são os mais
utilizados.

• SENSORES DE MICRO-ONDAS ATIVOS (RADAR)

RADAR (RAdio Detection And Ranging) é um tipo de sensor que usa os


comprimentos de onda na faixa de micro-ondas. O RADAR é do tipo ativo pois emite
um feixe de ondas eletromagnéticas em direção à superfície e mede a intensidade
das ondas que retornaram em direção ao sensor. Existem também sensores de micro-
ondas passivos, mas neste caso não são chamados de RADAR, pois utilizam as
ondas eletromagnéticas na faixa das micro-ondas emitidas pela superfície e
atmosfera. No geral o RADAR é sensível à rugosidade da superfície, e a quantidade
de sinal que retorna ao sensor depende das características da superfície como a
rugosidade e a constante dielétrica da superfície. Depende também da banda
utilizada (frequência ou comprimento de ondas) e da polarização de emissão e
recepção do sinal.

6.3 CARACTERÍSTICAS DAS IMAGENS DE SENSORIAMENTO REMOTO

As imagens de sensoriamento remoto são caracterizadas principalmente pelas


resoluções: espectral, radiométrica, temporal e espacial.

• RESOLUÇÃO ESPECTRAL

Caracteriza o número de bandas espectrais, a largura destas bandas e a


faixa espectral em que estas bandas se localizam. Sensores de resolução
espectral fina têm bandas bem estreitas, da ordem de 10 nm (0,01 m) ou até menos.
No geral as bandas dos sensores são definidas dentro de regiões do espectro onde
os alvos para os quais o sensor foi desenhado têm uma resposta espectral
característica e diferenciada. Exemplo de sensor de banda larga é o ETM+ do satélite
Landsat 7, cujas bandas têm larguras que vão de 65 nm (0,065 m) na faixa do azul
a 2100 nm (2,1 m) de largura na banda no infravermelho termal.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 33

A resolução espectral é definida pela faixa de comprimentos de onda onde o


sensor tem sensitividade acima de 50% (Figura 22).

Figura 22. Resposta espectral da banda 2 nos sensores do Landsat 4, 5 e 7.

No caso do sensor aerotransportado AVIRIS a resolução espectral é fina, tendo


224 bandas (Figura 23), sendo portanto chamado de sensor hiperespectral. Sensores
hiperespectrais a nível de satélite têm sido lançados e também planejados para
futuras missões de Sensoriamento Remoto.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 34

Figura 23. Imagem do sensor AVIRIS em que o eixo Z representa as bandas


espectrais. Fonte: JPL (2011), AVIRIS Moffet Field Image Cube (site acessado em
18/05/2011).

• RESOLUÇÃO RADIOMÉTRICA

Diz respeito ao número de bits que é utilizado para a quantização dos


sinais elétricos (voltagem ou corrente elétrica) gerados pelos sensores não-
fotográficos. O número de bits fornece o número de níveis de cinza (NC) de uma
imagem, que é dado por:

NC = 2n

Onde n é o número de bits de quantização da imagem.

Por exemplo, os dados do sensor TM são gravados em 8 bits, ou seja, 256


níveis de cinza que vão de 0 a 255. Em alguns sensores os dados são gravados com
10, 12 ou mais bits. No caso do sensor WFI do satélite CBERS 4 e 4A a resolução
radiométrica é de 10 bits, daí as imagens são armazenados em 1024 níveis de cinza
de 0 a 1023. Neste caso as imagens são gravadas em 16 bits porque os softwares de
tratamento de imagens lês apenas em múltiplos de 8 bits. Em um sensor de 10 bits
devidamente calibrado uma reflectância planetária (sinal da superfície e da atmosfera)
de 50% seria representada por um número digital 511, uma reflectância planetária de
10% seria representada por um número digital 101 e uma reflectância de 100% seria
representada por um número digital de 1023.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 35

Apenas como ilustração, uma imagem gravada em apenas um bit teria apenas
dois níveis de cinza: preto e branco. Para um sensor de 6 bits (64 níveis de cinza) o
salto de um nível de cinza representa um acréscimo de 1,563% na reflectância. Para
um sensor de 10 bits (1024 níveis de cinza) o salto de um nível de cinza corresponde
a um acréscimo de 0,098% na reflectância, ou seja, 1% de reflectância seria
subdividido em 10 níveis de cinza. A Figura 23 mostra a mesma imagem em que
aparece a UFRRJ em 8 bits e em 1 bit.

Figura 24. Imagem da UFRRJ em torno do prédio P1 tomada pelo sensor ETM+ na
banda 8 em 8 bits e reduzido para 1 bit apenas como exemplo.

• RESOLUÇÃO ESPACIAL

A resolução espacial diz respeito à área que cada pixel corresponde na


superfície. Assim a resolução espacial define a área que o pixel equivale na
superfície, definida pelo GIFOV (Ground Instantaneous Field Of View, ou campo de
visada instantâneo na superfície, Figura 25). No entanto por simplificação é
comumente considerada como o espaçamento entre os pixels na imagem. Por
exemplo, no caso das bandas 1 a 5 e 7 do sensor TM cada pixel equivale a 30m x
30m na superfície, correspondente ao espaçamento entre pixels. A Figura 26 mostra
o prédio principal da UFRRJ com resolução de 30 m e 1 m.

Três termos importantes relacionados com a resolução espacial são: 1) a


Função de Espalhamento do Ponto; 2) a frequência de Nyquist; e 3) a escala de
trabalho.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 36

Figura 25. Campo de visada instantâneo na superfície – GIFOV. Fonte:


Schowengerdt (1997).

Figura 26. Prédio principal da UFRRJ (P1) na imagem do sensor ETM+ do Landsat
7 (30 m) e do sensor Ikonos II (1 m).

Função de Espalhamento do Ponto (Point Spread Function-PSF)

A área realmente amostrada pelo sensor define a PSF (Figura 27). É definida
pelo sistema ótico do sensor e afetada pela atmosfera e compreende a área onde a
resposta do detector é acima de 50%. Uma PSF que defina uma área amostrada
muito maior do que o espaçamento dos pixels (muito maior do que o tamanho de
pixel) diminui o contraste entre alvos vizinhos, especialmente nas bordas, dificultando
a identificação destes alvos.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 37

Figura 27. Função de espalhamento do ponto (PSF) ideal e real para o sensor
MODIS a bordo do satélite Terra. A resolução divulgada pela NASA para o sensor
MODIS é de 250 metros.

Frequência de Nyquist

A frequência máxima no domínio espacial que se obtém de uma imagem é


chamada frequência de Nyquist e equivale à metade da frequência de amostragem
dos dados. A frequência de amostragem está relacionada ao tamanho do pixel na
superfície. Por exemplo, na imagem MODIS a frequência de amostragem no domínio
espacial é de 1/256,5 m-1. Deste modo, a frequência máxima que pode ser
representada com esta imagem é de 1/513 m -1. Isto significa que na interpretação da
imagem a dimensão mínima de objeto identificável é de 513 metros. Como a
resolução espacial nominal do MODIS é 250 m, isso faz com que a área mínima
detectável seja de 500m x 500m = 250000 m 2 = 25ha.

• RESOLUÇÃO TEMPORAL

É o tempo que leva para um sensor repetir a mesma cena. Por exemplo,
para o sensor do satélite Landsat 7 este tempo é de 16 dias. Em alguns sensores o
satélite leva 16 dias ou mais para passar sobre uma mesma órbita, mas o tempo
necessário para repetir uma mesma cena é bem menor devido à capacidade de
visada lateral.

Para entender a resolução temporal, tomemos o exemplo do sensor TM do


Landsat 5. As Figuras 28 a 32 mostram a órbita do satélite Landsat 5, o esquema de
varredura em órbita e as órbitas de um mesmo dia e de diferentes dias. Estas figuras
ilustram como é definida a resolução temporal do Landsat, o qual tem uma faixa de
imageamento de 185 km e distância de 2752 km entre órbitas. Como não tem a
possibilidade de visada lateral a resolução temporal é fixa e de 16 dias. Para melhorar
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 38

a resolução temporal alguns sistemas sensores lançam mão da visada lateral,


possibilitando assim obter imagens em um menor intervalo de tempo.

Um caso interessante é o do RapidEye, que melhorou drasticamente a


capacidade de obter imagens da mesma cena em curto espaço de tempo através do
lançamento de 5 satélites em mesma órbita e espaçados no tempo e com o mesmo
sistema sensor.

Figura 28. Órbita dos satélites Landsat 4 e 5. Fonte: Lillesand e Kiefer (1987).
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 39

Figura 29. Obtenção da imagem pelo sensor TM através da varredura perpendicular


à órbita. Fonte: American Society of Photogrammetry (1983).

Figura 30. Conjunto de órbitas de um dia. Fonte: Lillesand e Kiefer (1987).


Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 40

Figura 31. Faixas da superfície cobertas pelas órbitas de um dia. Lillesand e Kiefer
(1987).

Figura 32. Faixas cobertas durante o período de 16 dias. Lillesand e Kiefer (1987).
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 41

A resolução espacial e a resolução temporal competem entre si, ou seja, no


geral uma melhor resolução temporal quase sempre implica em resolução espacial
pior e vice versa. Como exemplo, O ETM+ do satélite Landsat 7 tem resolução
espacial de 30 metros nas bandas multiespectrais e resolução temporal de 16 dias,
enquanto que o sensor AVHRR do satélite NOAA tem resolução temporal de menos
de 1 dia mas resolução espacial de 1,1 km. Isso ocorre porque para o sensor AVHRR
do satélite NOAA ter resolução temporal alta é necessário ter uma larga faixa na
superfície imageada pelo sensor, que é de 2800 km, em contraste com a faixa de 185
km do sensor ETM+ do Landsat 7.

6.4 EXEMPLOS DE SISTEMAS SENSORES

Aqui são descritas algumas características de sistemas sensores. Par mais


sensores, visite o sítio da EMBRAPA monitoramento por satélites:
http://www.sat.cnpm.embrapa.br/ .

Definições:
• Satélite: Plataforma orbital em que fica o sensor, os sistemas de controle, o
painel solar de alimentação e o sistema de transmissão dos dados. Pode
conter um ou mais sensores ou missões;
• Missão: Tipo de uso do satélite, por exemplo: comunicação, meteorológico,
sensoriamento remoto;
• Sensor: Carga útil do satélite quando o objetivo é medir algum parâmetro físico
da atmosfera ou da superfície;
• Programa: É o nome da série de satélites de uma empresa ou agência
espacial. Ex: Programa Landsat da NASA, Programa CBERS do Brasil e da
China, Programa SPOT, etc.

Exemplos:
• Programas e Satélites governamentais
➢ Landsat (NASA, EUA), SPOT (França), CBERS (Brasil-China), NOAA (EUA),
ERS (Agência Espacial Européia), Radarsat (Canadá), SAC-C (Argentina), IRS
(Índia);
• Programas e satélites comerciais:
➢ Ikonos, Quickbird, EROS, Orbview, EnviSat, Kampsat

As tabelas a seguir mostram as características dos principais sistemas sensores


disponíveis.

Sumário de missões do Landsat


Data de Condição atual (março/2007) ou data
Satélite Sensores
lançamento de término de operação
Landsat 1 23/07/1972 RBV, MSS 06/01/1978
Landsat 2 22/01/1975 RBV, MSS 25/02/1982
Landsat 3 05/03/1978 RBV, MSS 31/03/1983
Landsat 4 16/07/1982 MSS, TM Falhou após o lançamento
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 42

Landsat 5 01/03/1984 MSS, TM Desativado em 5/06/2013


Landsat 7 15/04/1999 ETM+ Falhou em março/2003
Landsat 8 11/02/2013 OLI, TIRS Em operação

Thematic Mapper (TM)


Bandas TM
Banda Resolução espectral (m) Resolução espacial
1 0,45 - 0,53 30 m
2 0,52 - 0,60 30 m
3 0,63 - 0,69 30 m
4 0,76 - 0,90 30 m
5 1,55 - 1,75 30 m
6 10,40 - 12,50 120 m
7 2,08 - 2,35 30 m
Especificações técnicas do TM
Tipo sensor ótico-mecânico
Resolução espacial 30-120 m
Faixa espectral 0,45-12,5 μm
Número de bandas 7
Resolução temporal 16 dias
Tamanho da imagem 185 x 172 km
Faixa imageada 185 km
Resolução radiométrica 8 bits
blank line

Enhanced Thematic Mapper + (ETM+) a bordo do satellite Landsat 7


Banda Resolução espectral (m) Resolução espacial
1 0,45 - 0,515 30 m
2 0,525 - 0,605 30 m
3 0,63 - 0,690 30 m
4 0,75 - 0,90 30 m
5 1,55 - 1,75 30 m
6 10,40 - 12,5 60 m
7 2,09 - 2,35 30 m
Pan 0,52 - 0,90 15 m

Informações adicionais:
Altitude: 705 km
Quantização: Melhores 8 de 9 bits
Inclinação: Heliossíncrona, 98,2 graus
Passagem pelo equador: Nodo descendente; 10:00 +/- 15 minutos
Lançamento: Abril de 1999

Exemplos de aplicações das bandas do sensor TM do satélite Landsat 5


Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 43

Faixa
Descriçã
Banda espectral Principais aplicações
o
(m)
Mapeamento de águas costeiras. Diferenciação entre
TM1 0,45-0,52 Azul
solo e água e entre coníferas e decíduas.
TM2 0,52-0,60 Verde Vigor das plantas verdes.
Vermelh Diferenciação de espécies vegetais. Absorção da
TM3 0,63-0,69
o clorofila.
IV Levantamento da fitomassa. Delineamento de corpos
TM4 0,76-0,90
próximo de água.
Medidas de umidade da vegetação. Diferenciação
TM5 1,55-1,75 IV médio
entre nuvens e neve.
TM6 10,74-12,5 IV termal Mapeamento hidrotermal.
TM7 2,08-2,35 IV médio Mapeamento de estresse hídrico em plantas

Comparação das características de resolução dos sistemas sensores Thematic


Mapper (TM), Haute Resolution Visible (HRV) e Advanced Very Resolution
Radiometer (AVHRR), a bordo dos satélites Landsat-5, SPOT e NOAA,
respectivamente.

TM HRV AVHRR

Resolução
16 dias 26 dias 2 vezes ao dia
temporal

Resolução 30 m 20 m (Banda1 a 3)
espacial 1,1 km (nominal)
120 m (Banda6) 10 m (Pan)
Resolução 8 bits (1-3)
radiométrica 8 bits 10 bits
6 bits (Pan)
Banda1 - 0,45-0,52
Banda2 - 0,52-0,60 Banda 1 - 0,58-0.68
Bandas Banda1 - 0,50-0,59
Banda3 - 0,63-0,69 Banda 2 - 0,725-1,1
espectrais Banda2 - 0,61-0,68
(Resolução Banda4 - 0,76-0,90 Banda3 - 0,79-0,89 Banda 3 - 3,55-3,93
espectral)(μm) Banda5 - 1,55-1,75 Banda 4 - 10,30-11,30
Pan - 0,51-0,73
Banda6 - 10,74-12,5 Banda 5 - 11,50-12,50
Banda7 - 2,08-2,35
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 44

SATÉLITE CBERS2 (China-Brazil Earth Resources Satellite / Satélite Sino-Brasileiro


de Recursos Terrestres)
Principais características do satélite:
Massa 1450 kg
Potência gerada 1.100 watts
Dimensões do painel solar 6,3 x 2,6m
Baterias 2 x 30 Ah NiCd
Dimensões do corpo 2,0m x 8,3m x 3,3m (em órbita)
Propulsão (hidrazina) 16 x 1N; 2 x 20N
Estabilizado em três eixos
Transmissão de dados em UHF e banda S
Tempo de vida 2 anos (confiabilidade de 0,6)
Parâmetros orbitais:
Altitude média 778 km
Inclinação 98,504 graus
Revoluções por dia 14 + 9/26
Período nodal 100,26 min.
Hora solar médio no nó
10h 30 min.
descendente no Equador
Frequência de revisita de um
26 dias
mesmo local
Parâmetros dos sensores imageadores:
Especificações CCD IR-MSS WFI
0,51 - 0,73
0,50 - 1,10
(pan)
(pan)
0,45 - 0,52 0,63 - 0,69
Bandas Espectrais (μm) 1,55 - 1,75
0,52 - 0,59 0,76 - 0,90
2,08 - 2,35
0,63 - 0,69
10,40 - 12,50
0,77 - 0,89
Campo de Visada 8,3º 8,8º 60º
Resolução Espacial (m) 20 80 (pan e IV) 260
Resolução Temporal (Nadir): 26 dias 26 dias 3 - 5 dias
Resolução Temporal (Fora
3 dias (+/- 32º) - -
do Nadir):
Largura da Faixa Imageada 113 km 120 km 890 km
Capacidade de Visada
+/- 32º - -
Lateral

IKONOS II (lançado em 24 de setembro de 1999)


Altitude 680 km
Inclinação 98,1º
Velocidade 7km / s
Duração da Órbita 98 minutos
Tipo de Órbita Heliossíncrona
Resolução Espacial Pancromática: 1m; Multiespectral: 4m
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 45

Bandas espectrais Pan 0,45 – 0,90 µm


Azul 0,45 – 0,52 µm
Verde 0,52 – 0,60 µm
Vermelho 0,63 – 0,69 µm
Infravermelho próximo 0,76 – 0,90 µm
Imageamento 13km na vertical (cenas de 13km x 13km)
Capacidade de Aquisição Faixas de 11km x 100km até 11km x
de imagens 1000km
Mosaicos de até 12.000km2
20.000km2 de área imageada numa
passagem
Frequência de Revisita 2,9 dias no modo Pancromático
1,5 dia no modo Multiespectral

Satélites EROS

Capacidade de Imageamento dos Satélites EROS:

Satélite EROS A* EROS B1 EROS B2 até B6

Faixa de 5 cenas de 4 cenas de 1 cena de


imageamento única (120X12,5 km) (305X16 km) (5300X16 km)

28 cenas de 40 cenas de 58 cenas de


Cenas
(12,5X12,5 km) (16X16 km) (16X16 km)

7 cenas de 12 cenas de 18 cenas de


Mosaicos
(25X25 km) (32X32 km) (32X32 km)

5 cenas de 2 cenas de 4 cenas de


Faixa Estéreo única
(40X12,5 km) (160X16 km) (530X16 km)

7 cenas de 5 cenas de 6 cenas de


Mosaico Estereo
(25X25 km) (48X48 km) (48X48 km)

Cenas em
10 cenas de 15 cenas de 20 cenas de
estereoscopia
(12,5X12,5 km) (16X16 km) (16X16 km)
(24 Graus)

EROS A1 - Em órbita desde 05-12-2000


EROS B1 - Final do Ano 2003
EROS B2 - Previsto para o Ano 2004
EROS B3 - Previsto para o Ano 2004
EROS B4 - Previsto para o Ano 2005
EROS B5 - Previsto para o Ano 2005
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 46

ORBVIEW-3
Modo de
Modo Pancromático Modo Multispectral
Imageamento
Resolução Espacial 1 metro 4 metros
Bandas Espectrais 1 banda 4 bandas
Faixas Espectrais 450-900 nm 0,450-0,520 μm
0,520-0,600 μm
0,625-0,695 μm
0,760-0,900 μm
Faixa de
8 km
Imageamento
Área de cada
Definida pelo cliente
Imagem
Frequência de
Inferior a 3 dias
revisita
Altitude de Órbita 470 km
Horário solar da
passagem pelo 10:30 da manhã
equador

QUICKBIRD

Data de lançamento Outubro de 2001


Altitude da órbita 450 km
Inclinação da órbita 98 graus, em sincronismo com o Sol
Velocidade 7.1 km / segundo
Horário de passagem 10:30 h
Duração da órbita 98 minutos
Tempo de vida útil No mínimo de 7 anos
1 a 3,5 dias, dependendo da latitude
Tempo de revisita
(30o off-nadir)
Largura do imageamento 16.5 km x 16.5 km, no nadir
Horizontal: 23 metros
Precisão métrica
Vertical: 17 metros
Digitalização 11 bits
Pan: 61 cm (nadir) a 72 cm (25o off-
nadir)
Resolução
Multiespectral: de 2,44 m (nadir) até
2,88 m (25o off-nadir)
Pancromática 450 - 900 μm
Azul: 450 - 520 μm
Bandas Verde: 520 - 600 μm
Vermelho: 630 - 690 μm
Infravermelho próximo: 760 - 900 nm
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 47

RESUMO DAS MISSÕES SPOT

Tamanho do pixel
Satélite Bandas espectrais Faixas espectrais
na superfície
Pancromático
2.5 m ou 5 m 0.48 - 0.71 µm
B1: verde
10 m 0.50 - 0.59 µm
B2: vermelho
Spot 5 10 m 0.61 - 0.68 µm
B3: Infravermelho próximo
10 m 0.78 - 0.89 µm
B4: Infravermelho
20 m 1.58 - 1.75 µm
médio(SWIR)
Monoespectral
(Pancromático) 10 m 0.61 - 0.68 µm
B1: verde 20 m 0.50 - 0.59 µm
Spot 4 B2: vermelho 20 m 0.61 - 0.68 µm
B3: Infravermelho próximo 20 m 0.78 - 0.89 µm
B4: Infravermelho 20 m 1.58 - 1.75 µm
médio(SWIR)
Pancromático 10 m 0.50 - 0.73 µm
Spot 3
B1: verde 20 m 0.50 - 0.59 µm
Spot 2
B2: vermelho 20 m 0.61 - 0.68 µm
Spot 1
B3: Infravermelho próximo 20 m 0.78 - 0.89 µm

SPOT 5 SPOT 4 SPOT 1, 2 e 3


1 de Fev. / 1986
Data de lançamento Maio de 2002 Março de 1998 2 de Jan. / 1990
3 de Set. / 1993
Hora de passagem
pelo Equador em
10:30 10:30 10:30
hora local ( nodo
descendente)
Altitude no Equador 822 km 822 km 822 km
Inclinação 98,7° 98,7° 98,7°
Ciclo orbital
(resolução temporal
26 dias 26 dias 26 dias
sema avisada
lateral)
Resolução
8 bits 8 bits 8 bits
radiométrica
Permite
sim sim sim
programação
Ângulo de visada ±31,06° ±31,06° ±31,06°
Intervalo de revisita
(dependendo da
1 a 4 dias 1 a 4 dias 1 a 4 dias
latitude com a
visada lateral)
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 48

Instrumentos Estereoscópicos do SPOT

SPOT 5 SPOT 4 SPOT 1, 2 e 3


HRV
HRS HRG HRVIR
Visada
Visada estéreo Visada estéreo Visada estéreo
Instrumento estéreo
ao longo da perpendicular à perpendicular à
perpendicular
órbita órbita órbita
à órbita
- 2 pancromática
-1
-1 (5m),
pancromática
pancromática combinadas to 1
(10 m)
(10 m ao longo gerar um produto pancromática
Bandas -3
da órbita de 2,5m (10m)
espectrais e multiespectral
reamostrada a - 3 multiespectral 3
resolução (20 m)
cada 5m) e 5 m (10m) multiespectral
- 1 no
perpendicular à - 1 no (20m)
infravermelho
órbita infravermelho
médio (20m)
médio (20m)
Faixa de
600 km x 120 60 km x 60 km a 60 km x 60 a 80 60 km x 60
imageament
km 80 km km km a 80 km
o

Sensor “VEGETATION” do programa SPOT


SPOT 5 SPOT 4 SPOT 1, 2 e 3
Instrumento VEGETATION 2 VEGETATION 1 -
B0: 0,45 - 0,52
µm
B0: 0,45 - 0,52 µm B2: 0,61 - 0,68
B2: 0,61 - 0,68 µm µm
Bandas espectrais -
B3: 0,78 - 0,89 µm B3: 0,78 - 0,89
B4: 1,58 - 1,75 µm µm
B4: 1,58 - 1,75
µm
Resolução 1000 m 1000 m -
Largura da faixa de
2250 km 2250 km -
imageamento
Resolução
10 bits 10 bits -
radiométrica
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 49

Intervalo de revisita 1 dia 1 dia -

WORLDVIEW-2 (DigitalGlobe)
Lançamento: 8 de outubro de 2009

Órbita:
Altitude: 770 quilômetros
Tipo: Heliossíncrona, passando pelo equador às 10:30 no nodo descendente
Período: 100 minutos

Resolução Espectral:
Pancromática: 450 - 800 nm
Multiespectrais (8 bandas):
Coastal: 400 - 450 nm
Blue: 450 - 510 nm
Green: 510 - 580 nm
Yellow: 585 - 625 nm
Red: 630 - 690 nm
Red Edge: 705 - 745 nm
Near-IR1: 770 - 895 nm
Near-IR2: 860 - 1040 nm

Resolução Espacial:
Pancromática: 0,46 metros GSD no nadir, 0,52 metros 20° fora do nadir
Multiespectral: 1,84 metros GSD no nadir, 2,08 metros GSD a 20° fora do nadir

Resolução radiométrica (Dynamic Range)


11-bits per pixel

Largura da faixa de imageamento (Swath Width):


16,4 quilômetros no nadir

Resolução temporal (Revisit Frequency):


1,1 dias a 1 meter GSD de resolução especial ou menos
3,7 days a 20° for a do nadir ou menos (0,52 metros GSD)

Há uma tendência para que as plataformas sejam multi-missão, servindo para


comunicações, meteorologia e para o monitoramento de recursos naturais. Além
disso, os satélites hoje são na maioria das vezes equipados com muitos sensores,
cada um voltado para uma aplicação específica. A maioria dos programas espaciais
estão tendendo para as resoluções espaciais mais finas e com imagens de pequena
extensão e com preço elevado das imagens.

Alguns fatores a serem considerados na hora da compra das imagens:

A) Qual a necessidade de resolução espacial, o que vai depender da escala


do trabalho. Por exemplo, uma imagem de resolução espacial de 30 metros
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 50

vai ser impressa com 300 dpi em uma escala de 1/354330, E={0,0254 m /
(300 x 30 m)};
B) Disponibilidade da imagem: Alguns satélites têm que ser programados para
coletarem as imagens. Em algumas regiões do Brasil isto pode levar meses
para conseguir devido à cobertura de nuvens. A visada lateral aumenta a
chance de obter imagens sem nuvens;
C) Número de bandas e faixa espectral: Vai depender dos alvos a serem
identificados. A maioria dos sensores tem bandas no visível e infravermelho
próximo, o que é o suficiente para a maioria das aplicações. Observe que
um número mínimo de três bandas é necessário para que se possa fazer a
combinação de bandas com as três cores primárias (RGB);
D) Nível de processamento: Para imagens a serem utilizadas em pesquisas
científicas é melhor que apenas as correções básicas de radiometria e
geometria sejam feitas, para que não sejam alterados os valores de
reflectância dos alvos;
E) Época do ano: A grande maioria das imagens é conseguida para a época
da seca, quando se tem uma maior chance de se obter imagens sem
nuvens. Para a época das chuvas a chance de se obter imagens é bem
menor, mas se a aplicação em questão requer imagem da época das
chuvas tem que se considerar a grande dificuldade de não se conseguir
imagem. Se para a aplicação em questão não é necessário uma imagem
atual pode-se utilizar imagens de bancos de dados de anos anteriores.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 51

Seção II – INTRODUÇÃO AO PROCESSAMENTO


DIGITAL DE IMAGENS
Nesta parte é dada uma descrição dos formatos utilizados no armazenamento
das imagens, dos pré-processamentos a fim de preparar as imagens para o posterior
processamento e extração de informações.

1. INTRODUÇÃO

1.1. O PROCESSO DO SENSORIAMENTO REMOTO

Para a resolução de problemas com o uso de sensoriamento remoto, um


processo lógico deve ser utilizado. Em geral, este processo pode ser resumido como:

Apresentação do problema ➔ Coleta de dados ➔ Análise dos dados ➔ Resultados


e solução

Especificamente no caso do uso de imagens de sensoriamento remoto como


ferramenta para a obtenção de informações necessárias para a solução de problemas
os passos são os seguintes:

DEFINIÇÃO DO PROBLEMA
(que aplicação requer o uso das imagens?)

AQUISIÇÃO DE IMAGENS
(resolução espacial, temporal, espectral que atendam)

OBTENÇÃO DE DADOS DE CAMPO
(pontos para georreferenciamento e validação e
localização de amostras para a interpretação e validação temática)

PRÉ-PROCESSAMENTO DAS IMAGENS
(transformações geométricas e radiométricas)

MELHORIAS NA IMAGEM (CONTRASTE, ÍNDICES DE VEGETAÇÃO, ETC.)
(conforme o tipo de aplicação)

EXTRAÇÃO DE INFORMAÇÕES (VISUAL OU AUTOMÁTICA)
(classificação digital)

AVALIAÇÃO DE ERROS
(acurácia posicional e temática)

AVALIAÇÃO TEMPORAL (quando necessário)

SISTEMA DE INFORMAÇÕES GEOGRÁFICAS
(exportação dos resultados para um SIG)

Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 52

RESOLUÇÃO DO PROBLEMA
(relatório para empresa e/ou instituição e/ou publicação dos resultados)

1.2. HISTOGRAMAS DE IMAGENS

Os histogramas de imagens servem para verificar a distribuição dos pixels em


termos de níveis de cinza (Figura 33). Geralmente são feitos para cada banda
separadamente. Os histogramas são utilizados para a visualização dos níveis de
cinza mais frequentes na imagem e para definir o tipo de tratamento a ser utilizado
para melhorar o contraste da imagem.

Exemplo de histograma da banda TM4 de uma imagem de Brasília: no eixo x está o


nível de cinza e no eixo y está a frequência (ou número total) de pixels para cada nível
de cinza.

Figura 33. Histograma de uma imagem na banda 4 do sensor TM (Infravermelho


próximo) que tem resolução radiométrica de 8 bits.

1.3. ESTATÍSTICAS DE IMAGENS

Para uma boa quantidade das situações encontradas no sensoriamento é


plausível assumir que a distribuição estatística é normal, ou seja, segue a distribuição
de Gauss. Deste modo a estatística paramétrica existentes pode ser utilizada sem
problemas. Para as situações em que foge da distribuição normal tem-se que utilizar
a estatística não paramétrica. Algumas estatísticas de imagens utilizadas nos
processamentos são:

➢ Média (somatório dos níveis de cinza dividido pelo número de pixels);


➢ Valor mínimo e máximo de nível de cinza;
➢ Mediana (valor médio entre o nível de cinza máximo e mínimo);
➢ Moda (o valor de nível de cinza de máxima ocorrência = máxima frequência);
➢ Desvio padrão (dispersão em torno do nível de cinza médio).
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 53

Observe que o histograma mostrado acima é bimodal, ou seja, existem duas


modas ou dois picos com alta frequência de níveis de cinza. O primeiro pico é
relacionado com os pixels de água e o segundo pico é relacionado com os demais
alvos.

1.4. FORMATOS DE IMAGENS E ARMAZENAMENTO

No geral temos os seguintes formatos para o armazenamento de imagens


comuns, além dos formatos proprietários dos softwares, pois cada qual tem seu
formato específico:

➢ JPEG (.JPG): Muito utilizado para imagens que são compartilhados pela
Internet por permitirem uma grande compactação de dados. No entanto, esta
compactação ocorre com perda de informação. Assim, ao salvar uma imagem
de sensoriamento remoto neste formato, ao abrir novamente esta imagem o
brilho de cada pixel não é o mesmo da imagem original. A compactação ocorre
separadamente para o brilho e para as cores. Este tipo de imagem pode ser
utilizado quando se deseja passar a imagem sem que esta possa ser utilizada
para trabalhos futuros. Por exemplo, quando se adquire uma imagem Ikonos a
licença não permite o repasse para outra empresa/instituição de uma imagem
que possa ser trabalhada com os níveis de cinza originais. A alternativa é
repassar a imagem em formato JPEG. Este formato utiliza transformadas de
Fourier para compactar, o que diminui a qualidade da imagem.
➢ JPEG2000 (.JP2): Pode utilizar compactação sem perda, por isso imagens do
Sentinel (satélite da ESA) são fornecidas neste formato.
➢ BMP: Este formato (bitmap do Windows) permite armazenamento tanto em
cores RGB de 24 bits como em cores de paleta. Permite a compactação RLE,
a qual é sem perdas;
➢ RAW: Formato sem cabeçalho, ou seja, cada byte da imagem equivale ao nível
de cinza de um pixel (para o caso resolução radiométrica de 8 bits);
➢ TIFF: Formato muito usado comercialmente para armazenar imagens sem
perda. Permite compactação LZW (sem perdas),

Alguns formatos de imagens específicos de sensoriamento remoto são:

➢ Geotiff: É o formato TIFF com informações de georreferenciamento, de sistema


de projeção e de datum. É um formato especialmente importante pois permite
a comunicação de dados entre os diversos programas, pois é lido por
praticamente todos os programas de processamento de imagens
georreferenciadas;
➢ HDF: (hierarchical data format) Formato utilizado pela NASA e pelo USGS;
➢ SPG: Formato utilizado pelo SPRING nas versões acima da 5.1. Comporta
dados de georreferenciamento no arquivo;
➢ MrSID: Formato que permite uma alta compactação dos dados sem perda;
➢ PIX: Formato do PCI Geomatica;
➢ ECW: Formato do Erdas.

Quando se necessita dos dados de radiometria é necessário armazenar as


imagens em arquivos com formato sem perda e depois compactar com um programa
de compactação.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 54

As imagens são gravadas em uma sequência de bytes que são chamadas strings
no termo em inglês ou uma corda de bytes. No início do arquivo existe um cabeçalho
que contém as informações necessárias à exibição da imagem e no caso de imagens
da superfície, este cabeçalho contém também as características geográficas da
imagem, com exemplo das imagens no formato geotiff.

Dentro do arquivo esses tem basicamente três maneiras de organizar as bandas


que estão disponíveis. Estes são o sequencial por bandas (Band Sequential-BSQ),
banda mesclada por linha (Band Interleaved by Lines-BIL) e banda mesclada por pixel
(Band Interleaved by Pixel-BIP). O esquema mais utilizado e mais eficiente para
imagens de satélites é o sequencial por bandas.

1.5. VISUALIZAÇÃO DE IMAGENS

As imagens são visualizadas através do sistema RGB (Red = vermelho, Green


= verde e Blue = azul), associando-se uma banda para cada uma destas cores. Neste
sistema é possível visualizar apenas três bandas espectrais de cada vez.

A combinação de bandas a ser utilizada e as cores a serem associadas a cada


uma das bandas vai depender de quais os temas que se deseja realçar na imagem e
de que combinação fornece uma melhor visualização da imagem.

Por exemplo, para o sensor ETM+ do Landsat 7 a combinação RGB das


bandas 4, 5 e 3 faz com que as áreas com vegetação densa (floresta por exemplo)
fiquem vermelhas e as áreas urbanas fiquem azuladas. Já na combinação RGB 5, 4,
e 3 para o mesmo sensor faz com que a vegetação densa apareça em verde, áreas
de pastagem em coloração rosa e áreas urbanas em coloração azulada. Neste
processo de obtenção de imagens coloridas pela combinação de diversas bandas
obtém-se uma imagem de falsa-cor, exceto quando as bandas do vermelho, do verde
e do azul são associadas respectivamente ao RGB, pois neste caso seria a
representação das cores verdadeiras da superfície.

Ao ler a imagem no computador o software usa as informações do número de


linhas e colunas para exibir na tela. No caso das imagens no formato raw estas
informações não estão presentes e o usuário tem que fornecê-las de modo que a
imagem possa ser exibida na tela. Como as telas funcionam nas cores RGB com 8
bits para cada cor, as imagens que estão em 16 bits ou em real de 32 b são
reescalonadas de modo a ficarem na faixa de 0 a 255 níveis de cinza.

Para realizar uma melhoria de contraste, o software utiliza os histogramas RGB


ou de nível de cinza relativos a parte da imagem que está exibida na tela. Ao aplicar
uma melhoria de contraste, é gerada uma Look Up Table (LUT, tabela de acesso
rápido) que contém o modelo utilizado no contraste e o nível de cinza mínimo e
máximo em que este é aplicado para cada uma das cores. Esta LUT é então aplicada
toda vez que uma nova área ou uma nova imagem é carregada em tela. Quando o
software é encerrado esta LUT é zerada.

2. PRÉ-PROCESSAMENTO DE IMAGENS
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 55

2.1. CORREÇÕES GEOMÉTRICAS

2.1.1 GEORREFERENCIAMENTO DE IMAGENS

As correções geométricas de imagens são utilizadas para corrigir distorções


sistemáticas e não sistemáticas na obtenção de imagens de sensoriamento remoto.
As imagens adquiridas de representantes comerciais ou de agências governamentais
no geral vêm corrigidas para erros geométricos do sensor e da plataforma. Assim, as
correções geométricas de imagens no geral consistem em manipulações geométricas
de modo que a imagem satisfaça uma projeção pré-estabelecida ou para que a
imagem coincida com uma outra imagem.

O georreferenciamento das imagens consiste na realização de rotação,


translação, correções da não ortogonalidade dos eixos e a variação de escala através
de transformação afim de coordenadas.

Definições:

Registro: Consiste em alinhar duas ou mais imagens de modo que os pixels


equivalentes a uma dada área da superfície terrestre sejam coincidentes. Este
processo pode ser feito utilizando-se de coordenadas de um mapa ou de imagem.

Ponto de controle: Um pixel específico na imagem ou localização no mapa cujas


coordenadas geográficas são conhecidas. Os pontos de controle são usados para
fazer com que a imagem a ser corrigida coincida com um mapa ou com outra imagem.

Reamostragem: Processo de extrapolação dos valores de nível de cinza para a nova


grade de pixels. Consiste no cálculo dos valores de nível de cinca da nova imagem a
partir dos valores da imagem a ser corrigida.

Raiz do erro médio quadrático (RMSE de Root Mean Square Error): É o erro utilizado
para a determinação da exatidão da transformação de um sistema de coordenadas
para outro.

Correção da superfície para imagem: A correção é feita utilizando-se de coordenadas


de campo, obtidas com instrumentos como o GPS. Os dados de GPS devem ser
obtidos de pontos que são facilmente encontrados na imagem.

Correção de mapa para imagem: A correção é feita utilizando-se das coordenadas de


um mapa. Neste caso são utilizados pontos que podem ser identificados tanto no
mapa quanto na imagem. As coordenadas do mapa podem ser obtidas manualmente
ou através de uma mesa digitalizadora.

Correção de imagem para imagem: Consiste em coincidir o sistema de coordenadas


de duas imagens digitais em que uma é tida como a referência e a outra a imagem a
ser corrigida. Os pontos devem ser facilmente identificáveis em ambas as imagens.

Os algoritmos de transformação de coordenadas dos pixels da imagem podem


ter fórmula linear (polinômio de primeiro grau) ou fórmula não linear (polinômio de
nésimo grau). Estes polinômios definem transformações afins de rotação e translação
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 56

para a mudança de coordenadas de imagens para coordenadas UTM. Para cada


ponto de controle são definidas duas equações, uma para N e outra para E. Um
polinômio de primeiro grau tem 6 coeficientes a serem determinados, portanto no
mínimo 3 pontos são matematicamente necessários para a solução do sistema e
consequente estimativa de todos coeficientes. Para um polinômio de segundo grau
são 12 coeficientes e portanto 6 pontos são matematicamente necessários para a
solução do sistema e consequente estimativa de todos coeficientes. No entanto, deve-
se utilizar no mínimo 6 pontos para um polinômio de primeiro grau e 12 para o de
segundo graus, para se ter uma superabundância de pontos para resolver as
equações. Deve-se tomar cuidado com polinômios de segundo graus, pois se os
pontos não forem bem distribuídos ao longo da imagem, a imagem de saída pode
ficar completamente distorcida geometricamente.

E p1 = a0 + a1 X 1 + a2Y1
N p1 = b0 + b1 X 1 + b2Y1
E p 2 = a0 + a1 X 2 + a2Y2
Para um polinômio de primeiro grau temos: N p 2 = b0 + b1 X 2 + b2Y2

E pn = a0 + a1 X n + a2Yn
N pn = b0 + b1 X n + b2Yn

Onde p1, p2, ...... pn são os pontos de controle e os coeficientes a0, a1, ... an,
e b0, b1, ... bn são determinados pelo método dos mínimos quadrados.

Do mesmo modo, para um modelo de segundo grau temos:


E p1 = a0 + a1 X 1 + a2Y1 + a3 X 1Y1 + a4 X 1 + a5Y1
2 2

N p1 = b0 + b1 X 1 + b2Y1 + b3 X 1Y1 + b4 X 1 + b5Y1


2 2


E pn = a0 + a1 X n + a2Yn + a3 X nYn + a4 X n + a5Yn
2 2

N pn = b0 + b1 X n + b2Yn + b3 X nYn + b4 X n + b5Yn


2 2

A segunda fase do processo de transformação geométrica consiste na


interpolação para encontrar o nível de cinza da imagem de saída.

Os principais algoritmos de reamostragem são os seguintes:


Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 57

Interpolador por alocação de vizinho mais


próximo: O nível de cinza do pixel da imagem
corrigida é o mesmo valor do nível de cinza do
pixel que se encontra mais próximo da posição
a ser ocupada. Não há alteração no valor de
nível de cinza (NC), entretanto, alguns valores
de NC são perdidos enquanto outros são
duplicados. É o interpolador mais rápido e que
pode ser utilizado quando se quer preservar os
valores de nível de cinza inalterados. A figura
ao lado mostra um exemplo.
Interpolador bilinear: O nível de cinza do
pixel da imagem corrigida é determinado a
partir do valor dos 4 pixels vizinhos (matriz de
2 x 2). Como resultado, há alteração do valor
do NC, considerando a sua vizinhança. Por
fazer uma média dos valores de NC de uma
janela de 2 x 2 pixels a imagem de saída
aparece com menos contraste entre pixels
vizinhos. Não é recomendado quando se
necessita preservar a imagem. A figura ao lado
mostra o interpolador bilinear.

Convolução cúbica: Calcula o valor do pixel


através de uma função que aproxima
variação dos níveis de cinza de uma janela
dos 16 pixels mais próximos (matriz de 4 x 4).
Como ele aproxima os valores de NC da
imagem de saída a uma função, a imagem
de saída sofre alteração mas o resultado final
é o mais próximo possível da imagem de
entrada. Um exemplo da janela de
reamostragem é visto na figura ao lado.

Outros interpoladores de interesse também são: Seno(X)/X, filtro de média, filtro de


mediana e filtro Gaussiano, com destaque para o interpolador Seno(X)/X em 16
pontos, que resulta em uma qualidade visual de imagem muito melhor.

2.1.2 ORTORRETIFICAÇÃO DE IMAGENS

A ortorretificação é o processo de fazer com que a imagem passe a ser


ortogonal ao plano de referência da superfície, definido pelo sistema de projeção e
pelo modelo da superfície utilizado (Datum).

O processo de georreferenciamento descrito no item anterior não oferece a


possibilidade de corrigir as distorções devido ao relevo, à geometria de aquisição da
imagem e à curvatura da terra. O georreferenciamento simples do item acima só
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 58

forma uma imagem ortogonal se o terreno for plano, ao nível do mar e a imagem for
tomada no nadir, ou seja, na vertical. A figura a seguir mostra o deslocamento devido
ao relevo.

O deslocamento na superfície (d) é a posição correspondente na superfície


que o ponto aparece na imagem. Na figura abaixo observa-se que o ponto no alto da
montanha deveria aparecer na superfície de referência (Datum) exatamente na
vertical de sua localização. No entanto, devido à projeção cônica da imagem ele
aparece com um deslocamento sobre o Datum. Esse deslocamento ocorre
radialmente em relação à vertical do sensor e é dado pela seguinte equação (Figura
34):

d = h  Tan V

Onde d é o deslocamento em metros, h é a altitude do terreno em metros e θ V


é o ângulo de visada do ponto.
Sensor

θV

Superfície

d Datum

Figura 34. Deslocamento devido ao relevo.

Como exemplo, as imagens Landsat são obtidas com visada no nadir, mas nas
bordas da imagem o ângulo chega a 8 graus fora do nadir. Neste caso, para um
terreno de 500 metros de altitude temos um deslocamento de:

d = 500 m * Tan 8º = 70,3 metros.

Isso mostra a grande necessidade de se ortorretificar as imagens Landsat. Na


maioria dos casos a ortorretificação é necessária. No caso dos sensores de alta
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 59

resolução esta necessidade é ainda maior, pois o deslocamento passa a ser muito
significativo em relação à resolução espacial da imagem.

A ortorretificação seria dispensada na situação de imagem de uma região plana


situada ao nível do mar e tomada no nadir. Nesta situação um georreferenciamento
simples seria o suficiente para produzir uma imagem ortogonal ao plano de referência,
assumindo que o sensor tem uma geometria interna correta (sem distorções
geométricas).

Para a ortorretificação são necessários os seguintes parâmetros:


• Modelo digital de elevação do terreno, o qual fornece a altitude para a correção
do deslocamento devido ao relevo. Deve ter resolução condizente com a
resolução espacial da imagem a ser ortorretificada;
• Pontos de controle no terreno. São utilizados para o georreferenciamento da
imagem ortorretificada e em alguns casos para a estimativa dos coeficientes
quando forem utilizadas as funções racionais para a ortorretificação. Estes
pontos devem ser bem distribuídos na imagem e em escala (acurácia)
condizente com a resolução espacial da imagem;
• Parâmetros do sensor (posição do sensor no momento de tomada das imagens
e características de imageamento). Normalmente estes parâmetros são
fornecidos pelo fabricante do sensor mesmo que a um custo adicional, como é
o caso do Ikonos II Ortho Kit.

Nos softwares em que a ortorretificação está implementada pode-se escolher


entre o modelo rigoroso e o modelo de funções racionais. O primeiro utiliza
equações rigorosas que descrevem a geometria de tomada das imagens enquanto
que o segundo utiliza funções racionais (razão entre polinômios) com coeficientes que
descrevem as transformações de coordenadas dos pixel para as coordenadas
ortogonais à superfície em relação ao Datum. Deste modo, estes modelos ajustam a
posição planimétrica dos pixels para as coordenadas de superfície.

Para as imagens do Quickbird estes coeficientes são fornecidos sem custo


adicional enquanto que para o Ikonos II são fornecidos apenas quando se adquire
imagens com o Ortho Kit. Se não for adquirido o Ortho Kit pode-se estimar os
coeficientes das funções racionais através de pontos de controle obtidos na
superfície. Esta opção pode ser também utilizada para o Quickbird e outros sensores.

2.1.3 PADRÃO DE EXATIDÃO CARTOGRÁFICA (PEC) DAS IMAGENS

A precisão do resultado do georreferenciamento é que determina a qualidade


planimétrica da carta gerada pela interpretação da imagem, seja ela visual ou
automática. As normas cartográficas brasileiras são estabelecidas pela Comissão
Nacional de Cartografia (CONCAR), sediada no IBGE e composta por profissionais
da área de cartografia (consulte o sítio do IBGE para maiores informações).

As normas em vigor são em grande parte aquelas estabelecidas pelo DECRETO Nº


89.817, DE 20 DE JUNHO DE 1984 e cujo conteúdo pode ser obtido na página
http://www.planalto.gov.br/ccivil_03/decreto/1980-1989/D89817.htm. Segundo este
decreto “é obrigatória a indicação da Classe no rodapé da folha, ficando o produtor
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 60

responsável pela fidelidade da classificação”. O conteúdo do artigo que descreve a


exatidão das cartas é como segue:

Art 9º - As cartas, segundo sua exatidão, são classificadas nas Classes A, B e C,


segundo os critérios seguintes:

a - Classe A
1 - Padrão de Exatidão Cartográfica - Planimétrico: 0,5 mm, na escala da carta, sendo
de 0,3 mm na escala da carta o Erro-Padrão correspondente;
2 - Padrão de Exatidão Cartográfica - Altimétrico: metade da equidistância entre as
curvas-de-nível, sendo de um terço desta equidistância o Erro-Padrão
correspondente.
b - Classe B
1 - Padrão de Exatidão Cartográfica - Planimétrico: 0,8 mm na escala, da carta, sendo
de 0,5 mm na escala da carta o Erro-Padrão correspondente;
2 - Padrão de Exatidão Cartográfica - Altimétrico: três quintos da equidistância entre
as curvas-de-nível, sendo de dois quintos o Erro-Padrão correspondente.
c - Classe C
1 - Padrão de Exatidão Cartográfica - Planimétrico: 1,0 mm na escala da carta, sendo
de 0,6 mm na escala da carta o Erro-Padrão correspondente;
2 - Padrão de Exatidão Cartográfica - Altimétrico: três quartos da equidistância entre
as curvas-de-nível, sendo de metade desta equidistância o Erro-Padrão
correspondente.

Em resumo temos a situação mostrada na Tabela abaixo.

Fonte: Adaptado de: Cintra, J.P. e Nero, M.A. (2001), Documentos Cartográficos:
Determinação do PEC, In: XX Congresso Brasileiro de Cartografia, Belo Horizonte,
2001.

Escala de trabalho com imagens de satélites


Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 61

A escala de trabalho é a escala máxima em que se consegue obter


informações a partir de uma imagem. A escala de trabalho é determinada pela
resolução espacial e afetada pela PSF e pela frequência de Nyquist vistos no item
resolução espacial, o que vai diretamente afetar o padrão de exatidão cartográfica
dos produtos gerados a partira da imagem. A exatidão do georreferenciamento (ou
ortorretificação) vai dar a precisão da carta que pode ser gerada com tal imagem.

Exemplo 1: Qual a escala máxima de uma carta de uso da terra gerada pela
interpretação de uma imagem ETM+ do satélite Landsat 7 cuja resolução espacial é
de 30 metros? (Calcule levando em conta a PSF considerando que a PSF é de 30
metros)

Solução: Assim, a frequência de amostragem no domínio espacial é de 1/30 (m -1).


Metade disso é igual a 1/60 (m-1). Deste modo, o objeto mínimo que se pode identificar
teoricamente em uma imagem é de 60 metros. Se considerarmos um erro gráfico de
0,2 mm no apontamento dos objetos identificados na imagem, que podemos assumir
ser igual à frequência máxima (frequência de Nyquist) que neste caso é de 1/60 m -1.
Deste modo a escala é calculada como sendo:

ab 0,2mm 0,2mm 1
E= = = =
AB 60 m 60 .000 mm 300.000

Onde ab é a dimensão na imagem de um objeto e AB é a dimensão na


superfície de um objeto mínimo identificável na imagem. Observe-se que o PEC pode
ser em uma escala muito maior se a imagem for georreferenciada com uma exatidão
(erro padrão) muito menor do que a resolução espacial do imagem (por exemplo 0,5
pixel que para a imagem Landsat 7 equivale a 15 metros).

A escala acima é também afetada pela PSF do sensor. Um sensor com


espaçamento de pixels de 30 metros, mas que amostra a superfície em uma área
muito maior terá a identificação de objetos pequenos prejudicada, diminuindo assim
a escala de trabalho.

Exemplo 2: Qual a escala de trabalho gerada pelo uso de uma imagem HRC do
satélite CBERS 2B cuja resolução espacial é de 2,5 metros (Neste caso calcule sem
levar em consideração a PSF, por falta deste valor).

Solução: Levando em consideração o erro da acuidade visual de 0,2 mm temos:

ab 0,2mm 0,2mm 1
E= = = =
AB 5m 5.000 mm 25.000

2.2. CORREÇÕES RADIOMÉTRICAS

Consiste em correções dos valores de nível de cinza da imagem a fim de


proporcionar a eliminação de problemas radiométricos causados pelo sensor (por
exemplo ruído), uma melhor visualização das imagens e a transformação dos níveis
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 62

de cinza em valores que representem alguma grandeza física do alvo, como por
exemplo reflectância e temperatura.

2.2.1. Eliminação de ruído

Ruído aparece em imagens como faixas ou listras e são eliminados através de


operações de filtragem. Na maioria dos casos as imagens adquiridas de empresas
revendedoras já foram processadas de maneira a eliminar os ruídos. Ao se aplicar
um filtro para a eliminação de ruído deve-se ter cuidado para aplicar o filtro apenas
na faixa onde este ocorre para não danificar toda a imagem.

No caso de imagens de radar este componente passa a ser bastante


significativo e deve ser aplicado algum tipo de processamento a fim de eliminar o
ruído das imagens. Existem diversos tipos de algoritmos implementados para este fim
nos programas comerciais de processamento de imagens de sensoriamento remoto.

2.2.2. Transformação de níveis de cinza em radiância e reflectância

Os níveis de cinza da imagem podem ser transformados de modo que se


tornem proporcionais a grandezas com significado físico. A radiância representa o
fluxo de energia radiante refletido pela superfície por unidade área e por ângulo sólido
em uma dada direção. Para um mesmo alvo a radiância pode variar dependendo das
condições de iluminação (ângulo e intensidade do fluxo), visada (ângulo e largura do
ângulo sólido) e condições atmosféricas. Por isso é importante a transformação para
reflectância, a qual é uma propriedade da superfície e para as mesmas condições de
iluminação e visada representa o estado em que o alvo se encontra no momento da
tomada da imagem. A reflectância é dada pela percentagem do fluxo incidente que é
refletido pela superfície na direção do sensor.

A transformação de nível de cinza para reflectância consiste na obtenção do


valor da reflectância planetária aparente (reflectância da superfície mais atmosfera a
nível de satélite) escalonada em níveis de cinza de acordo com o número de bits da
imagem. Por exemplo, para uma imagem de 8 bits (2 8=256 níveis de cinza de 0 a
255) uma reflectância planetária de 50% dá um nível de cinza igual a 127.

O primeiro passo dessa transformação é de nível de cinza (NC, ou DN (digital


number)) em radiância (L), que para uma dada banda de uma imagem de 8 bits é
dada por:

L max − L min
L = * ( DN − DN min) + L min
DN max − DN min

onde Lmax e Lmin são a radiância máxima e mínima expressas em Wm -2 sr-1 para o
sensor e banda em questão e que são fornecidas pelo fabricante do satélite.

Para o cálculo da reflectância a partir da radiância utiliza-se da seguinte


fórmula:
 L d 2
 =
ESUN  Cos  S
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 63

onde:
= Ângulo sólido do hemisfério projetado (sr);
= Reflectância planetária ao nível do satélite;
L= Radiância espectral na abertura do sensor em mW sr-1 m-2 µm-1;
d= Distância do sol à terra em unidades astronômicas (pode ser encontrado nas
tabelas náuticas);
ESUN = Irradiância solar total espectral fora da atmosfera em mW m-2 µm-1 , na
distância média Sol-Terra e perpendicular aos raios solares (obtido de tabelas
fornecidas pelo fabricante do satélite);
S = Zênite solar no pixel da imagem em questão. Em geral utiliza-se o zênite solar
do centro da imagem.

2.2.3. Transformação de bandas na faixa termal para temperatura

Uma vez determinada a radiância (L) para a banda termal, basta aplicar a lei
de Stefan-Boltzmann para se calcular a temperatura composta da superfície e da
atmosfera. Para se obter a temperatura da superfície deve-se realizar a correção
atmosférica, subtraindo a quantidade de radiação emitida pela atmosfera.

No caso específico do sensor ETM+ do satélite Landsat 7 pode-se fazer uma


uma aplicação direta da lei de Stefan-Boltzmann em que a transformação está
ajustada através de dois coeficientes de calibração (K1 e K2). A temperatura (T) em
Kelvin é dada por:

K2
T=
 K1 
ln  + 1
 
L 

2.2.4. Correção atmosférica

A correção atmosférica consiste em eliminar os efeitos da atmosfera na


imagem de sensoriamento remoto. Deve ser utilizada se informações quantitativas
forem extraídas das imagens em que pequenas diferenças de reflectância podem
causar grandes diferenças nas estimativas das propriedades da superfície. Por
exemplo, para a batimetria de águas costeiras, que utiliza a faixa do azul, onde há
grande influência da atmosfera, o ideal é fazer a correção atmosférica.

Duas abordagens:
- Modelos empíricos (método da extração do pixel mais escuro)
- Modelos de transferência radiativa (fisicamente embasados)

Existem métodos de correção atmosférica que utilizam modelos de


transferência radiativa na atmosfera e métodos empíricos. Os métodos empíricos
utilizam o pixel mais escuro da imagem (geralmente um pixel de água) para a
subtração deste valor de toda a imagem. Os modelos empíricos são baseados na
própria imagem, a exemplo do DOS (subtração do objeto mais escuro da imagem,
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 64

Dark Object Subtraction), o método do Chavez e o QUAC (QUick Atmospheric


Correction), sendo o método do Chaves o mais utilizado.

Dentre os modelos de transferência radiativa utilizado para a correção


atmosférica de imagens podemos citar:
• Lowtran;
• Modtran;
• ATCOR2 e ATCOR3;
• 6S (Second Simulation of Satellite Signal in the Solar Spectrum);
• FLAASH
• Acor
• (Dentre outros modelos).

Para estes modelos os seguintes parâmetros são os mais importantes na


entrada de dados:
• Latitude, data e hora de coleta da imagem (presentes nos metadados);
• Tipo de modelo de atmosfera gasosa (espalhamento Rayleigh)
Exemplos de modelos de atmosfera gasosa:
o no gaseous absorption
o tropical
o midlatitude summer
o midlatitude winter
o subarctic summer (from lowtran)
o subarctic winter
o us standard 62
• Tipo de modelo de aerossóis (espalhamento Mie);
Exemplos de modelos de aerossóis:
o no aerosols
o continental model
o maritime model (according to sra models)
o urban model
o shettle model for background desert aerosol
o biomass burning
o stratospheric model
• Visibilidade horizontal (concentração de aerossóis, em km);
• Banda espectral.

Entre os parâmetros o mais difícil de se obter é a visibilidade horizontal. Esta


é estimada diariamente em aeroportos, mas no geral nos aeroportos a estimativa
limita-se à visibilidade de no máximo 10 km. Para visibilidade abaixo de 5 km a
imagem é praticamente inútil e acima de 25 km o modelo não é mais sensível à
concentração de aerossóis. A estimativa deste valor deve ser feita levando-se em
consideração à época do ano, região, presença de queimadas ou não e o tipo de
ocupação (urbano x rural x floresta). Também deve-se considerar se houve frente fria
ou chuva, que podem atuar diminuindo aerossóis na atmosfera.

3. REALCE DE IMAGENS
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 65

Uma vez importadas as imagens e feitas todas as correções radiométricas e


geométricas, faz-se necessário realizar melhorias no visual das imagens ou ajustá-
las para as aplicações específicas.

3.1. MELHORIA DO CONTRASTE

A melhoria de contraste de imagens é realizada através de manipulações do


histograma, visando redistribuir os níveis de cinza ao longo da faixa de níveis de cinza
desejada. Pode ser feito através de algoritmos lineares e não lineares. Ao carregar
uma imagem na tela são utilizados os níveis de cinza que estão na imagem gravada
em arquivo de imagem. Ao aplicar um contraste, seja na imagem colorida ou na
imagem em nível de cinza (no caso de uma única banda), é gerada uma tabela de
acesso rápido chamada Look Up Table (LUT). Ao carregar uma outra imagem esta
LUT é aplicada até que um novo contraste seja aplicado e a LUT atualizada. A
utilização da LUT torna eficiente a visualização de imagens, principalmente no caso
de sensoriamento remoto onde estas são de grandes dimensões. Em alguns lugares
a aplicação de contraste é até mesmo chamada de “aplicar uma LUT”.
Os modelos mais usuais de melhoria de contraste são:
Melhoria de contraste linear (exemplo de aplicação na Figura 35 abaixo):
Y = AX + B
Negativo: Y = - (AX + B)
Algoritmos não lineares de melhoria de contraste:
Raiz Quadrada: Y=A X
Quadrado: Y = AX 2
Logaritmo: Y = A log (X + 1)
Fatia: Y = AX
2
onde:
Y = nível de cinza resultante
X = nível de cinza original
A = fator de ajuste para os níveis de saída ficarem entre 0 e 255
B = incremento definido pelos limites mínimo e máximo fornecidos pelo usuário.
255 * fa xi
Equalização de Histograma: Y =
n
onde
faxi = frequência acumulada para o nível de cinza xi;
n = população total (número total de pixels).

A figura mostrada abaixo é de um exemplo de equalização de histograma


realizado na banda TM4 de uma imagem de Brasília, DF. Observe na figura que
inicialmente a o contraste é muito baixo pois a faixa de variação dos níveis de cinza
da imagem é baixa. Após a aplicação de um algoritmo de melhoria do contraste a
faixa de variação dos níveis de cinza aumentou consideravelmente e os valores de
nível de cinza passam a variar entre 0 e 255. Na prática o que o aumento de contraste
causou foi o aumento da diferença de brilho entre as diferentes cenas presentes na
imagem, o que facilita a separação e classificação dos diferentes tipos de alvos.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 66

Figura 35. Melhoria de contraste linear através da manipulação do histograma.

3.2. FILTRAGEM

Filtragem é uma transformação da imagem pixel a pixel, que não depende


apenas do nível de cinza de um determinado pixel, mas também do valor dos níveis
de cinza dos pixels vizinhos.

O processo de filtragem é feito utilizando matrizes denominadas máscaras, as


quais são aplicadas sobre a imagem.

Os filtros espaciais podem ser classificados em passa-baixa, passa-alta e


passa-banda.

Filtro passa-baixa: As altas frequências na imagem são atenuadas enquanto que as


baixas frequências passam inalteradas. Servem para reduzir ruídos na imagem, mas
tendem borrar a imagem. Altas frequências são aquelas que ocorrem em vastas áreas
das imagens, como por exemplo áreas de culturas agrícolas uniformes. Baixas
frequências são aquelas representadas por um pequeno número de pixels, como por
exemplo estradas e bordas de áreas uniformes.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 67

Exemplo de filtro passa-baixa:


1 1 1
1 2 1 *1/10
1 1 1

Neste exemplo o valor do nível de cinza do pixel é obtido pela soma da


multiplicação dos níveis de cinza dos vizinhos por 1 e do pixel central por 2, e dividindo
esta soma por 10. Observe que esta divisão tem que ser por 10 para que o peso do
filtro seja 1.

Filtro passa-alta: Neste caso o filtro atua mais sobre as baixas do que sobre as altas
frequências, consequentemente realçando bordas e linhas da imagem, tornando-a
mais aguda.

Exemplo:
0 -1 0
-1 5 -1
0 -1 0

Neste caso não é necessário dividir porque o somatório dos pesos é igual a 1.

Filtros do tipo passa-banda são utilizados para a eliminação de ruídos localizados na


imagem.

No caso de imagens de Radar os filtros são muito utilizados para a minimização


do ruído chamado “Spekle”, que é introduzido pela coerência do sinal nas imagens
de SAR (Radar de abertura sintética).

3.3. OPERAÇÕES ARITMÉTICAS E ÍNDICES DE VEGETAÇÃO

Novas imagens podem ser obtidas através de operações aritméticas com as


diferentes bandas das imagens. Dentre um grande número de índices de vegetação
os exemplos mais comuns são:

NDVI (Índice de vegetação diferença normalizada, ou Normilized Difference


Vegetation Index em inglês):

 IVP − Verm
NDVI =
 IVP + Verm
SR (Razão simples ou Simple Ratio em inglês):

 IVP
SR =
 Verm
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 68

SAVI (Índice de vegetação ajustado para solo, Soil Adjusted Vegetation Index em
inglês):

 IVP −  Verm
SAVI = (1 + L)
 IVP −  Verm + L
Onde:
ρIVP é a reflectância na faixa espectral do infravermelho próximo;
ρVerm é a reflectância na faixa espectral do vermelho;
L é uma constante, em geral utiliza-se 0,5 para L.

EVI (índice de vegetação otimizado, Enhancend Vegetation Index):


𝜌𝐼𝑉𝑃 − 𝜌𝑉𝑒𝑟𝑚
𝐸𝑉𝐼 = 𝐺 ∗
𝜌𝐼𝑉𝑃 + 𝐶1 ∗ 𝜌𝑉𝑒𝑟𝑚 − 𝐶2 ∗ 𝜌𝐴𝑧𝑢𝑙 + 𝐿

Em que G é um fator de ganho, C1 e C2 são os coeficientes de resistência dos


aerossóis e L é o fator de ajuste para o solo como no SAVI. Para o cálculo do EVI a
disponibilizado a partir das imagens do sensor MODIS, o algoritmo da NASA utiliza L
= 1, C1 = 6, C2 = 7.5 e G = 2.5.

Estes índices, em especial o NDVI, são amplamente utilizados para a análise


multi-temporal de imagens pois permitem uma avaliação da dinâmica da vegetação
ao longo do tempo.

3.4. FUSÃO DE BANDAS

A fusão de bandas consiste em transformações espectrais em que duas ou mais


bandas são utilizadas, com o objetivo de melhorar a resolução espacial, ou realçar as
imagens ou até mesmo para concentrar as informações em número específico de
componentes. Os índices de vegetação também consistem em métodos de
operações entre bandas, mas foram colocadas no item de transformações
radiométricas porque os índices de vegetação dependem das transformações
radiométricas que levam as imagens para reflectância.

3.4.1 TRANSFORMAÇÃO RGB ➔ IHS ➔ RGB

O sistema de cores normalmente utilizado em processamento de imagens é o


que emprega as cores primária vermelho, verde e azul (RGB do inglês Red, Green,
Blue). Um sistema alternativo é o IHS (Intensity, Hue, Saturation), composto pela
intensidade, pela matiz e pela saturação.

Intensidade ou brilho é a medida de energia total envolvida em todos os


comprimentos de onda (ou bandas), sendo responsável pela sensação de brilho da
energia incidente sobre o olho.

Matiz ou cor de um objeto é a medida do comprimento de onda médio da luz


que se reflete ou se emite, definindo, a cor do objeto.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 69

Saturação ou pureza expressa o intervalo de comprimento de onda ao redor


do comprimento de onda médio, no qual a energia é refletida ou transmitida. Um alto
valor de saturação resulta em uma cor espectralmente pura, ao passo que um baixo
valor indica uma mistura de comprimentos de onda produzindo tons pastéis
(apagados).

A figura abaixo mostra os espaços de cores RGB e IHS.

Figura 36. Cubo de cores RGB.

Para a transformação de RGB para IHS são seguidos os seguintes passos:

- escolhe-se três bandas de uma imagem e é associada cada banda a um dos


componentes RGB. Deste modo cada pixel terá uma correspondência a um ponto
no espaço IHS;
- Após a transformação o resultado é um conjunto de três novas imagens: uma de
intensidade, uma de matiz e outra de saturação.

As imagens IHS podem ser realçadas e quando convertidas de IHS para RGB,
para permitir melhor separação das cores e das feições que se deseja observar.

A grande vantagem da transformação de RGB para IHS é a possibilidade de


se combinar imagens de diferentes resoluções, como por exemplo imagens do sensor
HRV-SPOT com TM-Landsat e bandas multi-espectrais com banda pancromática.

Isto pode ser feito do seguinte modo:

- Calcular os componentes IHS a partir de três bandas do sensor de resolução mais


baixa;
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 70

- Aplicar o contraste nos componentes H e S, e na banda do sensor de maior


resolução;
- Substituir o componente I é substituído pela banda de maior resolução;
- Aplicar a transformação inversa de IHS para RGB.

Após a transformação, a imagem colorida terá a resolução espacial da banda


de melhor resolução (da imagem SPOT ou banda pancromática). Deve-se atentar
para que as bandas de baixa resolução espacial estejam bem registradas em relação
à banda de melhor resolução espacial.

3.4.2 TRANSFORMAÇÃO POR COMPONENTES PRINCIPAIS

Existe uma alta correlação entre as bandas de uma imagem de satélite. Isso
faz com que as bandas tragam informações que sejam redundantes, fazendo com
que a classificação digital da imagem com mais de uma banda não seja eficiente, ou
seja, o acréscimo de bandas em alguns casos não traz melhorias na classificação
devido a essa redundância.

A geração de componentes principais é uma técnica de realce que reduz ou


remove esta redundância espectral, gerando um novo conjunto de imagens cujas
bandas individuais apresentam informações não disponíveis em outras bandas.

Nas componentes principais o valor do pixel é uma combinação linear dos


valores originais, gerados pela matriz de covariância entre as bandas. O número de
componentes principais é igual ao número de bandas espectrais utilizadas e são
ordenadas de acordo com o decréscimo da variância de nível de cinza. A primeira
componente principal tem a maior variância (maior contraste) e a última, a menor
variância.

A primeira componente principal possui a maior parte da variância total dos


dados, concentrando a informação antes diluída, em várias dimensões, enquanto que
a última componente principal contém apenas características das bandas originais
que não trazem informações úteis, sendo considerada apenas ruído.

3.4.3 OUTROS MÉTODOS DE FUSÕES DE BANDAS

Método de Brovey (resulta em uma melhor qualidade na transformação).

Método “Pan-Sharpening”, que dá excelentes resultados quando a fusão é de


1 para 16 pixels, que ocorre em sensores de alta resolução espacial, como por
exemplo no Ikonos II, que tem 1 metro de resolução espacial na banda pancromática
e 4 metros nas multiespectrais.

Método de transformação por Wavelets.

4. CLASSIFICAÇÃO DIGITAL DE IMAGENS

Classificação é o processo de extração de informações de imagens para


reconhecer padrões e objetos homogêneos e são utilizados em Sensoriamento
Remoto para mapear áreas da superfície terrestre que correspondem aos temas de
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 71

interesse. A classificação toma por base as diferenças nas respostas espectrais entre
as diferentes bandas, que levam a diferenças nos espaços de atributos das imagens.
A Figura 37 abaixo mostra um espaço de atributos bidimensional das bandas 4 e 5
do sensor ETM+ do Landsat 7.

Figura 37. Espaço de atributos das bandas 4 e 5 de uma imagem do sensor ETM+.

Os classificadores podem ser divididos em classificadores "pixel a pixel" e


classificadores por regiões.

• Classificadores pixel a pixel: Utilizam apenas a informação espectral de cada pixel


para achar regiões homogêneas. Estes classificadores podem ser separados em
métodos estatísticos (utilizam regras da teoria de probabilidade) e determinísticos
(não utilizam probabilidade) Exemplos: classificação supervisionada e não
supervisionada.

• Classificadores por regiões: Utilizam, além de informação espectral de cada pixel,


a informação espacial que envolve a relação com seus vizinhos. Procuram simular
o comportamento de um foto-intérprete, reconhecendo áreas homogêneas de
imagens, baseados nas propriedades espectrais e espaciais de imagens. A
informação de borda é utilizada inicialmente para separar regiões e as
propriedades espaciais e espectrais que irão unir áreas com mesma textura.
Exemplo: segmentação.

As técnicas de classificação aplicadas apenas a uma banda espectral da


imagem são conhecidas como classificações unidimensionais. Quando o critério de
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 72

decisão depende da distribuição de níveis de cinza em vários canais espectrais as


técnicas são definidas como de classificação multiespectral.

4.1. CLASSIFICAÇÃO SUPERVISIONADA

Quando existem regiões da imagem em que o usuário dispõe de informações


que permitem a identificação de uma classe de interesse, o treinamento é dito
supervisionado e a classificação é supervisionada.

É usada quando existem regiões da imagem em que o usuário dispõe de


informações que permitem a identificação de uma classe de interesse. Estas áreas
são escolhidas para serem utilizadas no treinamento do algoritmo de classificação.

Para um treinamento supervisionado o usuário deve identificar na imagem


áreas representativas de cada classe. É importante que cada área de treinamento
seja uma amostra homogênea da classe respectiva, mas ao mesmo tempo deve-se
incluir toda a variabilidade dos níveis de cinza da classe. É recomendável que o
usuário adquira mais de uma área de treinamento, utilizando o maior número de
informações disponíveis, como trabalho de campo, mapas, fotografias aéreas, etc.

Para a obtenção das classes estatisticamente confiáveis, são necessários de


10 a 100 pixels de treinamento por classe. O número de pixels de treinamento
necessários para a precisão de reconhecimento de uma classe aumenta com o
aumento da variabilidade entre as classes.

Os algoritmos de classificação supervisionada mais utilizados são:

• Método da distância mínima

O método de classificação por distância mínima é um procedimento de


classificação supervisionada que utiliza esta distância para associar um pixel a uma
determinada classe (Figura 38).

No treinamento supervisionado, definem-se os agrupamentos que


representam as classes. As posições das médias de cada agrupamento são
calculadas com base nas amostras de cada classe.

Cada pixel será incorporado a um agrupamento, através da comparação da


distância Euclidiana do pixel à média de cada agrupamento. Este procedimento é
repetido até que toda a imagem seja classificada.

O usuário pode utilizar um limiar de corte para aumentar ou diminuir a


abrangência de uma dada classe temática.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 73

Figura 38. Classificação supervisionada por distância mínima.

• Método do paralelepípedo

Neste método de classificação o desvio padrão dos níveis de cinza de cada


banda são calculados através das amostras de treinamento (Figura 39). O usuário
deve fornecer os limites máximo e mínimo dos níveis de cinza de cada classe para
cada banda em termos do desvio padrão.

Com estes valores o algoritmo calcula os limites em torno da média de cada


classe e de cada banda no espaço de atributos, formando assim paralelepípedos. No
geral estes limites são expressos em termos do desvio padrão (DP), por exemplo (1
x DP) ou (1,5 x DP). A regra de decisão consiste em verificar se o pixel está localizado
dentro ou fora de um paralelepípedo.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 74

Figura 39. Classificação supervisionada pelo método dos paralelepípedos.

Também pode ocorrer dois casos extremos nesta classificação: Algum pixel
pode não ser enquadrado em nenhum dos paralelepípedos e são então rotulados
como não pertencentes a nenhuma das classes, enquanto que algum pixel pode ser
enquadrado em mais de um paralelepípedo em sobreposição.

Este método faz pouco uso dos atributos das amostras de treinamento mas por
outro lado é um método simples e rápido.

• Método da máxima verossimilhança

Este método considera a ponderação das distâncias entre médias dos níveis
digitais das classes, utilizando parâmetros estatísticos (Figura 40).

Para que a classificação seja precisa o suficiente, é necessário um número


razoavelmente elevado de pixels para cada conjunto de treinamento. Os conjuntos de
treinamento definem o diagrama de dispersão das classes e sua distribuição de
probabilidade normal para cada classe do treinamento.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 75

Figura 40. Classificação supervisionada pelo método da máxima verossimilhança.

4.2. CLASSIFICAÇÃO NÃO SUPERVISIONADA

Neste caso o classificador utiliza algoritmos para reconhecer as classes


presentes na imagem, e o treinamento é dito não supervisionado e a classificação
não supervisionada.

Neste tipo de classificação há o mínimo de interferência do usuário.

Em alguns algoritmos a decisão sobre o número de classes é definida


automaticamente e em outros o usuário define o número de classes.

O algoritmo de classificação não supervisionado mais utilizado é o


agrupamento por K-médias.

O espaço de atributos é dividido em agrupamentos("clusters") e uma primeira


suposição é assumida para o centro de cada agrupamento. A distância Euclidiana
entre cada pixel e o centro dos agrupamentos é calculado. Através de um processo
iterativo o algoritmo vai mudando o centro dos agrupamentos até que as distâncias
mínimas até o centro do agrupamento formam uma classe.

Esta classificação é usada quando não se tem informação de campo sobre a


área a ser classificada ou não é possível fazer suposição sobre as classes presentes
na imagem.

Dependendo do tipo de cena há no final da classificação uma dificuldade de se


associar as classes a atributos de superfície.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 76

4.4. OUTROS MÉTODOS DE CLASSIFICAÇÃO

4.4.1. Segmentação
4.4.2. Classificação por redes neurais artificiais
4.4.3. Classificação por lógica nebulosa ("fuzzy" em inglês)
4.4.4. Modelos de mistura
4.4.5. GEOBIA e Classificação Textural

O termo GEOBIA vem de GEographic-Object-Based Image Analysis ou em português


análise de imagem baseada em objetos geográficos, é uma técnica que usa a análise
de texturas para encontrar objetos na imagem. Tem sido utilizada principalmente para
imagens de alta resolução espacial, para as quais a classificação pixel a pixel é
inadequada. Um software muito utilizado para este fim é o InterIMAGE, desenvolvido
na PUC-Rio e que é de código aberto (http://www.lvc.ele.puc-
rio.br/projects/interimage/pt-br/).

4.5. AVALIAÇÃO DA EXATIDÃO DE CLASSIFICAÇÃO

Os resultados da classificação digital de imagens só podem ser verificados se


existirem dados confiáveis sobre as classes presentes na superfície. A estes dados
se dá o nome de verdade terrestre. Assim, parte dos dados obtidos da superfície
(verdade terrestre) podem ser utilizados para o treinamento da classificação e parte
pode ser deixada para verificar a exatidão da classificação.

Com os resultados da classificação e os dados da verdade terrestre faz-se a


"matriz de erros", também chamada "Tabela de erros da classificação" ou também de
"Tabela de OMISSÃO e COMISSÃO". Os erros de omissão e comissão são
calculados para cada classe utilizada na classificação. A Tabela de erros é construída
não para toda a classificação e sim para amostras obtidas da superfície.

Erro de omissão (exclusão) é quando um pixel deixa de ser classificado


corretamente e é classificado erroneamente como outra classe.

Erro de comissão (inclusão) é o erro gerado pela inclusão de pixels de outras


classes na classe em questão.

A tabela de erros a seguir exemplifica os erros e as estatísticas calculadas.


Este exemplo de tabela foi retirado do livro "Introductory Digital Image Processing: A
Remote Sensing Perspective.", de John R. Jensen.

Tabela de erros abaixo é da classificação de 407 pixels em classes do tipo


residencial, comercial, banhado, floresta e água. Dados em número de pixels
classificados. Na diagonal da tabela estão os pixels classificados corretamente e fora
da diagonal os pixels classificados incorretamente.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 77

Verdade terrestre
Residen Comerci Banhado Floresta Água
cial al Soma
Residencial 70 5 0 13 0 88
Classificação

Comercial 3 55 0 0 0 58
Banhado 0 0 99 0 0 99
Floresta 0 0 4 37 0 41
Água 0 0 0 0 121 121
Soma 73 60 103 50 121 407

x
i =1
ii
ExatidãoGeral =
N

r r
N  xii −  ( xi +  x+ i )
= i =1 i =1
r
N 2 −  ( xi +  x+ i )
i =1
onde:
N é o número total de pixels,
r é o número de classes,
i+ indica soma na linha e +i indica soma na coluna.

Exatidão do Erros de Exatidão do Erros de


produtor (sobre a omissão usuário (sobre o comissão
verdade terrestre) classificado)
Residencial 70/73 =96% 4% 70/88 =80% 20%
Comercial 55/60 =92% 8% 55/58 =95% 5%
Banhado 99/103 =96% 4% 99/99 =100% 0%
Floresta 37/50 =74% 26% 37/41 =90% 10%
Água 121/121 =100% 0% 121/121 =100% 0%

Exatidão Geral = 382 / 407 = 93,9 %

Coeficiente  = 92,1%

Na tabela de erros acima o somatório na vertical fornece o número de pixels


da verdade terrestre para uma dada classe. Neste exemplo, obteve-se das amostras
73 pixels de área residencial, 60 de área comercial, 103 de banhado, 50 de floresta e
121 de água.

Para a área residencial 70 pixels foram classificados corretamente enquanto 3


pixels foram erroneamente excluídos da classe residencial, dando um erro de
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 78

omissão de 4% (100*3/73). Para a classe comercial o erro de omissão foi de 8%


(100*5/60).

O somatório na horizontal fornece o número de pixels classificados como uma


dada classe. No exemplo da tabela acima 88 pixels foram classificados como área
residencial, 58 como área comercial, 99 como banhado, 41 como floresta e 121 como
água.

Dos 88 pixels classificados como área residencial, 18 eram de outras classes


que foram erroneamente classificados como área residencial. Esta inclusão é
denominado erro de comissão.

Deste modo, o somatório nas linhas é o resultado total das classificações para
cada classe enquanto que o somatório nas colunas é o resultado que seria ideal, pois
é o número de pixels obtidos para cada classe com a verdade terrestre.

Através da tabela de erros acima pode-se calcular o coeficiente Kappa (), que
é o índice mais utilizado para a verificação da exatidão da classificação.

No exemplo da tabela temos:

r
 xii = (70 + 55 + 99 + 37 + 121) = 382
i =1

r
 ( xi +  x +i ) = (88  73) + (58  60) + (99  103) + ( 41  50) +
i =1

(121  121) = 36792

E o coeficiente  é:

407(382) − 36792
= = 92,1%
407 2 − 36792

5. DETECÇÃO DE MUDANÇAS E APLICAÇÕES DO SENSORIAMENTO


REMOTO

A característica multitemporal (resolução temporal) dos dados de


sensoriamento remoto permite a detecção de mudanças ao longo do tempo na
superfície terrestre. Bancos de dados de vários sensores ativos no passado podem
ser encontrados em sítios da Internet que em alguns casos podem ser baixados
gratuitamente.

Além das tonalidades de cinza (que dependem da resolução radiométrica), as


características espectrais das imagens (dadas pela resolução espectral) conferem a
capacidade de distinguir entre os diferentes tipos de superfície.
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 79

A resolução espacial das imagens é que determina a dimensão dos temas da


superfície que podem ser claramente visualizados e classificados nas imagens.

Em muitos casos o produto gerado pelas imagens de sensoriamento remoto


são utilizados como planos de informação de entrada para SIGs (Sistemas de
Informações Geográficas).

5.1. ENGENHARIA AGRÍCOLA E AMBIENTAL

As aplicações do sensoriamento remoto na agricultura são:


• Para a elaboração de estudo de impacto ambiental (EIA) e do relatório de impacto
ambiental (RIMA) de obras civis, fundamentais para grandes e pequenas obras;
• Monitoramento de áreas plantadas;
• Detecção de problemas (erosão, ataque de pragas e doenças) em áreas
plantadas;
• Determinação de área plantada;
• Previsão de safras;
• Planejamento de atividades;
• Agricultura de precisão.

5.2. ENGENHARIA DE AGRIMENSURA E CARTOGRÁFICA

• Para a elaboração de estudo de impacto ambiental (EIA) e do relatório de impacto


ambiental (RIMA) de obras civis, fundamentais para grandes e pequenas obras;
• Como ferramenta auxiliar em levantamentos planimétricos;
• No planejamento de levantamentos de campo;
• Para a determinação de rotas e locais para estradas.

5.3. ECOLOGIA

• No monitoramento de reservas e parques ecológicos;


• No estudo da fragmentação de habitats;
• No planejamento de reservas e na determinação de corredores entre reservas;
• Na avaliação de impactos ambientais.

5.4. MANEJO DE RECURSOS FLORESTAIS

• No inventário florestal;
• Na determinação de áreas desmatadas e queimadas;
• Cálculo da produção de plantios;
• Classificação de tipos de cobertura vegetal
• Avaliação da dinâmica do carbono (sequestro e perdas de carbono).

5.5. GEOLOGIA

• Estratigrafia: mapeamento de rochas e estudo da sequência das rochas no espaço


e tempo, bem como estudo das relações genéticas das rochas;
• Geomorfologia: Estudo das formas da superfície e suas relações de origem;
Notas de Aula-IT533-Sensoriamento Remoto, Prof. Mauro A. Homem Antunes, UFRRJ, Abril de 2021 80

• Determinação dos arranjamentos estruturais das formas geológicas;


• Procura de minerais através de indicativos de superfície, como por exemplo
indicativos da presença de petróleo, gás natural, água subterrânea e minerais.

5.6. OCEANOGRAFIA

• Batimetria de águas costeiras;


• Procura de cardumes de peixes;
• Mapeamento de macrófitas (plantas aquáticas) e presença de algas.

5.7. MANEJO DE BACIAS HIDROGRÁFICAS E RECURSOS HÍDRICOS

• Utilização como parâmetro na Equação de Perda de Solo (potencial de erosão);


• Cálculo de escorrimento de superfície;
• Planejamento de gestão de uso da água.

5.8. URBANISMO

• Determinação dos padrões de ocupação de áreas urbanas;


• Avaliação da qualidade de vida em grandes centros urbanos;
• Determinação de densidade populacional;
• Detecção de mudanças nos padrões de ocupação e de aumento da área ocupada;
• Monitoramento de poluição e de ilhas de calor;
• Planejamento de áreas para parques e jardins;
• Avaliação de risco na ocupação de áreas.

5.9. AVALIAÇÃO DA INTENSIDADE E EXTENSÃO DE DESASTRES NATURAIS

• Avaliação de área atingidas por enchentes;


• Determinação de área atingida por secas bem como da intensidade das mesmas;
• Avaliação de risco de incêndios florestais.

Você também pode gostar