Você está na página 1de 133

SENSORIAMENTO

REMOTO
Definição 5. Pré-Processamento
SUMÁRIO

1. Princípios Físicos 5.1. Eliminação de ruídos


5.2 Correção geométrica
1.1 Radiação eletromagnética
5.3 Correção radiométrica
1.2 Fonte de radiação eletromagnética
1.3 Interação da radiação eletromagnética com a matéria 6. Processamento Digital de Imagens
1.4 Espectro eletromagnético 6.1 Espaço de cores RGB
6.2 Histograma e aumento de contraste
2. Produtos de Sensores Remotos
6.3 Intensidade, Matiz, Saturação
2.1 Estrutura de uma imagem digital
6.4 Operação aritmética
2.2 Resolução espacial
6.5 Filtros
2.3 Resolução radiométrica
6.6 Classificação
2.4 Resolução espectral
2.5 Resolução temporal 7. Comportamento Espectral de Alvos
3. Sistemas Sensores 7.1 Assinatura espectral

3.1 Sensores não imageadores Referência Bibliográfica


3.2 Sensores imageadores

4. Aquisição de Dados Contato


4.1 Níveis de aquisição
4.2 Plataformas de sensores remotos
4.3 Sistemas aeroportados
4.4 Sistemas orbitais
SUMÁRIO Definição

Definição
Na literatura são encontradas as mais variadas definições de sensoriamento
remoto, algumas mais simples e outras mais científicas. A definição maissimples
de Sensoriamento Remoto é: Sensoriamento Remoto é a coleta de dados sem o
contato direto ou proximidade com o objeto ou superfície analisada.

A definição mais científica é: Sensoriamento Remoto é uma ciência que visa


o desenvolvimento da obtenção de imagens da superfície terrestre por meio
da detecção e medição quantitativa das respostas das interações da radiação
eletromagnética com os materiais terrestres (Meneses e Almeida, 2012).

3
97
SUMÁRIO 1. Princípios físicos > 1.1 Radiação eletromagnética > 1.1.1 Modelo ondulatório

1. Princípios Físicos
1.1 Radiação eletromagnética A radiação eletromagnética se propaga no vácuo à velocidade da luz. Fora do vácuo,
a energia eletromagnética pode afetar partículas em um meio físico qualquer,
Entender a maneira como a radiação eletromagnética é gerada, propagada mudando as propriedades eletrônicas, vibracionais e rotacionais de tais partículas.
e modificada possui considerável importância, pois é com base nesse
entendimento que os diferentes sensores são projetados e seus produtos
utilizados para as mais variadas aplicações (Drury, 2001). Segundo Jensen Campo Elétrico E
E
(2011), a radiação eletromagnética é gerada toda vez que uma carga elétrica é Comprimento da onda

acelerada. A propagação da radiação eletromagnética no espaço vazio ocorre


na forma de ondas e de energia. A dualidade do comportamento da radiação Campo Magnético M
M
eletromagnética é formulada pelos modelosondulatório (onda) e corpuscular
(energia) (Meneses e Almeida, 2012). Frequência Velocidade da luz
(número de cíclos por segundo)

1.1.1 Modelo ondulatório

No modelo ondulatório a radiação eletromagnética pode ser explicada


como uma forma de onda senoidal e hormônica (Meneses e Almeida, 2012). Figura 1.1 – Flutuação dos campos elétrico (E) e magnético (M) com a propagação da
radiação eletromagnética a velocidade da luz (Meneses & Almeida, 2012).
Uma partícula com carga elétrica gera um campo elétrico em torno de si e o
movimento dessa partícula gera, por sua vez, um campo magnético. Ambos os
campos atuamconjuntamente e ortogonalmente entre si (Figura1.1).

4
97
SUMÁRIO 1. Princípios físicos > 1.1 Radiação eletromagnética > 1.1.2 Modelo corpuscular

No comportamento ondulatório, são considerados os seguintes parâmetros: Segundo a teoria quântica, a frequência da radiação eletromagnética é função
da energia do quantum envolvido:
Comprimento de onda (λ) é a distância entre “cristas ou vales”. Pode ser
representado em metros (m), onde nanômetro(nm) é igual a 10-9 m, e
micrômetro(µm) igual a 10-6 m. E = νh (eq.1.2)
onde,
Frequência (ν) é o número de vibrações ou ciclos que passa por um ponto em
E = energia,
1 segundo. É expresso em herz (Hz), onde megaherz(MHz) corresponde a 106
ν = frequência,
Hz e kiloherz (kHz) é igual a 103 Hz.
h = constante de Planck (6,62 x 10-34Joules.seg)
O modelo ondulatório pode ser representado pela equação 1.1, que mostra
a relação inversamente proporcional entre comprimento de onda (λ) e
frequência (ν), onde c é igual a velocidade da luz (3x108m/s). A equação1.2 indica que energia é diretamente proporcional a frequência
do comprimento de onda. Assim, quanto mais alta frequência da radiação
λ = c/ν (eq.1.1) eletromagnética maior a energia gerada.

A intensidade da radiação eletromagnéticapode ser considerada em termos


da amplitude dos campos elétrico e magnético (modelo ondulatório) e
1.1.2 Modelo corpuscular quantidade de energia (modelo corpuscular). Desse modo, a energia associada
Em 1901, Max Planck observou que a radiação eletromagnética transferia ao comprimento de ondas longo é menor que aquela associada a comprimento
energia de um corpo para outro em quantidades discretas, à qual denominou de onda curto. Consequentemente, detectores de energia eletromagnética de
de fótons ouquanta (Meneses e Almeida, 2012). O fóton ou quantum é a comprimentos de ondas longos necessitam compensar tal diferença através do
partícula básica estudada em física quântica e que pode ser descrita como tempo de detecção e/ou realizando a detecção sobre áreas maiores.
a partícula mensageira da energia da onda eletromagnética. O termo
discreto significa que a intensidade de energia transportada pela radiação
eletromagnéticaem um dado comprimento de onda é sempre a mesma.

5
97
SUMÁRIO 1. Princípios físicos > 1.2 Fonte de radiação eletromagnética

1.2 Fonte de radiação eletromagnética 1.3 Interação da radiação eletromagnética com a


matéria
No universo, toda matéria acima do zero absoluto (-273,15 °C ou 0°K) emite alguma
forma de radiação eletromagnética. Segundo Meneses e Almeida (2012), toda O entendimento do modo como os dados de sensoriamento remoto ajudam na
a matéria acima do zero absoluto apresenta uma movimentação aleatória das identificação de diferentes materiais na superfície terrestre depende em grande
partículas dos átomos e das moléculas. Quando essas partículas se colidem elas parte da compreensão dos mecanismos pelos quais a radiação eletromagnética
mudam o seu estado de energia e emitem radiação eletromagnética.Portanto, interage com a matéria.Cada átomo ou composto químico possui determinado
quanto mais alta a temperatura da fonte maior a sua potência irradiante de energia estado de energia, e esse estado pode transitar de um estado energético para
(Figura 1.2).Nesse contexto, a principal fonte de radiação eletromagnética é o Sol outro se for excitado por radiação eletromagnética de determinada frequência.
com temperatura de superfície próxima a 6000°C. A Terra também emite radiação Três tipos de transição são conhecidos:
eletromagnética, mas em menor potência, com temperatura média de 27°C. • eletrônica: ocorre atransferência de elétrons entre os orbitais mais
externos de um átomo (valência e propriedades químicas) em sólidos,
100 líquidos e gases. Requer alta energia de excitação, por isso é mais comum
90
80
Radiação
em comprimentos de onda mais curtos (ultravioleta e visível);
70
Solar
60
50
40
• vibracional: ocorrem mudanças na posição relativa dos átomos em
30
20 Radiação moléculas de sólidos, líquidos e gases. Para se desenvolver requer menos
10 Terrestre
0
0,1 0,5 1,0 1,5 2,0 10 20 30 40 50
energia que a transição eletrônica, ocorre somente nos comprimentos de
Comprimento de onda em micrômetros

Ultravioleta Visível Infravermelho


onda mais longos da região do infravermelho;
Ondas Curtas Ondas Longas
• rotacional: ocorre a mudança no momento deinércia das
moléculas,sendorestrita a gases. São importantes na interação entre
radiação eletromagnética e a atmosfera (gases).
Figura1.2 – Intensidade da energia radiante emitida pelo Sol e pela Terra(Meneses &
Almeida, 2012). A energia de qualquer comprimento de onda pode ser transmitida através

6
97
SUMÁRIO 1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.1 Interação da radiação eletromagnética com a matéria na atmosfera

da matéria, absorvida, refletida pela sua superfície, espalhada pelas suas Refração Atmosférica

partículas constituintes ou irradiada com outro comprimento de onda após a


Energia radiante Normal à
incidente superfície

absorção. A interação da radiação eletromagnética com a matéria ocorre tanto Atmosfera


opticamente θ1
n1 = índice de refração
para esta camada
menos densa da atmosfera
na atmosfera como na superfície.
Percurso da
energia na
n2 atmosfera

1.3.1 Interação da radiação eletromagnética com a matéria na


homogênea
Atmosfera
opticamente

atmosfera
mais densa θ2

n3
Atmosfera

Refração opticamente
menos densa
θ3

A refração refere-se ao desvio da luz quando ela passa de um meio a outro com Percurso da energia afetada
pela refração atmosférica

densidades diferentes (Jensen, 2011). A figura 1.3 mostra a refração em três Figura 1.3 – Exemplo de refração em três camadas atmosféricas nãoturbulentas
camadas atmosféricas não turbulentas. A energia radiante incidente é desviada (Jensen, 2011).
de sua trajetória normal quando atravessa uma camada atmosférica para outra.
A Lei de Snell pode ser usada para explicar quanto de desvio ocorrerá com base Espalhamento
no ângulo de incidência (θ) e no índice de refração de cada nível atmosférico
O espalhamento da radiação eletromagnética ocorre devido à presença
(n1, n2 e n3). O índice de refração (n) é a razão entre avelocidade da luz no vácuo
de partículas (moléculas e aerossóis)na atmosfera em diferentes altitudes
(C) e a velocidade da luz no meio atravessado (Cn):
(Figura 1.4).Ao contrário da refração, a direção associada ao espalhamento é
imprevisível (Jensen, 2011).
n = C / Cn (eq.1.3)

7
97
SUMÁRIO 1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.1 Interação da radiação eletromagnética com a matéria na atmosfera

• Espalhamento Mie ocorre na parte inferior da atmosfera (em torno de


O3, aerossóis estratosféricos 4,5 km a partir da superfície), onde são encontradas partículas geralmente

Altitude Acima do Nível do Mar


20 km esféricas (poeira, fumaça) com diâmetros aproximadamente iguais ao
15 km O2, CO2, gases traços
comprimento de onda da radiação eletromagnética incidente.

10 km
• Espalhamento não-seletivo ocorre nas porções mais baixas da atmosfera,
8 km onde existem partículas (gotículas de água e cristais de gelo que formam as
Moléculas de gás
(espalhamento Rayleigh) nuvens e nevoeiros) com tamanhos superiores a 10 vezes o comprimento
2-3 km
H2O, aerossóis estratosféricos de onda da radiação eletromagnética. O espalhamento ocorre de forma
Superfície doTerreno
não seletiva onde todos os comprimentos de ondas da região do visível são
espalhados, fazendo com que a nuvem pareça branca.
Figura 1.4 – Principais subdivisões da atmosfera e os tipos de moléculas e aerossóis
encontrados em cada camada(Jensen, 2011).
Espalhamento Atmosférico
Existem basicamente três tipos de espalhamento atmosférico (Figura 1.5): Espalhamento Rayleigh
a. Molécula de gás
• Espalhamento Rayleigh ocorre quando o diâmetro efetivo das moléculas
Espalhamento Mie λ
de gás envolvidas, como por exemplo, oxigênio (O2) e nitrogênio (N2), é
b. diâmetro Fumaça, poeira
menor que o comprimento de onda da radiação eletromagnética incidente.
Fóton de energia
A intensidade do espalhamento Rayleigh é inversamente proporcional à Espalhamento Não-seletivo eletromagnética
modelado como
quarta potência do comprimento de onda (λ-4) da radiação (Figura1.6). uma onda

Quanto menor o comprimento de onda maior o espalhamento por partículas c. Vapor


d’água

pequenas. Por esse motivo, o espalhamento Rayleigh é responsável pela cor


azul do céu, onde o comprimento de onda nas regiões do ultravioleta e azul é
Figura 1.5 – O tipo de espalhamento atmosférico é uma função do comprimento de
muito mais espalhado que o comprimento de onda na região do vermelho.
onda e o tamanho da molécula de gás, partículas de poeira e fumaça, e gotículas de
vapor d’água (Jensen, 2011).

8
97
SUMÁRIO 1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.1 Interação da radiação eletromagnética com a matéria na atmosfera

3 2,75 2,5 2,25 2 1,75


100 Radiação solar no
Energia em elétro-volts (eV) topo da atmosfera
2000

Radiação Solar ( W m-2 µm-1 )


Radiação solar ao
80
nível do mar

Intensidade da Luz Espalhada


1500 O3

60 H2O
O2, H2O
1000
H 2O
40 H 2O
H2O
500
H2O CO2
20
O3 H2O CO2 H2O CO2
0
B G Y O R
0 0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 2,6 2,8 3,0 3,2
0,4 0,5 0,6 0,7
Comprimento de Onda, µm Comprimento de Onda, µm

Figura 1.6 – A intensidade do espalhamento Rayleigh é inversamente proporcional à Figura 1.7 – Curvas de radiação solar mostrando a energia absorvida pelos gases em
quarta potência do comprimento de onda (Jensen, 2011). diferentes comprimentos de onda (Drury, 2001).

Absorção A energia disponível para as interações com a matéria na superfície terrestre é


dividida em janelas atmosféricas discretas separadas por regiões dominadas
Absorção é o processo pelo qual a energia radiante incidente é absorvida e
por absorção atmosférica. As janelas atmosféricas são partes do espectro
convertida em outras formas de energia (Jensen, 2011).O dióxido de carbono (CO2),
eletromagnético que transmitem a energia radiante, e são nessas janelas que
oxigênio (O2), ozônio (O3) e água (H2O) na atmosfera absorvem a energia solar em
os sistemas de sensoriamento remoto são desenvolvidos (Figura 1.8).
diferentes comprimentos de ondas. Como resultado as curvas de radiação solar
medida no topo da atmosfera e a nível do mar são diferentes (Figura 1.7).

9
97
SUMÁRIO 1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.2 Interação da radiação eletromagnética com a matéria na superfície

NEAR INFRARED
UV VNIR FAR
VISIBLE SWIR MID INFRARED INFRARED
100

Transmission (%)
80
60
40
20
0
0,3 0,5 1 1,5 2 3 5 10 15 20 30
θ θ
Wavelength (µm)

FAR INFRARED MICROWAVE


100

Transmission (%)
80
60
40
(a) (b) (c)
20
0
300 500 1000 0,5 1 5 10 50 80
0,1
(µm) Wavelength (µm)

Figura 1.8 –Principais janelas atmosféricas ao longo do espectro eletromagnético em Figura 1.9 – Exemplos de reflexão. a) Reflexão especular;b) Reflexão difusa ou
escala logarítmica e a porcentagem de transmissão da radiação eletromagnética na Lambertiana; c) Reflexão envolvendo as componentes especular e difusa (Drury, 2001).
atmosférica (Drury, 2001).
1.3.2 Interação da radiação eletromagnética com a matéria na
Reflectância superfície

A maior parte da radiação eletromagnética é refletida de volta ao espaço pelo Aradiação eletromagnéticaao atingir a superfície pode sofrer três tipos de interação
topo das nuvens e outros materiais na atmosfera por reflexão especular ou com a matéria:Reflexão, absorção e transmissão. A Lei da Conservação de Energia
reflexão difusa (Lambertiana).Na reflexão especular, toda a energia é refletida determina que para qualquer interação radiação eletromagnéticaematéria, o fluxo
em um ângulo oposto e igual ao ângulo de incidência(Figura1.9). Na reflexão radiante incidente em umdeterminado comprimento de onda (ΦIλ) é divididoem
difusa ou Lambertiana, a energia refletida é aproximadamente igual em todas fluxo radiante refletido(ΦRλ), fluxo radiante absorvido (ΦAλ) e fluxo radiante
as direções, independentemente do ângulo de incidência. O mesmo princípio transmitido(ΦTλ)pela matéria envolvida.
da reflexão especular ou difusa também é aplicada à matéria na superfície.
ΦIλ = ΦRλ + ΦAλ + ΦTλ (eq. 1.4)

10
97
SUMÁRIO 1. Princípios físicos > 1.3 Interação da radiação eletromagnética com a matéria > 1.3.2 Interação da radiação eletromagnética com a matéria na superfície

Dividindo a equação acimapelo fluxo radiante incidente (ΦIλ)é gerada uma A irradiância é a quantidade de fluxo radiante incidente sobre uma superfície
expressão que permite que as propriedades espectrais dos materiais sejam por unidade de área, e a emitânciaou excitânciaé a quantidade de fluxo
definidas em termos de reflectância (ρλ=ΦRλ/ΦIλ), absortância(τλ=ΦAλ/ΦIλ) e radiante emitida de uma superfície por unidade de área (Jensen, 2011; Novo,
transmitância(αλ=ΦTλ/ΦIλ) espectral. 2010). As duas grandezas são medidas em Watts por metro quadrado (W m-2).

A radiância(L) é a intensidade do fluxo radiante (Φ) por unidade de ângulo


ρλ + τλ + αλ = 1 (eq.1.5) sólido (Ω) por unidade de área projetada numa direção específica (Figura
1.10). A radiância é medida em Watts por metro quadrado por esferorradiano
(W m-2sr-1)(Jensen, 2011).
O valor da reflectância(ρλ)de uma superfície caracteriza a proporção de
energia incidente que é refletida em um comprimento de onda específico, e o
L = (Φ/Ω)/A cos θ (eq.1.6)
qual dependeráda superfície de reflexão (especular e/ou difusa).

Medida da energia radiante


Fluxo Φ
A medida da energia radiante em um detector, por exemplo, é efetuada com Normal à superficie
Área A
base no fluxo radiante (Φ). O fluxo radiante por definição é a quantidade de θ

energia que passa por um ponto durante um determinado tempo, sendo


expresso em Joules por segundo(J-s) ou Watt (W) (Novo, 2009). A quantificação
do fluxo radiante interceptado por uma unidade de área ou superfície pode ser
determinada pela irradiância (E), emitância (M) e radiância (L). Área projetada
A cos θ

Área A
L = (Φ/Ω)/A cos θ

Figura 1.10 –Conceito de radiância de uma área projetada em uma direção específica e
normal à superfície (Novo, 2009).
11
97
SUMÁRIO 1. Princípios físicos > 1.4 Espectro eletromagnético

1.4 Espectro eletromagnético


rain and fog
scattering attenuation

A figura 1.11 mostra as principais regiões espectrais utilizadas em atomic molecular molecular Phenomena
processes vibration rotation eletric and magnetic
electron shifts
field fluctuations
heating heating
sensoriamento remoto, bem como a relação entre o comprimento de onda (λ),
Wavelength
frequência (ν) e os fenômenos que estão envolvidos na geração e interação da 10 pm 100 pm 1 nm 10 nm 100 nm 1 µm 10 µm 100 µm 1 mm 1 cm 10 cm 1m 10 m 100 m 1 km 10 km 100 km 103 km 104 km 3 x 105 km

radiação eletromagnética. Os limites das regiões e a nomenclatura das regiões 1020 1018 1016 1014 1012 1010 108 106 104 102 1

podem variar de autor para autor.


radio bands
gamma visible Frequency (Hz)
radiation radar
(waves s1)
X-rays ultra- microwave
Nos comprimentos de onda mais curtos, os raios gama (0,01 – 0,1Å) tem sua violet
near mid far
infrared

origem no núcleoatômico a partir do decaimento radioativo. Os raios X (0,1 -


10Å), radiação ultravioleta (10nm – 0,38μm)e radiação visível (0,38 – 0,76μm) Figura 1.11– Espectro eletromagnético mostrando a relação entre comprimento de
onda e frequência, e os fenômenos envolvidos na geração e interação da radiação
são gerados na nuvem eletrônica externa ao núcleo atômico. Quando um
eletromagnética, e a nomenclatura de diferentes partes do espectro (Drury, 2001).
elétron se move de uma órbita de alta energia para uma de menor energia,
é liberado um fóton de um comprimento de onda específico. As radiaçõesdo
infravermelho e micro-ondassão produzidas por vibração e rotação de
moléculas e por emissão termal. A região do infravermelho é geralmente
subdividida em infravermelho próximo (0,76 – 1,2 μm), infravermelho de
ondas curtas (1,2 - 3μm), infravermelho médio (3 - 5μm) e infravermelho
termal (5μm – 1 mm). A radiação dasmicro-ondas(1mm – 100cm) também
é gerada por flutuações nos campos elétricos e magnéticos. O principal
mecanismo de interação na região das micro-ondas e ondas de radio é o
retroespalhamento, reflexão e condutividade.

12
97
SUMÁRIO 2. Produtos de Sensores Remotos > 2.1 Estrutura de uma imagem digital

2. Produtos de Sensores Remotos


Os produtos de sensores remotos podem ser divididos em duas categorias:
produtos analógicos e produtos digitais. Os produtos analógicos foram utilizados
antes da popularização dos microcomputadores. Apesar de possuir considerável
importância na visualização de feições da superfície terrestre, os produtos
analógicos têm sido gradativamente substituídos pelos produtos digitais.
54 40 31 27 27 28 39 51 52 50 45 25 24 24 23

As imagens coletadas por sensores remoto possuem características, como 55

56
37

40
37

39
35

45
31

39
27

32
26

27
35

26
58

36
66

52
38

50
13

28
17

14
21

13
19

14
Pixel (pictureelement)

estrutura e resoluções espacial, radiométrica, espectral e temporal, que as


52 39 33 42 49 48 36 31 26 33 51 51 31 16 16

42 34 24 30 60 67 49 33 27 28 31 47 51 35 24

26 29 26 44 76 76 49 37 33 30 29 29 44 52 44

diferenciam de outras imagens digitais. 14

20
31

31
36

39
50

51
85

72
70

56
36

35
37

35
38

37
30

35
25

31
29

27
28

29
40

31
52

36

21 26 36 46 58 49 37 35 36 37 34 33 26 29 30

21 20 29 43 54 53 40 31 30 32 30 29 24 22 27

2.1 Estrutura de uma imagem digital Figura 2.1 – Imagem digital com sua estrutura na forma de uma matriz com a
representação dos números digitais em cada pixel.
A imagem digital é constituída por um arranjo de elementos sob a forma
de uma matriz, com linhas e colunas (Figura2.1). Cada cela ou pixel 2.2 Resolução espacial
(pictureelement) da matriztem sua localização definida em um sistema de A resolução espacial é a capacidade do sensor de enxergar objetos ou alvos
coordenadas X e Y. Cada pixel possui ainda um atributo numérico Z que indica na superfície. Quanto menor o objeto ou alvo discriminado maior a resolução
o nível de cinza, denominado de Número Digital (ND) ou Digital Number (DN). espacial (Figura 2.2).
O ND de cada pixel corresponde à intensidade de radiânciado terreno.

13
97
SUMÁRIO 2. Produtos de Sensores Remotos > 2.3 Resoluçãoradiométrica

Figura 2.2 – Imagens dos satélites Landsat 2.3 Resoluçãoradiométrica


com resolução espacial de 30m, SPOT com
10m e IKONOS com 1m
A resolução radiométrica é a medida da intensidade de energia refletida,
(Meneses e Almeida, 2012).
emitida ou retroespalhadapela matéria ou objeto na superfície terrestre. Quanto
maior a resolução radiométricado sensor maior será a capacidade do detector
para medir as diferenças de intensidades do sinal (Figura2.4).Em função da
intensidade do sinal de entrada no sensor, a resposta de saída dos detectores é
convertida eletronicamente em um número digital discreto, o qual é expresso
Nos sensores ópticos a resolução espacial é determinada pelo campo de em termos de números de dígitos binários (bits). Bit (Binarydigit) é a menor
visada instantâneo (Instantaneous Field OfView - IFOV). O IFOV define a área do unidade de informação que pode ser armazenada ou transmitida. O valor em
terreno vista pelo sensor a uma dada altitude e a um determinado tempo.O bits é sempre uma potência do número 2. Assim,os sensores com resolução
IFOV representa, portanto, o tamanho do pixel da imagem o qual corresponde radiométrica de 8bits(28) possuem valores variando de0 a 255,e sensores
com a dimensão da área vista pelo sensor (Figura 2.3). com16bits (216) registram valores quevariam de0 a 65.536.

Figura 2.4– Imagens com


resoluçãoradiométrica distinta. a) Imagem
com resolução radiométrica de 1 bit (branco e
preto); b) imagem com resolução radiométrica
FOV
de 16bits (65.536 níveis de cinza).

IFOV

Swath

Figura 2.3 – O IFOV define o campo de visada que projeta sobre a superfície a
14 dimensão mínima da área vista pelo sensor.

97
SUMÁRIO 2. Produtos de Sensores Remotos > 2.4 Resolução espectral

2.4 Resolução espectral 2.5 Resolução temporal


A resolução espectral é uma medida do número e do tamanho do intervalo do A resolução temporal do sensor está associada ao intervalo de tempo para
comprimento de onda (denominado de bandas) no espectro eletromagnético reamostragem de um determinado local.Os satélites executam uma órbita
ao qual o sensor é sensível (Jensen, 2011). Assim, quanto maior o número heliossíncrona ortogonal ao sentido de rotação da Terra e passam sobre o
de bandas e menor o tamanho do intervalo do comprimento de onda maior mesmoponto da superfície terrestre na mesma hora (Meneses e Almeida,
será a resolução espectral do sensor. Os sistemas sensores multiespectrais 2012). O satélite Landsat5/TM, por exemplo, tem resolução temporal de 16
(exemplo, Landsat5/TM) detectam energia em múltiplas bandas do espectro dias. As órbitas de um mesmo dia se distanciam entre si de 2.752 km, sendo
eletromagnético, e os sensores hiperespectrais (exemplo, AVIRIS) adquirem necessários 16 dias para o recobrimento total da Terra (Figura 2.6).
dados em centenas de bandas espectrais (Figura 2.5).

Day
1
2
3
4
50 5
band 4 6
3 TM band AVIRIS 7
2 8
1
1 9
10
11
12
13
14
y 15
y
16
1
λ λ Equador
900 900

wavelength (nm) wavelength (nm) Spacing between


x x successive orbits
400 400
2752 km

Figura 2.6 – Resolução temporal de 16 dias do Landsat5/TM (Robinson, 1995).

Figura 2.5 – Resolução espectral do Landsat5/TM (multiespectral com 4 bandas) e AVIRIS


(hiperespectral com 50 bandas) no intervalo do comprimento de ondas do visível e
infravermelho próximo (Schowengerdt,2007).

15
97
SUMÁRIO 3. Sistemas Sensores

3. Sistemas Sensores
Segundo Novo (2010) os sensores são os sistemas responsáveis pela
conversão da energia proveniente dos objetos em um registro na forma de
Passive Remote Sensing Active Remote Sensing

Atmospheric
imagem ou gráfico, os quaispermite associar a distribuição da radiância, Sun Absorbtion Radar Imaging

emitância, ou retroespalhamento com suas propriedades físicas, químicas,


biológicas ou geométricas. Atmospheric
Reflectance Reflected
Emitted
by objects
by sensor

Os sistemas sensores podem ser classificados de acordo com a sua fonte de Emitted
Reflected
by objects
by objects
energia em sensores passivos e sensores ativos (Figura 3.1):

• O sensor passivo detecta a radiação solar refletida ou a radiação emitida


pela superfície terrestre. O sensor passivo pode ser classificado comosensor
óptico quando constituído por espelhos e prismas de lentes. Figura 3.1 – Sensores passivos e ativos e a sua relação com as fontes naturais (Sol e
Terra) e artificiais de radiação eletromagnética.
• O sensor ativo produz a própria radiação eletromagnética. A energia
Os sistemas sensores são ainda classificados em não imageadores e
emitidaérefletida pelo objeto e captada pelosensor. Os exemplos de
imageadores (Novo, 2010).
sensores ativos são os radares e os lasers.

16
97
SUMÁRIO 3. Sistemas Sensores > 3.1 Sensores não imageadores

Para a obtenção de fotografia aérea são necessários os seguintes componentes:


3.1 Sensores não imageadores
Câmera – As primeiras câmeras aéreas para mapeamento foram desenvolvidas
O sensor não imageador fornece medidas da intensidade da energia oriunda durante a Primeira Guerra Mundial. Os sensores fotográficos são classificados
da matéria sem, no entanto produzir uma imagem do terreno. Um exemplo de comocâmeras métricas que empregam sistemas ópticos de alta precisão que
sensor não imageador é o espectrorradiômetro que fornece a assinatura espectral minimizam as distorções geométricas na fotografia. As câmeras métricas
do objeto na forma de gráfico. O sensor não imageador não será abordado de podem ser estruturadas com uma objetiva ou com múltiplas objetivas (Figura
forma detalhada nesta apostila, mas poderá ser consultado em Novo (2010). 3.3).As câmeras com múltiplas objetivas utilizam diferentes filmes, obtendo
fotografias aéreas simultaneamente em diferentes regiões do espectro
3.2 Sensores imageadores
eletromagnético, principalmente nas regiões do azul, verde, vermelho e
O sensorimageadorproduz uma imagem bidimensional da radiância, infravermelho próximo(Figura 3.4).
emitância ou retroespalhamento do terreno. Dentre os sensores imageadores,
destacam-se o sistema fotográfico, sistema de imageamento eletro-óptico,
sistema termal e sistema passivo e ativo de micro-ondas. Fotografia Imagem

Lentes
3.2.1 Sistema fotográfico
A fotografia aérea foi a primeira forma de sensoriamento remoto usado para
inventariar e mapear sistematicamente as feições da Terra (Figura 3.2). Mesmo
com o desenvolvimento de sistemas eletrônicos sofisticados para o registro de
Objeto
imagens da Terra, a fotografia aérea com sua alta resolução espacial continua
sendo um dos principais produtos de sensoriamento remoto.

Figura 3.2 –Sistema fotográfico constituído por câmera e filme.

17
97
SUMÁRIO 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.1 Sistema fotográfico

Filmes fotográficos – Os filmes fotográficos são compostos de uma base


Superfície
Bobina de
de vácuo
para Bobina de Carretel plástica transparente com uma emulsão de cristais de haleto de prata.
recolhimento aplanar filme virgem do Filme
o filme
Filme
Esses cristais são sensíveis à radiação eletromagnéticae funcionam como
Corpo da detectores. A emulsão fotográfica registra energia entre 0,3 a 1,2μm (região do
Eixo Câmera
Plano Focal
óptico
Distância
ultravioleta ao infravermelho próximo). Quatro emulsões foram desenvolvidas
Focal. ƒ

Montagem do
nesse intervalo do comprimento de ondas:
Cone das Lentes

Lente traseira do
ponto nodal Lente
• Filme pancromático em preto e branco cobre as regiões do ultravioleta
Obturador Diafragma
Lente dianteira e do visível, especificamente no intervalo do comprimento de onda de
Filtro do ponto nodal
0,3 a 0,7μm. A presença de névoa/neblina causada pelo espalhamento
atmosférico é mais intensa em comprimentos de onda mais curtos (regiões
Figura 3.3 – Vista do perfil da câmera métrica e dos componentes do sistema
(Jensen, 2011). do ultravioleta e azul). Para eliminar a perda de contraste da fotografia
causada pela névoa, um filtro que absorve esses comprimentos de onda é
colocado na lente da câmera.
Figura 3.4 – Câmera com múltiplas objetivas
(Jensen, 2011).
• Filme colorido no visível possui três camadas de emulsão sensíveis à
radiação eletromagnética na região do azul, verde e vermelho. O filme
colorido na região do visível tem a vantagem de contribuir para a nossa
capacidade de distinguir diferentes cores, ao contrário dos tons de cinza.

• Filme infravermelho em preto e branco é usado com um filtro para


absorver toda a energia do comprimento de onda da região do ultravioleta
ao visível, e registrar somente a radiação eletromagnética na região do
infravermelho de 0,7 a 0,9μm. Diferentes tipos de vegetação podem
ser distinguidos pela variação de tonalidade na fotografia obtida no

18
97
SUMÁRIO 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.2 Sistema de imageamento eletro-óptico

infravermelho. O filme em preto e branco no infravermelho é utilizado Os sistemas de imageamento eletro-ópticos podem ser classificados em:
geralmente para o inventário e mapeamento de florestas. As fotografias sistema de imageamento de quadro, sistema de varredura mecânica e sistema
aéreas obtidas com filmes no infravermelho também são recomendadas de varreduraeletrônica.
para mapear e delimitar o limite de rios, lagos e outras feições hidrográficas.
Principalmente pelo fato da água absorver a radiação eletromagnética na Sistema de imageamento de quadro
região do infravermelho. No imageamento de quadro a imagem de uma área é adquirida de forma
instantânea e projetada sobre um arranjo de detectores, ou sobre tubos
• Filme infravermelho colorido possui três camadas de emulsão sensíveis
fotossensíveis conhecidos como câmaras RBV (ReturnBeamVidicon) com sistema
à radiação eletromagnética na região do verde, vermelho e infravermelho.
de varredura por feixe de elétrons.O sistema de imageamento de quadro foi
As três emulsões são sensíveis ao azul, portanto um filtro amarelo (que
utilizado até 1970 quando foi substituído pelo sistema de varredura mecânica.
absorve o azul) é usado para expor corretamente cada camada. Este filme
foi desenvolvido na Segunda Guerra Mundial e foi denominado de filme
Sistema de varredura mecânica
de detecção de camuflagem, o qual auxiliou os militares na distinção de
O sistema de varredura mecânica é constituído por um espelho plano que oscila
camuflagens artificiais a partir da vegetação saudável. As folhas das plantas
ortogonalmente em relação ao deslocamento da plataforma (Figura 3.5). Com
saudáveis refletem no infravermelho enquanto que a camuflagem não.
esse movimento oscilatório a cena é imageada linha por linha. Atualmente, tal
3.2.2 Sistema de imageamento eletro-óptico tecnologia não é mais empregada nos sistemas de imageamento.

O sistema de imageamento eletro-óptico possui detectores com capacidade de


transformar a radiação eletromagnética em sinais elétricos que são transmitidos
para estações remotas. O sistema de imageamento eletro-óptico é constituído
por um sistema óptico e por detectores ou receptores. O sistema óptico focaliza a
energia proveniente sobre o detector (Novo, 2010). O detector produz um conjunto
de sinais elétricos associados ao nível de intensidade da energia com a sua
localização espacial, gerando uma imagem bidimensional da superfície terrestre.

19
97
SUMÁRIO 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.2 Sistema de imageamento eletro-óptico

Detectores Matriz linear


de detectores

Óptica

Espelho
oscilatório Óptica

Matriz linear
projetada no terreno

Direção de avanço
da plataforma
Direção de avanço
da plataforma

Figura 3.5 – Sistema de varredura mecânica com espelho oscilatório (Novo, 2010). Figura 3.6 – Sistema de varredura eletrônicacom arranjo linear de detectores CCD
(Novo, 2010).
Sistema de varredura eletrônica
Sensores multiespectrais
O sistema de varredura eletrônica possui um sistema óptico angular onde
Os sensores multiespectrais obtêm imagens simultâneas de uma mesma área
uma área é imageada através de um arranjo linear de detectores do tipo
em várias regiões do espectro eletromagnético. Devido a essa característica
CCD (Charge Coupled Detector). O CCD é um chip de metal semicondutor
as imagens obtidas por sensores multiespectrais fornecem informações
montado em matrizes bidimensionais, onde cada detector produz um sinal
da resposta da interação da radiação eletromagnética com os objetosda
elétrico proporcional àintensidade de fótons recebida (Figura 3.6). Cada chip
superfície em diferentes comprimentos de ondas.A maior parte dos programas
corresponde a um pixel de uma imagem.
espaciais possui como sensor o sistema de imageamento multiespectral com
bandas no visível (VIS), infravermelho próximo (NIR), infravermelho de ondas
curtas (SWIR) e infravermelho termal (TIR).

20
97
SUMÁRIO 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.3 Sensores termais

O sistema do sensor multiespectral é constituído por vários componentes 3.2.3 Sensores termais
como por exemplo, espelho, prisma e detectores eletrônicos (Figura 3.7).
Sensores termais detectam energia do infravermelho médio no intervalo
6
de 3 a 14μm. A energia detectada na região do infravermelho termal é mais
Eixo de 8
fracaem comparação àquela detectada na região do visível e do infravermelho
Radiação
rotação refletida 5 7
9
3
2 4

Motor
Radiação
10
próximo. Os sensores termais utilizam principalmente detectores de telureto
emitida
11
1 de mercúrio e cádmio (HgCdTe) ou o composto germânio-mercúrio (Ge(Hg)).
1 – Telescópio
Outro componente fundamental no sensor termal é o sistema de refrigeração
2 – Espelhofigratório
3
4
5
– Óptica
– Grade dicrômica
– Prisma
para manter a temperatura dos detectores entre 30 e 77K (Novo, 2010). Esse
6 – Detectores
sistema de refrigeração tem a função de controlar o aumento da temperatura
Direção do voo
7 – Controle eletrônico
8 – Tubo de raios catódicos
9 – Filme
10
11
– Gravador
– Conversor analógico/digital e gravador dos detectores que podem interferir sobre o sinal registrado.
Faixa de terreno sendo imageado

3.2.4 Sensores passivosradiômetro de micro-ondas


Figura 3.7 - Sistema de varredura multiespectral com os principais componentes
(Novo, 2010).
Sensores passivos no microndas detectam e registram energia no intervalo do
comprimento de onda de 0,1 a 25 cm, onde a absorção atmosférica é mínima. A
detecção da energia do micro-ondas é realizada com um radiômetro de micro-
Sensores hiperespectrais
ondas. O principal componente de um radiômetro de micro-ondas é a antena.
Os sensores hiperespectraissão capazes de adquirir medidas em pelo menos
100 bandas espectrais contínuas, principalmente na região do visível ao
3.2.5 Sensores ativos de micro-ondas
infravermelho. O sensor hiperespectralpossui um sistema de dispersão
Os sensores ativos de micro-ondas,cujo acrônimo RADAR deriva de Radio
da radiação eletromagnética que permite dividi-la em vários intervalos de
DetectionandRanging, foram desenvolvidos durante a Segunda Guerra Mundial para
comprimento de ondas, eredirecioná-la sobre a matriz bidimensional com
fins militares contribuindo na detecção de submarinos. O RADAR possui um sistema
detectores CCD (Novo, 2010) (Figura 3.8).
com transmissor e receptor de energia. O transmissor emite um pulso de energia

21
97
SUMÁRIO 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.5 Sensores ativos de micro-ondas

no intervalo do comprimento de ondas de 0,8 a 100 cm, e o receptor ou detector


registra a quantidade de energia refletida (retroespalhada) pelo alvo (Figura 3.9). Por
medida de segurança foram atribuídos códigos para diferentes bandas na região das Range
ou
micro-ondas. As bandas mais usadas são as bandas Ka, X, C e L (Tabela 3.1) alcance

Por ser um sistema ativo o imageamento pode ser efetuado de dia ou de noite. Pulso
Atualmente o sistema de radar transmite quase que exclusivamente radiação Retroespalhamento

eletromagnética na região de micro-ondas. As imagens de radar são amplamente


utilizadas em regiões com clima tropical, com constante ocorrência de nuvens e
névoas, devido a pouca interferência da atmosfera nos dados obtidos por esse
tipo de sensor.O controle da interação entre a REM e a superfície se deve:
Figura 3.9 - Configuração de um sistema RADAR com transmissor e detector de
a. Geometria e disposição espacial do alvo energia (Novo, 2010).

b. Rugosidade e heterogeneidade da superfície do alvo

c. Comprimento de onda, polarização e ângulo de depressão do radar


(controlados)

d. Propriedades elétricas (constante dielétrica)da superfície do alvo

22
97
SUMÁRIO 3. Sistemas Sensores > 3.2 Sensores imageadores > 3.2.5 Sensores ativos de micro-ondas

possibilita a obtenção da interferometria por radar. O sistema foi utilizado


Código Comprimento de onda (cm)
primeiramente em aeronaves e é o princípio adotado pela missão SRTM
Ka 0,8 – 1,1 (Figura 3.10).
K 1,1 – 1,7
Ku 1,7 – 2,4 z
B

X 2,4 -3,8
C 3,8 – 7,5 A2 A2

S 7,5 – 15 r - Δr r

L 15 – 30
P 30 - 100

h
Tabela 3.1 - Códigos usados na região das micro-ondas pelos sensores de radar y

(Drury, 2001).

Radar de visada lateral Figura 3.10 – Aquisição de imagens por Radar de Abertura Sintética por interferometria.

O radar de visada lateral é um radar de abertura real, onde o tamanho da


antena é inversamente proporcional à largura angular do feixe de radar que
ilumina a superfície do terreno (Jensen, 2011).

Radar de Abertura Sintética


O radar de abertura sintética utiliza uma antena menor devido ao
desenvolvimento de procedimentos que sintetizam eletronicamente o
tamanho da antena. A utilização de duas antenas devidamente espaçadas

23
97
SUMÁRIO 4. Aquisição de Dados > 4.1 Níveis de aquisição

4. Aquisição de Dados
utilizadas para aquisição de dados no nível de campo. Veículos Aéreos
4.1 Níveis de aquisição Não Tripulados e aeronaves são plataformas que adquirem dados no nível
de aeronave. Os produtos aeroportadosobtidos por sensores remotos e
Os produtos de sensores remotos podem se divididos em imagens obtidas atualmente mais utilizados para o mapeamento da superfície terrestre são
em diferentes níveis de aquisição de dados. Nesse caso, o nível de aquisição asfotografias aéreas, dados Lidar (Light DetectionAndRanging) e imagens
de dados é definido pela altura do sensor acoplado na plataforma e o alvo RADAR.No nível orbital são utilizadas principalmente as plataformas satelitais
analisado. Três tipos principais de níveis são conhecidos: nível de laboratório que ficam em órbitaao redor da Terra. Os produtos de sensores remotos
ou campo, nível de aeronave e nível orbital (Figura 4.1). orbitais podem ser divididos em duas categorias:

1. Para análise regional: As imagens são disponibilizadas sem custo para o público
Figura 4.1 – Diferentes níveis de aquisição
em geral(exemplo de programas espaciais: LANDSAT, ASTER, CBERS, SRTM);
de dados por sensoriamento remoto
(Novo, 2010).
2. Para análise de detalhe: Geralmente são utilizadas imagens dos
satélites IKONOS, WORLDVIEW ou ALOS que envolve um custo mediano a
relativamente elevadopara a sua aquisição.

Em razão da disponibilidade gratuita, os dados LANDSAT, ASTER, CBERS e SRTM são


amplamente utilizados, apesar da limitação imposta pela escala de detalhe possível
de análise (1:50.000).Os dados dos sensores IKONOS, WORLDVIEW e em menor
4.2 Plataformas de sensores remotos
proporção ALOS são utilizados em trabalhos de mais detalhe, inclusive fornecendo
Plataformas são os veículos que transportam sensores remotos acima da superfície dados de relevo para geração de modelo digital de elevação (ALOS e ASTER).
terrestre ou da água. As plataformas como veículos terrestres e guindaste são

24
97
SUMÁRIO 4. Aquisição de Dados > 4.3 Sistemas aeroportados > 4.3.1 Fotografia aérea

visualização em três dimensões a partir daestereoscopia. Os princípios de


4.3 Sistemas aeroportados
fotogrametria são aplicados para a geração das seguintes informações: a)
4.3.1 Fotografia aérea mapas planialtimétricos com coordenadas x e y de alvos e feições naturais e
artificiais; b) mapas topográficos com dados de altitudez; c) modelos digitais de
A fotografia aérea pode ser obtida com visada vertical ou oblíqua. elevação;e d) ortofotosgerados a partir de fotografias aéreas corrigidas em x e y.
A fotografia aérea é considerada vertical quando o eixo óptico da câmera está
perpendicular à superfície da Terra (Jensen, 2011) (Figura 4.2).A fotografia Direção de voo
Posição de exposição
aérea oblíqua é obtida quando o eixo óptico da câmera está deslocado da #1 #2 #3
Altitude
vertical em alguns graus (Wolf e DeWitt, 2000). lente acima do
nível do
solo, H

Fotografia Aérea
Plano do filme Vertical de um
da câmera Terreno Plano

60% de
sobreposição
Altura acima da Modelo estereoscópico
superfície (AAS) Campo de Cobertura da fotografia
visada terreno registrado em três
fotografia sucessivas
Eixo
óptico
Figura 4.3 – Fotografias aéreas obtidas ao longo da linha de voo com 60% de
Ponto principal sobreposição.
(PP) 900

4.3.2 Lidar (Light DetectionAndRanging) – Detecção de luz e distância


Figura 4.2 – Fotografia aérea vertical em um relevo plano (Jensen, 2011).
O sistema Lidar é um sensor ativo constituído por um transmissor e receptor. O
As fotografias aéreas são obtidas ao longo das linhas de voo com 60% de transmissor emite pulsos de luz laser no comprimento de onda no infravermelho
sobreposição de uma fotografia para outra, e com 20 a 30% de sobreposição próximo (1,04 a 1,06 μm) por um espelho que efetua o imageamento por
lateral (Figura 4.3). A sobreposição entre as fotografias aéreas permite a varredura perpendicular a trajetória da aeronave (Figura 4.4).

25
97
SUMÁRIO 4. Aquisição de Dados > 4.3 Sistemas aeroportados > 4.3.2 Lidar (Light DetectionAndRanging) – Detecção de luz e distância

A área de cobertura de um pulso de luz laser no terreno tem a forma aproximada


Z
de um círculo. O Lidar pode emitir mais de 100.000 pulsos por segundo. A GPS
Y
X

medição baseia-se no tempo que o pulso de luz leva do transmissor ao alvo IMU
κ
e do alvo para o receptor (Figura 4.5). O receptor capta o retorno da luz laser transmissor/receptor
espelho de Φ
γ

alcan
varredura
na forma de múltiplos retornos. Como resultado do levantamento Lidar, um Altitude AGL, h

ce (R
conjunto de pontos com dados de localização e elevação (x, y e z) denominados ângulo de varredura
θ

a
divergência

nge)
do feixe
de masspoints é obtido ao longo da linha de voo (Figura 4.6).
γ
laser γ
área de visada
instantânea
O GPS Diferencial obtem dados precisos de localização do conjunto de pontos. do laser

Um receptor GPS da estação base é posicionado em um local com coordenadas


x, y e z bem definidas, e o do receptor GPS é instalado na aeronave.
Figura 4.4 – O Lidar possui um sistema de imageamento por varredura que emite o
Os dados Lidar apresentam dados de alta precisão e alta resolução espacial. pulso de luz laser em uma área com uma forma aproximadamente circular.
Geralmente os dados Lidar sãoprocessados para gerar modelos digitais de
superfície e de terreno, e para o estudo da cobertura vegetal.

26
97
SUMÁRIO 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.1 LANDSAT

Retornos de LIDAR
4.4 Sistemas orbitais
LIDAR
4.4.1 LANDSAT
pulso A pulso B

distân
Desde 1972 os satélites do Programa Landsat, desenvolvido pela NASA,

cia (ra
monitoram e observam a superfície da Terra. São mais de quatro décadas

nge)
pulso



de imageamento contínuo da superfície terrestre, contribuindo para as
1° e
último
retornos último
mais diversas áreas da ciência: geologia, geografia, ambiental, agricultura,
planejamento regional, educação, mapeamento e pesquisa sobre mudança
área de cobertura
laser instantânea
global. Atualmente o Serviço Geológico dos EUA (USGS) é responsável pelo
Figura 4.5 – Oreceptor registra múltiplos retornos do pulso de luz laser em uma área armazenamento e preservação do maior acervo contínuo da superfície
de cobertura (Jensen, 2011).
terrestre vista do espaço.

Figura 4.6 – Conjunto de pontos coletados LANDSAT8


pelo receptor do Lidar para uma área com
vegetação (Fonte: Embrapa) O Landsat8foi lançado em 11 de fevereiro de 2013 e constitui o oitavo
satélite da série Landsat (Figura 4.7). Opera com dois instrumentos
imageadores: Operacional Land Imager (OLI) e ThermalInfrared Sensor (TIRS).

Figura 4.7 – Satélite Landsat8.

27
97
SUMÁRIO 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.1 LANDSAT

As características das imagens obtidas peloLandsat8são apresentadas e ondas curtas, e 100 x 100m para o infravermelho termal. O Landsat8 coleta
na tabela4.1. As bandas multiespectrais cobrem as regiões do visível, dados em uma faixa imageada de 183km e com intervalo de revisita de 16
infravermelho próximo, infravermelho de ondas curtas e infravermelho dias. Para maiores informações sobre o programa Landsat8, dados técnicos
termal. A resolução espacial varia de 15 x 15m para a imagem pancromática, dos sensores e as características das bandas espectrais consultar o sítio
30 x 30m para as imagens multiespectrais do visível ao infravermelho próximo eletrônico da NASA e USGS.

Resolução espectral
Bandas espectrais Sensores Resolução espacial (m) Resolução temporal Faixa Imageada
(micrometros)
1 - Ultra azul 0,43 – 0,45
2 - Azul 0,45 – 0,51
3 - Verde 0,53 – 0,59
4 - Vermelho 0,64 – 0,67
5 - Infravermelho próximo 0,85 – 0,88 30
OLI
6 - Infravermelho de
1,57 – 1,65
ondas curtas 16 dias 183 km
7 - Infravermelho de
2,11 – 2,29
ondas curtas
8 - Pancromático 0,5 – 0,68 15
9 - Cirrus 1,36 – 1,38 30
10 - Infravermelho termal 10,6 – 11,19 100
TIRS
11 - Infravermelho termal 11,5 – 12,51 100

Tabela 4.1 –Características dos sensores OLI e TIRS do Landsat8.

28
97
SUMÁRIO 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.2 ASTER (Advanced Spaceborne Thermal Emission and Reflectance Radiometer)

4.4.2 ASTER (Advanced Spaceborne Thermal Emission and


Reflectance Radiometer)
2a Aquisição 1a Aquisição
Fim Início Fim Início

O primeiro satélite Terrada série Earth Observing System (EOS) foi lançado 3B 3N

em dezembro de 1999. O ASTER (Advanced Spaceborne Thermal Emissionand 6.7 km/seg


64 55
B
9 0 seg.

Reflectance Radiometer) é um dos cinco sistemas de sensores a bordo do


satélite Terra. O ASTER é constituído por três sensores que operam em 3B

705 km
3N
H

diferentes regiões do espectro eletromagnético: 0


27,6

1. região do visível e infravermelho próximo - VNIR,


430 370 60 0 km Solo
2. infravermelho deondas curtas - SWIR B - Base
Estereoscópica Cena
H - Altitude da órbita Estereoscópica 1

3. infravermelho termal - TIR (Tabela 4.2).


Figura 4.5 –Cenas estereoscópicas obtidas na região do visível
A resolução espacial das imagens varia de 15m x 15m para VNIR, 30m x
30mpara SWIR e 90m x 90m para TIR. As bandas 3N e 3B constituem pares
estereoscópicos obtidos com visadas nadir e para trás, e possibilitam a
geração de modelos digitais de elevação (Figura 4.5).

29
97
SUMÁRIO 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.3 CBERS

4.4.3 CBERS
Resolução Resolução Faixa
Bandas Resolução
espectrais
espectral
espacial (m)
radiométrica imageada O CBERS é um programa espacial desenvolvido a partir da parceria
(micrometros) (bits) (km)
entre Brasil e China. Atualmente encontra-se em órbita o quinto satélite
desenvolvido pelo programa CBERS, o CBERS-4 lançado em dezembro de
1 0,52 – 0,60
2014 (Figura 4.6). O CBERS-4 opera com quatro sistemas sensores: Câmera
Visível e 2 0,63 – 0,69 pancromática e multiespectral (PAN), câmera multiespectral regular (MUX),
infravermelho 15
próximo - VNIR 3N 0,76 – 0,86 Câmera de campo largo (WFI) e Imageador multiespectral e termal (IRS)
3B 0,76 – 0,86 (Tabela 4.3). Cada câmera possui suas especificações em termos de resoluções
espectral, espacial e radiométricaconferindo ao CBERS-4 uma variedade de
4 1,6 – 1,7
8 produtos para o estudoda superfície da Terra. Informações detalhadas sobre
5 2,145 – 2,185 os sistemas sensores que compõem o CBERS-4 devem ser consultadas no sítio
Visível e 6 2,185– 2,225 eletrônico do Instituto Nacional de Pesquisas Espaciais do Brasil – INPE.
infravermelho 30
próximo - VNIR 7 2,235 – 2,285 60
Figura 4.6 – Satélite CBERS-4 (Fonte: INPE).
8 2,295 – 2,365
9 2,360 – 2,430
10 8,125 – 8,475
11 8,475 – 8,825
Visível e
infravermelho 12 8,925 – 9,275 90 12
próximo - VNIR
13 10,25 – 10,95
14 10,95 – 11,65

30 Tabela 4.2 – Características dos sensores do ASTER a bordo da


plataforma orbital Terra.
97
SUMÁRIO 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.3 CBERS

Resolução
Bandas Resolução espectral Resolução Resolução Faixa
Sensores radiométrica
espectrais (micrometros) espacial (m) temporal imageada
(bits)

Banda 1 0,51 – 0,85 5


Banda 2 0,52 – 0,59
PAN 60
Banda 3 0,63 – 0,69 10
Banda 4 0,77 – 0,89
Banda 5 0,45 – 0,54
Banda 6 0,52 – 0,59
MUX 20 120
Banda 7 0,63 – 0,69
Banda 8 0,77 – 0,89
Banda 9 0,50 – 0,90
Banda 10 1,55 – 1,75 40
IRS 26 120
Banda 11 2,08 – 2,35
Banda 12 10,4 – 12,5 80
Banda 13 0,45 – 0,52
Banda 14 0,52 – 0,59
WFI 64 10 866
Banda 15 0,63 – 0,69
Banda 16 0,77 – 0,89

Tabela 4.3 – Características das quatro câmeras a bordo do CBERS-4 (Fonte: INPE).

31
97
SUMÁRIO 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.4. ALOS (AdvancedLandObservingSatellite)

4.4.4. ALOS (AdvancedLandObservingSatellite)


Resolução Resolução Resolução Resolução
O satélite ALOS-2 desenvolvido pela Agência de Exploração Espacial do Japão Sensor Bandas espectrais espectral espacial radiométrica temporal
(JapanAerospaceExplorationAgency- JAXA) foi lançado em 24 de maio de 2014 (micrometros) (m) (bits) (dias)

(Figura 4.7).O ALOS-2 ou Daichi-2 é equipado com três principais sistemas


Pancromático
sensores: Panchromatic Remote-sensingInstruments for StereoMapping (PRISM), PRISM (Nadir, para frente e 0,52 -0,77 2,5
AdvancedVisibleandNearInfraredRadiometer tipo 2 (AVNIR-2) e PhasedArraytype para trás)
L-bandSyntheticAperture Radar (PALSAR). O sensor PRISM obtem cenas Azul 0,42 – 0,5 10 8 14
estereoscópicas com três visadas distintas (nadir, para frente e para trás) que
Verde 0,52 – 0,6 10
permite a geração de modelos digitais de elevação de alta resolução espacial AVNIR-2
Vermelho 0,61 – 0,69 10
(Tabela 4.4). O sensor AVNIR-2 fornece dados multiespectrais em quatro bandas
Infravermelho 0,76 – 0,89 10
nas regiões do visível e infravermelho próximo. O sistema sensor PALSAR é um
sensor ativo de micro-ondas operando na banda L. O PALSAR possui quatro Resolução Resolução Resolução
modos operacionais com diferentes parâmetros definidos: resolução espacial, Sensores Bandas espectrais Frequencia espacial radiométrica temporal
(m) (bits) (dias)
resoluçãoradiométrica, frequência da radiação eletromagnética e área imageada.
Para maiores detalhes sobre as principais características operacionais dos sistemas Banda L
PALSAR SAR-L 10 -100 3a5 14
sensores do ALOS-2 (http://www.eorc.jaxa.jp/ALOS/en/about/palsar.htm). 1.270 MHz

Figura 4.7 – Satélite ALOS 2. Tabela 4.4 – Características dos sensores PRISM, AVNIR-2 e PALSAR acoplados no
satélite ALOS-2.

32
97
SUMÁRIO 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.5 IKONOS

4.4.5 IKONOS
Resolução Resolução Resolução
Bandas Resolução Faixa
O IKONOS foi lançado em 1999 como o primeiro satélite comercial de alta espectrais
espectral
espacial (m)
radiométrica
imageada
temporal
(micrometros) (bits) (dias)
resolução espacial pela empresa DigitalGlobe, e desativado em janeiro de
2015 devido a problemas técnicos (Figura 4.8). Osatélite IKONOSoperava Azul 0,45 – 0,52 3,2
no modo pancromático com uma banda espectral entre 0,45μm e 0,9 μm e Verde 0,52 – 0,6 3,2
resolução espacial de 0,8m x 0,8m,e modo multiespectralcom quatro bandas Vermelho 0,63 – 0,69 3,2 11 11,3 km 3
espectrais nas regiões do visível e infravermelho próximo e resolução espacial
Infravermelho 0,76 – 0,90 3,2
de 3,2m x 3,2m (Tabela 4.5). Possui um acervo de imagens de alta resolução
Pancromático
com mais de 15 anos de imageamento da superfície da Terra. 0,45 – 0,9 0,8

Tabela 4.5– Características dos sensores a bordo do satélite IKONOS.


Figura 4.8 –Satélite IKONOS
(Fonte: DigitalGlobe)
4.4.6 Worldview

Os satélites WorldView junto com o IKONOS e GeoEyes fazem parte do


conjunto de satélites comerciais de alta resolução espacial operado pela
DigitalGlobe(Figura 4.9). Atualmente existem 4 satélites WorldViewem
operação, todas com resolução espacial abaixo de 1,85m x 1,85m, chegando
a uma resolução de 0,31m x 0,31m (Tabela 4.6). O WorldView-1 foi lançado
em 2007 com um sensor pancromático de alta resolução espacial. Em 2009
foi lançado o WorldView-2 como primeiro satélite comercial com 8 bandas
multiespectrais de alta resolução (1,85m x 1,85m), e com a resolução espacial
melhorada para a banda pancromática (0,46m x 0,46m). O WorldView-3
apresenta um avanço em termos de resolução espectralcom bandas

33
97
SUMÁRIO 4. Aquisição de Dados > 4.4 Sistemas orbitais > 4.4.6 Worldview

espectrais contíguas na região do visível ao infravermelho de ondas curtas,


Resolução Resolução Faixa
mantendo ainda alta resolução espacial. O Worldview-4 opera no modo Satélite Bandas espectrais espectral
Resolução
temporal imageada
espacial (m)
pancromático com uma banda e multiespectral com 4 bandas na região do (micrometros) (dias) (km)
visível e infravermelho próximo. A resolução espacial é alta com 0,31 x 0,31m
para a banda pancromática e 1,24m x 1,24m para as bandas multiespectrais. 1 banda
WorldView-1 0,4 – 0,9 0,5 1,7 17,7
pancromática

Figura 4.9 –Satélite WorldView-4


(Fonte: DigitalGlobe). 1 banda
pancromática
WorldView-2 0,45 – 1,04 0,46 – 1,85 1,1 16,4
e 8 bandas
multiespectrais

1 banda
pancromática
WorldView-3 0,45 – 2,365 0,31 – 3,7 1 13,2
e 16 bandas
multiespectrais

1 banda
pancromática
WorldView-4 0,45 – 0,92 0,31 – 1,24 1 13,1
e 4 bandas
multiespectrais

Tabela 4.6 – Características gerais dos sensores WorldView.

34
97
SUMÁRIO 4. Comportamento
7. Aquisição de Dados
Espectral
> 4.4 Sistemas
de Alvosorbitais > 4.4.7 SRTM
> 7.1 Assinatura (SHUTTLE
espectral > 7.1.4RADAR
Materiais
TOPOGRAPHIC
urbanos MISSION)

4.4.7 SRTM (SHUTTLE RADAR TOPOGRAPHIC MISSION)

A missão Shuttle Radar Topographic Mission - SRTM foi lançada em fevereiro


2000 a bordo do ônibus espacial Endeavour/NASA. A missão durou 11 dias com a
obtenção de dados topográficos deaproximadamente 80% dasuperfície da Terra.
Duas antenas com sistemas de sensores de radar foram acopladas no ônibus
espacial. A antena principal foi instalada no compartimento principal com dois
radares que transmitiram e receberam os sinais nas bandas C e X da região das
micro-ondas. Asegunda antena foi instalada na ponta de um mastro de 60m
de comprimentopara apenas receber os sinais das bandas C e X (Figura 4.10). A
utilização de duas antenas espaçadas possibilitou a obtenção da interferometria
por radar, e a geração demodelos digitais de elevação de quase toda a superfície
terrestre com uma resolução espacial de 30m x 30m e 90m x 90m.

Figura 4.10 – Sistema sensor da missão


SRTM por interferometria (Drury, 2004).

35
97
SUMÁRIO 5. Pré-Procesamento > 5.1 Eliminação de ruídos

5. Pré-Processamento
O pré-processamento é uma etapa que precede o processamento digital
Figura 5.1- Imagem com linhas com valores
de imagens de sensoriamento remoto. Na etapa de pré-processamento
saturados (Meneses e Almeida, 2012).
são aplicadas funções operacionais para remover ou corrigir os erros e as
distorções introduzidas nas imagens dos sistemas sensores pelos seguintes
fatores (Meneses e Almeida, 2012):

• erros instrumentais que causam ruídos espúrios;

• geometria do imageamentocom distorções;


5.2 Correção geométrica
• interferências da atmosfera que causam erros radiométricos.
A correção geométrica consiste em corrigir as distorções geométricas dos
produtos de sensores remotos, e é realizada basicamente em duas etapas
5.1 Eliminação de ruídos
(Meneses e Almeida, 2012):
As imagens podem conter erros no valor digital do pixel que são decorrentes • Etapa 1 - As distorções geométricas sistemáticas introduzidas no momento
de erros instrumentais (Figura 5.1).Tais erros são caracterizados por pixels da aquisição das imagens devido a rotação, inclinação e curvatura da Terra,
com valores saturados (claros) ou sem sinal (escuros) que ocorrem na forma e instabilidade da plataforma são removidas nesta etapa pelo laboratóriode
de linhas e que são denominados de ruídos.O método para eliminar o ruído produção de imagens.
consiste em substituir a linha pelo “valor médio” dos pixels correspondentes
das linhas anterior e posterior (Meneses e Almeida, 2012). • Etapa 2 - O georreferenciamento é efetuadoa partir da definição de um
sistema de projeção para estabelecer um referencial de coordenadas que
possibilite localizar na imagem a posição geográfica dos alvos. Essa etapa é
realizada nos laboratórios de produção de imagens ou pelo usuário.

36
97
SUMÁRIO 5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.1 Pontos de controle

O georreferenciamento além de corrigir as distorções geométricas dos produtos


de sensores remotos, deve ser aplicado em dados e informações que necessitam Figura 5.2 – Imagens de satélite com a
identificação de pontos de controle (pista de
do referencial de coordenadas, como por exemplo, em mapas digitalizados. Para o
aeroporto, bifurcação e cruzamento de vias
georreferenciamento dos produtos de sensores remotos e mapas digitalizados, os de acesso) em área urbanizada destacados
com círculo vermelho.
seguintes tópicos apresentados a seguir devem ser considerados:

• Pontos de controle;
• Tabelas de correlação; Dentre os fatores mais importantes a serem considerados na obtenção dos
• Precisão; pontos de controle destacam-se asua distribuição por toda a área a ser
georreferenciada,o número adequado de pontos,a precisão na marcação e a
• Reamostragem.
inserção correta de coordenadas.

5.2.1 Pontos de controle As principais formas de obtenção dos pontos de controle são:

Os pontos de controle são feições bem definidas e facilmente reconhecíveis • Uso do GPS (Global Position System) no terreno.
no terreno, nas imagens e mapas georreferenciados e não georreferenciados. • Grades de coordenadas em mapas, imagens, cartas-imagens.
Dependendo da resolução espacial da imagem, os pontos de controle podem
ser identificados com maior ou menor detalhe. Em áreas urbanizadas os • Mapas georreferenciados com elementos pontuais.
pontos de controle são representados por cruzamento ou bifurcação de vias • Imagens ortorretificadase/ougeorreferenciadascom elementos pontuais.
de acesso (rodovias, estradas, ruas, pontes), monumentos, limite do terreno
ou imóvele feições naturais e artificiais geométricas (Figura 5.2).

37
97
SUMÁRIO 5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.1 Pontos de controle

GPS (Global Position System) no terreno Mapas georreferenciadoscom elementos pontuais


O posicionamento de pontos de controle no terreno pode ser obtido com o As cartas planialtimétricas (cartas e mapas geralmente elaborados pelo IBGE ou
usodo GPS simples ou diferencial em locais previamente identificadosnos DSG) são utilizadas para a identificação e obtenção das coordenadas X e Y dos
produtos de sensores remotosou mapas a serem georreferenciados.Esse pontos de controle no terreno (Figura5.5). Nesse caso, os pontos de controle
método é útil para o georreferenciamentode imagens de alta resolução são identificados tanto no mapa georreferenciado como na imagem de satélite
espacial (Figura 5.3). que será georreferenciada, e incluem a intersecção ou bifurcação de estradas,
confluência de drenagens, feições artificiais e naturais identificadas.
Figura 5.3 – GPS diferencial e a ortofoto
com a localização dos pontos de controle
Figura 5.5 – Mapa planialtimétrico com
representados por pontos no limite do
pontos de controle identificados para o
terreno.
georreferenciamento da imagem de satélite
(Meneses e Almeida, 2012).

Grade de coordenadas em mapas, imagens e cartas-imagens

A grade de coordenadasé utilizada como referência para a identificação


das coordenadas X e Y dos pontos de controle em mapas planialtimétricose Imagens otificadas ou georreferenciadas com elementos pontuais
temáticos (Figura 5.4). O georreferenciamento é realizado de imagem para imagem, onde os
pontos de controle são identificados nas duas imagens (Figura5.6). O
georreferenciamento se baseia nas coordenadas X e Y dos pontos de controle
Figura 5.4 – Parte da carta planialtimétrica
(IBGE, escala 1:50.000) com a grade de da imagem ortorretificada ou georreferenciada.
coordenadas em UTM e os pontos de
controle destacados com círculo vermelho.

38
97
SUMÁRIO 5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.2 Tabelas de correlação

Figura 5.6 - Georreferenciamento de Figura 5.7 – Tabela de correlação


imagem para imagem, na qual uma com as coordenadas X e Y da imagem
das imagens está ortorretificada ou georreferenciada e não georreferenciada.
georrerferenciada.

5.2.2 Tabelas de correlação 5.2.3 Precisão

A tabela de correlação é utilizada para definir a correlação entre as coordenadas A precisão fornece uma estimativa do erro associado ao processo de
X e Y da imagem de referência georreferenciadae aimagem nãogeorreferenciada georreferenciamento. A precisãodecorre em grande parte da qualidade dos
(Figura5.7).As transformações polinomiaissão comuns no georreferenciamento dados e informações espaciais utilizadas, bem como da habilidade empreendida
de imagens e permitemvincular tais coordenadas. Segundo Meneses e Almeida no georreferenciamento.Cada ponto de controle utilizado terá um erro residual
(2012) as transformações polinomiais de 1ª e 2ª ordem são usadas nas imagens associado denominado de erro quadrático médio ou Root Mean Square (RMS)
de baixa à média resolução espacial. Para as imagens de alta resolução espacial (Figura 5.8). O RMS do ponto de controle é calculado com base na distância total
são empregadas ordens polinomiais mais altas. entre a coordenada na imagem de referênciae a coordenada a ser estimada
(Equação 5.1, Figura 5.9).O valor do RMS pode ser expresso em número de pixel
ou unidade na qual está sendo efetuado o georreferenciamento. No exemplo,
recomenda-se um erro máximo de 1 pixel. O ponto de controle com erro muito
alto deve ser reavaliado ou descartado do processo.

39
97
SUMÁRIO 5. Pré-Procesamento > 5.2 Correção geométrica > 5.2.4 Reamostragem

Figura 5.8 –Tabela com pontos de controle e


os erros RMS associados.
PC fonte Residual X

Residual Y Erro RMS

PC saída
O erro RMS é calculado pela equação:

Ri = √(XRi2+YRi2 ) (eq. 5.1)


Figura 5.9 – Representação geométrica da medida do erro RMS de um ponto de
onde,
controle (Meneses e Almeida, 2012).
Ri = erro RMS para o ponto de controle
XRi = residual X 5.2.4 Reamostragem
YRi2 = residual Y
No georreferenciamento, o centro de cada pixel da imagem ou mapa
de referência deveria ser transferido exatamente para o centro do
pixelcorrespondente na imagem que foi georreferenciada (Figura5.10). No
entanto, raramente a localização do pixel da imagem ou mapa de referência e
da imagem que foi georreferenciadairá coincidir exatamente em um mesmo
ponto. Aimprecisão na localização do ponto de controle é demonstrada
pela estimativa do erro RMS. Para solucionar esse problema é realizada
a reamostragem dos pixels, que consiste em determinar o valor do brilho

40
97
SUMÁRIO 5. Pré-Procesamento > 5.3 Correção radiométrica

da imagem corrigida a partir do brilho da imagem original, com base na 5.3 Correção radiométrica
extrapolação dos valores digitais dos pixels. Para o processo de reamostragem
dos pixels podem ser utilizados os seguintes interpoladores: vizinho próximo, A correção radiométrica é necessária principalmente devido à distorção
bilineare convolução cúbica. radiométrica causada pela presença e interferência da atmosfera. A
intensidade da degradação ou distorção radiométricadepende do
comprimento de onda, da data de imageamento e da trajetória da
radiação. A atmosfera absorve a radiação eletromagnética atenuando a
intensidade de energia que ilumina o alvo na superfície, e reflete a radiação
eletromagnética adicionando radiância extra ao sinal que é detectado pelo
sensor. A transparência da atmosfera pode se tornar opaca em determinados
comprimentos de onda quando a atenuação atinge um determinado valor,
mapa imagem impossibilitando a obtenção de imagens.Portanto, deve-se verificar a
degradação causada pelo espalhamento atmosférico, avaliando quanto de
radiação foi adicionado ao pixel e que não é proveniente do alvo (Meneses
e Almeida, 2012). Portanto, aradiância medida pelo sensor é diferente da
Figura 5.10 – Condição ideal na qual o centro do pixel do mapa de referência
radiância real do material, devido ao efeito aditivo do espalhamento causados
corresponde com o centro do pixel da imagem que foi georreferenciada (Meneses e
Almeida, 2012). pelos aerossóis, gases e moléculas d’água da atmosfera.

41
97
SUMÁRIO 5. Pré-Procesamento > 5.3 Correção radiométrica

Dentre as diferentes técnicas de correção atmosférica destaca-se a subtração


escura ou darksubtraction.A correção atmosférica por subtração escura utiliza
os valores digitais do limite inferior do histograma de cada banda(Meneses
e Almeida, 2012).Considerando que cada banda deveria conter pixels com
valores digitais próximos ou iguais a zero, principalmente em áreas de
sombra de relevo e corpos de água límpidos. Mas devido ao espalhamento
atmosférico é adicionado um valor de brilho a todos os pixels da imagem.
Esse valor deve ser identificado no histograma de cada banda espectral e
subtraídopara a remoção da distorção radiométrica (Figura 5.11).

ETM banda 1 (0,45 - 0,52 µm)

57

ETM banda 2 (0,52 - 0,60 µm)

44

ETM banda 3 (0,63 - 0,69 µm)

32

ETM banda 4 (0,76 - 0,90 µm)

28

ETM banda 5 (1,55 - 1,75 µm)

20

ETM banda 7 (2,08 - 2,35 µm)

11

Figura 5.11 – Histogramas das seis bandas do Landsat7 sensor ETM com a indicação
do valor digital que mede a quantidade de espalhamento atmosférico adicionada ao
sinal (Meneses e Almeida, 2012).

42
97
SUMÁRIO 6. Processamento Digital de Imagens

6. Processamento Digital de Imagens


O processamento digital de imagens consiste em executar operações
matemáticas com o objetivo de melhorar a qualidade espectral e espacial das
imagens.A estrutura matricial das imagens facilita a aplicação de operações
matemáticas e estatísticas para analisar o grande volume de dados dos produtos
de sensoriamento remoto. No domínio espectral,as operações são efetuadas
pixel a pixel, onde cada pixel da imagem aumenta o seu contraste independente
do valor do pixel vizinho. No domínio espacial,cada pixel da imagem aumenta o
seu contraste em dependência do valor do pixel dos seus vizinhos. Nesse caso o
processamento irá depender da distribuição espacial dos pixels.

Na literatura são encontradas as mais variadas técnicas de PDI. Nesta apostila


serão abordadas as principais técnicas de realce de dados espectrais e Figura 6.1 – Fluxograma do processamento digital de imagens para realce de dados
espectrais, espaciais e classificação.
espaciais, e a técnica de classificação de imagens (Figura 6.1).

43
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.1 Espaço de cores RGB

6.1 Espaço de cores RGB RGB


Vermelho Verde
Red Green
A visão humana tem baixa percepção para discriminar níveis de cinza, no
máximo 30 tons de cinza. Por outro lado, a percepção da visão humana
aumenta por meio de imagens coloridas, por que a visão humana é colorida.
Por isso a importância da cor para a visualização das imagens multiespectrais
de sensoriamento remoto.

As cores são dividas em cores primárias (vermelho, verde e azul) e cores


Azul
secundárias (amarelo, ciano e magenta). As cores secundárias resultam da Blue

combinação de cores primárias. O ciano é gerado pelas cores azul everde,


Figura 6.2 - Mostra as cores primárias (vermelho, verde e azul), secundárias
magenta pela combinação de azul evermelho, e amarelo resulta das cores
(magenta, amarelo e ciano) e a cor branca.
verde e vermelho (Figura 6.2). Demais cores são obtidas com a variação da
Para a construção de imagens coloridas pode se utilizar o espaço de cores
intensidade de luz de qualquer uma das três cores primárias. A projeção dos
RGB (Figura 6.3). Na composição colorida RGB, três bandas espectrais são
focos de luzes azul, verde e vermelho resulta na cor branca.
selecionadas onde cada banda é representada uma cor primária (Figura 6.4).
Os eixos do cubo no espaço de cores RGB representam a quantização da
radiânciareferente ao comprimento de onda de um conjunto de três bandas.
Os vértices do cubo representam as cores primárias e secundárias. O eixo
diagonal com origem no centro do cubo (preto) e em direção ao vértice oposto
(branco) contem os tons de cinza.

44
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.2 Histograma e aumento de contraste

red 6.2 Histograma e aumento de contraste


(255,0,0)

O histograma é a forma mais comum de representar a distribuição dos valores


amarelo
ou números digitais (ND) de uma imagem, fornecendo informações sobre
magenta
quantos pixels na imagem possuem cada valor possível de ND (Figura 6.5).
branco

preto
Figura 6.5 – Imagens do Landsat da
green
(0,255,0)
região do estado do Ceará. a) imagem sem
blue contraste, b) imagem com contraste, c)
(0,0,255)
histograma com aumento de contraste linear.

Figura 6.3 –Representação do espaço de cores RGB (Meneses e Almeida, 2012).

Figura 6.4 – Composição colorida RGB das


bandas 5, 4 e 3 do Landsat5. O aumento de contraste é uma função que permite redistribuir os valores de
uma imagem ao longo do intervalo de dados (Figura 6.6):

• Na expansão linear os valores são expandidos de forma uniforme. Os níveis


de cinza são deslocados com o intuito de centralizar o histograma próximo
da média.

• Expansão linear por partes é aplicada para imagem com histograma


bimodal ou multimodal.

• Na expansão equalizada os valores são redistribuídos com base na


sua frequência de ocorrência. Geralmente é aplicada em imagens com

45
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.3 Intensidade, Matiz, Saturação

histograma assimétrico para distribuir de forma desigual os valores de brilho entre 6.3 Intensidade, Matiz, Saturação
0 a 255. Os valores são redistribuídos com base na sua frequência de ocorrência.
Espaço IHS trata dos atributos da cor em termos de intensidade, matiz e
• Na expansão Gaussiana dois parâmetros são analisados a média e variância.
saturação.Intensidade (I) é a quantidade de brilho de uma cena (medida do
O contraste é controlado pela média dos resultados e pelo desvio padrão.
albedo).Saturação (S) é o grau de diluição de uma cor pura por luz branca
Aumentando o desvio padrão há um aumento da distribuição dos dados.
(pureza da cor).Matiz define a cor espectral dominante (Figura 6.7).

(a) Histogram 60 108 158


0 255 Image values (DN)
I

Green (1200) amarelo


Green amarelo
(b) No strech
0 60 158 255 Display levels (DN’) a
1,0 branco p’
ciano Red (00)
S p
0 60 108 158 255 Image values (DN) ciano Red
o b
(c) Linear strech
Blue (2400) magenta
0 127 255 Display levels (DN’)
Blue magenta

0 60 108 158 255 Image values (DN)


p é o ponto representando a cor
I = R + G + B/3
(d) Histogram strech
H = ap / ab
S = op / op’
0 38 255 Display levels (DN’)

0.0 preto
Figura 6.6 – Histograma com aumento de contraste linear e por equalização
(Lillesand e Kiefer, 1994)
Figura 6.7 – Modelo de representação dos atributos IHS da cor
(Meneses e Almeida, 2012).

46
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.4 Operação aritmética > 6.4.1 Índice de vegetação

6.4.1 Índice de vegetação


6.4 Operação aritmética
Índice de diferença normalizada de vegetação ou Normalize Difference
O processamento digital de imagens com a aplicação da operação aritmética Vegetation Index (NDVI), envolve a diferença e a soma entre as bandas
é simples e rápido.É um processamento que transforma os dados a partir da na região do comprimento de onda do infravermelho próximo (NIR) e do
combinação de imagens, gerando uma nova imagem em relação às imagens vermelho (RED).
de entrada. O processamento é executado pixel a pixel por meio de uma
regra matemática pré-definida, como por exemplo, as operações de soma, NDVI = NIR-RED/NIR+RED (eq. 6.1)
subtração, multiplicação e divisão (Figura 6.8).

As operações aritméticas de soma e a multiplicação realçam similaridades


Os valores do índice variam de -1 a +1, onde geralmente +1 equivale a áreas de
espectrais entre imagens de diferentes bandas.A subtração e a divisão realçam
densa vegetação, valores negativos às áreas com total ausência de vegetação
diferenças espectrais do alvo.
(água) e valores que se aproximam de zero a solos expostos.

6.4.2 Índice de água

Para o cálculo do Índice de Diferença Normalizada de Água (NDWI)é utilizada a


+ banda na região do comprimento de onda da cor verde (GREEN) e uma banda
– no comprimento de onda do infravermelho próximo (NIR).
=
x
/ NDWI = GREEN – NIR / GREEN + NIR (eq. 6.2)

Figura 6.8 – Operações aritméticas executadas pixel a pixel entre duas bandas
(Menese e Almeida, 2012).

47
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.5 Filtros

por gradientes inclinados, e são conhecidos como bordas. Por variar bastante em
6.5 Filtros
áreas pequenas são denominadas de feições de alta frequência.
Variação no Número Digital (ND) ao longo de uma linha em uma imagem A mistura de frequências em uma imagem dificulta a interpretação de feições
pode ser representada na forma de um gráfico. Essa curva complexa pode ser com frequências específicas. Portanto, para realçar de forma seletiva as
decomposta em um conjunto de ondas senoidais com diferentes frequências e feições de alta, média e baixa frequência são aplicadas técnicas de filtragem
amplitudes (Figura 6.9). espacial.A aplicação de filtros permite destacar principalmente bordas, feições
(a)
lineares de determinadas direções e padrões de textura.Existem duas técnicas
de filtragem:

a. Convolução atua no domínio espacial de uma imagem e emprega o


Brightness

conceito de janela móvel. Os principais tipos de filtros de convolução: passa-


baixa, passa-alta e direcionais.
(b)

b. Análise Fourier atua no domínio da frequência de uma imagem. A análise


Brightness

Fourier não será abordada nesta apostila, mas os conceitos básicos sobre o tema
podem ser consultados emLillesand e Kiefer (1994) e Schowengerdt (1997).
Distance

Figura 6.9 – Variação do número digital ao longo da linha em uma imagem


(a) representado na forma de ondas senoidais (b) com diferentes amplitudes e
frequências (Drury, 2001).

Todas as imagens possuem limites entre áreas com diferentes respostas em


relação à radiação eletromagnética associadas a diferentes coberturas do terreno
(solo, vegetação, rocha), e ao contato entre áreas com diferentes condições de
iluminação (devido ao sombreamento topográfico). Tais limites são representados

48
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.5 Filtros > 6.5.1 Filtro por convolução

6.5.1 Filtro por convolução Filtro passa-baixa

No conceito da janela móvel a janela 3x3 inicia a filtragem a partir do canto O filtro passa-baixa elimina as feições de altafrequência da imagem deixando
superior esquerdo da imagem (Figura6.10). Cada número digital das 9 células ou passar as de baixa frequência. O filtro passa-baixa remove os ruídos eletrônicos
pixels da imagem é multiplicado pelo respectivo valor das 9 células da janela 3x3. comuns nos produtos de sensores remotos (Crósta, 1992). Portanto, a imagem
O valor do pixel central dessa área da imagem é substituído pela soma desses 9 com filtro passa-baixa mostra feições suavizadas (Figuras 6.11a e 6.11b).
valores, atribuindo um novo valor de pixel para a imagem de saída. A imagem de Filtro passa-baixa mais comum é o filtro de média que substitui o número digital (ND)
saída irá possuir valores iguais a zero nos pixels situados nas bordas resultando do pixel original central pela média aritmética do pixel e seus vizinhos (Figura 6.12).
em uma imagem com efeito de bordas (Schowengerdt, 1997;Crósta, 1993).

Figura 6.11 – Imagens com aplicação dos


filtros passa-baixa e passa-alta. a) imagem
original com as componentes de alta e baixa
frequência; b) imagem com passa-baixa com
feições suavizadas; c) imagem com passa-
alta destacando as bordas e limites entre
(a) (b)
áreas com valores diferentes de ND.

(c)

Figura 6.10 - Mostra o conceito da janela móvel de uma janela 3x3


(Lilesand e Kiefer, 1994).

49
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.5 Filtros > 6.5.1 Filtro por convolução

Filtro passa-alta
1/9 1/9 1/9 26 27 32 20 21 19 24

O filtro passa-alta elimina as feições de baixa frequência mantendo apenas


1/9 1/9 1/9 23 27 19 25 22 18 25

1/9 1/9 1/9 27 26 24 26 22 22 26

as de alta frequência (Figura 6.11c). As imagens com filtro passa-alta realçam


or 23 25 28 30 27 25 27

1 1 1 19 22 23 32 29 27 25

1 1 1 x 1/9 17 19 25 27 30 31 22

1 1 1 20 21 25 23 21 19 17 bordas e limites entre áreas com valores de números digitais (ND)diferentes.


(a) (b)

26 25 23 22 22
O tipo mais comum de filtro passa-alta é o filtro Laplaciano que é útil para
central =
pixel
1
9
x
24 + 26 + 22
+ 28 + 30 + 27 = 27
+ 28 + 32 + 29
25

25
26

27
25

27
24

27
26

26
detectar principalmente bordas. A soma dos pesos é geralmente igual a zero.
23

22
26

25
28

27
29

27
27

25
Os principais tipos de filtros Laplacianos são apresentados a seguir:

(c) (d)

Figura 6.12 – Filtro de média com uma janela de 3x3 (a), e estrutura matricial da imagem
com os números digitais (ND) comdestaque para a área sombreada (b), onde o número
0 -1 0 -1 -1 -1
digital do pixel central resulta da média aritmética do pixel e seus vizinhos(c), A imagem
resultante com aplicação do filtro passa-baixa (Drury, 2001).
-1 4 -1 -1 8 -1

0 -1 0 -1 -1 -1

50
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.6 Classificação

Filtro direcional Figura 6.13 – Imagem do relevo obtido pela


missão Shuttle Radar TopographyMission
O filtro direcional é um tipo de filtro passa-alta que tem a capacidade de (SRTM) com a aplicação dos filtros passa-
baixa, passa-alta e direcional Roberts NW. a)
realçar bordas em direções pré-determinadas (Crósta, 1993) (Figuras 6.13b e
imagem do relevo original com as
6.13c). Os filtros direcionais possuem pesos distribuídos de forma assimétrica componentes de alta frequência e baixa
frequência; b) imagem com filtros passa-baixa
ao redor de um eixo. Os filtros direcionais mais comuns são:
e direcional Roberts NW; c) imagem com
filtros passa-alta e direcional Roberts NW.
Filtros de Roberts

0 -1 -1 0
6.6 Classificação
1 0 0 1
O processo de classificação consiste em associar à cada pixel de uma imagem ou
conjunto de imagens (bandas) um “rótulo”, o qual descreverá a presença de um
Filtros de Sobel objeto real (exemplos: vegetação, solo, tipos de rocha). Cada objeto real recebe, em
N-S NE-SW alguns casos, a denominação genérica de tema. Deste modo, o resultado final de
um processo de classificação pode ser um mapa temático mostrando a distribuição
1 2 1 0 1 2 geográfica de um ou mais temas em uma região.

O processo de classificação pode ser entendido considerando o espaço de atributos


0 0 0 -1 0 1 em um espaço n-dimensional (o número de dimensões depende do número de
bandas utilizadas) (Figura 6.14). As relações entre bandas podem ser avaliadas em
-1 -2 -1 -2 -1 0 termos de parâmetros estatísticos tais como: valor médio (centróide), variância,
covariância, coeficiente de variação, coeficiente de correlação, etc.

51
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.6 Classificação > 6.6.1 Classificação não supervisionada (sem áreas-treino)

A classificação é implementada de três formas: não supervisionada (sem que passam nos critérios estabelecidos pelas regras definidas são então
áreas-treino), supervisionada (com áreas-treino) e segmentada (orientado “rotulados” com o nome da classe à qual apresentaram maior afinidade.
a objeto). Nos dois primeiros processos de classificação (supervisionada e As regras de decisão podem ser não-paramétricas ou paramétricas. No
não supervisionada) as regras e parâmetros estatísticos estabelecem se um primeiro caso a classificação de um determinado pixel pode ser feita
determinado pixel pertencerá a uma determinada classe ou não. interativamente no próprio espaço de atributos. A seleção de um determinado
agrupamento de pixels é realizada no espaço de atributos que consiste em
(a)
um gráfico bi-dimensionaldo tipo diagrama de dispersão. No segundo caso, a
Key
classificação é unicamente feita com base em parâmetros estatísticos.
corn

forest 6.6.1 Classificação não supervisionada (sem áreas-treino)


Band Y DN

hay

sand Na classificação não supervisionadadefine-se o número de classes desejadas.


urban Todos os pixels das bandas utilizadas serão avaliados, e as regiões de maior
water
ocorrênciade pixels serão definidas no espaço de atributos. No processo de
Band X DN classificação não supervisionada o agrupamento de pixels é automaticamente
identificado e usado na classificação. Os diferentes agrupamentos de pixels
são mostrados pelos contornos de isovalores(Figura 6.15).
Figura 6.14 – Representação do agrupamento de pixel no espaço de atributos bi-
dimensional(Drury, 2001).

Uma vez que um conjunto de informações associadas aos pixels da imagem foi
determinado (áreas-treino supervisionadas ou não), a classificação é efetuada
comparando as características do conjunto de pixels com as características
determinadas para cada classe. A decisão de alocar um determinado pixel
em uma determinada classe é feita de acordo com algumas regras. Pixels

52
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.6 Classificação > 6.6.2 Classificação supervisionada

A identificação e o traçado das áreas treino são realizados na própria imagemcom


(e) o uso de ferramentas vetoriais. Os diferentes polígonos contendo os pixels
Key representantes de cada área-treino são individualizados e categorizados por
corn
classes. Durante esse processo é preciso garantir que os pixels englobados em
forest

Band Y DN
hay
uma determinada área-treino sejam os mais representativos da classe definida.
equiprobability
contours sand Os números digitais dos pixels das classes são então comparados com os números
urban digitais de cada pixel nas imagens. Geralmente a precisão de um processo de
water
classificação aumenta com o número de bandas utilizadas.
Band X DN

Método do Paralelepípedo
Figura 6.15 – Diagrama do espaço de atributos com a distribuição de todos os pixels
O método do paralelepípedo considera uma área retangular ao redor do
na forma de contornos (Drury, 2001).
conjunto de pixels identificados nas áreas-treino, a qual pode ser definida
6.6.2 Classificação supervisionada pelos valores mínimos e máximos (Figura 6.16). Pode-se usar também o valor
médio e o desvio-padrão.
A classificação supervisionada requer que o usuário tenha conhecimento
sobre a área a ser analisada. A área de interesse deve idealmente ter passado • Vantagens: A implementação do método do paralelepípedo é rápida e
por um tipo de monitoramento de campo (groundtruth) na época da coleta simples, uma vez que os pixels a serem classificados são comparados à
das imagens. As observações de campo devem ser efetuadas em regiões valores e limites que permanecem constantes. Este método é geralmente
específicas e que serão representadaspelas áreas-treino no processo de utilizado em um primeiro passo de análise. Após o resultado analisado pode-
classificação. Nesse contexto, cada pixel da imagem será então comparado se então partir para processos de classificação mais robustos.
às diferentes áreas-treino e associado às áreas commaior compatibilidade • Desvantagens: Os pixels situados fora dos limites dos paralelepípedos não
espectral. Na prática o groundtruth nem sempre é possível e as áreas de podem ser classificados.
treinamento são definidas com base em produtos cartográficos existentes e/
ou nas características identificadas nas próprias imagens utilizadas.

53
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.6 Classificação > 6.6.2 Classificação supervisionada

• Vantagens: Se cada pixel estiver próximo a uma determinada área-treino,


(b)
jamais haverá pixel não classificado. Após o método por paralelepípedo, o
Key

corn
método por distância mínima é o método de classificação mais rápido de ser
forest processado.

Band Y DN
hay
equiprobability
contours sand
• Desvantagens: Todos os pixels serão obrigatoriamente classificados.
urban

water
(d)

Band X DN

Key

corn

Figura 6.16 –Diagrama do espaço de atributoscom a localização dos pixels forest

Band Y DN
1

pertencentes a um conjunto de áreas-treinos. Os limites de decisão da classificação hay


equiprobability
pelo método do paralelepípedo são mostrados em torno de cada classe (Drury, 2001). contours sand

urban

Método da distância mínima water

O método da distância mínima classifica um determinado pixel calculando Band X DN

a distância espectral entre o pixel a ser classificado e o valor médio de cada


Figura 6.17 - Diagrama do espaço de atributos com a localização dos pixels e a
área-treino (Figura 6.17). A figura mostra as distâncias espectraisque unem classificação baseada no método da distância mínima (Drury, 2001).
o pixel a ser classificado e as médias das três áreas-treino. O pixel a ser
classificado irá integrar a classe cujo valor médio estiver mais próximo do
valor do pixel em análise.

54
97
SUMÁRIO 6. Processamento Digital de Imagens > 6.6 Classificação > 6.6.3 Classificação por segmentação (Orientada a objeto)

6.6.3 Classificação por segmentação (Orientada a objeto) • Relaçõestopológicas:


A classificação segmentada ou orientada a objeto efetua a classificação com ‫ ؞؞‬classe dos objetosvizinhos, sub-objetosou super-objetos
base nas unidades da paisagem (Interimage, 2010). Nesse caso as unidades ‫ ؞؞‬árearelativa dos sub-objetos
da paisagemsão consideradas como objetos (Figura 6.18). Visualizar a imagem
em unidades da paisagem ou objetos é a forma mais próxima do processo de
Figura 6.18 – Classificação orientada a
interpretação da paisagem feita pelo homem. objeto (Interimage, 2010)
A classificação segmentada subdivide a imagem em segmentos ou em regiões.
Para classificação são definidos os parâmetros e regras pelo usuário com base
em alguns atributos apresentados a seguir:
• Valoresespectrais:
‫ ؞؞‬Media
‫ ؞؞‬Mediana
‫ ؞؞‬Valor mínimo
‫ ؞؞‬Valor máximo
‫ ؞؞‬Desviopadrão
• Propriedadesgeométricas:
‫ ؞؞‬área, comprimento, perímetro, forma
‫ ؞؞‬propriedades de textura

55
97
SUMÁRIO 7. Comportamento Espectral de Alvos > 7.1 Assinatura espectral > 7.1.1 Vegetação

7. Comportamento Espectral de Alvos


7.1 Assinatura espectral 7.1.1 Vegetação
As plantas usam a energia solar para converter água e dióxido de carbono em
Diferentes materiais refletem, emitem ou absorvem energia eletromagnética
carboidrato e oxigênio através do processo de fotossíntese (Figura 7.2). A folha
em um pequeno intervalo de comprimento de onda. Deste modo, o conjunto de
sadia tem uma estrutura celular dividida basicamente em epiderme superior,
reflexões e absorções define a assinatura espectral de cada matéria (Figura 7.1).
mesófilo (paliçádico e esponjoso) e epiderme inferior.A assinatura espectral
da vegetação mostra três comportamentos distintos para a interação da
60
radiação eletromagnética com a vegetação verde sadia.
Visible Near- Mid-infrared

50 Soil
Na região do visível são observadas duas regiões do espectro eletromagnético
40
com absorção em 0,45 e 0,52 μm e em 0,63 e 0,69 μm. Essaabsorção se deve
Reflectance (%)

Green
30 vegetation
a clorofila da folha e está associado com apigmentação foliar existente no
20
mesófilo palaçádico. Na região do infravermelho próximo a vegetação sadia
10
Water
apresenta alta reflectância e alta transmitância. A camada do mesófilo
0.5 0.7 0.9 1.1 1.3 1.5 1.7 1.9 2.1 2.3 2.5
esponjoso controla a energia do infravermelho próximo refletida. Na região
Wavelength (μm)
do infravermelho médio, quanto maior a quantidade de água contida na folha
menor a reflectância da energia.
Figura 7.1 – Diagrama mostrando a variação da reflectância ao longo do comprimento
de ondas de diferentes materiais caracterizandodiferentes assinaturas espectrais.

56
97
SUMÁRIO 7. Comportamento Espectral de Alvos > 7.1 Assinatura espectral > 7.1.2 Água

4
Fatores dominantes Reflectância de Água Clara e
Pigmentos Estrutura
da folha da célula
Conteúdo de água que controlam a
3.5 de Água com Algas
reflectância das folhas

Percentagem de Reflectância
80
3
70 Absorção Absorção Principais bandas Água
pela clorofila pela água de absorção clara Água contendo algas
60 2.5

Reflectância (%)
50

40
2
30
1.5
20

10 1
0
0.4 0.6 0.8 1.0 1.3 1.4 1.6 1.8 2.0 2.2 2.4 2.6 0.5
Comprimento de onda (μm)
0
Visível Infravermelho Infravermelho
azul próximo médio
400 500 600 700 800 900
verde
vermelho
Comprimento de Onda (nm)

Figura 7.2 – Assinatura espectral da vegetação na região do visível e do infravermelho. Figura 7.3 - Assinaturas espectrais da água clara e da água contendo algas no
espectro eletromagnético.

7.1.2 Água 7.1.3 Rocha e minerais


Águatem alta transmitância na região do comprimento de onda do azul. As rochas e minerais apresentam assinaturas espectrais similares aos dos
A transmitância aumentaa medida que o comprimento de onda diminui, solos, pelo fato de que os solos são produtos de alteração das rochas.
principalmente na região violeta ao azul claro. Como resultado, apenas a luz Diferentes rochas e minerais irão apresentar assinaturas espectrais distintas
azul penetra na água a certa profundidade, e a energia no comprimento de devido a variação na composição química e a diferentes formas de interação
onda mais longoé absorvidanos níveis mais rasos. Na região do infravermelho da radiação eletromagnética com a matéria. As rochas são constituídas por
próximo e médio a água atua como um corpo negro absorvendo toda a uma assembleia de minerais. Portanto, a sua assinatura espectral estará
energia incidente.A presença de sedimentos em suspensão, plânctons e associada com a suacomposição química e com a proporção em abundância
corantes naturais aumentam a reflectância da água principalmente na região dos constituintes minerais da rocha.
do visível (Figura 7.3).

57
97
SUMÁRIO 7. Comportamento Espectral de Alvos > 7.1 Assinatura espectral > 7.1.4 Materiais urbanos

As assinaturas espectrais do folhelho e andesito mostram as características de reflectância de alguns materiais urbanos como, por
comportamentosespectrais distintos quanto areflectância ao longo do exemplo, a ardósia, concreto, tijolo vermelho, asfalto, telha de asfalto e grama
espectro eletromagnético (Figura 7.4). A curva espectral do folhelho mostra sintética. A assinatura espectral do asfalto apresenta reflectância crescente
alta reflectância em relação ao andesito. É caracterizada por regiões de de 10 para 15% em 0,4 a 0,6 μm e de 15 para 20% em 0,4 a 1,05μm. O concreto
absorção causadas pelo ferro, pela água e pela hidroxila (OH). Para um estudo apresenta alta reflectância de 27 a 30% na região do visível (0,4 a 0,6μm)se
mais detalhado sobre a assinatura espectral de rochas e minerais, consultar comparado aos demais materiais urbanos.
Drury (2001), Novo (2010) e Jensen (2011).
40

Região de Região de Região de


absorção pelo absorção pela absorção pel0
ferro água OH 30

Percentagem de Reflectância
0.6

20 Ardósia (vermelha)
0.4 Asfalto
Concreto
p Folhelho Grama saudável
10
Grama senescente
0.2 Grama sintética
Telha de asfalto (preta)
Andesito Tijolo (vermelho)
0
0,4 0,5 0,6 0,7 0,8 0,9 1,0
0 Comprimento de Onda, μm
0.3 0.5 1.0 1.5 2.0 2.5
λ, μm

Figura 7.5 – Assinaturas espectrais para materiais urbanos comuns no espectro


eletromagnético (Novo, 2010).
Figura 7.4 – Assinaturas espectrais de dois tipos de rochas (Novo, 2010).

7.1.4 Materiais urbanos

Os materiais que compõem as áreas urbanizadas ou antropizadas também


são analisados em termos de comportamento espectral, cujas assinaturas
espectrais são determinadas por um espectrorradiômetro. A figura 7.5 mostra

58
97
SUMÁRIO

Referência Bibliográfica
CRÓSTA, A. P. 1992. Processamento digital de imagens de Sensoriamento ROBINSON, A.H.; MORRISON, J.L.; MUEHRCKE, P.C.; KIMERLING, A.J.; GUPTILL,
Remoto. IG/UNICAMP, Campinas, 170p. S.C. 1995. ElementsofCartography. Ed. John Wiley& Sons, 6 edição, 674p.

CURRAN, P. J. 1985. Principlesof Remote Sensing. SCHOWENGERDT, R.A. 1997. Remote Sensing. Modelsandmethods for
LongmanScientific&Technical, Essex, 282 p. imageprocessing. Academic Press. 521p.

DRURY, S. A., 2001. Imageinterpretation in geology. Blackwell, 290p. SOARES, P.C. & FIORI, A.P. 1976. Lógica e sistemática na interpretação
geológica de fotografias aéreas. Rev. Pesquisas, UNESP, Rio Claro.
JENSEN, J. R.; EPIPHANIO, J. C. N. 2011. Sensoriamento remoto do
ambiente: uma perspectiva em recursos terrestres. São José dos Campos, SOUZA FILHO, C.R. & CRÓSTA, A.P. 2003. Geot
SP: Parêntese, 598 p.

LILLESAND, T. M.; KEIFER, R. W. 1994. Remote


SensingandImageInterpretation. 3rd.Edition. John Wiley& Sons, New York,
749 p.

MENESES, P.R.; ALMEIDA, T. 2012. Introdução ao Processamento de Imagens


de Sensoriamento Remoto. http://www.cnpq.br/web/guest/livro-eletronico

NOVO, E. M. L. 1989. Sensoriamento Remoto. Ed. Edgard Blücher, São Paulo,


307 p.

SABINS, F. F. 1986. Remote Sensing: principlesandinterpretation. W. H.


Freeman andCompany, New York, 449p.

59
97
SUMÁRIO

Contato
geospu@planejamento.gov.br

Saiba mais:
http://www.planejamento.gov.br/assuntos/gestao/
patrimonio-da-uniao/geoinformacao

60
97
SUMÁRIO

Imagens

61
97
SUMÁRIO

Campo Elétrico E
E
Comprimento da onda

Campo Magnético M
M

Frequência Velocidade da luz


(número de cíclos por segundo)

Figura 1.1 – Flutuação dos campos elétrico (E) e magnético (M) com a propagação da radiação eletromagnética a velocidade da luz (Meneses & Almeida, 2012).
SUMÁRIO

100
90
80
Radiação
70
Solar
60
50
40
30
20 Radiação
10 Terrestre
0
0,1 0,5 1,0 1,5 2,0 10 20 30 40 50
Comprimento de onda em micrômetros

Ultravioleta Visível Infravermelho

Ondas Curtas Ondas Longas

Figura1.2 – Intensidade da energia radiante emitida pelo Sol e pela Terra(Meneses & Almeida, 2012).
Refração Atmosférica
SUMÁRIO

Energia radiante Normal à


incidente superfície

Atmosfera
θ1
n1 = índice de refração
opticamente para esta camada
menos densa da atmosfera

Percurso da
energia na
n2 atmosfera
homogênea
Atmosfera
opticamente
mais densa θ2

n3
Atmosfera
opticamente θ3
menos densa

Percurso da energia afetada


pela refração atmosférica

Figura 1.3 – Exemplo de refração em três camadas atmosféricas não turbulentas (Jensen, 2011).
SUMÁRIO

O3, aerossóis estratosféricos

Altitude Acima do Nível do Mar


20 km

15 km O2, CO2, gases traços

10 km
8 km
Moléculas de gás
(espalhamento Rayleigh)
2-3 km
H2O, aerossóis estratosféricos

Superfície doTerreno

Figura 1.4 – Principais subdivisões da atmosfera e os tipos de moléculas e aerossóis encontrados em cada camada(Jensen, 2011).
SUMÁRIO

Espalhamento Atmosférico
Espalhamento Rayleigh
a. Molécula de gás

Espalhamento Mie λ

b. diâmetro Fumaça, poeira

Fóton de energia
Espalhamento Não-seletivo eletromagnética
modelado como
uma onda

c. Vapor
d’água

Figura 1.5 – O tipo de espalhamento atmosférico é uma função do comprimento de onda e o tamanho da molécula de gás, partículas de poeira e fumaça, e gotículas
de vapor d’água (Jensen, 2011).
3 2,75 2,5 2,25 2 1,75
SUMÁRIO

100
Energia em elétro-volts (eV)

80

Intensidade da Luz Espalhada


60

40

20

B G Y O R
0
0,4 0,5 0,6 0,7
Comprimento de Onda, µm

Figura 1.6 – A intensidade do espalhamento Rayleigh é inversamente proporcional à quarta potência do comprimento de onda (Jensen, 2011)
SUMÁRIO

Radiação solar no
2000 topo da atmosfera

Radiação Solar ( W m-2 µm-1 )


Radiação solar ao
nível do mar
1500 O3
H2O
O2, H2O
1000
H 2O
H 2O
H2O
500
H2O CO2
O3 H2O CO2 H2O CO2
0
0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 2,6 2,8 3,0 3,2

Comprimento de Onda, µm

Figura 1.7 – Curvas de radiação solar mostrando a energia absorvida pelos gases em diferentes comprimentos de onda (Drury, 2001).
SUMÁRIO

NEAR INFRARED
UV VNIR FAR
VISIBLE SWIR MID INFRARED INFRARED
100

Transmission (%)
80
60
40
20
0
0,3 0,5 1 1,5 2 3 5 10 15 20 30
Wavelength (µm)

FAR INFRARED MICROWAVE


Transmission (%) 100
80
60
40
20
0
300 500 1000 0,5 1 5 10 50 80
0,1
(µm) Wavelength (µm)

Figura 1.8 –Principais janelas atmosféricas ao longo do espectro eletromagnético em escala logarítmica e a porcentagem de transmissão da radiação eletromagnética
na atmosférica (Drury, 2001).
SUMÁRIO

θ θ

(a) (b) (c)

Figura 1.9 – Exemplos de reflexão. a) Reflexão especular;b) Reflexão difusa ou Lambertiana; c) Reflexão envolvendo as componentes especular e difusa (Drury, 2001).
SUMÁRIO

Fluxo Φ
Normal à superficie
Área A
θ

Área projetada
A cos θ

Área A
L = (Φ/Ω)/A cos θ

Figura 1.10 –Conceito de radiância de uma área projetada em uma direção específica e normal à superfície (Novo, 2009).
SUMÁRIO

rain and fog


scattering attenuation

atomic molecular molecular Phenomena


processes vibration rotation eletric and magnetic
electron shifts
field fluctuations
heating heating

Wavelength

10 pm 100 pm 1 nm 10 nm 100 nm 1 µm 10 µm 100 µm 1 mm 1 cm 10 cm 1m 10 m 100 m 1 km 10 km 100 km 103 km 104 km 3 x 105 km

1020 1018 1016 1014 1012 1010 108 106 104 102 1
radio bands
gamma visible
Frequency (Hz)
radiation radar
(waves s1)
X-rays ultra- microwave
violet
near mid far
infrared

Figura 1.11– Espectro eletromagnético mostrando a relação entre comprimento de onda e frequência, e os fenômenos envolvidos na geração e interação da radiação
eletromagnética, e a nomenclatura de diferentes partes do espectro (Drury, 2001).
SUMÁRIO

54 40 31 27 27 28 39 51 52 50 45 25 24 24 23

55 37 37 35 31 27 26 35 58 66 38 13 17 21 19

56 40 39 45 39 32 27 26 36 52 50 28 14 13 14
Pixel (pictureelement)
52 39 33 42 49 48 36 31 26 33 51 51 31 16 16

42 34 24 30 60 67 49 33 27 28 31 47 51 35 24

26 29 26 44 76 76 49 37 33 30 29 29 44 52 44

14 31 36 50 85 70 36 37 38 30 25 29 28 40 52

20 31 39 51 72 56 35 35 37 35 31 27 29 31 36

21 26 36 46 58 49 37 35 36 37 34 33 26 29 30

21 20 29 43 54 53 40 31 30 32 30 29 24 22 27

Figura 2.1 – Imagem digital com sua estrutura na forma de uma matriz com a representação dos números digitais em cada pixel.
SUMÁRIO

Figura 2.2 – Imagens dos satélites Landsat com resolução espacial de 30m, SPOT com 10m e IKONOS com 1m (Meneses e Almeida, 2012).
SUMÁRIO

FOV

IFOV

Swath

Figura 2.3 – O IFOV define o campo de visada que projeta sobre a superfície a dimensão mínima da área vista pelo sensor.
SUMÁRIO

Figura 2.4– Imagens com resoluçãoradiométrica distinta. a) Imagem com resolução radiométrica de 1 bit (branco e preto); b) imagem com resolução radiométrica de
16bits (65.536 níveis de cinza).
SUMÁRIO

4
50
band
3 TM band AVIRIS
1 2
1

y y

λ λ
900 900

wavelength (nm) wavelength (nm)


x x
400 400

Figura 2.5 – Resolução espectral do Landsat5/TM (multiespectral com 4 bandas) e AVIRIS (hiperespectral com 50 bandas) no intervalo do comprimento de ondas do
visível e infravermelho próximo (Schowengerdt,2007).
SUMÁRIO

Day
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
1 Equador

Spacing between
successive orbits
2752 km

Figura 2.6 – Resolução temporal de 16 dias do Landsat5/TM (Robinson, 1995).


SUMÁRIO

Passive Remote Sensing Active Remote Sensing

Atmospheric
Sun Absorbtion Radar Imaging

Atmospheric
Reflectance Reflected
Emitted
by objects
by sensor
Reflected
by objects
Emitted
by objects

Figura 3.1 – Sensores passivos e ativos e a sua relação com as fontes naturais (Sol e Terra) e artificiais de radiação eletromagnética
SUMÁRIO

Fotografia Imagem

Lentes

Objeto

Figura 3.2 –Sistema fotográfico constituído por câmera e filme.


SUMÁRIO

Superfície
de vácuo
Bobina de para Bobina de Carretel
recolhimento aplanar filme virgem do Filme
o filme
Filme

Corpo da
Eixo Câmera
Plano Focal
óptico
Distância
Focal. ƒ

Montagem do
Cone das Lentes

Lente traseira do
ponto nodal Lente
Obturador Diafragma
Lente dianteira
Filtro do ponto nodal

Figura 3.3 – Vista do perfil da câmera métrica e dos componentes do sistema (Jensen, 2011).
SUMÁRIO

Figura 3.4 – Câmera com múltiplas objetivas (Jensen, 2011).


SUMÁRIO

Detectores

Óptica

Espelho
oscilatório

Direção de avanço
da plataforma

Figura 3.5 – Sistema de varredura mecânica com espelho oscilatório (Novo, 2010).
SUMÁRIO

Matriz linear
de detectores

Óptica

Matriz linear
projetada no terreno

Direção de avanço
da plataforma

Figura 3.6 – Sistema de varredura eletrônicacom arranjo linear de detectores CCD (Novo, 2010).
SUMÁRIO

6
Eixo de Radiação 8
rotação refletida 5 7
9
3
2 4
10
Motor
Radiação
emitida
11
1

1 – Telescópio
2 – Espelhofigratório
3 – Óptica
4 – Grade dicrômica
5 – Prisma
Direção do voo 6 – Detectores
7 – Controle eletrônico
8 – Tubo de raios catódicos
9 – Filme
10 – Gravador
11 – Conversor analógico/digital e gravador

Faixa de terreno sendo imageado

Figura 3.7 - Sistema de varredura multiespectral com os principais componentes (Novo, 2010).
SUMÁRIO

Range
ou
alcance

Pulso
Retroespalhamento

Figura 3.9 - Configuração de um sistema RADAR com transmissor e detector de energia (Novo, 2010).
SUMÁRIO

z
B

A2 A2

r - Δr r

h
y

Figura 3.10 – Aquisição de imagens por Radar de Abertura Sintética por interferometria.
SUMÁRIO

Figura 4.1 – Diferentes níveis de aquisição de dados por sensoriamento remoto (Novo, 2010).
SUMÁRIO

Fotografia Aérea
Plano do filme Vertical de um
da câmera Terreno Plano

Altura acima da
superfície (AAS) Campo de
visada

Eixo
óptico

Ponto principal
(PP) 900

Figura 4.2 – Fotografia aérea vertical em um relevo plano (Jensen, 2011).


SUMÁRIO

Direção de voo
Posição de exposição
#1 #2 #3
Altitude
lente acima do
nível do
solo, H

60% de
sobreposição
Modelo estereoscópico
Cobertura da fotografia
terreno registrado em três
fotografia sucessivas

Figura 4.3 – Fotografias aéreas obtidas ao longo da linha de voo com 60% de sobreposição.
SUMÁRIO

Z
Y
GPS
X

IMU
κ
transmissor/receptor γ
espelho de Φ

alcan
varredura
Altitude AGL, h

ce (R
ângulo de varredura
θ

ange
divergência
do feixe

)
γ
laser γ
área de visada
instantânea
do laser

Figura 4.4 – O Lidar possui um sistema de imageamento por varredura que emite o pulso de luz laser em uma área com uma forma aproximadamente circular.
SUMÁRIO

Figura 4.6 – Conjunto de pontos coletados pelo receptor do Lidar para uma área com vegetação (Fonte: Embrapa)
SUMÁRIO

Figura 4.7 – Satélite Landsat8.


SUMÁRIO

2a Aquisição 1a Aquisição
Fim Início Fim Início
3B 3N

64 55 9 0 seg.
6.7 km/seg B

3B

705 km
3N
H

0
27,6

430 370 60 0 km Solo

B - Base
Estereoscópica Cena
H - Altitude da órbita Estereoscópica 1

Figura 4.5 –Cenas estereoscópicas obtidas na região do visível.


SUMÁRIO

Figura 4.6 – Satélite CBERS-4 (Fonte: INPE).


SUMÁRIO

Figura 4.7 – Satélite ALOS 2.


SUMÁRIO

Figura 4.8 –Satélite IKONOS (Fonte: DigitalGlobe)


SUMÁRIO

Figura 4.9 –Satélite WorldView-4 (Fonte: DigitalGlobe).


SUMÁRIO

Figura 4.10 – Sistema sensor da missão SRTM por interferometria (Drury, 2004).
SUMÁRIO

Figura 5.1- Imagem com linhas com valores saturados (Meneses e Almeida, 2012).
SUMÁRIO

Figura 5.2 – Imagens de satélite com a identificação de pontos de controle (pista de aeroporto, bifurcação e cruzamento de vias de acesso) em área urbanizada
destacados com círculo vermelho.
SUMÁRIO

Figura 5.3 – GPS diferencial e a ortofoto com a localização dos pontos de controle representados por pontos no limite do terreno.
SUMÁRIO

Figura 5.4 – Parte da carta planialtimétrica (IBGE, escala 1:50.000) com a grade de coordenadas em UTM e os pontos de controle destacados com círculo vermelho.
SUMÁRIO

Figura 5.5 – Mapa planialtimétrico com pontos de controle identificados para o georreferenciamento da imagem de satélite (Meneses e Almeida, 2012).
SUMÁRIO

Figura 5.6 - Georreferenciamento de imagem para imagem, na qual uma das imagens está ortorretificada ou georrerferenciada.
SUMÁRIO

Figura 5.7 – Tabela de correlação com as coordenadas X e Y da imagem georreferenciada e não georreferenciada.
SUMÁRIO

Figura 5.8 –Tabela com pontos de controle e os erros RMS associados.


SUMÁRIO

PC fonte Residual X

Residual Y Erro RMS

PC saída

Figura 5.9 – Representação geométrica da medida do erro RMS de um ponto de controle (Meneses e Almeida, 2012).
SUMÁRIO

mapa imagem

Figura 5.10 – Condição ideal na qual o centro do pixel do mapa de referência corresponde com o centro do pixel da imagem que foi georreferenciada
(Meneses e Almeida, 2012).
SUMÁRIO

ETM banda 1 (0,45 - 0,52 µm)

57

ETM banda 2 (0,52 - 0,60 µm)

44

ETM banda 3 (0,63 - 0,69 µm)

32

ETM banda 4 (0,76 - 0,90 µm)

28

ETM banda 5 (1,55 - 1,75 µm)

20

ETM banda 7 (2,08 - 2,35 µm)

11

Figura 5.11 – Histogramas das seis bandas do Landsat7 sensor ETM com a indicação do valor digital que mede a quantidade de espalhamento atmosférico adicionada
ao sinal (Meneses e Almeida, 2012).
SUMÁRIO

Figura 6.1 – Fluxograma do processamento digital de imagens para realce de dados espectrais, espaciais e classificação.
SUMÁRIO

RGB
Vermelho Verde
Red Green

Azul
Blue

Figura 6.2 - Mostra as cores primárias (vermelho, verde e azul), secundárias (magenta, amarelo e ciano) e a cor branca.
SUMÁRIO

red
(255,0,0)

amarelo
magenta

branco

preto

green
(0,255,0)
blue
(0,0,255)

Figura 6.3 –Representação do espaço de cores RGB (Meneses e Almeida, 2012).


SUMÁRIO

Figura 6.4 – Composição colorida RGB das bandas 5, 4 e 3 do Landsat5.


SUMÁRIO

Figura 6.5 – Imagens do Landsat da região do estado do Ceará. a) imagem sem contraste, b) imagem com contraste, c) histograma com aumento de contraste linear.
SUMÁRIO

(a) Histogram 60 108 158


0 255 Image values (DN)

(b) No strech
0 60 158 255 Display levels (DN’)

0 60 108 158 255 Image values (DN)

(c) Linear strech

0 127 255 Display levels (DN’)

0 60 108 158 255 Image values (DN)

(d) Histogram strech

0 38 255 Display levels (DN’)

Figura 6.6 – Histograma com aumento de contraste linear e por equalização (Lillesand e Kiefer, 1994)
SUMÁRIO

Green (1200) amarelo


Green amarelo

1,0 branco a p’
ciano Red (0 )
0
S p
ciano Red
o b

Blue (2400) magenta


Blue magenta

p é o ponto representando a cor


I = R + G + B/3
H = ap / ab
S = op / op’

0.0 preto

Figura 6.7 – Modelo de representação dos atributos IHS da cor (Meneses e Almeida, 2012).
SUMÁRIO


=
x
/

Figura 6.8 – Operações aritméticas executadas pixel a pixel entre duas bandas (Menese e Almeida, 2012).
SUMÁRIO

(a)

Brightness
(b)

Brightness

Distance

Figura 6.9 – Variação do número digital ao longo da linha em uma imagem (a) representado na forma de ondas senoidais (b) com diferentes amplitudes e frequências
(Drury, 2001).
SUMÁRIO

(a) (b)

(c)

Figura 6.10 - Mostra o conceito da janela móvel de uma janela 3x3 (Lilesand e Kiefer, 1994).
SUMÁRIO

Figura 6.11 – Imagens com aplicação dos filtros passa-baixa e passa-alta. a) imagem original com as componentes de alta e baixa frequência; b) imagem com passa-
baixa com feições suavizadas; c) imagem com passa-alta destacando as bordas e limites entre áreas com valores diferentes de ND.
SUMÁRIO

1/9 1/9 1/9 26 27 32 20 21 19 24

1/9 1/9 1/9 23 27 19 25 22 18 25

1/9 1/9 1/9 27 26 24 26 22 22 26

or 23 25 28 30 27 25 27

1 1 1 19 22 23 32 29 27 25

1 1 1 x 1/9 17 19 25 27 30 31 22

1 1 1 20 21 25 23 21 19 17

(a) (b)

26 25 23 22 22

24 + 26 + 22 25 26 25 24 26
1
central = x + 28 + 30 + 27 = 27
9 25 27 27 27 26
pixel + 28 + 32 + 29

23 26 28 29 27

22 25 27 27 25

(c) (d)

Figura 6.12 – Filtro de média com uma janela de 3x3 (a), e estrutura matricial da imagem com os números digitais (ND) comdestaque para a área sombreada (b), onde o número
digital do pixel central resulta da média aritmética do pixel e seus vizinhos(c), A imagem resultante com aplicação do filtro passa-baixa (Drury, 2001).
SUMÁRIO

Figura 6.13 – Imagem do relevo obtido pela missão Shuttle Radar TopographyMission (SRTM) com a aplicação dos filtros passa-baixa, passa-alta e direcional Roberts NW. a) imagem do relevo
original com as componentes de alta frequência e baixa frequência; b) imagem com filtros passa-baixa e direcional Roberts NW; c) imagem com filtros passa-alta e direcional Roberts NW.
SUMÁRIO

(a)

Key
corn

forest

Band Y DN
hay

sand

urban

water

Band X DN

Figura 6.14 – Representação do agrupamento de pixel no espaço de atributos bi-dimensional(Drury, 2001).


SUMÁRIO

(e)

Key

corn

forest

Band Y DN
hay
equiprobability
contours sand

urban

water

Band X DN

Figura 6.15 – Diagrama do espaço de atributos com a distribuição de todos os pixels na forma de contornos (Drury, 2001).
SUMÁRIO

(b)

Key

corn

forest

Band Y DN
hay
equiprobability
contours sand

urban

water

Band X DN

Figura 6.16 –Diagrama do espaço de atributoscom a localização dos pixels pertencentes a um conjunto de áreas-treinos. Os limites de decisão da classificação pelo
método do paralelepípedo são mostrados em torno de cada classe (Drury, 2001).
SUMÁRIO

(d)

Key

corn

forest
Band Y DN
1

hay
equiprobability
contours sand

urban

water

Band X DN

Figura 6.17 - Diagrama do espaço de atributos com a localização dos pixels e a classificação baseada no método da distância mínima (Drury, 2001).
SUMÁRIO

Figura 6.18 – Classificação orientada a objeto (Interimage, 2010)


SUMÁRIO

60 Visible Near- Mid-infrared

50 Soil

40
Reflectance (%)

Green
30 vegetation

20

10
Water

0.5 0.7 0.9 1.1 1.3 1.5 1.7 1.9 2.1 2.3 2.5
Wavelength (μm)

Figura 7.1 – Diagrama mostrando a variação da reflectância ao longo do comprimento de ondas de diferentes materiais caracterizandodiferentes assinaturas espectrais.
SUMÁRIO

Fatores dominantes
Pigmentos Estrutura
da célula
Conteúdo de água que controlam a
da folha
reflectância das folhas
80

70 Absorção Absorção Principais bandas


60 pela clorofila pela água de absorção

Reflectância (%)
50

40

30

20

10

0
0.4 0.6 0.8 1.0 1.3 1.4 1.6 1.8 2.0 2.2 2.4 2.6
Comprimento de onda (μm)

Visível Infravermelho Infravermelho


azul próximo médio
verde
vermelho

Figura 7.2 – Assinatura espectral da vegetação na região do visível e do infravermelho.


SUMÁRIO

4
Reflectância de Água Clara e
3.5 de Água com Algas

Percentagem de Reflectância
3
Água
clara Água contendo algas
2.5

1.5

0.5

0
400 500 600 700 800 900
Comprimento de Onda (nm)

Figura 7.3 - Assinaturas espectrais da água clara e da água contendo algas no espectro eletromagnético.
SUMÁRIO

Região de Região de Região de


absorção pelo absorção pela absorção pel0
ferro água OH
0.6

0.4

p Folhelho

0.2

Andesito

0
0.3 0.5 1.0 1.5 2.0 2.5
λ, μm

Figura 7.4 – Assinaturas espectrais de dois tipos de rochas (Novo, 2010)


SUMÁRIO

40

30

Percentagem de Reflectância

20 Ardósia (vermelha)
Asfalto
Concreto
Grama saudável
10
Grama senescente
Grama sintética
Telha de asfalto (preta)
0 Tijolo (vermelho)
0,4 0,5 0,6 0,7 0,8 0,9 1,0
Comprimento de Onda, μm

Figura 7.5 – Assinaturas espectrais para materiais urbanos comuns no espectro eletromagnético (Novo, 2010).

Você também pode gostar