Escolar Documentos
Profissional Documentos
Cultura Documentos
CURSO DE
GEODÉSIA E CARTOGRAFIA
DISCIPLINA DE
SENSORIAMENTO REMOTO
1. FUNDAMENTOS TEÓRICOS
1.1. Definição
Em princípio, pode-se definir sensoriamento remoto como a tecnologia que permite a
aquisição de informação sobre objetos sem contato físico com eles. O sensoriamento
remoto consiste na detecção da natureza de um objeto sem tocá-lo. O termo é associado à
aquisição de medidas na qual o ser humano não é parte essencial do processo de detecção
e registro dos dados.
Pode-se dizer que sensoriamento remoto é a utilização de sensores para a aquisição
de informações sobre objetos ou fenômenos sem que haja contato direto entre eles. Os
sensores seriam os equipamentos capazes de coletar energia proveniente do objeto,
convertê-la em sinal passível de ser registrado e apresentá-lo em forma adequada a
extração de informações.
A partir dessa definição de sensoriamento remoto e da compreensão das funções de
sensor, pode-se observar que a transferência de dados dos objetos para o sensor é feita
através de energia.
Torna-se necessário, novamente, especificar melhor a definição de sensoriamento
remoto no que diz respeito ao tipo de energia utilizada na transferência de informação do
objeto ao sensor. Restringe-se aqui, a utilização do termo sensores remotos aos
equipamentos que operam apenas através da detecção da energia eletromagnética ou
radiação eletromagnética. O termo sensoriamento remoto é restrito aos métodos que se
utilizam da energia eletromagnética na detecção e medida das características de objetos.
Tendo em vista que a energia eletromagnética se propaga no vácuo com a velocidade
de 3 x 108 m/s em direção ao sensor, ela se constitui no mais útil campo de força para a
atividade de sensoriamento remoto, formando um meio de transferência de informação de
alta velocidade entre as substâncias ou objetos de interesse e o sensor.
Assim sendo, passa-se aqui, a se preocupar apenas com os equipamentos que
medem a energia eletromagnética. Como existem numerosas fontes de energia
eletromagnética no universo, limita-se no contexto dessa disciplina, estudar somente às
interações que se processam na superfície terrestre.
Pode-se, então, a partir de agora, definir sensoriamento remoto como sendo a
utilização conjunta de modernos sensores, equipamentos para processamento de dados,
equipamentos de transmissão de dados, aeronaves, espaçonaves, etc., com o objetivo de
estudar o ambiente terrestre através do registro e da análise das interações entre a radiação
eletromagnética e as substâncias componentes do planeta Terra em suas mais diversas
manifestações.
O termo sensoriamento remoto, para recursos naturais, tem sido definido de várias
maneiras. Porém, todas elas expressam um objetivo comum, ou seja, o conjunto de
atividades utilizadas para obter informações a respeito dos recursos naturais, do planeta
Terra, através da utilização dos dispositivos sensores colocados em aviões, satélites ou, até
mesmo, na superfície. Em algumas definições há até menção de trocas energéticas entre os
objetos ou fenômenos com o meio ambiente. De qualquer forma, percebe-se, claramente,
que o enfoque maior é transmitir a idéia de uma nova tecnologia (conjunto de programa
“softwares” e equipamentos “hardwares”) colocada à disposição do homem, para auxiliá-lo
nas indagações sobre o manejo do meio ambiente.
Esta forma de conceituar o sensoriamento remoto é válida sob o ponto de vista
tecnológico, uma vez que, possibilita o homem obter outros tipos de informações acerca dos
recursos naturais, além daqueles perceptíveis pelos órgãos do sentido, ou seja, através do
olfato, da gustação, do tato, da audição e da visão. Entretanto, o sensoriamento remoto, sob
o ponto de vista prático (aplicação) é algo mais do que “softwares” e “hardwares”. Poder-se-
ia dizer que ele engloba, além de “softwares” e “hardwares”, o conhecimento básico de
todos os componentes que direta ou indiretamente fazem parte do “sistema” sensoriamento
remoto. Neste contexto deve ser incluídos a radiação solar, a atmosfera terrestre, o solo, a
vegetação e a água. Por exemplo, de nada valeria uma pessoa com profundo conhecimento
de determinado sistema sensor, sem entender do comportamento da radiação que incide
neste sistema. O mesmo argumento valeria para o caso inverso, isto é, entender a radiação
e não saber nada sobre o sistema utilizado para registrá-la.
Em resumo, então, pode-se definir sensoriamento remoto como o processo de
transformação da energia registrada pelo sensor em informação. O processo de
sensoriamento remoto cada vez mais é encarado como um sistema de aquisição de
informações.
Água:
- Inventário e manejo de recursos hídricos para uso agrícola e industrial.
- Distribuição da umidade do solo.
- Qualidade da água (controle de descargas com poluentes químicos, térmicos e
biológicos).
- Correntes térmicas e distribuição da salinidade (recursos marítimos e pesca).
- Zona costeira (atividades em estuários e baías).
Solo e Vegetação:
- Inventário e planejamento do uso da terra.
- Classificação e conservação de solos.
- Inventário e planejamento de exploração de recursos minerais.
- Avaliação da queda do vigor das plantas (pragas, moléstias e deficiências
minerais).
- Estimativa de safras.
- Controle da poluição do solo.
- Cartografia.
Atmosfera:
- Mapeamento climático (distribuição de nuvens e previsão de tempo).
- Temperatura horizontal e vertical e distribuição do vapor-d’água.
- Controle da poluição na baixa atmosfera dentro de áreas limitadas (emissão de
automóveis e indústrias).
Outros:
- Controle e proteção da vida selvagem.
- Estudos sobre acidentes radiativos em usinas nucleares.
- Atualização do crescimento de áreas urbanas.
- Controle de tráfego.
Exercícios propostos
1- Explique o que significa Sensoriamento Remoto.
2. RADIAÇÃO ELETROMAGNÉTICA
2.1. As interações entre energia e matéria
Como já foi definido antes, sensoriamento remoto é a utilização conjunta de modernos
sensores, equipamentos para processamento de dados, equipamentos de transmissão de
dados, aeronaves, espaçonaves, etc., com o objetivo de estudar o ambiente terrestre
através do registro e da análise das interações entre a radiação eletromagnética e as
substâncias componentes do planeta Terra.
Através dessa definição fica claro que a base sobre a qual se assenta a aquisição de
informações é a interação energia-objetos da superfície terrestre.
A interação entre matéria e energia fornece as bases do sensoriamento remoto.
Para compreender melhor a interação entre a energia eletromagnética e os objetos da
superfície terrestre (matéria), tem-se que começar pelo estudo da natureza desta energia.
f=c
em que,
= comprimento da onda, metros;
c = velocidade da luz (propagação da onda);
f = freqüência.
1 nm ---------10-9m
10-4nm ------- x
x = 10-13m
f=c
f = 3 x 108m/s
10-13m
f = 3 x 1021Hz
limite superior:
1 nm ---------10-9m
10-1nm ------- x
x = 10-10m
f=c
f = 3 x 108m/s
10-10m
f = 0.3 x 1018Hz
além daqueles conhecimentos que, tradicionalmente, são utilizados para desencadear uma
seqüência de raciocínios sobre o sensoriamento remoto.
Além do Sol, outras fontes de radiação eletromagnética são utilizadas para o
sensoriamento remoto da superfície terrestre. A própria Terra torna-se, desse modo, uma
fonte de radiação freqüentemente utilizada.
Quando utilizamos o Sol como fonte de radiação eletromagnética para o
sensoriamento remoto da superfície terrestre, medimos a energia terrestre refletida pelos
diferentes objetos da superfície.
O Sol e a Terra são duas importantes fontes naturais e contínuas de radiação
eletromagnética que podem ser usadas em sensoriamento remoto. Existem, entretanto,
outras fontes de radiação eletromagnética disponíveis para o sensoriamento remoto, quer
naturais, quer artificiais.
Como o Sol tem uma temperatura maior que a da Terra, seu pico de emissão está
entre 0,4 a 0,7 m, que é a porção do visível do espectro eletromagnético. A máxima
emissão de energia eletromagnética da Terra encontra-se em torno de 9m. Por essa razão,
as radiações emitidas pelo Sol são ditas radiações de ondas curtas, enquanto que as
radiações produzidas pela emissão de energia da Terra (refletidas) são ditas de ondas
longas.
O conjunto de todas estas radiações, desde os raios gama até as ondas de rádio,
forma o espectro eletromagnético, que nada mais é do que a ordenação destas radiações
em função do comprimento de onda e da freqüência (Figura 4).
As radiações tipo Gama são emitidas por materiais radioativos e pelo Sol. Estas
radiações localizam-se no espectro eletromagnético antes do Raio-X, ou seja, aquém de 1
Ângstron. Possuem altas freqüências e, por isso, são muito penetrantes (alta energia). Na
prática, têm aplicações na medicina (radioterapia) e em processos industriais,
principalmente, na conservação de alimentos.
Os Raios X são radiações cujas freqüências de onda estão acima da radiação
ultravioleta, ou seja, possuem comprimentos de onda menores. Esta denominação foi dada
pelo seu descobridor, o físico alemão Wilhelm Röntgen, no ano de 1895, por não conhecer
suas trajetórias. Os raios X surgem do interior da eletrosfera do átomo, por rearranjos
eletrônicos. São muito usados em radiografias e em estudos de estruturas cristalinas de
sólidos. Os raios X provenientes de Sol são absorvidos pelos gases na alta atmosfera.
As radiações ultravioletas (UV) são radiações compreendidas na faixa espectral de
0,01 a 0,38 m. Estas radiações são muito produzidas durante as reações nucleares no Sol.
Entretanto, ao atingir o topo da atmosfera terrestre, elas são quase totalmente absorvidas
pelo gás ozônio (O3). O espectro do UV é dividido em três bandas: a) UV próximo (0,3 a
0,40m; b) UV médio (0,2 a 0,3m) e c) UV distante ou máximo (0,01 a 0,2m).
A radiação visível (LUZ) é o conjunto de radiações eletromagnéticas compreendidas
entre os comprimentos de ondas de 0,40m a 0,70m. As radiações contidas nesta faixa de
comprimento de onda ao incidirem no sistema visual humano são capazes de provocar uma
sensação de cor1 no cérebro.
A maioria do espectro eletromagnético é invisível para o olho humano, só uma
pequena faixa compreende a luz visível.
As várias radiações que constituem a luz solar que chegam à superfície da Terra
formam o chamado espectro solar. Parte destas radiações tem determinada coloração e do
1
O fato de o ser humano enxergar cores está ligado aos estímulos do cérebro, que utiliza este recurso
para diferenciar uma onda da outra, ou melhor, uma freqüência da outra. Assim, o vermelho possui uma
freqüência diferente do azul. Por essa razão, pode-se dizer que na natureza não existem cores, apenas objetos que
refletem ondas de freqüências diferentes, que provocam no cérebro humano a sensação de cores.
seu conjunto resulta a luz solar vulgarmente chamada luz branca ou visível. A dissociação
da luz visível nas diversas radiações coloridas constituintes pode ser obtida
experimentalmente fazendo passar um raio luminoso através de um prisma de vidro. Este
processo ocorre naturalmente através das gotículas de água em suspensão na atmosfera,
dando origem ao conhecido arco-íris. Assim, no espectro solar visível ao olho humano, as
radiações coloridas estão distribuídas do violeta ao vermelho-escuro, com as diversas
colorações intermediárias.
A luz visível não é a única a atravessar a atmosfera da Terra, também chegam à
superfície raios ultravioletas, que provocam "bronzeamento" da nossa pele; infravermelho,
responsável pelo aquecimento térmico e ondas de rádio.
Quando se decompõe a luz branca por um processo qualquer, por exemplo, através
de um prisma, o que se observa é que uma cor contém várias radiações eletromagnéticas
de comprimentos de ondas diferentes (diferenças freqüências). Em outras palavras,
radiações eletromagnéticas situadas entre 430 a 500nm provocam, no sistema visual
humano, a mesma sensação de cor azul. Assim, o que nosso cérebro identifica como cor
azul é toda a radiação situada entre 430 e 500nm.
Por outro lado, não existe um limite rígido entre duas cores do espectro visível. Os
limites tabulados que existem na literatura são apenas teóricos para fins didático. Este fato é
bem ilustrado nas Figuras 5, na qual se percebe claramente que a transição entre duas
cores é difusa.
2
Lembrete:
1nm (nanômetro) = 0.001m (micrômetro)
1nm = 10 -9m
1m = 1000nm
1m = 10 –6m
1m = 10 +9nm
1m = 10 +6m = 300MHz
1000m = 300GHz.
Comprimento de onda
Raios Gama Entre 0.0001 nm e 0.1 nm
Raios X Entre 0.1 nm e 10 nm
Ultravioleta Entre 10 nm e 380 nm
Luz visível - Violeta Entre 380 nm e 430 nm
Luz visível - Azul Entre 430 nm e 470 nm
Luz visível - Azul esverdeado Entre 470 nm e 500 nm
Luz visível - Verde Entre 500 nm e 560 nm
Luz visível - Amarelo Entre 560 nm e 600 nm
Luz visível - Laranja Entre 600 nm e 640 nm
Luz visível - Vermelho Claro Entre 640 nm e 710 nm
Luz visível - Vermelho escuro Entre 710 nm e 780 nm
Infravermelho Entre 780 nm e 1 mm ( milímetro)
Microondas Entre 1 mm até 1m (1000m até 10+6m)
Ondas de rádio, TV, radar,etc.. > 1m
Bibliografia consultada
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:
Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
195. 90p.
www.if.ufrj.br/teaching/luz/cor.html
Exercícios propostos:
1- Explique o funcionamento do Sensoriamento Remoto.
3. ATMOSFERA
Do ponto de vista biológico, a atmosfera terrestre é indispensável à vida em virtude
dos gases que contém e por ser o filtro protetor de radiações solares com alto poder de
penetração, como a radiação ultravioleta, raios X, etc.
A atmosfera terrestre possui uma massa que corresponde a 0,001% do total do
planeta Terra e é constituída por uma mistura gasosa, por vapor de água e aerossóis 3. Essa
camada gasosa apresenta espessura variável, porém pode chegar a mais de 1000 km de
altitude. Apesar dessa extensa camada, a massa total dos gases que a compõem
concentra-se, praticamente, nos primeiros 10 km de altitude.
A atmosfera exerce uma pressão sobre a superfície terrestre. Ao nível do mar, a
pressão é de aproximadamente 101 kilopascal, o que eqüivale a 1103 milibares (mb) ou a
760 milímetros de mercúrio (mmHg).
Devido às dimensões do planeta Terra (que gera uma força gravitacional muito
grande), da densidade dos gases e de processo de aquecimento, a atmosfera possui uma
estrutura vertical estratificada em zonas, designadas pelo sufixo "SFERA", separadas por
camadas identificadas pelo sufixo “PAUSA”. Entretanto, não existe uma separação nítida
entre zonas e camadas e nem uma definição exata da espessura de cada uma dessas
divisões.
De acordo com a literatura, existem cinco zonas, a saber: troposfera, estratosfera,
mesosfera, ionosfera e exosfera, conforme é mostrada na Figura 8.
3
suspensão de partículas, líquidas ou sólidas, de reduzidas dimensões num meio gasoso.
TROPOSFERA
temperatura é aproximadamente de -40ºC, na sua parte mais alta, a temperatura vai para -
2ºC. O aumento da temperatura é conseqüência da absorção da radiação ultravioleta pelo
ozônio (03), que constitui cerca de 1% do ar atmosférico. A camada que limita a estratosfera
e a mesosfera, é denominada de estratopausa.
Mesosfera: esta região inicia-se logo após a estratopausa e pode atingir até 80 km
acima da superfície terrestre. É uma região rica em ozônio. Na mesosfera, a temperatura
continua a aumentar até cerca de 10ºC, a uma altitude de mais ou menos 50 km, em relação
à superfície da Terra, voltando a decrescer e de forma acentuada, ao chegar ao topo da
camada a temperatura é de –90ºC. A composição dos gases na mesosfera é mais ou menos
constante e constituída de 78% de nitrogênio, 21% de oxigênio e, no restante dos gases
(1%) predomina o dióxido de carbono, vapor d' água e argônio. Esta camada, do ponto de
vista de sensoriamento remoto, é importante porque é nela que ocorre a absorção de quase
todas as radiações ultravioletas.
Ionosfera: é a região da atmosfera superior da Terra, estendendo-se
aproximadamente até 600 km de altitude. Nesta camada, o ar apresenta uma condutividade
elétrica alta, em razão da separação das moléculas em íons e elétrons (ionização) pela
radiação solar ultravioleta. A ionosfera é um refletor eficiente de ondas de rádio, na faixa
espectral que vai das ondas curtas até as ondas longas, permitindo que as comunicações
sejam feitas a grande distância ao redor da superfície terrestre. Todavia, a ionosfera não
reflete ondas de rádio de alta freqüência (inclusive televisão), razão pela qual, a transmissão
de comunicações por estas ondas faz-se por satélites.
OBS. Verificar o site http://iono.jpl.nasa.gov/latest_rti_global.html. Trata-se da situação
da ionosfera em tempo real.
Exosfera: é a zona mais externa da atmosfera, podendo chegar a 1000 km ou mais de
altura em relação à superfície da Terra. Na exosfera predomina o hidrogênio (o gás mais
leve que se conhece) e por esta razão é, também, denominada de camada hidrogenada.
Nesta região, as temperaturas variam de 2000ºC, durante o dia, a –300ºC, durante a noite.
De acordo com a Organização Meteorológica Mundial, a atmosfera terrestre é formada
por uma mistura de gases que variam em concentração, sendo, porém, o nitrogênio e o
oxigênio os gases mais abundantes conforme pode ser visto no Quadro 3.
28%
a maior parte dos equipamentos sensores desenvolvidos operam nas seguintes regiões do
espectro: visível, infravermelho e microondas.
Tendo em vista a curva de emissão do Sol (Figura 10), podemos considerar que, para
comprimentos de onda entre 0,4m e 2,5m, a energia utilizada para o sensoriamento
remoto dos recursos terrestres é o fluxo solar refletido e, para comprimentos de onda
maiores que 6m, a energia utilizada para o sensoriamento remoto dos recursos terrestres é
o fluxo termal emitido pela superfície da Terra. Na região das microondas, os sistemas
sensores operam tanto com a radiação emitida pela superfície terrestre como com a
radiação refletida, radiação esta produzida por meio de fontes artificiais (circuitos
eletrônicos).
3.1.2. Espalhamento
O espalhamento é um processo físico que resulta do impedimento à penetração de
ondas eletromagnéticas na atmosfera terrestre por partículas existentes na sua trajetória.
Esse impedimento pode ser tanto da energia incidente quanto da energia reirradiada
(refletida). Na atmosfera, as partículas responsáveis pelo espalhamento de energia
apresentam tamanhos variáveis. Há desde moléculas de gases naturais até grandes gotas
de chuva e partículas de granizo, conforme é mostrado no Quadro 4. A intensidade e a
direção do espalhamento depende fortemente da razão entre os diâmetros das partículas
presentes na atmosfera e do comprimento de onda da energia eletromagnética incidente
e/ou refletida.
E=1
4
onde,
E = quantidade de radiação espalhada
= comprimento de onda.
Assim, quanto menor for o comprimento de onda, maior é o espalhamento. Por
exemplo, a luz azul é espalhada em cerca de 5,5 vezes mais do que a luz vermelha porque
tem comprimento de onda menor que esta.
O espalhamento explica o motivo da sensação visual azulada do céu durante o dia, e
a avermelhada no nascer e pôr do sol.
3.1.3 Reflexão
Cada objeto tem sua cor característica devido a sua reflexão seletiva à luz do Sol,
podendo ser sentida pelos olhos ou então fotografada. A luz refletida por um objeto não é
somente função da luz recebida, mas também uma função da absorção e das
características de reflexão dos objetos. Um material azul, por exemplo, pode ter uma curva
de reflexão como mostra a Figura 12, onde apenas a luz azul é refletida. Enquanto que um
objeto de cor púrpura poderia refletir o vermelho bem como a luz azul.
3.1.4. Absorção
As regiões do espectro eletromagnético, para as quais a radiação não é absorvida, ou
seja, a atmosfera é transparente, é transmitida são denominadas de "janelas" conforme é
mostrado na Figura 13.
Quando a radiação de determinados comprimentos de onda é pouco atenuada pela
atmosfera (pouca absorvida), define-se aí uma janela atmosférica, para esta radiação.
Observe, no gráfico da Figura 13, que as radiações de comprimentos de ondas entre 100
m e l mm é toda absorvida pela atmosfera terrestre. Neste caso, deve-se evitar construir
sensores remoto para medir esta radiação, pois nenhuma quantidade chegaria ao sensor.
As moléculas de gases e vapor responsáveis por esses efeitos são: a) ozônio (03) e
oxigênio (O2), responsáveis pela absorção da radiação na região do ultravioleta; b) vapor de
água, dióxido de carbono (CO2) e óxido nitroso (N2O), dentre outros, responsáveis pela
absorção da radiação na região do infravermelho e microondas.
Bibliografia consultada:
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:
Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
195. 90p.
Exercícios propostos:
1- O que é a atmosfera terrestre?
a) Espalhamento
b) Reflexão
c) Absorção
4. SISTEMAS SENSORES
4.1. Caracterização dos sistemas sensores
Um sistema sensor pode ser definido como qualquer equipamento capaz de
transformar alguma forma de energia em um sinal passível de ser convertido em informação
sobre o ambiente. Como já vimos, no caso específico do sensoriamento remoto, a energia
utilizada é a radiação eletromagnética.
Os sensores, também podem ser definidos como dispositivos capazes de detectar e
registrar a radiação eletromagnética, em determinada faixa do espectro eletromagnético, e
gerar informações que possam ser transformadas num produto passível de interpretação
quer seja na forma de imagem, na forma gráfica ou de tabelas, conforme mostra a Figura
14.
As quantidades relacionadas com a energia radiante que podem ser medidas com os
sensores não-fotográficos são denominadas grandezas radiométricas.
Para melhor entender os sistemas sensores e as quantidades da energia radiante que
podem ser medidas por eles, é preciso introduzir, a partir de agora, alguns conceitos sobre
grandeza radiométricas.
Bibliografia consultada
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
Exercícios propostos:
1- O que são sistemas sensores?
c) região espectral.
-Spectron SE-590
O SPECTRON SE-590 é um radiômetro de varredura contínua. Este equipamento é
capaz de adquirir 256 medidas espectrais em intervalo bastante estreitos ( 2.8nm), na faixa
espectral compreendida entre 350 e 1100 nm do espectro eletromagnético. Durante a
medição os espectros obtidos têm seus valores digitalizados e armazenados em uma fita
cassete num “datalogger” e, posteriormente, são transferidos para um computador, para que
se possa traçar as curvas espectrais dos alvos imageados. Existe também a possibilidade
de registrar dos espectros diretamente num laptop acoplado na unidade controladora, sem
ter que registrá-la na fita cassete.
As principais características do sistema são:
Resolução espectral: 10nm
Faixa espectral de operação: 350 a110nm
Tempo de aquisição: 1/60 até 640/60s.
Energia: bateria recarregável
-Sensor Thermopoint
O Thermopoint é um equipamento portátil, desenvolvido com o objetivo de medir
temperaturas de alvos à distância, isto é, sem contato direto. No princípio o instrumento foi
desenvolvido com duas finalidades: a) medir temperaturas de equipamentos em
funcionamentos, como máquinas industriais, sem ter que removê-los durante o serviço e b)
medir temperaturas de produtos manufaturados, no momento em que estão sendo
produzidos.
na fase de pesquisa, apresenta uma aplicabilidade muito boa para as estimativas de áreas
agrícolas através de sistema de amostragem. Com as câmeras videográficas podemos obter
uma imagem digital dos alvos contidos dentro dos segmentos que compõem a amostra de
área de um determinado delineamento estatístico. Isso poderia, então substituir a fotografias
aéreas na fase de coleta de informações no campo, conforme é utilizado, por exemplo, no
Sistema de Previsão de Safras (PREVIS) utilizado pela Fundação Instituto Brasileiro de
Geografia e Estatística - IBGE.
Fora os imageadores hiperespectrais e a videografia, os outros tipos de imageadores
e os radares são mais utilizados em satélites orbitais não tripulados. Quando
aerotransportados, o objetivo principal é voltado à pesquisa básica para conhecimento do
comportamento espectral de alvos da superfície terrestre, ou para teste de simulação dos
dados a serem obtidos ao nível orbital.
do tipo de filme empregado. Cada um destes parâmetros está intimamente ligado ao custo e
um bom planejamento.
5.2.1.1.Tipos de Filmes
Os filmes fotográficos são detectores capazes de responder à radiação
eletromagnética em determinadas faixas do espectro eletromagnético. A sensibilidade
espectral de um filme oscila entre 350nm (ultravioleta) e 900nm (parte do infravermelho
próximo) e depende da quantidade de radiação (tempo de exposição do filme à luz).
Os filmes utilizados em sensoriamento remoto podem ser reunidos em dois grandes
grupos: filme preto e branco e os filmes coloridos. Quanto à sensibilidade, ambos podem ser
subdivididos em: filmes de sensibilidade normal (sensíveis à radiação eletromagnética
compreendida entre os comprimentos de ondas de 350 e 700nm) e os filmes de
sensibilidade ao infravermelho próximo (sensibilidade espectral abrange a radiação entre
350 e 900nm).
Um filme preto e branco ou pancromático é constituído por uma emulsão ou camada
de haletos de prata (AgCI, AgBr, AgI), também denominados de sais de prata, sobre uma
base plástica transparente, normalmente feita de acetato, e uma camada anti-halo, para
absorver a radiação residual que passa pela base plástica, evitando assim, a reflexão desta
radiação e uma nova sensibilização dos haletos de prata (Figura 21).
densidade óptica (nível de cinza) que varia de um cinza bastante escuro, para baixos
valores de radiância, até cinza claro máximo, para os valores de máxima radiância,
conforme é mostrado na Figura 22.
Figura 22 – Foto aérea preto e branca contendo objetos representados por diferentes
níveis de cinza.
Os filmes coloridos podem ser de dois tipos: o colorido normal e o infravermelho
colorido, também conhecido por infravermelho falsa-cor.
Um filme colorido normal é um detector formado por três camadas, cada uma
apresentando sensibilidades distintas em relação aos diferentes comprimentos de onda
(Figura 23). A primeira camada é sensível à radiação azul (400 a 500nm). Logo após esta
primeira camada é colocado um filtro amarelo e, em seguida, duas outras camadas, uma
sensível à radiação verde (500 a 600nm) e a outra à radiação vermelha (600 a 700nm). O
filtro amarelo tem função de evitar o registro da radiação azul nas camadas sensíveis à
radiação verde e vermelha, uma vez que elas são também sensíveis à luz azul. Este tipo de
filme produz fotografias muito semelhantes as imagens observadas pelo sistema visual
humano, ou seja, permitem associar a cor da fotografia às cores dos objetos fotografados,
principalmente se o processamento fotográfico for bem realizado. A Figura 24 ilustra uma
fotografia aérea registrada com um filme colorido.
infravermelho próximo) será representada por duas cores: o azul (representando a radiação
verde) e o vermelho (representando a radiação infravermelha). Neste caso, tem-se uma
mistura de duas cores primárias, que resultará numa cor secundária denominada magenta.
Na Figura 25 é mostrada uma fotografia infravermelha, contendo áreas agrícolas, mata
natural e solo exposto.
Figura 25 – Foto aérea infravermelha colorida (fasa-cor) obtida numa região tritícola
do município de Cruz Alta, RS, onde T = trigo, C = cevada, SP = solo preparado, PS =
pousio e M = mata.
5.2.3. Videografia
A videografia é mais um método para aquisição suborbital de dados, para auxiliar na
interpretação de produtos coletados por sensores orbitais. Esta metodologia permite o
levantamento de um grande volume de informações de alta resolução, em curto espaço de
tempo e a baixo custo.
Um dos primeiros escritos sobre o emprego da videografia no Brasil, que detalha
minuciosamente esta metodologia, inclusive relatando um estudo feito, é na região
amazônica. Este relatório (não publicado) foi elaborado para ser apresentado na Diretoria do
Serviço Geográfico (DSG). Toda abordagem descrita a seguir foi baseada neste relatório.
A videografia visa à obtenção de informações complementares aos estudos com
dados orbitais, principalmente, devido à grande extensão territorial do país, que, geralmente,
envolve áreas muito extensas, por exemplo, os estudos sobre o desmatamento da
Amazônia, mapeamento de cana-de-açúcar, mapeamento de áreas cafeeiras, etc.
O uso da videografia no Brasil começou no ano de 1997, em Manaus, com o objetivo
de verificar a eficiência do sistema em documentar as áreas videografadas e, também, para
verificar a viabilidade de utilizar este sistema para obter informações biofísicas da floresta,
que pudessem servir para calibrar dados orbitais. Outro trabalho envolvendo o uso da
videografia foi realizado em Roraima, no ano de 1998, para avaliar a extensão da área
destruída pelo incêndio que ocorreu no final de 1997 até março de 1998. No caso específico
de Roraima, a videografia foi empregada mais no sentido de substituir dados de satélite, nas
áreas onde não foi possível adquirir imagens orbitais livres de cobertura de nuvens.
Complementando, foi realizado um sobrevôo em diversas áreas da Amazônia, como
parte do Projeto LBA (Projeto com finalidade de entender o ecossistema amazônico, fruto de
uma cooperação Brasil-Estados Unidos). No LBA utilizou-se o método da videografia para a
coleta de verdade terrestre e estimativa da fitomassa.
melhor ou à pior caracterização dos alvos em função das larguras das faixas espectrais. É
uma medida da largura das faixas espectrais.
A resolução espectral é um conceito inerente às imagens multiespectrais de
sensoriamento remoto. Ela é definida pelo número de bandas espectrais de um sistema
sensor e pela largura do intervalo de comprimento de onda coberto por cada banda.
Quanto maior o número de bandas e menor a largura do intervalo, maior é a resolução
espectral de um sensor. O conceito de banda, pode ser exemplificado no caso de duas
fotografias tiradas de um mesmo objeto, uma em branco e preto e a outra colorida; a foto
branco e preto representa o objeto em apenas uma banda espectral, enquanto a foto
colorida representa o mesmo objeto em três bandas espectrais, vermelhas, azul e verde
que, quando combinadas por superposição, mostram o objeto em cores.
Por exemplo, suponha que um sensor A opera na faixa espectral 0,5 a 0,7 m, e um
sensor B opere na faixa espectral de 0,5 a 0,55 m. Nesta situação, o sensor A apresenta
menor resolução espectral do que o sensor B, uma vez que a largura da faixa espectral e
cada um deles corresponde a 0,2 e 0,05m respectivamente. Quanto mais fina for a largura
de faixa que opera um determinado sensor, melhor é a sua resolução espectral.
Se um sistema sensor possui detetores operando em mais de uma faixa espectral,
do espectro eletromagnético, o sistema é dito multiespectral, porque registra a radiação
eletromagnética proveniente dos alvos em várias faixas espectrais, como exemplos, os
sistemas sensores a bordo dos satélites Landsat.
Às vezes, no próprio sistema sensor há diferentes resoluções espectrais. Para
entender a resolução espectral, citemos um exemplo concreto. O sensor MSS do Landsat
opera em quatro faixas (bandas) espectrais, ou seja, MSS4 (0.5 – 0.6m), MSS5 (0.6 –
0.7m), MSS6 (0.7 – 0.8m) e MSS7 (0.8 – 1.1m). A resolução espectral das bandas MSS
4, 5 e 6 é de 0,1m, enquanto que da banda MSS7 a largura da faixa é de 0.3m. Portanto,
a resolução do sensor MSS 4, 5 e 6 possui uma melhor resolução espectral. Assim, a
resolução espectral do sistema MSS depende da banda ou de tipo de sensor. Pode-se
deduzir que quanto maior o número de bandas e menor a largura do intervalo dessas
bandas (faixas), maior será a resolução espectral de um sensor.
A resolução radiométrica é dada pelo número de níveis digitais, representando níveis
de cinza, usados para expressar os dados coletados pelo sensor. Quanto maior o número
de níveis, maior é a resolução radiométrica. Para entender melhor esse conceito, pensemos
numa imagem com apenas 2 níveis de cinza (branco e preto) em comparação com uma
imagem com 32 níveis de cinza entre o branco e o preto; obviamente a quantidade de
detalhes perceptíveis na segunda será maior do que na primeira e portanto a segunda
imagem terá uma melhor resolução radiométrica. A Figura 42 compara duas imagens com
resoluções radiométricas diferentes. O número de níveis é comumente expresso em função
do número de dígitos binários (bits) necessários para armazenar em forma digital o valor do
nível máximo. O valor em bits é sempre a potência do número 2; desse modo, “6 bits” quer
dizer 26 = 64 níveis. O sistema visual humano não é muito sensível a variações em
intensidade, de tal modo que dificilmente são percebidas mais do que 30 diferentes tons de
cinza numa imagem; o computador, por sua vez, consegue diferenciar qualquer quantidade
de níveis, razão pela qual torna-se importante ter imagens de alta resolução radiométrica.
Bibliografia consultada
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:
Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
195. 90p.
Exercícios propostos:
2- Cite exemplos de equipamentos que pode coletar dados espaciais nos níveis que
existem?
6- O que é resolução?
6.2- Fotogrametria
A palavra FOTOGRAMETRIA, derivada de três palavras de origem grega, tem o
seguinte significado: luz, descrição e medidas (photos = luz; grammma = aquilo que é
desenhado; metron = medição). Ela pode ser definida como a ciência e a arte de se obterem
medidas dignas de confiança por meio de fotografias. O comprimento de um aeroporto, de
Hoje, Fototeodolitos de grande precisão são feitos por firmas da Suíça e Alemanha.
É um método de observação bastante aplicado em todo o mundo, principalmente na Europa.
As primeiras fotografias aéreas foram tiradas usando-se "papagaios e balões". Essas
experiências tiveram início em 1860 através do Coronel LAUSSEDAT e do Capitão Theodor
SCHEIMPFLUG da Áustria, e outros. O uso de papagaios e balões para suspender câmeras
fotográficas fracassou, ou melhor, não deu o resultado esperado. Em 1900 com o
aparecimento da primeira câmera aérea, com sete lentes oblíquas acopladas ao redor de
uma lente vertical, conseguiu-se obter fotografias com grande ângulo de recobrimento.
Nos Estados Unidos as primeiras referências sobre fotografia aérea usando balões
foram feitas por J ames F AIRMAN em 1887, o qual patenteou o seu método com o título
"Apparatus for Aerial Photography". Em 1893, C. V. ADAMS usou e patenteou um outro
método: "Method of Photogrammetry".
Em seguida o avanço mais importante se deu com o aparecimento dos dirigíveis, que
foram os primeiros balões controlados. Novamente esse desenvolvimento ocorreu na
Europa e teve um incremento muito grande com o aparecimento do Zepellin, com sua
viagem histórica para o Ártico e através das regiões nordestes do mundo. Uma das câmeras
usadas nessa viagem foi a P.K. 9 lentes, que é uma máquina fotográfica panorâmica.
Com o aparecimento do avião, a primeira plataforma foi assegurada. As primeiras
fotografias aéreas tomadas de um avião para fins de mapeamento encontram-se nos
arquivos da Sociedade Internacional de Fotogrametria. Estas, foram tiradas pelo Capitão
Cesare TARDIVO, na cidade de Bengasi, em 1913.
Nos Estados Unidos a história do desenvolvimento da máquina fotográfica aérea
teve início nos anos de guerra através de Sherman M. FAIRCHILD, que construiu a primeira
máquina fotográfica aérea com finalidades militares.
Grandes desenvolvimentos surgiram a partir da Segunda Guerra Mundial, não
somente nos Estados Unidos como também na Europa. Hoje grandes organizações em todo
mundo produzem equipamentos de grande precisão. Entre as mais renomadas
organizações encontram-se: Zeiss-Aerophotograph na Alemanha, Wild Heerbrugg
Instruments, Ltda. e Kern na Suíça; Ottico Meccanica Italiana (Nistri) e Officine Galileo na
Itália; Societé d'Optique et de Mecanique na França; Barr, Stroud and Willianson na
Inglaterra.
Neste caso as fotografias são tiradas da Terra, com o eixo ótico da câmera na
horizontal. São também chamadas de fotografias horizontais. A máquina está apoiada sob
um tripé.
b) Fotogrametria Aérea:
Existem em geral dois tipos de fotografias aéreas: fotografias verticais (Figura 26), as
quais são tomadas com o eixo ótico da câmera na vertical, e fotografias oblíquas são as que
intencionalmente são tomadas com o eixo ótico da câmera inclinado obliquamente com
respeito à vertical.
Aqui trataremos apenas das fotografias aéreas verticais.
e) mecanismo de operação;
f) magazine (filme).
A câmera aérea é caracterizada pelo formato do negativo, pela distância focal (f) da
objetiva (centro ótico) e pelo ângulo de campo () da objetiva (Figura 28).
b a Negativo
Hv
Terreno
A B
Avião - O avião deve ter boa estabilidade, particularmente durante o ciclo de operação
da máquina fotográfica. Vôos elevados asseguram e ajudam a obtenção de fotos com um
mínimo de inclinação. O avião deve dar boa visibilidade para os dois lados e para baixo.
Tanque de gasolina com boa capacidade para um grande rendimento de trabalho em dias
claros e limpos, pois do contrário muito tempo seria perdido. No mínimo 6 horas de vôo sem
interrupção são exigidos para um avião de foto-mapeamento, porém muitos aviões têm
capacidade para 8 horas de vôo. A cabine do avião deve ser suficientemente grande para
acomodar confortavelmente o aviador, o operador, a máquina fotográfica, suplemento de
filmes, mapas de vôo e outros equipamentos. Conforto e facilidade de movimento para a
tripulação contribuem para o desempenho das obrigações, as quais são exaustivas e
tediosas.
Máquina fotográfica - Em relação a máquina fotográfica aérea, deve-se selecionar a
máquina fotográfica para o trabalho a ser desenvolvido de tal maneira que ela possa
produzir fotografias de acordo com as especificações. A máquina fotográfica é colocada
sobre um suporte, chamado suporte da máquina fotográfica, o qual permite controlar o
movimento da máquina fotográfica pelo fotógrafo; este suporte é equipado com um sistema
que evita choques e vibrações e permite um ajustamento para compensar a deriva e o
desvio do avião enquanto este percorre alinha de vôo (Figura 31).
6.3. Estereoscopia
A Estereoscopia está intimamente ligada ao campo da Fotogrametria, bem como ao
da Fotointerpretação.
Estereoscopia é a ciência e a arte que permite a visão estereoscópica (terceira
dimensão) e o estudo dos métodos que tornam possíveis esses efeitos. A palavra estereo
significa que vem de 2 ou mais lugares, mas percebe que é só de um lugar, por exemplo,
caixa de som estereo, tem som em duas caixas acústica, mas de longe não percebe, e
sente a vibração tridimensional. O sufixo copia é a técnica de ver tridimensional.
A sua aplicação em Fotogrametria está no uso das fotografias em instrumentos óticos,
com o propósito de observação e obtenção de medidas dignas de confiança.
Os princípios e mecanismos da percepção estereoscópica são relativamente simples e
devem ser estudados por todos aqueles que trabalham no campo da Fotogrametria e/ou da
Fotointerpretação.
A visão monocular permite examinar a posição e a direção dos objetos dentro do
campo da visão humana num único plano. Permite reconhecer nos objetos a forma, as cores
e o tamanho. A fotografia simples é uma reprodução da visão monocular.
Por outro lado, a sensação de profundidade, só é possível através da visão binocular,
no intervalo correspondente à distância interpupilar do observador (entre 6 e 7 cm). A
sensação de profundidade é dada pela diferença de ângulos com que as imagens são
recebidas. A Figura 32 mostra que os ângulos com que são vistos os objetos A, B e C
decrescem com a profundidade.
são as partes mais importantes, e precisam ser de ótima qualidade. Por essa razão, quando
o estereoscópio não está sendo usado, deve ser bem protegido.
Negativo
b a
f
Hv
Terreno
A B
1= ab
E AB
Onde,
ab = distância no papel (fotografia aérea, mapa).
AB = distância real, no terreno.
E = denominador da escala, seja na fotografia, ou no mapa.
Sendo ab e AB expressos na mesma unidade.
Ef = f
Hv
Sendo a escala dada sempre por 1/E , Ef é o denominador da escala, logo, a escala
da fotografia aérea é dada por:
1= f
Ef Hv
Onde,
f = distância focal.
Hv = altura de vôo.
Ef = denominador da escala da fotografia aérea.
Hv e f são expressos na mesma unidade.
Ou ainda,
1/Ef = ab
1/Em CD
Onde,
Ef = escala da fotografia aérea.
Em = escala do mapa.
ab = distância na fotografia aérea.
CD = distância no mapa.
8 km
2) Escala da fotografia:
Supondo levantamento de fotografia aérea de 1972, que a escala é 1:25000:
1 fotografia aérea = 9’ = 23cm
Na foto: 1cm = 25000cm
23cm = x
x = 575000cm = 5750m (1 lado da foto representa 5750m)
3) Calcular recobrimentos:
No avião: recobrimento longitudinal = 60%
recobrimento lateral = 30%
10km= 10000m
8km = 8000m
6.4- Fotointerpretação
O termo fotointerpretação refere-se ao conjunto de todos os processos envolvendo a
análise visual de imagens fotográficas. O produto a ser fotointerpretado pode ser fotografias
aéreas, imagens obtidas por satélites ou qualquer outro na forma fotográfica. Entretanto,
tradicionalmente e, em muitos dos casos práticos, trata-se a fotointerpretação como sendo a
análise de fotografias aéreas.
De acordo com o manual de interpretação fotográfica da Sociedade Americana de
Fotogrametria (1960) a "interpretação fotográfica é o ato de examinar imagens fotográficas
com o objetivo de identificar objetos e o seu significado".
A fotointerpretação é um processo que envolve pelo menos duas etapas: observação
e interpretação. Há autores que dividem o processo de interpretação em três fases, ou seja,
a fotoleitura, a fotoanálise e a fotointerpretação propriamente dita.
O processo de fotoleitura é muito similar ao de observação. Esta fase consiste
essencialmente em analisar as fotografias aéreas de uma maneira muito superficial, com o
propósito apenas de reconhecer as diferentes feições existentes na paisagem. Nesta fase,
não há nenhum compromisso com a identificação correta dos alvos e, é nela que também é
feita uma análise do tipo de produto fotográfico (tipo de filme utilizado, época de aquisição
das fotos, etc).
O processo de fotoanálise consiste em um estudo de avaliação e ordenação das
partes que compõem a fotografia. Neste caso, o fotointérprete começa a utilizar seus
conhecimentos técnicos e suas experiências práticas do seu campo de trabalho. Durante
esta etapa, é feita uma legenda de interpretação, separando as diferentes feições contidas
na foto em função do padrão fotográfico apresentado.
A fotointerpretação é o processo em que o intérprete utiliza um raciocínio lógico,
dedutivo e indutivo para compreender e explicar o comportamento de cada objeto contido
nas fotos. A fotointerpretação é, a rigor, realizada com base em certas características, que
muitas vezes são utilizadas pelo fotointérprete sem que ele perceba, devido à rotina do
trabalho de fotointerpretação. As principais características são:
- Padrão
O padrão é uma característica muito importante utilizada na interpretação visual tanto
em fotografias aéreas quanto em imagens de satélites.
Em áreas vegetadas, o padrão refere-se à distribuição espacial de algumas feições
características de determinadas vegetações, que podem variar de uma região para outra.
Por exemplo, a presença de carreadores no meio da área é um padrão que serve para
diferenciar áreas plantadas com cana-de-açúcar de áreas de pastagem. Nas áreas de
pastagem a presença de carreadores não é comum.
Por outro lado, a presença de carreadores nem sempre significa áreas ocupadas com
a cultura da cana-de-açúcar, áreas de reflorestamento também possuem carreadores. Nesta
situação, a diferença entre estes dois alvos se dá pela utilização de outras características,
tais como o tamanho das áreas de cada talhão entre carreadores, a textura fotográfica, entre
outros.
Outro padrão bastante característico é o da drenagem dos rios e córregos existentes
na área fotografada. Geralmente, o padrão da drenagem, quando observados em fotografias
aéreas, lembra a distribuição dos vasos sanguíneos do corpo humano, e está associado aos
tipos de rochas e solos existentes na área mapeada. Na Figura 39 é mostrado o esquema
de alguns tipos de drenagens.
- Tonalidade e Cor
Os diferentes alvos sobre a superfície terrestre refletem a energia solar de maneira
diferenciada. Por exemplo, um telhado de alumínio pode ser visto de longe porque reflete
muita energia que chega até ele. Por outro lado, um pano preto reflete muito pouca luz por
que absorve muito. Assim, se nós observarmos a natureza perceberemos que cada alvo
reflete de uma maneira diferente do outro. Quando os alvos são semelhantes entre si, as
energias refletidas por eles são muito parecidas, é o caso, por exemplo, de uma área
plantada com arroz e outra com trigo, ambas com a mesma porcentagem de cobertura do
solo. Numa foto ou numa imagem de satélite, estas diferentes quantidades de energia
refletida pelos alvos são associadas a valores de níveis de cinza (chamado de tons de
cinza), ou seja, quando o objeto reflete muita energia a quantidade que chega ao sensor
(fotográfico ou não) é grande. Neste caso, associa-se a esta quantidade de energia um nível
de cinza claro. Por outro lado, se o objeto reflete pouco, a quantidade de energia que
chegará no sensor é também pouca. Logo, o nível de cinza associado ao objeto será mais
escuro.
A tonalidade é um parâmetro qualitativo, ou seja, indica a presença de alvos com
reflectâncias diferentes. Entretanto, às vezes dois alvos distintos apresentam tonalidades
(tons de cinza) semelhantes, como é o caso da área circular (corpo d'água) e áreas de
florestas. Percebe-se também que um mesmo tipo de vegetação pode apresentar tons de
cinza diferentes, como é o caso da pastagem que apresenta tons de cinza médio mais
escuro e outro mais claro. Por esta razão, não se deve nunca utilizar apenas a tonalidade
como critério de separação entre dois temas observados nas fotografias aéreas.
As gradações de cinza numa fotografia dependem: das características da emulsão, do
processamento fotográfico, das propriedades físico-químicas dos alvos fotografados, das
condições de iluminação/topografia e atmosfera. Assim, a latitude, mês e hora são variáveis
que interferem na qualidade das informações contidas nas fotografias. Devido a esses
fatores, é importante deixar claro que haverá mudanças na tonalidade da fotografia, porém
isso não quer dizer que se um alvo é branco torna-se escuro enquanto outros permanecerão
inalterados. A mudança ocorre na cena toda e, geralmente, numa gradação suave.
A cor é muito empregada no lugar da tonalidade, porque nossos olhos estão mais
habituados a enxergar objetos coloridos do que objetos em tons de cinza.
Na fotointerpretação a cor é usada como parâmetro para discernir tipos diferentes de
vegetação ou estádio de desenvolvimento de uma determinada espécie, principalmente
quando se trata de áreas agrícolas. Em fotografias aéreas coloridas normais, o verde mais
escuro significa maior quantidade de vegetação. Áreas desnudas ou com pouca vegetação,
geralmente, apresentam cores avermelhadas ou um verde-avermelhado, em razão da
contribuição do solo de fundo.
Em fotografias coloridas pode-se perceber que áreas com vegetação mais densa
apresentam-se em cor verde mais escura, como no caso das áreas agrícolas. À medida que
a vegetação vai se tornando menos densa, como é o caso da pastagem, nota-se que há
uma mistura de cor verde e vermelho-amarela. Nas áreas preparadas para o plantio é
evidente a cor do solo, que nesta região, é apresentado por uma coloração vermelho-
amarela.
Essas diferenças da energia refletida estão relacionadas com: idade da planta, número
de planta por área de solo, tipo de vegetação, quantidade de folhas, sanidade da planta,
entre outras.
Com o desenvolvimento do filme "infravermelho colorido", também chamado de
"infravermelho falsa cor", houve um impulso muito grande de sua utilização no mapeamento
de áreas vegetadas. A grande vantagem do uso de fotografias infravermelhas falsa cor, em
relação às coloridas normais, reside no fato de que elas contêm informações sobre a
radiação eletromagnética da região do infravermelho próximo. Como a vegetação reflete
mais esta radiação, torna-se mais fácil identificar tipos diferentes de vegetação que
aparentemente são muito semelhantes nas fotos aéreas coloridas normais. As diferenças
observadas no matiz do magenta, numa fotografia infravermelha falsa cor, podem estar
relacionadas a diversos fatores tais como: tipo de vegetação, espaçamento entre linhas de
plantio e entre pés, estado fenológico, estado fitossanitário, estresse hídrico, excesso de
umidade do solo, etc.
- Forma e Tamanho
O conhecimento da forma que um objeto apresenta no mundo real, é muito importante
para auxiliar o fotointérprete na sua identificação, quando observado numa fotografia aérea
ou numa imagem de satélite. Entretanto, é preciso ter em mente que só a forma do objeto,
muitas vezes não é suficiente para identificá-lo, porque outros alvos da superfície também
podem apresentar formas semelhantes. Em outras palavras, a forma é muito importante,
desde que esteja associada a outras características.
Em fotografias aéreas é comum utilizar, além da forma, o tamanho dos alvos como
critério de identificação. Por exemplo, áreas agrícolas têm formas regulares e bem definidas,
pois as culturas são plantadas em linhas. Todavia, o tamanho das áreas destinadas ao
plantio de horticultura é muito menor do que as áreas destinadas ao plantio de cana-de-
açúcar, arroz ou milho. Assim, o tamanho pode ser usado como um critério de separação
dessas diferentes culturas agrícolas.
Ainda sobre este aspecto, podemos citar o caso de duas áreas planas, sendo uma
plantada com reflorestamento e outra com café. A principal distinção entre elas diz respeito
a forma de plantio e tamanho dos talhões. Geralmente, áreas reflorestadas apresentam
uniformidade no tamanho dos talhões, o que não acontece com as áreas de café. Além
disso, nas áreas ocupadas com café facilmente percebe-se a presença do plantio em nível.
Os rios e córregos geralmente apresentam formas sinuosas. Para rios largos, além da
sinuosidade a largura da lâmina d' água é outro fator que distingue, por exemplo, o rio
principal de seus tributários. Em muitas situações, tanto o rio principal quanto os tributários
são bastante estreitos. Neste caso, a definição da drenagem quanto aos rios principais e
tributários é feita com base no comprimento da bacia hidrográfica.
As cidades, quando vistas numa fotografia área, apresentam formas reticuladas,
devido aos cruzamentos de suas avenidas e ruas.
- Textura
A textura, nas fotografias aéreas, é produzida através de agregamento de vários alvos
que na sua individualidade, não podem ser detectados. Em outras palavras, a textura pode
ser entendida como sendo o padrão de arranjo espacial dos elementos texturais. Elemento
textural é a menor feição contínua e homogênea distinguível em uma fotografia aérea,
porém passível de repetição, por exemplo, uma árvore. De acordo com a definição de
elemento textural é possível entender que a textura depende da escala e, no caso de
imagens de satélite, da resolução espacial. A textura varia de lisa a rugosa, dependendo das
características dos alvos, resolução espacial e escala.
A textura pode ser influenciada pelo efeito de sombreamento, como ocorre em áreas
com mata natural. As matas naturais possuem dosséis irregulares, devido às diferenças nos
tamanhos das árvores. As árvores maiores incidem sombreamento nas copas das árvores
menores e, consequentemente, a reflectância é menor (menor intensidade de luz que sai do
dossel). Quando a mata natural é observada na fotografia aérea, há sensação de
rugosidade na textura, que nada mais é do que a diferença na intensidade da luz refletida
pelas árvores mais altas e as mais baixas. Este é um dos critérios adotados para separar
áreas de mata natural de áreas reflorestadas, que apresentam uma textura mais lisa.
- Sombra
A sombra é outra característica importante que deve ser levada em consideração,
durante a fase de fotointerpretação, principalmente, no caso de interpretação de imagens de
satélites. A sombra, na maioria das vezes, dificulta a fotointerpretação, por que geralmente
omite a informação do tipo de ocupação do solo na região onde ela está sendo projetada. Às
vezes, a sombra deixa de ser um fator negativo e passa a ser positivo no auxilio para
separar diferentes tipos de vegetação. De modo geral, o relevo sempre provoca sombra do
lado oposto a incidência da luz solar e, com isto, nos locais onde há sombra, a incidência de
luz é muito baixa, consequentemente, pouca energia é refletida, fazendo com que estas
áreas apresentem-se em tons de cinza ou cores muito escuras, dificultando assim, a
identificação e a delimitação dos limites dos talhões dos diferentes alvos de ocupação do
solo.
Bibliografia consultada
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
Exercícios propostos:
1- Qual a metodologia utilizada para analisar dados em nível suborbital?
2- O que é fotogrametria?
3- O que é estereoscopia?
4- O que é fotointerpretação?
7- Esquematize uma fotografia contendo marcas fiduciais, centro ótico e linha de vôo.
9- O que é estereopar?
13- Um avião equipado com uma máquina fotográfica aérea com distância focal igual a
153mm, está fotografando a Terra a uma altura de 4320m acima da Terra. Qual será a
escala da fotografia?
14- Um carreador na fotografia aérea apresenta medida igual a 5cm. Sabendo-se que a
fotografia aérea está na escala 1:25000, qual é a medida desse carreador no terreno?
15- A medida de uma estrada em uma fotografia aérea é de 8cm. A mesma estrada foi
medida em um mapa e obteve 3cm. Sabendo que a fotografia aérea estava em uma
escala de 1:25000, pergunta-se:
a) qual era a escala do mapa
18- Supondo um área de 300km x 240km, calcular o número de fotos aéreas para recobrir
toda a área, sabendo que a foto aérea está na escala 1/10.000, tamanho 23cm x 23cm.
19- Uma rodovida de 70km é vista em uma foto aérea com 35cm. Essa rodovia ocupa várias
fotos aéreas (23cm x 23cm cada), abrangendo uma área de 100km x 80km. Qual a
quantidade de fotos aéreas necessárias para abranger toda a área de interesse?
7.2- Classificação
Os satélites podem ser classificados em duas categorias: os naturais e os artificiais.
Os satélites naturais são corpos celestes que orbitam um outro astro de massa maior.
Como exemplo, temos a Lua, satélite da Terra, as luas de Netuno, Phobos e Demos de
Marte, etc.
Os satélites artificiais são engenhos desenvolvidos pelo homem, que giram em torno
de planetas (dentre eles a Terra) ou até mesmo de um satélite natural.
O desenvolvimento de satélites artificiais teve inicio na década de 50, ou seja, a partir
da segunda metade do século XX, quando no ano de 1957, a impressa de todo mundo
anunciava que os Estados Unidos e a União Soviética iriam lançar os primeiros satélites
artificiais. Era o ano Geofísico Internacional.
O primeiro satélite artificial da Terra, o SPUTINIK I foi lançado no dia 4 de outubro de
1957, pela antiga União Soviética (URSS). Em fevereiro de 1958, os Estados Unidos
colocou em órbita da Terra o EXPLORER I.
Logo após o sucesso dessas experiências, imediatamente, o homem colocou satélites
artificiais em órbita de quatro outros astros do sistema solar: O próprio Sol (primeiro
engenho satelizado: Luna I, em 1959); a Lua ( Luna X, em 1966); Marte (Marine IX, em
1971) e Vênus (Venua IX, em 1975).
A trajetória do satélite em torno do astro, natural ou artificial, é denominada de órbita.
No caso dos satélites artificiais (Figura 40), a órbita é definida em função de diversos
parâmetros, entre eles têm-se:
- Raio de inclinação.
- Inclinação do plano da órbita
- Período de revolução, etc.
7.3- Categoria
Nesta publicação os satélites artificiais são agrupados em categorias, de acordo com
os objetivos principais a que foram concebidos. Dentro dessa concepção, existem os
satélites militares, os científicos, os de comunicações, os meteorológicos e os de recursos
naturais ou de observação da Terra.
Os satélites SACIs são de pequeno porte e baixo custo, utilizados para missões de
curta duração, que oferecem à comunidade acadêmica a oportunidade de realizar em
ambiente orbital, experimentos científicos. Os objetivos do projeto SACI foram:
- Promover o avanço da Ciência utilizando os meios espaciais a um custo moderado;
- Testar novos conceitos e soluções tecnológicas sob condição de risco limitado;
- Fortalecer e aumentar a contingente cooperação científica e tecnológica, nacional e
internacional, intensificando a cooperação em ambiente propício ao intercâmbio de
informações científicas e tecnológicas;
- Intensificar o entrosamento entre os Institutos de Pesquisa e as Universidades,
envolvendo novos grupos universitários nas atividades espaciais brasileiras;
- Difundir nas Universidades e Institutos de Pesquisa brasileiros, a engenharia e
tecnologia espacial através do desenvolvimento de seus equipamentos, partes e materiais,
bem como acionar os seus mecanismos de transferência de tecnologia para a Indústria;
- Consolidar a tecnologia já gerada no Brasil na área espacial, através do uso
continuado, dirigindo-a para a minimização dos custos.
O satélite científico SACI-1 possui as seguintes características:
- Dimensões: 570 x 440 x 440 mm
- Altitude: 750 km
Apesar do satélite ter sido colocado em órbita da Terra com sucesso, ele não chegou
a entrar em operação devido a uma falha no sistema de controle do painel solar.
O segundo satélite da série, o SACI-2 foi abortado pelo presidente Fernando Henrique
Cardoso.
Bibliografia consultada:
Este capítulo foi totalmente extraído do Complemento do Livro “Fundamentos do
Sensoriamento Remoto e Metodologia de Aplicação”. Capturado em
www.ltid.inpe.br/dsr/mauricio/satelites.pdf
Exercícios propostos:
Observe na Figura 66 que as curvas espectrais das duas amostras de Terra Roxa
Estruturada não apresentam diferenças marcantes ao longo do espectro, embora
apresentem diferenças bastante significativas nos teores de óxido de ferro. É interessante
observar que, em termos de teor de carbono orgânico e de argila, as duas amostras também
são muito semelhantes.
As curvas espectrais obtidas para as duas amostras de solo da classe Areia
Quartzosa, conforme são mostradas na Figura 67, denotam diferenças marcantes nas
reflectâncias na região do infravermelho próximo, que não são devidas ao óxido de ferro,
pois ambas apresentaram o mesmo valor deste mineral (Quadro 27). Entretanto,
observando os valores do carbono orgânico, conclui-se que esta diferença nas curvas
espectrais, para esta região do espectro eletromagnético, está relacionada ao teor de
carbono que é também um elemento que absorve a radiação no infravermelho próximo.
Figura 70 – Interação da energia solar com a folha, onde “I” é a radiação incidente, “R”
é a energia refletida, “A” é a parte absorvida e “T” a parte transmitida.
Bibliografia consultada:
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:
Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
195. 90p.
Exercícios propostos:
1- Apresentar as curvas espectrais dos seguintes alvos da superfície terrestre. Não
esquecer de explicar cada gráfico.
a) Latossolo Roxo
b) Cambissolo
c) Solo com crosta superficial
d) Umidade no solo
e) Solo com teores de matéria orgânica
f) Textura do solo
g) Vegetação
h) Água líquida, gasosa e sólida
i) Concreto
j) Asfalto
9- NDVI
As informações espectrais dos alvos da superfície terrestre são obtidas por sistemas
sensores, em três níveis de coleta de dados: terrestre, suborbital e orbital.
Independente do nível de coleta dos dados, os métodos utilizados para extrair essas
informações podem ser agrupados em três categorias: interpretação visual, tratamento
digital e análises estatísticas de dados espectrais, quando estes estão em forma de tabelas
ou transformados em algum tipo de índice.
Em geral, os dados espectrais coletados por sensores não-fotográficos, em nível do
solo, são expressos em forma numérica, como é o caso de medidas do índice de área foliar
(IAF), ou gráfica, ou ainda transformados em índices, no caso de dados radiométricos. Para
esses tipos de dados, a análise é feita empregando-se critérios comparativos que podem ser
visual e métodos estatísticos, podem ser baseados na média, na análise de variância, no
teste de comparação de médias (teste "t", Tukey, Ducan, etc,) ou uma regressão.
No caso de medidas da reflectância da vegetação, utilizando espectrorradiômetros,
geralmente empregam-se duas abordagens de análise dos dados coletados.
A primeira consiste numa análise visual das curvas de reflectância, para observar o
comportamento espectral dos alvos contidos na área dentro do ângulo de visada do sensor,
ao longo da faixa de comprimento de onda que opera o equipamento, conforme é mostrado
na Figura 1.
Entretanto, a análise visual, por si só, não tem grande utilidade do ponto de vista
experimental, todavia, serve de base para se tomar uma decisão sobre aplicar, ou não,
testes estatísticos nos dados observados.
A segunda abordagem, consiste em transformar os dados espectrais em outras
unidades como, por exemplo, os índices de vegetação que podem ser utilizados, ainda, para
estimar certos parâmetros da radiação solar, como a radiação fotossinteticamente ativa
absorvida, o uso eficiente da radiação para produção de fitomassa e/ou grão, produtividade,
etc.
Conforme é mostrado na Figura 1, cada alvo apresenta comportamento espectral
diferente, para uma mesma condição ambiental. Observa-se que a água é o alvo que
apresenta a mais baixa reflectância e absorve toda a radiação acima de 750 nm. O asfalto
apresenta um comportamento espectral quase uniforme e paralelo ao longo do eixo X, não
Onde,
NDVI = índice de vegetação.
IVP = reflectância na faixa espectral do infravermelho próximo.
V = reflectância na faixa espectral do vermelho.
Um dos espectrorradiômetros bastante utilizado para obter o fator de reflectância, é o
SPCTRON SE-590. Para o cálculo do índice de vegetação NDVI, por exemplo, o
procedimento segue a seguinte rotina: uma vez feitas às medidas de reflectância sobre a
área de interesse, estes dados são transferidos para o computador onde é feita a calibração,
a intercalibração e finalmente é obtido o fator de reflectância.
Para obter os valores do fator de reflectância, correspondentes às regiões do vermelho
e no infravem1elho próximo (bandas TM3 e TM4 do Landsat), existem várias maneiras e
métodos. No programa ESPECTRO, desenvolvido no Instituto Nacional de Pesquisas
Espaciais -INPE, existe uma sub-rotina que possibilita obter estes valores e de outras faixas
do espectro eletromagnético, correspondentes às bandas do sensor MSS e do HRV do
SPOT.
Na Tabela 1 é mostrado, por exemplo, alguns valores do fator de reflectância extraídos
de medidas feitas sobre a cultura de trigo, submetidos a diferentes níveis de adubação
nitrogenada e de irrigação e, na Tabela 2, estão contidos valores do fator de reflectância (
derivados da Tabela 1) para as bandas espectrais correspondentes a quatro faixas
espectrais em que operam os sensores TM, e três para o sensor MSS do Landsat.
Tabela 1 – Valores parciais dos fator de reflectância em função do comprimento de
onda e da parcela experimental.
É importante salientar que essa tabela representa apenas uma pequena parte de uma
medida radiométrica. Na tabela esses dados são fornecidos para comprimentos de ondas
que vai de 350 nm até 1100 nm, com intervalo de comprimento de onda de
aproximadamente 10 nm.
Com os valores do fator de reflectância contidos na Tabela 2, correspondentes às
bandas TM3 (região do vermelho) e TM4 (região do infravermelho próximo), são calculados
os índices de vegetação NDVI, para cada uma das parcelas do experimento, utilizando a
equação dada. Vejamos, por exemplo, o procedimento para calcular o NDVI para a parcela
1.
NDVI = 0,51
PARCELA NDVI
1 0,51
2 0,58
3 0,57
4 0,55
5 0,56
6 0,59
7 0,65
8 0,61