Você está na página 1de 105

1

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

UNIVERSIDADE ESTADUAL DE CAMPINAS


COLÉGIO TÉCNICO DE LIMEIRA

CURSO DE
GEODÉSIA E CARTOGRAFIA

DISCIPLINA DE

SENSORIAMENTO REMOTO

Curso Técnico de Geodésia e Cartografia COTIL


2

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

1. FUNDAMENTOS TEÓRICOS
1.1. Definição
Em princípio, pode-se definir sensoriamento remoto como a tecnologia que permite a
aquisição de informação sobre objetos sem contato físico com eles. O sensoriamento
remoto consiste na detecção da natureza de um objeto sem tocá-lo. O termo é associado à
aquisição de medidas na qual o ser humano não é parte essencial do processo de detecção
e registro dos dados.
Pode-se dizer que sensoriamento remoto é a utilização de sensores para a aquisição
de informações sobre objetos ou fenômenos sem que haja contato direto entre eles. Os
sensores seriam os equipamentos capazes de coletar energia proveniente do objeto,
convertê-la em sinal passível de ser registrado e apresentá-lo em forma adequada a
extração de informações.
A partir dessa definição de sensoriamento remoto e da compreensão das funções de
sensor, pode-se observar que a transferência de dados dos objetos para o sensor é feita
através de energia.
Torna-se necessário, novamente, especificar melhor a definição de sensoriamento
remoto no que diz respeito ao tipo de energia utilizada na transferência de informação do
objeto ao sensor. Restringe-se aqui, a utilização do termo sensores remotos aos
equipamentos que operam apenas através da detecção da energia eletromagnética ou
radiação eletromagnética. O termo sensoriamento remoto é restrito aos métodos que se
utilizam da energia eletromagnética na detecção e medida das características de objetos.
Tendo em vista que a energia eletromagnética se propaga no vácuo com a velocidade
de 3 x 108 m/s em direção ao sensor, ela se constitui no mais útil campo de força para a
atividade de sensoriamento remoto, formando um meio de transferência de informação de
alta velocidade entre as substâncias ou objetos de interesse e o sensor.
Assim sendo, passa-se aqui, a se preocupar apenas com os equipamentos que
medem a energia eletromagnética. Como existem numerosas fontes de energia
eletromagnética no universo, limita-se no contexto dessa disciplina, estudar somente às
interações que se processam na superfície terrestre.
Pode-se, então, a partir de agora, definir sensoriamento remoto como sendo a
utilização conjunta de modernos sensores, equipamentos para processamento de dados,
equipamentos de transmissão de dados, aeronaves, espaçonaves, etc., com o objetivo de
estudar o ambiente terrestre através do registro e da análise das interações entre a radiação
eletromagnética e as substâncias componentes do planeta Terra em suas mais diversas
manifestações.
O termo sensoriamento remoto, para recursos naturais, tem sido definido de várias
maneiras. Porém, todas elas expressam um objetivo comum, ou seja, o conjunto de
atividades utilizadas para obter informações a respeito dos recursos naturais, do planeta
Terra, através da utilização dos dispositivos sensores colocados em aviões, satélites ou, até
mesmo, na superfície. Em algumas definições há até menção de trocas energéticas entre os
objetos ou fenômenos com o meio ambiente. De qualquer forma, percebe-se, claramente,
que o enfoque maior é transmitir a idéia de uma nova tecnologia (conjunto de programa
“softwares” e equipamentos “hardwares”) colocada à disposição do homem, para auxiliá-lo
nas indagações sobre o manejo do meio ambiente.
Esta forma de conceituar o sensoriamento remoto é válida sob o ponto de vista
tecnológico, uma vez que, possibilita o homem obter outros tipos de informações acerca dos
recursos naturais, além daqueles perceptíveis pelos órgãos do sentido, ou seja, através do
olfato, da gustação, do tato, da audição e da visão. Entretanto, o sensoriamento remoto, sob
o ponto de vista prático (aplicação) é algo mais do que “softwares” e “hardwares”. Poder-se-
ia dizer que ele engloba, além de “softwares” e “hardwares”, o conhecimento básico de
todos os componentes que direta ou indiretamente fazem parte do “sistema” sensoriamento
remoto. Neste contexto deve ser incluídos a radiação solar, a atmosfera terrestre, o solo, a
vegetação e a água. Por exemplo, de nada valeria uma pessoa com profundo conhecimento
de determinado sistema sensor, sem entender do comportamento da radiação que incide

Curso Técnico de Geodésia e Cartografia COTIL


3

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

neste sistema. O mesmo argumento valeria para o caso inverso, isto é, entender a radiação
e não saber nada sobre o sistema utilizado para registrá-la.
Em resumo, então, pode-se definir sensoriamento remoto como o processo de
transformação da energia registrada pelo sensor em informação. O processo de
sensoriamento remoto cada vez mais é encarado como um sistema de aquisição de
informações.

1.2. Origem e evolução do sensoriamento remoto


A história do sensoriamento remoto é um assunto bastante controvertido. Alguns
autores colocam a origem do sensoriamento remoto ligada ao desenvolvimento dos
sensores fotográficos. Esta é, por exemplo, a visão da American Society of Photogrammetry.
O Manual of Remote Sensing divide a história do sensoriamento remoto em dois períodos
principais: o período de 1860 a 1960, no qual o sensoriamento remoto era baseado na
utilização de fotografias aéreas e o período de 1960 até os nossos dias, caracterizado pela
multiplicidade de sistemas sensores.
A máquina fotográfica foi sem dúvida nenhuma o primeiro invento mecânico utilizado
no sensoriamento remoto. Foi inventada em 1839 e usada em 1849 por engenheiros
militares americanos na obtenção de fotos que possibilitassem a confecção de mapas
topográficos. A fotografia aérea foi o primeiro sensor remoto a ser utilizado, e se utiliza ainda
hoje, na elaboração de mapas topográficos. Durante a Guerra Civil dos Estados Unidos, a
máquina fotográfica montada em balões foi utilizada para reconhecimento militar. Na II
Guerra Mundial, a câmera fotográfica aérea, munida de filme infravermelho possibilitou a
identificação de camuflagens.
Os primórdios da aerofotogrametria datam da segunda metade do século XIX,
concomitantemente com o próprio desenvolvimento da fotografia. De 1857, quando se
obtiveram as principais fotografias aéreas a partir de balões, até nossos dias, verificou-se
um grande avanço nas técnicas de sensoriamento remoto, principalmente como subproduto
de pesquisas com fins militares.
No Brasil, dois eventos marcaram a nossa entrada nesta sofisticada tecnologia.
O primeiro grande passo foi o Projeto RADAM, hoje RADAMBRASIL, incumbido de
mapear a região amazônica através de imagens produzidas por intermédio de radar
apropriado. Criado inicialmente para levantar uma área de 44 000 km2, o Projeto RADAM foi
sucessivamente ampliado, até atingir 4 800 000 km2, ainda na fase da Amazônia. Em 1976,
foi completado o mapeamento de todo o território brasileiro, cobrindo os 8.500.000 km 2, com
os primeiros resultados liberados em 1977. Tendo em vista a extensão territorial, optou-se
por um tipo de equipamento denominado Radar de Visão Lateral (RVL) que apresentava
como principal vantagem à rapidez, proporcionando em pouco tempo fotografias de nível
adequado. A desvantagem principal era a escala da fotografia (1: 250 000), quando
comparada com a fotografia convencional (1: 25 000).
O segundo evento importante foi o início da recepção e processamento de sinais do
satélite LANDSAT, antigo ERTS, pelo INPE – Instituto de Pesquisas Espaciais, com sede
em São José dos Campos, SP. Além da produção de imagens em diferentes comprimentos
de onda, tal fonte de informações apresenta a vantagem adicional na periodicidade, já que a
cada 16 dias uma mesma área da superfície terrestre é imageada.
Fica evidente também que o sensoriamento remoto é fruto de um esforço
multidisciplinar em que envolveu e envolve avanços na Física, na Física-química, na
Química, nas Biociências e Geociências, nas Ciências da Computação, etc.
A complexidade das atuais técnicas de sensoriamento remoto faz com que, cada vez
mais, um maior número de pessoas de áreas diferentes participem do processo de
transformação da energia registrada pelo sensor em informação. O processo de
sensoriamento remoto cada vez mais é encarado como um sistema de aquisição de
informações.

Curso Técnico de Geodésia e Cartografia COTIL


4

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

1.3. Áreas de aplicação de sensoriamento remoto


As possibilidades de técnicas de sensoriamento remoto têm proporcionado uma
grande variedade de aplicações civis. A lista seguinte relaciona as áreas que tem tido uma
aplicação técnica considerável.

Água:
- Inventário e manejo de recursos hídricos para uso agrícola e industrial.
- Distribuição da umidade do solo.
- Qualidade da água (controle de descargas com poluentes químicos, térmicos e
biológicos).
- Correntes térmicas e distribuição da salinidade (recursos marítimos e pesca).
- Zona costeira (atividades em estuários e baías).

Solo e Vegetação:
- Inventário e planejamento do uso da terra.
- Classificação e conservação de solos.
- Inventário e planejamento de exploração de recursos minerais.
- Avaliação da queda do vigor das plantas (pragas, moléstias e deficiências
minerais).
- Estimativa de safras.
- Controle da poluição do solo.
- Cartografia.

Atmosfera:
- Mapeamento climático (distribuição de nuvens e previsão de tempo).
- Temperatura horizontal e vertical e distribuição do vapor-d’água.
- Controle da poluição na baixa atmosfera dentro de áreas limitadas (emissão de
automóveis e indústrias).

Outros:
- Controle e proteção da vida selvagem.
- Estudos sobre acidentes radiativos em usinas nucleares.
- Atualização do crescimento de áreas urbanas.
- Controle de tráfego.

Embora sejam muitas as áreas a serem desenvolvidas, cada país apresenta


prioridades e necessidades a serem satisfeitas, em função de suas peculiaridades
geoeconômicas e limitadas pelo tempo e recursos financeiros. No caso brasileiro, onde o
tempo é importante e os recursos escassos, as prioridades seriam:
- Inventário dos recursos naturais e levantamento do uso da terra;
- Locação de áreas para prospecção mineral e energética e
- Elaboração e atualização de mapas.
Neste contexto, pode-se citar como exemplo, a intenção brasileira de investir
maciçamente na produção de álcool, que tem pela frente de imediato o requisito básico de
onde plantar. No que se refere à opção entre cana-de-açúcar, mandioca e eucalipto, pelo
menos em termos de disponibilidade de solos não haveria superposição, já que cada uma
destas culturas possui características que facilitam o zoneamento. É o caso, por exemplo,
do eucalipto, que pode ser plantado em terras marginais, impróprias para a agricultura, mas
suficientemente próximas dos grandes centros, com vantagens evidentes quanto ao
transporte e à disponibilidade de mão-de-obra qualificada.

Curso Técnico de Geodésia e Cartografia COTIL


5

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Bibliografia consultada - Sensoriamento Remoto:

MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1


edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:
Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
1995. 90p.

Exercícios propostos
1- Explique o que significa Sensoriamento Remoto.

2- Como se pode obter o Sensoriamento Remoto?

3- Cite 3 áreas de aplicação de S.R. e dê exemplos.

Curso Técnico de Geodésia e Cartografia COTIL


6

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

2. RADIAÇÃO ELETROMAGNÉTICA
2.1. As interações entre energia e matéria
Como já foi definido antes, sensoriamento remoto é a utilização conjunta de modernos
sensores, equipamentos para processamento de dados, equipamentos de transmissão de
dados, aeronaves, espaçonaves, etc., com o objetivo de estudar o ambiente terrestre
através do registro e da análise das interações entre a radiação eletromagnética e as
substâncias componentes do planeta Terra.
Através dessa definição fica claro que a base sobre a qual se assenta a aquisição de
informações é a interação energia-objetos da superfície terrestre.
A interação entre matéria e energia fornece as bases do sensoriamento remoto.
Para compreender melhor a interação entre a energia eletromagnética e os objetos da
superfície terrestre (matéria), tem-se que começar pelo estudo da natureza desta energia.

2.2. A natureza da radiação eletromagnética


Todos os objetos da superfície terrestre (matéria), cuja temperatura esteja acima de
zero grau absoluto (-273ºC ou 0K), absorvem ou emitem energia. Desta maneira, todo corpo
com temperatura absoluta acima de 0 K pode ser considerado com uma fonte de radiação.
Existem duas teorias que explicam a propagação de energia a partir de uma fonte.
Uma teoria é conhecida como “corpuscular”, relacionada a emissão de energia, e preconiza
que a energia se propaga pela emissão de um fluxo de partículas (fótons) que se movem à
velocidade de 3 x 108m/s. Em outras palavras, a radiação é emitida descontinuamente em
pequenos pulsos de energia. Outra teoria é conhecida como “ondulatório” e postula que a
propagação da energia se faz através de um movimento ondulatório.
Vamos começar por considerar a radiação de energia como tendo natureza
ondulatória e tentar compreender o que é uma onda eletromagnética.

2.2.1. Conceito de ondas


Ondas são perturbações periódicas ou oscilações de partículas ou do espaço, por
meio das quais, muitas formas de energia propagam-se a partir de suas fontes. Em outras
palavras, a energia se propaga a partir de suas fontes através de ondas. Todos os
movimentos ondulatórios em um meio resultam de oscilações de partículas individuais em
torno de suas posições de equilíbrio. Isto significa que uma onda progressiva é o movimento
provocado por uma perturbação qualquer e não um deslocamento do meio em si mesmo.
Exemplo bastante característico deste fenômeno são as “olas” em estádios de futebol, onde
se percebe que há um movimento oscilatório, porém as pessoas permanecem nos mesmos
lugares. Em outras palavras, uma onda não propaga matéria, cada partícula do meio oscila
apenas em torno de sua posição de equilíbrio.
De modo geral, as ondas necessitam de um meio material para se propagarem, exceto
as ondas eletromagnéticas que se propagam no vácuo.
Uma onda possui uma freqüência e um comprimento. A freqüência corresponde ao
número de vezes que uma onda passa por um ponto do espaço num determinado intervalo
de tempo, ou seja, ao número de oscilações da onda por unidade de tempo em relação a
um ponto. A freqüência é geralmente expressa em ciclos por segundo ou Hertz. O
comprimento de onda indica a distância entre dois pontos semelhantes de onda, dado em
metros (Figura 1).

Curso Técnico de Geodésia e Cartografia COTIL


7

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 1 – Esquema para mostrar uma onda, onde A é a amplitude da onda e  é o


comprimento da onda.
A velocidade de uma onda depende da natureza do meio de propagação.
Se uma onda passa de um meio para outro, a mudança na velocidade resulta em
mudança de direção do movimento. Esse fenômeno é conhecido com difração. A difração
pode ser entendida como sendo o desvio ou expansão de ondas tais como ocorre com
ondas marinhas ou eletromagnéticas, quando encontram um obstáculo. Assim, quando a luz
passa do ar para a água, ela é refratada ou encurvada.
Quando uma onda encontra uma superfície de separação de dois meios, ela se refrata
e se reflete. Isto é, a perturbação propagada pela onda incidente transmite-se ao segundo
meio (onda refratada), mas, surge no primeiro meio uma nova onda que se propaga em
sentido oposto (reflexão). Desta forma, parte da onda incidente é refletida. Em geral, as
direções das ondas transmitidas e refletidas são diferentes da direção da onda incidentes e
diferentes entre si.

2.2.2. Ondas eletromagnéticas


A energia radiante ou energia eletromagnética é a energia transportada na forma de
ondas eletromagnéticas, sendo de especial importância e interesse ao sensoriamento
remoto, pois não necessitam de um meio físico para se propagar. É através dela que a
informação é transmitida de um objeto ao sensor.
As ondas eletromagnéticas não necessitam de um meio de propagação, ou seja, elas
se propagam até mesmo no vácuo.
A velocidade de propagação da onda eletromagnética no vácuo é a velocidade da luz
(3 x 108m/s). O número de vezes que uma onda passa por um ponto do espaço num
determinado tempo define a freqüência (f) da radiação eletromagnética. A freqüência de
onda é diretamente proporcional à velocidade de propagação da radiação. Quanto maior a
velocidade de propagação da onda, maior número de vezes que a onda passará por um
ponto num dado tempo e maior será sua freqüência.
Uma onda eletromagnética é também caracterizada pelo comprimento de onda 
(lâmbda) que é dado por:

f=c

em que,
 = comprimento da onda, metros;
c = velocidade da luz (propagação da onda);
f = freqüência.

Curso Técnico de Geodésia e Cartografia COTIL


8

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Pela análise da equação podemos concluir que o comprimento da onda é


inversamente proporcional à freqüência. Quanto maior a freqüência com que uma carga
elétrica é acelerada, menor será o comprimento de onda resultante.
Para saber a freqüência de cada banda espectral podemos calcular da seguinte
maneira:

Exemplo Raios Gamas:


0.0001nm até 0.1nm
limite inferior:

1 nm ---------10-9m
10-4nm ------- x

x = 10-13m

f=c

f = 3 x 108m/s
10-13m

f = 3 x 1021Hz

limite superior:

1 nm ---------10-9m
10-1nm ------- x

x = 10-10m

f=c

f = 3 x 108m/s
10-10m

f = 0.3 x 1018Hz

2.3. Fontes de radiação eletromagnética


O Sol é a principal fonte de energia eletromagnética disponível para o sensoriamento
remoto da superfície terrestre.
Essa radiação solar é a fonte de energia para todos os processos físico-químicos e
biológicos que ocorrem na superfície terrestre. Além de ser energia para os seres vivos, é a
principal fonte de energia para a maioria dos sistemas sensores (sensores passivos). Assim,
é fácil de perceber a importância de conhecer um pouco mais a respeito desta radiação,

Curso Técnico de Geodésia e Cartografia COTIL


9

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

além daqueles conhecimentos que, tradicionalmente, são utilizados para desencadear uma
seqüência de raciocínios sobre o sensoriamento remoto.
Além do Sol, outras fontes de radiação eletromagnética são utilizadas para o
sensoriamento remoto da superfície terrestre. A própria Terra torna-se, desse modo, uma
fonte de radiação freqüentemente utilizada.
Quando utilizamos o Sol como fonte de radiação eletromagnética para o
sensoriamento remoto da superfície terrestre, medimos a energia terrestre refletida pelos
diferentes objetos da superfície.
O Sol e a Terra são duas importantes fontes naturais e contínuas de radiação
eletromagnética que podem ser usadas em sensoriamento remoto. Existem, entretanto,
outras fontes de radiação eletromagnética disponíveis para o sensoriamento remoto, quer
naturais, quer artificiais.
Como o Sol tem uma temperatura maior que a da Terra, seu pico de emissão está
entre 0,4 a 0,7 m, que é a porção do visível do espectro eletromagnético. A máxima
emissão de energia eletromagnética da Terra encontra-se em torno de 9m. Por essa razão,
as radiações emitidas pelo Sol são ditas radiações de ondas curtas, enquanto que as
radiações produzidas pela emissão de energia da Terra (refletidas) são ditas de ondas
longas.

2.3.1. Origem da radiação solar


Quando observado como fonte de energia eletromagnética, o Sol pode ser
considerado como uma esfera de gás aquecido pelas reações nucleares de seu interior.
O Sol é considerado uma estrela, constituída por uma massa gasosa, contendo
aproximadamente 71% de Hidrogênio e 26% de Hélio. A superfície aparente do Sol é
denominada fotosfera, cujo diâmetro aproximado é cerca de 1,3914 x 106 km. Possui uma
massa aproximada de 1,99 x 1035 kg, sendo que cerca de 90% concentra-se na metade
interna do seu raio. A temperatura superficial média é de 5.770k. Entretanto, por causa da
pressão exercida pela massa do Sol, a temperatura no centro solar chega a 4 x 107 k. Essa
altíssima temperatura promove o desencadeamento de reações nucleares, transformando o
hidrogênio em hélio. Essa reação que ocorre no núcleo do átomo de hidrogênio é
denominada de “radiação”.
Para se ter idéia da quantidade de radiação liberada no processo de fusão nuclear, a
cada segundo, 657 milhões de toneladas de hidrogênio são transformadas em 653 milhões
de toneladas de hélio.
Da fotosfera (parte externa do Sol) saem, em direção ao universo, verdadeiras
labaredas de gás hélio, que podem atingir até 400 mil quilômetros de distância. Devido à
força gravitacional do Sol essas labaredas voltam novamente à superfície do Sol.
Essa energia irradiada pela fotosfera é a principal fonte de radiação eletromagnética
no sistema solar. A esta energia radiante, proveniente do Sol em direção à Terra,
chamamos de Irradiância. A configuração deste fluxo em termos espectrais é bastante
complexa devido às grandes variações de temperatura que ocorrem na superfície do Sol e
pela opacidade de certas regiões da atmosfera terrestre. Para fins de sensoriamento remoto
da superfície terrestre, em geral admite-se que a emissão de energia do Sol assemelha-se à
de um corpo negro com temperatura equivalente à 6000K.

2.4. Tipos de radiações eletromagnéticas


Hoje, sabe-se que existem diversas denominações para as radiações
eletromagnéticas, que variam em função da freqüência e, conseqüentemente, do
comprimento de onda. Uma fonte emite radiação com um espectro de comprimentos de
onda. Essas diferentes radiações eletromagnéticas receberam denominações diferentes que
são de natureza histórica ou decorrente dos processos utilizados na sua produção ou
determinação. Entre as radiações eletromagnéticas existentes, pode-se citar, Radiação
Gama, Raios-X, Radiação Ultravioleta (UV), Radiação Visível (LUZ), Radiação
Infravermelha (IV), Microondas e Ondas de Rádio.

Curso Técnico de Geodésia e Cartografia COTIL


10

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

O conjunto de todas estas radiações, desde os raios gama até as ondas de rádio,
forma o espectro eletromagnético, que nada mais é do que a ordenação destas radiações
em função do comprimento de onda e da freqüência (Figura 4).

Figura 4 – Aspectos do espectro eletromagnético.Verificar o site:


http://geocities.yahoo.com.br/saladefisica3/laboratorio/espectro/espectro.htm

As radiações tipo Gama são emitidas por materiais radioativos e pelo Sol. Estas
radiações localizam-se no espectro eletromagnético antes do Raio-X, ou seja, aquém de 1
Ângstron. Possuem altas freqüências e, por isso, são muito penetrantes (alta energia). Na
prática, têm aplicações na medicina (radioterapia) e em processos industriais,
principalmente, na conservação de alimentos.
Os Raios X são radiações cujas freqüências de onda estão acima da radiação
ultravioleta, ou seja, possuem comprimentos de onda menores. Esta denominação foi dada
pelo seu descobridor, o físico alemão Wilhelm Röntgen, no ano de 1895, por não conhecer
suas trajetórias. Os raios X surgem do interior da eletrosfera do átomo, por rearranjos
eletrônicos. São muito usados em radiografias e em estudos de estruturas cristalinas de
sólidos. Os raios X provenientes de Sol são absorvidos pelos gases na alta atmosfera.
As radiações ultravioletas (UV) são radiações compreendidas na faixa espectral de
0,01 a 0,38 m. Estas radiações são muito produzidas durante as reações nucleares no Sol.
Entretanto, ao atingir o topo da atmosfera terrestre, elas são quase totalmente absorvidas
pelo gás ozônio (O3). O espectro do UV é dividido em três bandas: a) UV próximo (0,3 a
0,40m; b) UV médio (0,2 a 0,3m) e c) UV distante ou máximo (0,01 a 0,2m).
A radiação visível (LUZ) é o conjunto de radiações eletromagnéticas compreendidas
entre os comprimentos de ondas de 0,40m a 0,70m. As radiações contidas nesta faixa de
comprimento de onda ao incidirem no sistema visual humano são capazes de provocar uma
sensação de cor1 no cérebro.
A maioria do espectro eletromagnético é invisível para o olho humano, só uma
pequena faixa compreende a luz visível.
As várias radiações que constituem a luz solar que chegam à superfície da Terra
formam o chamado espectro solar. Parte destas radiações tem determinada coloração e do

1
O fato de o ser humano enxergar cores está ligado aos estímulos do cérebro, que utiliza este recurso
para diferenciar uma onda da outra, ou melhor, uma freqüência da outra. Assim, o vermelho possui uma
freqüência diferente do azul. Por essa razão, pode-se dizer que na natureza não existem cores, apenas objetos que
refletem ondas de freqüências diferentes, que provocam no cérebro humano a sensação de cores.

Curso Técnico de Geodésia e Cartografia COTIL


11

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

seu conjunto resulta a luz solar vulgarmente chamada luz branca ou visível. A dissociação
da luz visível nas diversas radiações coloridas constituintes pode ser obtida
experimentalmente fazendo passar um raio luminoso através de um prisma de vidro. Este
processo ocorre naturalmente através das gotículas de água em suspensão na atmosfera,
dando origem ao conhecido arco-íris. Assim, no espectro solar visível ao olho humano, as
radiações coloridas estão distribuídas do violeta ao vermelho-escuro, com as diversas
colorações intermediárias.
A luz visível não é a única a atravessar a atmosfera da Terra, também chegam à
superfície raios ultravioletas, que provocam "bronzeamento" da nossa pele; infravermelho,
responsável pelo aquecimento térmico e ondas de rádio.
Quando se decompõe a luz branca por um processo qualquer, por exemplo, através
de um prisma, o que se observa é que uma cor contém várias radiações eletromagnéticas
de comprimentos de ondas diferentes (diferenças freqüências). Em outras palavras,
radiações eletromagnéticas situadas entre 430 a 500nm provocam, no sistema visual
humano, a mesma sensação de cor azul. Assim, o que nosso cérebro identifica como cor
azul é toda a radiação situada entre 430 e 500nm.
Por outro lado, não existe um limite rígido entre duas cores do espectro visível. Os
limites tabulados que existem na literatura são apenas teóricos para fins didático. Este fato é
bem ilustrado nas Figuras 5, na qual se percebe claramente que a transição entre duas
cores é difusa.

Figura 5 – Fracionamento da luz branca em suas cores individuais.

No Quadro 1, estão contidas as cores que compõem a luz branca e as respectivas


faixas espectrais do espectro eletromagnético expressas em nanômetro (nm) e micrometro
(m).

Curso Técnico de Geodésia e Cartografia COTIL


12

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Quadro 1 – Relação de cores e faixas espectrais na região do visível.


CORES COMPRIMENTO DE ONDA
Nanômetro2 (nm) Micrômetro (m)
Violeta 380 a 430 0,38 a 0,43
Azul 430 500 0,43 a 0,500
Verde 500 a 560 0,500 a 0,56
Amarelo 560 a 600 0,56 a 0,6
Laranja 600 a 640 0,6 a 0,640
Vermelho 640 a 780 0,640 a 0,780

A radiação infravermelho (IV ou IR) é radiação eletromagnética cujos comprimentos de


onda variam de 0,78 a 1000m. Situam-se no espectro eletromagnético entre a luz vermelha
e as microondas. Às vezes, essas radiações recebem a denominação de radiação térmica.
É facilmente absorvida pela maioria das substâncias produzindo um efeito de aquecimento.
Esta radiação é dividida em três faixas espectrais: IV próximo (0,78 a 1,3m – 780nm a
1300nm), IV médio (1,3 a 3,0 m – 1300nm a 3000nm) e IV distante (3,0 a 1000m –
3000nm a 1000000nm).
As microondas são radiações eletromagnéticas que se estendem pela região do
espectro de 1000m até cerca de 1 x 10+6m (1m). Estas radiações são mais comumente
referenciadas em termos de Hertz e seus múltiplos. Neste caso, elas estão compreendidas
entre 300GHz a 300MHz, ou ainda, de 1mm a 30 cm, pouca acentuação facilitando a
utilização de radares (dispositivos capazes de produzir feixes de radiação eletromagnética
altamente concentrados) em qualquer condição de tempo.
As ondas de rádio são o conjunto de radiações com freqüências menores que 300
MHz (comprimento de onda maior que 1m). São ondas de freqüências baixas, grandes
comprimentos de onda. Pouca acentuadas pela atmosfera, refletidas pela ionosfera,
utilizadas em comunicação a longa distância, pois propagam-se a longo alcance. Estas
ondas são utilizadas principalmente em telecomunicação.
Somente as radiações que passam por duas estreitas "janelas" na atmosfera chegam
até a superfície da terra. Uma delas é a janela ótica que vai de 300nm (ultravioleta) até
1000nm (infravermelho), outra é a janela de rádio, que vai de 1mm até 50m.
Os raios X e o ultravioleta menor que 300nm são absorvidos pelas camadas mais altas da
atmosfera. As radiações na faixa entre 1000nm (infravermelho) e 50m (rádio) são
absorvidas pelas moléculas da atmosfera. As ondas de rádio maiores que 50m são
refletidas pela ionosfera para o espaço externo.

O Quadro 2 demonstra todas os comprimento de onda que foi comentado.

Quadro 2 – Espectro de ondas eletromagnéticas em ordem crescente de comprimento de onda.

2
Lembrete:
1nm (nanômetro) = 0.001m (micrômetro)
1nm = 10 -9m
1m = 1000nm
1m = 10 –6m
1m = 10 +9nm
1m = 10 +6m = 300MHz
1000m = 300GHz.

Curso Técnico de Geodésia e Cartografia COTIL


13

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Comprimento de onda
Raios Gama Entre 0.0001 nm e 0.1 nm
Raios X Entre 0.1 nm e 10 nm
Ultravioleta Entre 10 nm e 380 nm
Luz visível - Violeta Entre 380 nm e 430 nm
Luz visível - Azul Entre 430 nm e 470 nm
Luz visível - Azul esverdeado Entre 470 nm e 500 nm
Luz visível - Verde Entre 500 nm e 560 nm
Luz visível - Amarelo Entre 560 nm e 600 nm
Luz visível - Laranja Entre 600 nm e 640 nm
Luz visível - Vermelho Claro Entre 640 nm e 710 nm
Luz visível - Vermelho escuro Entre 710 nm e 780 nm
Infravermelho Entre 780 nm e 1 mm ( milímetro)
Microondas Entre 1 mm até 1m (1000m até 10+6m)
Ondas de rádio, TV, radar,etc.. > 1m

2.5. Radiação do corpo negro


O espectro da radiação da Terra aproxima-se do espectro de radiação de um corpo
negro à temperatura de 300K.
Sabe-se então, que todo corpo cuja temperatura esteja acima de 0 absoluto (O K)
absorve ou emite radiação eletromagnética. Para elucidar este fenômeno de emissão dos
corpos, inclusive do Sol, foi criado um modelo teórico denominado de corpo negro. Segundo
este modelo, o corpo negro tem a propriedade de absorver e/ou emitir toda energia que nele
incidir, independente da faixa espectral e da direção da radiação.
Conceitualmente um corpo negro é um objeto que irradia energia a uma taxa máxima
por unidade de área e por comprimento de onda numa dada temperatura. Assim como o
corpo negro emite toda a energia que possui, também é capaz de absorver toda a energia
que nele incide. Obviamente, na natureza não existem corpos negros. O conceito de corpo
negro é um modelo que permite compreender o processo de radiação.
Plank utilizou um modelo de corpo negro que consiste de uma esfera oca com
temperatura de superfície uniforme. Nesta esfera existe um pequeno orifício pelo qual entra
um feixe de radiação. Essa radiação que entra é absorvida totalmente no interior da esfera
após múltiplas reflexões. Portanto, a cavidade formada pela esfera oca atua com um corpo
negro ideal, ou seja, absorve toda a energia nela incidente.
A partir desse modelo, Plank pode chegar à definição de algumas propriedades do
corpo negro, cujo conhecimento é fundamental à compreensão de certos processos de
interesse para o sensoriamento remoto.
O corpo negro, em princípio, é um emissor perfeito, ou seja, irradia toda a energia que
absorve. A radiação de um corpo negro é isotrópica, ou seja, é igual em todas as direções.
A radiação total emitida por um corpo negro é função somente de sua temperatura.
Um corpo negro a 300K corresponde aproximadamente ao espectro de emissão da
superfície terrestre. Um corpo negro a 6000K corresponde aproximadamente ao espectro de
emissão do Sol estimado no topo da atmosfera.
A partir de estudos com o corpo negro, pode-se admitir que:
a)a quantidade total de energia emitida pelo Sol é muito maior que aquela emitida pela
Terra;
b) a região de máxima emissão do Sol encontra-se em comprimentos de ondas
menores que aquelas de máxima emissão da Terra (Figura 6).

Curso Técnico de Geodésia e Cartografia COTIL


14

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 6 – Espectros de emissão da Terra e do Sol.


Pela comparação do espectro de emissão da Terra com o espectro de emissão do Sol,
pode-se concluir que:
- Quanto maior a temperatura de um corpo, maior a quantidade de energia por ele
emitida;
- Quanto maior a temperatura do corpo, menor o comprimento de onda de máxima
emissão.
Como o Sol tem uma temperatura maior que a da Terra, seu pico de emissão está
entre 0,4 a 0,78 m, que é a porção do visível do espectro eletromagnético. A máxima
emissão de energia eletromagnética da Terra encontra-se em torno de 9m (900nm).
As fontes de radiação caracterizam-se por seu espectro de emissão ao longo do
espectro de radiação eletromagnética. A radiação solar caracteriza-se pela máxima emissão
na região visível do espectro. Outras estrelas, como a Sirius e aVega, têm emissão máxima
na região do ultravioleta.

Bibliografia consultada
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:
Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
195. 90p.
www.if.ufrj.br/teaching/luz/cor.html

Curso Técnico de Geodésia e Cartografia COTIL


15

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Exercícios propostos:
1- Explique o funcionamento do Sensoriamento Remoto.

2- O que são ondas? Dê exemplos.

3- O que são ondas eletromagnéticas?

4- Comente sobre a(s) fonte(s) de energia eletromagnética.

5- O que é espectro eletromagnético? Explique.

6- Explique o funcionamento do ser humano enxergar cores.

7- O que são ondas curtas e ondas longas? Explique.

8- Qual a conclusão da teoria do corpo negro?

Curso Técnico de Geodésia e Cartografia COTIL


16

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

3. ATMOSFERA
Do ponto de vista biológico, a atmosfera terrestre é indispensável à vida em virtude
dos gases que contém e por ser o filtro protetor de radiações solares com alto poder de
penetração, como a radiação ultravioleta, raios X, etc.
A atmosfera terrestre possui uma massa que corresponde a 0,001% do total do
planeta Terra e é constituída por uma mistura gasosa, por vapor de água e aerossóis 3. Essa
camada gasosa apresenta espessura variável, porém pode chegar a mais de 1000 km de
altitude. Apesar dessa extensa camada, a massa total dos gases que a compõem
concentra-se, praticamente, nos primeiros 10 km de altitude.
A atmosfera exerce uma pressão sobre a superfície terrestre. Ao nível do mar, a
pressão é de aproximadamente 101 kilopascal, o que eqüivale a 1103 milibares (mb) ou a
760 milímetros de mercúrio (mmHg).
Devido às dimensões do planeta Terra (que gera uma força gravitacional muito
grande), da densidade dos gases e de processo de aquecimento, a atmosfera possui uma
estrutura vertical estratificada em zonas, designadas pelo sufixo "SFERA", separadas por
camadas identificadas pelo sufixo “PAUSA”. Entretanto, não existe uma separação nítida
entre zonas e camadas e nem uma definição exata da espessura de cada uma dessas
divisões.
De acordo com a literatura, existem cinco zonas, a saber: troposfera, estratosfera,
mesosfera, ionosfera e exosfera, conforme é mostrada na Figura 8.

3
suspensão de partículas, líquidas ou sólidas, de reduzidas dimensões num meio gasoso.

Curso Técnico de Geodésia e Cartografia COTIL


17

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

TROPOSFERA

Figura 8 – Esquema para mostrar as principais zonas da atmosfera terrestre.

Destas zonas atmosféricas, a troposfera é a mais importante do ponto de vista


biológico, porque é dela que depende a vida da maioria dos seres terrestres. Entretanto,
para o sensoriamento remoto, o estudo da atmosfera terrestre, como um todo, é
fundamental porque ela constitui um meio natural que interfere tanto na radiação incidente
(irradiância) quanto na parte da radiação que é refletida (radiância) pelos alvos da superfície
que, eventualmente, será coletada pelos sistemas sensores. Em geral, essa interferência se
manifesta na trajetória (fenômenos de refração, difração), na velocidade e absorção (total ou
parcial) da radiação solar em determinadas faixas espectrais do espectro eletromagnético.
Seguem as descrições sobre as camadas da atmosfera:

Troposfera: é a camada que está em contato com a superfície terrestre, cuja


espessura varia em função da latitude. Na linha do equador a troposfera atinge cerca de 15
a 18 km e, nos pólos, cerca de 2 a 8 km de altura. Contém aproximadamente 80 % da
massa total da atmosfera e é a camada de ar mais influenciada pelas transferências de
energias que ocorrem na superfície da Terra. É na troposfera que ocorrem os fenômenos
meteorológicos, como a chuva, o vento, as nuvens, a neblina, o granizo, a neve, etc. Nesta
região, a temperatura diminui com o aumento da altitude, na razão de 6ºC para cada 1000
metros. O calor na troposfera provém tanto do interior do planeta quanto da energia solar
absorvida pelo ar. Esta camada é limitada na parte superior pela tropopausa. A principal
função da tropopausa é servir de "armadilha de frio" para as moléculas de água, impedindo
que elas escapem para as camadas superiores.
Estratosfera: estende-se, a partir do final da tropopausa, podendo atingir uma altura
aproximada de até 30 km a partir da superfície terrestre. Nesta região, a quantidade de
oxigênio é bem pequena e não existe umidade. Ao contrário da troposfera, a temperatura
aumenta à medida que aumenta a altitude. Assim, enquanto em sua parte inferior a

Curso Técnico de Geodésia e Cartografia COTIL


18

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

temperatura é aproximadamente de -40ºC, na sua parte mais alta, a temperatura vai para -
2ºC. O aumento da temperatura é conseqüência da absorção da radiação ultravioleta pelo
ozônio (03), que constitui cerca de 1% do ar atmosférico. A camada que limita a estratosfera
e a mesosfera, é denominada de estratopausa.
Mesosfera: esta região inicia-se logo após a estratopausa e pode atingir até 80 km
acima da superfície terrestre. É uma região rica em ozônio. Na mesosfera, a temperatura
continua a aumentar até cerca de 10ºC, a uma altitude de mais ou menos 50 km, em relação
à superfície da Terra, voltando a decrescer e de forma acentuada, ao chegar ao topo da
camada a temperatura é de –90ºC. A composição dos gases na mesosfera é mais ou menos
constante e constituída de 78% de nitrogênio, 21% de oxigênio e, no restante dos gases
(1%) predomina o dióxido de carbono, vapor d' água e argônio. Esta camada, do ponto de
vista de sensoriamento remoto, é importante porque é nela que ocorre a absorção de quase
todas as radiações ultravioletas.
Ionosfera: é a região da atmosfera superior da Terra, estendendo-se
aproximadamente até 600 km de altitude. Nesta camada, o ar apresenta uma condutividade
elétrica alta, em razão da separação das moléculas em íons e elétrons (ionização) pela
radiação solar ultravioleta. A ionosfera é um refletor eficiente de ondas de rádio, na faixa
espectral que vai das ondas curtas até as ondas longas, permitindo que as comunicações
sejam feitas a grande distância ao redor da superfície terrestre. Todavia, a ionosfera não
reflete ondas de rádio de alta freqüência (inclusive televisão), razão pela qual, a transmissão
de comunicações por estas ondas faz-se por satélites.
OBS. Verificar o site http://iono.jpl.nasa.gov/latest_rti_global.html. Trata-se da situação
da ionosfera em tempo real.
Exosfera: é a zona mais externa da atmosfera, podendo chegar a 1000 km ou mais de
altura em relação à superfície da Terra. Na exosfera predomina o hidrogênio (o gás mais
leve que se conhece) e por esta razão é, também, denominada de camada hidrogenada.
Nesta região, as temperaturas variam de 2000ºC, durante o dia, a –300ºC, durante a noite.
De acordo com a Organização Meteorológica Mundial, a atmosfera terrestre é formada
por uma mistura de gases que variam em concentração, sendo, porém, o nitrogênio e o
oxigênio os gases mais abundantes conforme pode ser visto no Quadro 3.

Quadro 3 – Composição média do ar seco próximo ao solo, em % volume ou ppm,


segundo a organização meteorológica mundial (OMM).
Componentes estáveis (teor) Componentes variáveis (teor)
Nitrogênio 78,084 % Ozônio 0 a 0,07 ppm
Oxigênio 20,946 % SO2 0 a 1,0 ppm
Gás Carbônico 0,033% NO2 0 a 0,02 ppm
Argônio 0,934 % CH2O Traços
Neônio 18,18 ppm Iodo 20 ppm
Hélio 5,24 ppm NaCl 20 ppm
Criptônio 1,14 ppm NH3 Traços
Xenônio 0,09 ppm CO Traços
Hidrogênio 0,50 ppm Radônio 6 x 10-12 ppm
Metano 2,00 ppm

3.1. Interação da Radiação Solar com a Atmosfera Terrestre


O fluxo total de energia solar no topo da atmosfera é de aproximadamente 1400Wm-2,
o que equivale a 2.0cal/cm2/min. Entretanto, quando a radiação solar penetra na atmosfera
terrestre, sofre atenuações (diminuições) causadas por reflexão, espalhamento e absorção
pelos constituintes atmosféricos, por partículas dispersas e nuvens. Isso faz com que a
radiação global que chega na superfície terrestre esteja fortemente atenuada (suavizada),
conforme é mostrado na Figura 9.

Curso Técnico de Geodésia e Cartografia COTIL


19

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

28%

Figura 9 – Causas das atenuações da energia solar ao atravessar a atmosfera


terrestre.
A radiação solar que volta para o espaço sideral corresponde a 37%, sendo 26%
refletida pelas nuvens e 11% pela dispersão das partículas que se encontram na atmosfera.
Os gases e vapor d’água são responsáveis pela absorção de 16% da radiação. Desta
forma, somando as quantidades de radiações que voltaram para o espaço mais aquela que
foi absorvida pelos gases e vapor d’água, tem-se um total de 53% de perda da radiação
global, o que corresponde a 1,06 cal/cm2/min. Assim, do total que chega no topo da
atmosfera somente 47% atinge a superfície terrestre. Esta radiação recebe o nome de
radiação global (Rg) e equivale, em média, a 0,94 cal/cm2/min.
A radiação global é composta de raios solares diretos (19%) e raios difusos (28%), e é
comumente chamada de radiação do céu ou celeste.
Certos gases constituintes, como o Ozônio e o CO2 absorvem a radiação solar em
certos comprimentos de ondas. Essa absorção pode ser total, como é o caso da radiação
ultravioleta (absorvida pelo Ozônio) ou parcial, como ocorre em quase todo o espectro a
partir de 0,3 m, conforme é mostrado na Figura 10.
Na Figura 10 observam-se os principais constituintes atmosféricos responsáveis pela
absorção da radiação solar: O3, O2, H2O e CO2.

Curso Técnico de Geodésia e Cartografia COTIL


20

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 10 – Curva de Irradiância solar, para mostrar a absorção da radiação, pelos


gases e vapor d’água.

Na Figura 10, verifica-se que a Irradiância solar (espectral) no topo da atmosfera é


muito maior que a Irradiância solar ao nível do mar. Isso se deve ao efeito da atenuação
atmosférica. Ao nível do mar a Irradiância é reduzida devido ao espalhamento e à absorção
da atmosfera terrestre.
Outro fator importante a ser observado é que existem regiões do Espectro
Eletromagnético para as quais a atmosfera é opaca, ou seja, não permite a passagem da
radiação eletromagnética. Estas regiões definem a “banda de absorção da atmosfera”. As
regiões de espectro eletromagnético em que a atmosfera é transparente à radiação
eletromagnética proveniente do Sol são conhecidas como “bandas de transmissão da
atmosfera” ou “janelas atmosféricas” (Figura 11).

Figura 11 – O espectro eletromagnético e suas principais fontes de radiação.

Pela análise da Figura 11 observa-se que a atmosfera é opaca em diversas regiões do


espectro eletromagnético. A radiação com comprimentos de onda inferiores a 0,3m (Raios
gama, Raios X e Radiação ultravioleta) não é transmitida pela atmosfera, algumas (radiação
ultravioleta) são completamente absorvidos pelo Ozônio. Desta forma, a utilização destas
regiões do espectro em sensoriamento remoto é limitada a estudos de laboratório ou a
aplicações em que a atmosfera não se interponha de forma significativa entre o objeto
observado e a fonte de radiação.
As características de transmissão atmosférica fazem com que raramente se utilizem
sensores que operam em faixas de comprimentos de onda inferiores a 0,4m. Desta forma,

Curso Técnico de Geodésia e Cartografia COTIL


21

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

a maior parte dos equipamentos sensores desenvolvidos operam nas seguintes regiões do
espectro: visível, infravermelho e microondas.
Tendo em vista a curva de emissão do Sol (Figura 10), podemos considerar que, para
comprimentos de onda entre 0,4m e 2,5m, a energia utilizada para o sensoriamento
remoto dos recursos terrestres é o fluxo solar refletido e, para comprimentos de onda
maiores que 6m, a energia utilizada para o sensoriamento remoto dos recursos terrestres é
o fluxo termal emitido pela superfície da Terra. Na região das microondas, os sistemas
sensores operam tanto com a radiação emitida pela superfície terrestre como com a
radiação refletida, radiação esta produzida por meio de fontes artificiais (circuitos
eletrônicos).

3.1.1. Propriedades da radiação eletromagnética


Uma fonte emite radiação com um espectro de comprimentos de onda. Essa radiação
propaga-se em linha reta através de um meio. Ao interagir com esse meio, o fluxo de
radiação sofre perdas de energia, seja por espalhamento ou absorção, prosseguindo sua
trajetória até o alvo de interesse.
Se considerarmos I0 a intensidade inicial do fluxo radiante e I2 a intensidade do fluxo
após ter sofrido a reflexão, o espalhamento e absorção pelo meio, veremos que I 0 > I2, e a
esta redução chamamos de atenuação. Desta maneira, o fluxo incidente quando atingir o
solo será refletido, absorvido e/ou transmitido (espalhado) para as suas camadas mais
internas.
A fração do fluxo incidente, que é refletida pela superfície do objeto, expressa a
reflectância do objeto. A fração do fluxo incidente, que é absorvida pelo objeto, expressa a
sua absortância. As frações de energia transmitida, refletida e absorvida pelos objetos
variam com as suas propriedades físico-químicas, estrutura e posição em relação à fonte de
radiação.
No caso de um meio translúcido ou semitransparente, como é o caso da atmosfera da
Terra, alguma energia é refletida, parte é dispersa (espalhada) e parte é absorvida.
Portanto toda energia recebida é por sua vez refletida, espalhada (dispersa) ou
absorvida.
Segue abaixo, a equação geral do balanço de energia que se aplica não só a
atmosfera, mas também a todos os objetos que recebem radiação.

Energia recebida = energia refletida + energia espalhada + energia absorvida

As interações entre a radiação eletromagnética e os objetos da superfície podem ser


explicadas pelas leis da óptica geométrica.
A óptica geométrica preocupa-se em explicar o comportamento da luz: a) dentro de
um determinado meio; b) quando passa de um meio para outro.
Verificou-se que as ondas eletromagnéticas se propagam à velocidade de 3 x 10 8 m/s,
que é a velocidade da luz. Esta velocidade de propagação, entretanto, varia com o meio,
através do qual a radiação eletromagnética se propaga.
Existem algumas premissas básicas da óptica geométrica. A primeira premissa básica
da óptica geométrica é que, num meio homogêneo, a luz propaga-se em linhas retas, às
quais nos referimos como raios. A segunda premissa básica da óptica geométrica é que os
raios de luz modificam sua direção quando passam de um meio para outro. Em geral,
considera-se que a superfície que separa os dois meios é uma superfície lisa.
Várias interações são possíveis quando a energia eletromagnética encontra a matéria,
quer seja sólida, líquida ou gasosa. Estas interações podem produzir mudanças na radiação
eletromagnética incidente.
O sensoriamento remoto detecta e registra estas mudanças, e as imagens e os dados
resultantes, são interpretados para identificar as características da matéria que produziu tais
modificações.
Durante a interação da energia eletromagnética com a matéria, massa e energia são
conservadas e a interação que podem ocorrer são:

Curso Técnico de Geodésia e Cartografia COTIL


22

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

 a radiação pode ser transmitida, isto é, quando a radiação atravessa uma


substância e a mudança na velocidade é chamada de índice de refração, n,
sendo expresso por n = va/vs, onde va é a velocidade no ar e vs a velocidade
na substância (não há mudança de direção);
 a radiação pode ser absorvida, e, não sendo totalmente reirradiada (refletida),
contribuirá para elevar a temperatura da substância;
 a radiação pode ser emitida por uma substância, em decorrência de sua
estrutura e temperatura. Todas as substâncias a temperaturas acima do zero
absoluto, OºK, emitem energia;
 a radiação pode ser espalhada (dispersa), isto é, defletida em todas as
direções. A dispersão da luz pela atmosfera é o exemplo mais familiar;
 a radiação pode ser refletida, isto é, retornar sem alterações da superfície da
substância com um ângulo de reflexão igual ao ângulo incidente.
Estas interações em qualquer forma particular da matéria são seletivas com respeito a
comprimentos de ondas, e dependem basicamente das propriedades superficiais e de suas
estruturas atômicas e moleculares. Estas interações entre matéria e energia fornecem as
bases do sensoriamento remoto.

3.1.2. Espalhamento
O espalhamento é um processo físico que resulta do impedimento à penetração de
ondas eletromagnéticas na atmosfera terrestre por partículas existentes na sua trajetória.
Esse impedimento pode ser tanto da energia incidente quanto da energia reirradiada
(refletida). Na atmosfera, as partículas responsáveis pelo espalhamento de energia
apresentam tamanhos variáveis. Há desde moléculas de gases naturais até grandes gotas
de chuva e partículas de granizo, conforme é mostrado no Quadro 4. A intensidade e a
direção do espalhamento depende fortemente da razão entre os diâmetros das partículas
presentes na atmosfera e do comprimento de onda da energia eletromagnética incidente
e/ou refletida.

Quadro 4 – Partículas presentes na atmosfera e seus respectivos tamanhos.


PARTÍCULA Variação no diâmetro
()
Fumaça 0,001 – 0,5
Fumos industriais 0,5 – 50
Poeira 1–5
Neblina 2 – 20
Névoa 20 – 50
Garoa 50 – 200
Chuva 200 – 2000
As moléculas dos gases presentes na atmosfera terrestre espalham mais
eficientemente a energia eletromagnética de menores comprimentos de ondas. A
quantidade de radiação espalhada (E) é dada por:

E=1
4
onde,
E = quantidade de radiação espalhada
 = comprimento de onda.
Assim, quanto menor for o comprimento de onda, maior é o espalhamento. Por
exemplo, a luz azul é espalhada em cerca de 5,5 vezes mais do que a luz vermelha porque
tem comprimento de onda menor que esta.
O espalhamento explica o motivo da sensação visual azulada do céu durante o dia, e
a avermelhada no nascer e pôr do sol.

Curso Técnico de Geodésia e Cartografia COTIL


23

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

O comprimento de onda da luz vermelha é maior que o comprimento de onda da luz


azul, sendo assim, maior o comprimento de onda, menor o espalhamento, por isso o
espalhamento da luz vermelha é menor. Com isto, a luz azul interage mais facilmente com
os gases da atmosfera do que a luz vermelha. Isto faz com que a luz azul seja refletida em
todas as direções, através do espalhamento. A luz vermelha, que não é espalhada e sim
transmitida, continua em sua direção original. Por isso quando se olha para o céu é a luz
azul que se vê, pelo fato dela ter sido mais espalhada pelos gases em todas as direções.
Por outro lado, a luz violeta é muito mais espalhada do que a luz azul. No entanto, não se vê
o céu na cor violeta porque o sol produz mais luz azul do que violeta.
Por outro lado, quando o sol se encontra perto do horizonte os raios que chegam aos
nossos olhos têm que atravessar uma massa de ar maior, ou seja, é necessário que se
tenham comprimentos de ondas maiores para serem espalhados. Há uma grande
atenuação (diminuição) no azul, restando o vermelho, que por ter maior comprimento de
ondas é mais espalhado, dando o efeito de céu avermelhado. Este efeito se acentua quando
há poeira em suspensão na atmosfera.
Pode-se explicar também porque em dia de névoa, a luz do Sol apresenta-se amarela.
Em dia com névoa, a luz do Sol tem característica amarela, porque os comprimentos de
onda da luz azul, por serem mais curtos, são espalhados pela névoa suspensa na
atmosfera. A luz amarela, composta de verde e vermelho, por ter comprimento de onda
maior que a luz azul, atravessa livremente a névoa.
Pode ocorrer também o chamado espalhamento não-seletivo. Ocorre quando o
tamanho das partículas existente na atmosfera deixa de ter influência no espalhamento. Isto
é, o espalhamento vai se tornando independente do comprimento da onda à medida que
aumenta o tamanho das partículas. Nesta situação, a energia é espalhada,
preferencialmente, na direção da frente. Geralmente, este tipo de espalhamento ocorre
quando o tamanho das partículas é muito maior do que os comprimentos das ondas
eletromagnéticas que incidem sobre elas. Esse espalhamento é o responsável pela
aparência branca das nuvens.
Desde que a radiação solar contém todos os comprimentos de onda, compreendendo
o azul, verde e vermelho, a luz se apresenta branca porque a combinação destas três cores
básicas produz a luz branca.

3.1.3 Reflexão
Cada objeto tem sua cor característica devido a sua reflexão seletiva à luz do Sol,
podendo ser sentida pelos olhos ou então fotografada. A luz refletida por um objeto não é
somente função da luz recebida, mas também uma função da absorção e das
características de reflexão dos objetos. Um material azul, por exemplo, pode ter uma curva
de reflexão como mostra a Figura 12, onde apenas a luz azul é refletida. Enquanto que um
objeto de cor púrpura poderia refletir o vermelho bem como a luz azul.

Curso Técnico de Geodésia e Cartografia COTIL


24

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 12 – Energia refletida de um objeto azul.


Cada objeto tem sua cor característica porque sua curva de reflexão apresenta partes
na região do ultravioleta e infravermelho, bem como na região visível.
Quando a luz do Sol atinge um objeto, alguma energia é refletida, dependendo das
características de reflexão do material. Aquela energia não refletida pode ser absorvida, ou
seja, os comprimentos de ondas que não são refletidos são absorvidos, e esta absorção
aumenta a temperatura do objeto, fazendo com que reemita energia em outros
comprimentos de onda, possíveis de serem detectados.

3.1.4. Absorção
As regiões do espectro eletromagnético, para as quais a radiação não é absorvida, ou
seja, a atmosfera é transparente, é transmitida são denominadas de "janelas" conforme é
mostrado na Figura 13.
Quando a radiação de determinados comprimentos de onda é pouco atenuada pela
atmosfera (pouca absorvida), define-se aí uma janela atmosférica, para esta radiação.
Observe, no gráfico da Figura 13, que as radiações de comprimentos de ondas entre 100
m e l mm é toda absorvida pela atmosfera terrestre. Neste caso, deve-se evitar construir
sensores remoto para medir esta radiação, pois nenhuma quantidade chegaria ao sensor.
As moléculas de gases e vapor responsáveis por esses efeitos são: a) ozônio (03) e
oxigênio (O2), responsáveis pela absorção da radiação na região do ultravioleta; b) vapor de
água, dióxido de carbono (CO2) e óxido nitroso (N2O), dentre outros, responsáveis pela
absorção da radiação na região do infravermelho e microondas.

Curso Técnico de Geodésia e Cartografia COTIL


25

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 13 – Comprimentos de ondas absorvidas pelos elementos na atmosfera.

Bibliografia consultada:
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:
Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
195. 90p.

Exercícios propostos:
1- O que é a atmosfera terrestre?

2- Quais as camadas que compõem a atmosfera terrestre?

Curso Técnico de Geodésia e Cartografia COTIL


26

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

3- Faça um desenho, representando as camadas da atmosfera e complete em cada


camada a sua composição - folha separada.

4- Explique e esquematize sobre o fluxo de energia solar.

5- O que são janelas atmosféricas?

6- O que significa regiões opacas na atmosfera?

7- Explique sobre o balanço de energia.

8- Explique sobre as propriedades da energia eletromagnética que segue:

Curso Técnico de Geodésia e Cartografia COTIL


27

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

a) Espalhamento

b) Reflexão

c) Absorção

9- Explique por quê enxergamos o céu azul.

10- Explique a aparência das nuvens brancas.

Curso Técnico de Geodésia e Cartografia COTIL


28

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

4. SISTEMAS SENSORES
4.1. Caracterização dos sistemas sensores
Um sistema sensor pode ser definido como qualquer equipamento capaz de
transformar alguma forma de energia em um sinal passível de ser convertido em informação
sobre o ambiente. Como já vimos, no caso específico do sensoriamento remoto, a energia
utilizada é a radiação eletromagnética.
Os sensores, também podem ser definidos como dispositivos capazes de detectar e
registrar a radiação eletromagnética, em determinada faixa do espectro eletromagnético, e
gerar informações que possam ser transformadas num produto passível de interpretação
quer seja na forma de imagem, na forma gráfica ou de tabelas, conforme mostra a Figura
14.

Figura 14 – Produtos gerados a partir de dados coletados pelos sistemas sensores.


Um sistema sensor é constituído basicamente por um coletor, que pode ser um
conjunto de lentes, espelhos ou antenas, e um sistema de registro (detetor) que pode ser
um filme ou outros dispositivos e um processador, conforme ilustrado na Figura 15.

Figura 15 – Partes componentes de um sistema sensor.

Curso Técnico de Geodésia e Cartografia COTIL


29

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

As quantidades relacionadas com a energia radiante que podem ser medidas com os
sensores não-fotográficos são denominadas grandezas radiométricas.
Para melhor entender os sistemas sensores e as quantidades da energia radiante que
podem ser medidas por eles, é preciso introduzir, a partir de agora, alguns conceitos sobre
grandeza radiométricas.

4.1.1. Grandezas radiométricas


A base da tecnologia de sensoriamento remoto é a detecção das alterações sofridas
pela radiação eletromagnética quando esta interage com os componentes da superfície
terrestre.
Vamos supor que nós temos um feixe de radiação incidindo sobre um objeto. Para
avaliarmos o tipo de interação da radiação com o objeto, temos que realizar algumas
medidas que nos informem sobre a quantidade de energia produzida pela fonte, a
quantidade de energia atenuada pelo meio que se interpõe entre a fonte e o objeto, a
quantidade de energia absorvida pelo objeto e a que volta para o sensor. Além dos aspectos
quantitativos, temos interesse em saber quais regiões do espectro de radiação da fonte
sofreram maior atenuação pelo meio, antes de incidir sobre o objeto, e em que regiões do
espectro houve maior ou menor absorção.
Essas informações são derivadas de medidas radiométricas. A radiometria tem, como
objetivo, portanto medir a energia radiante.
O conhecimento dos termos radiométricos é de grande importância para a
compreensão do processo de extração de informações sobre objetos da superfície, a partir
de dados de Sensoriamento Remoto.
Em Sensoriamento Remoto o que se registra, basicamente, é o fluxo radiante
(radiância) que deixa a superfície em direção ao sistema sensor. O que nos interessa é
conhecer como esse fluxo radiante se modifica espectralmente e espacialmente numa
determinada área.
Em sensoriamento remoto geralmente medimos o fluxo radiante que deixa uma
superfície extensa em direção a um sensor. Consequentemente, o que é medido
freqüentemente é a radiância do alvo.

4.2. Classificação dos sistemas sensores


Os sistemas sensores podem ser classificados quanto: à fonte de energia, ao tipo de
transformação da energia e à região espectral, conforme é resumido na Figura 16.
Quanto ao tipo de
Quanto a região
Quanto a transformação de
espectral:
fonte de energia:
radiação: Banda Larga
Sensores de energia
Não-imageadores
Banda Estreita refletida
Estreita
Ativos
Não-varredura
Imageadores Sensores de energia
termal
Varredura
Sensores
Não-imageadores Banda Larga
Sensores de energia
Banda Estreita refletida
Passivos Estreita
Não-varredura
Imageadores Sensores de energia
Varredura termal

Figura 16 – Classificação dos sistemas sensores quanto a fonte de radiação e ao tipo


de transformação de energia.

Curso Técnico de Geodésia e Cartografia COTIL


30

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

4.2.1. Quanto a fonte de energia


Em relação a fonte de radiação, os sistemas sensores podem ser classificados em
sensores passivos e sensores ativos.
Os sensores que medem a radiação refletida e/ou emitidas pelos alvos, que provém
de uma fonte externa (por exemplo, o Sol), são denominados sensores passivos, porque
eles não possuem radiação própria, isto é, dependem de uma fonte de iluminação externa,
conforme é ilustrado na Figura 17A.
Os sensores passivos detectam a radiação solar refletida ou a radiação emitida pelos
objetos da superfície. Dependem, portanto, de uma fonte de radiação externa para que
possam operar.
Observando a Figura 17, percebe-se que a radiação que incide nos alvos da superfície
terrestre provém do sol (fonte externa). Essa radiação ao interagir com os alvos parte dela é
refletida, indo atingir o detetor de um sistema sensor que, eventualmente, esteja sobre a
área irradiada. Nesta categoria de sensores temos o SPECTRON-SE590, o Mapeador
Temático TM do Landsat, o Haut Resolution Visible (HRV) do SPOT, etc.
Por outro lado, se o sistema sensor possui uma fonte de radiação, isto é, não depende
de uma fonte externa para irradiar o alvo, ele é dito ativo. Neste caso, o sensor emite um
fluxo de radiação em determinada faixa espectral que interage com os alvos na superfície da
Terra e a parte que é refletida é, então, captada pelo sensor. Os sensores ativos são
aqueles que produzem sua própria radiação. Como exemplo de sistema ativos têm-se os
radares, o laser, radiômetros de microondas e câmaras fotográficas quando utilizam como
fonte de radiação o “flash” (Figura 17B).

Figura 17 – Esquema para ilustrar um sensor passivo (A) e um sensor ativo(B).


OBS: assistir o filme de ilustração em sala de aula.

4.2.2. Quanto ao tipo de transformação da energia


Os sensores passivos e ativos podem ser classificados em função do tipo de
transformação sofrida na radiação detectada. Desta forma, temos sistemas não-
imageadores e sistemas imageadores.
Os sistemas não-imageadores são aqueles que não fornecem uma imagem da
superfície sensoriada. Fornecem a informação sobre o comportamento espectral dos objetos
da superfície, cuja saída é em forma de gráficos. Geram informações minuciosas e pontuais.
Exemplos de sensores não-imageadores seriam os radiômetros (que possuem algumas
bandas largas) e os radiômetros de varredura contínua, ou espectro-radiômetros (que
contém várias bandas estreitas).
O radiômetro é um aparelho que mede diretamente, a energia que é emitida por um
objeto ou a energia que é refletida por ele.
Os radiômetros são sistemas passivos que medem a intensidade da energia radiante
(radiância) proveniente de todos os pontos de uma superfície, em determinadas regiões

Curso Técnico de Geodésia e Cartografia COTIL


31

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

espectrais do espectro eletromagnético. Medem a intensidade da energia radiante do alvo e


apresentam os dados em forma de gráfico ou número.
Quando um radiômetro expressa os dados na forma numérica, ele é dito radiômetro de
banda. Os radiômetros de banda operam em faixas largas e discretas do espectro
eletromagnético, ou seja, produzem informação sobre a resposta do alvo em faixas largas
do espectro. Para entender melhor o conceito de radiômetro de banda, imagine um sistema
sensor que opere no intervalo espectral de 0,4 a 0,8m. Se colocarmos neste equipamento,
dispositivos que seleciona a radiação eletromagnética em faixas discretas, digamos de
0,1m, esse equipamento registra a radiação refletida pelos alvos da superfície terrestre, em
quatro faixas espectrais (0,4 – 0,5m; 0,5 – 0,6m; 0,6 – 0,7m; 0,7 – 0,8m).Assim o
equipamento fornece quatro valores da radiação refletida no intervalo de comprimento de
onda de 0,4 a 0,8m. Como exemplo de radiômetro de banda temos o Exotech, que opera
em 4 faixas espectrais largas entre 0,4 e 1,1m.
Por outro lado, os radiômetros de varredura contínua distinguem-se dos radiômetros
de banda, porque operam em faixas estreitas. Esses radiômetros permitem obter um dos
valores da radiância, numa determinada faixa do espectro eletromagnético. Em outras
palavras, o sistema possui dispositivo capaz de registrar valores da radiância incidente em
pequenas faixas espectrais, dentro do intervalo de comprimento de onda que opera o
sistema. O sistema de radiômetro de varredura contínua decompõe a radiação incidente em
diferentes comprimento de onda, de tal forma que se possa medir a resposta do alvo quase
que de maneira contínua ao longo do espectro eletromagnético. Como exemplo de um
radiômetro de varredura contínua temos o SPECTRON-SE590 que fornece 255 valores de
radiância proveniente do alvo, na faixa espectral entre 0,4 a 1,1m.
Em geral, os radiômetros podem operar entre 0,4 e 15m, cobrindo todo o espectro
visível e infravermelho e entre 1mm e 1m para avaliar a radiação de microondas da
superfície terrestre.
A Figura 18 representa um radiômetro montado verticalmente em um avião.

Curso Técnico de Geodésia e Cartografia COTIL


32

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 18 – Operação básica de um radiômetro.


Os sistemas sensores imageadores fornecem como resultado uma imagem da
superfície observada, ou seja, descrevem a variação espacial da resposta espectral da
superfície observada.
Os sistemas sensores imageadores podem ser ainda classificados em função do
processo utilizado na formação da imagem. Podem ser sistemas de não-varredura (“non
scanning”) ou do tipo varredura (“scanning”). Os sistemas de não-varredura adquirem a
imagem da cena em sua totalidade num mesmo instante, ou seja, registram a radiação
refletida de uma área da superfície da Terra em sua totalidade num mesmo instante. Nos
sistemas de varredura, a imagem da cena é formada pela aquisição seqüencial de “imagens
elementares do terreno”, também chamadas de pixel. É o caso do Landsat-TM e do SPOT-
HRV.
Abaixo é apresentada uma curva espectral de um radiômetro de banda larga. Observe
as distâncias dos comprimetos de onda (eixo x) do espectro eletromagnético que são
capturados pelo radiômetro de banda larga.

Curso Técnico de Geodésia e Cartografia COTIL


33

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Abaixo é apresentada uma curva espectral de um espectroradiômetro, ou seja, um


radiômetro de banda estreita. A largura entre os pontos observados (eixo x) pelo radiômetro
é estreita, bem próximos um do outro.

Curso Técnico de Geodésia e Cartografia COTIL


34

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Curso Técnico de Geodésia e Cartografia COTIL


35

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

4.2.3. Quanto à região espectral


Os sistemas sensores podem ser também classificados em função da região do
espectro em que operam. Desta maneira podemos encontrar sensores que operam na
região óptica do espectro e que se caracterizam pela utilização de componentes ópticos na
sua construção, tais como espelhos, prismas, lentes, e sensores que operam na região de
microondas.
Os sistemas sensores que operam na região óptica do espectro podem ser
classificados em função do tipo de energia que detectam como sensores de energia solar
refletida.
A Figura 19 apresenta as diferentes regiões de espectro óptico e os nomes pelas
quais são conhecidas.

Figura 19– Regiões do espectro óptico.


Os sensores de energia solar refletida trabalham na região entre 0,38 e 3,0 m e é
chamada de porção refletida do espectro, porque a energia que os sensores detectam
nessa região é basicamente originada da reflexão da energia solar pelos objetos da
superfície.
A porção refletida do espectro, divide-se ainda, em três sub-regiões: visível,
infravermelho próximo e infravermelho médio.
Entre 0,38 e 0,72m, o espectro recebe o nome de visível porque corresponde à
região em que o olho humano é capaz de responder à radiação eletromagnética.
Entre 0,72 e 1,3 m, o espectro eletromagnético é conhecido como infravermelho
próximo e, entre 1,3 e 3,0 m, é conhecido como infravermelho médio.
Os sensores termais operam entre 7 e 15m, que é uma região também conhecida por
infravermelho distante. A energia que os sensores detectam nessa região é basicamente
originada da emissão pelos objetos da superfície.
Os sensores de microondas diferem-se dos anteriores por operarem numa região do
espectro caracterizada por ondas de comprimento entre 1mm e 1 metro.

Bibliografia consultada
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)

Curso Técnico de Geodésia e Cartografia COTIL


36

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.


1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:
Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
195. 90p.

Exercícios propostos:
1- O que são sistemas sensores?

2- Como os sistemas sensores são constituídos?

3- Como os sensores podem ser classificados? Esquematize.

4- Explique a classificação dos sensores quanto à :


a) fonte de energia.

b) tipo de transformação de energia eletromagnética.

Curso Técnico de Geodésia e Cartografia COTIL


37

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

c) região espectral.

5- O que são sensores não-imageadores de banda larga e de banda estreita?

6- O que são sensores imageadores de varredura e não-varredura?

Curso Técnico de Geodésia e Cartografia COTIL


38

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

5. NÍVEIS DE COLETA DE DADOS ESPACIAIS


O procedimento de aquisição de dados das propriedades espectrais dos alvos da
superfície terrestre, através dos sistemas sensores, pode ser feito em três níveis: terrestre,
suborbital e orbital.
No nível terrestre, os sistemas sensores podem, ainda, ser instalados em mastros,
colocados em barcos, fixados em bóias ou fixados dentro de laboratórios.
No nível suborbital, geralmente, utiliza-se como plataforma de coleta de dados
aeronaves e VANT (veículo aéreo não tripulado).
E para o nível orbital, empregam-se os satélites não tripulados e balões. Há também
sistemas sensores que são utilizados em plataformas orbitais tripuladas, porém de uso mais
específico para pesquisa.
A utilização de um dado sensor ou de outro, num determinado nível de coleta de
informações espectrais, depende, sobretudo, de fatores relacionados com: a) objetivo da
pesquisa; b) tamanho da área imageada; c) disponibilidade de equipamentos sensores e d)
custo e precisão desejada dos resultados obtidos.

5.1. Sistemas sensores a nível terrestre


O uso de sistema sensores em nível de solo para obter dados da radiação refletida
e/ou emitida pelos alvos da superfície terrestre é, sem dúvida, muito importante para
entender o comportamento espectral de alvos. Por exemplo, a radiometria (medição da
radiação) de campo é muito usada nos estudos que relacionam comportamento espectral
com anomalias na planta, provocadas por estresse, como deficiência de nutrientes. A
radiometria de campo é também muito utilizada em pesquisa sobre estimativas de
parâmetros biofísicos usados em modelos de crescimento de cultura, como é o caso do
índice de área foliar.
O fato das medidas serem feitas a curta distância e em pequenas áreas amostrais
permite que os resultados obtidos retratem, com maior fidelidade, aquilo que se deseja
investigar.
Os sistemas sensores utilizados para medir a radiação refletida ou emitida pelos alvos,
tanto no campo como em laboratório, normalmente são categorizados em função da região
espectral em que operam. Essa categorização é necessária, por que cada sensor tem
características ópticas e de detecção própria. Por exemplo, os detectores de silício (Si) são
sensíveis à radiação eletromagnética nas faixas espectrais do visível e do infravermelho
próximo. Os detectores compostos índio e estanho (InSb) são sensíveis apenas à radiação
eletromagnética do infravermelho médio. Já aqueles cuja composição contém a combinação
dos elementos químicos mercúrio, cádmio e telúrio (HgCdTe) são utilizados para medir a
radiação na região do termal. Para a região das microondas, há dois tipos básicos de
instrumentos: os radares e os radiômetros de microondas.

5.1.1. Sensores que Operam na Região do Visível e do Infravermelho Próximo


Nesta faixa do espectro, os sensores registram a radiação eletromagnética no
intervalo de comprimento de onda de 400nm a 1100nm, podendo chegar até 2500nm,
através da combinação de detectores diferentes num mesmo equipamento. Nesta categoria
de sensores têm-se os radiômetros de banda e os radiômetros de varredura contínua.
Os radiômetros de banda operam em faixas largas e discretas do espectro
eletromagnético. Para entender melhor o conceito de radiômetro de banda, imagine um
sistema sensor que opere no intervalo espectral de 400 a 800nm. Se colocarmos neste
equipamento, dispositivos que seleciona a radiação eletromagnética em faixas discretas,
digamos de 100nm, esse equipamento registra a radiação refletida pelos alvos da superfície
terrestre, em quatro faixas espectrais (400 - 500nm, 500 - 600nm, 600 - 700nm, 700 -
800nm). Assim, o equipamento fornece quatro valores da radiação refletida no intervalo de
comprimento de onda de 400 a 800nm. Como exemplo de radiômetro de banda temos o
Exotech, que opera em quatro bandas espectrais largas entre 400 e 1100nm.
Por outro lado, os radiômetros de varredura contínua (estreita) distinguem-se dos
radiômetros de banda, porque operam em faixas espectrais estreitas. Esses equipamentos

Curso Técnico de Geodésia e Cartografia COTIL


39

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

possuem sistema de dispersão para decompor a radiação incidente em diferentes


comprimentos de onda, de maneira que possa registrar a radiação refletida em várias faixas
espectrais muito estreitas. Nesta categoria temos o espectrorradiômetro que opera na faixa
espectral de 350 a 1100 nm, registrando a radiação refletida pelos alvos em 256 valores
radiométricos. Assim, é possível traçar a curva espectral do alvo dentro deste intervalo de
comprimento de onda do espectro eletromagnético.
Pelo fato desses sensores operarem na faixa reflectiva do espectro eletromagnético,
os dados obtidos referem à radiação refletida pelos alvos.
Na definição de um sistema sensor, para medidas espectrorradiométricas no campo,
deve considerar, prioritariamente, as características dos espectros que se pretende obter,
principalmente a resolução, a banda espectral, as dimensões da área amostral e a
acessibilidade das áreas de interesse. Para o trabalho de campo é desejável a utilização de
equipamentos radiométricos com as seguintes características:
Peso e volume reduzidos.
Suprimento de energia própria (bateria recarregável).
Sistema digital para armazenamento de dados.
Transferência dos dados para computador.

5.1.2. Sensores que Operam na Região do Infravermelho Termal


Na termodinâmica encontra-se um postulado que diz "todo corpo com temperatura
acima de zero grau Kelvin (K), ou seja, -273ºC, absorve e/ou emite energia
eletromagnética". Assim, a quantidade de energia absorvida e/ou emitida é função direta da
temperatura do corpo.
De maneira geral, os corpos na superfície da Terra encontram-se à temperatura média
de 300 K (aproximadamente 27ºC). Nesta temperatura, a emissão de temperatura pelos os
corpos tem o pico máximo ao redor de 9,6 m, que é justamente a região espectral situada
dentro da janela atmosférica do termal, que vai de 8 a 14m. Assim, utilizando-se
equipamentos que operam nesta janela atmosférica, é possível medir a radiação emitida
pelos alvos na superfície terrestre.
Por outro lado, essa radiação emitida é devido à temperatura do corpo. Para
quantificar a radiação emitida pelos corpos na superfície terrestre empregam-se vários
radiômetros infravermelhos.
Os radiômetros infravermelhos são construídos de tal modo, que a radiação captada
pelo coletor é constantemente comparada àquela emitida por um corpo negro, a uma
determinada temperatura. Os resultados são apresentados, normalmente, sob a forma de
temperatura de brilho, que seria a temperatura do alvo investigado se ele fosse um corpo
negro. Entretanto, como nos corpos naturais, entre o radiômetro e o alvo existe a atmosfera,
as temperaturas obtidas através deste procedimento são menores que as reais.
Os radiômetros infravermelhos têm precisão que varia entre 0,l e 0,5ºC. Todavia,
torna-se claro, que uma correta interpretação dos levantamentos radiométricos pressupõe
um conhecimento da temperatura real no momento da medida, além de um conhecimento
da influência da atmosfera.

5.1.3. Sensores que Operam na Região de Microondas (> 1 mm)


Os sensores de microondas medem a radiação eletromagnética com comprimento de
onda entre 0,3 a 30 cm, ou seja, a radiação emitida pelos alvos naturais devido à
temperatura a que estão submetidos.
Nesta região do espectro eletromagnético, a radiação é relativamente imune ao
espalhamento e absorção pelos componentes atmosféricos, inclusive partículas dispersas e
nuvens. Esta propriedade é extremamente importante porque permite a operação destes
sensores em áreas cobertas com nuvens. Outro fato significativo é que, nesta região
espectral, os alvos naturais apresentam comportamentos espectrais bastante distintos
daqueles nas regiões do visível e do infravermelho.

Curso Técnico de Geodésia e Cartografia COTIL


40

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

A maior parte da instrumentação disponível opera nas seguintes faixas de freqüência:


1.4; 2.7; 5.0; 10.6; 13.9 e 31.4 GHz, o que corresponde aos seguintes comprimentos de
onda: 0.32; 0.81; 2.2; 3.2; 6.0 e 21cm.

5.1.4. Descrição de Alguns Tipos de Sistemas Sensores Utilizados no Nível


Terrestre
Atualmente existem vários sistemas sensores que são empregados em nível de solo,
para obter dados espectrais sobre alvos na superfície terrestre, que atende, parcialmente,
os requisitos comentados acima. A seguir, serão descritos alguns equipamentos que
operam em diferentes faixas do espectro eletromagnético e as principais aplicações, devido
à importância que eles representam ao contexto do sensoriamento remoto no Brasil.

-Spectron SE-590
O SPECTRON SE-590 é um radiômetro de varredura contínua. Este equipamento é
capaz de adquirir 256 medidas espectrais em intervalo bastante estreitos ( 2.8nm), na faixa
espectral compreendida entre 350 e 1100 nm do espectro eletromagnético. Durante a
medição os espectros obtidos têm seus valores digitalizados e armazenados em uma fita
cassete num “datalogger” e, posteriormente, são transferidos para um computador, para que
se possa traçar as curvas espectrais dos alvos imageados. Existe também a possibilidade
de registrar dos espectros diretamente num laptop acoplado na unidade controladora, sem
ter que registrá-la na fita cassete.
As principais características do sistema são:
Resolução espectral: 10nm
Faixa espectral de operação: 350 a110nm
Tempo de aquisição: 1/60 até 640/60s.
Energia: bateria recarregável

- Sensor Quântico LI – 190SA


O Li–190SA é um sensor passivo, designado para medir a radiação
fotossinteticamente ativa (RFA) na região espectral entre 400 e 700nm, em locais onde a
radiação a ser medida não é espacialmente uniforme. O equipamento é muito utilizado em
experimento de campo e em ambiente controlado, isto é, laboratório.

-Sensor LAI – 2000


O LAI-2000 é um sensor passivo, desenvolvido para estimar o índice de área foliar de
vegetação, sendo muito prático para uso em áreas agrícolas. Além disso, o LAI-2000 pode
ser usado para medir produtividade, vigor da floresta, deposição de poluição do ar, estudos
de ataque de insetos, etc.

-Sensor Thermopoint
O Thermopoint é um equipamento portátil, desenvolvido com o objetivo de medir
temperaturas de alvos à distância, isto é, sem contato direto. No princípio o instrumento foi
desenvolvido com duas finalidades: a) medir temperaturas de equipamentos em
funcionamentos, como máquinas industriais, sem ter que removê-los durante o serviço e b)
medir temperaturas de produtos manufaturados, no momento em que estão sendo
produzidos.

5.2. Sistemas sensores a nível suborbital


O nível suborbital de coleta de dados por sensoriamento remoto geralmente tem como
plataforma as aeronaves tripuladas. Entre os principais equipamentos sensores
aerotransportados, existem as câmeras fotográficas, os imageadores ("scanners") e os
radares. Operacionalmente, o mais importante sensor é a câmera fotográfica, que obtém
dados de alta qualidade numa faixa do espectro eletromagnético que vai de 350 a 900nm.
Mais recentemente tem sido empregada a câmera de vídeo para imageamento em
áreas ocupadas com floresta na região amazônica. No Brasil, essa metodologia, ainda que

Curso Técnico de Geodésia e Cartografia COTIL


41

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

na fase de pesquisa, apresenta uma aplicabilidade muito boa para as estimativas de áreas
agrícolas através de sistema de amostragem. Com as câmeras videográficas podemos obter
uma imagem digital dos alvos contidos dentro dos segmentos que compõem a amostra de
área de um determinado delineamento estatístico. Isso poderia, então substituir a fotografias
aéreas na fase de coleta de informações no campo, conforme é utilizado, por exemplo, no
Sistema de Previsão de Safras (PREVIS) utilizado pela Fundação Instituto Brasileiro de
Geografia e Estatística - IBGE.
Fora os imageadores hiperespectrais e a videografia, os outros tipos de imageadores
e os radares são mais utilizados em satélites orbitais não tripulados. Quando
aerotransportados, o objetivo principal é voltado à pesquisa básica para conhecimento do
comportamento espectral de alvos da superfície terrestre, ou para teste de simulação dos
dados a serem obtidos ao nível orbital.

5.2.1. Sensores Fotográficos


Os sistemas fotográficos, como vimos, foram os primeiros a serem desenvolvidos.
Compõem-se basicamente de uma objetiva, um diafragma, um obturador e um corpo onde
se aloja o detector (Figura 20). A objetiva, o diafragma, o obturador e o corpo formam a
câmera fotográfica, cuja função é focalizar a energia proveniente do alvo sobre o detector
que, no caso dos sistemas fotográficos é um filme.

Figura 20 – Componentes básicos de um sistema fotográfico.

Sensores fotográficos são todos os dispositivos que, através de um sistema óptico


(conjunto de lentes), registram a energia refletida pelos alvos da superfície da Terra em uma
película fotossensível, ou seja, o detector tradicionalmente chamado de filme fotográfico.
Existem diferentes tipos de câmeras fotográficas, mas em sensoriamento remoto,
utilizam-se, em geral, câmeras fotográficas aéreas, que possuem dispositivos que permitam
sincronizar o movimento do filme com o deslocamento do avião.
As câmeras fotográficas aéreas podem ser divididas em dois grandes tipos: câmeras
métricas e câmeras de reconhecimento. As câmeras métricas são utilizadas, em geral, para
fins de levantamentos cartográficos. Por outro lado, as câmeras de reconhecimento
permitem a aquisição de fotografias com melhor resolução espacial.
Os produtos obtidos por estes sistemas são as fotografias aéreas, que podem ser
pancromáticas (preto e branco), coloridas normal ou falsa cor.
A quantidade de informações, que podem ser extraídas das fotografias aéreas, é,
basicamente, função da época de aquisição, da correta definição da escala das fotografias e

Curso Técnico de Geodésia e Cartografia COTIL


42

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

do tipo de filme empregado. Cada um destes parâmetros está intimamente ligado ao custo e
um bom planejamento.

5.2.1.1.Tipos de Filmes
Os filmes fotográficos são detectores capazes de responder à radiação
eletromagnética em determinadas faixas do espectro eletromagnético. A sensibilidade
espectral de um filme oscila entre 350nm (ultravioleta) e 900nm (parte do infravermelho
próximo) e depende da quantidade de radiação (tempo de exposição do filme à luz).
Os filmes utilizados em sensoriamento remoto podem ser reunidos em dois grandes
grupos: filme preto e branco e os filmes coloridos. Quanto à sensibilidade, ambos podem ser
subdivididos em: filmes de sensibilidade normal (sensíveis à radiação eletromagnética
compreendida entre os comprimentos de ondas de 350 e 700nm) e os filmes de
sensibilidade ao infravermelho próximo (sensibilidade espectral abrange a radiação entre
350 e 900nm).
Um filme preto e branco ou pancromático é constituído por uma emulsão ou camada
de haletos de prata (AgCI, AgBr, AgI), também denominados de sais de prata, sobre uma
base plástica transparente, normalmente feita de acetato, e uma camada anti-halo, para
absorver a radiação residual que passa pela base plástica, evitando assim, a reflexão desta
radiação e uma nova sensibilização dos haletos de prata (Figura 21).

Figura 21 – Esquema para mostrar a estrutura de um filme preto e branco.

Atualmente, no mercado há cinco tipos de filmes:


Filmes sensíveis ao azul.
Filmes ortocromáticos - sensíveis às radiações eletromagnéticas situadas na faixa
espectral que vai do azul até o verde (400 a 600nm).
Filmes pancromáticos - padrão usado nas câmeras fotográficas. São sensíveis desde
o ultravioleta (150nm) até uma parte do infravermelho próximo (até 900nm).
Filme infravermelho - inicialmente projetado para fins científicos e militares, este filme
alcançou popularidade tanto no campo da fotografia amadora quanto profissional, em virtude
de permitir fotografar o que os nossos olhos não conseguem ver.
Filme Raio X, para aplicação na medicina e na pesquisa.
Quando a luz atinge o filme, afeta a estrutura básica dos haletos. Quanto maior for a
quantidade de luz, maior o número de grãos afetados.
Para tornar visível a imagem formada, após a cena ter sido fotografada, é necessário
revelar o filme, ação que consiste em usar um agente químico - o revelador - que atua no
sentido de transformar os haletos de prata afetados pela luz, em diminutos grãos de prata
metálica que aparecerão na cor preta. Os haletos de prata que não foram afetados pela luz
não são modificados pelo revelador.
Após o processo de revelação, surge uma imagem negativa no filme. A imagem é
negativa devido à prata negra ter sido removida, ficando, assim, áreas claras nos locais de
remoção da prata. Posteriormente, ocorre o processo inverso, no qual se obtém a cópia
positiva. Nas fotografias, a radiância (energia refletida) dos alvos é representada através da

Curso Técnico de Geodésia e Cartografia COTIL


43

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

densidade óptica (nível de cinza) que varia de um cinza bastante escuro, para baixos
valores de radiância, até cinza claro máximo, para os valores de máxima radiância,
conforme é mostrado na Figura 22.

Figura 22 – Foto aérea preto e branca contendo objetos representados por diferentes
níveis de cinza.
Os filmes coloridos podem ser de dois tipos: o colorido normal e o infravermelho
colorido, também conhecido por infravermelho falsa-cor.
Um filme colorido normal é um detector formado por três camadas, cada uma
apresentando sensibilidades distintas em relação aos diferentes comprimentos de onda
(Figura 23). A primeira camada é sensível à radiação azul (400 a 500nm). Logo após esta
primeira camada é colocado um filtro amarelo e, em seguida, duas outras camadas, uma
sensível à radiação verde (500 a 600nm) e a outra à radiação vermelha (600 a 700nm). O
filtro amarelo tem função de evitar o registro da radiação azul nas camadas sensíveis à
radiação verde e vermelha, uma vez que elas são também sensíveis à luz azul. Este tipo de
filme produz fotografias muito semelhantes as imagens observadas pelo sistema visual
humano, ou seja, permitem associar a cor da fotografia às cores dos objetos fotografados,
principalmente se o processamento fotográfico for bem realizado. A Figura 24 ilustra uma
fotografia aérea registrada com um filme colorido.

Curso Técnico de Geodésia e Cartografia COTIL


44

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Azul + verde = Cian


Azul
Filtro amarelo
Verde + vermelho = Amarelo Verde
Vermelho
Azul + vermelho = magenta
Base
Camada anti-halo

Figura 23 – Estrutura de um filme colorido convencional.

Figura 24 – Foto aérea colorida normal, contendo diferentes objetos de ocupação da


superfície terrestre.
No filme infravermelho colorido, a camada sensível à luz azul é substituída por uma
camada sensível à radiação infravermelha e o filtro amarelo é eliminado. Entretanto, nas
câmeras fotográficas utilizadas para aerolevantamento, o filtro amarelo deve ser colocado
no sistema óptico, para evitar que a luz azul chegue até o filme e sensibilize-o, uma vez que
as três camadas são sensíveis à luz azul.
O filme infravermelho colorido é o mais indicado para aplicações na Agricultura, por
ser sensível até o comprimento de onda de 900nm, que corresponde à região do
infravermelho próximo, na qual a vegetação apresenta alta reflectância da energia incidente.
Assim, é possível detectar mudanças no comportamento espectral da vegetação, quando
esta estiver submetida a algum tipo de estresse ou quando houver diferenças de índices de
área foliar.
Nos filmes infravermelhos coloridos são atribuídas cores que não correspondem às
verdadeiras cores da cena. A camada sensível ao verde recebe a coloração azul, a camada
sensível à luz vermelha recebe a cor verde e na camada sensível à radiação infravermelha
atribui-se a cor vermelha. Com isto, o solo que tem uma coloração avermelhada
apresentará, numa fotografia infravermelha colorida (falsa-cor), a cor verde. Uma vegetação
verde como apresenta dois picos de maior reflectância (um no verde e outro no

Curso Técnico de Geodésia e Cartografia COTIL


45

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

infravermelho próximo) será representada por duas cores: o azul (representando a radiação
verde) e o vermelho (representando a radiação infravermelha). Neste caso, tem-se uma
mistura de duas cores primárias, que resultará numa cor secundária denominada magenta.
Na Figura 25 é mostrada uma fotografia infravermelha, contendo áreas agrícolas, mata
natural e solo exposto.

Figura 25 – Foto aérea infravermelha colorida (fasa-cor) obtida numa região tritícola
do município de Cruz Alta, RS, onde T = trigo, C = cevada, SP = solo preparado, PS =
pousio e M = mata.

5.2.2. Sensores Hiperespectrais


Os sensores hiperespectrais têm uma abordagem de operação bastante similar ao
SPECROM SE-590 (radiômetro de varredura contínua), isto é, medem a radiação refletida
pelos alvos em muitas bandas espectrais, dentro do intervalo de comprimento de onda
considerado. No entanto, eles diferem do SPECTRON-SE590 em pelos menos dois
aspectos: quanto ao processo de medição e quanto ao produto de saída.
Enquanto que o SPECTRON-SE590, que é um espectro-radiômetro, ou um radiômetro
de varredura contínua, que mede a radiação eletromagnética em 256 bandas espectrais, no
intervalo de comprimentos de onda que vai de 350 a 1100nm, o que permite traçar curvas
espectrais da radiação refletida pelos alvos na superfície terrestre, ou seja, o produto final é
expresso em forma gráfica; o sensor hiperespectral, registram a radiação refletida pelos
alvos contidos numa área do terreno (faixa), em forma de imagem, cuja largura e
comprimento da faixa imageada, dependem do sensor utilizado e da altura do vôo. O sensor
hiperespectral é capaz de registrar a radiação refletida pelos alvos em 200 ou mais bandas
espectrais. Como ele é um sensor que registra a radiação de todos os alvos dentro da faixa
de imageamento do terreno e, ao longo da linha de vôo, é possível gerar produtos em forma
de imagens, tantas quantas forem às bandas espectrais em que ele opera.

Curso Técnico de Geodésia e Cartografia COTIL


46

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

O fato do SPECTRON-SE590 gerar como produto final em forma gráfica, isto


impossibilita analisar o alvo como um todo, porque as medidas radiométricas são feitas em
pequenas áreas amostrais.
O AVIRIS, que é um sensor hiperespectral, foi desenvolvido pela NASA em 1983,
como o primeiro sistema de imageamento, para adquirir dados em bandas estreitas e
contínuas. Possui uma resolução espectral de 10nm, coleta dados de radiância em 224
bandas contínuas, operando entre 400nm e 2500nm, dentro de uma faixa de imageamento
no solo de 11km de largura. Cada elemento de resolução do sistema cobre uma área
aproximadamente de 20m2 de área no terreno.
A título de comparação, observe os dados no Quadro 5 sobre o AVIRIS e o sensor
Thematic Mapper (TM) do satélite Landsat. Note que enquanto o sensor TM fornece 7
imagens na faixa espectral que vai de 450nm a 12.500nm, o AVIRIS fornece 224 imagens
numa faixa espectral que vai de 400 a 2.500nm. Com isso, a chance de sucesso em
identificar diferenças espectrais entre dois alvos quaisquer é muito maior nos dados
coletados pelo sensor AVIRIS do que nos dados obtidos pelo TM.
Quadro 5 – Comparação entre o sensor hiperespectral AVIRIS e o sensor TM.
SENSOR FAIXA BANDA RESOLUÇÃO LARGURA DE RESOLUÇÃO
ESPECTRAL (nm) ESPECTRAL ESPECTRAL (nm) FAIXA IMAGEADA ESPACIAL (m2)
(km)
AVIRIS 400 a 2500 224 10 11 20
TM 450 a 12500 7 variável 185 900

5.2.3. Videografia
A videografia é mais um método para aquisição suborbital de dados, para auxiliar na
interpretação de produtos coletados por sensores orbitais. Esta metodologia permite o
levantamento de um grande volume de informações de alta resolução, em curto espaço de
tempo e a baixo custo.
Um dos primeiros escritos sobre o emprego da videografia no Brasil, que detalha
minuciosamente esta metodologia, inclusive relatando um estudo feito, é na região
amazônica. Este relatório (não publicado) foi elaborado para ser apresentado na Diretoria do
Serviço Geográfico (DSG). Toda abordagem descrita a seguir foi baseada neste relatório.
A videografia visa à obtenção de informações complementares aos estudos com
dados orbitais, principalmente, devido à grande extensão territorial do país, que, geralmente,
envolve áreas muito extensas, por exemplo, os estudos sobre o desmatamento da
Amazônia, mapeamento de cana-de-açúcar, mapeamento de áreas cafeeiras, etc.
O uso da videografia no Brasil começou no ano de 1997, em Manaus, com o objetivo
de verificar a eficiência do sistema em documentar as áreas videografadas e, também, para
verificar a viabilidade de utilizar este sistema para obter informações biofísicas da floresta,
que pudessem servir para calibrar dados orbitais. Outro trabalho envolvendo o uso da
videografia foi realizado em Roraima, no ano de 1998, para avaliar a extensão da área
destruída pelo incêndio que ocorreu no final de 1997 até março de 1998. No caso específico
de Roraima, a videografia foi empregada mais no sentido de substituir dados de satélite, nas
áreas onde não foi possível adquirir imagens orbitais livres de cobertura de nuvens.
Complementando, foi realizado um sobrevôo em diversas áreas da Amazônia, como
parte do Projeto LBA (Projeto com finalidade de entender o ecossistema amazônico, fruto de
uma cooperação Brasil-Estados Unidos). No LBA utilizou-se o método da videografia para a
coleta de verdade terrestre e estimativa da fitomassa.

5.3. Sistemas sensores a nível orbital


Antes de tratarmos dos diferentes tipos de sensores orbitais, vamos definir
operacionalmente alguns termos que serão utilizados na descrição desses sistemas.
É interessante definir o termo resolução, uma vez que os diferentes sistemas são
caracterizados por sua resolução.

Curso Técnico de Geodésia e Cartografia COTIL


47

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

A resolução é uma medida da habilidade que um sistema sensor possui de distinguir


entre respostas que são semelhantes espectralmente ou próximas espacialmente. A
resolução pode ser classificada em resolução espacial, espectral, temporal e radiométrica.
A resolução espacial é definida pela capacidade do sistema sensor em “enxergar”
objetos na superfície terrestre. É a menor área do terreno que um sistema sensor é capaz
de individualizar. A resolução espacial mede a menor separação entre dois objetos. Por
exemplo, quando dizemos que um sistema possui uma resolução de 30 metros, isto significa
que objetos distanciados entre si menos que 30 metros não serão, em geral, discriminados
pelo sistema.
Disto se deduz que quanto menor a resolução espacial do sistema (por exemplo 10
metros), maior o seu poder de distinguir entre objetos muito próximos. E quanto maior a
resolução espacial, menor será a possibilidade de ver objetos menores e distinguí-los entre
si.
A maneira mais comum de se determinar a resolução espacial de um sensor é pelo
seu campo instantâneo de visada ou IFOV (do inglês, Instantaneous Field of View). Este
campo é determinado pelas propriedades geométricas do sensor e define a área do terreno
imageado que é “vista” pelo instrumento sensor de uma altitude e a um dado momento. O
IFOV é medido pelas dimensões da área vista no terreno e, de uma forma simplificada, ele
representa o tamanho do pixel, que pode ser 1m, 4m, 10m, 30m (Figura 41).

Figura 41– O campo instantâneo de visada (IFOV) de um sensor define o tamanho do


pixel e, consequentemente, a resolução espacial.

A resolução espectral refere-se ao poder de resolução que o sensor tem para


discriminar diferentes alvos sobre à superfície terrestre. Em outras palavras, refere-se à

Curso Técnico de Geodésia e Cartografia COTIL


48

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

melhor ou à pior caracterização dos alvos em função das larguras das faixas espectrais. É
uma medida da largura das faixas espectrais.
A resolução espectral é um conceito inerente às imagens multiespectrais de
sensoriamento remoto. Ela é definida pelo número de bandas espectrais de um sistema
sensor e pela largura do intervalo de comprimento de onda coberto por cada banda.
Quanto maior o número de bandas e menor a largura do intervalo, maior é a resolução
espectral de um sensor. O conceito de banda, pode ser exemplificado no caso de duas
fotografias tiradas de um mesmo objeto, uma em branco e preto e a outra colorida; a foto
branco e preto representa o objeto em apenas uma banda espectral, enquanto a foto
colorida representa o mesmo objeto em três bandas espectrais, vermelhas, azul e verde
que, quando combinadas por superposição, mostram o objeto em cores.
Por exemplo, suponha que um sensor A opera na faixa espectral 0,5 a 0,7 m, e um
sensor B opere na faixa espectral de 0,5 a 0,55 m. Nesta situação, o sensor A apresenta
menor resolução espectral do que o sensor B, uma vez que a largura da faixa espectral e
cada um deles corresponde a 0,2 e 0,05m respectivamente. Quanto mais fina for a largura
de faixa que opera um determinado sensor, melhor é a sua resolução espectral.
Se um sistema sensor possui detetores operando em mais de uma faixa espectral,
do espectro eletromagnético, o sistema é dito multiespectral, porque registra a radiação
eletromagnética proveniente dos alvos em várias faixas espectrais, como exemplos, os
sistemas sensores a bordo dos satélites Landsat.
Às vezes, no próprio sistema sensor há diferentes resoluções espectrais. Para
entender a resolução espectral, citemos um exemplo concreto. O sensor MSS do Landsat
opera em quatro faixas (bandas) espectrais, ou seja, MSS4 (0.5 – 0.6m), MSS5 (0.6 –
0.7m), MSS6 (0.7 – 0.8m) e MSS7 (0.8 – 1.1m). A resolução espectral das bandas MSS
4, 5 e 6 é de 0,1m, enquanto que da banda MSS7 a largura da faixa é de 0.3m. Portanto,
a resolução do sensor MSS 4, 5 e 6 possui uma melhor resolução espectral. Assim, a
resolução espectral do sistema MSS depende da banda ou de tipo de sensor. Pode-se
deduzir que quanto maior o número de bandas e menor a largura do intervalo dessas
bandas (faixas), maior será a resolução espectral de um sensor.
A resolução radiométrica é dada pelo número de níveis digitais, representando níveis
de cinza, usados para expressar os dados coletados pelo sensor. Quanto maior o número
de níveis, maior é a resolução radiométrica. Para entender melhor esse conceito, pensemos
numa imagem com apenas 2 níveis de cinza (branco e preto) em comparação com uma
imagem com 32 níveis de cinza entre o branco e o preto; obviamente a quantidade de
detalhes perceptíveis na segunda será maior do que na primeira e portanto a segunda
imagem terá uma melhor resolução radiométrica. A Figura 42 compara duas imagens com
resoluções radiométricas diferentes. O número de níveis é comumente expresso em função
do número de dígitos binários (bits) necessários para armazenar em forma digital o valor do
nível máximo. O valor em bits é sempre a potência do número 2; desse modo, “6 bits” quer
dizer 26 = 64 níveis. O sistema visual humano não é muito sensível a variações em
intensidade, de tal modo que dificilmente são percebidas mais do que 30 diferentes tons de
cinza numa imagem; o computador, por sua vez, consegue diferenciar qualquer quantidade
de níveis, razão pela qual torna-se importante ter imagens de alta resolução radiométrica.

Curso Técnico de Geodésia e Cartografia COTIL


49

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 42 – a) Imagem com resolução radiométrica de 1 bit (2 níveis de cinza apenas;


21 = 2); b) a mesma imagem, com resolução radiométrica de 5 bits (32 níveis de cinza,
25=32).
A radiação eletromagnética, refletida e/ou emitida pelos alvos da superfície terrestre,
possui valor de intensidade que difere de um alvo para outro. Por exemplo, para certos
comprimentos de onda, uma vegetação reflete e/ou emite muito menos energia do que uma
placa de zinco. Entretanto, certos alvos, apesar de serem diferentes, refletem ou emitem a
radiação eletromagnética com valores de intensidade muito próximos entre si, tornando-se
quase idênticos espectralmente. Assim, a resolução radiométrica de um sensor refere-se à
capacidade que este sensor tem de poder discriminar, numa área imageada, alvos com
pequenas diferenças de radiação refletida e/ou emitida.
Geralmente é denotação de radiação radiométrica, 64, 256, 1024 e 4096 níveis de
cinza.
Resolução temporal é função das características da plataforma na qual o sensor está
colocado. No caso de sistemas sensores orbitais, a resolução temporal indica o intervalo de
tempo que o satélite leva para voltar a recobri a área de interesse. Isso depende da largura
da faixa imageada na superfície terrestre. Por exemplo, o sensor TM do Landast-5 tem uma
resolução temporal de 16 dias, isto é, a cada 16 dias o Landsat-5 passa sobre um mesmo
ponto geográfico da Terra. Assim, nós dizemos que a resolução temporal do sensor TM é de
16 dias. Já os sistemas sensores a bordo do satélite NOAA têm uma resolução temporal de
9 dias, no entanto, como a largura de faixa é muito grande, é possível obter dados diários
sobre um mesmo ponto.
A resolução temporal é muito importante porque permite fazer um acompanhamento
dinâmico dos alvos sobre a superfície da Terra.
Em nível orbital, temos os sensores da maioria dos satélites de recursos naturais, HRV
do SPOT, o MSS e o TM do LANDSAT, CCD do CBERS, etc.

Bibliografia consultada
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.

Curso Técnico de Geodésia e Cartografia COTIL


50

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:
Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
195. 90p.

Exercícios propostos:

1- Quais os níveis de coleta de dados para trabalhar em sensoriamento remoto?

2- Cite exemplos de equipamentos que pode coletar dados espaciais nos níveis que
existem?

3- Quais são os sensores que operam na região do visível e do IV próximo em nível


terrestre? Dê exemplos.

4- Descreva os radiômetros de varredura contínua.

5- Qual o objetivo principal de trabalhar com sensores em nível terrestre?

Curso Técnico de Geodésia e Cartografia COTIL


51

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

6- O que é resolução?

7- Explique e cite exemplos de:


a) Resolução espacial
b) Resolução espectral
c) Resolução radiométrica
d) Resolução temporal

Curso Técnico de Geodésia e Cartografia COTIL


52

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

6- METODOLOGIA DE ANÁLISE DE DADOS COLETADOS POR SENSORES EM NÍVEL


SUBORBITAL
6.1- Introdução
Entre os sensores aerotransportados as câmeras fotográficas (câmeras métricas) são
as mais importantes do ponto de vista operacional por ser de uso consagrado. A utilização
de fotografias aéreas para estudos voltados ao ambiente teve início bem antes do
surgimento do sensoriamento remoto orbital. Mesmo após a consolidação dos dados
orbitais, elas continuam sendo muito utilizadas para estudos que exigem maiores detalhes
de reconhecimento dos alvos de ocupação do solo ou quando o fator tempo não é uma
variável que interfere nos resultados. Os motivos que levam as pessoas a utilizarem
fotografias aéreas nas soluções de problemas voltados ao ambiente são vários. Entretanto,
dois deles devem ser destacados, ou seja, a alta resolução radiométrica (que permiti
identificar alvos em nível detalhados) e o fato de ser obtidas na faixa do espectro
eletromagnético que vai de 300nm a 900nm que é uma região do espectro muito importante
do ponto de vista de sensoriamento remoto orbital.
É preciso deixar claro que, com a evolução da informática, outros equipamentos de
coleta de dados aerotransportados têm surgido no mercado, como, dentre eles merece
destaque o sistema de videografia.
As fotografias áreas têm uma aplicabilidade muito diversificada. Podem ser usadas no
planejamento de áreas urbanas, no mapeamento de solos, na cartografia, na identificação e
mapeamento de uso do solo, etc. Para cada objetivo há critérios que devem ser obedecidos.
Por exemplo, na cartografia ou em ações judiciais, antes de se fazer a interpretação das
feições existentes na área fotografada, as fotos devem ser restituídas, para torná-las
uniformes quanto à escala preestabelecida para o aerolevantamento. Por outro lado, se as
fotografias aéreas têm como finalidade fornecer informações de uso do solo, para auxiliar o
analista no reconhecimento de padrões espectrais de alvos nas imagens de satélites, a
preocupação de escala passa a ser secundária. Neste caso, o importante é a identificação
do tipo de alvo na área. Evidentemente que se deve ter certos cuidados quanto à escala de
trabalho. Em síntese, pode-se dizer que o rigor na precisão dos resultados obtidos da
interpretação visual de fotografias aéreas depende dos objetivos aos quais eles são
destinados. Apesar das fotografias aéreas serem de aplicabilidade diversificada, o custo e o
tempo gasto para obter um determinado tipo de informação do uso do solo é bastante alto,
quando comparado com os dados de satélites. Entretanto, ainda hoje as fotografias aéreas
são muito utilizadas para realizar planejamento urbano e cadastramento de imóveis urbanos
ou rurais, devido à alta resolução espacial e a qualidade das informações nelas contidas.
Na Agricultura, por exemplo, as fotografias aéreas podem ser utilizadas para os
seguintes objetivos: a) identificação e mapeamento de culturas agrícolas; b) avaliação de
áreas cultivadas; c) detecção de áreas afetadas por pragas e doenças; d) verdade terrestre
para auxiliar na interpretação de dados de satélites; e) danos causados por eventos
episódicos; f) cadastro de imóveis rurais; g) práticas de conservação de solos e h)
classificação e mapeamento de solo.
Apesar da alta qualidade das informações contidas nas fotografias aéreas, sua
utilização requer um cuidadoso planejamento devido à complexidade e dinâmica das
atividades. No planejamento da cobertura aerofotográfica devem ser observados alguns
critérios básicos tais como: época de aquisição, tipo de filme, escala das fotografias, etc.
Associado a metodologia de análise de dados coletados por sensores em nível
suborbital, deve-se levar em consideração dois tópicos: fotogrametria e a fotointerpretaçao.

6.2- Fotogrametria
A palavra FOTOGRAMETRIA, derivada de três palavras de origem grega, tem o
seguinte significado: luz, descrição e medidas (photos = luz; grammma = aquilo que é
desenhado; metron = medição). Ela pode ser definida como a ciência e a arte de se obterem
medidas dignas de confiança por meio de fotografias. O comprimento de um aeroporto, de

Curso Técnico de Geodésia e Cartografia COTIL


53

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

uma rua, a posição de uma auto-estrada, o traçado de curvas de nível, a determinação da


elevação de uma queda d'água, a posição relativa de dois automóveis depois de uma
colisão, são alguns exemplos da quase ilimitada aplicação da Fotogrametria.
O uso mais comum da Fotogrametria é na preparação de mapas plani-altimétricos a
partir de fotos aéreas. Noventa e nove por cento do programa de mapeamento nos Estados
Unidos foi executado a partir da Fotogrametria e toda a seqüência dos estudos das auto-
estradas foi feita a partir de fotos aéreas.
A Fotogrametria tem sido usada nos estudos e nas explorações do espaço. Vestígios
de furacões e outros distúrbios da natureza que se movem através da Terra podem ser
observados e estudados através da Fotogrametria.
Quando alguém examina uma fotografia aérea, acha muito razoável que as posições
dos objetos nela observados sejam facilmente determinados. Além disso é possível
determinar-se a altura de prédios, montanhas, árvores, etc. As elevações (vistas em 3.a
dimensão) são usualmente representadas em mapas por meio das curvas de nível (linha
que na superfície da Terra possui uma elevação constante a partir de um plano de
referência). A capacidade para determinar 3.a dimensão e produzir curvas de nível é uma
característica fundamental da Fotogrametria.
O intervalo de tempo entre as exposições feitas na câmera fotográfica transportada
pelo avião é ajustado de tal maneira que cada ponto da superfície da Terra é fotografado
mais de uma vez através de diferentes posições. As fotografias são colocadas em projetores
cujas posições e altitudes podem ser ajustadas de maneira a restabelecer a posição e
altitude da câmera aérea no momento em que a fotografia foi tomada. A posição e
intersecção de cada ponto no modelo são então estabelecidos pela intersecção de dois
raios de luz.
As posições e elevações determinadas pela Fotogrametria são de razoável precisão.
É perfeitamente possível locar um ponto com um erro menor do que 1,00 metro a partir de
fotografias tomadas a uma altitude acima de 2000 metros.
Muito associada à Fotogrametria está a Fotointerpretação. Esta envolve a
determinação da natureza e descrição dos objetos que aparecem na fotografia.
Não pode haver uma separação entre a Fotogrametria e a Fotointerpretação. O
fotogrametrista deve se exercitar em Fotointerpretação no uso quantitativo das fotografias e
o fotointérprete deve conhecer alguns dos princípios da Fotogrametria no estudo qualitativo
das fotografias.

6.2.1- Histórico da Fotogrametria


Desde as mais primitivas civilizações, o homem procurou observar a Terra e mapeá-
la. Um grande desenvolvimento neste setor de observações e mapeamentos aconteceu
durante a Primeira Grande Guerra quando o homem necessitou de maiores e melhores
informações para fins militares. Com esse desenvolvimento, o trabalho do topógrafo na
Terra foi diminuindo e os custos decresceram.
O grande avanço ou desenvolvimento no século 20 em cartas e mapas foi, sem
dúvida nenhuma, devido ao uso de fotografias aéreas. Mas, a aplicação da fotografia
começou há mais de um século, quando os cientistas franceses NIEPCE e DAGUERRE
deram as primeiras notícias sobre o assunto publicamente. O primeiro trabalho prático de
fotografia aérea, isto é, o uso de uma máquina fotográfica para problemas de observação
começou com Aimé LAUSSEDAT no ano de 1850, enquanto trabalhava como oficial
engenheiro do exército francês. LAUSSEDAT, que é considerado como o "Pai da
Fotogrametria", trabalhou prodigiosamente e deixou um grande número de trabalhos nesse
campo. Sua maior contribuição foi seu método de usar um teodolito em combinação com a
máquina fotográfica (fototeodolito). Este método de mapeamento é chamado atualmente de
Fotogrametria Terrestre.
O método do Coronel LAUSSEDAT tornou-se conhecido por toda Europa e Canadá.
E assim, no Canadá, em 1888 o Capitão E. DEVILLE escreveu o primeiro tratado sobre o
assunto intitulado "Photographic Surveying".

Curso Técnico de Geodésia e Cartografia COTIL


54

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Hoje, Fototeodolitos de grande precisão são feitos por firmas da Suíça e Alemanha.
É um método de observação bastante aplicado em todo o mundo, principalmente na Europa.
As primeiras fotografias aéreas foram tiradas usando-se "papagaios e balões". Essas
experiências tiveram início em 1860 através do Coronel LAUSSEDAT e do Capitão Theodor
SCHEIMPFLUG da Áustria, e outros. O uso de papagaios e balões para suspender câmeras
fotográficas fracassou, ou melhor, não deu o resultado esperado. Em 1900 com o
aparecimento da primeira câmera aérea, com sete lentes oblíquas acopladas ao redor de
uma lente vertical, conseguiu-se obter fotografias com grande ângulo de recobrimento.
Nos Estados Unidos as primeiras referências sobre fotografia aérea usando balões
foram feitas por J ames F AIRMAN em 1887, o qual patenteou o seu método com o título
"Apparatus for Aerial Photography". Em 1893, C. V. ADAMS usou e patenteou um outro
método: "Method of Photogrammetry".
Em seguida o avanço mais importante se deu com o aparecimento dos dirigíveis, que
foram os primeiros balões controlados. Novamente esse desenvolvimento ocorreu na
Europa e teve um incremento muito grande com o aparecimento do Zepellin, com sua
viagem histórica para o Ártico e através das regiões nordestes do mundo. Uma das câmeras
usadas nessa viagem foi a P.K. 9 lentes, que é uma máquina fotográfica panorâmica.
Com o aparecimento do avião, a primeira plataforma foi assegurada. As primeiras
fotografias aéreas tomadas de um avião para fins de mapeamento encontram-se nos
arquivos da Sociedade Internacional de Fotogrametria. Estas, foram tiradas pelo Capitão
Cesare TARDIVO, na cidade de Bengasi, em 1913.
Nos Estados Unidos a história do desenvolvimento da máquina fotográfica aérea
teve início nos anos de guerra através de Sherman M. FAIRCHILD, que construiu a primeira
máquina fotográfica aérea com finalidades militares.
Grandes desenvolvimentos surgiram a partir da Segunda Guerra Mundial, não
somente nos Estados Unidos como também na Europa. Hoje grandes organizações em todo
mundo produzem equipamentos de grande precisão. Entre as mais renomadas
organizações encontram-se: Zeiss-Aerophotograph na Alemanha, Wild Heerbrugg
Instruments, Ltda. e Kern na Suíça; Ottico Meccanica Italiana (Nistri) e Officine Galileo na
Itália; Societé d'Optique et de Mecanique na França; Barr, Stroud and Willianson na
Inglaterra.

6.2.2. Aplicações da Fotogrametria além do Mapeamento


Porque a maioria das aplicações dos métodos fotogramétricos tem ocorrido na arte do
mapeamento, pensa-se geralmente que a Fotogrametria é a ciência das medidas para os
inventários da superfície da Terra. Entretanto, a Fotogrametria pode ser usada em diferentes
campos.
Em Geologia, as aplicações da Fotogrametria são numerosas e muito bem
documentadas. A revista "Photogrammetric Engineering", no número de dezembro de 1947,
dedicou um capítulo inteiro sobre as aplicações da Fotogrametria em Geologia.
Em Agricultura as fotografias aéreas oferecem uma enorme quantidade de dados
sobre a Terra. Pode-se medir o tamanho de uma propriedade agrícola, estudar o uso atual
da terra, determinar o tipo e a qualidade dos solos, planejar o controle de erosão, programar
reflorestamentos, planejar o uso da terra, etc.
No Planejamento de Cidades e Desenvolvimento Urbano, todos os estudos são
feitos através de fotos aéreas. Estudam-se os melhoramentos para o tráfego, aumentos de
áreas de estacionamento, aumento de utilidades públicas, tais como parques, etc.

6.2.3. Categorias da Fotogrametria


A Fotogrametria é freqüentemente dividida em categorias de acordo com o tipo de
fotografias usadas ou a maneira como são utilizadas. Assim, temos duas categorias:
a) Fotogrametria Terrestre:

Curso Técnico de Geodésia e Cartografia COTIL


55

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Neste caso as fotografias são tiradas da Terra, com o eixo ótico da câmera na
horizontal. São também chamadas de fotografias horizontais. A máquina está apoiada sob
um tripé.
b) Fotogrametria Aérea:
Existem em geral dois tipos de fotografias aéreas: fotografias verticais (Figura 26), as
quais são tomadas com o eixo ótico da câmera na vertical, e fotografias oblíquas são as que
intencionalmente são tomadas com o eixo ótico da câmera inclinado obliquamente com
respeito à vertical.
Aqui trataremos apenas das fotografias aéreas verticais.

Figura 26– Posição do avião para tirada das fotografias verticais.

6.2.4. Câmeras aéreas


Entre as camêras fotográficas, existem as câmeras aérea e terrestre. Os dois tipos de
câmeras, aérea e terrestre, possuem a mesma função, ou seja, a obtenção de fotografias,
porém como exigências diferentes. Apresentamos logo a seguir as mais importantes
diferenças quanto às exigências.
A câmera terrestre permanece estacionada durante o momento da exposição. Assim
podem ser usados, neste caso, filmes de baixa velocidade. A câmera aérea encontra-se em
movimento durante o momento da exposição, portanto a exposição deve ser a mais curta
possível. Tal câmera necessita de lentes rápidas, alta velocidade, obturador digno de
confiança e um filme com emulsão para alta velocidade.
Devido as fotografias aéreas precisarem ser tomadas numa sucessão rápida de
exposições, o magazine (parte onde o filme é colocado) necessita ter espaço para receber
um grande rolo de filme ou um grande número de placas fotográficas. Ademais esse
magazine precisa ser parte integral da câmera aérea.
A câmera é um instrumento que reúne os dados necessários para as subseqüentes
operações fotogramétricas. Ela pode ser considerada um instrumento de observação de
grande precisão.
As camêras aéreas têm em comum os seguintes principais componentes (Figura 27):
a) lentes;
b) cone das lentes;
c) obturador;
d) corpo da câmera;

Curso Técnico de Geodésia e Cartografia COTIL


56

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

e) mecanismo de operação;
f) magazine (filme).

Figura 27 – Esquema da câmera fotográfica aérea.


O cone da lente contém a lente e o obturador reunidos numa extremidade e na outra
extremidade está ligado o corpo ou chassi da câmera.
O obturador com suas várias aberturas e velocidades serve para admitir ou excluir luz
da câmera. O tipo empregado mais comumente é o "entre lentes" assim chamado porque o
corpo do obturador é montado entre os elementos das lentes. As folhas do obturador e o
diafragma para a variação da abertura das lentes são colocadas bem próximos um do outro,
ambos ajustados e atuados por mecanismos adaptados no corpo da câmera. O disparador
do obturador é colocado numa posição conveniente para facilitar o trabalho do operador, ou
o obturador é operado automaticamente como na máquina WILD RC S-A que é uma câmera
aérea de precisão. Na maioria das câmeras é colocado um eliminador de nevoeiro (filtro
azul) ou qualquer outro tipo especial localizado em frente das lentes.
O corpo da câmera protege no seu interior o mecanismo da câmera, o filme e o
obturador. Suporta ainda as conexões elétricas e os componentes especiais tais como: nível
de bolha, o aparelho que regula o intervalo de exposição (intervalômetro) e o calculador de
exposição. Na base do corpo da câmera se encontra o cone das lentes e na parte superior
está o filme.
O mecanismo da câmera opera transmitindo movimento através de engrenagens
ligadas ao obturador e ao filme. Um ciclo de operações automáticas coloca o filme na
posição para uma exposição e, uma vez acionado o obturador, o filme gira automaticamente
e na velocidade certa de acordo com o intervalo de exposição.
O filme se encontra num carretel, na parte superior do corpo da câmera. A largura e o
comprimento do filme aéreo mais comumente empregado são 0,23m e 60,00m
respectivamente. Algumas firmas européias usam filmes com largura variando de 0,18m a
0,23m e comprimento variável, dependendo do recobrimento a ser feito. Geralmente filmes
com 30 metros, obtém 120 fotos, filmes com 60 metros, obtém 240 fotos e filmes com 120
metros obtém 480 fotos. O avanço do filme para cada exposição, como já foi dito
anteriormente, é geralmente automático, mas pode ser feito manualmente. O magazine,
onde o filme é colocado, é equipado por um sistema que forma vácuo no plano focal no
momento exato da exposição, o que permite deixar o filme bem esticado e perfeitamente na
horizontal. Isso é muito importante para fotografias aéreas, desde que a falta de
horizontabilidade do filme causaria distorções inadmissíveis da imagem da terra.

Curso Técnico de Geodésia e Cartografia COTIL


57

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

A câmera aérea é caracterizada pelo formato do negativo, pela distância focal (f) da
objetiva (centro ótico) e pelo ângulo de campo () da objetiva (Figura 28).

b a Negativo

Centro ótico (lentes)

Hv

Terreno

A B

Figura 28 – Geometria da fotografia aérea.


A Figura 28 mostra o esquema da câmera fotográfica. Os dois raios que passam pelo
centro ótico definem as posições a e b no negativo, dos objetos A, B situados no terreno,
quando esses objetos são fotografados verticalmente. A distância perpendicular f do centro
ótico ao filme (negativo) é a distância focal da câmera e a distância perpendicular Hv do
centro ótico ao terreno é a altura de vôo. Pode-se notar as posições A e B, no terreno, e as
posições a e b, no negativo, estão em posição invertida.
As dimensões mais comuns dos negativos são 23X 23cm (9 X 9”)e 18 x 18 cm (7 X
7”).
Quanto ao ângulo de campo (), temos o ângulo normal menor que 75º, a grande
angular entre 75 e 100º e a super grande angular com ângulo de campo entre 100 e 120º. A
super grande angular cobre uma área maior do terreno. A grande angular é de uso mais
comum no mundo. São hoje em dia empregadas não somente para mapas topográficos em
escalas médias e pequenas, mas também para trabalhos em grandes escalas. Fotografias
obtidas com uma distância focal de 153mm e no tamanho de 23 X 23cm são especialmente
econômicas. E a normal possui menor distorção e é mais precisa, também sendo de uso
mais comum. As fotos aéreas obtidas com as câmeras de ângulo normal se prestam
particularmente para levantamentos que requerem grandes escalas. As deformações
perspectivas devidas ao relevo do terreno são menos danosas nas fotos aéreas tomadas
com uma objetiva de ângulo normal. Por essa razão, freqüentemente se dá preferência às
fotos de ângulo normal para a confecção de mapas topográficos.
As distâncias focais mais comumente encontradas nas câmeras aéreas são: 88mm e
100mm usadas para câmeras super grande angular, 153mm usada para câmera grande
angular e 210mm e 305mm usadas para câmera normal.
Todas as máquinas fotográficas aéreas usadas com o propósito de mapeamento
possuem as marcas fiduciais, também chamadas marcas de colimação, as quais são
registradas no negativo, em cada exposição, no meio dos quatro lados da fotografia. Essas
marcas podem ser de vários tipos, mas o mais comum é visto na Figura 29, a qual é
projetada de 0,30 cm a 0,50 cm, em direção ao centro da fotografia. A intersecção das duas
linhas que unem as marcas fiduciais opostas estabelece o centro geométrico (centro ótico) e
também o eixo geométrico da fotografia. O eixo X da fotografia é usualmente a linha de vôo
e o eixo y é perpendicular à linha de vôo.

Curso Técnico de Geodésia e Cartografia COTIL


58

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

É desejável que o ponto principal da fotografia coincida com o centro geométrico da


máquina fotográfica. Portanto, para que uma máquina fotográfica seja aprovada para a
produção de fotografias requeridas para fins de mapeamento, deve ser testada e calibrada
por órgãos especiais como o Bureau of Standard nos Estados Unidos e o National Research
Council no Canadá. Depois de testada e calibrada, a organização entrega ao interessado
um certificado de precisão da máquina fotográfica.

Figura 29 – Marcas fiduciais, centro ótico e linha de vôo.

6.2.5. Fotografias aéreas


As fotografias aéreas, tais como são, não podem ser consideradas como mapas, mas
por métodos fotogramétricos, pode-se fazer mapas planimétricos e topográficos a partir de
fotografias. O método que se usa é o dos pares estereoscópicos de fotografias aéreas,
porque tais fotografias registram as direções e a intersecção de pelo menos duas direções
de objetos da Terra, o que é necessário para se determinar a posição dos objetos no mapa.
A fotografia aérea tem sido usada intensivamente como um sensor remoto na
identificação e mapeamento dos recursos naturais. Pelo potencial de utilização, as
fotografias aéreas prestam-se como ferramenta de trabalho nos mais diferentes campos,
tais como Geografia, Geologia, Hidrologia, Ecologia, Agronomia, Engenharia, etc. Os
pesquisadores que se utilizam fotografias aéreas, não são especialistas na ciência
fotográfica, mas a maioria deles se familiariza com os processos e materiais fotográficos, o
que facilita bastante o processo fotointerpretativo.
O filme mais comum em nosso país é o pancromático, ou seja, o filme preto e branco,
cujas vantagens, em relação ao colorido, são: a) facilidade de manuseio e processamento;
b) custo relativamente baixo; c) velocidades mais elevadas e e) menor susceptibilidade a
fungos. Como desvantagens apresentam: a) os objetos são registrados somente em tons de
cinza e b) ausência de limite de cores, diminuição a percepção.
O entusiasmo despertado por novas formas de sensoriamento remoto, como as
imagens de satélite, imagens infravermelhas termais, colocou as fotografias aéreas
convencionais, momentaneamente em segundo plano. No entanto, elas são ainda
imprescindíveis na confecção de mapas topográficos, em projetos de Engenharia,
conservação de solo, planejamento urbano e agropecuário, etc. Sempre que necessita de
um alto nível de detalhamento, será necessária a utilização de fotografias aéreas.

Curso Técnico de Geodésia e Cartografia COTIL


59

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

6.2.6. Tirando fotografias aéreas


Para se tirarem fotografias aéreas, é necessária uma combinação muito bem
integrada; do conveniente avião, da precisão da máquina fotográfica e seus acessórios e
uma grande habilidade pessoal dos operadores. A Figura 30 apresenta o recobrimento
aerofotográfico de uma área.

Figura 30 – Linhas de vôo no levantamento fotográfico de uma área.

Avião - O avião deve ter boa estabilidade, particularmente durante o ciclo de operação
da máquina fotográfica. Vôos elevados asseguram e ajudam a obtenção de fotos com um
mínimo de inclinação. O avião deve dar boa visibilidade para os dois lados e para baixo.
Tanque de gasolina com boa capacidade para um grande rendimento de trabalho em dias
claros e limpos, pois do contrário muito tempo seria perdido. No mínimo 6 horas de vôo sem
interrupção são exigidos para um avião de foto-mapeamento, porém muitos aviões têm
capacidade para 8 horas de vôo. A cabine do avião deve ser suficientemente grande para
acomodar confortavelmente o aviador, o operador, a máquina fotográfica, suplemento de
filmes, mapas de vôo e outros equipamentos. Conforto e facilidade de movimento para a
tripulação contribuem para o desempenho das obrigações, as quais são exaustivas e
tediosas.
Máquina fotográfica - Em relação a máquina fotográfica aérea, deve-se selecionar a
máquina fotográfica para o trabalho a ser desenvolvido de tal maneira que ela possa
produzir fotografias de acordo com as especificações. A máquina fotográfica é colocada
sobre um suporte, chamado suporte da máquina fotográfica, o qual permite controlar o
movimento da máquina fotográfica pelo fotógrafo; este suporte é equipado com um sistema
que evita choques e vibrações e permite um ajustamento para compensar a deriva e o
desvio do avião enquanto este percorre alinha de vôo (Figura 31).

Curso Técnico de Geodésia e Cartografia COTIL


60

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 31 – Linha de vôo com deriva.


Deriva é o ângulo que o lado da foto faz com a linha de vôo correta. Desvio é o efeito
da deriva. É observado na montagem das faixas. Inclinação é a inclinação da câmara
fotográfica no momento da exposição (Figura 32).

Figura 32 – Inclinação da fotografia aérea.

Visor - Ele é instalado no avião como um instrumento separado, montado sobre o


chão do avião ou faz parte integral da máquina fotográfica. O visor permite ao fotógrafo ver
as imagens da Terra como elas serão tomadas pela fotografia. Permite também, se
necessário, determinar as correções devidas à deriva e ao desvio partir de uma base
contínua e ainda conferir o intervalo de tempo do intervalômetro.
Intervalômetro - Exceto para uma câmara, a qual é operada manualmente n obtenção
de fotografias verticais de recobrimento, a maior parte das seqüências é feita por meio de
um instrumento chamado intervalômetro. Este instrumento, de operação elétrica, faz parte
das instalações da máquina fotográfica. O intervalo de tempo entre exposições (1 segundo
até alguns minutos) pode ser regulado através de um botão, e assim o obturador da câmara
funcionará automaticamente para providenciar a específica porcentagem de recobrimento
entre exposições. Permanecendo relativamente constante a velocidade do avião, o uso do
intervalômetro assegura uma regularidade de recobrimento e permite ao operador dedicar
mais atenção a outros requisitos de seu trabalho.
Mapas de vôo - Para a preparação dos mapas de vôo, todo esforço é feito para se
obterem os melhores mapas e cartas disponíveis sobre a área a ser fotografada. Algumas
vezes é possível obterem-se fotografias de vôos anteriores ou mosaicos fotoíndices da área
a ser fotografada. As linhas guias de vôo são escaladas para assegurar a específica

Curso Técnico de Geodésia e Cartografia COTIL


61

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

porcentagem de recobrimento entre linhas de vôos. O mapa de vôo é de vital importância


para o piloto, enquanto o operador fotográfico usualmente tem uma cópia do mapa para
propósitos de orientação. Uma terceira cópia do mapa permanece no laboratório, para ser
usada no momento em que as fotografias forem examinadas para ver se estão em
concordância com as especificações. Uma quarta cópia é entregue ao cliente para fins de
estudos e verificações futuras.
Tripulação Fotográfica - Já mencionamos o piloto e o operador fotográfico e
mostramos a importância do trabalho em equipe. O piloto, além de ter grande habilidade de
pilotagem, deve conhecer muito bem todos os tipos de mapas de vôo e fotografias aéreas;
ele precisa ser hábil na navegação, isto é, hábil com os instrumentos do avião e no
reconhecimento dos pontos de apoio terrestres. Vigor físico e emocional são importantes
para permitir longas e cansativas horas de vôo. O piloto também é costumeiramente o
responsável para decidir quando as condições de tempo e vento são convenientes para
fotografia. O operador fotográfico precisa ser experiente na operação e manutenção das
máquinas fotográficas aéreas e equipamentos. Precisa conhecer bem os mapas e
fotografias aéreas. Precisa ter um conhecimento seguro sobre filmes aéreos, filtros e dados
de exposição. Deve ser hábil nas operações de laboratório para o processamento do filme
aéreo e posterior estudo das qualidades do filme. De fato, muitos operadores revelam os
filmes na base ou no laboratório de campo se a área a ser recoberta for muito longe. O
operador precisa ter paciência e tolerância que o capacitam a realizar um bom trabalho, o
qual é tedioso e exaustivo após várias horas de vôo.

6.3. Estereoscopia
A Estereoscopia está intimamente ligada ao campo da Fotogrametria, bem como ao
da Fotointerpretação.
Estereoscopia é a ciência e a arte que permite a visão estereoscópica (terceira
dimensão) e o estudo dos métodos que tornam possíveis esses efeitos. A palavra estereo
significa que vem de 2 ou mais lugares, mas percebe que é só de um lugar, por exemplo,
caixa de som estereo, tem som em duas caixas acústica, mas de longe não percebe, e
sente a vibração tridimensional. O sufixo copia é a técnica de ver tridimensional.
A sua aplicação em Fotogrametria está no uso das fotografias em instrumentos óticos,
com o propósito de observação e obtenção de medidas dignas de confiança.
Os princípios e mecanismos da percepção estereoscópica são relativamente simples e
devem ser estudados por todos aqueles que trabalham no campo da Fotogrametria e/ou da
Fotointerpretação.
A visão monocular permite examinar a posição e a direção dos objetos dentro do
campo da visão humana num único plano. Permite reconhecer nos objetos a forma, as cores
e o tamanho. A fotografia simples é uma reprodução da visão monocular.
Por outro lado, a sensação de profundidade, só é possível através da visão binocular,
no intervalo correspondente à distância interpupilar do observador (entre 6 e 7 cm). A
sensação de profundidade é dada pela diferença de ângulos com que as imagens são
recebidas. A Figura 32 mostra que os ângulos com que são vistos os objetos A, B e C
decrescem com a profundidade.

Curso Técnico de Geodésia e Cartografia COTIL


62

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 32 – Ângulos de visão dos objetos A, B e C, decrescentes com a profundidade.


Embora seja possível a visão estereoscópica (3º dimensão) à vista desarmada,
normalmente se utilizam aparelhos denominados estereoscópicos, que facilitam o trabalho
do fotointérprete.
As fotografias áreas são tomadas de tal maneira que um mesmo objeto aparece em
duas fotografias sucessivas, tiradas de ângulos diferentes. Com essas duas fotografias, faz-
se chegar a cada olho uma imagem do objeto a ser estudado. Uma vez feita a fusão das
duas imagens, obtém-se a percepção estereoscópica (3º dimensão).
Cada posição do avião ao bater a foto corresponderá a cada um dos olhos e permitirá
a visão estereoscópica, isto é, a visão do relevo da superfície fotografada. Cada jogo de
duas fotografias, com essas características, é chamado estereopar.
Estereopar são fotos que tem uma paisagem em comum. São fotografias consecutivas
na mesma linha de vôo.
Conforme mostram as Figuras 33, 34 e 35, o recobrimento horizontal (linha de vôo) é
de 60% e o lateral é de 30%.

Figura 33 – Relações entre duas fotos com recobrimento lateral.

Curso Técnico de Geodésia e Cartografia COTIL


63

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 34 – Relações entre duas fotos com recobrimento longitudinal.

Figura 35 – Recobrimento longitudinal e lateral.

6.3.1. Tipos de estereoscópios


Os instrumentos usados no estudo de fotografias aéreas em 3º dimensão estão
agrupados em dois grupos gerais: estereoscópio de bolso ou de lente, e o estereoscópio de
espelho ou de reflexão.
O estereoscópio de bolso conta de uma armação simples de metal suportando um par
de lentes simples, de maneira a manter os olhos trabalhando independentemente e suas
linhas de visão aproximadamente paralelas. A armação na qual as lentes estão montadas é
suportada por 4 pés. O modelo mais indicado é o que permite a regulagem da distância
interpupilar. Os estereoscópios de bolso possuem as lentes com um poder de ampliação
que varia de 1,25X a 4X.
O estereoscópio de espelhos consiste fundamentalmente em dois espelhos, inclinados
de 45º em relação ao plano horizontal das fotografias, em dois prismas de 45º ou dois outros
espelhos menores e duas lentes que permitam acomodar a vista ao infinito. Os espelhos

Curso Técnico de Geodésia e Cartografia COTIL


64

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

são as partes mais importantes, e precisam ser de ótima qualidade. Por essa razão, quando
o estereoscópio não está sendo usado, deve ser bem protegido.

6.3.2. Teste de percepção estereoscópica


Existe considerável variação na habilidade dos indivíduos de ver uma imagem
estereoscopicamente. Muitas pessoas não possuem a habilidade de fundir as duas imagens
em seu cérebro a fim de criar a imagem estereoscópica.

6.3.3. Operação com o estereoscópio


Apesar de todo o cuidado que é dedicado à construção do estereoscópio, nem sempre
o mesmo é usado adequadamente. Muitas vezes a observação de um par estereoscópico
não é perfeita, devido à má orientação das fotografias.
Em quase todas as operações com fotos aéreas, inicialmente marca-se o centro sobre
as fotos. A fim de que ele possa ser fácil e exatamente localizado, todas as fotografias
apresentam 4 marcas, colocadas no centro de cada um dos 4 lados; elas são chamadas
marcas fiduciais ou de colimação: unindo-se dois pares opostos de marcas fiduciais por
meio de retas, a intersecção destas determina o centro da foto (ponto principal). Em
algumas fotos, tal centro já é marcado por uma pequena cruz (Figura 36).

Figura 36 – Marca fiducial e o ponto principal.


A maioria das fotografias aérea verticais é tirada com um recobrimento na linha de vôo
de 60%, fazendo com que um mesmo objeto apareça em duas fotografias consecutivas,
mas em posições diferentes, imitando assim a visão humana. Essas duas fotografias
convenientemente superpostas permitem a produção de uma imagem tridimensional. O
primeiro passo na orientação de um par de fotografias aéreas é a marcação do ponto
principal, através das marcas fiduciais, conforme visto na Figura 36. Em seguida marcam-se
os pontos principais conjugados em cada fotografia adjacente, já que o ponto principal de
uma fotografia aparece na fotografia vizinha, lateralmente deslocado. Dessa maneira, em
um par de fotografias aéreas, cada fotografia terá dois pontos de referência, um que seria o
seu centro (ponto principal) e outro que seria o centro da fotografia adjacente. Unindo-se
esses dois pontos e superpondo-se os pontos, tem-se a linha de vôo. Um cuidado que deve
ser tomado nessa fase é o de se evitar a pseudo-estereoscopia que é obtida quando a foto
que deveria ser vista pelo olho esquerdo é vista pelo olho direito, e vice-versa. Como
decorrência disso obtém-se o reverso do relevo, e um vale apareceria como um espigão, por
exemplo. Outro cuidado refere-se às sombras devido ao relevo, as quais devem ser voltadas
para o observador. Em seguida ajustam-se as lentes do estereoscópio de acordo com a
distância interpupilar do fotointérprete. As fotografias são então colocadas sob o aparelho,
de modo que objetos homólogos fiquem exatamente abaixo de cada lente do aparelho.
Pequenos movimentos circulares de ajuste, em uma ou nas duas fotografias, permitem
visualizar com clareza a estereoscopia.

Curso Técnico de Geodésia e Cartografia COTIL


65

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Antes de se obter a impressão estereoscópica ou 3 dimensão de um par


estereoscópico, é necessário orientar corretamente as fotografias sobre o mesmo. Essa
orientação é feita da seguinte maneira:
1 – Certificar se a numeração das fotografias é consecutiva e que pertençam à mesma
linha de vôo. Quando os negativos das fotografias aéreas são revelados, os mesmos são
numerados consecutivamente mostrando o número da linha de vôo e o número da fotografia
na linha de vôo (Figura 37(a)).
2 – colocar uma fotografia sobre a outra, de maneira a verificar o recobrimento (Figura
37(b)).
3- quando se usa o estereoscópio de bolso, separam-se as duas fotografias na direção
da linha de vôo, até que as imagens conjugadas, tais com a e a’ da Figura 37(c) , estejam
separadas a uma mesma distância (e) do centro das lentes.
4- Quando se olha através do estereoscópio, fazer o ajuste necessário para obter uma
visão estereoscópica confortável.

Figura 37 – Orientação de um par de fotografias aéreas para observação


estereoscópica.

Curso Técnico de Geodésia e Cartografia COTIL


66

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

6.3.4. Geometria básica para fotografias aéreas


A Figura 38 apresenta um esquema com a geometria de uma fotografia aérea
perfeitamente na vertical.

Negativo
b a
f

Centro ótico (lentes)

Hv

Terreno

A B

Figura 38 – Geometria da fotografia aérea.


Observando a Figura 6, tem-se f sendo a distância focal, que é a distância do filme
(negativo) até o centro ótico; Hv é a altura de vôo, que vai do centro ótico até o terreno.

6.3.4.1. Escala dos mapas e fotografias


A escala do mapa ou da fotografia é usualmente definida como a relação entre o
comprimento de uma linha ou distância no mapa ou fotografia e a correspondente distância
medida na Terra. É representada em termos de uma fração. Desde que a escala é expressa
com uma relação de unidades de medidas similares, se a escala de um mapa ou fotografia é
1:5000, significa que 1 cm no mapa ou fotografia corresponde a 5000cm na Terra (1cm =
50m).

A escala pode ser obtida por:

1= ab
E AB

Onde,
ab = distância no papel (fotografia aérea, mapa).
AB = distância real, no terreno.
E = denominador da escala, seja na fotografia, ou no mapa.
Sendo ab e AB expressos na mesma unidade.

A partir da observação da Figura 6, a escala, pela semelhança de triângulos, é dada


por:
ab = f__
AB Hv

Ef = f
Hv

Curso Técnico de Geodésia e Cartografia COTIL


67

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Sendo a escala dada sempre por 1/E , Ef é o denominador da escala, logo, a escala
da fotografia aérea é dada por:

1= f
Ef Hv

Onde,
f = distância focal.
Hv = altura de vôo.
Ef = denominador da escala da fotografia aérea.
Hv e f são expressos na mesma unidade.

Quando se trabalha com mapas e fotografias, as escalas, tanto da fotografia como do


mapa, podem ser obtidas a partir de:

Escala da fotografia = distância da foto


Escala do mapa distância no mapa

Ou ainda,
1/Ef = ab
1/Em CD

Onde,
Ef = escala da fotografia aérea.
Em = escala do mapa.
ab = distância na fotografia aérea.
CD = distância no mapa.

6.3.4.2. Número de fotos aéreas necessárias para recobrir uma área:


1) Transformar área irregular em regular:
10 km

8 km

2) Escala da fotografia:
Supondo levantamento de fotografia aérea de 1972, que a escala é 1:25000:
1 fotografia aérea = 9’ = 23cm
Na foto: 1cm = 25000cm
23cm = x
x = 575000cm = 5750m (1 lado da foto representa 5750m)

3) Calcular recobrimentos:
No avião: recobrimento longitudinal = 60%
recobrimento lateral = 30%

Avanço = 100 – recobrimento


Avanço longitudinal = 100 – 60 = 40%

Curso Técnico de Geodésia e Cartografia COTIL


68

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Avanço lateral = 100 – 30 = 70%

Avanço (1972) longitudinal = 5750*40% = 2300m


Avanço lateral = 5750*70% = 4025m

10km= 10000m
8km = 8000m

F.A. longitudinal = 10000/2300 = 4,38 fotos = 5 fotos


F.A. lateral = 8000/4025 = 1,98 = 2 fotos

4) Número de fotos aéreas=(número de fotos longitudinal*número de fotos


lateral)+10%
Número de fotos = (5 * 2) +1 = 11 fotos

6.4- Fotointerpretação
O termo fotointerpretação refere-se ao conjunto de todos os processos envolvendo a
análise visual de imagens fotográficas. O produto a ser fotointerpretado pode ser fotografias
aéreas, imagens obtidas por satélites ou qualquer outro na forma fotográfica. Entretanto,
tradicionalmente e, em muitos dos casos práticos, trata-se a fotointerpretação como sendo a
análise de fotografias aéreas.
De acordo com o manual de interpretação fotográfica da Sociedade Americana de
Fotogrametria (1960) a "interpretação fotográfica é o ato de examinar imagens fotográficas
com o objetivo de identificar objetos e o seu significado".
A fotointerpretação é um processo que envolve pelo menos duas etapas: observação
e interpretação. Há autores que dividem o processo de interpretação em três fases, ou seja,
a fotoleitura, a fotoanálise e a fotointerpretação propriamente dita.
O processo de fotoleitura é muito similar ao de observação. Esta fase consiste
essencialmente em analisar as fotografias aéreas de uma maneira muito superficial, com o
propósito apenas de reconhecer as diferentes feições existentes na paisagem. Nesta fase,
não há nenhum compromisso com a identificação correta dos alvos e, é nela que também é
feita uma análise do tipo de produto fotográfico (tipo de filme utilizado, época de aquisição
das fotos, etc).
O processo de fotoanálise consiste em um estudo de avaliação e ordenação das
partes que compõem a fotografia. Neste caso, o fotointérprete começa a utilizar seus
conhecimentos técnicos e suas experiências práticas do seu campo de trabalho. Durante
esta etapa, é feita uma legenda de interpretação, separando as diferentes feições contidas
na foto em função do padrão fotográfico apresentado.
A fotointerpretação é o processo em que o intérprete utiliza um raciocínio lógico,
dedutivo e indutivo para compreender e explicar o comportamento de cada objeto contido
nas fotos. A fotointerpretação é, a rigor, realizada com base em certas características, que
muitas vezes são utilizadas pelo fotointérprete sem que ele perceba, devido à rotina do
trabalho de fotointerpretação. As principais características são:

- Padrão
O padrão é uma característica muito importante utilizada na interpretação visual tanto
em fotografias aéreas quanto em imagens de satélites.
Em áreas vegetadas, o padrão refere-se à distribuição espacial de algumas feições
características de determinadas vegetações, que podem variar de uma região para outra.
Por exemplo, a presença de carreadores no meio da área é um padrão que serve para
diferenciar áreas plantadas com cana-de-açúcar de áreas de pastagem. Nas áreas de
pastagem a presença de carreadores não é comum.

Curso Técnico de Geodésia e Cartografia COTIL


69

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Por outro lado, a presença de carreadores nem sempre significa áreas ocupadas com
a cultura da cana-de-açúcar, áreas de reflorestamento também possuem carreadores. Nesta
situação, a diferença entre estes dois alvos se dá pela utilização de outras características,
tais como o tamanho das áreas de cada talhão entre carreadores, a textura fotográfica, entre
outros.
Outro padrão bastante característico é o da drenagem dos rios e córregos existentes
na área fotografada. Geralmente, o padrão da drenagem, quando observados em fotografias
aéreas, lembra a distribuição dos vasos sanguíneos do corpo humano, e está associado aos
tipos de rochas e solos existentes na área mapeada. Na Figura 39 é mostrado o esquema
de alguns tipos de drenagens.

Figura 39- Esquemas de padrões de drenagens comumente utilizados.

O padrão dendrítico, quando apresenta um espaçamento entre tributários e rios


principais menos de 1/4 de polegada, na escala 1: 20.000, é um indicador de alto nível de
escoamento superficial ("runoff”), sugerindo a presença de rochas e/ou solo de textura fina
de baixa permeabilidade.
Quando o espaçamento dos rios e tributários for de média intensidade (entre 1/4 a 2
polegadas), indica a presença de solos e rochas de textura nem fina e nem grosseira mas,
sim, uma mistura de partículas de diferentes tamanhos.
Por outro lado, se a drenagem apresenta uma intensidade de rios e tributários maior
que 2 polegadas, é uma forte indicação de tipos de solos permeáveis, resistentes, com
material rochoso permeável de textura grosseira.
O padrão radial geralmente está associado a um material resistente ou a situações do
relevo, como topo de morro, etc.
O padrão de drenagem paralelo está relacionado a solos homogêneos, com
declividade uniforme, como por exemplo, solos oriundos de grandes derramamentos
basálticos.

- Tonalidade e Cor
Os diferentes alvos sobre a superfície terrestre refletem a energia solar de maneira
diferenciada. Por exemplo, um telhado de alumínio pode ser visto de longe porque reflete
muita energia que chega até ele. Por outro lado, um pano preto reflete muito pouca luz por
que absorve muito. Assim, se nós observarmos a natureza perceberemos que cada alvo
reflete de uma maneira diferente do outro. Quando os alvos são semelhantes entre si, as
energias refletidas por eles são muito parecidas, é o caso, por exemplo, de uma área
plantada com arroz e outra com trigo, ambas com a mesma porcentagem de cobertura do

Curso Técnico de Geodésia e Cartografia COTIL


70

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

solo. Numa foto ou numa imagem de satélite, estas diferentes quantidades de energia
refletida pelos alvos são associadas a valores de níveis de cinza (chamado de tons de
cinza), ou seja, quando o objeto reflete muita energia a quantidade que chega ao sensor
(fotográfico ou não) é grande. Neste caso, associa-se a esta quantidade de energia um nível
de cinza claro. Por outro lado, se o objeto reflete pouco, a quantidade de energia que
chegará no sensor é também pouca. Logo, o nível de cinza associado ao objeto será mais
escuro.
A tonalidade é um parâmetro qualitativo, ou seja, indica a presença de alvos com
reflectâncias diferentes. Entretanto, às vezes dois alvos distintos apresentam tonalidades
(tons de cinza) semelhantes, como é o caso da área circular (corpo d'água) e áreas de
florestas. Percebe-se também que um mesmo tipo de vegetação pode apresentar tons de
cinza diferentes, como é o caso da pastagem que apresenta tons de cinza médio mais
escuro e outro mais claro. Por esta razão, não se deve nunca utilizar apenas a tonalidade
como critério de separação entre dois temas observados nas fotografias aéreas.
As gradações de cinza numa fotografia dependem: das características da emulsão, do
processamento fotográfico, das propriedades físico-químicas dos alvos fotografados, das
condições de iluminação/topografia e atmosfera. Assim, a latitude, mês e hora são variáveis
que interferem na qualidade das informações contidas nas fotografias. Devido a esses
fatores, é importante deixar claro que haverá mudanças na tonalidade da fotografia, porém
isso não quer dizer que se um alvo é branco torna-se escuro enquanto outros permanecerão
inalterados. A mudança ocorre na cena toda e, geralmente, numa gradação suave.
A cor é muito empregada no lugar da tonalidade, porque nossos olhos estão mais
habituados a enxergar objetos coloridos do que objetos em tons de cinza.
Na fotointerpretação a cor é usada como parâmetro para discernir tipos diferentes de
vegetação ou estádio de desenvolvimento de uma determinada espécie, principalmente
quando se trata de áreas agrícolas. Em fotografias aéreas coloridas normais, o verde mais
escuro significa maior quantidade de vegetação. Áreas desnudas ou com pouca vegetação,
geralmente, apresentam cores avermelhadas ou um verde-avermelhado, em razão da
contribuição do solo de fundo.
Em fotografias coloridas pode-se perceber que áreas com vegetação mais densa
apresentam-se em cor verde mais escura, como no caso das áreas agrícolas. À medida que
a vegetação vai se tornando menos densa, como é o caso da pastagem, nota-se que há
uma mistura de cor verde e vermelho-amarela. Nas áreas preparadas para o plantio é
evidente a cor do solo, que nesta região, é apresentado por uma coloração vermelho-
amarela.
Essas diferenças da energia refletida estão relacionadas com: idade da planta, número
de planta por área de solo, tipo de vegetação, quantidade de folhas, sanidade da planta,
entre outras.
Com o desenvolvimento do filme "infravermelho colorido", também chamado de
"infravermelho falsa cor", houve um impulso muito grande de sua utilização no mapeamento
de áreas vegetadas. A grande vantagem do uso de fotografias infravermelhas falsa cor, em
relação às coloridas normais, reside no fato de que elas contêm informações sobre a
radiação eletromagnética da região do infravermelho próximo. Como a vegetação reflete
mais esta radiação, torna-se mais fácil identificar tipos diferentes de vegetação que
aparentemente são muito semelhantes nas fotos aéreas coloridas normais. As diferenças
observadas no matiz do magenta, numa fotografia infravermelha falsa cor, podem estar
relacionadas a diversos fatores tais como: tipo de vegetação, espaçamento entre linhas de
plantio e entre pés, estado fenológico, estado fitossanitário, estresse hídrico, excesso de
umidade do solo, etc.

- Forma e Tamanho
O conhecimento da forma que um objeto apresenta no mundo real, é muito importante
para auxiliar o fotointérprete na sua identificação, quando observado numa fotografia aérea

Curso Técnico de Geodésia e Cartografia COTIL


71

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

ou numa imagem de satélite. Entretanto, é preciso ter em mente que só a forma do objeto,
muitas vezes não é suficiente para identificá-lo, porque outros alvos da superfície também
podem apresentar formas semelhantes. Em outras palavras, a forma é muito importante,
desde que esteja associada a outras características.
Em fotografias aéreas é comum utilizar, além da forma, o tamanho dos alvos como
critério de identificação. Por exemplo, áreas agrícolas têm formas regulares e bem definidas,
pois as culturas são plantadas em linhas. Todavia, o tamanho das áreas destinadas ao
plantio de horticultura é muito menor do que as áreas destinadas ao plantio de cana-de-
açúcar, arroz ou milho. Assim, o tamanho pode ser usado como um critério de separação
dessas diferentes culturas agrícolas.
Ainda sobre este aspecto, podemos citar o caso de duas áreas planas, sendo uma
plantada com reflorestamento e outra com café. A principal distinção entre elas diz respeito
a forma de plantio e tamanho dos talhões. Geralmente, áreas reflorestadas apresentam
uniformidade no tamanho dos talhões, o que não acontece com as áreas de café. Além
disso, nas áreas ocupadas com café facilmente percebe-se a presença do plantio em nível.
Os rios e córregos geralmente apresentam formas sinuosas. Para rios largos, além da
sinuosidade a largura da lâmina d' água é outro fator que distingue, por exemplo, o rio
principal de seus tributários. Em muitas situações, tanto o rio principal quanto os tributários
são bastante estreitos. Neste caso, a definição da drenagem quanto aos rios principais e
tributários é feita com base no comprimento da bacia hidrográfica.
As cidades, quando vistas numa fotografia área, apresentam formas reticuladas,
devido aos cruzamentos de suas avenidas e ruas.

- Textura
A textura, nas fotografias aéreas, é produzida através de agregamento de vários alvos
que na sua individualidade, não podem ser detectados. Em outras palavras, a textura pode
ser entendida como sendo o padrão de arranjo espacial dos elementos texturais. Elemento
textural é a menor feição contínua e homogênea distinguível em uma fotografia aérea,
porém passível de repetição, por exemplo, uma árvore. De acordo com a definição de
elemento textural é possível entender que a textura depende da escala e, no caso de
imagens de satélite, da resolução espacial. A textura varia de lisa a rugosa, dependendo das
características dos alvos, resolução espacial e escala.
A textura pode ser influenciada pelo efeito de sombreamento, como ocorre em áreas
com mata natural. As matas naturais possuem dosséis irregulares, devido às diferenças nos
tamanhos das árvores. As árvores maiores incidem sombreamento nas copas das árvores
menores e, consequentemente, a reflectância é menor (menor intensidade de luz que sai do
dossel). Quando a mata natural é observada na fotografia aérea, há sensação de
rugosidade na textura, que nada mais é do que a diferença na intensidade da luz refletida
pelas árvores mais altas e as mais baixas. Este é um dos critérios adotados para separar
áreas de mata natural de áreas reflorestadas, que apresentam uma textura mais lisa.

- Sombra
A sombra é outra característica importante que deve ser levada em consideração,
durante a fase de fotointerpretação, principalmente, no caso de interpretação de imagens de
satélites. A sombra, na maioria das vezes, dificulta a fotointerpretação, por que geralmente
omite a informação do tipo de ocupação do solo na região onde ela está sendo projetada. Às
vezes, a sombra deixa de ser um fator negativo e passa a ser positivo no auxilio para
separar diferentes tipos de vegetação. De modo geral, o relevo sempre provoca sombra do
lado oposto a incidência da luz solar e, com isto, nos locais onde há sombra, a incidência de
luz é muito baixa, consequentemente, pouca energia é refletida, fazendo com que estas
áreas apresentem-se em tons de cinza ou cores muito escuras, dificultando assim, a
identificação e a delimitação dos limites dos talhões dos diferentes alvos de ocupação do
solo.

Curso Técnico de Geodésia e Cartografia COTIL


72

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

6.5- Fotointerpretação Propriamente Dita


A metodologia para realizar a fotointerpretação, como dito anteriormente, depende
do objetivo a que se destinam os resultados obtidos. Por exemplo, se a utilização dos
resultados requer precisão de área, inicialmente as fotos devem passar por um processo de
retificação fotográfica, para equalizar a escala de trabalho.
Pode-se adotar duas abordagens de fotointerpretação: sem conhecimento de campo
e com conhecimento de campo.
No primeiro caso, é feita a individualização das áreas que apresentam diferentes
tonalidades ou cores dentro da área fotografada. Para realizar este processo, é sobreposto
às fotografias um papel transparente. Sobre esta base, são delimitados os limites dos
diferentes talhões e outras feições da área tais como rios, estradas, etc. Os talhões
delimitados recebem uma legenda diferenciada para cada tipo de feição observada nas
fotografias.
Após a interpretação é feito um mosaico da área de estudo que consiste em juntar os
resultados da interpretação feita em cada foto num resultado único (mapa), contendo a
distribuição espacial das diferentes feições observadas e delimitadas. Para a montagem
deste mosaico, geralmente utiliza-se somente a parte central das fotografias, ou área útil. A
legenda pode ser números, letras do alfabeto arábico ou qualquer outro símbolo,
preestabelecido.
Realizada a etapa de interpretação é feito um trabalho de campo, para
reconhecimento do tipo de ocupação do solo em cada uma das feições mapeadas. Nesta
etapa, geralmente, são visitadas algumas áreas (talhões) de cada feição mapeada e, com
base neste conhecimento, extrapola-se para as demais áreas do mapa que apresentam
mesmas características das áreas visitadas. Note bem, para realizar o trabalho de campo, é
importante que se faça uma análise criteriosa de todos os alvos que serão visitados no
campo, pois o retorno na área de estudo, para eliminar algumas dúvidas durante a
interpretação, às vezes é inviável.
Para o trabalho de campo, deve-se levar além do mapa preliminar da
fotointerpretação, um questionário de campo, para ser preenchido com informações
fornecidas pelo proprietário, a respeito das áreas visitadas.
Feito o trabalho de campo, o fotointérprete realiza uma segunda interpretação, para
rotular cada área individualizada, segundo a ocupação do solo, tendo como base, as
informações coletadas no campo.
O mapa obtido desta interpretação pode passar por um acabamento mais refinado
de desenho ou ser vetorizado no computador, para criar um arquivo digital onde é, então,
calculada a área de cada tema fotointerpretado.

Bibliografia consultada
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)

Curso Técnico de Geodésia e Cartografia COTIL


73

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:


Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
1995. 90p.

Exercícios propostos:
1- Qual a metodologia utilizada para analisar dados em nível suborbital?

2- O que é fotogrametria?

3- O que é estereoscopia?

4- O que é fotointerpretação?

5- Quais os tipos de câmeras fotográficas utilizadas em fotogrametria?

6- Descreva uma câmera fotográfica aérea.

7- Esquematize uma fotografia contendo marcas fiduciais, centro ótico e linha de vôo.

8- Como é o procedimento em tirar fotografias aéreas?

Curso Técnico de Geodésia e Cartografia COTIL


74

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

9- O que é estereopar?

10- Qual o recobrimento necessário para obter estereopar?

11- Aula prática: estereoscopia.


12- A que altura deveria voar um avião para que as fotografias fossem produzidas na escala
1:50000, usando-se uma máquina fotográfica com distância focal igual a 153 mm?

13- Um avião equipado com uma máquina fotográfica aérea com distância focal igual a
153mm, está fotografando a Terra a uma altura de 4320m acima da Terra. Qual será a
escala da fotografia?

14- Um carreador na fotografia aérea apresenta medida igual a 5cm. Sabendo-se que a
fotografia aérea está na escala 1:25000, qual é a medida desse carreador no terreno?

Curso Técnico de Geodésia e Cartografia COTIL


75

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

15- A medida de uma estrada em uma fotografia aérea é de 8cm. A mesma estrada foi
medida em um mapa e obteve 3cm. Sabendo que a fotografia aérea estava em uma
escala de 1:25000, pergunta-se:
a) qual era a escala do mapa

b) qual era a medida real da estrada no terreno.

16- Quais os aspectos a serem analisados a fim de obter a fotointerpretação?

17- O que significa a fotointerpretação propriamente dita?

Curso Técnico de Geodésia e Cartografia COTIL


76

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

18- Supondo um área de 300km x 240km, calcular o número de fotos aéreas para recobrir
toda a área, sabendo que a foto aérea está na escala 1/10.000, tamanho 23cm x 23cm.

19- Uma rodovida de 70km é vista em uma foto aérea com 35cm. Essa rodovia ocupa várias
fotos aéreas (23cm x 23cm cada), abrangendo uma área de 100km x 80km. Qual a
quantidade de fotos aéreas necessárias para abranger toda a área de interesse?

Curso Técnico de Geodésia e Cartografia COTIL


77

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

7- SATÉLITES E SENSORES ORBITAIS


7.1- Conceitos
A palavra satélite é de origem latina, derivada de satelles ou satellitis. Na literatura
portuguesa essa palavra é empregada para expressar:
1. Corpo que gravita em torno de um astro de massa preponderante (dominante), em
particular ao redor de um planeta.
2. Denominação das pedras que acompanham o diamante (agulha, fava, feijão-preto,
etc.).
3. Indivíduo que vive sob a dependência e proteção de outro (sentido figurado).
4. Individuo que é inteiramente devotado a outro, o acompanha em todos os
momentos e com ele se acumplica na prática de boas e más ações (sentido figurado).
5. Guarda-costa.
6. Construções anexas a uma estação aeroportuária que serve para embarque e
desembarque de viajantes e bagagens.
7. Cidades localizadas ao redor de metrópoles tais como: Diadema e Osasco (SP);
Planaltina e Guará I e II (DF); Betim (BH), etc.
8. País que depende de outro no plano político e/ou econômico.
9. Pessoas que passam informações sigilosas sobre atos irregulares exercidos por
outrem.
10. Engenhos construídos pelo homem que giram em torno da Terra ou de outros
planetas e/ou satélites naturais.
Embora a palavra satélite possa ser empregada para vários significados, nessa
revisão o seu emprego foi para caracterizar corpos celestes e engenhos produzidos pelo
homem.

7.2- Classificação
Os satélites podem ser classificados em duas categorias: os naturais e os artificiais.
Os satélites naturais são corpos celestes que orbitam um outro astro de massa maior.
Como exemplo, temos a Lua, satélite da Terra, as luas de Netuno, Phobos e Demos de
Marte, etc.
Os satélites artificiais são engenhos desenvolvidos pelo homem, que giram em torno
de planetas (dentre eles a Terra) ou até mesmo de um satélite natural.
O desenvolvimento de satélites artificiais teve inicio na década de 50, ou seja, a partir
da segunda metade do século XX, quando no ano de 1957, a impressa de todo mundo
anunciava que os Estados Unidos e a União Soviética iriam lançar os primeiros satélites
artificiais. Era o ano Geofísico Internacional.
O primeiro satélite artificial da Terra, o SPUTINIK I foi lançado no dia 4 de outubro de
1957, pela antiga União Soviética (URSS). Em fevereiro de 1958, os Estados Unidos
colocou em órbita da Terra o EXPLORER I.
Logo após o sucesso dessas experiências, imediatamente, o homem colocou satélites
artificiais em órbita de quatro outros astros do sistema solar: O próprio Sol (primeiro
engenho satelizado: Luna I, em 1959); a Lua ( Luna X, em 1966); Marte (Marine IX, em
1971) e Vênus (Venua IX, em 1975).
A trajetória do satélite em torno do astro, natural ou artificial, é denominada de órbita.
No caso dos satélites artificiais (Figura 40), a órbita é definida em função de diversos
parâmetros, entre eles têm-se:
- Raio de inclinação.
- Inclinação do plano da órbita
- Período de revolução, etc.

Curso Técnico de Geodésia e Cartografia COTIL


78

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Fig. 40 – Esquema mostrando um satélite em órbita da Terra e a área imageada pelos


sensores a bordo.
O número de revoluções diárias, isto é, quantas vezes o satélite gira em torno da Terra
em um (1) dia é importante porque define a altitude que o satélite deverá ser colocado em
órbita. Por exemplo, a órbita de 35.800 a 36.000 Km de altitude desempenha um papel
particular. Todos os satélites colocados a esta altitude gastam, para dar uma volta em torno
da Terra, 23h 56 min., que é igual ao período de rotação da Terra. Neste caso, a órbita é
denominada geossíncrona. Se o plano da órbita confundir com o do equador, o satélite
parecerá imóvel a um observador terrestre, sendo então chamado de geoestacionário.

7.3- Categoria
Nesta publicação os satélites artificiais são agrupados em categorias, de acordo com
os objetivos principais a que foram concebidos. Dentro dessa concepção, existem os
satélites militares, os científicos, os de comunicações, os meteorológicos e os de recursos
naturais ou de observação da Terra.

7.3.1- Satélites Militares


Na década de 50 foram lançados os primeiros satélites militares com o objetivo de
efetuar o reconhecimento fotográfico do território inimigo. As duas grandes potências
(Estados Unidos da América e a Antiga União Soviética) desenvolviam e testavam os
foguetes ICBMs (Intercontinental Balistical Missiles) capazes de carregar ogivas nucleares.
Os norte-americanos ativaram seu projeto ultra-secreto KH-1, que contava com os satélites
Discoverer (o Discoverer 1 foi lançado em 28 de fevereiro de 1959). Em 18 de agosto de
1960 o satélite Discoverer 14 subiu equipado com a primeira câmara fotográfica Corona. Em
11 de dezembro de 1961, os soviéticos tentaram lançar, sem sucesso, o satélite espião
Zenit 1. No dia seguinte (12 de dezembro), os americanos lançaram o Discoverer 36, que já
fazia parte do projeto KH-3.
Segundo consta na literatura, cerca de 75% dos satélites lançados a partir de 1957,
tem finalidades militares.
Outro exemplo de satélite militar, muito utilizado hoje em dia pela sociedade civil, é o
satélite de posicionamento global. Na realidade, consiste de uma constelação de 24 satélites

Curso Técnico de Geodésia e Cartografia COTIL


79

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

militares americanos que fornecem coordenadas acuradas de localização geográfica aos


portadores de terminais manuais com antenas para captar o sinal dos satélites (Global
Positioning System –GPS).
Os satélites militares são desenvolvidos com objetivo de telecomunicação,
observação, alerta avançado, ajuda à navegação e reconhecimento. Em função do objetivo
a que foi concebido, ele girará em órbita da Terra a uma determinada altitude. Assim, eles
são categorizados em função da órbita em:

-Satélites de órbita baixa (180 a 1000 km de altura):


São satélites cujas órbitas são muito inclinadas ou quase polares (de 180 a 1000 km
de altura). Nesta órbita tem-se os satélites de escuta, os de reconhecimento por radar e os
de reconhecimento óptico.
Os americanos dispõem, para este fim, de satélites fotográficos, como o Big Bird que
permitem identificar objetos com poucos centímetros (altíssima resolução espacial) e de
satélites denominados Key Hole. Esses com uma varredura igual à da televisão, isto é,
procedem à análise das zonas observadas e retransmitem as informações em tempo real.

- Satélites de órbitas Geoestacionária (36.000 km de altura):


Nesta órbita, os satélites militares são utilizados para fins de comunicação.
Além destas duas altitudes tem-se, também, uma terceira categoria de satélites que
gira em torno da Terra em órbitas intermediária. São os chamados satélites de período de
12 horas. São satélites colocados em órbita a uma altitude de 20.000 km da Terra. Nesta
órbita os satélites gastam 12 horas para dar uma volta em torno da Terra. Esta altitude é a
utilizada pelos satélites de navegação que permitem às aeronaves e embarcações disporem
de informações relativas a suas posições e velocidades. Os satélites de navegação operam
na faixa de onda de rádio.

7.3.2- Satélites Científicos


Os satélites científicos são assim chamados, porque eles foram desenvolvidos com o
propósito de auxiliar o homem na busca dessas informações. Desta forma, eles são
concebidos dentro de dois pontos de vista: um voltado à coleta de dados sobre a Terra
(atmosfera, oceano e parte sólida) e outro voltado a explorar o Universo (satélites
interplanetários).
Os satélites voltados à coleta de dados sobre a Terra e o ambiente, ou seja, os
satélites empregados para coleta de dados sobre fenômenos físicos, químicos, biológicos da
superfície da Terra e da atmosfera, geralmente são de órbita baixa (poucas centenas de
quilômetros de altitude).
Ás vezes, um satélite é desenvolvido para um outro objetivo, porém pode servir para
fins científicos, como é o caso do satélite NOAA que é meteorológico, mas que possui um
dispositivo a bordo, o Argos que recebe informações de sensores colocados em bóias
marítimas e retransmite essas informações para estações terrenas.
No Brasil foi criado o Projeto de Satélites de Aplicações Científicas, denominados
SACIs, concebido pelo INPE, a quem cabe a responsabilidade pelo seu desenvolvimento,
fabricação e teste (Figura 44).

Curso Técnico de Geodésia e Cartografia COTIL


80

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Fig. 44 – Satélite SACI – 1.


FONTE: http://www.cnpm.embrapa.br/satelite/saci.html.12

Os satélites SACIs são de pequeno porte e baixo custo, utilizados para missões de
curta duração, que oferecem à comunidade acadêmica a oportunidade de realizar em
ambiente orbital, experimentos científicos. Os objetivos do projeto SACI foram:
- Promover o avanço da Ciência utilizando os meios espaciais a um custo moderado;
- Testar novos conceitos e soluções tecnológicas sob condição de risco limitado;
- Fortalecer e aumentar a contingente cooperação científica e tecnológica, nacional e
internacional, intensificando a cooperação em ambiente propício ao intercâmbio de
informações científicas e tecnológicas;
- Intensificar o entrosamento entre os Institutos de Pesquisa e as Universidades,
envolvendo novos grupos universitários nas atividades espaciais brasileiras;
- Difundir nas Universidades e Institutos de Pesquisa brasileiros, a engenharia e
tecnologia espacial através do desenvolvimento de seus equipamentos, partes e materiais,
bem como acionar os seus mecanismos de transferência de tecnologia para a Indústria;
- Consolidar a tecnologia já gerada no Brasil na área espacial, através do uso
continuado, dirigindo-a para a minimização dos custos.
O satélite científico SACI-1 possui as seguintes características:
- Dimensões: 570 x 440 x 440 mm
- Altitude: 750 km
Apesar do satélite ter sido colocado em órbita da Terra com sucesso, ele não chegou
a entrar em operação devido a uma falha no sistema de controle do painel solar.
O segundo satélite da série, o SACI-2 foi abortado pelo presidente Fernando Henrique
Cardoso.

7.3.3- Satélites de Telecomunicações


São satélites utilizados na transmissão mundial de informações telefônicas e
televisivas. Os satélites de comunicações foram os primeiros e são hoje os mais sólidos em
termos de uso comercial do espaço. Essa tecnologia gera mais de 3 bilhões de dólares
anuais. Os satélites de comunicação podem ter acessos múltiplos, isto é, servir
simultaneamente a diversas estações terrestres de localidades ou mesmo de países
diferentes.
Em 10 de julho de 1962 uma malha de 170 satélites, denominados TELSTAR foi
colocada no espaço em órbita da Terra, pela National Aeronautics and Space Administration
(NASA). O TELSTAR 1, o primeiro satélite mundial construído e financiado por uma indústria

Curso Técnico de Geodésia e Cartografia COTIL


81

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

privada, lançou uma revolução na telecomunicação, marcando assim, o início do comércio


espacial. O TELSTAR foi designado e desenvolvido pelo Laboratório Telefônico AT&T’s Bell
para demonstrar o conceito de que um objeto orbitando a Terra poderia, ativamente, enviar
sinais de um ponto da terra para outro.
Além dos EUA outros países mantêm programas de satélites de telecomunicação: a
URSS (programa Molnia e organização Intersputinik); o Canadá, a Índia; a Indonésia, a
Arábia Saudita, países europeus (ESA); o Brasil (Brasilsat), etc. Todos esses programas são
regulamentados pelos seus Países, dentro dos critérios estabelecidos pela União
Internacional de Telecomunicações (UIT).
As telecomunicações compreendem o serviço fixo por satélite (ponto a ponto), entre
estações fixas na Terra, a exceção do Inmarsat que introduziu o serviço móvel por satélite,
com estações instaladas em navios, aviões e veículos terrestres.
Os sistemas móveis de comunicações pessoais por satélites (telefone celulares) são
operados por satélites que giram em torno da Terra, em duas altitudes. Os de órbitas baixas
(400 a 1500 km) e os de órbitas médias (10.000 a 20.000 km) acima da superfície da Terra.
Esses satélites são de propriedade de empresas privadas porém regulamentados pelo
Estado, nos marcos da UIT.
As principais diferenças entre os dois sistemas são:
a) no serviço fixo de comunicações por satélites efetua-se entre estações, inclusive
quando um deles é móvel.
b) no serviço móvel de comunicações por satélites tem sempre, numa ponta, um
aparelho pessoal, e, na outra ponta, pode ter outro aparelho pessoal ou uma estação.
c) no serviço fixo de comunicações por satélite usa órbita geoestacionária e um ou
alguns satélites.
d) no serviço móvel de comunicações por satélites, produto do avanço tecnológico dos
últimos dez anos, usa órbitas baixas e médias, e constelações de satélites, conforme são
exemplificados no Quadro 6.

Quadro 6- Número de satélites em cada constelação


Sistema Número de satélites Órbita (km)
Iridium 66 756
Globalsat 48 1400
Odyssey (TWR) 12 10.354
Ico (Inmarsat P) 12 10.354

Uma estação terrena de comunicações por satélites é um complexo de instalações e


equipamentos destinados a estabelecer comunicações com satélites. Por exemplo, a
estação terrena da Embratel, localizada no Município de Itaboraí, RJ. Esta estação foi
longamente responsável pelas comunicações do Brasil com o mundo, através do Sistema
Intersat e outros. Já a estação terrena de Guaratiba, RJ, da Embratel, é o centro de controle
de posição orbital servindo ao sistema brasileiro de telecomunicações via-satélite – SBTS.
Um centro de controle de posição orbital é um conjunto de instalações, equipamentos
e demais meios de telecomunicações destinados ao rastreio, telemetria, controle e
monitoramento de satélites de telecomunicações.
Para o estabelecimento de um enlace (Link) em visada direta entre uma estação da
Terra e um satélite, utilizam-se freqüências na faixa de microondas.
A UIT (com sede em Genebra – Suíça) é quem coordena a distribuição de freqüências
para telecomunicações. Essa organização estabeleceu algumas faixas de freqüências para
serem utilizados universalmente para as transmissões por satélites, com fins militares,
comerciais e exploratórios do espaço. Aquelas freqüências para fins comerciais são as
utilizadas pela TV satélite.
De acordo com o convencionado pela UIT, são três as regiões operacionais de
cobertura pelos satélites de telecomunicações:
- REGIÃO 1 – compreende a África, a Europa, os países a leste da Europa até
a Sibéria.

Curso Técnico de Geodésia e Cartografia COTIL


82

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

- REGIÃO 2 – Todas as três Américas


- REGIÃO 3 – Compreende a Índia, a Ásia e a Oceania.
Para cobrir a região do Oceano Atlântico (parte da região 2), a qual insere o Brasil,
temos às seguintes empresas:
- Sistema INTELSAT – os satélites Intelsat resultam de um empreendimento
internacional de cerca de 130 países que possuem ou operam mais de 30 satélites da série.
É o mais abrangente sistema de comunicações comercial do mundo.
- Sistema INTERSPUTINIK – Russo, operando com satélites da série Gorizont,
Raduga e outros. Destaca-se no front privado os satélites da série Panmsat.
- Na área governamental, tem-se diversos satélites domésticos, dentre os quais se
destacam os da série Brasilsat, em operação o Brasilsat B1 e B2.

7.3.4- Satélites Meteorológicos


O primeiro satélite meteorológico colocado em órbita da Terra foi o TIROS 1, de
origem americana e lançado a 1 de abril de 1960. Eles são equipados com radiômetros
infravermelhos que lhes permitem operar mesmo sobre a face escura da Terra. Além da
função de coletar dados meteorológicos, esses satélites são ainda utilizados para
comunicar, através de radielétrico, com uma série de plataformas (balões, bóias, balizas,
etc) encarregadas de coletarem dados de parâmetros meteorológicos na alta atmosfera, no
mar e em regiões continentais tais como: pressão atmosférica, temperatura, velocidade dos
ventos, etc. Os dados registrados por essas plataformas são enviados ao satélite e
retransmitidos para estações de recepção na Terra.
Após o lançamento do TIROS-1, muitos outros satélites foram colocados em órbita da
Terra, em órbitas geoestacionárias ou em órbitas baixas (polar ou equatorial), formando
verdadeiras constelações desses satélites, conforme é ilustrado na Figura 45.

Figura 45 - Constelação de satélites Meteorológicos em torno da Terra.


FONTE: http://www.labvis.unam.mx/labvis/Estacio.html

Curso Técnico de Geodésia e Cartografia COTIL


83

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Na categoria de satélites de órbitas baixas (polar ou equatorial) tem-se, por exemplo


os satélites NOAA e QuikSCART (EUA); Meteor (Rússia) ; FY-1 (China), o Satélite de Coleta
de Dados - SCD (Brasil), etc.
Na categoria de satélites geoestacionários podemos citar, como exemplo, os satélites
GOES (EUA); Meteosat (EUMETSAT), GMS (Japão), FY-2B (China); GOMS (Rússia) e o
INSAT (Índia), etc.

7.3.5- Satélites de Observação da Terra ou de Recursos Naturais.


O estudo da viabilidade do uso de sensores a bordo de satélites artificiais para coleta
de dados sobre a superfície terrestre, para fins de levantamentos dos recursos naturais
renováveis e não renováveis foi, na primeira fase, realizada por equipamentos colocados em
plataformas tripuladas.
Neste contexto, a primeira plataforma tripulada que obteve fotografias da superfície
terrestre foi o satélite Mercury no ano de 1961. As fotografias obtidas nesta missão
mostraram grande potencial de aplicações no reconhecimento de recursos terrestres
(NOVO, 1989).
Durante as missões da série Gemini foi solicitado aos astronautas que tirassem
fotografias de áreas de interesse da superfície terrestre.
Ainda segundo os relatos de Novo (1989), o primeiro experimento formal, visando a
utilização de sensores para levantamento terrestres, foi realizado em 1967 quando se tinha
em mente obter fotografias coloridas por meio de câmeras a bordo da espaçonave Apollo 6.
No ano de 1973, a NASA lançou um importante programa de Sensoriamento Remoto
a bordo da estação espacial Skylab. Através de um conjunto de experimentos em
sensoriamento remoto conhecido como EREP (Earth Resources Experiment Package) foi
possível coletar dados através de diferentes sistemas sensores: três tipos de câmeras
fotográficas, um espectrômetro infravermelho, um imegeador multiespectral com 13 canais,
um radiômetro-escaterômetro de microondas e um radiômetro na banda L (200 mm).
A análise de dados multiespectrais obtidos durante a Missão Apollo 9 fortaleceu o
desenvolvimento do programa ERTS, mais tarde rebatizado por LANDSAT.
No ano de 1972 os americanos lançam o primeiro satélite de recurso naturais, o
ERTS-1, iniciando assim, a era dos satélites não-tripulados desenvolvidos exclusivamente
para coleta de dados sobre os recursos terrestres.

Observar o site www.sat.cnpm.embrapa.br/texto/satelite.html e


www.sat.cnpm.embrapa.br/texto/sensor.html e www.sat.cnpm.embrapa.br/texto/pais.html

7.3.5.1 – Satélites com Sistemas Sensores Passivos

Entre os satélites de observação de recursos terrestres, com sistemas sensores


passivos, podem ser citados o LANDSAT, SPOT, IKONOS, CBERS, entre outros.
Segue em anexo, material referente a esse assunto.

7.3.5.2 – Satélites com Sistemas Sensores Ativos


O Radar (“RAdio Detection And Ranging”) é um sistema sensor ativo que opera na
faixa espectral de radio ou de microondas. O princípio de funcionamento do radar consiste
na emissão de pulso de microondas e registro do sinal de retorno. O registro da energia
refletida, após a interação do sinal com os alvos da superfície terrestre, contém duas
grandezas distintas: o tempo de retorno e a intensidade do sinal.
O tempo de retorno refere-se diretamente à distância entre o alvo e a fonte (antena)
emissora. Este parâmetro foi e está sendo largamente utilizado para mensuração de
distância e azimute em radares convencionais, por exemplo, na determinação e
posicionamento de aeronaves em aeroportos e em espaços aéreos determinados.

Curso Técnico de Geodésia e Cartografia COTIL


84

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

A intensidade do sinal está intimamente relacionada ao sensoriamento remoto. Neste


caso, o sinal é associado a um nível de cinza registrado na imagem, que por sua vez, é
proporcional à intensidade do sinal recebido na antena.
No Quadro 21contém informação sobre a utilização das faixas espectrais em sistemas
sensores ativos.
Quadro 21 – FAIXAS ESPECTRAIS E SUAS UTILIZAÇÕES EM SATÉLITES COM
SENSORES ATIVOS

Comprimento de onda (cm) Freqüência (MHz) Utilização mais comum


0,75 – 1,10 40000 – 26500 Comunicações
1,10 – 1,67 26500 – 18000 Comunicações
1,67 – 2,40 18000 – 12500 Comunicações e Radares de
espaço aéreo
2,40 – 3,75 12500 – 8000 Radares de espaço aéreo e
sensoriamento remoto
3,75 – 7,50 8000 – 4000 Sensoriamento remoto
7,50 – 15 4000 – 2000 Transponder de satélites de
comunicação
15 – 30 2000 – 1000 Sensoriamento remoto, GPS
30 – 100 1000 - 300 Sensoriamento remoto

Como representantes dos sistemas de sensores ativos orbitais (Sistema de Radar)


temos o RADARSAT-1, o JERS-1 e o ERS-1.

Bibliografia consultada:
Este capítulo foi totalmente extraído do Complemento do Livro “Fundamentos do
Sensoriamento Remoto e Metodologia de Aplicação”. Capturado em
www.ltid.inpe.br/dsr/mauricio/satelites.pdf
Exercícios propostos:

1- Consultar o site www.sat.cnpm.embrapa.br/texto/sensor.html


2- O que são satélites?
3- O que são sensores?
4- Faça um esquema classificando os satélites.
5- Fazer uma pesquisa dos principais tipos de satélites existentes atualmente e quais são
suas finalidades.

Fazer pesquisa e apresentar um seminário dos seguintes satélites : NOAA, LANDSAT,


IKONOS, SPOT, CBERS e QUICK BIRD. O trabalho deve apresentar os seguintes itens:
a. O que é o Satélite ____?
- País (empresa) de domínio.
- Figura do satélite.

b. Classificação/Categoria do Satélite ____. Classificação dos sensores.

c. Sensores presentes no Satélite ____(falar do satélite atual e do mais relevante).

d. Características dos sensores do Satélite ____?


a. Resolução espacial.
b. Resolução espectral.
c. Resolução radiométrica.
d. Resolução temporal.
e. Área imageada.
f. Altitude do satélite.

Curso Técnico de Geodésia e Cartografia COTIL


85

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

g. Aplicações das imagens do Satélite ____.

h. Como adquirir imagens do Satélite ____?

i. Quanto custa imagens do Satélite ____?

j. Exemplos de imagens do Satélite ____.

Curso Técnico de Geodésia e Cartografia COTIL


86

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

8-COMPORTAMENTO ESPECTRAL DOS MATERIAIS


Para que possamos extrair informações a partir de dados de sensoriamento remoto, é
fundamental o conhecimento do comportamento espectral dos objetos da superfície terrestre
e dos fatores que interferem neste comportamento.
O conhecimento do comportamento de alvos não é importante somente para a
extração de informações de imagens obtidas pelos sensores, é também importante na
própria definição de novos sensores, na definição do tipo de pré-processamento a que
devem ser submetidos os dados brutos ou mesmo na definição da forma de aquisição dos
dados.
Quando selecionamos, por exemplo, a melhor combinação de bandas espectrais, para
uma composição colorida, temos que conhecer o comportamento espectral do alvo de nosso
interesse. Sem conhecê-lo, corremos o risco desprezar faixas espectrais de grande
significância na sua discriminação.
Os solos, a vegetação, a água serão alguns materiais ou alvos de interesse que serão
estudados, verificando a interação deles com a radiação solar.

8.1. Solos e a interação com a radiação solar


O solo pode ser definido como um corpo natural da superfície terrestre que tem
propriedades devido aos efeitos integrados do clima, dos organismos vivos (plantas e
animais) sobre o material de origem, condicionado pelo relevo durante um período de
tempo.
O pouco conhecimento dessa camada superficial da crosta terrestre e o manejo
inadequado fizeram com que solos produtivos passassem a improdutivos ou até verdadeiros
desertos. Assim, surgiu o interesse do homem em conhecer mais detalhadamente os tipos
de solos e suas distribuições geográficas para se ter um controle mais efetivo das terras,
aplicando técnicas adequadas a cada solo para evitar o desgaste natural. Desde então,
muitas ferramentas têm sido usadas para o mapeamento dos solos em todo mundo.
Uma das ferramentas utilizadas para fazer o levantamento e reconhecimento dos
solos é o sensoriamento remoto que, a partir de 1972, com o lançamento dos sistemas
sensores para coleta de informações sobre recursos naturais, tem realizado muitas
pesquisas na área de solo, para atender a esses objetivos. A grande vantagem do uso de
sensoriamento remoto orbital é que essas informações são obtidas periodicamente, de
modo que, constantemente, pode-se fazer uma adequação dos resultados obtidos em datas
anteriores. Outra vantagem na utilização de dados coletados por sensores remotos orbitais
diz respeito à visão ampla da área de estudo e à maior facilidade de fazer o levantamento e
o acompanhamento do uso do solo em áreas de difícil acesso.
Devido a essa diversidade nos tipos de solos fica evidente a importância de se ter o
conhecimento básico do solo e de suas propriedades, em qualquer tentativa do emprego
das técnicas de sensoriamento remoto nos estudos sobre o meio ambiente, uma vez que ele
é um dos substratos (superfície de fundo) de maior importância para os objetos da superfície
terrestre estudados com auxílio de sensores remotos.

8.1.1. Parâmetros que influenciam a reflectância do solo


Os parâmetros do solo que influenciam na radiação refletida (reflectância) pela
superfície são vários, porém, a literatura cita como mais importantes: os óxidos de ferro, a
umidade, a matéria orgânica, a granulometria, a mineralogia da argila e o material de
origem. Além desses fatores, têm sido citados: a cor do solo, a capacidade de troca de
catiônica, as condições de drenagem interna do solo, a temperatura, a localização, etc.
A rigor, a quantidade de energia refletida por um determinado tipo de solo é função de
todos esses fatores que, conjuntamente, se encontram no solo. Em determinadas condições
a influência de um parâmetro, na energia refletida pelo solo, supera a dos outros,
resultando, assim, num espectro característico daquele parâmetro.

Curso Técnico de Geodésia e Cartografia COTIL


87

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

8.1.1.1. Óxidos de ferro


O óxido de ferro é um elemento muito importante do ponto de vista do sensoriamento
remoto, por absorver bastante a radiação eletromagnética na região do infravermelho
próximo, tendo o seu pico máximo de absorção perto de 900nm.
Os óxidos de ferro, dependendo do tipo e da quantidade relativa, influenciam a cor dos
solos, isto é, dão aos solos a cor correspondente ao óxido. Por exemplo, solos que contêm
quantidades apreciáveis de ilmenita apresentam coloração amarelo-clara, porque é a cor
manifestada pela ilmenita. Solos ricos em hematita são de coloração vermelha, por causa da
cor da hematita.
No contexto de sensoriamento remoto, a reflectância espectral de solos pode ser
usada como um critério importante na identificação de solos que contêm diferentes óxidos
de ferro. Em geral, os óxidos de ferro absorvem bastante a energia eletromagnética da
região do infravermelho próximo (com máximo de absorção em torno de 900nm). A
quantidade de energia absorvida depende da quantidade do óxido de ferro. Assim, para
solos contendo maiores teores de óxidos de ferro, como os Latossolos Ferríferos e os
Latossolos Roxos, os espectros de energia refletida, principalmente, na região do
infravermelho próximo, são bastante atenuados em razão da presença do óxido de ferro,
que sobrepuja as influências dos demais parâmetros do solo.
De acordo com a descrição das classes, o Latossolo Ferrífero e o Latossolo Roxo
possuem altos teores de óxido de ferro e coloração bastante semelhantes. Isto em termos
de resposta espectral pode ser um fator complicativo, devido às altas percentagens de
óxidos de ferro. Entretanto, espera-se que o Latossolo Ferrífero tenha um espectro de
absorção maior do que o Latossolo Roxo, por apresentar maior percentual de óxido de ferro.
Porém, é preciso estar atento à amplitude de variação do óxido de ferro que é muito grande,
podendo ocorrer casos em que os dois tipos de solos apresentem valores semelhantes.
Os sesquióxidos, típicos de regiões intensamente intemperizadas como os trópicos,
apresentam espectros de reflectância dominados por feições devidas ao ferro. A hematita,
limonita e goetita, constituintes dos solos tropicais, apresentam bandas de absorção bem
definidas próximas de 900nm. Entretanto, quando no solo há presença de magnetita em
geral, ocorrem baixas reflectâncias no visível, no infravermelho próximo e médio, sem
feições de absorção.
Para ilustrar o que foi dito nos dois últimos parágrafos, a respeito de variação dos
teores de óxido de ferro, em diferentes tipos de solos, no Quadro 22, estão contidas as
percentagens de óxidos de ferro (Fe2O3) obtidas em amostras de diferentes solos do Estado
de São Paulo e nas Figuras 61 e 62 são mostrados as curvas de reflectância obtidas para
estas amostras nos horizontes A e E.
Quadro 22 – Classes de solo do Estado de São Paulo e porcentagens de óxido de
ferro (Fe2O3).
N Classe de solo Teor de Fe2O3
Horizonte A Horizonte B
1 Latossolo Roxo (LR) 21,3 23,5
2 Latossolo Vermelho-Escuro (LE) 8,3 9,6
3 Latossolo Vermelho-Amarelo (LA) 5,9 8,1
4 Latossolo Uma (LU) 7,0 9,3
5 Latossolo Húmico (LH) 3,6 4,4
6 Podzólico Vermelho-Amarelo (PA) 0,3 1,0
7 Podzólico Vermelho-Escuro (PE) 3,6 5,9
8 Terra Roxa Estruturada (TE) 25,6 23,4
9 Cambissolo (Cb) 2,1 2,1

Curso Técnico de Geodésia e Cartografia COTIL


88

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 61– Curvas de reflectância do horizonte A, para os solos contidos no Quadro


22.

Figura 62 – Curvas de reflectância do horizonte B, para os solos contidos no Quadro


22.
A seguir, foram agrupados curvas espectrais, de amostras de diferentes tipos de solos
de uma mesma classe, para se ter uma idéia da variabilidade dessas curvas em função da
percentagem de óxidos de ferro, conforme são mostrados nas Figuras 63 a 82. Os valores
das porcentagens de óxido de ferro, de carbono orgânico e de argila são mostrados nos
Quadros 23 a 27.
Quadro 23 – Porcentagens de FE2O3, carbono orgânico (C) e argila no horizonte
superficial de seis solos de classe Latossolo Vermelho-Escuro (LE), do Estado de São Paulo.
Solo Fe2O3 (%) C(%) Argila (%)
1 8,3 2,4 60
2 6,8 1,7 37
3 10,4 1,1 41
4 11,3 1,8 46
5 5,5 0,8 21
6 2,7 0,7 19

Curso Técnico de Geodésia e Cartografia COTIL


89

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 63 – Curvas espectrais para diferentes amostras de solos Latossolos Vermelho-


Escuros descritos no Quadro 23.

Quadro 24 – Porcentagens de FE2O3, carbono orgânico (C) e argila no horizonte


superficial de quatro solos da classe Latossolo Vermelho-Amarelo (LA), do Estado de São
Paulo.
Solo Fe2O3 (%) C(%) Argila (%)
1 5,9 5,1 70
2 5,3 1,0 31
3 2,1 1,2 14
4 7,1 1,2 30

Figura 64 – Curvas espectrais para diferentes amostras de solos Latossolos Vermelho-


Amarelo descritos no Quadro 24.
Quadro 25 – Porcentagens de FE2O3, carbono orgânico (C) e argila no horizonte
superficial de quatro solos da classe Latossolo Una (LU), do Estado de São Paulo.
Solo Fe2O3 (%) C(%) Argila (%)
1 18,9 3,0 58
2 7,0 1,8 30
3 13,9 55,0 52
4 4,3 1,0 23

Curso Técnico de Geodésia e Cartografia COTIL


90

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 65 – Curvas espectrais para diferentes amostras de solos Latossolos Una


descritos no Quadro 25.
Quadro 26 – Porcentagens de FE2O3, carbono orgânico (C) e argila no horizonte
superficial de quatro solos da classe Terra Roxa Estruturada (TE), do Estado de São Paulo.
Solo Fe2O3 (%) C(%) Argila (%)
1 25,6 1,8 48
2 17,8 1,9 40

Figura 66 – Curvas espectrais para diferentes amostras de solos Terra Roxa


Estruturada descritos no Quadro 26.

Observe na Figura 66 que as curvas espectrais das duas amostras de Terra Roxa
Estruturada não apresentam diferenças marcantes ao longo do espectro, embora
apresentem diferenças bastante significativas nos teores de óxido de ferro. É interessante
observar que, em termos de teor de carbono orgânico e de argila, as duas amostras também
são muito semelhantes.
As curvas espectrais obtidas para as duas amostras de solo da classe Areia
Quartzosa, conforme são mostradas na Figura 67, denotam diferenças marcantes nas
reflectâncias na região do infravermelho próximo, que não são devidas ao óxido de ferro,
pois ambas apresentaram o mesmo valor deste mineral (Quadro 27). Entretanto,
observando os valores do carbono orgânico, conclui-se que esta diferença nas curvas
espectrais, para esta região do espectro eletromagnético, está relacionada ao teor de
carbono que é também um elemento que absorve a radiação no infravermelho próximo.

Curso Técnico de Geodésia e Cartografia COTIL


91

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Quadro 27 – Porcentagens de FE2O3, carbono orgânico (C) e argila no horizonte


superficial de dois solos da classe Areia Quartzosa (AQ).
Solo Fe2O3 (%) C(%) Argila (%)
1 1,1 0,5 6
2 1,1 0,4 9

Figura 67 – Curvas espectrais para diferentes amostras de solos Areia Quartzosa


(AQ), descritos no Quadro 27.

Conforme foi comentado anteriormente, observando os valores do óxido de ferro, em


todas as amostras, observa-se desde o Quadro 23 até 27, que a porcentagem de Fe2O3
variou de uma amostra para outra, nas diferentes classes de solos, a exceção da classe
Areia Quartzosa. Isto, para sensoriamento remoto, não deixa de ser um fator complicativo
na resposta espectral destes alvos quando observados nos dados de satélites. Essas
variações decorrem de fatores ambientais.

8.1.1.2. Matéria Orgânica


A composição e o conteúdo de matéria orgânica no solo são reconhecidamente
fatores de forte influência sobre a reflectância dos solos. À medida que o teor de matéria
orgânica aumenta, a reflectância do solo decresce no intervalo de comprimento de onda de
400 a 2500nm.
Quando o teor de matéria orgânica no solo excede a 2,0%, ela desempenha um papel
importante na determinação das propriedades espectrais do solo. Quando o teor é menor do
que 2.0%, outros constituintes do solo passam a ser mais influentes no comportamento
espectral do solo do que a matéria orgânica.
Na Figura 68 são mostradas três curvas espectrais, obtidas de solos com materiais
orgânicos em diferentes estágios de decomposição; ou seja, materiais sápricos (altamente
decompostos), materiais hêmicos (moderadamente decompostos) e materiais fíbricos
(fracamente decompostos).

Curso Técnico de Geodésia e Cartografia COTIL


92

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 68 – Curvas de solos orgânicos com materiais sápricos, hêmicos e fíbricos.


Nota-se na Figura 83 que quanto mais decomposto o material orgânico, como no caso
dos sápricos, maior é a absorção de energia eletromagnética e, consequentemente, menor
é a reflectância nesta região espectral.
Os efeitos de diminuição de reflectância do solo pelo aumento do teor de matéria
orgânica podem estar associados também ao teor de argila, uma vez que deve existir uma
boa correlação entre os teores de argila e de matéria orgânica nos solos.
Saber a contribuição de cada constituinte orgânico na reflectância do solo, não está
muito bem esclarecido. Sabe-se apenas que eles influenciam a reflectância do solo em
diferentes graus.

8.1.1.3. Formação de Crosta Superficial.


Logo nas primeiras pesquisas sobre sensoriamento remoto em solos, foi possível
reconhecer a presença de formação de crostas superficiais em áreas desnudas, pela
diferença no comportamento espectral dessas áreas em relação às adjacentes do mesmo
tipo de solo. A formação de crosta faz com que solos úmidos apresentem um
comportamento espectral de solo seco. Solos com presença de crosta apresentam maiores
valores de reflectância na região espectral de 430 a 730nm, em relação àqueles cujas
crostas foram desfeitas. Este fato foi mais tarde evidenciado nos estudos sobre identificação
e mapeamento de solo preparado para plantio, na região de Ribeirão Preto, SP. Em seus
estudos os autores utilizaram dados do MSS (Multispectral Scanner System) do Landsat,
bandas 6 e 7 (visível e infravermelho próximo) e fotografias aéreas falsa cor, escala
aproximada 1:20.000. Durante as fases de interpretação dos dados de satélite e de
fotografias aéreas, os autores notaram que certas áreas preparadas para plantio
apresentaram, nos dados do Landsat-3 (banda 4, região do visível) dois tons de cinza
bastante distintos: um bem escuro, proveniente da maior absorção da radiação nesta faixa,
pela presença de óxido de ferro e outro mais claro, embora fosse o mesmo solo. Após a
verificação de campo, constataram a presença de crostas no solo exatamente onde a
tonalidade de cinza era mais clara. Neste caso, a formação de crostas estava associada à
diferença de tempo entre o preparo do solo, nestas áreas, e o período de coleta dos dados
do satélite.
Por outro lado, durante o preparo do solo, principalmente no período de aração, é
comum a formação de torrões. Este fato gera sobre o solo uma certa rugosidade do terreno,
o que se pressupõe interferir na reflectância do mesmo. Essa rugosidade pode causar
efeitos tanto de espalhamento como de sombreamento. Os efeitos da rugosidade superficial
de um alfisol arenoso (composto de alumínio e ferro) na reflectância espectral sobrepujavam
aqueles devidos à umidade do solo. Além da rugosidade, a prática de aração quebra a
estrutura superficial do solo que, aumenta de 15 a 20% a reflectância dos solos em relação
àqueles com estrutura bem definida.

Curso Técnico de Geodésia e Cartografia COTIL


93

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

8.1.1.4. Umidade do Solo


Foi comentado anteriormente que, num solo ideal, a proporção de água gira em tomo
de 25%. É claro que, nas condições de campo, esta proporção é muito variada. Por
exemplo, para solos inundados a quantidade de água contida nos seus poros é total,
enquanto que em solos desérticos a quantidade existente é bastante reduzida.
Por outro lado, quando o solo é molhado, sua coloração torna-se mais escura. Isto
ocorre porque a absorção da radiação eletromagnética aumenta devido à presença da água,
fazendo com que a reflectância do solo decresça na região do visível e do infravermelho
próximo ao espectro eletromagnético, quando comparado ao seu estado seco.
Solos úmidos, em geral, apresentam uma reflectância menor que os secos, na faixa de
comprimento de onda de 400 a 2600nm. Para ilustrar, na Figura 69 são mostradas várias
curvas espectrais de solos contendo diferentes porcentagens de água. É possível observar
ainda que todas elas apresentam bandas de maior absorção pela água em 1400nm,
1900nm e 2200nm.

Figura 69 – Curvas espectrais de solos contendo diferentes porcentagens de água.


Em resumo, a reflectância é inversamente proporcional à umidade do solo, ou seja,
quanto mais úmido estiver o solo, menor será a sua reflectância desde o visível até o
infravermelho médio.
Segundo alguns autores, as principais bandas de absorção de água estão entre 1400
e 1900nm. E as bandas menos intensas são 970, 1200 e 1770nm.

8.1.1.5. Distribuição do Tamanho de Partículas


Os solos são formados por partículas de diferentes tamanhos. Entretanto, a
caracterização textural de um solo é feita em função das frações areia, silte e argila.
Observando ainda no Quadro 28, os valores de areia (2 a 0.05mm), silte (0,05 a 0,002 mm)
e argila (< 0,002 mm), nota-se que cada uma dessas frações pode estar no solo em
diferentes tamanhos compreendidos nestes intervalos. Assim, um solo pode apresentar
reflectância espectral diferente de outro solo da mesma classe por dois motivos:
concentração e tamanho das partículas que compõem os solos.
Por outro lado, a arranjo físico e a agregação dessas partículas proporcionam ao solo
uma estrutura. A textura e a estrutura são responsáveis pela quantidade e tamanho dos
espaços porosos no solo, que são ocupados pela água e pelo ar. No caso de um solo ideal
para cultivo, sem problema com excesso de umidade, o ar ocupa os poros maiores que 5
mm e a água poros menores que 5mm.

Curso Técnico de Geodésia e Cartografia COTIL


94

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Quadro 28 – Classificação das partículas de solo, de acordo com os tamanhos, segundo


Atterberg.
Nome Diâmetro (mm)
Matacão >200
Cascalho grosso ou seixo 200 – 2
Cascalho fino 20 – 2
Areia grossa 2 – 0,2
Areia fina 02 – 0,02
Silte 0,02 – 0,002
Argila <0,002
A fração argila é a mais ativa quimicamente e pode ser constituída por minerais
secundários, como a caulinita, montmorilonita e por sesquióxidos de alumínio e ferro.
Nos solos também podem existir os minerais primários, alguns deles com os mesmos
nomes das argilas, como a caulinita, por exemplo. Alguns autores mediram a reflectância da
caulinita pura (mineral primário) em diferentes tamanhos, que variaram desde o tamanho de
silte grosseiro (0.022mm) até areia muito grossa (2.68mm) e constataram que houve um
aumento exponencialmente rápido na reflectância da caulinita em todos os comprimentos de
onda, entre 400 e 1000nm, à medida que o tamanho da partícula diminuiu. Partículas ou
agregados maiores que 2 a 3 mm de diâmetro têm pouca influência na absorção adicional
da radiação solar. Outros autores mostraram que o silte é o parâmetro isolado mais
significativo para explicar a variação espectral em solos. Isto decorre em razão do tamanho
da partícula de silte em relação aos comprimentos de onda na região reflectiva (visível e
infravermelho) do espectro eletromagnético. Ao analisarem a reflectância de solos siltosos,
concluíram que a melhor faixa espectral para mapear teor de argila em solos superficiais
está contida entre 1500 e 1730nm do espectro eletromagnético.
Nota-se, então, por tudo que foi visto nos itens anteriores, que cada constituinte do
solo interage com a radiação eletromagnética diferentemente do outro. Porém, é sempre
bom lembrar que no solo esses minerais não ocorrem isoladamente e, sim, formando o
complexo solo. Desta forma, fica evidente que a energia refletida por um solo é a soma
integrada de todas as energias refletidas pelos seus diferentes componentes.

8.2. Vegetação e a interação com a radiação solar


Do ponto de vista da fisiologia vegetal, todos os órgãos da planta, sejam os órgãos de
nutrição, como raiz, caule e folhas, sejam os órgãos de reprodução, como a flor, fruto e
semente, são essenciais e desempenham funções que lhe são peculiares. Porém, para fins
de sensoriamento remoto, basta entender os órgãos de nutrição, e com mais detalhes, as
folhas, porque nelas são realizados todos processos fotossintéticos; ou seja, é basicamente
nas folhas que há interação da energia solar com a planta.
As folhas desempenham funções muito importantes, porque são basicamente nelas
que se processam todas as reações fotoquímicas, para a síntese dos carboidratos, além de
outras reações vitais para a vida da planta, como a respiração e a transpiração.
As folhas exercem basicamente três funções principais: respiração, transpiração e
fotossíntese.
Pela respiração, a planta absorve o oxigênio do ar e elimina o gás carbônico.
A transpiração é o processo de eliminação de vapor d’água.
A fotossíntese é o processo através do qual as plantas verdes produzem carboidratos
(açúcares), a partir da água (absorvida pelo sistema radicular), e do CO2 absorvido pela
atmosfera, mediado pela radiação solar de comprimento de onda entre 400 e 700nm,
também denominada de luz visível.
Das três funções principais da folha, a fotossíntese é o único processo que está
diretamente envolvido com a radiação solar. Os outros dois processos, isto é, a respiração e
a transpiração, utilizam a energia resultante de reações químicas que ocorrem na planta
(quebra de moléculas de substâncias produzidas pela fotossíntese) para obter a energia
necessária para sua sobrevivência.

Curso Técnico de Geodésia e Cartografia COTIL


95

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

8.2.1. interação da radiação solar com a planta


Independentemente dos fatores ambientais, a radiação difusa é sempre maior que a
radiação direta. Deste modo, uma grande parte da energia disponível para as plantas está
na forma de radiação difusa que atinge o interior da copa e as partes inferiores da
vegetação.
Por outro lado, nem toda a radiação que atinge a planta tem efeito sobre ela. As
radiações eletromagnéticas, cujos comprimentos de ondas são capazes de provocar uma
reação fotoquímica, ou seja, são capazes de induzir uma resposta fisiológica nas plantas,
são denominadas de radiação fotossinteticamente ativa (RFA).
A radiação solar que chega na superfície da Terra (radiação global) ao atingir a planta,
interage com a mesma e resulta em três frações, a saber: uma parte dessa radiação é
absorvida pelos pigmentos contidos na folha. Essa quantidade que é absorvida participa na
síntese de compostos ricos em energia (fotossíntese), altera estruturas moleculares, acelera
reações, entre outras. A parte absorvida corresponde aproximadamente a 50% do total que
chega até a planta. Outra parte é refletida pelas folhas, fenômeno denominado de reflexão.
Finalmente, uma terceira parte sofre o processo de transmissão, através das camadas de
folhas que compõem as copas e através das camadas que constituem a folha. Na Figura 70
estão esquematizados os processos de interação da energia solar com as folhas.
A Figura 71 representa a curva espectral média da vegetação em relação a radiação
fotossinteticamente ativa (RFA).

Figura 70 – Interação da energia solar com a folha, onde “I” é a radiação incidente, “R”
é a energia refletida, “A” é a parte absorvida e “T” a parte transmitida.

Figura 71 – Curva espectral de uma folha de vegetação verde.

Curso Técnico de Geodésia e Cartografia COTIL


96

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Através da análise da curva espectral de uma folha, pode-se decompor em três


regiões espectrais, em função dos fatores que condicionam seu comportamento:
a) até 0,7m, a reflectância é baixa (< que 0,2), dominando a absorção da radiação
incidente pelos pigmentos da planta em 0,48m (carotenóides) e em 0,62m
(clorofila). Em 0,56m, há um pequeno aumento do coeficiente de reflectância, não
atingindo, porém, níveis superiores a 0,1. É a reflectância responsável pela
percepção da cor verde da vegetação;
b) de 0,7m a 1,3m, tem-se a região dominada pela alta reflectância da vegetação,
devido à interferência da estrutura celular;
c) entre 1,3m e 2,5m, a reflectância da vegetação é dominada pelo conteúdo de
água das folhas. Nessa região encontram-se dois máximos de absorção pela
água: em 1,4m e 1,95m. A esta região correspondem também as bandas de
absorção atmosférica; por isto os sensores desenvolvidos têm suas faixas
espectrais deslocadas para regiões sujeitas à atenuação atmosférica.

8.3. Água e a interação com a radiação solar


A água é um bem tão precioso para os seres vivos que está presente em todas as
partes, quer seja no estado sólido, líquido ou gasoso. Sem a água a vida na Terra não seria
possível como a conhecemos. Os organismos vivos originaram-se em meio aquoso e se
tornaram dependentes dele no decurso de sua evolução. Nos seres vivos, a água é um dos
constituintes do protoplasma, em proporções que pode chegar a 95% ou mais do seu peso
total. Por outro lado, como solvente universal, possibilita uma série de reações. Nas plantas
tem ainda a função de manter o turgor celular, responsável pelo crescimento vegetal.
Do ponto de vista do sensoriamento remoto, o comportamento da água é essencial
para entender sua influência no comportamento espectral dos demais alvos da superfície
terrestre.
A água (H2O) apresenta-se na natureza sob diferentes estados físicos, sólido, líquido e
gasoso, que influenciam de modo fundamental seu comportamento espectral. Em cada um
desses estados físicos, a absorção da radiação eletromagnética ocorre de maneira diferente
uma da outra. A Figura 72 apresenta o comportamento espectral da água, ou seja, as
curvas de reflectância da água em seus diferentes estados físicos: a água propriamente dita
(estado líquido), água em forma de nuvens (estado gasoso) e água em forma de neve
(estado sólido).

Figura 72 – Comportamento espectral da água em seus diferentes estados físicos.

Curso Técnico de Geodésia e Cartografia COTIL


97

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Observando as curvas de reflectância da Figura 72 pode-se chegar às seguintes


conclusões:
a) a água líquida absorve toda a radiação eletromagnética abaixo de 0,38m e acima
de 0,7m. Nesta faixa espectral, ou seja, onde a reflectância é zero, a absorção é
total. Veja que mesmo na faixa espectral entre 0,38 e 0,7m, a reflectância da
água na forma líquida é relativamente pequena, ultrapassando pouco mais de 5%.
Este fato demonstra que a água, no estado líquido, é um forte absorvedor da
radiação em quase todas as faixas do espectro eletromagnético.
b) A água na forma gasosa apresenta elevada reflectância ( 0,7m), em tomo de
70%, para todas as radiações eletromagnéticas contidas no espectro óptico (0,4 a
2,5 m). Entretanto, nota-se que ocorrem bandas de maior absorção em 1,0m,
1,3m e 2,0m.
c) A curva espectral da reflectância da água na forma de neve (estado sólido) até
1,2m é maior do que a curva de reflectância da água no estado gasoso. De 1,2m
a 2,5m há um decaimento na curva, indicando uma absorção acentuada da
energia nesta região espectral. Percebe-se ainda que, nos comprimentos de onda
de 1,5m e de 2,0m ocorre a maior absorção da radiação, sendo que em 2,0m a
absorção é máxima, chegando a reflectância a um valor aproximado de zero.
Nas folhas verdes a água contida nas células e nos espaços intracelulares apresenta
picos de absorção em 1.3, 1.75 e 2.1m. Por esta razão, o comportamento da água no
interior das folhas verdes, em termos de absorção de energia, é muito semelhante à
absorção da energia pela água nas formas sólidas e gasosas.

8.3.1. Fatores que interferem na reflectância da água


A energia solar que é absorvida pela massa de água é, em parte, devida às moléculas
e aos elétrons da própria massa de água e, em parte, devida às partículas nela dispersas.
O fitoplâncton e a matéria orgânica nos ecossistemas aquáticos apresentam estreita
relação com a água, pois sua distribuição depende fundamentalmente da movimentação e
densidade das massas de água. Esses elementos são responsáveis por parte da absorção
e espalhamento da radiação solar e determinam, até certo ponto, as propriedades ópticas
da água.
O fitoplâncton é responsável pela produção de matéria orgânica, através da utilização
de nutrientes inorgânicos e energia solar (fotossíntese). A matéria orgânica dissolvida na
água é responsável pela cor amarelo-marrom da água.
Os compostos húmicos presentes na matéria orgânica são classificados segundo suas
solubilidades em água, que é função da acidez do meio líquido. Ácidos húmicos são aqueles
solúveis em meio básico (pH > 7,0) e insolúveis em meio ácido (pH < 7,0). Ácidos fúlvicos
são aqueles solúveis em qualquer acidez do meio e a humina são os compostos húmicos
insolúveis. A presença destes compostos na água produz bandas de absorção fortes no
ultravioleta, decrescendo quase exponencialmente até o verde e com valores baixos no
vermelho.
À medida que aumenta a concentração da matéria orgânica na água, diminui a
reflectância da mesma (aumento da absorção) em todo espectro do visível. Isso ocorre mais
acentuadamente para a radiação eletromagnética situada na região espectral do azul e do
vermelho.
Partículas minerais inorgânicas, provenientes de rochas e solos, que são carreadas
para os corpos d'água, por ação do vento, da chuva, da ressuspensão e erosão do fundo,
também interferem na absorção da energia pela massa de água. A distribuição
granulométrica destes materiais é o parâmetro mais importante no espalhamento da
radiação em águas naturais. Alguns autores analisaram dois tipos de material inorgânico
com coloração e granulometria diferentes e observaram uma maior reflectância da água que
continha material claro e de granulometria menor. Observaram, ainda, que este material
promovia uma forte diminuição na amplitude dos espectros de reflectância das amostras,

Curso Técnico de Geodésia e Cartografia COTIL


98

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

principalmente nas faixas do vermelho e infravermelho próximo, conforme é mostrado na


Figura 73.

Figura 73 – Reflectância residual de suspensões de material inorgânico (A): material


branco, partículas entre 1e 20mm de tamanho, nas concentrações de 25, 50, 75 e 100%.
(B): material vermelho com partículas entre 7 e 37mm de tamanho e nas mesmas
concentrações de (A).
Outro exemplo para mostrar o efeito de concentrações de material inorgânico em
suspensão, pode ser visto na Figura 74. Neste estudo, os autores mediram a reflectância da
água em três pontos distintos: a) no reservatório de Barra Bonita, formado pelos rios
Piracicaba e Tietê, no Estado de São Paulo; b) no rio Tietê e c) no rio Piracicaba. Os autores
chegaram às seguintes conclusões:
a) A reflectância da água do rio Tietê é típica de água com elevada concentração de
material inorgânico em suspensão, com acentuada reflectância na faixa do
vermelho, indicando baixa absorção da energia nesta região espectral.
b) A água do rio Piracicaba apresenta uma reflectância bastante baixa, com pico de
máxima reflectância na região do verde (23%). Este fato é um forte indicador forte
da presença de material orgânico em suspensão.
c) A reflectância da água, obtida no corpo central do reservatório de Barra Bonita,
onde as águas dos dois rios já estão misturadas, mostra claramente a transição
entre os dois espectros anteriores.

Curso Técnico de Geodésia e Cartografia COTIL


99

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 74 – Curvas de reflectância da água obtidas nos rios Tietê e Piracicaba e no


reservatório de Barra Bonita, Estado de São Paulo.

8.4. Superfícies construídas (concreto, asfalto) e a interação com a radiação solar


A Figura 75 apresenta as curvas espectrais do concreto e do asfalto que são materiais
que compõem grande parte das áreas edificadas pelo homem. Pela análise da curva a
(asfalto), pode-se verificar que o asfalto apresenta as seguintes características espectrais:
a) reflectância baixa e decrescente entre 0,3 e 0,4m;
b) reflectância crescente entre 0,4 e 0,6m;
c) reflectância de 0,2 entre 0,6 e 1,0m;
d) reflectância crescente até 1,3m.
Através da curva b (concreto), verifica-se que o comportamento espectral de concreto
é mais complexo, caracterizando-se por um aumento da reflectância com o comprimento de
onda, mas apresentando feições amplas de absorção em 0,38m, entre 0,6m e 0,8m e
em 1,1m.

Figura 75 – Curva espectral do asfalto (a) e do concreto (b).

Curso Técnico de Geodésia e Cartografia COTIL


100

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Bibliografia consultada:
MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologias de aplicação. 1
edição. São José dos Campos: Instituto Nacional de Pesquisas Espaciais (INPE). 2001.
250p.
NOVO, E. V. L. M. Sensoriamento remoto, princípios e aplicações. Editora Edgard Blücher
Ltda.1989. 308p.
CRÓSTA, A. P. Processamento Digital de Imagens de Sensoriamento Remoto.Campinas,
SP :IG/UNICAMP, 1992. 170p. (BC – 525579)
LIBAULT, A. Geocartografia. Universidade de São Paulo. Biblioteca Universitária. 6 série, v.
1. Companhia Editora Nacional. Editora da Universidade de São Paulo. 1975. 390p.
RAISZ, E. Cartografia Geral. Trad. Neide M. Schneider, Pericles Augusto Machado Neves.
Editora Científica. Rio de Janeiro. 1969. 414p. (BC- 441117)
GARCIA, G. J. Sensoriamento Remoto: princípios e interpretação de imagens. São Paulo:
Nobel, 1982. 357p. ( BAE- 416395)
MARCHETTI, D. A. B.; GARCIA, G. J. Princípios de fotogrametria e fotointerpretação. 1. Ed.
São Paulo: Nobel, 1986. 257p. (BC- 198074)
OLIVEIRA, A. Fotointerpretação. Universidade Federal de Lavras. Lavras. Minas Gerais.
195. 90p.

Exercícios propostos:
1- Apresentar as curvas espectrais dos seguintes alvos da superfície terrestre. Não
esquecer de explicar cada gráfico.
a) Latossolo Roxo
b) Cambissolo
c) Solo com crosta superficial
d) Umidade no solo
e) Solo com teores de matéria orgânica
f) Textura do solo
g) Vegetação
h) Água líquida, gasosa e sólida
i) Concreto
j) Asfalto

Curso Técnico de Geodésia e Cartografia COTIL


101

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

9- NDVI
As informações espectrais dos alvos da superfície terrestre são obtidas por sistemas
sensores, em três níveis de coleta de dados: terrestre, suborbital e orbital.
Independente do nível de coleta dos dados, os métodos utilizados para extrair essas
informações podem ser agrupados em três categorias: interpretação visual, tratamento
digital e análises estatísticas de dados espectrais, quando estes estão em forma de tabelas
ou transformados em algum tipo de índice.
Em geral, os dados espectrais coletados por sensores não-fotográficos, em nível do
solo, são expressos em forma numérica, como é o caso de medidas do índice de área foliar
(IAF), ou gráfica, ou ainda transformados em índices, no caso de dados radiométricos. Para
esses tipos de dados, a análise é feita empregando-se critérios comparativos que podem ser
visual e métodos estatísticos, podem ser baseados na média, na análise de variância, no
teste de comparação de médias (teste "t", Tukey, Ducan, etc,) ou uma regressão.
No caso de medidas da reflectância da vegetação, utilizando espectrorradiômetros,
geralmente empregam-se duas abordagens de análise dos dados coletados.
A primeira consiste numa análise visual das curvas de reflectância, para observar o
comportamento espectral dos alvos contidos na área dentro do ângulo de visada do sensor,
ao longo da faixa de comprimento de onda que opera o equipamento, conforme é mostrado
na Figura 1.

Figura 1 – Curvas de reflectância obtidas para diferentes tipos de alvos contidos


dentro do ângulo de visada do sensor.

Entretanto, a análise visual, por si só, não tem grande utilidade do ponto de vista
experimental, todavia, serve de base para se tomar uma decisão sobre aplicar, ou não,
testes estatísticos nos dados observados.
A segunda abordagem, consiste em transformar os dados espectrais em outras
unidades como, por exemplo, os índices de vegetação que podem ser utilizados, ainda, para
estimar certos parâmetros da radiação solar, como a radiação fotossinteticamente ativa
absorvida, o uso eficiente da radiação para produção de fitomassa e/ou grão, produtividade,
etc.
Conforme é mostrado na Figura 1, cada alvo apresenta comportamento espectral
diferente, para uma mesma condição ambiental. Observa-se que a água é o alvo que
apresenta a mais baixa reflectância e absorve toda a radiação acima de 750 nm. O asfalto
apresenta um comportamento espectral quase uniforme e paralelo ao longo do eixo X, não

Curso Técnico de Geodésia e Cartografia COTIL


102

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

ultrapassando 10% no valor da reflectância. Observando ainda na Figura 1 nota-se que o


alvo que mais reflete a radiação no infravermelho próximo é a grama, que reflete cerca de
50% da radiação, nesta faixa do espectro eletromagnético. Esta análise visual é útil para
uma tomada de decisão, ou seja, é um indicativo de que devemos prosseguir o processo de
análise do comportamento espectral desses alvos.
Esses dados podem ainda ser transformados num índice de vegetação, o NDVI
(Normalizad Difference Vegetation Index) ou mesmo analisar os valores da reflectância nas
faixas espectrais do vermelho (600 a 700 nm) e do infravermelho próximo (700 a 900 nm). A
continuidade das análises após o processamento dos dados espectrais pode ser, por
exemplo, através de procedimentos estatísticos, como comparação de médias, etc.

9.1. Índices de Vegetação e Determinação a Partir de Dados Radiométricos


Com a evolução do sensoriamento remoto, foram colocados em órbita satélites com
sistemas sensores capazes de obter informações espectrais dos alvos da superfície da
Terra, em várias bandas do espectro eletromagnético, como é o caso do sensor TM do
Landsat. Este aumento do número de bandas espectrais aumentou consideravelmente o
número de dados sobre os alvos a serem analisados o que, de certa forma, aumentou
também o trabalho de análise desses dados.
Os índices de vegetação foram criados, entre outras coisas, para tentar diminuir o
trabalho de análise de dados orbitais, através de uma maximização de informações
espectrais da vegetação no menor número de bandas de operação dos sensores. Eles
foram criados no intuito de ressaltar o comportamento espectral da vegetação em relação ao
solo e a outros alvos da superfície terrestre (realçar o contraste espectral existente entre a
vegetação e o solo). Assim sendo, estes índices de vegetação podem ser obtidos tanto de
dados coletados por satélites como de dados obtidos por equipamentos próximos ao alvo de
interesse, como é o caso dos espectrorradiômetros.
O emprego de índices de vegetação, para caracterizar e quantificar um determinado
parâmetro biofísico de culturas agrícolas, tem duas grandes vantagens: a) permite reduzir a
dimensão das informações multiespectrais, através de um simples número, além de
minimizar o impacto das condições de iluminação e visada; e b) fornece um número
altamente correlacionado aos parâmetros agronômicos. Além disso, o estudo do
comportamento espectral de alvos agrícolas, através da razão entre bandas espectrais
(índices de vegetação), é mais indicado do que o emprego separado de dados espectrais
em cada banda do sensor porque controla os erros introduzidos nas estimativas da
radiância pela resposta dos alvos agrícolas.
Os índices de vegetação resultam de transformações lineares da reflectância, obtida
em duas ou mais bandas espectrais do espectro eletromagnético, através de soma, de
razão entre bandas, da diferença, ou de qualquer outra combinação. Na literatura são
encontrados mais de 50 índices de vegetação, entretanto, o índice de vegetação mais
comumente usado é:

NDVI = (IVP – V) / (IVP + V)

Onde,
NDVI = índice de vegetação.
IVP = reflectância na faixa espectral do infravermelho próximo.
V = reflectância na faixa espectral do vermelho.
Um dos espectrorradiômetros bastante utilizado para obter o fator de reflectância, é o
SPCTRON SE-590. Para o cálculo do índice de vegetação NDVI, por exemplo, o
procedimento segue a seguinte rotina: uma vez feitas às medidas de reflectância sobre a
área de interesse, estes dados são transferidos para o computador onde é feita a calibração,
a intercalibração e finalmente é obtido o fator de reflectância.
Para obter os valores do fator de reflectância, correspondentes às regiões do vermelho
e no infravem1elho próximo (bandas TM3 e TM4 do Landsat), existem várias maneiras e
métodos. No programa ESPECTRO, desenvolvido no Instituto Nacional de Pesquisas

Curso Técnico de Geodésia e Cartografia COTIL


103

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Espaciais -INPE, existe uma sub-rotina que possibilita obter estes valores e de outras faixas
do espectro eletromagnético, correspondentes às bandas do sensor MSS e do HRV do
SPOT.
Na Tabela 1 é mostrado, por exemplo, alguns valores do fator de reflectância extraídos
de medidas feitas sobre a cultura de trigo, submetidos a diferentes níveis de adubação
nitrogenada e de irrigação e, na Tabela 2, estão contidos valores do fator de reflectância (
derivados da Tabela 1) para as bandas espectrais correspondentes a quatro faixas
espectrais em que operam os sensores TM, e três para o sensor MSS do Landsat.
Tabela 1 – Valores parciais dos fator de reflectância em função do comprimento de
onda e da parcela experimental.

É importante salientar que essa tabela representa apenas uma pequena parte de uma
medida radiométrica. Na tabela esses dados são fornecidos para comprimentos de ondas
que vai de 350 nm até 1100 nm, com intervalo de comprimento de onda de
aproximadamente 10 nm.
Com os valores do fator de reflectância contidos na Tabela 2, correspondentes às
bandas TM3 (região do vermelho) e TM4 (região do infravermelho próximo), são calculados
os índices de vegetação NDVI, para cada uma das parcelas do experimento, utilizando a
equação dada. Vejamos, por exemplo, o procedimento para calcular o NDVI para a parcela
1.

Curso Técnico de Geodésia e Cartografia COTIL


104

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Tabela 2 - Valores de reflectância correspondente às bandas TM1, TM2, TM3, TM4,


MSSI, MSS2, MSS3 do satélite Landsat, obtidos por parcela experimental.

NDVI = (IVP – V) / (IVP + V)

NDVI = (0,369 – 0,121) / (0,369 + 0,121)

NDVI = 0,51

O resultado obtido demonstra o índice de vegetação, NDVI. Entretanto, é importante


lembrar que existem vários tipos de medir o índice de vegetação, sendo assim, a
interpretação do resultado é diferente para cada tipo de índice de vegetação considerado. O
importante é que devemos ter o conhecimento do índice de aplicabilidade, antes de optar
por um ou outro índice.
Na Tabela 3 está contido os valores de oito índices de vegetação, NDVI, calculados a
partir de medidas radiométricas feitas sobre a cultura do trigo.

Tabela 3 – Valores índices de vegetação NDVI obtidos a partir da tabela 2.

PARCELA NDVI
1 0,51
2 0,58
3 0,57
4 0,55
5 0,56
6 0,59
7 0,65
8 0,61

Assim como as curvas contidas na Figura 2, mostram que há diferença no


comportamento espectral das duas cultivares de trigo, o valor de NDVI na Tabela 3 indicam
que há alguma diferença espectral entre as parcelas de 1 a 8, pelo menos em termos de
valores numéricos.

Curso Técnico de Geodésia e Cartografia COTIL


105

Disciplina de Sensoriamento Remoto-2018 Profa. Dra. Luciana Corpas Bucene

Figura 2 – Curvas do fator de reflectância das cultivares de trigo (IAC-24 e IAC-287).


Fonte: Dainese et al. (2000).
Numa análise sem rigor estatístico, poderíamos dizer que as parcelas 6, 7 e 8 são as
que apresentam maiores quantidades de fitomassa (maiores valores de índices).

9.2- Bibliografia consultada

MOREIRA, M. A. Fundamentos do Sensoriamento Remoto e metodologia de aplicação. 1


edição. Instituto Nacional de Pesquisas Espaciais – INPE. São José dos Campos. SP. 2001.

Curso Técnico de Geodésia e Cartografia COTIL

Você também pode gostar