Explorar E-books
Categorias
Explorar Audiolivros
Categorias
Explorar Revistas
Categorias
Explorar Documentos
Categorias
PÓS-GRADUAÇÃO GEOTECNOLOGIAS
ESPECIALIZAÇÃO LATO SENSU
SENSORIAMENTO REMOTO
Sumário:
1. Introdução
Conceito SR, Histórico e evolução do SR, SR no Mapeamento, Imagens vs. Mapas,
Segmentos de um Sistema de SR, Classificação dos Sistemas, principais organizações e o
mercado do SR;
2. Energia Eletromagnética
Onda eletromagnética, Transmitancia, Absortancia e Reflextancia, Equação do Fluxo Radiante,
Espectro eletromagnético, Visivel, Infravermelho, Microondas, Iterações com a Atmosfera;
3. Pré-processamento
Correções Atmosféricas, Correções radiométricas;
4. Iterações com Alvos
assinatura espectral
5. Interpretação de imgagens digitais
Interpretação visual vs. Automatica, conceito visão computacional, variáveis visuais,
Identificação de formas de relevo, padrões de drenagem, tipos de Vegetação;
6. Chaves de Interpretação
Assinatura espectral, textura, forma, sombra, tamanho, situação; definição de uma classe,
avaliação variabilidade interna, estabelecimento de regras de interpretação;
7. Plataformas classificação
Orbitas, resolução temporal, Altitude da Plataforma;
8. Sistemas Sensores Caracteristicas: Resolução espacial e radiometrica, geometria de
aquisição da imagem, tipo de varredura, correção geométrica, registro de uma imagem;
9. Principais Sistemas:
Landsat, Spot, CBERS, Quickbird, Rapid Eye, GeoEye, WorldView, IKONOS, ALOS, GOES,
Terra SAR, Tamdem-X, TOPEX;
10. Disponibilidade de dados:
SRTM, NASA, INPE, IBGE.
11. Aerotofogrametria:
Conceitos Básicos, Definição de Imagem Fotogramétrica Digital, Estações de Trabalho para a
Fotogrametria Digital, Geração de Imagens Fotogramétricas Digitais, Geração de Orto-imagens
Digitais, Fotointerpretação.
12. Aplicações:
Oceanografia, Planejamento, Monitoramento Florestal, Estudo de Desenvolvimento Regional,
Arquelogia, Geologia, Agricultura, Hidrografia.
1. Introdução
Conceito SR, Histórico e evolução do SR, SR no Mapeamento, Imagens vs. Mapas,
Segmentos de um Sistema de SR, Classificação dos Sistemas, principais organizações e o
mercado do SR;
O sensoriamento remoto (SR) teve início com a invenção da câmara fotográfica que foi o primeiro
instrumento utilizado e que, até os dias atuais, são ainda utilizadas para tomada de fotos aéreas. A
câmara russa de filme pancromático KVR-1000, por exemplo, obtém fotografias a partir de satélites
com uma resolução espacial de 2 a 3 m.
As aplicações militares quase sempre estiveram à frente no uso de novas tecnologias, e no SR não foi
diferente. Após a tomada das fotos o balão era puxado de volta e as fotos reveladas eram utilizadas
nas tarefas de reconhecimento.
Posteriormente, aviões foram utilizados como veículos para o transporte das câmaras. Na
década de 60 surgiram os aviões norte americanos de espionagem denominados U2. Estes aviões,
ainda hoje utilizados em versões mais modernas, voam a uma altitude acima de 20.000 m o que
dificulta o seu abate por forças inimigas. Conduzido por apenas um piloto eles são totalmente
recheados por sensores, câmaras e uma grande variedade de equipamentos. Estes aviões têm sido
utilizados também para uso civil. Em 1995, um deles foi utilizado pelos Estados Unidos para
monitoramento de queimadas e mapeamentos diversos, nas regiões Norte e Centro-Oeste do Brasil.
Durante sua operação em órbita o consumo de energia é mínimo, pois são mantidos a
grandes altitudes onde não existe resistência do ar e a pequena força gravitacional terrestre é
equilibrada pela força centrífuga do movimento orbital do satélite. Estes aparatos espaciais
executam um processo contínuo de tomadas de imagens da superfície terrestre coletadas 24 h/dia,
durante toda a vida útil dos satélites. Nesta apostila usaremos o termo imagem no lugar de foto de
satélite, que têm o mesmo significado, embora o primeiro seja mais tecnicamente utilizado.
Existem várias séries de satélites de SR em operação, entre eles podemos citar: LANDSAT, SPOT,
CBERS, IKONOS, QUICKBIRD e NOAA. Os satélites das cinco primeiras séries são destinados
ao monitoramento e levantamento dos recursos naturais terrestres, enquanto que os satélites
NOAA fazem parte dos satélites meteorológicos, destinados principalmente aos estudos
climáticos e atmosféricos, mas são também utilizados no SR.
A seguir, uma descrição resumida de algumas destas séries de satélites. O sistema LANDSAT
(LAND SATellite) foi o primeiro a obter de forma sistemática, imagens terrestres sinópticas de
média resolução. Desenvolvida pela NASA a série de satélites LANDSAT iniciou sua operação
em 1972. Os primeiros satélites eram equipados com os sensores Multispectral Scanner System
(MSS). Esses sensores já tinham a capacidade de coletar imagens separadas em bandas
espectrais em formato digital, cobrindo a cada imagem uma área de 185km X 185km, com repetição
a cada 18 dias. A série passou por inúmeras inovações, especialmente os sistemas sensores
que atualmente obtêm imagens em 7 bandas espectrais. O último da série, o LANDSAT 7, é
equipado com os sensores ETM (Enhanced Tematic Mapper) e PAN (Pancromático). O
termo Pancromático significa uma banda mais larga que incorpora as faixas espectrais mais
estreitas, por esta razão a quantidade de energia da banda Pancromática chega ao satélite com maior
intensidade e isto possibilita ao sensor uma definição melhor. O Pancromático do LANDSAT chega a
uma resolução espacial de 15 m. Os satélites desta série deslocam a uma altitude de 705 km, em
órbita geocêntrica circular, quase polar e heliossíncrona, isto é, cruzam um mesmo paralelo terrestre
sempre no mesmo horário. No período diurno o Landsat cruza o equador às 9:50 h. Ao longo da
história do SR até o ano de 2004, a série LANDSAT foi a que mais produziu e forneceu imagens para
todos tipos de estudos e aplicações.
O sistema SPOT (Systeme Probatoire d’Observation de la Terre) foi planejado pelo governo francês em
1978, com a participação da Suécia e Bélgica, e gerenciado pelo Centro Nacional de Estudos
Espaciais (CNES), entidade responsável pelo desenvolvimento do programa e operação dos satélites.
O SPOT-1 foi lançado em fevereiro de 1986, o SPOT-2 em 1989 e o SPOT-3 em 1993, todos com
características semelhantes. O SPOT-4, lançado em 1998, incorpora mais um canal no modo multi-
spectral (XS) e um novo sensor para monitoramento da vegetação. As características básicas do
sistema SPOT são: Altitude 832 km; velocidade 13,3 km / s; área coberta por cena 60km X 60km; peso
1870 kg; dimensões 2m X 2m X 4,5m; taxa de transmissão de dados 50 Mbits / s; passagem diurna
em órbita descendente às 10:30 h. O sistema sensor do SPOT, HRVIR (High Resolution Visible
and Infra-Red) capta imagens em 4 faixas espectrais (XS1, XS2, XS3 e XS4) com resolução de 20m
e uma banda Pancromática (P) com resolução de 10m. O sensor de vegetação tem resolução
de 1.165m. Uma característica interessante do SPOT é possibilitar o imageamento fora do nadir
(o termo nadir é utilizado para definir a perpendicular à superfície terrestre a partir do satélite). O
instrumento sensor pode ser direcionado para os dois lados (leste e oeste), de 0º a 27º, permitindo a
obtenção de imagens dentro de uma faixa de 950 Km de largura, centrada no plano da órbita do
satélite. Esta técnica, conhecida como visada lateral, permite uma rápida capacidade de revista em
áreas específicas. Próximo ao equador uma mesma área pode ser observada, em média, a cada 3,7
dias. Este recurso, por demandar tarefas operacionais adicionais, tem custo relativamente alto.
orbital em torno de 102 minutos. Existem sempre 2 satélites NOAA em operação que atuam
de forma complementar, um passa no início da madrugada e no início da tarde, enquanto o outro passa
no início da manhã e no início da noite. Portanto os imageamentos são realizados a cada seis horas.
2. Energia Eletromagnética
Onda eletromagnética, Radiação Solar, Transmitancia, Absortancia e Reflextancia, Equação do
Fluxo Radiante, Espectro eletromagnético, Visivel, Infravermelho, Microondas, Iterações com a
Atmosfera;
RADIAÇÃO SOLAR
O Sol é a principal fonte de energia para todo o sistema solar e, devido à sua elevada temperatura,
gera uma grande quantidade de energia que é irradiada para todo o espaço. Propagando-se pelo
vácuo com uma velocidade próxima de 300.000 km/s a energia radiante, também chamada radiação
solar, atinge a Terra onde é em parte refletida de volta para o espaço e em parte absorvida pelos
objetos terrestres transformando-se em calor ou outras formas de energia. Por exemplo, a radiação
solar ao ser absorvida pela água do oceano se transforma em calor que a faz evaporar formando as
nuvens e estas, ao se precipitarem na forma de chuva alimentam os reservatórios das usinas
hidroelétricas; a água acumulada nos reservatórios contém energia mecânica potencial que ao se
precipitar através dos geradores da usina é transformada em energia elétrica e então transportada (por
fios elétricos) para outros lugares onde novas transformações podem gerar luz, calor, acionar motores,
etc. A energia radiante também pode ser gerada na Terra por objetos aquecidos ou através de outros
fenômenos físicos. Por exemplo, o filamento de uma lâmpada se torna incandescente ao ser percorrido
por uma corrente elétrica, gera energia radiante, sob a forma de luz, que ilumina os objetos ao redor.
LUZ E RADIAÇÃO
Isaac Newton (1642-1727), um dos maiores cientistas de todos os tempos, provou que a radiação solar
poderia ser separada (dispersa) em um espectro colorido, como acontece num arco-íris. Sua
experiência, mostrou que a radiação solar visível (luz branca) é uma mistura de luzes de cores
diferentes. Experimentos realizados posteriormente mostraram que o espectro solar contém outros
tipos de radiação invisíveis, como a ultravioleta e a infravermelha (figura 1).
Observe na figura 2 que ao agitar uma corda você transfere energia para ela e esta energia se propaga
formando ondas ao longo da mesma. Se você observar com cuidado verá que as ondas que se formam
tem uma geometria que se repete em ciclos de mesmo comprimento ao longo da corda. Esse
comprimento de onda depende da freqüência com que você agita a corda e também da velocidade
com que as ondas podem se propagar através dela (numa corda fina as ondas se propagam mais
rapidamente que numa grossa). Desta forma, uma propagação ondulatória de energia pode ser
caracterizada pelo comprimento ou freqüência das ondas que se formam. Para produzir ondas curtas
você precisa agitar a corda com freqüência mais alta, isto é, transferir mais rapidamente energia para a
corda; por isso, as ondas de comprimento de onda curto transportam mais energia por segundo.
Diferente dos outros tipos de energia que dependem de um meio material (como a corda) para se
propagar de um lugar para outro, a energia radiante pode se deslocar através do vácuo; neste caso, os
físicos dizem que a radiação se propaga através de um meio denominado campo eletromagnético e,
por isso, é também denominada radiação eletromagnética (REM).
Os comprimentos de onda da radiação eletromagnética podem ser tão pequenos que são medidos em
sub-unidades como o nanometro (1nm = 0.000000001m) ou o micrometro (1mm = 0.000001m). Por
outro lado as freqüências podem ser tão altas que são medidas em Gigahertz (1Ghz = 1.000.000.000
de ciclos por segundo) ou Megahertz (1MHz = 1.000.000 de ciclos por segundo).
2. A banda do ultravioleta é formada por radiações mais energéticas que a luz (tem menor
comprimento de onda); é por isso que penetra mais profundamente na pele, causando
queimaduras quando você fica muito tempo exposto à radiação solar.
3. A banda de raios X é mais energética que a ultravioleta e mais penetrante; isso explica porque
é utilizada em medicina para produzir imagens do interior do corpo humano.
4. As radiações da banda infravermelha são geradas em grande quantidade pelo Sol, devido à
sua temperatura elevada; entretanto podem também ser produzidas por objetos aquecidos
(como filamentos de lâmpadas).
5. O conjunto de radiações geradas pelo Sol, se estendem de 300 até cerca de 3000nm e essa
banda é denominada espectro solar.
LUZ E COR
O sistema visual do homem e dos animais terrestres é sensível a uma pequena banda de radiações do
espectro eletromagnético situada entre 400nm e 700nm e denominada luz. Dependendo do
comprimento de onda, a luz produz as diferentes sensações de cor que percebemos. Por exemplo, as
radiações da banda entre 400nm até 500nm, ao incidir em nosso sistema visual, nos transmitem as
várias sensações de azul e cian, as da banda entre 500nm e 600nm, as várias sensações de verde e
as contidas na banda de 600nm a 700 nm, as várias sensações de amarelo, laranja e vermelho.
Uma propriedade importante das cores é que estas podem ser misturadas para gerar novas cores.
Escolhendo três cores básicas (ou primárias) como o azul, o verde e o vermelho, a sua mistura em
proporções adequadas pode gerar a maioria das cores encontradas no espectro visível. Como você
pode ver na figura 4, os matizes formados podem ser agrupados em amarelo (Y), cian (C) e magenta
(M), este último não encontrado no espectro visível. A mistura das três cores primárias forma o branco
(W).
3. Pré-processamento
Correções Atmosféricas, Correções radiométricas;
http://www6.ufrgs.br/engcart/PDASR/
Correções Atmosféricas
Os métodos alternativos são aqueles que utilizam informações intrínsecas das próprias imagens,
ou seja, utilizam “pixels” que são representativos de feições específicas. São correções que não
dependem de parâmetros atmosféricos ou de dados da superfície, e sim das informações da
própria imagem para determinar a contribuição da atmosfera em cada banda espectral. Uma de suas
limitações consiste na exigência de alvos específicos nas imagens analisadas.
“Internal Average Relative Reflectance” (IARR) (Kruse et al., 1985) - Este é um método
alternativo, onde a reflectância de cada “pixel” é obtida dividindo-se seu espectro de radiância
pelo espectro de radiância média da imagem. A correção em si é realizada através do espectro
médio da cena inteira, tomando-se este dado como espectro de referência. Cuidados devem ser
tomados quando esta técnica for aplicada, pois falsas feições podem ser introduzidas, se a
média do espectro contiver fortes características relacionadas com a composição da
superfície (Van den Bosch e Alley, 1990).
“Empirical Line” (Gao et al., 1991) - Neste método alternativo a reflectância de superfície aqui é
obtida através de uma regressão linear que estabelece a relação entre a reflectância dos alvos
selecionados e os dados de radiância correspondentes na imagem.
“Flat Field” (Roberts et al., 1986) - Este método é utilizado para normalizar imagens em uma área
de reflectância conhecida. Basicamente o espectro de radiância de cada “pixel” é dividido pelo
espectro de radiância média desta área, que servirá como referência para a obtenção da
reflectância de superfície.
Nos métodos físicos, torna-se fundamental o conhecimento das propriedades ópticas da atmosfera e
do processo de interação da radiação com a atmosfera e a superfície. Estes métodos são
fundamentados na teoria da transferência radiativa, a fim de que retratem a complexidade da
atmosfera, que irá variar com o tipo de modelo a ser utilizado e o resultado final a que se
propõe.
Na literatura, existem vários modelos que utilizam os chamados métodos físicos, sendo os mais
representativos:
“Atmospheric REMoval Program” (ATREM) (Gao e Goetz, 1990) - Este modelo utiliza um método
de transferência radiativa onde a reflectância de superfície é obtida a partir de dados, sem o
conhecimento prévio das características da superfície. O modelo utiliza bandas de absorção de vapor
d’água (0,94µm e 1,140µm) para calcular o vapor d’água “pixel” a “pixel”, a curva da irradiância solar
acima da atmosfera e o espectro de transmitância para os gases atmosféricos.
O MODELO 5s (Tanré et al., 1986) - Este modelo foi desenvolvido por pesquisadores do laboratório
de Óptica da Atmosfera de Lille (França), com o objetivo de estimar o sinal recebido pelos
satélites no espectro solar (0,25µm a 4,0µm) na ausência de nuvens.
O modelo tem sido utilizado principalmente para a estimativa de radiação solar na superfície e
para correção atmosférica. Utiliza ainda, um método de transferência radiativa onde a correção
atmosférica não é realizada diretamente, mas sim executada
para diferentes reflectâncias superficiais e diferentes modelos de aerossóis. Neste caso, a atmosfera é
empregada como a principal informação e sua presença é considerada através das propriedades
ópticas de seus constituintes (Zullo Jr., 1994).
“LOWTRAN 7” (Van den Bosch e Alley, 1990; Kneisys et al., 1988) - O modelo “Low Atmospheric
Radiance and Transmittance” (LOWTRAN) foi desenvolvido pelos pesquisadores da “Air Force
Geophysics Laboratory” (AFGL), para determinar a perda de transmissão e retornos da atmosfera
que afetam o desempenho dos sistemas eletro-ópticos de vigilância e os sistemas de armas e
orientação.
A correção radiométrica de imagens visa corrigir estas degradações e é uma das mais importantes
fases do processamento digital, pois, caso estas imperfeições não sejam removidas, poderão ser
enfatizadas, por exemplo, quando da aplicação da técnica de realce de imagens.
As principais correções radiométricas são o "stripping" (padrão sucessivo de linhas horizontais que
aparecem na imagem, devido, por exemplo, à diferença ou desajuste de calibração dos detetores) e o
"dropedlines" ou linhas com ausência de informação (padrão horizontal anômalo na imagem que ocorre
pela perda de informações quando da gravação ou transmissão defeituosa ou ainda no processamento
posterior dos dados).
A atmosfera é outro provocante de degradações nas imagens originais, muitas vezes comprometendo
a análise e interpretação destas. A intensidade da influência atmosférica depende do comprimento de
onda, ou seja, varia de banda para banda, e a sua correção na imagem pode ser feita a partir de um
modelo matemático. Esses modelos matemáticos são de difícil aplicação porque normalmente os
parâmetros atmosféricos requeridos no modelo geralmente são desconhecidos. Esses parâmetros
devem ser obtidos na hora e data de passagem do satélite por estações meteorológicas com
equipamentos de radiossondagem.
ASSINATURAS ESPECTRAIS
Quando a radiação interage com um objeto, pode ser refletida, absorvida ou mesmo transmitida (no
caso de objetos transparentes). Em geral a parte absorvida é transformada em calor ou em algum outro
tipo de energia e a parte refletida se espalha pelo espaço. O fator que mede a capacidade de um objeto
de refletir a energia radiante indica a sua reflectância, enquanto que a capacidade de absorver energia
radiante é indicada pela sua absortância e, da mesma forma, a capacidade de transmitir energia
radiante é indicada pela sua transmitância. Certamente um objeto escuro e opaco tem um valor baixo
para a reflectância, alto para a absortância e nulo para a transmitância. A reflectância, absortância e a
transmitância costumam ser expressas em percentagem (ou por um número entre 0 e 1).
Podemos medir a reflectãncia de um objeto para cada tipo de radiação que compõe o espectro
eletromagnético e então perceber, através dessa experiência, que a reflectãncia de um mesmo objeto
pode ser diferente para cada tipo de radiação que o atinge. A curva a da figura 5 mostra como uma
folha verde tem valores diferentes de reflectância para cada comprimento de onda, desde o azul até o
infravermelho próximo. Esse tipo de curva, que mostra como varia a reflectância de um objeto para
cada comprimento de onda, é denominada assinatura espectral e depende das propriedades do
objeto.
Analisando a assinatura espectral da folha verde na figura 5, podemos explicar as razões para as
variações encontradas: na banda visível (B, G e R), a pequena reflectância (maior absortância) é
produzida por pigmentos da folha (clorofila, xantofila e carotenos) enquanto que na banda
infravermelha (IR), a maior reflectância resulta da interação da radiação com a estrutura celular
superficial da folha. Duas características notáveis resultam dessa assinatura espectral: 1- a aparência
verde da fôlha, e por extensão da vegetação, está relacionada com a sua maior reflectância nessa
banda (G) e é produzida pela clorofila, 2- a elevada reflectância na banda infravermelha (IR) está
relacionada com os aspectos fisiológicos da folha e varia com o seu conteúdo de água na estrutura
celular superficial; por isso é um forte indicador de sua natureza, estágio de desenvolvimento,
sanidade, etc. Veja na curva b da mesma figura a assinatura espectral de uma folha seca. Você seria
capaz de explicar a razão das mudanças? Veja ainda nessa figura, a curva c que mostra a assinatura
espectral de uma amostra de solo; no caso do exemplo trata-se de um tipo de solo contendo ferro e
pouca matéria orgânica.
CÂMARAS DIGITAIS
Na figura 6, que mostra a estrutura do olho humano, você pode perceber como as imagens dos objetos
observados são formadas. Cada ponto do objeto reflete luz em todas as direções e parte dessa luz
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
13
refletida atinge o olho sendo focalizado pelo cristalino (uma lente orgânica) sobre o fundo do olho
numa região chamada retina. Desta forma, o conjunto de todos os pontos projetados sobre a retina
formam uma imagem do objeto. Na retina, milhões de células sensíveis à luz são estimuladas pela
imagem e transmitem sinais nervosos para o cérebro, através do nervo óptico .No cérebro esses
sinais são interpretados como sensações de forma, brilho e cor em função de nossa experiência visual.
No fundo do olho, a retina é recoberta por dois tipos de células: os cones e os bastonetes. Os cones
estão divididos em grupos sensíveis ao azul, ao verde e ao vermelho; assim, quando a imagem de um
objeto colorido é projetado sobre a retina, as células correspondentes às cores da imagem são
excitadas e enviam para o cérebro os sinais nervosos respectivos que são interpretados como
sensações adicionais de cor. Os bastonetes não tem sensibilidade para cores, entretanto tem maior
sensibilidade para detectar sinais luminosos fracos e são responsáveis pela visão noturna. Você
certamente já ouviu falar que "à noite todos os gatos são pardos; tente justificar isso!
Com o desenvolvimento da tecnologia das câmaras digitais, o processo fotográfico está sofrendo
transformações muito importantes que aumentam a sua flexibilidade e aplicações. Compare a a câmara
digital, mostrada na figura 7, com a câmara convencional da mesma figura. Veja que as partes ópticas
são iguais, entretanto no lugar do filme é utilizado um chip CCD. Um chip CCD é um dispositivo
eletrônico composto de milhares de pequenas células sensíveis à radiação, também chamadas de
detetores, dispostas numa matriz (linhas e colunas). Quando uma imagem é projetada sobre o chip,
cada detetor é ativado gerando uma pequena carga elétrica proporcional ao brilho da parte da imagem
projetada sobre ele. Um componente eletrônico da câmara, lê rapidamente o valor da carga de cada
detetor e a registra num dispositivo de memória física (cartão de memória, disquete, fita magnética,
disco óptico) na forma de um arquivo de computador, Esses arquivos podem então ser lidos por um
programa do computador que torna as imagens visíveis para serem analisadas, modificadas e
impressas.
Quando um computador lê o arquivo da imagem digital, esta é exibida no monitor como um conjunto de
células organizadas em uma matriz de linhas e colunas equivalente à do chip CCD. Cada célula dessa
matriz é denominada PIXEL (de picture cell) e o seu brilho (tonalidade) é proporcional ao valor ou nível
digital registrado na célula correspondente do chip CCD.
Não é difícil perceber que uma câmara digital cujo chip CCD tem poucos detetores sensíveis, produz
imagens pouco detalhadas como a da figura 8b; por outro lado, se o chip tem uma grande quantidade
de detetores a imagem exibirá detalhes que antes não podiam ser percebidos, como mostra a figura
8a.
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
14
A qualidade da imagem relacionada com a sua capacidade de registrar detalhes de uma cena é
denominada resolução geométrica ou espacial. Essa resolução da imagem depende da qualidade
óptica da câmara e do número de detetores do chip CCD.
Muitas vêzes a resolução da imagem costuma ser expressa pelo tamanho do elemento da cena
representada por um píxel; por exemplo, se cada píxel da imagem 8b representa uma parte da cena de
1mm x 1mm então costuma se dizer que a imagem tem resolução de 1mm.
Uma câmara como o da figura 7 gera imagens pancromáticas (todas as cores) em tons de cinza,
como as da figura 8, entretanto a sua configuração pode ser modificada para que produza imagens
coloridas. Veja no arranjo da figura 9 que a luz proveniente da cena é separada por um dispositivo
óptico, formado por prismas e filtros, em três componentes. Escolhendo filtros adequados para as cores
primárias azul, verde e vermelho, uma imagem da cena, em cada uma dessas três bandas, é projetada
sobre o chip CCD correspondente. A leitura dos chips pelo sistema eletrônico gera três imagens
monocromáticas (relativas a uma cor) da cena que são gravadas em um arquivo de computador.
Para entender como essas três imagens podem ser compostas para sintetizar uma única imagem
colorida no computador observe a figura 10. A tela do monitor é composta de milhares de pequenas
células coloridas (azul, verde e vermelho) dispostas em trincas como em D. Quando o computador
superpõe as imagens das três bandas no monitor, as células de cada cor, brilham com intensidades
proporcionais aos níveis digitais de cada píxel da imagem monocromática correspondente e o resultado
percebido é uma imagem colorida. Se você olhar para a tela do monitor com uma lente de aumento
poderá observar essas trincas, entretanto sem a lente, cada uma delas funciona como se fosse um
único pixel já que o seu sistema visual não tem resolução suficiente para percebê-las. Resumindo:
decompõe-se a imagem para registrá-la e compõe-se os registros para exibi-la de forma colorida.
No exemplo da figura 10 você pode perceber que as imagens da vegetação nas componentes A, B e C
guardam estreita relação com a assinatura espectral da folha mostrada na figura 5. Note que em A, a
vegetação aparece escura, na B onde a reflectância é maior aparece em tonalidade mais clara e na
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
15
imagem C, onde a clorofila absorve a radiação vermelha, aparece novamente mais escura; com base
na figura 4, é fácil entender porque a vegetação aparece verde na imagem colorida. Como exercício,
tente justificar a aparência da área de solo preparado que aparece na imagem colorida.
A figura 11 mostra como a nossa câmara digital pode ser aperfeiçoada para obter imagens que incluam
a banda infravermelha (muito importante para o estudo da vegetação). Para isto, o nosso sistema
sensor foi modificado para incluir um filtro e um chip CCD, sensível à radiação infravermelha, no lugar
do filtro e do chip CCD da banda azul. Neste caso, os filtros dicróicos fazem uma separação preliminar
das bandas em verde, vermelha e infravermelha e os filtros secundários separam com maior precisão
as bandas desejadas. As imagens geradas nos 3 chips CCD são então armazenados em um arquivo
compatível com computador da mesma forma que na câmara convencional.
Como não existe uma cor básica correspondente ao infravermelho, um artifício é utilizado na hora de
observar a imagem obtida no computador. Utilizamos a cor básica azul para representar o registro da
banda verde, a cor verde para representar o registro da banda vermelha e a cor vermelha para
representar o registro da banda infravermelha. Você pode ver que a imagem produzida desta forma, na
figura 12, tem as formas e textura esperadas entretanto, as cores não correspondem à nossa
experiência visual e por isso esse tipo de imagem é denominada falsa-cor.
Imagens construídas com a banda infravermelha podem ter uma quantidade muito maior de
informações temáticas que as convencionais (de cores naturais); entretanto, é importante ressaltar que
o significado dessas cores e suas variações, deve ser analisado com base no conhecimento das
assinaturas espectrais dos objetos, para que possamos extrair informações corretas sobre as suas
propriedades.
Veja na figura 12 que a vegetação aparece em tonalidades de magenta e isso é simples de explicar se
você observar que na assinatura espectral da vegetação predominam as reflectâncias nas bandas
verde (B) e infravermelha (C), sendo esta última maior. Como estas bandas são representadas na
imagem pelas cores azul e vermelha, a mistura destas gera as tonalidades de magenta com
predominância de vermelho. Da mesma forma, a tonalidade cian do solo resulta das reflectâncias mais
elevadas nas bandas vermelha e infravermelha. Veja na imagem c que a água do rio tem reflectância
quase nula na banda infravermelha; observando as imagens (A e B), qual seria a cor natural desse rio?
Da mesma forma que o nossa câmara foi modificada para funcionar na banda infravermelha, outras
bandas podem ser incluídas utilizando chips e filtros adequados. Nos sensores orbitais, como o
Landsat, Spot e o Cbers, os sensores são bem mais sofisticados e tem muitas bandas (veja na tabela
1), entretanto seguem os mesmos princípios discutidos para a nossa câmara digital.
Assim, pode definir-se a foto-interpretação como, o acto de examinar imagens com o fim de identificar
objectos, áreas ou fenómenos e ajuizar o seu significado. Quando a foto-interpretação é efectuada
com o objectivo de elaborar cartografia pedológica, ela torna-se num exame dos elementos dos
padrões fotográficos, quantitativos e qualitativos, que permitem diagnosticar as prováveis unidades de
solos existentes em determinado local.
ATIVIDADES DA FOTO-INTERPRETAÇÃO
O acto de foto-interpretar desenvolve-se através das seguintes actividades:
o Identificar
o Medir (áreas, perímetros, alturas, etc)
h = (Z x d) /r
onde:
h – altura do abjeto
Z – altura do vôo
d – distância entre o topo e a base do objeto
r – distância radial ao topo do objeto
PROCEDIMENTOS DA FOTO-INTERPRETAÇÃO
As diversas actividades desenvolvem-se ao longo da seguinte sequência de procedimentos:
o Reconhecimento e Identificação - Consiste na integração de observações dispersas
numa apreciação global da paisagem.
o Análise - Consiste no exame de conjunto para dele separar os elementos
constituintes e estabelecer as relações com o todo.
o Dedução – Objectos não directamente perceptíveis. Dependem de um raciocínio. É
particularmente perigoso, pois requer sólidos conhecimentos do meio e suas
correlações com a foto-imagem.
o Interpretação - Após a individualização, segue-se a identificação e a descrição.
o Classificação e Idealização - Ainda que condicionada pelo trabalho de campo esta
fase pode ser considerada como a parte final do trabalho de gabinete.
Análise de padrões
Os elementos padrões são indicativos de condições superficiais e subsuperficiais. (forma do
terreno, drenagem, aspectos erosivos, vegetação, tonalidade fotográfica e aspectos culturais). Cada
elemento padrão sugere certas condições de solo.
Análise fisiográfica
Segundo GOOSEN (1968), o termo Fisiografia tem origem no grego physis – natureza juntamente com
graphos – descrição. Assim, identificar unidades fisiográficas é associar diferentes formas de
relevo e posições dos solos nesse relevo determinando a sua delimitação provável.
Chaves de identificação
As chaves de interpretação são descrições de relações entre o aspecto dos registos que se
observam e os objectos que lhes correspondem. Estas chaves podem ser desenvolvidas para
auxiliar qualquer interpretador de qualquer imagem e podem ser de diversos tipos. Assim, podem ser
uma espécie de chaves dicotómicas descritivas ou, desenhos ou com referências aos objectos
que correspondem àqueles aspectos visuais, etc.
Análise de elementos
o A forma – este é um elemento importante pois alguns objectos têm formatos muito
próprios o que lhes permite uma identificação rápida e fácil;
o Os tons ou cores – Por comparação com aquilo que se está habituado a observar e
identificar, este elemento torna-se muito acessível ao foto-interpretador. Por exemplo:
quanto maior a humidade do solo, mais escura é a tonalidade na imagem; solos
arenosos reflectem mais e solos argilosos menos, donde se pode deduzir a sua textura;
quanto maior o teor de ferro e matéria orgânica, mais escura a tonalidade. Contudo, se
a imagem for de falsa-cor, é necessário ter experiência da relação entre as cores ou tons
que ficam registadas e aquelas os nossos olhos vêm. Frequentemente é necessário um
período de aprendizagem e treino para se conseguir alcançar uma boa foto-interpretação
de falsa-cor. Não obstante estas aparentes dificuldades, este elemento é um dos mais
importantes pois conseguem-se registos de objectos ou fenómenos que os nossos olhos
não captam, como por exemplo, o estado de saúde da vegetação.
o O padrão – quando uma imagem regista uma característica de forma repetitiva, cria-
se um padrão. É o caso de usos da terra com recurso a terraços, ou culturas feitas segundo
curvas de nível.
o O uso actual pode ser um indicativo que possibilitará fazer correlações com os
solos. Contudo, o tipo de dedução, interpretação e classificação, são
completamente diferentes das utilizadas para a vegetação natural.
6 Chaves de Interpretação
Assinatura espectral, textura, forma, sombra, tamanho, situação; definição de uma classe,
avaliação variabilidade interna, estabelecimento de regras de interpretação;
Parcelamentos curvilíneos
Regra geral são significado de:
• Rios e lagos
• Curvas de estradas
• Núcleos ou perímetros envolventes
de núcleos urbanos
Contudo, na paisagem, a maioria dos limites não estão no estado “puro”. Verifica-se a existência
simultânea de várias associações de estruturas / tipo.
Contudo, na paisagem, a maioria dos limites não estão no estado “puro”. Verifica-se a existência
simultânea de várias associações de estruturas / tipo.
Análise cronológica
Determinar se os limites das parcelas são dependentes ou independentes da via ou vias
que lhe são contíguas. Assim, se os limites dasparcelas atravessam o caminho como se ele
não existisse, significa uma relação de independência, ou seja, o parcelamento é anterior ao caminho.
Contudo, se o emparcelamento existe apoiado nos limites do caminho e é com ele ou a partir dele que
se articula, significa que existe uma relação de dependência, ou seja, o caminho é anterior ao
parcelamento.
7 Plataformas classificação
Orbitas, resolução temporal, Altitude da Plataforma;
Sensores remotos podem ser colocados em aeronaves, foguetes e balões para obter imagens da
superfície da Terra, entretanto estas plataformas são operacionalmente caras e limitadas. Uma boa
idéia neste caso é utilizar satélites artificiais para instalar esses sistemas. Um satélite pode ficar girando
em órbita da Terra por um longo tempo e não necessita combustível para isso; alem do mais, a sua
altitude permite que sejam obtidas imagens de grandes extensões da superfície terrestre de forma
repetitiva e a um custo relativamente baixo.
Como os satélites ficam em órbita e não caem? Esta é uma pergunta freqüente cuja resposta é
bastante fácil de entender. Vamos imaginar uma experiência simples: pegue uma pedra, levante a do
chão e solte; a pedra cai verticalmente puxada pelo seu peso, isto é, pela força da gravidade. Jogue a
pedra horizontalmente em frente, ela também cai só que desta vez realiza uma trajetória curva antes de
atingir o solo. Vamos melhorar o nosso experimento; agora você sobe num lugar bem alto (que tal o
pico do Everest?) e lança novamente a pedra em frente com bastante força; esta ainda descreve um
arco antes de cair ao solo, só que muito mais longe de você. Se você puder lançá-la com tanta força
que o arco que realiza seja paralelo à curvatura da Terra, então a pedra dará a volta na Terra, passará
por você (abaixe a cabeça!) e continuará "caindo", isto é dando voltas em torno da Terra. Neste
momento você poderá dizer que a pedra entrou em órbita e se transformou num satélite da Terra
(como a Lua). Neste experimento você pode perceber que existe uma velocidade crítica de lançamento
para que a pedra entre em órbita (a bem da verdade, nesse experimento, a pedra logo cairá ao solo
porque a resistência do ar diminuirá constantemente a sua velocidade e a órbita será uma espiral
descendente).
Como levar um satélite artificial (que pode pesar algumas toneladas) para uma grande altitude, onde a
resistência do ar seja desprezível, e fazê-lo atingir aquela velocidade crítica para permanecer em órbita
durante um longo tempo? A solução para este problema está na utilização dos foguetes que são
sistemas extremamente poderosos e capazes de levar grandes cargas para grandes altitudes onde a
resistência do ar é desprezível. Como você pode ver na figura 13, o foguete após disparado, realiza
uma trajetória curva enquanto sobe e, no momento que atinge a altitude desejada e com a velocidade
crítica necessária, libera o satélite e este permanece em órbita, girando em torno da Terra.
Como você pode notar na figura 13, o plano da órbita pode ser polar, equatorial ou estar em qualquer
outro plano adequado para o tipo de aplicação do satélite. O período de rotação do satélite é o tempo
que êle leva para da uma volta completa em torno da Terra e isto depende de sua altitude. Muitos
satélites de comunicações e meteorológicos são geoestacionários, isto é, ficam aparentemente
"parados" no céu sobre um mesmo ponto da superfície terrestre; neste caso, o seu período de rotação
deve ser de 24 horas e por isso, são lançados em órbita equatorial, a cerca de 36000 km de altitude, na
mesma direção de rotação da Terra (de oeste para leste). Existe uma grande quantidade desses
satélites utilizados para a difusão de sinais de rádio e televisão, retransmissão de telefonia e geração
de imagens meteorológicas. Certamente você já assistiu no boletim meteorológico da TV, uma
animação que mostra o deslocamento das nuvens sobre a superfície da Terra; essa animação é uma
seqüência de imagens produzidas (à cada meia hora) por esses satélites meteorológicos
geoestacionários.
IMAGEADORES ORBITAIS
Os satélites artificiais são plataformas estruturadas para suportar o funcionamento de instrumentos de
diversos tipos e, por isso, elas são equipadas com sistemas de suprimento de energia (painéis solares
que convertem a energia radiante do Sol em energia elétrica e a armazena em baterias), de controle de
temperatura, de estabilização, de transmissão de dados, etc.
Os satélites de observação da Terra são plataformas com a estrutura básica citada anteriormente e que
tem como instrumento principal um sistema sensor capaz de produzir imagens da superfície da Terra
em várias bandas simultâneas; neste caso, o imageador orbital funciona basicamente como a câmara
digital que analisamos e com as adaptações necessárias para gerar imagens em muitas bandas.
De modo geral os sistemas imageadores orbitais, para aplicações em Geociências, tem órbitas de
pequena inclinação com relação aos meridianos, isto é, órbitas do tipo quase-polar. Esse tipo de órbita
associado ao seu período de rotação faz com que o satélite passe sempre "voando" de norte para sul
na parte da Terra que está iluminada pelo Sol, cruzando o equador no mesmo horário (por volta de 10h
local), quando as condições de iluminação são as mais adequadas para a aquisição de imagens. Um
efeito desse tipo de órbita, combinado com a rotação da Terra, é que o satélite passa sobre uma região
diferente da Terra em cada rotação, voltando depois de um período de vários dias, denominado
período de revisita, a passar sobre a mesma região. Esta característica orbital é muito importante
porque permite a aquisição de imagens periódicas de uma mesma região, o que é muito conveniente
para analisar fenômenos temporais ou obter imagens sem nuvens. Veja na tabela Ia, b e c o período
de revisita dos principais satélites utilizados em Sensoriamento Remoto.
Quando o satélite de Sensoriamento Remoto avança de norte para sul em sua órbita, seu sensor
multibandas pode produzir imagens de uma faixa da superfície terrestre, como mostra a figura 14.
Aproveitando o movimento do satélite, o imageador utiliza chips CCD lineares (uma só linha de
detetores) para produzir (em várias bandas) as linhas de imagem transversais ao seu deslocamento na
órbita. Essas linhas de imagem ou linhas de varredura, são transmitidas para as estações receptoras
na Terra, à medida que vão sendo produzidas. A recepção e gravação dessas linhas é feita por meio
de receptores, gravadores e grandes antenas parabólicas, como as do INPE em Cuiabá que
acompanham o satélite em sua trajetória (de norte para sul) de horizonte a horizonte.
As fitas magnéticas contendo a gravação das linhas de varredura produzidas pelo imageador orbital
são então processadas nos computadores das estações terrenas, para gerar as cenas
correspondentes a cada banda. Neste caso, cada cena é um conjunto de linhas cuja quantidade é
suficiente para gerar imagens no formato estabelecido para cada tipo de imageador orbital.
Os sensores cobrem faixas de imageamento da superfície terrestre, cuja largura depende do ângulo
de visada do sensor, (em inglês FOV - Field of View), (Fig. 15). O sensor Thematic Mapper
(TM) do satélite LANDSAT cobre uma faixa de 185 km, o sensor Charge Copled Device (CCD) do
satélite SPOT cobre uma faixa de 60 km, o sensor AVHRR do satélite NOAA cobre uma faixa de 2700
km. Estas faixas são dispostas ao longo da órbita e são varridas, pelo sensor, em linhas
transversais ao sentido da órbita. Na varredura das linhas, dois processos são utilizados:
a) Varredura por espelho, que se baseia no princípio da técnica de imageamento
de scanners multispectrais lineares. A REM refletida da superfície dos objetos /
alvos inside sobre um espelho móvel de face plana, montado com um ângulo de
45º sobre um eixo mecânico que imprime um movimento oscilatório ao espelho,
de tal forma que a superfície do terreno é varrida em linhas perpendiculares à
direção de deslocamento do satélite, permitindo o imageamento seqüencial de
linhas da superfície do terreno. A REM refletida no espelho é direcionada para o
interior do sensor onde é processada para dar origem às imagens. Os sensores TM
e AVHRR utilizam este processo;
b) Imageamento por matriz de detetores, ao invés do espelho, uma matriz de detetores
cobre toda a largura da faixa de imageamento. Os detetores são dispostos em
linhas que formam a matriz. O sensor CCD utiliza este processo.
Em ambos processos a REM é decomposta em faixas denominadas bandas espectrais e .as linhas são
fracionadas em pequenas parcelas quadradas da superfície terrestre, denominadas pixel.
Antes do advento dos satélites de sensoriamento remoto na década de 70, do século passado, o uso
de fotografias aéreas era muito comum e até hoje estas fotografias são insubstituíveis para muitas
aplicações. Entretanto, notamos que com o avanço tecnológico as imagens dos sensores de satélites
de sensoriamento remoto estão se aproximando da qualidade das fotografias aéreas. Todavia, para o
momento, vamos nos ater às imagens obtidas por satélites de sensoriamento remoto e deixar as
fotografias aéreas para outra discussão.
Existe hoje um grande número destes satélites em órbita ao redor da Terra. Eles obtêm imagens com
características distintas que dependem tanto do satélite quanto do sensor. Os sensores podem ser
comparados aos nossos olhos. Se olharmos para uma floresta que está distante conseguimos ver
apenas uma mancha de árvores. À medida que nos aproximamos desta floresta começamos a
identificar árvores isoladas e se nos aproximarmos ainda mais podemos até ver os diferentes tipos de
folhas. A mesma experiência poderia ser feita à distância se dispuséssemos de um binóculo ou de uma
luneta. Assim, precisamos entender algumas das características básicas dos satélites e de seus
sensores para conhecermos a finalidade a que se destina cada produto ou imagem de sensoriamento
remoto e o que podemos e não podemos "enxergar" nestas imagens.
Cararterística Espectral
Uma imagem de sensoriamento remoto colorida é resultante da combinação das três cores básicas
(azul, verde e vermelho), associadas através de filtros às imagens individuais obtidas em diferentes
comprimentos de onda ou faixas espectrais, conforme é apresentado nas Figuras 1, 2 e 3. Vemos que
um mesmo objeto, por exemplo uma floresta, pode aparecer em tonalidade verde escuro (Figura 16),
vermelho (Figura 17) ou verde intenso (Figura 18) dependendo da associação feita entre as cores e as
imagens obtidas nas diferentes faixas espectrais do sensor. As imagens apresentadas nestas figuras
foram obtidas pelo sensor Enhanced Thematic Mapper (ETM+) a bordo de um dos satélites americanos
da série Landsat. Cabe lembrar que o sensor capta a energia refletida pelo objeto num determinado
comprimento de onda, portanto, objetos claros refletem muita energia (p. ex. solo exposto) enquanto
objetos escuros (p. ex. água sem sedimentos) refletem pouca energia. A vegetação reflete uma
quantidade muito pequena de energia na faixa espectral do vermelho pois ela utiliza boa parte desta
energia no processo da fotossíntese e, portanto, aparece em tonalidade escura na banda TM-3 que
correspondente à faixa do vermelho (Figuras 17). Já na faixa do infravermelho próximo a vegetação
reflete muita energia, em função da estrutura celular das folhas, de tal forma que aparece em
tonalidade clara na banda TM-4 (Figura 17) que corresponde à faixa do infravermelho próximo.
Figura 16 – Imagem em composição colorida utilizando as bandas TM-1 (azul), TM-2 (verde) e TM-3
(vermelho) do sensor ETM+ do satélite Landsat-7 (órbita 224, ponto 78) de 05 de agosto de 1999.
Figura 17– Imagem em composição colorida utilizando as bandas TM-2 (verde), TM-3 (vermelho) e TM-
4 (infravermelho próximo) do sensor ETM+ do satélite Landsat-7 (órbita 224, ponto 78) de 05 de agosto
de 1999.
Característica Espacial
O nível de detalhe com que podemos observar os objetos da superfície terrestre é outra característica
importante das imagens de sensoriamento remoto à qual damos o nome de resolução espacial, ou
seja, a capacidade que o sensor possui para discriminar objetos em função do seu tamanho. As
imagens do Landsat-TM tem uma resolução espacial de 30 metros, o que implica que objetos com
dimensões menores do que 30 x 30 m não podem ser identificados. A resolução espacial dos sensores
a bordo dos satélites de sensoriamento remoto varia de 1 metro até 1 km. A Figura 19 apresenta uma
imagem do satélite IKONOS-II com resolução espacial de 1 m na qual podemos observar nitidamente
feições locais como o traçado das ruas e até mesmo árvores e casas. A Figura 20 apresenta uma
imagem do sensor WFI, a bordo do satélite sino-brasileiro CBERS-1 (China-Brazil Earth Resources
Satellite), com resolução espacial de 260 m na qual podemos observar feições regionais como a
distribuição das cidades ao longo do eixo Rio-São Paulo. Na Figura 21 é apresentada uma imagem do
sensor AVHRR, a bordo do satélite NOAA, com uma resolução espacial de 1 km na qual observamos
feições globais como por exemplo distribuição da cobertura vegetal no território brasileiro.
Figura 19 – Imagem do satélite IKONOS-II com resolução espacial de 1x1m (cedida pela Intersat),
permitindo uma visão local sobre o aeroporto no Paraguai.
Figura 20 – Imagem do WFI, a bordo do satélite CBERS-1, com resolução espacial de 260x260m,
permitindo uma visão regional dos estados de São Paulo, Rio de Janeiro e Minas Gerais
Figura 21 – Imagem do satélite NOAA do sensor AVHRR com resolução espacial de 1000x1000m
(Shimabukuro & Rudorff, 2000), permitindo uma visão global.
Característica Temporal
A freqüência com que a superfície terrestre é observada ou imageada é uma terceira característica
importante das imagens de sensoriamento remoto. Os satélites de sensoriamento remoto orbitam ao
redor da Terra em órbitas quase polar, ou seja, de um polo a outro a uma distância da superfície
terrestre em torno de 800 km, conforme é exemplificado para o satélite CBERS na Figura 22. Através
da combinação sincronizada da velocidade do satélite com a rotação da Terra é possível recobrir todo
planeta após um certo número de dias. Cada passagem do satélite é chamada de órbita. Dependendo
do sensor, a órbita de imageamento pode ser mais larga ou mais estreita. Satélites com sensores de
órbita de imageamento larga, como o NOAA-AVHRR (2.700 km), recobrem a superfície terrestre
diariamente, enquanto satélites com órbita de imageamento estreita, como o IKONOS-II (11 km),
podem levar quase um ano para imagear todo o planeta. Os satélites da série Landsat tem uma órbita
de imageamento de 185 km e recobrem todo o planeta a cada 16 dias, ou seja, podemos obter uma
imagem de uma determinada área a cada 16 dias e dizemos que a resolução temporal do Landsat é de
16 dias. Entretanto, é importante notar que para se obter imagens da superfície terrestre não pode
haver a presença de nuvens pois elas formam um anteparo entre o satélite e a superfície. Durante o
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
28
período de inverno que corresponde à estação seca a probabilidade de se obter imagens livres de
nuvens é alta.
Figura 22– Órbita do satélite CBERS: altitude 778 km; inclinação 98,504o; período 100,26 min.
Figura 23 – As diferentes órbitas de imageamento dos sensores a bordo do CBERS-1: WFI – 890 km;
CCD – 120 km; e IRMSS – 113 km.
Comportamento Espectral
Como havíamos mencionado anteriormente, um sensor remoto também pode ser utilizado para obter
informações a poucos metros da superfície terrestre ou mesmo de amostras em laboratório. Neste caso
não se obtém imagens mas sim um gráfico que relaciona a quantidade de energia refletida com o
comprimento de onda. Chamamos de comportamento espectral de alvos aos estudos relacionados com
a obtenção de medidas a campo ou em laboratório, utilizando sensores denominados de
espectrorradiômetros, com a finalidade de verificar como os alvos ou objetos refletem a energia
incidente, em função das suas características bio-fisico-químicas ao longo de determinadas faixas do
espectro eletromagnético. Estes estudos propiciam definir adequadamente as bandas espectrais de
sensores a bordo de satélites, além de permitir um melhor entendimento sobre a interação da radiação
eletromagnética com os objetos e consequentemente identificá-los de forma correta nas imagens dos
satélites. A Figura 24 mostra a obtenção de medidas com um espectrorradiômetro a campo sobre a
cultura do trigo.
9 Principais Sistemas:
Landsat, Spot, CBERS, Quickbird, Rapid Eye, GeoEye, WorldView, IKONOS, ALOS, GOES,
Terra SAR, Tamdem-X, TOPEX;
CARACTERÍSTICAS ORBITAIS
Altitude média 778 km
Inclinação 98,5 graus com o equador
Revoluções por dia 14 + 9/26
Período 100,26 minutos
Cruzamento do equador 10h 30min
nadir):
Largura da faixa imageada 113 km 120 km 890 km
Ângulo de visada lateral +/- 32º - -
Tabela I-a. Satélites de Sensoriamento Remoto
CARACTERÍSTICAS ORBITAIS
Altitude média 705 km
Inclinação 98.2
Revoluções por dia ~14
Período 98 minutos
Cruzamento do equador ~10h15min
15 m (pan)
Período de revisita 16 dias 16 dias
Largura da faixa imageada 185 km 185 km
Tabela I-b. Satélites de Sensoriamento Remoto
CARACTERÍSTICAS ORBITAIS
Altitude média 822 km
Inclinação 98.7
Revoluções por dia ~14
Período 101.4 minutos
Cruzamento do equador ~10h30min
ALOS-PRISM
RAPIDEYE
IKONOS
INPE
A Missão do INPE é promover e executar estudos, pesquisas científicas, desenvolvimento tecnológico
e capacitação de recursos humanos, nos campos da Ciência Espacial e da Atmosfera, das Aplicações
Espaciais, da Meteorologia e da Engenharia e Tecnologia Espacial, bem como em domínios correlatos,
conforme as políticas e diretrizes definidas pelo Ministério da Ciência e Tecnologia.
www.inpe.br
NASA
A NASA (National Aeronautics and Space Administration), é uma agência do Governo dos Estados
Unidos da América, criada em 29 de julho de 1958, responsável pela pesquisa e desenvolvimento de
tecnologias e programas de exploração espacial. A NASA tem desenvolvido vários programas com
satélites e com sondas e sensores de pesquisa espacial
.http://www2.jpl.nasa.gov/srtm/cbanddataproducts.html
SRTM
A Missão Topográfica por Radar do Ônibus Espacial, mais conhecida pela sigla em inglês SRTM, de
Shuttle Radar Topography Mission, gerou um gigantesco arquivo de dados (12 terabytes) sobre 80%
da massa de terra do planeta onde vive cerca de 95% da população mundial.
A missão espacial foi uma operação projetada e financiada pela Agência Espacial Americana (Nasa),
Agência Americana de Inteligência Aeroespacial (NGA), em colaboração com a Agência Espacial
Italiana (ASI) e o Centro Aeroespacial Alemão (DLR).
http://www2.jpl.nasa.gov/srtm/
IBGE
O Instituto Brasileiro de Geografia e Estatística, mais conhecido por sua sigla IBGE, é uma
fundação pública da administração federal brasileira criada em 1934 e instalada em 1936 com o nome
de Instituto Nacional de Estatística.
www.ibge.gov.br
11. Aerotofogrametria:
Conceitos Básicos, Definição de Imagem Fotogramétrica Digital, Estações de Trabalho para a
Fotogrametria Digital, Geração de Imagens Fotogramétricas Digitais, Geração de Orto-imagens
Digitais, Fotointerpretação.
Sensores imageadores digitais vêm sendo usados desde a década de 60, com o lançamento
do satélite meteorológico TIROS-1 (SIMONETT, 1983). Para fins de mapeamento, isso ocorre desde
1972 com o lançamento do LANDSAT 1 MSS. Isso mostra que a concepção de um
processo de mapeamento completamente digital, desde a captação dos dados, passando pelo
seu processamento até sua distribuição e visualização, já é uma realidade há muito tempo. Na
aerofotogrametria, entretanto, mesmo com a introdução muito bem sucedida dos scanners métricos,
na década de 90, tarefas fotogramétricas típicas ainda são realizadas combinando-se métodos
analógicos e digitais. Somente a produção de ortofotos é um procedimento completamente digital,
devido à relação custo-benefício (LEBERL, 2003). No entanto, as imagens originais ainda ficam, em
sua maioria, armazenadas em filmes, e em alguns casos as imagens digitalizadas são
descartadas. A aquisição da imagem em formato digital parece ser o último obstáculo a um
processo inteiramente digital. Este desafio está sendo superado através de sistemas que
utilizam sensores CCD combinados a sistemas óticos, formando sistemas fotográficos cada
vez mais aperfeiçoados.
Do ponto de vista operacional, uma câmera aerofotogramétrica deve ser eficiente em termos de
operação aérea, ou seja, o número de faixas de vôo deve ser minimizado, sem que se comprometa a
qualidade das aerofotos obtidas. Durante décadas, o formato de 23cm x 23cm vem atendendo
perfeitamente essas exigências de operação e qualidade. Por esta razão, uma câmera
aerofotogramétrica digital deve oferecer características semelhantes a uma câmera convencional com
quadro de 23cm x 23cm. A grande vantagem operacional das câmeras digitais sobre as convencionais,
é a eliminação do filme, da revelação e da digitalização do filme. Tratando-se da qualidade da imagem,
as câmeras digitais também oferecem vantagens sobre imagens digitalizadas. Essas vantagens podem
ser notadas facilmente na figura 25 (GRUBER et al., 2003), onde é apresentada uma comparação
direta entre um negativo digitalizado (à esquerda) e uma imagem obtida da mesma área na mesma
escala com uma UltraCamD (à direita). Observa-se que os detalhes podem ser muito melhor
identificados na imagem digital.
Fig. 25 - Comparação entre um negativo digitalizado e uma imagem digital. (GRUBER et al., 2003)
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
37
Existem duas soluções disponíveis no mercado: uma que se utiliza de sensores CCD de área, e outra
baseada em sensores CCD lineares. Entre as soluções com sensores de área, estão as câmeras de
médio formato, com CCD único (por exemplo, a AIC da RolleiMetric) e as de grande formato, que se
utilizam da combinação de vários CCD como a DMC, as UltraCamD/X, as AICx2/4, e o modelo do IGN
(PAPARODITIS et al., 2006), por exemplo. Os principais sistemas de CCD linear disponíveis são o
ADS40 da Leica Geosystems, e o HRSC, da DLR. A comunidade aerofotogramétrica mundial ainda
não chegou a um consenso sobre qual é a melhor solução, e essa resposta só virá com o tempo
(PAPARODITIS et al., 2006). Esses sistemas serão discutidos a seguir.
Método Sincronizado
A idéia de se aumentar o campo de visão de um sistema fotogramétrico combinando-se duas ou mais
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
38
O método sincronizado para a geração de imagens a partir de cones múltiplos foi o primeiro a ser
utilizado numa câmera aerofotogramétrica digital. Como o próprio nome diz, as imagens para a geração
da imagem final são tomadas simultaneamente. O primeiro modelo lançado com essa metodologia foi a
DMC (Digital Mapping Camera), pela Z/Imaging (fig. 29), no ano 2000. Este modelo entrou em
operação comercial em 2003. Já opera também o modelo AICx2 (fig. 28) da RolleiMetric (com 2 cones),
e em 2008 será lançado o modelo AICx4 (com 4 cones). A sincronização na tomada das imagens trás
uma série de vantagens, pois se pode controlar melhor o sistema como um todo, e essa sincronização
deve ser o melhor possível: na DMC essa sincronia é da ordem de 100µs (DÖRSTEL et al., 2003) e
nas AIC de 150µs (TÖLG, 2007).
Não se pode garantir uma absoluta estabilidade para um equipamento dentro de uma aeronave durante
o vôo, devido às turbulências e vibrações que ocorrem. Assim sendo, os cones devem suportar
pequenas variações angulares. Variações de posição não podem ser aceitas, pois haveria uma grande
correlação matemática entre os parâmetros num processo de ajuste entre as imagens. Assim, para se
formar a imagem final deve ser calculada as relações angulares (kappa, phi e ômega), entre os cones.
Essa determinação se dá através de um ajustamento em bloco das quatro imagens. Na DMC, quatro
imagens com a resolução de 7168x4096 pixels são combinadas para formar uma imagem em projeção
central única com resolução de 13824x7680 pixels. As imagens são tomadas de forma convergente e
com uma sobreposição entre si. Assim, podem ser determinados os parâmetros de orientação entre os
cones, através de pontos determinados por métodos de correlação de imagens. Em testes realizados
essa orientação obtém resíduos da ordem de 1µm a 2µm, correspondente a 1/12 e 1/16 pixel
(DÖRSTEL et al., 2003). Com esses parâmetros, escolhe-se uma distância focal próxima à distância
focal real dos cones (para se evitar oversampling ou undersampling), e se reamostra toda a imagem de
acordo com esse referencial. Na figura 28 é mostrada a geometria das quatro imagens pancromáticas
em uma DMC (PAN1 a PAN4) e os referenciais utilizados, bem como o centro de projeção virtual. A
área demarcada pelas linhas brancas mais fortes é a aerofoto digital a ser utilizada nos procedimentos
de aerotriangulação, restituição, ortoretificação e etc.
Método sintópico
A segunda metodologia para a obtenção de aerofotos digitais de grande formato, através de sensores
CCD de área, foi desenvolvida pela Vexcel, na Áustria. Essa tecnologia, chamada sintópica, consiste
na obtenção das imagens de forma não-simultânea, mas alinhando-se os sensores pancromáticos no
sentido do vôo e atrasando as tomadas fotográficas de forma que todas sejam feitas a partir do mesmo
centro perspectivo. As imagens originais não são convergentes e o quadro da imagem é mais
facilmente definido do que pelo método sincronizado. A figura 29 mostra o princípio da tomada das
imagens com essa metodologia.
A UltraCamX (modelo mais recente da Vexcel), tem quatro módulos (cones) pancromáticos, cada qual
com seu sistema ótico. O principal deles, chamado “master” contém 4 sensores CCD, e define a
dimensão da imagem. As cores são obtidas por outros 4 cones multiespectrais, de resolução mais
baixa. As lacunas desse cone master são preenchidas pelos outros três cones: dois com dois sensores
CCD cada, e um com um único, conforme a figura 30, na qual o “M” representa o cone master e os
números 1,2 e 3 representam os demais cones. O ajuste é feito utilizando-se os parâmetros de
calibração de cada cone, bem como pontos nas zonas de sobreposição entre as imagens
(HONKAVAARA et al., 2006). Cada CCD tem uma resolução de 16Mp. Os cones pancromáticos têm
uma distância focal de 100mm e os multiespectrais de 33mm. A aerofoto gerada pela UltraCamX
possui a resolução de 14430x9420 pixels.
Sensores lineares
No final de 1998 a LH Systems (hoje Leica Geosystems) anunciou que, após um ano de projeto e
desenvolvimento, obteve sucesso num sensor digital para aerofotogrametria. Esse desenvolvimento,
feito em conjunto com a DLR (Deutsches Zentrum für Luft- und Raumfart - a agência espacial alemã),
resultou no lançamento de dois sistemas aerofotogramétricos digitais: o ADS40 da Leica (comercial) e
o HRSC da DLR. Naquela época, não havia ainda a tecnologia suficiente na fabricação de sensores
CCD de área de grande resolução, mas já era possível a obtenção de sensores CCD lineares com
grande capacidade (mais do que 10.000 pixels) (PAPARODITIS et al., 2007). Por essa razão, foi
desenvolvido um sistema baseado nesse tipo de CCD. Basicamente, projetou-se um sensor com
visadas à vante, ao nadir e à ré. Foram incluídos sensores pancromáticos e multiespectrais, todos com
mesma resolução. Assim, não se faz necessário o procedimento de pan-sharpening, como nos
modelos DMC e UltraCam. A figura 31 mostra a obtenção dos dados com o ADS40: à vante um sensor
pancromático; no nadir um pancromático, um infravermelho e 3 para o visível (RGB); e na visada de ré
a mesma configuração do sensor do nadir. Os ângulos exatos dos sensores CCD dependem do
modelo do sistema (FRICKER, 2007), mas apresentam a mesma configuração básica. Todos os
sensores CCD têm 12.000 pixels (SANDAU et al., 2000; SANDAU et al., 1999).
Para a obtenção de imagens com fins de mapeamento, além dos sensores óticos, é obrigatório o uso
de sistemas de GNSS (posicionamento) e IMU (orientação). Sem esses equipamentos acoplados ao
sistema sensor, não é possível sequer iniciar-se o processamento das imagens, pois os dados originais
são bastante estranhos aos olhos dos usuários. Por essa razão, para cada linha obtida pelos sensores
CCD, têm que ser determinados os 6 parâmetros de orientação: os três da posição do centro ótico do
equipamento (X, Y e Z), determinados pelo GNSS; e os três angulares (κ, φ e ω), determinados pelo
IMU. As observações do sensor ótico, do GNSS e do IMU não são sincronizadas, e por isso a
informação exata do tempo em que cada observação é tomada se faz necessária para a interpolação
dos parâmetros de orientação exterior. Com essas informações são geradas as imagens iniciais de
cada faixa. Com o auxílio de pontos de apoio de campo e através de métodos de aerotriangulação, as
faixas de vôo são ajustadas entre si. O resultado final é um conjunto de faixas perfeitamente ajustadas,
nas quais pode-se fazer toda uma série de trabalhos fotogramétricos, como restituição, ortoretificação e
etc. No sistema de restituição desenvolvido pela Leica, pode-se ver toda a faixa em estereoscopia, em
alta resolução. Na figura 32 é mostrado, à direita, o sistema ADS40 da Leica Geosystems, e à
esquerda a geometria básica do processamento das imagens pancromáticas: com as três visadas e os
parâmetros de orientação exterior, pode-se executar uma “intercessão à vante”, e assim obter as
coordenadas no referencial de terreno. São mostradas somente três linhas para fins de maior clareza.
Fig. 32- O ADS40 e a obtenção de coordenadas a partir das linhas e da orientação exterior. Fontes:
Leica e DLR
Nesse intuito, a DIN - Deutsches Institut für Nornung (instituto alemão de normatização), preparou a
DIN 18740-4 - “Photogrammetrische Produkte - Teil 4: Anforderungen an digitale Luftbilkameras und an
digitale Luftbilder“ (Produtos Fotogramétricos - Parte 4: Especificações sobre câmeras
aerofotogramétricas digitais e sobre aerofotos digitais). Neste trabalho, serão discutidos os principais
pontos abordados por essa norma.
Segundo essa nova norma, uma câmera aerofotogramétrica digital deve gerar imagens que permitam a
medição estereoscópica de coordenadas, bem como uma perfeita distinção espectral das cores. O
sistema deve ser calibrado geometricamente e radiometricamente. Os fabricantes devem certificar a
qualidade das imagens, através da apresentação das precisões planimétrica e altimétrica obtidas, da
qualidade radiométrica e da resolução espacial máxima possível. O fabricante deve oferecer um
certificado de calibração geométrico e radiométrico. No caso de haver diferença de resolução entre os
sensores pancromáticos e os multiespectrais, faz-se necessário um processamento digital para a
obtenção das imagens coloridas (Pan-Sharpening, por exemplo). Nesse caso a relação entre as
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
42
dimensões dos pixels ao nível do solo entre as bandas pancromáticas e multiespectrias (ver DIN
18740-3) não deve ultrapassar a relação de 5:1. Todas estas especificações, bem como as seguintes
foram extraídas da DIN 18740-4.
12. Aplicações:
Oceanografia, Planejamento, Monitoramento Florestal, Estudo de Desenvolvimento Regional,
Arquelogia, Geologia, Agricultura, Hidrografia.
INTRODUÇÃO
Os recursos naturais e o meio ambiente da Terra estão em mudanças contínuas em resposta à
evolução natural e às atividades humanas. Para compreender o complexo inter-relacionamento dos
fenômenos que causam estas mudanças é necessário fazer observações com uma grande gama de
escalas temporais e espaciais. A observação da Terra por meio de satélites é a maneira mais efetiva e
econômica de coletar os dados necessários para monitorar e modelar estes fenômenos, especialmente
em países de grande extensão territorial, como o Brasil.
Através de softwares dedicados exclusivamente para tratamento de imagens, pode-se gerar imagens
com diferentes composições de cores, ampliações de partes das imagens e classificações temáticas
dos objetos nelas identificados, obtendo-se assim produtos como mapas temáticos que são usados
para estudos de geologia, vegetação, uso do solo, relevo, agricultura, rede de drenagem, inundações,
entre outros.
Estes produtos, apresentados sobre áreas específicas ou sobre um contexto mais regional, permitem
diagnósticos eficientes, propõem soluções de baixo custo e criam alternativas inteligentes para os
desafios enfrentados face às mudanças aceleradas que observamos em nosso território.
Os dados de sensoriamento remoto tem-se mostrado extremamente úteis para estudos e
levantamentos de recursos naturais, principalmente por:
sua visão sinótica; sua resolução temporal que permite a coleta de informações em diferentes
épocas do ano e em anos distintos, o que facilita os estudos dinâmicos de uma região;
sua resolução espectral que permite a obtenção de informações sobre um alvo na natureza em
distintas regiões do espectro, acrescentando assim uma infinidade de informações sobre o
estado dele;
sua resolução espacial, que possibilita a obtenção de informações em diferentes escalas,
desde as regionais até locais, sendo este um grande recurso para estudos abrangendo desde
escalas continentais, regiões até um quarteirão.
Após o advento destes satélites os estudos ambientais deram um salto enorme em termos de
qualidade, agilidade e número de informações. Principalmente os países em desenvolvimento foram os
grandes beneficiados desta tecnologia, pois através de seu uso é possível:
monitorar desastres ambientais tais como enchentes, poluição de rios e reservatórios, erosão,
deslizamentos de terras, secas;
monitorar desmatamentos;
estudos sobre correntes oceânicas e movimentação de cardumes, aumentando assim a
produtividade na pesca;
estimativa da taxa de desflorestamento da Amazônia Legal;
suporte de planos diretores municipais;
estudos de Impactos Ambientais (EIA) e Relatórios de Impacto sobre Meio Ambiente (RIMA);
levantamento de áreas favoráveis para exploração de mananciais hídricos subterrâneos;
monitoramento de mananciais e corpos hídricos superficiais;
levantamento Integrado de diretriz para rodovias e linhas de fibra ótica;
monitoramento de lançamento e de dispersão de efluentes em domínios costeiros ou em
barragens;
estimativa de área plantada em propriedades rurais para fins de fiscalização do crédito
agrícola;
identificação de áreas de preservação permanente e avaliação do uso do solo;
implantação de pólos turísticos ou industriais;
avaliação do impacto de instalação de rodovias, ferrovias ou de reservatórios;
Outro exemplo muito oportuno trata do uso de imagens de satélite como âncora para o Zoneamento
Ecológico e Econômico de regiões onde a ação antrópica ainda não aconteceu de forma intensa, como
no caso da Amazônia. Neste exemplo, pesquisadores analisam uma área procurando identificar seus
principais atributos físicos a fim de conhecer a vocação natural das paisagens e seu nível de suporte
para desenvolvimento ou preservação.
Um exemplo menos regional se refere à utilização de imagens de satélite adquiridas durante o período
de preparo do solo, para estimar a área plantada com a cultura da soja, trigo, milho, cana-de-açúcar,
etc.
A vantagem do sensoriamento remoto por satélite é que as informações são adquiridas na forma digital
ou fotográfica e podem ser atualizadas devido à característica de repetitividade de aquisição das
imagens.
terrestre;
aéreo;
orbital.
Em função dos níveis de coleta, são utilizados diferentes sensores e obtidos diferentes dados. A figura
33 dá um exemplo dos níveis de coleta de dados em sensoriamento remoto.
Figura 33- Diferentes níveis de coleta de dados em sensoriamento remoto: terrestre (a poucos metros
da superfície), aéreo (aeronave) e orbital (satélite).
Dependendo do nível de coleta os dados apresentam diferentes resoluções espaciais e temporais,
assim dados coletados de satélites podem ser utilizados para:
estudos regionais, tais como mapeamento de uma região inteira ou da área de um estado,
utilizando imagens do sensor do sensor WFI do satélite CBERS;
estudos regionais/locais, utilizando-se por exemplo dados do sensor TM pancromática do
satélite LANDSAT 7, imagens do satélite SPOT ou do sensor CCD do CBERS para
planejamento urbano-regional, estudos de áreas agrícolas em média escala ou em escala mais
local;
estudos em detalhe, de áreas urbanas em escala local, que permite distinguir um quarteirão,
utilizando-se imagens do satélite IKONOS (Figura 35)
Figura 35 – Imagens de Foz do Iguaçu – sensor WFI do satélite CBERS (escala regional), sensor TM
do satélite LANDSAT (escala regional/local) e imagem do satélite IKONOS escala de detalhe),
respectivamente
Estações de rastreio
Existem estações de rastreio de satélites de recursos terrestres em todos os continentes, formando
uma rede de estações que permite que sejam coletadas informações sobre a superfície terrestre em
todas as latitudes e longitudes. A figura 36 apresenta a distribuição das estações de rastreio ao redor
do mundo.
Figura 36- Localização, ao redor do mundo, das estações de rastreio dos satélites de recursos
terrestres, as estações que recobrem a América do Sul estão localizadas na Argentina, Brasil e
Equador.
Cada sensor a bordo dos satélite apresentam distintas bandas que operam em diferentes faixas do
espectro eletromagnético, conhecendo o comportamento espectral dos alvos na superfície terrestre é
possível escolher as bandas mais adequadas para estudar os recursos naturais (Figura 37).
Banda 1 Banda 2
0,45-0,52 m m 0,52-0,59 m m
(azul) (verde)
Banda 3 Banda 4
0,63-0,69 m m 0,77-0,89 m m
(vermelho) (infravermelho próximo)
Na carta-imagem onde a vegetação aparece na cor vermelho vivo, a combinação de bandas foi feita da
seguinte forma: a cor azul foi associada à banda 2 (visível), a cor verde à banda 3(visível) e a cor
vermelha à banda 4 (infra-vermelho próximo). Esta combinação é chamada de falsa-cor, porque os
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
47
alvos aparecem na imagem em cores falsas, e não como são vistos na natureza. Este tipo de
combinação é muito usada para identificação de diferentes tipos de matas ou diferenciar áreas de mata
sadia das atacadas por enfermidades, ou para realçar sedimentos em suspensão na água.
A seguir serão caracterizados alguns objetos (alvos) observados nas cartas-imagem de Foz do Iguaçu,
mas antes desta caracterização deve-se levar em consideração a reflectância espectral dos objetos na
superfície terrestre em função das bandas espectrais dos sensores a bordo dos satélites (Figura 38).
Figura 38-Relação entre as bandas espectrais dos sensores remotos a bordo de satélites e a
reflectância de objetos (alvos) na superfície terrestre
Na figura 38 cada objeto (alvo) na superfície terrestre apresenta um curva espectral, que indica a
reflectância espectral de cada um deles nas diferentes bandas espectrais que compõem os sensores
remotos. Cada objeto (alvo) reflete de forma distinta nas bandas do visível e do infra-vermelho.
Assim quanto maior for o pico de reflectância neste gráfico, mais clara será a cor do objeto (alvo)
caracterizado na imagem, quanto menor for o pico de reflectância no gráfico, mais escura será a cor do
objeto (alvo) caracterizado na imagem.
Alvo 1: Lago do reservatório de Itaipu (Figuras 39, 40 e 41):
Figura 40 e Figura 41 - Estas duas figuras apresentam a superfície da água do lago do reservatório de
Itaipu (na parte superior); a barragem da hidrelétrica; um trecho do rio Paraná; áreas de mata; ao redor
do rio; áreas características de atividades humanas; nuvens (em branco) e a sombra das nuvens (em
preto). A Figura 8 corresponde a carta-imagem com as cores naturais e a Figura 9 a carta-imagem em
falsa cor.
As áreas de mata na figura 42 aparecem em tons de verde escuro e na figura 43 em tons de vermelho
vivo. As áreas de atividades humanas em ambas as figuras aparecem em tonalidades de verde claro,
indicando alguma reflectância do solo exposto.
Alvo 2: Áreas agrícola (Figuras 42 e 43)
Figura 42 e Figura 43
As áreas em verde claro na figura 42 e rosa na figura 43, representam áreas agrícolas com a presença
de vegetação, ou seja ainda não colhidas. As áreas em verde escuro e vermelho vivo ao longo dos rios
são áreas de mata ciliar.
Alvo 3: Cataratas do Iguaçu (Figuras 44, 45 e 46)
Figura 13 e Figura 14
As figuras 45 e 46 mostram a mata do Parque Nacional do Iguaçu (em verde escuro na figura 13 e
vermelho vivo na figura 46), o rio Iguaçu (em rosa claro na figura 45 e verde na figura 46) e as
cataratas do Iguaçu em tonalidade branca nas duas figuras. As tonalidades claras apresentadas pelo
rio Iguaçu nas duas figuras, são indicativas de águas túrbidas, com grande concentração de
sedimentos em suspensão. A tonalidade homogênea na área de mata é indicativa de áreas de mata
densa.
Nestas duas figuras é possível ver claramente o momento em que o canal do rio Iguaçu sofre um
estreitamento e passa a correr encaixado numa falha geológica dando origem as cataratas.
Alvo 4: Cidade de Foz do Iguaçu (Figuras 47, 48 e 49)
Figura 48 e Figura 49
Figura 50- Vista do rio Paraná e do Espaço das Américas no encontro dos rios Paraná e Iguaçu
Figura 51 e Figura 52 - As figuras 51 e 52 apresentam o encontro dos rios Iguaçu e Paraná, sendo
possível observar-se na porção leste parte da cidade de Foz do Iguaçu, ao sul parte da cidade de
Puerto Iguazu, na Argentina e a oeste parte da Ciudad Deleste, no Paraguai.
Nestas duas figuras pode-se observar áreas de mata (verde escuro na figura 51 e vermelho na figura
52), áreas urbanas em tonalidades claras nas duas figuras e tonalidades claras nas águas do rio
Paraná e Iguaçu, indicativas da presença de sedimentos em suspensão, sendo portanto águas túrbidas
com pouca transparência.
IMAGENS DE RADAR
A palavra radar vem do termo “radio detection and ranging”, o principio é que usando ondas de som
determinar posições. Com o seu desenvolvimento o processo passou a admitir o uso de ondas de radio
e energia de microondas.
O radar é aplicado a varias áreas, mas o seu emprego é abordado nas imagens de Sensoriamento
Remoto, o sistema radar utilizado é o que usa microondas por ter uma área de abrangência maior,
neste tipo de sistema nos não se obtém exatamente imagens mais sinais que são codificados em
imagens.
A operação básica é enviar através de uma antena pulsos muito curtos de microondas da ordem do
microsegundo um receptor destes sinais pode dar a localização dos pulsos que retorna através do
calculo da distancia percorrida de cada pulso que se move com aproximadamente a velocidade da luz c
num incremento de tempo t :
10
8 9
1
7 8
5
7
2 6 6
6
3
5
4
energia do retorno da
Pulso casa
retorno da
arvore
0 5 10
Uma das principais características do Radar é de ser um sensor ativo, isto é, ele emite as
ondas eletro magnéticas que observa isto possibilita sua aplicação em condições que desfavorecem o
uso de sensores convencionais passivos que utilizam modo geral a energia do sol ou emitida pelos
objetos para imagear uma dada região. Outra característica interessante é a penetração das
microondas na atmosfera sofrendo pouca influencia, com isto é possível registrar informações em
regiões com nuvens.
LIDAR
Poucas pessoas poderiam imaginar, há 15 anos, as transformações pelas quais passariam as técnicas
de mapeamento e, particularmente a fotogrametria, afetada pelos desenvolvimentos da informática.
Acrescenta-se as novas formas de aquisição de dados mediante emprego de novas tecnologias para
levantamentos em escalas grandes, como o levantamento direto em campo com GPS e a varredura a
laser (TOMMASELLI, 2000).
Conforme o mesmo autor, particularmente a varredura a laser, objeto de analise do estudo em tela, tem
possibilitado a determinaçao de modelos tridimencionais de objetos com exatidão, rapidez e baixo
custo (tendo em vista a relaçao custo/beneficio) suficientes para substituir os atuais processos com
estação total, com elevado grau de eficiencia. Um instrumental capaz de realizar um levantamento
detalhado e preciso, consumindo pouco tempo para faze-lo, elevaria substancialmente a capacidade de
monitorar, por exemplo, processos construtivos na engenharia.
A presente analise sera efetuada, tendo como enfoque o sistema de lasers scanners
aerotransportados, tendo em vista sua importância na aquisição de dados ao processamento digital de
imagens. Sera apresentado uma descrição do funcionamento do laser scanner baseando-se,
principalmente, no texto de WEHR & LOHR (1999), onde poder-se-a obter informações mais
detalhadas.
Um típico laser scanner e dotado de uma unidade de medição do laser propriamente dita, encarregada
de emitir e receber o sinal laser, um sistema de varredura optomecanico e uma unidade de registro de
medições de apoio, as quais veremos adiante em maiores detalhes.
Unidade de Medição:
A unidade de medição de laser e responsável pelas emissão e recepção do sinal. O sistema e
montado de tal forma que a transmissão e o recebimento tenham o mesmo caminho óptico e
assegurando que o objeto iluminado esteja sempre no campo de visão do receptor óptico (FOV: field of
view).
Há duas formas de emissão, que pode ser um pulso ou um sinal continuo. O sistema de pulso e mais
comum e baseia-se na emissão e recepção de curtos pulsos de energia onde, pulsos de alta energia
em intervalos curtos de tempo e ajustamento com pequenas aberturas, conferem elevada precisão. O
sistema de onda continua, conhecido como CW (continuous wave), funciona a partir da medição da
diferença de fase entre o sinal emitido e o recebido e, segundo WEHR & LOHR (1999), quando da
ediçao do artigo, havia somente um sistema aerotransportado sendo empregado comercialmente com
o sistema CW, pela Universidade de Stuttgart-Alemanha. Neste sistema aplica-se varias freqüências
(tons) para atingir altas resoluções.
O sistema usa um feixe óptico de alta potencia e bem direcionado, coerente no espaço e no tempo,
para medir esta distancia. Uma faixa estreita do espectro e utilizada, operando na faixa do
infravermelho próximo e médio, ou seja, entre 800 e 1600 nm. A faixa do espectro a ser utilizada e
condicionada por questões de segurança pois, devido a alta potencia de energia utilizada, o feixe pode
ser nocivo para os olhos humanos. A titulo de exemplo cita-se a empresa Toposys, que comumente
opera com a faixa de 1.535 nm.
E importante destacar que a escolha da melhor faixa do espectro a ser trabalhada depende das
propriedades de reflexão dos objetos, tendo em vista os objetivos do estudo. Por exemplo uma faixa de
1.535 nm não e adequada para a neve, que reflete pouco neste comprimento de onda, uma melhor
escolha, neste caso, seria de 810 nm. Para melhor ilustrar esta questão, apresenta-se alguns exemplos
no Quadro 1.
Quadro 1 – Reflexão de alguns materiais a 900 nm para o sistema laser scanner (adaptado de WEHR
& LOHR, 1999).
MATERIAL REFLEXAO %
Pinus 94
Neve 80-90
Areia Seca 57
Areia Úmida 41
Concreto 24
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
53
Conforme o exposto, podemos depreender que as propriedades físicas básicas que buscamos num
laser scanner sera: a) tenha elevado poder (relacionado com a energia); b) tenha pulsos curtos ou a
capacidade de modular a frequencia, no caso de CW; c) tenha alta colimação (poder de observação de
um instrumento) e; d) atue numa faixa estreita do espectro óptico de emissão, de modo a suprimir
efeitos de distúrbios de radiação, como por exemplo no caso de espalhamento da luz.
A varredura pode ser uni ou bi-direcional, existindo diferentes opções para se efetuar o
redirecionamento do feixe do laser, como por exemplo o uso de espelhos moveis. Entre as opções
disponíveis estão o uso de um espelho oscilante que produz linhas paralelas ou em “zig-zag”, o Palmer
Scanner, que utiliza um espelho que gira em torno de seu centro e produz um padrão elíptico e o
espelho em forma de polígono rotatório, que produz linhas paralelas. A Figura 55 ilustra este processo.
O sistema Toposys apresenta um modelo único no mercado, trabalha com fibras ópticas, sendo
conhecido como “fiber scanner”. Este sistema consiste num arranjo de fibras ópticas usado tanto para
emitir como para medir o sinal. Neste caso, o redirecionamento do feixe e feito usando um espelho
rotativo que possibilita registrar a energia proveniente de uma linha inteira com o arranjo de fibras
ópticas no plano montadas no focal da emissão e recepção. A transmissão e a recepção óptica são
idênticas, pois há uma camada igual de fibras ópticas nos planos. Este sistema confere ao aparelho
uma alta velocidade de escaneamento e precisão.
O principal objetivo para se trabalhar com este agrupamento de dados e o do calculo do modelo digital
de elevação.Resumidamente podemos dizer que o processo se da nas seguintes etapas: 1º) obtenção
dos dados laser; 2º) transformação para o sistema WGS84; 3º) nuvem de pontos; 4º) obtenção da
elevação e posição e; 5º) utilização de diferentes filtros e algoritmos para separar, por exemplo,
construções de vegetação. Conforme WEHR & LOHR (1999), os maiores avanços nos últimos anos
tem sido mais nas tecnicas de pos-processamento (softwares) do que no hardware scanner, onde a
aplicação de diferentes técnicas tem determinado o resultado final.
Outros sistemas podem registrar múltiplos ecos para cada pulso enviado, sendo útil para a elaboração
de perfis verticais de múltiplos objetos, a exemplo de arvores num bosque (veja Figura 57).
Aplicações e Exemplos
Na literatura já começam a surgir vários trabalhos relacionados com a aplicação em diversas áreas do
conhecimento, empregando-se a tecnologia laser scanner. Apenas para citar alguns trabalhos
científicos nesta área fazemos referencia ao artigo de CENTENO et al. (2000), onde os autores
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
56
Outro trabalho, na área da engenharia florestal, desenvolvido por NELSON et al. (1997) demonstrou a
aplicabilidade da tecnologia laser scanner para o estudo em uma floresta tropical primaria na Costa
Rica. A metodologia permitiu estimar a área basal, volume e biomassa da floresta, demonstrando sua
potencialidade principalmente em áreas de difícil acesso e com densa cobertura florestal.
De modo geral podemos dizer que a tecnologia laser scanner pode ser empregada para o mapeamento
de corredores (estradas, rios); linhas de transmissao elétrica; DTM especialmente em áreas florestadas
visando estudos de drenagem; mensuramentos de áreas costeiras para estudos de erosão; elaboração
de modelos 3D de construções em áreas urbanas; mapeamento rápido e avaliação após catástrofes
naturais (ex: terremotos); modelos 3D para filmes, vídeos, produções de games, animações e
simulações de projetos de engenharia; monitoramento do crescimento de plantas em agricultura de
precisao; estudos de solo e relevo visando o zoneamento ambiental; etc.
Nas Figuras 58 e 59 a seguir, ilustramos alguns exemplos de resultados obtidos do sistema laser
scanner.
Figura 58: Modelo Digital do Terreno de uma Cidade na França Sistema (extraído do site
http://www.geocites.com/capacanaveral/launchpad/8806/lasc/sommaire/html)
HORIZONTAL
45 GRAUS
Figura 59- Modelos Digitais de Terreno Produzidos pela GEOIDE (fonte: http://www.geiode.com.br).
14- http://www.inpho.de/
15- http://www.nav.uni-stuttgart.de/
16- http://www.ipf.tuwien.ac.at/
17- http://www.newtech-airborne.com/
18- http://www.optech.on.ca/
19- http://www.toposys.com/
20- http://www.combitech.se/survey/
21- http://www.kwc.de/vortrag/PL/TopoLaser/TopoLaser.htm
10 Referencias Bibliográficas:
ALAMÚS R.; KORNUS, W.; TALAYA, J. Studies on DMC Geometry. ISPRS Journal of
Photogrammetry and Remote Sensing. Volume 60, Issue 6, September 2006, pp. 375-386. 2006.
CRAMER, M. Calibration and validation of digital airborne cameras. In: ISPRS Commission I
Symposium "From Sensors to Imagery", Paris - Marne le Vallee, July 4-6. 2006. Proceedings. 2006b
CRAMER, M. The EuroSDR Performance Test for Digital Aerial Camera Systems. Photogrammetric
Week '07, Wichmann. p. 89-106. 2007.
DIN 18716-1, Photogrammetrie und Fernerkundung - Teil 1: Grundbegriffe und besondere Begriffe der
photogrammetrischen Aufnahme
DIN 18740-1, Photogrammetrische Produkte - Teil 1: Anforderungen an Bildflug und analoges Luftbild
FRICKER, P. Raising the Bar for Multi-Band, High-Resolution Airborne Imagery. Photogrammetric
Week '07, Wichmann, p. 71-79. 2007.
GRAHAM, R.; KOH, A.; BALTSAVIAS, M.; SCHÖNERMARK, M.; THEUWISSEN, A.; ZIEMANN, H.
Detector and Sensors. In: ASPRS Manual of Photogrammetry and Remote Sensing, 5th Edition.
American Society for Photogrammetry and Remote Sensing, p. 505-580. 2004.
GRUBER M.; LEBERL, F.; PERKO, R. Paradigmenwechsel in der Photogrammetrie durch Digitale
Luftbildaufnahme? Photogrammetrie, Fernerkundung, Geoinformation, v.4, p. 285-297. 2003.
GRUBER, M. UltraCamX, the new Digital Aerial camera System by Microsoft Photogrammetry.
Photogrammetric Week '07, Wichmann, p. 137-145. 2007.
HINZ, A.; DÖRSTEL, C.; HEIER, H. Digital Modular Camera: System concept and data processing
workflow, In: IAPRS, Vol. XXXIII, Part B1, Amsterdam. Proceedings, p. 164-171
HONKAVAARA, E.; AHOKAS E.; HYYPPA, J.; JAAKKOLA J.; KAARTINEN, H.; KUITTINEN, R.;
MARKELIN, L.; NURMINEN, K. Geometric test field calibration of digital photogrammetric sensors.
ISPRS Journal of Photogrammetry and Remote Sensing. Volume 60, Issue 6, p. 387-399. 2006.
ISO 7137, Aircraft - Environmental conditions and test procedures for airborne equipment
KRÖPFL, M.; KRUCK, E.; GRUBER, M. Geometric calibration of the digital large format camera
UltraCamD. International Archives of Photogrammetry, Remote Sensing and Spatial Information
Sciences 35 (Part B1), p. 42–44. 2004.
LEBERL, F.; GRUBER M. Flying the new large format digital aerial camera Ultracam.
Photogrammetric Week '03, Wichmann, pp. 67–76. 2003.
SANDAU, R., FRICKER, P. UND WALKER, A. Digital photogrammetric cameras: possibilities and
problems. Photogrammetric Week '99, Wichmann, p. 71-82. 1999.
SANDAU, R.; BRAUNECKER, B.; DRIESCHER, H.; ECKART, A.; HILBERT, S.; HUTTON, J.;
KIRCHHOFER, W.; LITHOPOULOS, E.; REULKE, R. WICKI, S. Design principles of the LH Systems
ADS40 airborne digital sensor. In: IAPRS, Vol. XXXIII, Part B1, Amsterdam. Proceedings, p. 258-265.
2000.
SIMONETT, D. Manual of remote sensing: Theory, instruments and techniques. 2. ed. Falls
Church, 1983.
STENSAAS, G. U.S. Geological Survey Digital Aerial Mapping Camera Certification and Quality
Assurance Plan for Digital Imagery. Photogrammetric Week '07, Wichmann, p. 107-116. 2007.
TÖLG, T. Newest Technologies for Compact Digital Aerial Survey Câmeras. Photogrammetric Week
'07, Wichmann, p. 131-136. 2007.
CENTENO, J. S.; STEINIE, E. & WOGTLE, T. Analise de modelo numerico de elevaçao derivados de
laser scanner para monitoramento urbano. ANAIS COBRAC-Congresso Brasileiro de Cadastro Técnico
Multifinalitario. Florianópolis/SC. 8p. 2000.
NELSON, R.; ODERWALD, R. & GREGOIRE, T.G. Separating the ground and airborne laser sampling
phases to estimate tropical forest basal area, volume, and biomass. Elsevier Science Inc. Remote
Sensing and Enviromen. 60:311-326. New York.1997.
TOMMASELLI, A.M.G. Tendencias da fotogrametria digital. Revista InfoGeo. Março/Abril. 63-65p. 2000.
WEHR, A. & LOHR, U. Airborne laser scanning-an introduction and overview. LSPRS Journal of
Photogrammetry and Remote Sensing (54)2-3. 68-82p. 1999.
Câmara G., Davis C., Monteiro A.M.V., D©Alge J.C.L., Felgueiras C., Freitas C.C., Fonseca
L.M.G., Fonseca F. Introdução à Ciência da Geoinformação, www.dpi.inpe.br
Schowengerdt, R. A., - Remote Sensing - Models and Methods for Image Processing, Ed. Academic
Press, 1997.
WOLF, P. R. Elements of Photogrametry with Air Photo Interpretation and Romote Sensing. 2ªed.
Singapore: McGraw-Hill Book Company, 1983.
http://www.inpe.br
http://www.dpi.inpe.br
http://www.agespacial.gov.br/sensoriamento.htm
http://www2.ibama.gov.br/
http://www.csr.ufmg.br/
http://www.img.com.br/imagem/
http://www.cnpm.embrapa.br
http://www.intersat.com.br
http://www.engesat.com.br
http://www.threetek.com.br
http://terra.nasa.gov
http://www.usgs.gov/
http://eospso.gsfc.nasa.gov/