Você está na página 1de 60

1

PÓS-GRADUAÇÃO GEOTECNOLOGIAS
ESPECIALIZAÇÃO LATO SENSU

SENSORIAMENTO REMOTO

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
2

Sumário:

1. Introdução
Conceito SR, Histórico e evolução do SR, SR no Mapeamento, Imagens vs. Mapas,
Segmentos de um Sistema de SR, Classificação dos Sistemas, principais organizações e o
mercado do SR;
2. Energia Eletromagnética
Onda eletromagnética, Transmitancia, Absortancia e Reflextancia, Equação do Fluxo Radiante,
Espectro eletromagnético, Visivel, Infravermelho, Microondas, Iterações com a Atmosfera;
3. Pré-processamento
Correções Atmosféricas, Correções radiométricas;
4. Iterações com Alvos
assinatura espectral
5. Interpretação de imgagens digitais
Interpretação visual vs. Automatica, conceito visão computacional, variáveis visuais,
Identificação de formas de relevo, padrões de drenagem, tipos de Vegetação;
6. Chaves de Interpretação
Assinatura espectral, textura, forma, sombra, tamanho, situação; definição de uma classe,
avaliação variabilidade interna, estabelecimento de regras de interpretação;
7. Plataformas classificação
Orbitas, resolução temporal, Altitude da Plataforma;
8. Sistemas Sensores Caracteristicas: Resolução espacial e radiometrica, geometria de
aquisição da imagem, tipo de varredura, correção geométrica, registro de uma imagem;
9. Principais Sistemas:
Landsat, Spot, CBERS, Quickbird, Rapid Eye, GeoEye, WorldView, IKONOS, ALOS, GOES,
Terra SAR, Tamdem-X, TOPEX;
10. Disponibilidade de dados:
SRTM, NASA, INPE, IBGE.
11. Aerotofogrametria:
Conceitos Básicos, Definição de Imagem Fotogramétrica Digital, Estações de Trabalho para a
Fotogrametria Digital, Geração de Imagens Fotogramétricas Digitais, Geração de Orto-imagens
Digitais, Fotointerpretação.
12. Aplicações:
Oceanografia, Planejamento, Monitoramento Florestal, Estudo de Desenvolvimento Regional,
Arquelogia, Geologia, Agricultura, Hidrografia.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
3

1. Introdução
Conceito SR, Histórico e evolução do SR, SR no Mapeamento, Imagens vs. Mapas,
Segmentos de um Sistema de SR, Classificação dos Sistemas, principais organizações e o
mercado do SR;

O sensoriamento remoto (SR) teve início com a invenção da câmara fotográfica que foi o primeiro
instrumento utilizado e que, até os dias atuais, são ainda utilizadas para tomada de fotos aéreas. A
câmara russa de filme pancromático KVR-1000, por exemplo, obtém fotografias a partir de satélites
com uma resolução espacial de 2 a 3 m.

As aplicações militares quase sempre estiveram à frente no uso de novas tecnologias, e no SR não foi
diferente. Após a tomada das fotos o balão era puxado de volta e as fotos reveladas eram utilizadas
nas tarefas de reconhecimento.

Posteriormente, aviões foram utilizados como veículos para o transporte das câmaras. Na
década de 60 surgiram os aviões norte americanos de espionagem denominados U2. Estes aviões,
ainda hoje utilizados em versões mais modernas, voam a uma altitude acima de 20.000 m o que
dificulta o seu abate por forças inimigas. Conduzido por apenas um piloto eles são totalmente
recheados por sensores, câmaras e uma grande variedade de equipamentos. Estes aviões têm sido
utilizados também para uso civil. Em 1995, um deles foi utilizado pelos Estados Unidos para
monitoramento de queimadas e mapeamentos diversos, nas regiões Norte e Centro-Oeste do Brasil.

A grande revolução do SR aconteceu no início da década de 70, com o lançamento dos


satélites de recursos naturais terrestres. Os satélites, embora demandem grandes investimentos
e muita energia nos seus lançamentos, orbitam em torno da Terra por vários anos.

Durante sua operação em órbita o consumo de energia é mínimo, pois são mantidos a
grandes altitudes onde não existe resistência do ar e a pequena força gravitacional terrestre é
equilibrada pela força centrífuga do movimento orbital do satélite. Estes aparatos espaciais
executam um processo contínuo de tomadas de imagens da superfície terrestre coletadas 24 h/dia,
durante toda a vida útil dos satélites. Nesta apostila usaremos o termo imagem no lugar de foto de
satélite, que têm o mesmo significado, embora o primeiro seja mais tecnicamente utilizado.

A evolução de quatro segmentos tecnológicos principais determinou o processo evolutivo do SR por


satélites:

a) Sensores – são os instrumentos que compõem o sistema de captação de dados e


imagens, cuja evolução tem contribuído para a coleta de imagens de melhor qualidade e
de maior poder de definição.
b) Sistema de telemetria – consiste no sistema de transmissão de dados e imagens
dos satélites para estações terrestres, e tem evoluído no sentido de aumentar a
capacidade de transmissão dos grandes volumes de dados, que constituem as
imagens.
c) Sistemas de processamento – consistem dos equipamentos computacionais e
softwares destinados ao armazenamento e processamento dos dados do SR. A
evolução deste segmento tem incrementado a capacidade de manutenção de acervos e
as potencialidades do tratamento digital das imagens.
d) Lançadores – consistem das bases de lançamento e foguetes que transportam e colocam
em órbita, os satélites. A evolução deste segmento tem permitido colocar, em órbitas
terrestres, satélites mais pesados, com maior quantidade de instrumentos, e
consequentemente, com mais recursos tecnológicos.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
4

Na verdade a evolução do SR é fruto de um esforço multidiciplinar que envolveu e envolve avanços na


física, na físico-química, na química, nas biociências e geociências, na computação, na mecânica, etc...

Existem várias séries de satélites de SR em operação, entre eles podemos citar: LANDSAT, SPOT,
CBERS, IKONOS, QUICKBIRD e NOAA. Os satélites das cinco primeiras séries são destinados
ao monitoramento e levantamento dos recursos naturais terrestres, enquanto que os satélites
NOAA fazem parte dos satélites meteorológicos, destinados principalmente aos estudos
climáticos e atmosféricos, mas são também utilizados no SR.

A seguir, uma descrição resumida de algumas destas séries de satélites. O sistema LANDSAT
(LAND SATellite) foi o primeiro a obter de forma sistemática, imagens terrestres sinópticas de
média resolução. Desenvolvida pela NASA a série de satélites LANDSAT iniciou sua operação
em 1972. Os primeiros satélites eram equipados com os sensores Multispectral Scanner System
(MSS). Esses sensores já tinham a capacidade de coletar imagens separadas em bandas
espectrais em formato digital, cobrindo a cada imagem uma área de 185km X 185km, com repetição
a cada 18 dias. A série passou por inúmeras inovações, especialmente os sistemas sensores
que atualmente obtêm imagens em 7 bandas espectrais. O último da série, o LANDSAT 7, é
equipado com os sensores ETM (Enhanced Tematic Mapper) e PAN (Pancromático). O
termo Pancromático significa uma banda mais larga que incorpora as faixas espectrais mais
estreitas, por esta razão a quantidade de energia da banda Pancromática chega ao satélite com maior
intensidade e isto possibilita ao sensor uma definição melhor. O Pancromático do LANDSAT chega a
uma resolução espacial de 15 m. Os satélites desta série deslocam a uma altitude de 705 km, em
órbita geocêntrica circular, quase polar e heliossíncrona, isto é, cruzam um mesmo paralelo terrestre
sempre no mesmo horário. No período diurno o Landsat cruza o equador às 9:50 h. Ao longo da
história do SR até o ano de 2004, a série LANDSAT foi a que mais produziu e forneceu imagens para
todos tipos de estudos e aplicações.

O sistema SPOT (Systeme Probatoire d’Observation de la Terre) foi planejado pelo governo francês em
1978, com a participação da Suécia e Bélgica, e gerenciado pelo Centro Nacional de Estudos
Espaciais (CNES), entidade responsável pelo desenvolvimento do programa e operação dos satélites.
O SPOT-1 foi lançado em fevereiro de 1986, o SPOT-2 em 1989 e o SPOT-3 em 1993, todos com
características semelhantes. O SPOT-4, lançado em 1998, incorpora mais um canal no modo multi-
spectral (XS) e um novo sensor para monitoramento da vegetação. As características básicas do
sistema SPOT são: Altitude 832 km; velocidade 13,3 km / s; área coberta por cena 60km X 60km; peso
1870 kg; dimensões 2m X 2m X 4,5m; taxa de transmissão de dados 50 Mbits / s; passagem diurna
em órbita descendente às 10:30 h. O sistema sensor do SPOT, HRVIR (High Resolution Visible
and Infra-Red) capta imagens em 4 faixas espectrais (XS1, XS2, XS3 e XS4) com resolução de 20m
e uma banda Pancromática (P) com resolução de 10m. O sensor de vegetação tem resolução
de 1.165m. Uma característica interessante do SPOT é possibilitar o imageamento fora do nadir
(o termo nadir é utilizado para definir a perpendicular à superfície terrestre a partir do satélite). O
instrumento sensor pode ser direcionado para os dois lados (leste e oeste), de 0º a 27º, permitindo a
obtenção de imagens dentro de uma faixa de 950 Km de largura, centrada no plano da órbita do
satélite. Esta técnica, conhecida como visada lateral, permite uma rápida capacidade de revista em
áreas específicas. Próximo ao equador uma mesma área pode ser observada, em média, a cada 3,7
dias. Este recurso, por demandar tarefas operacionais adicionais, tem custo relativamente alto.

Os satélites meteorológicos da série NOAA (National Oceanic and Atmospheric


Administration) orbita a uma altitude de 840 Km e coletam dados atmosféricos globais,
especialmente sobre as regiões polares e são também heliossíncronos. Operam em órbita circular,
quase polar cujo plano orbital faz um ângulo de aproximadamente 9º com o eixo terrestre e período

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
5

orbital em torno de 102 minutos. Existem sempre 2 satélites NOAA em operação que atuam
de forma complementar, um passa no início da madrugada e no início da tarde, enquanto o outro passa
no início da manhã e no início da noite. Portanto os imageamentos são realizados a cada seis horas.

Em 1999 estavam em operação os satélites NOAA-14 e NOAA-15. O sistema sensor de


imageamento do NOAA é o AVHRR (Advancing Very High Resolution Radiometer). O AVHRR e
demais sensores do NOAA destinam-se principalmente a estudos globais relacionados a: cobertura
vegetal; discriminação e distribuição de nuvens; separação terra-água; avaliação da extensão
da cobertura de neve e gelo; determinação das temperaturas superficiais dos mares e oceanos;
levantamento do perfil vertical da temperatura da atmosfera, conteúdo de vapor de água na
atmosfera; conteúdo de ozônio; medição do fluxo de partículas provindas do Sol e incidentes na
superfície terrestre.

Resumo dos principais eventos relacionados ao processo evolutivo do SR:


• 1672 - Desenvolvimento da teoria da luz;
- Newton : decomposição da luz branca;
• 1822 - Utilização de uma câmara primitiva;
- Niepa: geração da primeira imagem fotográfica fazendo uso de uma câmara primitiva
e papel quimicamente sensibilizado à luz.
• 1939 - Desenvolvimento de equipamentos ópticos;
• - Pesquisas de novas substâncias fotosensíveis;
• 1859 - Utilização de câmaras fotográficas a bordo de balões;
• 1903 - Utilização de fotografias aéreas para fins cartográficos;
• 1909 - Tomadas de fotografias aéreas por aviões;
• 1930 - Coberturas sistemáticas do território para fins de levantamento de recursos naturais;
• 1940 - Desenvolvimento de equipamentos para radiometria sensíveis à radiação
infravermelha;
- Utilização de filmes infra-vermelho na II Guerra, para detecção de camuflagem;
• 1944 - Primeiros experimentos para utilizar câmaras multiespectrais;
• 1954 - Desenvolvimento de radiômetros de microondas;
- Testes iniciais visando a construção de radares de visada lateral;
• 1961 - Desenvolvimento de processamentos ópticos e digitais;
- Primeiros radares de visada lateral;
• 1962 - Desenvolvimento de veículos espaciais tripulados e não tripulados;
- Lançamentos de satélites meteorológicos;
- Primeira fotografia orbital MA-4-Mercury;
• 1972 - Fotografias orbitais tiradas pelo programa Gemini;
- Surgem outros programas espaciais envolvendo satélite de recursos naturais: SEASAT,
SPOT, ERS, LANDSAT;
• 1983 - Lançamento do Landsat 4, SIR-A, SIR-B, MOMS;
• 1991 - Lançamento de ERS-1

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
6

2. Energia Eletromagnética
Onda eletromagnética, Radiação Solar, Transmitancia, Absortancia e Reflextancia, Equação do
Fluxo Radiante, Espectro eletromagnético, Visivel, Infravermelho, Microondas, Iterações com a
Atmosfera;

RADIAÇÃO SOLAR

O Sol é a principal fonte de energia para todo o sistema solar e, devido à sua elevada temperatura,
gera uma grande quantidade de energia que é irradiada para todo o espaço. Propagando-se pelo
vácuo com uma velocidade próxima de 300.000 km/s a energia radiante, também chamada radiação
solar, atinge a Terra onde é em parte refletida de volta para o espaço e em parte absorvida pelos
objetos terrestres transformando-se em calor ou outras formas de energia. Por exemplo, a radiação
solar ao ser absorvida pela água do oceano se transforma em calor que a faz evaporar formando as
nuvens e estas, ao se precipitarem na forma de chuva alimentam os reservatórios das usinas
hidroelétricas; a água acumulada nos reservatórios contém energia mecânica potencial que ao se
precipitar através dos geradores da usina é transformada em energia elétrica e então transportada (por
fios elétricos) para outros lugares onde novas transformações podem gerar luz, calor, acionar motores,
etc. A energia radiante também pode ser gerada na Terra por objetos aquecidos ou através de outros
fenômenos físicos. Por exemplo, o filamento de uma lâmpada se torna incandescente ao ser percorrido
por uma corrente elétrica, gera energia radiante, sob a forma de luz, que ilumina os objetos ao redor.

LUZ E RADIAÇÃO

Isaac Newton (1642-1727), um dos maiores cientistas de todos os tempos, provou que a radiação solar
poderia ser separada (dispersa) em um espectro colorido, como acontece num arco-íris. Sua
experiência, mostrou que a radiação solar visível (luz branca) é uma mistura de luzes de cores
diferentes. Experimentos realizados posteriormente mostraram que o espectro solar contém outros
tipos de radiação invisíveis, como a ultravioleta e a infravermelha (figura 1).

Figura 1. Dispersão da radiação solar.

Observe na figura 2 que ao agitar uma corda você transfere energia para ela e esta energia se propaga
formando ondas ao longo da mesma. Se você observar com cuidado verá que as ondas que se formam
tem uma geometria que se repete em ciclos de mesmo comprimento ao longo da corda. Esse
comprimento de onda depende da freqüência com que você agita a corda e também da velocidade
com que as ondas podem se propagar através dela (numa corda fina as ondas se propagam mais
rapidamente que numa grossa). Desta forma, uma propagação ondulatória de energia pode ser
caracterizada pelo comprimento ou freqüência das ondas que se formam. Para produzir ondas curtas
você precisa agitar a corda com freqüência mais alta, isto é, transferir mais rapidamente energia para a
corda; por isso, as ondas de comprimento de onda curto transportam mais energia por segundo.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
7

Diferente dos outros tipos de energia que dependem de um meio material (como a corda) para se
propagar de um lugar para outro, a energia radiante pode se deslocar através do vácuo; neste caso, os
físicos dizem que a radiação se propaga através de um meio denominado campo eletromagnético e,
por isso, é também denominada radiação eletromagnética (REM).

Figura 2. Propagação da energia.

Os comprimentos de onda da radiação eletromagnética podem ser tão pequenos que são medidos em
sub-unidades como o nanometro (1nm = 0.000000001m) ou o micrometro (1mm = 0.000001m). Por
outro lado as freqüências podem ser tão altas que são medidas em Gigahertz (1Ghz = 1.000.000.000
de ciclos por segundo) ou Megahertz (1MHz = 1.000.000 de ciclos por segundo).

Se organizarmos todo o nosso conhecimento sobre os diferentes tipos de radiação eletromagnética,


teremos um gráfico como o da figura 3, denominado EspectroEletromagnético, que foi construído
com base nos comprimentos de onda (ou freqüências) das radiações conhecidas. O espectro está
dividido em regiões ou bandas cujas denominações estão relacionadas com a forma com que as
radiações podem ser produzidas ou detectadas (com certeza você já ouviu falar em muitos desses
nomes, apenas não sabia que se tratavam de coisas da mesma natureza).

Figura 3. O espectro eletromagnético.

Podemos destacar algumas bandas do espectro e suas características mais notáveis:

1. A pequena banda denominada luz compreende o conjunto de radiações para as quais o


sistema visual humano é sensível;

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
8

2. A banda do ultravioleta é formada por radiações mais energéticas que a luz (tem menor
comprimento de onda); é por isso que penetra mais profundamente na pele, causando
queimaduras quando você fica muito tempo exposto à radiação solar.
3. A banda de raios X é mais energética que a ultravioleta e mais penetrante; isso explica porque
é utilizada em medicina para produzir imagens do interior do corpo humano.
4. As radiações da banda infravermelha são geradas em grande quantidade pelo Sol, devido à
sua temperatura elevada; entretanto podem também ser produzidas por objetos aquecidos
(como filamentos de lâmpadas).
5. O conjunto de radiações geradas pelo Sol, se estendem de 300 até cerca de 3000nm e essa
banda é denominada espectro solar.

LUZ E COR
O sistema visual do homem e dos animais terrestres é sensível a uma pequena banda de radiações do
espectro eletromagnético situada entre 400nm e 700nm e denominada luz. Dependendo do
comprimento de onda, a luz produz as diferentes sensações de cor que percebemos. Por exemplo, as
radiações da banda entre 400nm até 500nm, ao incidir em nosso sistema visual, nos transmitem as
várias sensações de azul e cian, as da banda entre 500nm e 600nm, as várias sensações de verde e
as contidas na banda de 600nm a 700 nm, as várias sensações de amarelo, laranja e vermelho.

Uma propriedade importante das cores é que estas podem ser misturadas para gerar novas cores.
Escolhendo três cores básicas (ou primárias) como o azul, o verde e o vermelho, a sua mistura em
proporções adequadas pode gerar a maioria das cores encontradas no espectro visível. Como você
pode ver na figura 4, os matizes formados podem ser agrupados em amarelo (Y), cian (C) e magenta
(M), este último não encontrado no espectro visível. A mistura das três cores primárias forma o branco
(W).

Figura 4. Mistura de cores.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
9

3. Pré-processamento
Correções Atmosféricas, Correções radiométricas;
http://www6.ufrgs.br/engcart/PDASR/

Correções Atmosféricas

Atualmente existem na literatura diversos métodos de correção atmosférica aplicados em dados


hiperespectrais e multiespectrais. Para uma melhor compreensão pode-se dividilos em métodos
alternativos e físicos.

3.1 - Métodos Alternativos

Os métodos alternativos são aqueles que utilizam informações intrínsecas das próprias imagens,
ou seja, utilizam “pixels” que são representativos de feições específicas. São correções que não
dependem de parâmetros atmosféricos ou de dados da superfície, e sim das informações da
própria imagem para determinar a contribuição da atmosfera em cada banda espectral. Uma de suas
limitações consiste na exigência de alvos específicos nas imagens analisadas.

Como exemplo de métodos alternativos pode-se citar:

“Internal Average Relative Reflectance” (IARR) (Kruse et al., 1985) - Este é um método
alternativo, onde a reflectância de cada “pixel” é obtida dividindo-se seu espectro de radiância
pelo espectro de radiância média da imagem. A correção em si é realizada através do espectro
médio da cena inteira, tomando-se este dado como espectro de referência. Cuidados devem ser
tomados quando esta técnica for aplicada, pois falsas feições podem ser introduzidas, se a
média do espectro contiver fortes características relacionadas com a composição da
superfície (Van den Bosch e Alley, 1990).
“Empirical Line” (Gao et al., 1991) - Neste método alternativo a reflectância de superfície aqui é
obtida através de uma regressão linear que estabelece a relação entre a reflectância dos alvos
selecionados e os dados de radiância correspondentes na imagem.

“Flat Field” (Roberts et al., 1986) - Este método é utilizado para normalizar imagens em uma área
de reflectância conhecida. Basicamente o espectro de radiância de cada “pixel” é dividido pelo
espectro de radiância média desta área, que servirá como referência para a obtenção da
reflectância de superfície.

Como exemplo de métodos alternativos, embora mais aplicados em imagens


multiespectrais, pode-se citar ainda, os métodos do histograma mínimo, da interseção em Y e o
método da regressão linear. Estes métodos são comentados e explicados em Ribeiro (1992) e
Freire (1996).

3.2 - Métodos Físicos

Nos métodos físicos, torna-se fundamental o conhecimento das propriedades ópticas da atmosfera e
do processo de interação da radiação com a atmosfera e a superfície. Estes métodos são
fundamentados na teoria da transferência radiativa, a fim de que retratem a complexidade da
atmosfera, que irá variar com o tipo de modelo a ser utilizado e o resultado final a que se
propõe.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
10

Na literatura, existem vários modelos que utilizam os chamados métodos físicos, sendo os mais
representativos:

“Atmospheric REMoval Program” (ATREM) (Gao e Goetz, 1990) - Este modelo utiliza um método
de transferência radiativa onde a reflectância de superfície é obtida a partir de dados, sem o
conhecimento prévio das características da superfície. O modelo utiliza bandas de absorção de vapor
d’água (0,94µm e 1,140µm) para calcular o vapor d’água “pixel” a “pixel”, a curva da irradiância solar
acima da atmosfera e o espectro de transmitância para os gases atmosféricos.

O MODELO 5s (Tanré et al., 1986) - Este modelo foi desenvolvido por pesquisadores do laboratório
de Óptica da Atmosfera de Lille (França), com o objetivo de estimar o sinal recebido pelos
satélites no espectro solar (0,25µm a 4,0µm) na ausência de nuvens.

O modelo tem sido utilizado principalmente para a estimativa de radiação solar na superfície e
para correção atmosférica. Utiliza ainda, um método de transferência radiativa onde a correção
atmosférica não é realizada diretamente, mas sim executada
para diferentes reflectâncias superficiais e diferentes modelos de aerossóis. Neste caso, a atmosfera é
empregada como a principal informação e sua presença é considerada através das propriedades
ópticas de seus constituintes (Zullo Jr., 1994).

“LOWTRAN 7” (Van den Bosch e Alley, 1990; Kneisys et al., 1988) - O modelo “Low Atmospheric
Radiance and Transmittance” (LOWTRAN) foi desenvolvido pelos pesquisadores da “Air Force
Geophysics Laboratory” (AFGL), para determinar a perda de transmissão e retornos da atmosfera
que afetam o desempenho dos sistemas eletro-ópticos de vigilância e os sistemas de armas e
orientação.

Inicialmente, este modelo restringia-se à determinação da transmitância (fator fundamental


para correção atmosférica) e da radiância emergente da atmosfera devido ao espalhamento
atmosférico (ar e aerossóis). Neste caso, não eram considerados os efeitos da interação da radiação
solar com o alvo. O Modelo LOWTRAN 7 possui significativas modificações em relação às versões
anteriores. Como exemplo, pode-se citar os cálculos de espalhamento múltiplo no visível e
infravermelho, bem como, os efeitos de nuvens e outros aerossóis atmosféricos.

A aplicação do LOWTRAN 7 para a correção atmosférica em imagens obtidas a partir do sensor


AVIRIS, tem demonstrado grande eficiência nos seus resultados. Este modelo tem suprido muita das
limitações impostas pelos outros modelos, com seus diferentes métodos alternativos ou físicos.
Isto elimina a necessidade de um conhecimento prévio da cena para identificar áreas com pouca
ou nenhuma característica de absorção no espectro.Dos modelos de correção atmosférica
existentes e utilizados para dados hiperespectrais, destaca-se o modelo “Moderate
Atmospheric Radiance and Transmittance” (MODTRAN 3). A precisão do método de
transferência radiativa e o modelo atmosférico influenciam diretamente na obtenção da
reflectância da superfície. Desta
maneira, verificou-se que o MODTRAN 3 seria um substituto em potencial do LOWTRAN 7,
uma vez que o primeiro possui algumas diferenças que o tornam mais preciso que o segundo.

O MODTRAN 3 é um modelo de resolução moderada da radiância e transmitância atmosférica,


que incorpora todas as capacidades do LOWTRAN 7, e contém ainda, modelos de bandas
moleculares mais sensíveis com uma resolução de 2cm 1− (Anderson et al., 1995).
Modificações foram feitas de modo a utilizá-lo de uma maneira mais adequada para dados do
AVIRIS (Green et al., 1993a). Entre elas pode-se citar:

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
11

(1) - A inclusão de medidas da reflectância de superfície;


(2) - A relação do modelo com as medidas de profundidade óptica; e
(3) - A relação do modelo com as medidas de vapor d’água.
Uma atualização da obtenção do espectro de irradiância solar foi incorporada ao modelo
MODTRAN 3, produzindo resultados mais precisos que os obtidos por outros modelos, citando
como exemplo o próprio ATREM (Green e Gao, 1993).

Várias comparações e comentários sobre estes métodos e outros menos comuns,


empregando diversos modelos, podem ser encontrados em Popp (1995), Ferrier (1995),
Rahman e Dedieu (1994), Gilabert et al. (1994), Farrand et al. (1994), Putsay (1992), Fraser
et al. (1992), Van den Bosch e Alley (1991) e Philpot (1991).

3.3 - Correções Radiométricas

As imagens originais freqüentemente apresentam degradações radiométricas, em função de desajustes


na calibração dos detectores, erros esporádicos na transmissão dos dados e influências atmosféricas.

A correção radiométrica de imagens visa corrigir estas degradações e é uma das mais importantes
fases do processamento digital, pois, caso estas imperfeições não sejam removidas, poderão ser
enfatizadas, por exemplo, quando da aplicação da técnica de realce de imagens.

As principais correções radiométricas são o "stripping" (padrão sucessivo de linhas horizontais que
aparecem na imagem, devido, por exemplo, à diferença ou desajuste de calibração dos detetores) e o
"dropedlines" ou linhas com ausência de informação (padrão horizontal anômalo na imagem que ocorre
pela perda de informações quando da gravação ou transmissão defeituosa ou ainda no processamento
posterior dos dados).

A atmosfera é outro provocante de degradações nas imagens originais, muitas vezes comprometendo
a análise e interpretação destas. A intensidade da influência atmosférica depende do comprimento de
onda, ou seja, varia de banda para banda, e a sua correção na imagem pode ser feita a partir de um
modelo matemático. Esses modelos matemáticos são de difícil aplicação porque normalmente os
parâmetros atmosféricos requeridos no modelo geralmente são desconhecidos. Esses parâmetros
devem ser obtidos na hora e data de passagem do satélite por estações meteorológicas com
equipamentos de radiossondagem.

Na prática, desenvolvem-se técnicas de correção atmosférica, com bons resultados, principalmente o


método do Mínimo Histograma, que consiste na identificação, na imagem, de áreas com sombras de
relevo, sombras de nuvens ou corpos límpidos d'água, onde se assume que essas áreas possuem
radiância zero e os valores de níveis de cinza não nulos encontrados nesses alvos são considerados
provenientes do efeito aditivo do espalhamento atmosférico. O menor valor medido em cada banda
espectral nessas áreas é subtraído dos valores digitais de toda a cena, na respectiva banda.

Um outro método alternativo de correção atmosférica é o da Regressão de Bandas. Este método


assume que entre duas bandas altamente correlacionadas, a equação da reta de melhor ajuste deveria
passar pela origem, caso não houvesse efeito aditivo da atmosfera. Porém, devido a este efeito, a reta
corta o eixo y em algum ponto maior do que zero. O valor do ponto de interceptação representa o valor
adicionado devido a efeitos atmosféricos naquela banda. Esse valor constante da equação da reta é
subtraído da banda considerada.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
12

4 Iterações com Alvos


assinatura espectral

ASSINATURAS ESPECTRAIS
Quando a radiação interage com um objeto, pode ser refletida, absorvida ou mesmo transmitida (no
caso de objetos transparentes). Em geral a parte absorvida é transformada em calor ou em algum outro
tipo de energia e a parte refletida se espalha pelo espaço. O fator que mede a capacidade de um objeto
de refletir a energia radiante indica a sua reflectância, enquanto que a capacidade de absorver energia
radiante é indicada pela sua absortância e, da mesma forma, a capacidade de transmitir energia
radiante é indicada pela sua transmitância. Certamente um objeto escuro e opaco tem um valor baixo
para a reflectância, alto para a absortância e nulo para a transmitância. A reflectância, absortância e a
transmitância costumam ser expressas em percentagem (ou por um número entre 0 e 1).

Podemos medir a reflectãncia de um objeto para cada tipo de radiação que compõe o espectro
eletromagnético e então perceber, através dessa experiência, que a reflectãncia de um mesmo objeto
pode ser diferente para cada tipo de radiação que o atinge. A curva a da figura 5 mostra como uma
folha verde tem valores diferentes de reflectância para cada comprimento de onda, desde o azul até o
infravermelho próximo. Esse tipo de curva, que mostra como varia a reflectância de um objeto para
cada comprimento de onda, é denominada assinatura espectral e depende das propriedades do
objeto.

Figura 5. Assinaturas espectrais.

Analisando a assinatura espectral da folha verde na figura 5, podemos explicar as razões para as
variações encontradas: na banda visível (B, G e R), a pequena reflectância (maior absortância) é
produzida por pigmentos da folha (clorofila, xantofila e carotenos) enquanto que na banda
infravermelha (IR), a maior reflectância resulta da interação da radiação com a estrutura celular
superficial da folha. Duas características notáveis resultam dessa assinatura espectral: 1- a aparência
verde da fôlha, e por extensão da vegetação, está relacionada com a sua maior reflectância nessa
banda (G) e é produzida pela clorofila, 2- a elevada reflectância na banda infravermelha (IR) está
relacionada com os aspectos fisiológicos da folha e varia com o seu conteúdo de água na estrutura
celular superficial; por isso é um forte indicador de sua natureza, estágio de desenvolvimento,
sanidade, etc. Veja na curva b da mesma figura a assinatura espectral de uma folha seca. Você seria
capaz de explicar a razão das mudanças? Veja ainda nessa figura, a curva c que mostra a assinatura
espectral de uma amostra de solo; no caso do exemplo trata-se de um tipo de solo contendo ferro e
pouca matéria orgânica.

CÂMARAS DIGITAIS
Na figura 6, que mostra a estrutura do olho humano, você pode perceber como as imagens dos objetos
observados são formadas. Cada ponto do objeto reflete luz em todas as direções e parte dessa luz
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
13

refletida atinge o olho sendo focalizado pelo cristalino (uma lente orgânica) sobre o fundo do olho
numa região chamada retina. Desta forma, o conjunto de todos os pontos projetados sobre a retina
formam uma imagem do objeto. Na retina, milhões de células sensíveis à luz são estimuladas pela
imagem e transmitem sinais nervosos para o cérebro, através do nervo óptico .No cérebro esses
sinais são interpretados como sensações de forma, brilho e cor em função de nossa experiência visual.

No fundo do olho, a retina é recoberta por dois tipos de células: os cones e os bastonetes. Os cones
estão divididos em grupos sensíveis ao azul, ao verde e ao vermelho; assim, quando a imagem de um
objeto colorido é projetado sobre a retina, as células correspondentes às cores da imagem são
excitadas e enviam para o cérebro os sinais nervosos respectivos que são interpretados como
sensações adicionais de cor. Os bastonetes não tem sensibilidade para cores, entretanto tem maior
sensibilidade para detectar sinais luminosos fracos e são responsáveis pela visão noturna. Você
certamente já ouviu falar que "à noite todos os gatos são pardos; tente justificar isso!

Figura 6. O sistema visual humano.

Com o desenvolvimento da tecnologia das câmaras digitais, o processo fotográfico está sofrendo
transformações muito importantes que aumentam a sua flexibilidade e aplicações. Compare a a câmara
digital, mostrada na figura 7, com a câmara convencional da mesma figura. Veja que as partes ópticas
são iguais, entretanto no lugar do filme é utilizado um chip CCD. Um chip CCD é um dispositivo
eletrônico composto de milhares de pequenas células sensíveis à radiação, também chamadas de
detetores, dispostas numa matriz (linhas e colunas). Quando uma imagem é projetada sobre o chip,
cada detetor é ativado gerando uma pequena carga elétrica proporcional ao brilho da parte da imagem
projetada sobre ele. Um componente eletrônico da câmara, lê rapidamente o valor da carga de cada
detetor e a registra num dispositivo de memória física (cartão de memória, disquete, fita magnética,
disco óptico) na forma de um arquivo de computador, Esses arquivos podem então ser lidos por um
programa do computador que torna as imagens visíveis para serem analisadas, modificadas e
impressas.

Figura 7. Câmara convencional e câmara digital CCD.

Quando um computador lê o arquivo da imagem digital, esta é exibida no monitor como um conjunto de
células organizadas em uma matriz de linhas e colunas equivalente à do chip CCD. Cada célula dessa
matriz é denominada PIXEL (de picture cell) e o seu brilho (tonalidade) é proporcional ao valor ou nível
digital registrado na célula correspondente do chip CCD.

Não é difícil perceber que uma câmara digital cujo chip CCD tem poucos detetores sensíveis, produz
imagens pouco detalhadas como a da figura 8b; por outro lado, se o chip tem uma grande quantidade
de detetores a imagem exibirá detalhes que antes não podiam ser percebidos, como mostra a figura
8a.
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
14

A qualidade da imagem relacionada com a sua capacidade de registrar detalhes de uma cena é
denominada resolução geométrica ou espacial. Essa resolução da imagem depende da qualidade
óptica da câmara e do número de detetores do chip CCD.
Muitas vêzes a resolução da imagem costuma ser expressa pelo tamanho do elemento da cena
representada por um píxel; por exemplo, se cada píxel da imagem 8b representa uma parte da cena de
1mm x 1mm então costuma se dizer que a imagem tem resolução de 1mm.

Figura 8. Pixel e resolução na imagem digital.

Uma câmara como o da figura 7 gera imagens pancromáticas (todas as cores) em tons de cinza,
como as da figura 8, entretanto a sua configuração pode ser modificada para que produza imagens
coloridas. Veja no arranjo da figura 9 que a luz proveniente da cena é separada por um dispositivo
óptico, formado por prismas e filtros, em três componentes. Escolhendo filtros adequados para as cores
primárias azul, verde e vermelho, uma imagem da cena, em cada uma dessas três bandas, é projetada
sobre o chip CCD correspondente. A leitura dos chips pelo sistema eletrônico gera três imagens
monocromáticas (relativas a uma cor) da cena que são gravadas em um arquivo de computador.

Figura 9. Uma câmara digital colorida.

Para entender como essas três imagens podem ser compostas para sintetizar uma única imagem
colorida no computador observe a figura 10. A tela do monitor é composta de milhares de pequenas
células coloridas (azul, verde e vermelho) dispostas em trincas como em D. Quando o computador
superpõe as imagens das três bandas no monitor, as células de cada cor, brilham com intensidades
proporcionais aos níveis digitais de cada píxel da imagem monocromática correspondente e o resultado
percebido é uma imagem colorida. Se você olhar para a tela do monitor com uma lente de aumento
poderá observar essas trincas, entretanto sem a lente, cada uma delas funciona como se fosse um
único pixel já que o seu sistema visual não tem resolução suficiente para percebê-las. Resumindo:
decompõe-se a imagem para registrá-la e compõe-se os registros para exibi-la de forma colorida.

No exemplo da figura 10 você pode perceber que as imagens da vegetação nas componentes A, B e C
guardam estreita relação com a assinatura espectral da folha mostrada na figura 5. Note que em A, a
vegetação aparece escura, na B onde a reflectância é maior aparece em tonalidade mais clara e na
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
15

imagem C, onde a clorofila absorve a radiação vermelha, aparece novamente mais escura; com base
na figura 4, é fácil entender porque a vegetação aparece verde na imagem colorida. Como exercício,
tente justificar a aparência da área de solo preparado que aparece na imagem colorida.

Figura 10. Sintetizando uma imagem colorida.

CÂMARAS NÃO CONVENCIONAIS


Um sensor remoto é um sistema opto-eletrônico utilizado para gerar imagens ou outro tipo de
informações, sobre objetos distantes. A câmara digital que analisamos pode ser considerada como um
sensor remoto quando instalada em uma aeronave para fotografar a superfície da Terra; entretanto
esse sensor remoto seria ainda muito simples e gerando imagens coloridas apenas na parte visível do
espectro.

A figura 11 mostra como a nossa câmara digital pode ser aperfeiçoada para obter imagens que incluam
a banda infravermelha (muito importante para o estudo da vegetação). Para isto, o nosso sistema
sensor foi modificado para incluir um filtro e um chip CCD, sensível à radiação infravermelha, no lugar
do filtro e do chip CCD da banda azul. Neste caso, os filtros dicróicos fazem uma separação preliminar
das bandas em verde, vermelha e infravermelha e os filtros secundários separam com maior precisão
as bandas desejadas. As imagens geradas nos 3 chips CCD são então armazenados em um arquivo
compatível com computador da mesma forma que na câmara convencional.

Como não existe uma cor básica correspondente ao infravermelho, um artifício é utilizado na hora de
observar a imagem obtida no computador. Utilizamos a cor básica azul para representar o registro da
banda verde, a cor verde para representar o registro da banda vermelha e a cor vermelha para
representar o registro da banda infravermelha. Você pode ver que a imagem produzida desta forma, na
figura 12, tem as formas e textura esperadas entretanto, as cores não correspondem à nossa
experiência visual e por isso esse tipo de imagem é denominada falsa-cor.

Imagens construídas com a banda infravermelha podem ter uma quantidade muito maior de
informações temáticas que as convencionais (de cores naturais); entretanto, é importante ressaltar que
o significado dessas cores e suas variações, deve ser analisado com base no conhecimento das
assinaturas espectrais dos objetos, para que possamos extrair informações corretas sobre as suas
propriedades.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
16

Figura 11. Uma câmara digital de infravermelho.

Veja na figura 12 que a vegetação aparece em tonalidades de magenta e isso é simples de explicar se
você observar que na assinatura espectral da vegetação predominam as reflectâncias nas bandas
verde (B) e infravermelha (C), sendo esta última maior. Como estas bandas são representadas na
imagem pelas cores azul e vermelha, a mistura destas gera as tonalidades de magenta com
predominância de vermelho. Da mesma forma, a tonalidade cian do solo resulta das reflectâncias mais
elevadas nas bandas vermelha e infravermelha. Veja na imagem c que a água do rio tem reflectância
quase nula na banda infravermelha; observando as imagens (A e B), qual seria a cor natural desse rio?
Da mesma forma que o nossa câmara foi modificada para funcionar na banda infravermelha, outras
bandas podem ser incluídas utilizando chips e filtros adequados. Nos sensores orbitais, como o
Landsat, Spot e o Cbers, os sensores são bem mais sofisticados e tem muitas bandas (veja na tabela
1), entretanto seguem os mesmos princípios discutidos para a nossa câmara digital.

Figura 12. Sintetizando uma imagem colorida falsa cor.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
17

5 Interpretação de imgagens digitais


Interpretação visual vs. Automatica, conceito visão computacional, variáveis visuais,
Identificação de formas de relevo, padrões de drenagem, tipos de Vegetação;

A interpretação da paisagem, através da correlação entre a realidade de campo e a fotografia aérea


ou a imagem de satélite permite uma delimitação prévia das unidades taxonómicas de pedologia, que
permite um melhor planeamento do trabalho de campo. Contudo, a foto-interpretação é uma técnica
indispensável ao sucesso final dos trabalhos quer de levantamento ou cartografia pedológica, quer
de delimitação de unidades homogéneas de terra para posteriores interpretações e decisões ao nível
do planeamento do uso da terra.

Assim, pode definir-se a foto-interpretação como, o acto de examinar imagens com o fim de identificar
objectos, áreas ou fenómenos e ajuizar o seu significado. Quando a foto-interpretação é efectuada
com o objectivo de elaborar cartografia pedológica, ela torna-se num exame dos elementos dos
padrões fotográficos, quantitativos e qualitativos, que permitem diagnosticar as prováveis unidades de
solos existentes em determinado local.

ATIVIDADES DA FOTO-INTERPRETAÇÃO
O acto de foto-interpretar desenvolve-se através das seguintes actividades:
o Identificar
o Medir (áreas, perímetros, alturas, etc)

Por exemplo a Altura de um objeto é medida através da aplicação da seguinte fórmula à

h = (Z x d) /r
onde:
h – altura do abjeto
Z – altura do vôo
d – distância entre o topo e a base do objeto
r – distância radial ao topo do objeto

PROCEDIMENTOS DA FOTO-INTERPRETAÇÃO
As diversas actividades desenvolvem-se ao longo da seguinte sequência de procedimentos:
o Reconhecimento e Identificação - Consiste na integração de observações dispersas
numa apreciação global da paisagem.
o Análise - Consiste no exame de conjunto para dele separar os elementos
constituintes e estabelecer as relações com o todo.
o Dedução – Objectos não directamente perceptíveis. Dependem de um raciocínio. É
particularmente perigoso, pois requer sólidos conhecimentos do meio e suas
correlações com a foto-imagem.
o Interpretação - Após a individualização, segue-se a identificação e a descrição.
o Classificação e Idealização - Ainda que condicionada pelo trabalho de campo esta
fase pode ser considerada como a parte final do trabalho de gabinete.

TÉCNICAS OU MÉTODOS DE FOTO-INTERPRETAÇÃO


As técnicas ou métodos de foto-interpretação utilizados para levantamento de solos são: análise
de padrões, análise fisiográfica, chaves de identificação e análise de elementos.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
18

 Análise de padrões
Os elementos padrões são indicativos de condições superficiais e subsuperficiais. (forma do
terreno, drenagem, aspectos erosivos, vegetação, tonalidade fotográfica e aspectos culturais). Cada
elemento padrão sugere certas condições de solo.
 Análise fisiográfica
Segundo GOOSEN (1968), o termo Fisiografia tem origem no grego physis – natureza juntamente com
graphos – descrição. Assim, identificar unidades fisiográficas é associar diferentes formas de
relevo e posições dos solos nesse relevo determinando a sua delimitação provável.

 Chaves de identificação
As chaves de interpretação são descrições de relações entre o aspecto dos registos que se
observam e os objectos que lhes correspondem. Estas chaves podem ser desenvolvidas para
auxiliar qualquer interpretador de qualquer imagem e podem ser de diversos tipos. Assim, podem ser
uma espécie de chaves dicotómicas descritivas ou, desenhos ou com referências aos objectos
que correspondem àqueles aspectos visuais, etc.

 Análise de elementos

Ainda segundo Goosen (1968), as características da superfície da terra, estão de alguma


maneira, relacionadas com o solo. A análise dos elementos ou parâmetros fotográficos, numa
imagem, é feita separadamente em diversos elementos como por exemplo: a dimensão, a forma, as
sombras; os tons ou cores; a textura; o padrão; a localização; a associação e a resolução. Assim:

o A dimensão – Numa imagem com uma escala conhecida, algumas medições e


aplicações dos conceitos de fotogrametria, permitem determinar a dimensão dos objectos
em análise e ao comparar uns com os outros consegue-se mais facilmente identificar
cada um;

o A forma – este é um elemento importante pois alguns objectos têm formatos muito
próprios o que lhes permite uma identificação rápida e fácil;

o As sombras – Este é um elemento que tanto pode ajudar como complicar a


fotointerpretação. Por um lado as sombras permitem revelar silhuetas mas, por outro lado,
escondem detalhes como por exemplo nas zonas ensombradas da parede de um edifício de
grande porte ou de uma ravina, ou ainda, de uma encosta com declive elevado e
arborização exuberante.

o Os tons ou cores – Por comparação com aquilo que se está habituado a observar e
identificar, este elemento torna-se muito acessível ao foto-interpretador. Por exemplo:
quanto maior a humidade do solo, mais escura é a tonalidade na imagem; solos
arenosos reflectem mais e solos argilosos menos, donde se pode deduzir a sua textura;
quanto maior o teor de ferro e matéria orgânica, mais escura a tonalidade. Contudo, se
a imagem for de falsa-cor, é necessário ter experiência da relação entre as cores ou tons
que ficam registadas e aquelas os nossos olhos vêm. Frequentemente é necessário um
período de aprendizagem e treino para se conseguir alcançar uma boa foto-interpretação
de falsa-cor. Não obstante estas aparentes dificuldades, este elemento é um dos mais
importantes pois conseguem-se registos de objectos ou fenómenos que os nossos olhos
não captam, como por exemplo, o estado de saúde da vegetação.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
19

o A textura – A impressão de rugosidade lisura, criada pela observação de alguns


objectos é a chamada textura do objecto. Por vezes a textura é criada pela repetição
de tons em grupos de objectos pequenos e difíceis de identificar por si só.

o O padrão – quando uma imagem regista uma característica de forma repetitiva, cria-
se um padrão. É o caso de usos da terra com recurso a terraços, ou culturas feitas segundo
curvas de nível.

o A localização – é um elemento ligado à posição dos objectos em relação ao terreno ou


outros objectos, como por exemplo uma linha de vegetação identificada numa posição lateral
em relação a uma linha de água, pode levar à interpretação de que será vegetação ripícola.

o A associação - alguns objectos surgem muito frequentemente associados com outros


como por exemplo a presença de sulcos ao longo de toda uma encosta, indicam que
aquela região está ou esteve sujeita a fortes enxurradas e tem problemas de erosão.

o A resolução – é um elemento que limita ou ajuda o foto-interpretador, de acordo com as


suas necessidades de pormenorizar o estudo. Todos estes elementos em conjunto permitem
ao foto-interpretador interpretar uma série de fenómenos que ocorrem na paisagem e
assim, deduzir acerca dos solos e outros factores importantes (destrutivos ou benéficos)
para a cartografar e auxiliar o planeamento. Desta forma, por exemplo:

o O relevo é directamente visível na fotografia aérea (melhor ainda se observada em


estereoscopia) e é um factor de formação do solo. Assim, uma mudança de relevo significa,
regra geral, mudança de solo. Por esse motivo ele é o principal elemento utilizado na foto-
interpretação pedológica.

o A rede de drenagem natural é, depois do relevo, um óptimo indicador das condições


do terreno, sendo o elemento mais consistente e confiável. A sua fácil visualização nas
fotografias aéreas ou imagens digitais, favorece a utilização de correlações com os tipos
de solos.

o A erosão é um elemento que possibilita estudar e relacionar as formas e dimensões


da rede de drenagem natural com solos de diferentes texturas.

o A vegetação natural é um elemento de fácil visualização em fotografias aérea e


imagens digitais, podendo ser associada ao solo. Assim, uma grande concentração de
vegetação de grande porte pode indicar solos mais profundos. O grande problema que
ocorre é que grande parte da vegetação natural já foi removida.

o O uso actual pode ser um indicativo que possibilitará fazer correlações com os
solos. Contudo, o tipo de dedução, interpretação e classificação, são
completamente diferentes das utilizadas para a vegetação natural.

MÉTODOS DE ANÁLISE ESPACIAL POR FOTO-INTERPRETAÇÃO


Os métodos que a foto-interpretação utiliza na análise espacial para efectuar cartografia de solos
podem ser directos ou indirectos. Segundo Carmo et al. (1990), uma unidade de solo é uma área
indivisível com características próprias em termos de produtividade, sendo reflexo, em última análise,
da interacção de todas as variáveis biológicas e ambientais que afectam o crescimento.

 Métodos directos : Baseiam-se em medições da capacidade produtiva.


Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
20

 Método comparativo :Utilizam a comparação e confrontação entre os vestígios ou


estruturas encontradas com elementos do mesmo tipo já conhecidos. Apresentam muitas
limitações pois as estruturas são, quase sempre, complexas e atípicas

 Métodos indirectos: As estruturas existentes na paisagem têm 2 grandes origens:


A. Causas de origem física – condicionam a actividade humana (montanhas e rios funcionam
como barreiras)
B. Causas que decorrem da actividade humana
o Desenvolvimento da expansão natural da exploração do solo (formas radiais ou estreladas)
o Imposição de limites nos campos (colonizações internas)
o Trabalhos que condicionam a paisagem (barragens, auto-estradas)

6 Chaves de Interpretação
Assinatura espectral, textura, forma, sombra, tamanho, situação; definição de uma classe,
avaliação variabilidade interna, estabelecimento de regras de interpretação;

Decomposição de uma paisagem


Para decompor uma paisagem em estruturas/tipo identificam-se LIMITES

Identificação de estruturas / tipo que se associam aos limites:

Limites de extremo a extremo


Regra geral são significado de:
• Estradas
• Fósseis de estrada
• Ribeiras
• Caminhos de ferro

Parcelamentos regulares quadriculados


Regra geral são significado de:
• Cadastros antigos
• Emparcelamentos
• Planos de aldeias e vilas

Estruturas não quadriculadas


Regra geral são significado de:
• Estruturas radiais
• Drenagens
• Planos de aldeias e vilas

Parcelamentos curvilíneos
Regra geral são significado de:
• Rios e lagos
• Curvas de estradas
• Núcleos ou perímetros envolventes
de núcleos urbanos

Contudo, na paisagem, a maioria dos limites não estão no estado “puro”. Verifica-se a existência
simultânea de várias associações de estruturas / tipo.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
21

O mais normal é, os cadastros encontrarem-se ligados a uma estrada e relacionados com um


núcleo de importância variável, não obstante serem dependentes e indicadores de tipos de solos
diferentes.

Contudo, na paisagem, a maioria dos limites não estão no estado “puro”. Verifica-se a existência
simultânea de várias associações de estruturas / tipo.

O mais normal é, os cadastros encontrarem-se ligados a uma estrada e relacionados com um


núcleo de importância variável, não obstante serem dependentes e indicadores de tipos de solos
diferentes.

Índices hidrográficos - Prospecção Pedológica


Resultam de alterações ou anomalias no teor de humidade do solo. Ex: A neve que cobre uma
área no Inverno, derrete primeiro em locais que se encontrem sobre fossas.

Índices de sombra - Prospecção Pedológica


As sombras projectadas por micro-relevo são invisíveis no solo e resultam da acumulação de neve ou
de depressões do próprio solo sobre estruturas subterrâneas.
Estas sombras só são postas a descoberto pela luz rasante e por isso é ao princípio ou ao fim do dia
que se podem analisar estes índices

Análise cronológica
Determinar se os limites das parcelas são dependentes ou independentes da via ou vias
que lhe são contíguas. Assim, se os limites dasparcelas atravessam o caminho como se ele
não existisse, significa uma relação de independência, ou seja, o parcelamento é anterior ao caminho.

Contudo, se o emparcelamento existe apoiado nos limites do caminho e é com ele ou a partir dele que
se articula, significa que existe uma relação de dependência, ou seja, o caminho é anterior ao
parcelamento.

7 Plataformas classificação
Orbitas, resolução temporal, Altitude da Plataforma;

Sensores remotos podem ser colocados em aeronaves, foguetes e balões para obter imagens da
superfície da Terra, entretanto estas plataformas são operacionalmente caras e limitadas. Uma boa
idéia neste caso é utilizar satélites artificiais para instalar esses sistemas. Um satélite pode ficar girando
em órbita da Terra por um longo tempo e não necessita combustível para isso; alem do mais, a sua
altitude permite que sejam obtidas imagens de grandes extensões da superfície terrestre de forma
repetitiva e a um custo relativamente baixo.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
22

Como os satélites ficam em órbita e não caem? Esta é uma pergunta freqüente cuja resposta é
bastante fácil de entender. Vamos imaginar uma experiência simples: pegue uma pedra, levante a do
chão e solte; a pedra cai verticalmente puxada pelo seu peso, isto é, pela força da gravidade. Jogue a
pedra horizontalmente em frente, ela também cai só que desta vez realiza uma trajetória curva antes de
atingir o solo. Vamos melhorar o nosso experimento; agora você sobe num lugar bem alto (que tal o
pico do Everest?) e lança novamente a pedra em frente com bastante força; esta ainda descreve um
arco antes de cair ao solo, só que muito mais longe de você. Se você puder lançá-la com tanta força
que o arco que realiza seja paralelo à curvatura da Terra, então a pedra dará a volta na Terra, passará
por você (abaixe a cabeça!) e continuará "caindo", isto é dando voltas em torno da Terra. Neste
momento você poderá dizer que a pedra entrou em órbita e se transformou num satélite da Terra
(como a Lua). Neste experimento você pode perceber que existe uma velocidade crítica de lançamento
para que a pedra entre em órbita (a bem da verdade, nesse experimento, a pedra logo cairá ao solo
porque a resistência do ar diminuirá constantemente a sua velocidade e a órbita será uma espiral
descendente).

Como levar um satélite artificial (que pode pesar algumas toneladas) para uma grande altitude, onde a
resistência do ar seja desprezível, e fazê-lo atingir aquela velocidade crítica para permanecer em órbita
durante um longo tempo? A solução para este problema está na utilização dos foguetes que são
sistemas extremamente poderosos e capazes de levar grandes cargas para grandes altitudes onde a
resistência do ar é desprezível. Como você pode ver na figura 13, o foguete após disparado, realiza
uma trajetória curva enquanto sobe e, no momento que atinge a altitude desejada e com a velocidade
crítica necessária, libera o satélite e este permanece em órbita, girando em torno da Terra.

Figura 13. Pondo satélites em órbita.

Como você pode notar na figura 13, o plano da órbita pode ser polar, equatorial ou estar em qualquer
outro plano adequado para o tipo de aplicação do satélite. O período de rotação do satélite é o tempo
que êle leva para da uma volta completa em torno da Terra e isto depende de sua altitude. Muitos
satélites de comunicações e meteorológicos são geoestacionários, isto é, ficam aparentemente
"parados" no céu sobre um mesmo ponto da superfície terrestre; neste caso, o seu período de rotação
deve ser de 24 horas e por isso, são lançados em órbita equatorial, a cerca de 36000 km de altitude, na
mesma direção de rotação da Terra (de oeste para leste). Existe uma grande quantidade desses
satélites utilizados para a difusão de sinais de rádio e televisão, retransmissão de telefonia e geração
de imagens meteorológicas. Certamente você já assistiu no boletim meteorológico da TV, uma
animação que mostra o deslocamento das nuvens sobre a superfície da Terra; essa animação é uma
seqüência de imagens produzidas (à cada meia hora) por esses satélites meteorológicos
geoestacionários.

IMAGEADORES ORBITAIS
Os satélites artificiais são plataformas estruturadas para suportar o funcionamento de instrumentos de
diversos tipos e, por isso, elas são equipadas com sistemas de suprimento de energia (painéis solares
que convertem a energia radiante do Sol em energia elétrica e a armazena em baterias), de controle de
temperatura, de estabilização, de transmissão de dados, etc.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
23

Os satélites de observação da Terra são plataformas com a estrutura básica citada anteriormente e que
tem como instrumento principal um sistema sensor capaz de produzir imagens da superfície da Terra
em várias bandas simultâneas; neste caso, o imageador orbital funciona basicamente como a câmara
digital que analisamos e com as adaptações necessárias para gerar imagens em muitas bandas.

De modo geral os sistemas imageadores orbitais, para aplicações em Geociências, tem órbitas de
pequena inclinação com relação aos meridianos, isto é, órbitas do tipo quase-polar. Esse tipo de órbita
associado ao seu período de rotação faz com que o satélite passe sempre "voando" de norte para sul
na parte da Terra que está iluminada pelo Sol, cruzando o equador no mesmo horário (por volta de 10h
local), quando as condições de iluminação são as mais adequadas para a aquisição de imagens. Um
efeito desse tipo de órbita, combinado com a rotação da Terra, é que o satélite passa sobre uma região
diferente da Terra em cada rotação, voltando depois de um período de vários dias, denominado
período de revisita, a passar sobre a mesma região. Esta característica orbital é muito importante
porque permite a aquisição de imagens periódicas de uma mesma região, o que é muito conveniente
para analisar fenômenos temporais ou obter imagens sem nuvens. Veja na tabela Ia, b e c o período
de revisita dos principais satélites utilizados em Sensoriamento Remoto.

Quando o satélite de Sensoriamento Remoto avança de norte para sul em sua órbita, seu sensor
multibandas pode produzir imagens de uma faixa da superfície terrestre, como mostra a figura 14.
Aproveitando o movimento do satélite, o imageador utiliza chips CCD lineares (uma só linha de
detetores) para produzir (em várias bandas) as linhas de imagem transversais ao seu deslocamento na
órbita. Essas linhas de imagem ou linhas de varredura, são transmitidas para as estações receptoras
na Terra, à medida que vão sendo produzidas. A recepção e gravação dessas linhas é feita por meio
de receptores, gravadores e grandes antenas parabólicas, como as do INPE em Cuiabá que
acompanham o satélite em sua trajetória (de norte para sul) de horizonte a horizonte.

Figura 14. Varredura de um imageador orbital multibandas.

As fitas magnéticas contendo a gravação das linhas de varredura produzidas pelo imageador orbital
são então processadas nos computadores das estações terrenas, para gerar as cenas
correspondentes a cada banda. Neste caso, cada cena é um conjunto de linhas cuja quantidade é
suficiente para gerar imagens no formato estabelecido para cada tipo de imageador orbital.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
24

8 Sistemas Sensores Caracteristicas


Resolução espacial e radiometrica, geometria de aquisição da imagem, tipo de varredura, correção
geométrica, registro de uma imagem;

Os sensores cobrem faixas de imageamento da superfície terrestre, cuja largura depende do ângulo
de visada do sensor, (em inglês FOV - Field of View), (Fig. 15). O sensor Thematic Mapper
(TM) do satélite LANDSAT cobre uma faixa de 185 km, o sensor Charge Copled Device (CCD) do
satélite SPOT cobre uma faixa de 60 km, o sensor AVHRR do satélite NOAA cobre uma faixa de 2700
km. Estas faixas são dispostas ao longo da órbita e são varridas, pelo sensor, em linhas
transversais ao sentido da órbita. Na varredura das linhas, dois processos são utilizados:
a) Varredura por espelho, que se baseia no princípio da técnica de imageamento
de scanners multispectrais lineares. A REM refletida da superfície dos objetos /
alvos inside sobre um espelho móvel de face plana, montado com um ângulo de
45º sobre um eixo mecânico que imprime um movimento oscilatório ao espelho,
de tal forma que a superfície do terreno é varrida em linhas perpendiculares à
direção de deslocamento do satélite, permitindo o imageamento seqüencial de
linhas da superfície do terreno. A REM refletida no espelho é direcionada para o
interior do sensor onde é processada para dar origem às imagens. Os sensores TM
e AVHRR utilizam este processo;
b) Imageamento por matriz de detetores, ao invés do espelho, uma matriz de detetores
cobre toda a largura da faixa de imageamento. Os detetores são dispostos em
linhas que formam a matriz. O sensor CCD utiliza este processo.

Em ambos processos a REM é decomposta em faixas denominadas bandas espectrais e .as linhas são
fracionadas em pequenas parcelas quadradas da superfície terrestre, denominadas pixel.

Figura 15 – Processos de Varredura e detecção

Sensoriamento Remoto Ótico


Sensoriamento remoto é um termo utilizado na área das ciências aplicadas que se refere à obtenção
de imagens à distância, sobre a superfície terrestre. Estas imagens são adquiridas através de
aparelhos denominados sensores remotos. Por sua vez estes sensores ou câmaras são colocadas a
bordo de aeronaves ou de satélites de sensoriamento remoto - também chamados de satélites
observação da Terra. Um sensor a bordo do satélite gera um produto de sensoriamento remoto
denominado de imagem ao passo que uma câmara aerofotográfica, a bordo de uma aeronave, gera um
produto de sensoriamento remoto denominado de fotografia aérea. Mais adiante vamos ver que um
sensor remoto também pode ser utilizado para obter informações a poucos metros da superfície
terrestre ou mesmo de amostras em laboratório para estudos específicos.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
25

Antes do advento dos satélites de sensoriamento remoto na década de 70, do século passado, o uso
de fotografias aéreas era muito comum e até hoje estas fotografias são insubstituíveis para muitas
aplicações. Entretanto, notamos que com o avanço tecnológico as imagens dos sensores de satélites
de sensoriamento remoto estão se aproximando da qualidade das fotografias aéreas. Todavia, para o
momento, vamos nos ater às imagens obtidas por satélites de sensoriamento remoto e deixar as
fotografias aéreas para outra discussão.

Existe hoje um grande número destes satélites em órbita ao redor da Terra. Eles obtêm imagens com
características distintas que dependem tanto do satélite quanto do sensor. Os sensores podem ser
comparados aos nossos olhos. Se olharmos para uma floresta que está distante conseguimos ver
apenas uma mancha de árvores. À medida que nos aproximamos desta floresta começamos a
identificar árvores isoladas e se nos aproximarmos ainda mais podemos até ver os diferentes tipos de
folhas. A mesma experiência poderia ser feita à distância se dispuséssemos de um binóculo ou de uma
luneta. Assim, precisamos entender algumas das características básicas dos satélites e de seus
sensores para conhecermos a finalidade a que se destina cada produto ou imagem de sensoriamento
remoto e o que podemos e não podemos "enxergar" nestas imagens.

Cararterística Espectral
Uma imagem de sensoriamento remoto colorida é resultante da combinação das três cores básicas
(azul, verde e vermelho), associadas através de filtros às imagens individuais obtidas em diferentes
comprimentos de onda ou faixas espectrais, conforme é apresentado nas Figuras 1, 2 e 3. Vemos que
um mesmo objeto, por exemplo uma floresta, pode aparecer em tonalidade verde escuro (Figura 16),
vermelho (Figura 17) ou verde intenso (Figura 18) dependendo da associação feita entre as cores e as
imagens obtidas nas diferentes faixas espectrais do sensor. As imagens apresentadas nestas figuras
foram obtidas pelo sensor Enhanced Thematic Mapper (ETM+) a bordo de um dos satélites americanos
da série Landsat. Cabe lembrar que o sensor capta a energia refletida pelo objeto num determinado
comprimento de onda, portanto, objetos claros refletem muita energia (p. ex. solo exposto) enquanto
objetos escuros (p. ex. água sem sedimentos) refletem pouca energia. A vegetação reflete uma
quantidade muito pequena de energia na faixa espectral do vermelho pois ela utiliza boa parte desta
energia no processo da fotossíntese e, portanto, aparece em tonalidade escura na banda TM-3 que
correspondente à faixa do vermelho (Figuras 17). Já na faixa do infravermelho próximo a vegetação
reflete muita energia, em função da estrutura celular das folhas, de tal forma que aparece em
tonalidade clara na banda TM-4 (Figura 17) que corresponde à faixa do infravermelho próximo.

Figura 16 – Imagem em composição colorida utilizando as bandas TM-1 (azul), TM-2 (verde) e TM-3
(vermelho) do sensor ETM+ do satélite Landsat-7 (órbita 224, ponto 78) de 05 de agosto de 1999.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
26

Figura 17– Imagem em composição colorida utilizando as bandas TM-2 (verde), TM-3 (vermelho) e TM-
4 (infravermelho próximo) do sensor ETM+ do satélite Landsat-7 (órbita 224, ponto 78) de 05 de agosto
de 1999.

Figura 18 – Imagem em composição colorida utilizando as bandas TM-3 (vermelho), TM-4


(infravermelho próximo) e TM-5 (infravermelho médio) do sensor ETM+ do satélite Landsat-7 (órbita
224, ponto 78) de 05 de agosto de 1999.

Característica Espacial
O nível de detalhe com que podemos observar os objetos da superfície terrestre é outra característica
importante das imagens de sensoriamento remoto à qual damos o nome de resolução espacial, ou
seja, a capacidade que o sensor possui para discriminar objetos em função do seu tamanho. As
imagens do Landsat-TM tem uma resolução espacial de 30 metros, o que implica que objetos com
dimensões menores do que 30 x 30 m não podem ser identificados. A resolução espacial dos sensores
a bordo dos satélites de sensoriamento remoto varia de 1 metro até 1 km. A Figura 19 apresenta uma
imagem do satélite IKONOS-II com resolução espacial de 1 m na qual podemos observar nitidamente
feições locais como o traçado das ruas e até mesmo árvores e casas. A Figura 20 apresenta uma
imagem do sensor WFI, a bordo do satélite sino-brasileiro CBERS-1 (China-Brazil Earth Resources
Satellite), com resolução espacial de 260 m na qual podemos observar feições regionais como a
distribuição das cidades ao longo do eixo Rio-São Paulo. Na Figura 21 é apresentada uma imagem do
sensor AVHRR, a bordo do satélite NOAA, com uma resolução espacial de 1 km na qual observamos
feições globais como por exemplo distribuição da cobertura vegetal no território brasileiro.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
27

Figura 19 – Imagem do satélite IKONOS-II com resolução espacial de 1x1m (cedida pela Intersat),
permitindo uma visão local sobre o aeroporto no Paraguai.

Figura 20 – Imagem do WFI, a bordo do satélite CBERS-1, com resolução espacial de 260x260m,
permitindo uma visão regional dos estados de São Paulo, Rio de Janeiro e Minas Gerais

Figura 21 – Imagem do satélite NOAA do sensor AVHRR com resolução espacial de 1000x1000m
(Shimabukuro & Rudorff, 2000), permitindo uma visão global.
Característica Temporal
A freqüência com que a superfície terrestre é observada ou imageada é uma terceira característica
importante das imagens de sensoriamento remoto. Os satélites de sensoriamento remoto orbitam ao
redor da Terra em órbitas quase polar, ou seja, de um polo a outro a uma distância da superfície
terrestre em torno de 800 km, conforme é exemplificado para o satélite CBERS na Figura 22. Através
da combinação sincronizada da velocidade do satélite com a rotação da Terra é possível recobrir todo
planeta após um certo número de dias. Cada passagem do satélite é chamada de órbita. Dependendo
do sensor, a órbita de imageamento pode ser mais larga ou mais estreita. Satélites com sensores de
órbita de imageamento larga, como o NOAA-AVHRR (2.700 km), recobrem a superfície terrestre
diariamente, enquanto satélites com órbita de imageamento estreita, como o IKONOS-II (11 km),
podem levar quase um ano para imagear todo o planeta. Os satélites da série Landsat tem uma órbita
de imageamento de 185 km e recobrem todo o planeta a cada 16 dias, ou seja, podemos obter uma
imagem de uma determinada área a cada 16 dias e dizemos que a resolução temporal do Landsat é de
16 dias. Entretanto, é importante notar que para se obter imagens da superfície terrestre não pode
haver a presença de nuvens pois elas formam um anteparo entre o satélite e a superfície. Durante o
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
28

período de inverno que corresponde à estação seca a probabilidade de se obter imagens livres de
nuvens é alta.

Figura 22– Órbita do satélite CBERS: altitude 778 km; inclinação 98,504o; período 100,26 min.

Característica Espacial versus Temporal


Com base no exposto acima concluímos que existe uma relação entre o nível de detalhe (resolução
espacial) e a freqüência de observação (resolução temporal) da superfície terrestre pelo satélite. A
Figura 23 é uma representação da órbita de imageamento dos três sensores do satélite CBERS –
CCD, IRMSS e WFI. O sensor CCD distingue objetos com dimensões de até 20 metros e sua largura
de órbita é de 120 km, fazendo com que a freqüência de revisita seja de 26 dias. O sensor WFI, que
distingue objetos com dimensões de 260 metros, possui uma largura de órbita de imageamento de 890
km e recobre todo o planeta em apenas 5 dias. Neste momento podemos perguntar – qual destes
sensores é melhor? E a resposta vai depender do que estamos querendo observar na superfície
terrestre. Se estamos querendo monitorar o andamento do cultivo da soja no Paraná certamente vamos
optar pelas imagens do WFI, pois o objetivo é observar grandes áreas várias vezes ao longo do ciclo
de desenvolvimento da cultura. Se por outro lado, quisermos mapear as áreas plantadas com café no
estado do Paraná vamos optar pelas imagens do CCD, pois queremos observar áreas pequenas e
basta uma cobertura de imagens do estado por ano para realizarmos este mapeamento anualmente.

Figura 23 – As diferentes órbitas de imageamento dos sensores a bordo do CBERS-1: WFI – 890 km;
CCD – 120 km; e IRMSS – 113 km.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
29

Imagens adquiridas no Brasil


O Brasil recebe as imagens dos satélites de sensoriamento remoto para todo o território brasileiro e
boa parte da América do Sul através de uma antena de recepção localizada no centro geométrico da
América do Sul em Cuiabá-MT. Existem hoje dezenas de satélites de sensoriamento remoto
pertencentes a diferente países. O Brasil recebe as imagens dos satélites Landsat-5 e -7, CBERS-1,
SPOT e NOAA-AVHRR. Imagens do satélite IKONOS-II podem ser adquiridas do Brasil através do
gravador de bordo e posterior transmissão dos dados para uma estação de recepção nos EUA. Desde
fevereiro de 2001, o Brasil está gravando também as imagens do satélite canadense RADARSAT. Este
satélite gera imagens na faixa das microondas na qual a radiação proveniente da superfície terrestre é
detectada por meio de antenas, e não através de um sistema de lentes e detetores como é o caso dos
demais satélites de sensoriamento remoto ótico.

Comportamento Espectral
Como havíamos mencionado anteriormente, um sensor remoto também pode ser utilizado para obter
informações a poucos metros da superfície terrestre ou mesmo de amostras em laboratório. Neste caso
não se obtém imagens mas sim um gráfico que relaciona a quantidade de energia refletida com o
comprimento de onda. Chamamos de comportamento espectral de alvos aos estudos relacionados com
a obtenção de medidas a campo ou em laboratório, utilizando sensores denominados de
espectrorradiômetros, com a finalidade de verificar como os alvos ou objetos refletem a energia
incidente, em função das suas características bio-fisico-químicas ao longo de determinadas faixas do
espectro eletromagnético. Estes estudos propiciam definir adequadamente as bandas espectrais de
sensores a bordo de satélites, além de permitir um melhor entendimento sobre a interação da radiação
eletromagnética com os objetos e consequentemente identificá-los de forma correta nas imagens dos
satélites. A Figura 24 mostra a obtenção de medidas com um espectrorradiômetro a campo sobre a
cultura do trigo.

Figura 24 – Comportamento espectral de alvos na região visível e infravermelho próximo do espectro


eletromagnético.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
30

9 Principais Sistemas:
Landsat, Spot, CBERS, Quickbird, Rapid Eye, GeoEye, WorldView, IKONOS, ALOS, GOES,
Terra SAR, Tamdem-X, TOPEX;

CBERS: CHINESE-BRAZILIAN EARTH RESOURCES SATELLITE


CARACTERÍSTICAS GERAIS
Massa 1.450 kg
Potência do painel solar 1.100 watts
Dimensões do painel solar 6,3 x 2,6m
Dimensões do corpo 2,0m x 8,3m x 3,3m (em orbita)
Tempo de vida 2 anos (confiabilidade de 0,6)

CARACTERÍSTICAS ORBITAIS
Altitude média 778 km
Inclinação 98,5 graus com o equador
Revoluções por dia 14 + 9/26
Período 100,26 minutos
Cruzamento do equador 10h 30min

CARACTERÍSTICAS DOS IMAGEADORES


Imageadores > CCD IR-MSS WFI
Bandas Espectrais (?m) 0,51 – 0,73 0,50-1,10 pan 0,63-0,69
(pan) 1,55-1,75 0,76-0,90
0,45 – 0,52 2,08-2,35
0,52 – 0,59 10,40-12,50
0,63 – 0,69
0,77 – 0,89
Resolução espacial (m) 20 80 (pan e IV) 260
Período de revisita (nadir): 26 dias 26 dias 3-5 dias
Período de revisita (off- 3 dias (+/- 32º) - -

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
31

nadir):
Largura da faixa imageada 113 km 120 km 890 km
Ângulo de visada lateral +/- 32º - -
Tabela I-a. Satélites de Sensoriamento Remoto

LANDSAT 7: EARTH RESOURCES TECHNOLOGY SATELLITE – USA


CARACTERÍSTICAS GERAIS
Massa ~2100 kg
Potência do painel solar Nd
Dimensões do painel solar Nd
Dimensões do corpo Nd
Tempo de vida > 5 anos

CARACTERÍSTICAS ORBITAIS
Altitude média 705 km
Inclinação 98.2
Revoluções por dia ~14
Período 98 minutos
Cruzamento do equador ~10h15min

CARACTERÍSTICAS DOS IMAGEADORES


Imageadores > TM (LANDSAT 5) ETM+ (LANDSAT 7)
Bandas espectrais (?m) 0,45 - 0,52 0,45 - 0,52
0,52 - 0,60 0,53 - 0,61
0,63 - 0,69 0,63 - 0,69
0,76 - 0,90 0,78 - 0,90
1,55 - 1,75 1,55 - 1,75

10,4 - 12,5 10,4 - 12,5

2,08 - 2,35 2,08 - 2,35

0,52 - 0,90 (pan)


Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
32

Resolução espacial (m) 30m 30 m

120 m (termal) 60 m (termal)

15 m (pan)
Período de revisita 16 dias 16 dias
Largura da faixa imageada 185 km 185 km
Tabela I-b. Satélites de Sensoriamento Remoto

SPOT 4: SISTÉME PROBATOIRE DE L’OBSERVATION DE LA TERRE - FRANCE


CARACTERÍSTICAS GERAIS
Massa 2700 kg
Potência do painel solar 2.100 watts
Dimensões do painel solar 8m (comprimento)
Dimensões do corpo 2,0m x 2,0m x 5,6m
Tempo de vida >5 anos

CARACTERÍSTICAS ORBITAIS
Altitude média 822 km
Inclinação 98.7
Revoluções por dia ~14
Período 101.4 minutos
Cruzamento do equador ~10h30min

CARACTERÍSTICAS DOS IMAGEADORES HRVIR


Imageadores > MULTIESPECTRAL PANCRO
Bandas espectrais (?m) 0,50 - 0,59 (verde) 0,61 - 0,68
0,61 - 0,68 (vermelha)
0,79 - 0,89
(infravermelho)

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
33

Resolução espacial (m) 20 m 10 m


Período de revisita (nadir): 26 dias 26 dias
Período de revisita (off- 3 dias 3 dias
nadir):
Largura da faixa imageada 117 km (2X60km) 117 km (2X60km)
Ângulo de visada lateral +/- 27º +/- 27º
Tabela I-c. Satélites de Sensoriamento Remoto

ALOS-PRISM

Numero de Bandas 1 (Panchromatic)


Faixa de imageamento 0.52 to 0.77 micrometers
Visadas 3 (Nadir; Forward; Backward)
Base-to-Height ratio 1.0 (between Forward and Backward view)
GSD 2.5m (at Nadir)
Largura da Faixa 70km (Nadir only) / 35km (Triplet mode)
S/N >70
MTF >0.2
28000 / band (Swath Width 70km)
Número de Detectores
14000 / band (Swath Width 35km)
-1.5 to +1.5 degrees
Ângulo de visada
(Triplet Mode, Cross-track direction)
Resolução radiométrica 8 bits

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
34

RAPIDEYE

IKONOS

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
35

10. Disponibilidade de dados:


SRTM, NASA, INPE, IBGE.

INPE
A Missão do INPE é promover e executar estudos, pesquisas científicas, desenvolvimento tecnológico
e capacitação de recursos humanos, nos campos da Ciência Espacial e da Atmosfera, das Aplicações
Espaciais, da Meteorologia e da Engenharia e Tecnologia Espacial, bem como em domínios correlatos,
conforme as políticas e diretrizes definidas pelo Ministério da Ciência e Tecnologia.
www.inpe.br

NASA
A NASA (National Aeronautics and Space Administration), é uma agência do Governo dos Estados
Unidos da América, criada em 29 de julho de 1958, responsável pela pesquisa e desenvolvimento de
tecnologias e programas de exploração espacial. A NASA tem desenvolvido vários programas com
satélites e com sondas e sensores de pesquisa espacial
.http://www2.jpl.nasa.gov/srtm/cbanddataproducts.html

SRTM
A Missão Topográfica por Radar do Ônibus Espacial, mais conhecida pela sigla em inglês SRTM, de
Shuttle Radar Topography Mission, gerou um gigantesco arquivo de dados (12 terabytes) sobre 80%
da massa de terra do planeta onde vive cerca de 95% da população mundial.
A missão espacial foi uma operação projetada e financiada pela Agência Espacial Americana (Nasa),
Agência Americana de Inteligência Aeroespacial (NGA), em colaboração com a Agência Espacial
Italiana (ASI) e o Centro Aeroespacial Alemão (DLR).
http://www2.jpl.nasa.gov/srtm/

IBGE
O Instituto Brasileiro de Geografia e Estatística, mais conhecido por sua sigla IBGE, é uma
fundação pública da administração federal brasileira criada em 1934 e instalada em 1936 com o nome
de Instituto Nacional de Estatística.
www.ibge.gov.br

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
36

11. Aerotofogrametria:
Conceitos Básicos, Definição de Imagem Fotogramétrica Digital, Estações de Trabalho para a
Fotogrametria Digital, Geração de Imagens Fotogramétricas Digitais, Geração de Orto-imagens
Digitais, Fotointerpretação.

Sensores imageadores digitais vêm sendo usados desde a década de 60, com o lançamento
do satélite meteorológico TIROS-1 (SIMONETT, 1983). Para fins de mapeamento, isso ocorre desde
1972 com o lançamento do LANDSAT 1 MSS. Isso mostra que a concepção de um
processo de mapeamento completamente digital, desde a captação dos dados, passando pelo
seu processamento até sua distribuição e visualização, já é uma realidade há muito tempo. Na
aerofotogrametria, entretanto, mesmo com a introdução muito bem sucedida dos scanners métricos,
na década de 90, tarefas fotogramétricas típicas ainda são realizadas combinando-se métodos
analógicos e digitais. Somente a produção de ortofotos é um procedimento completamente digital,
devido à relação custo-benefício (LEBERL, 2003). No entanto, as imagens originais ainda ficam, em
sua maioria, armazenadas em filmes, e em alguns casos as imagens digitalizadas são
descartadas. A aquisição da imagem em formato digital parece ser o último obstáculo a um
processo inteiramente digital. Este desafio está sendo superado através de sistemas que
utilizam sensores CCD combinados a sistemas óticos, formando sistemas fotográficos cada
vez mais aperfeiçoados.

CÂMERAS AEROFOTOGRAMÉTRICAS DIGITAIS


Uma câmera aerofotogramétrica digital pode ser definida como uma câmera métrica, desenhada
especificamente para fins de mapeamento, com baixas distorções de lentes e alta estabilidade, cujo
sistema sensor é digital, e não um filme fotográfico. Essa transição entre o analógico (filme) e o digital
(por exemplo, CCD) está bastante avançada, e torna o limiar entre a aerofotogrametria e o
sensoriamento remoto cada vez menos definido (SANDAU et al.,1999).

Do ponto de vista operacional, uma câmera aerofotogramétrica deve ser eficiente em termos de
operação aérea, ou seja, o número de faixas de vôo deve ser minimizado, sem que se comprometa a
qualidade das aerofotos obtidas. Durante décadas, o formato de 23cm x 23cm vem atendendo
perfeitamente essas exigências de operação e qualidade. Por esta razão, uma câmera
aerofotogramétrica digital deve oferecer características semelhantes a uma câmera convencional com
quadro de 23cm x 23cm. A grande vantagem operacional das câmeras digitais sobre as convencionais,
é a eliminação do filme, da revelação e da digitalização do filme. Tratando-se da qualidade da imagem,
as câmeras digitais também oferecem vantagens sobre imagens digitalizadas. Essas vantagens podem
ser notadas facilmente na figura 25 (GRUBER et al., 2003), onde é apresentada uma comparação
direta entre um negativo digitalizado (à esquerda) e uma imagem obtida da mesma área na mesma
escala com uma UltraCamD (à direita). Observa-se que os detalhes podem ser muito melhor
identificados na imagem digital.

Fig. 25 - Comparação entre um negativo digitalizado e uma imagem digital. (GRUBER et al., 2003)
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
37

Existem duas soluções disponíveis no mercado: uma que se utiliza de sensores CCD de área, e outra
baseada em sensores CCD lineares. Entre as soluções com sensores de área, estão as câmeras de
médio formato, com CCD único (por exemplo, a AIC da RolleiMetric) e as de grande formato, que se
utilizam da combinação de vários CCD como a DMC, as UltraCamD/X, as AICx2/4, e o modelo do IGN
(PAPARODITIS et al., 2006), por exemplo. Os principais sistemas de CCD linear disponíveis são o
ADS40 da Leica Geosystems, e o HRSC, da DLR. A comunidade aerofotogramétrica mundial ainda
não chegou a um consenso sobre qual é a melhor solução, e essa resposta só virá com o tempo
(PAPARODITIS et al., 2006). Esses sistemas serão discutidos a seguir.

Sensores de área de médio formato


Atualmente ainda não é economicamente viável a produção de um CCD com tamanho equivalente a
uma câmera aerofotogramétrica de grande formato. Existem, no entanto, sensores CCD de médio-
formato, com resoluções de até 39 mega-pixels. Baseado nesses tipos de CCD, algumas fabricantes
de equipamentos para geotecnologia, desenvolveram câmeras fotogramétricas digitas de médio
formato, como os modelos AIC (RolleiMetric), DSS (Applanix), dIGIcam (IGI) e DiMac, entre outras
(CRAMER, 2007).
Na realidade, essas câmeras são, de um ponto de vista estritamente geométrico, bastante
semelhantes às câmeras convencionais, mas com a desvantagem de terem seu quadro muito pequeno
em relação ao padrão tradicionalmente estabelecido. Essa desvantagem faz com que essas câmeras
não sejam utilizadas em trabalhos de grande escala, pois o número de faixas de vôo, e a quantidade de
modelos gerados bem como o apoio necessário inviabilizam economicamente os projetos. No entanto,
esta limitação existe somente quando se trata de trabalhos estereofotogramétricos convencionais.
Quando se trata, por exemplo, de aerolevantamentos com laser-scanner (comuns para geração de
true-ortofotos), essas câmeras estão se tornando um padrão. Importantes fabricantes de sistemas
laser-scanner já associam câmeras aerofotogramétricas de médio formato aos seus sistemas, como
por exemplo a Toposys e a Optech, que acoplam uma AIC - Aerial Industrial Camera (Fig. 26) em seus
sistemas (TÖLG, 2007), bem como o novo modelo ALS50-II da Leica, que também oferece essa opção,
mas com uma câmera da própria Leica.

Fig. 26 - AIC (RolleiMetric). Fonte: RolleiMetric

Sensores de área com múltiplos CCD


Com a necessidade da geração de imagens compatíveis com o padrão tradicional, algumas fabricantes
de câmeras passaram a associar vários sensores CCD de médio formato em um mesmo equipamento,
e a utilizar métodos de processamento digital de imagens para gerar imagens sintéticas, em projeção
central única, a partir das imagens originais. Existem duas soluções tecnológicas disponíveis no
mercado: as câmeras que se utilizam do método sincronizado e as que se utilizam do método sintópico
(LEBERL, 2003). Pelo método sincronizado, os cones das câmeras componentes são convergentes e
todas as imagens são obtidas simultaneamente, como na DMC, e nas AICx2/4. No método sintópico,
lançado na UltraCamD, os cones das câmeras componentes são alinhados no sentido do vôo e as
imagens são tomadas com um atraso, determinado pela velocidade da aeronave, de forma que todas
as imagens tenham o mesmo centro perspectivo. Os dois métodos serão revisados a seguir.

Método Sincronizado
A idéia de se aumentar o campo de visão de um sistema fotogramétrico combinando-se duas ou mais
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
38

câmeras é bem conhecida desde o início da aerofotogrametria. Várias câmeras aerofotogramétricas


com 2, 4, 7 e 9 módulos foram construídas. Já em 1926, Aschenbrenner concebeu um sistema com 9
câmeras com distancia focal de 53,5mm, cobrindo um ângulo de 140°. O negativo desta câmera já
tinha o formato de 25cm x 25cm. Complicados equipamentos permitiam reconstruir a geometria do
sistema. Essa idéia foi abandonada no final dos anos 40, quando fabricantes como Zeiss e Wild
desenvolveram câmeras com sistema único de lentes e negativo de grande formato. Nos dias atuais, a
utilização de câmeras modulares voltou a ser uma realidade na aerofotogrametria (HINZ et al., 2000). A
figura 27 mostra a concepção de um sistema com dois módulos - a AICx2 - convergentes, combinadas
em um sistema sincronizado.

Fig. 27 - Representação esquemática de um sistema com 2 módulos (AICx2 - RolleiMetric).

O método sincronizado para a geração de imagens a partir de cones múltiplos foi o primeiro a ser
utilizado numa câmera aerofotogramétrica digital. Como o próprio nome diz, as imagens para a geração
da imagem final são tomadas simultaneamente. O primeiro modelo lançado com essa metodologia foi a
DMC (Digital Mapping Camera), pela Z/Imaging (fig. 29), no ano 2000. Este modelo entrou em
operação comercial em 2003. Já opera também o modelo AICx2 (fig. 28) da RolleiMetric (com 2 cones),
e em 2008 será lançado o modelo AICx4 (com 4 cones). A sincronização na tomada das imagens trás
uma série de vantagens, pois se pode controlar melhor o sistema como um todo, e essa sincronização
deve ser o melhor possível: na DMC essa sincronia é da ordem de 100µs (DÖRSTEL et al., 2003) e
nas AIC de 150µs (TÖLG, 2007).

Não se pode garantir uma absoluta estabilidade para um equipamento dentro de uma aeronave durante
o vôo, devido às turbulências e vibrações que ocorrem. Assim sendo, os cones devem suportar
pequenas variações angulares. Variações de posição não podem ser aceitas, pois haveria uma grande
correlação matemática entre os parâmetros num processo de ajuste entre as imagens. Assim, para se
formar a imagem final deve ser calculada as relações angulares (kappa, phi e ômega), entre os cones.
Essa determinação se dá através de um ajustamento em bloco das quatro imagens. Na DMC, quatro
imagens com a resolução de 7168x4096 pixels são combinadas para formar uma imagem em projeção
central única com resolução de 13824x7680 pixels. As imagens são tomadas de forma convergente e
com uma sobreposição entre si. Assim, podem ser determinados os parâmetros de orientação entre os
cones, através de pontos determinados por métodos de correlação de imagens. Em testes realizados
essa orientação obtém resíduos da ordem de 1µm a 2µm, correspondente a 1/12 e 1/16 pixel
(DÖRSTEL et al., 2003). Com esses parâmetros, escolhe-se uma distância focal próxima à distância
focal real dos cones (para se evitar oversampling ou undersampling), e se reamostra toda a imagem de
acordo com esse referencial. Na figura 28 é mostrada a geometria das quatro imagens pancromáticas
em uma DMC (PAN1 a PAN4) e os referenciais utilizados, bem como o centro de projeção virtual. A
área demarcada pelas linhas brancas mais fortes é a aerofoto digital a ser utilizada nos procedimentos
de aerotriangulação, restituição, ortoretificação e etc.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
39

Fig. 28 - DMC e o conceito da geração da imagem virtual. Fonte: Z/Imaging

Método sintópico
A segunda metodologia para a obtenção de aerofotos digitais de grande formato, através de sensores
CCD de área, foi desenvolvida pela Vexcel, na Áustria. Essa tecnologia, chamada sintópica, consiste
na obtenção das imagens de forma não-simultânea, mas alinhando-se os sensores pancromáticos no
sentido do vôo e atrasando as tomadas fotográficas de forma que todas sejam feitas a partir do mesmo
centro perspectivo. As imagens originais não são convergentes e o quadro da imagem é mais
facilmente definido do que pelo método sincronizado. A figura 29 mostra o princípio da tomada das
imagens com essa metodologia.

Fig. 29 - Tomadas das imagens pelo método sintópico. Fonte: Vexcel

A UltraCamX (modelo mais recente da Vexcel), tem quatro módulos (cones) pancromáticos, cada qual
com seu sistema ótico. O principal deles, chamado “master” contém 4 sensores CCD, e define a
dimensão da imagem. As cores são obtidas por outros 4 cones multiespectrais, de resolução mais
baixa. As lacunas desse cone master são preenchidas pelos outros três cones: dois com dois sensores
CCD cada, e um com um único, conforme a figura 30, na qual o “M” representa o cone master e os
números 1,2 e 3 representam os demais cones. O ajuste é feito utilizando-se os parâmetros de
calibração de cada cone, bem como pontos nas zonas de sobreposição entre as imagens
(HONKAVAARA et al., 2006). Cada CCD tem uma resolução de 16Mp. Os cones pancromáticos têm
uma distância focal de 100mm e os multiespectrais de 33mm. A aerofoto gerada pela UltraCamX
possui a resolução de 14430x9420 pixels.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
40

Fig.30 - UltraCamX e a formação da imagem virtual. Fonte: GRUBER, 2007

Sensores lineares
No final de 1998 a LH Systems (hoje Leica Geosystems) anunciou que, após um ano de projeto e
desenvolvimento, obteve sucesso num sensor digital para aerofotogrametria. Esse desenvolvimento,
feito em conjunto com a DLR (Deutsches Zentrum für Luft- und Raumfart - a agência espacial alemã),
resultou no lançamento de dois sistemas aerofotogramétricos digitais: o ADS40 da Leica (comercial) e
o HRSC da DLR. Naquela época, não havia ainda a tecnologia suficiente na fabricação de sensores
CCD de área de grande resolução, mas já era possível a obtenção de sensores CCD lineares com
grande capacidade (mais do que 10.000 pixels) (PAPARODITIS et al., 2007). Por essa razão, foi
desenvolvido um sistema baseado nesse tipo de CCD. Basicamente, projetou-se um sensor com
visadas à vante, ao nadir e à ré. Foram incluídos sensores pancromáticos e multiespectrais, todos com
mesma resolução. Assim, não se faz necessário o procedimento de pan-sharpening, como nos
modelos DMC e UltraCam. A figura 31 mostra a obtenção dos dados com o ADS40: à vante um sensor
pancromático; no nadir um pancromático, um infravermelho e 3 para o visível (RGB); e na visada de ré
a mesma configuração do sensor do nadir. Os ângulos exatos dos sensores CCD dependem do
modelo do sistema (FRICKER, 2007), mas apresentam a mesma configuração básica. Todos os
sensores CCD têm 12.000 pixels (SANDAU et al., 2000; SANDAU et al., 1999).

Fig. 31 - Tomada de dados com o ADS40. Fonte: Leica

Para a obtenção de imagens com fins de mapeamento, além dos sensores óticos, é obrigatório o uso
de sistemas de GNSS (posicionamento) e IMU (orientação). Sem esses equipamentos acoplados ao
sistema sensor, não é possível sequer iniciar-se o processamento das imagens, pois os dados originais
são bastante estranhos aos olhos dos usuários. Por essa razão, para cada linha obtida pelos sensores
CCD, têm que ser determinados os 6 parâmetros de orientação: os três da posição do centro ótico do
equipamento (X, Y e Z), determinados pelo GNSS; e os três angulares (κ, φ e ω), determinados pelo

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
41

IMU. As observações do sensor ótico, do GNSS e do IMU não são sincronizadas, e por isso a
informação exata do tempo em que cada observação é tomada se faz necessária para a interpolação
dos parâmetros de orientação exterior. Com essas informações são geradas as imagens iniciais de
cada faixa. Com o auxílio de pontos de apoio de campo e através de métodos de aerotriangulação, as
faixas de vôo são ajustadas entre si. O resultado final é um conjunto de faixas perfeitamente ajustadas,
nas quais pode-se fazer toda uma série de trabalhos fotogramétricos, como restituição, ortoretificação e
etc. No sistema de restituição desenvolvido pela Leica, pode-se ver toda a faixa em estereoscopia, em
alta resolução. Na figura 32 é mostrado, à direita, o sistema ADS40 da Leica Geosystems, e à
esquerda a geometria básica do processamento das imagens pancromáticas: com as três visadas e os
parâmetros de orientação exterior, pode-se executar uma “intercessão à vante”, e assim obter as
coordenadas no referencial de terreno. São mostradas somente três linhas para fins de maior clareza.

Fig. 32- O ADS40 e a obtenção de coordenadas a partir das linhas e da orientação exterior. Fontes:
Leica e DLR

CONSIDERAÇÕES SOBRE NORMATIZAÇÃO PARA AEROLEVANTAMENTOS DIGITAIS: DIN


18740-4 (SET/2007)

O número de sistemas digitais operando atualmente, principalmente na Europa, América do Norte,


Japão, Austrália e China, vem crescendo rapidamente. No Brasil existe atualmente um sistema ADS40,
operado pela Esteio Engenharia e Aerolevantamentos, de Curitiba, desde 2005; e a partir de fevereiro
de 2008 entra em operação uma UltraCamX, pela Topocart Topografia Engenharia e
Aerolevantamentos, de Brasília. Assim, torna-se clara a necessidade de uma normatização relativa a
esses sensores, com o objetivo de guiar os operadores dos sistemas, os usuários das imagens, bem
como facilitar a contratação desses serviços.

Nesse intuito, a DIN - Deutsches Institut für Nornung (instituto alemão de normatização), preparou a
DIN 18740-4 - “Photogrammetrische Produkte - Teil 4: Anforderungen an digitale Luftbilkameras und an
digitale Luftbilder“ (Produtos Fotogramétricos - Parte 4: Especificações sobre câmeras
aerofotogramétricas digitais e sobre aerofotos digitais). Neste trabalho, serão discutidos os principais
pontos abordados por essa norma.

Segundo essa nova norma, uma câmera aerofotogramétrica digital deve gerar imagens que permitam a
medição estereoscópica de coordenadas, bem como uma perfeita distinção espectral das cores. O
sistema deve ser calibrado geometricamente e radiometricamente. Os fabricantes devem certificar a
qualidade das imagens, através da apresentação das precisões planimétrica e altimétrica obtidas, da
qualidade radiométrica e da resolução espacial máxima possível. O fabricante deve oferecer um
certificado de calibração geométrico e radiométrico. No caso de haver diferença de resolução entre os
sensores pancromáticos e os multiespectrais, faz-se necessário um processamento digital para a
obtenção das imagens coloridas (Pan-Sharpening, por exemplo). Nesse caso a relação entre as
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
42

dimensões dos pixels ao nível do solo entre as bandas pancromáticas e multiespectrias (ver DIN
18740-3) não deve ultrapassar a relação de 5:1. Todas estas especificações, bem como as seguintes
foram extraídas da DIN 18740-4.

12. Aplicações:
Oceanografia, Planejamento, Monitoramento Florestal, Estudo de Desenvolvimento Regional,
Arquelogia, Geologia, Agricultura, Hidrografia.

INTRODUÇÃO
Os recursos naturais e o meio ambiente da Terra estão em mudanças contínuas em resposta à
evolução natural e às atividades humanas. Para compreender o complexo inter-relacionamento dos
fenômenos que causam estas mudanças é necessário fazer observações com uma grande gama de
escalas temporais e espaciais. A observação da Terra por meio de satélites é a maneira mais efetiva e
econômica de coletar os dados necessários para monitorar e modelar estes fenômenos, especialmente
em países de grande extensão territorial, como o Brasil.

Através de softwares dedicados exclusivamente para tratamento de imagens, pode-se gerar imagens
com diferentes composições de cores, ampliações de partes das imagens e classificações temáticas
dos objetos nelas identificados, obtendo-se assim produtos como mapas temáticos que são usados
para estudos de geologia, vegetação, uso do solo, relevo, agricultura, rede de drenagem, inundações,
entre outros.

Estes produtos, apresentados sobre áreas específicas ou sobre um contexto mais regional, permitem
diagnósticos eficientes, propõem soluções de baixo custo e criam alternativas inteligentes para os
desafios enfrentados face às mudanças aceleradas que observamos em nosso território.
Os dados de sensoriamento remoto tem-se mostrado extremamente úteis para estudos e
levantamentos de recursos naturais, principalmente por:

 sua visão sinótica; sua resolução temporal que permite a coleta de informações em diferentes
épocas do ano e em anos distintos, o que facilita os estudos dinâmicos de uma região;
 sua resolução espectral que permite a obtenção de informações sobre um alvo na natureza em
distintas regiões do espectro, acrescentando assim uma infinidade de informações sobre o
estado dele;
 sua resolução espacial, que possibilita a obtenção de informações em diferentes escalas,
desde as regionais até locais, sendo este um grande recurso para estudos abrangendo desde
escalas continentais, regiões até um quarteirão.

Desde o lançamento do primeiro satélite de recursos terrestres, o LANDSAT, em junho de 1972,


grandes progressos e várias pesquisas foram feitas na área de meio ambiente e levantamento de
recursos naturais fazendo uso de imagens de satélite.

Após o advento destes satélites os estudos ambientais deram um salto enorme em termos de
qualidade, agilidade e número de informações. Principalmente os países em desenvolvimento foram os
grandes beneficiados desta tecnologia, pois através de seu uso é possível:

 atualizar a cartografia existente;


 desenvolver mapas e obter informações sobre áreas minerais, bacias de drenagem,
agricultura, florestas;
 melhorar e fazer previsões com relação ao planejamento urbano e regional;
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
43

 monitorar desastres ambientais tais como enchentes, poluição de rios e reservatórios, erosão,
deslizamentos de terras, secas;
 monitorar desmatamentos;
 estudos sobre correntes oceânicas e movimentação de cardumes, aumentando assim a
produtividade na pesca;
 estimativa da taxa de desflorestamento da Amazônia Legal;
 suporte de planos diretores municipais;
 estudos de Impactos Ambientais (EIA) e Relatórios de Impacto sobre Meio Ambiente (RIMA);
 levantamento de áreas favoráveis para exploração de mananciais hídricos subterrâneos;
 monitoramento de mananciais e corpos hídricos superficiais;
 levantamento Integrado de diretriz para rodovias e linhas de fibra ótica;
 monitoramento de lançamento e de dispersão de efluentes em domínios costeiros ou em
barragens;
 estimativa de área plantada em propriedades rurais para fins de fiscalização do crédito
agrícola;
 identificação de áreas de preservação permanente e avaliação do uso do solo;
 implantação de pólos turísticos ou industriais;
 avaliação do impacto de instalação de rodovias, ferrovias ou de reservatórios;

Um exemplo de um produto regional é o planejamento regional, que envolve pesquisadores de diversas


áreas dos recursos terrestres para realizar um trabalho de levantamento integrado com base na técnica
de sensoriamento remoto aliado a dados sócio-econômicos dos municípios de toda região. O resultado
deste estudo permite que programas de desenvolvimento sejam estabelecidos para toda a região, de
maneira harmônica, considerando as necessidades reais dos municípios e sua vulnerabilidade quanto
ao meio ambiente físico.

Outro exemplo muito oportuno trata do uso de imagens de satélite como âncora para o Zoneamento
Ecológico e Econômico de regiões onde a ação antrópica ainda não aconteceu de forma intensa, como
no caso da Amazônia. Neste exemplo, pesquisadores analisam uma área procurando identificar seus
principais atributos físicos a fim de conhecer a vocação natural das paisagens e seu nível de suporte
para desenvolvimento ou preservação.
Um exemplo menos regional se refere à utilização de imagens de satélite adquiridas durante o período
de preparo do solo, para estimar a área plantada com a cultura da soja, trigo, milho, cana-de-açúcar,
etc.

A vantagem do sensoriamento remoto por satélite é que as informações são adquiridas na forma digital
ou fotográfica e podem ser atualizadas devido à característica de repetitividade de aquisição das
imagens.

NÍVEIS DE COLETA DE DADOS


Os dados de sensoriamento remoto podem ser coletados em diferentes níveis:

 terrestre;
 aéreo;
 orbital.

Em função dos níveis de coleta, são utilizados diferentes sensores e obtidos diferentes dados. A figura
33 dá um exemplo dos níveis de coleta de dados em sensoriamento remoto.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
44

Figura 33- Diferentes níveis de coleta de dados em sensoriamento remoto: terrestre (a poucos metros
da superfície), aéreo (aeronave) e orbital (satélite).
Dependendo do nível de coleta os dados apresentam diferentes resoluções espaciais e temporais,
assim dados coletados de satélites podem ser utilizados para:

 estudos continentais, tais como mapeamento e monitoramento de massas d’água oceânicas


ou de toda a extensão territorial do país, utilizando-se os dados do satélite NOAA-AVHRR
(Figura 34)

Figura 34 – Mosaico de Imagens NOAA-AVHRR da América do Sul

 estudos regionais, tais como mapeamento de uma região inteira ou da área de um estado,
utilizando imagens do sensor do sensor WFI do satélite CBERS;
 estudos regionais/locais, utilizando-se por exemplo dados do sensor TM pancromática do
satélite LANDSAT 7, imagens do satélite SPOT ou do sensor CCD do CBERS para
planejamento urbano-regional, estudos de áreas agrícolas em média escala ou em escala mais
local;
 estudos em detalhe, de áreas urbanas em escala local, que permite distinguir um quarteirão,
utilizando-se imagens do satélite IKONOS (Figura 35)

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
45

Figura 35 – Imagens de Foz do Iguaçu – sensor WFI do satélite CBERS (escala regional), sensor TM
do satélite LANDSAT (escala regional/local) e imagem do satélite IKONOS escala de detalhe),
respectivamente

Estações de rastreio
Existem estações de rastreio de satélites de recursos terrestres em todos os continentes, formando
uma rede de estações que permite que sejam coletadas informações sobre a superfície terrestre em
todas as latitudes e longitudes. A figura 36 apresenta a distribuição das estações de rastreio ao redor
do mundo.

Figura 36- Localização, ao redor do mundo, das estações de rastreio dos satélites de recursos
terrestres, as estações que recobrem a América do Sul estão localizadas na Argentina, Brasil e
Equador.
Cada sensor a bordo dos satélite apresentam distintas bandas que operam em diferentes faixas do
espectro eletromagnético, conhecendo o comportamento espectral dos alvos na superfície terrestre é
possível escolher as bandas mais adequadas para estudar os recursos naturais (Figura 37).

Banda 1 Banda 2

0,45-0,52 m m 0,52-0,59 m m

(azul) (verde)

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
46

 Mapeamento de águas costeiras;  Mapeamento de vegetação;


 Diferenciação entre solo e vegetação;  Qualidade d'água;
 Diferenciação entre vegetação
conífera e decídua;

Banda 3 Banda 4
0,63-0,69 m m 0,77-0,89 m m
(vermelho) (infravermelho próximo)

 Absorção de clorofila;  Delineamento de corpos d'água;


 Diferenciação de espécies vetais;  Mapeamento geomorfológico;
 Áreas urbanas, uso do solo;  Mapeamento geológico;
 Agricultura;  Áreas de queimadas;
 Qualidade d'água;  Áreas úmidas;
 Agricultura;
 Vegetação;

Figura 37- Aplicações das bandas da Câmara CCD do satélite CBERS

Reconhecimento e caracterização de alvos na imagem de Foz de Iguaçu. As cartas-imagem de Foz do


Iguaçu é fruto de uma composição colorida das bandas 2, 3 e 4 da Câmara CCD do satélite CBERS.
Foram feitas duas combinações de bandas, por esta razão as cartas-imagem apresentam cores
diferentes.
Na carta-imagem onde os alvos aparecem em cores naturais, isto é, como elas são vistas na natureza,
tal como as fotografias que tiramos durante as férias com câmaras fotográficas comuns, a combinação
de bandas foi feita na seguinte ordem: a cor azul foi associada à banda 1 (visível), a cor verde à banda
2 (visível) e a cor vermelha à banda 3(visível).

Na carta-imagem onde a vegetação aparece na cor vermelho vivo, a combinação de bandas foi feita da
seguinte forma: a cor azul foi associada à banda 2 (visível), a cor verde à banda 3(visível) e a cor
vermelha à banda 4 (infra-vermelho próximo). Esta combinação é chamada de falsa-cor, porque os
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
47

alvos aparecem na imagem em cores falsas, e não como são vistos na natureza. Este tipo de
combinação é muito usada para identificação de diferentes tipos de matas ou diferenciar áreas de mata
sadia das atacadas por enfermidades, ou para realçar sedimentos em suspensão na água.

A seguir serão caracterizados alguns objetos (alvos) observados nas cartas-imagem de Foz do Iguaçu,
mas antes desta caracterização deve-se levar em consideração a reflectância espectral dos objetos na
superfície terrestre em função das bandas espectrais dos sensores a bordo dos satélites (Figura 38).

Figura 38-Relação entre as bandas espectrais dos sensores remotos a bordo de satélites e a
reflectância de objetos (alvos) na superfície terrestre
Na figura 38 cada objeto (alvo) na superfície terrestre apresenta um curva espectral, que indica a
reflectância espectral de cada um deles nas diferentes bandas espectrais que compõem os sensores
remotos. Cada objeto (alvo) reflete de forma distinta nas bandas do visível e do infra-vermelho.
Assim quanto maior for o pico de reflectância neste gráfico, mais clara será a cor do objeto (alvo)
caracterizado na imagem, quanto menor for o pico de reflectância no gráfico, mais escura será a cor do
objeto (alvo) caracterizado na imagem.
Alvo 1: Lago do reservatório de Itaipu (Figuras 39, 40 e 41):

Figura 39 – Lago do reservatório de Itaipu ao luar e barragem e vertedouro da hidrelétrica de Itaipu

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
48

Figura 40 e Figura 41 - Estas duas figuras apresentam a superfície da água do lago do reservatório de
Itaipu (na parte superior); a barragem da hidrelétrica; um trecho do rio Paraná; áreas de mata; ao redor
do rio; áreas características de atividades humanas; nuvens (em branco) e a sombra das nuvens (em
preto). A Figura 8 corresponde a carta-imagem com as cores naturais e a Figura 9 a carta-imagem em
falsa cor.

Em ambas a superfície d’água do lago do reservatório de Itaipu apresenta grande quantidade de


sedimentos em suspensão (silte e argila), que interferem na transparência d’água. Por apresentarem
cor clara em ambas cartas imagens, indica que a água apresenta um pico alto de reflectânica, nas
bandas do visível. Em estudos de qualidade d’água esta tonalidade clara na água é indicativa de águas
túrbidas, algumas com aspecto barrento, denotando o transporte de sedimentos em suspensão.

As áreas de mata na figura 42 aparecem em tons de verde escuro e na figura 43 em tons de vermelho
vivo. As áreas de atividades humanas em ambas as figuras aparecem em tonalidades de verde claro,
indicando alguma reflectância do solo exposto.
Alvo 2: Áreas agrícola (Figuras 42 e 43)

Figura 42 e Figura 43

As figuras 42 e 43 apresentam áreas de agricultura e de mata ciliar. Os tons rosados na figura 42 e os


esverdeados na figura 43 representam áreas agrícolas, com diferentes graus de exposição do solo, ou
seja a cultura já foi colhida e o solo deve estar em preparação para o próximo plantio . Este tipo de alvo
é facilmente reconhecido por apresentar forma geométrica bem definida.

As áreas em verde claro na figura 42 e rosa na figura 43, representam áreas agrícolas com a presença
de vegetação, ou seja ainda não colhidas. As áreas em verde escuro e vermelho vivo ao longo dos rios
são áreas de mata ciliar.
Alvo 3: Cataratas do Iguaçu (Figuras 44, 45 e 46)

Figura 44: Mata do Parque Nacional do Iguaçu e Cataratas do Iguaçu

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
49

Figura 13 e Figura 14
As figuras 45 e 46 mostram a mata do Parque Nacional do Iguaçu (em verde escuro na figura 13 e
vermelho vivo na figura 46), o rio Iguaçu (em rosa claro na figura 45 e verde na figura 46) e as
cataratas do Iguaçu em tonalidade branca nas duas figuras. As tonalidades claras apresentadas pelo
rio Iguaçu nas duas figuras, são indicativas de águas túrbidas, com grande concentração de
sedimentos em suspensão. A tonalidade homogênea na área de mata é indicativa de áreas de mata
densa.

Nestas duas figuras é possível ver claramente o momento em que o canal do rio Iguaçu sofre um
estreitamento e passa a correr encaixado numa falha geológica dando origem as cataratas.
Alvo 4: Cidade de Foz do Iguaçu (Figuras 47, 48 e 49)

Figura 47- Vista aérea da cidade de Foz do Iguaçu

Figura 48 e Figura 49

As figuras 48 e 49 apresentam a cidade de Foz do Iguaçu nas cartas-imagens, a figura 48


corresponde a carta-imagem em cores naturais e a figura 49 na carta imagem em falsa cor. Pode-se
observar também nestas figuras a presença de áreas de mata principalmente na porção oeste.

Alvo 5: Encontro dos rios Iguaçu e Paraná (Figuras 50, 51 e 52)

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
50

Figura 50- Vista do rio Paraná e do Espaço das Américas no encontro dos rios Paraná e Iguaçu

Figura 51 e Figura 52 - As figuras 51 e 52 apresentam o encontro dos rios Iguaçu e Paraná, sendo
possível observar-se na porção leste parte da cidade de Foz do Iguaçu, ao sul parte da cidade de
Puerto Iguazu, na Argentina e a oeste parte da Ciudad Deleste, no Paraguai.
Nestas duas figuras pode-se observar áreas de mata (verde escuro na figura 51 e vermelho na figura
52), áreas urbanas em tonalidades claras nas duas figuras e tonalidades claras nas águas do rio
Paraná e Iguaçu, indicativas da presença de sedimentos em suspensão, sendo portanto águas túrbidas
com pouca transparência.

IMAGENS DE RADAR
A palavra radar vem do termo “radio detection and ranging”, o principio é que usando ondas de som
determinar posições. Com o seu desenvolvimento o processo passou a admitir o uso de ondas de radio
e energia de microondas.

O radar é aplicado a varias áreas, mas o seu emprego é abordado nas imagens de Sensoriamento
Remoto, o sistema radar utilizado é o que usa microondas por ter uma área de abrangência maior,
neste tipo de sistema nos não se obtém exatamente imagens mais sinais que são codificados em
imagens.

A operação básica é enviar através de uma antena pulsos muito curtos de microondas da ordem do
microsegundo um receptor destes sinais pode dar a localização dos pulsos que retorna através do
calculo da distancia percorrida de cada pulso que se move com aproximadamente a velocidade da luz c
num incremento de tempo t :

10
8 9
1
7 8
5
7
2 6 6
6
3
5
4

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
51

Figura 53 – Pulso radar.


c.t
D or  (1)
2
Dor – distância objeto radar;
c – velocidade da luz;
t – tempo.

Calculada a distancia encontrasse uma forma de representa a resposta como a do gráfico a


seguir onde existem um tom de cinza que representa cada retorno dado pelo radar.
Tamanho do pulso

energia do retorno da
Pulso casa
retorno da
arvore

0 5 10

Figura 54 - Representação da resposta Radar.

Uma das principais características do Radar é de ser um sensor ativo, isto é, ele emite as
ondas eletro magnéticas que observa isto possibilita sua aplicação em condições que desfavorecem o
uso de sensores convencionais passivos que utilizam modo geral a energia do sol ou emitida pelos
objetos para imagear uma dada região. Outra característica interessante é a penetração das
microondas na atmosfera sofrendo pouca influencia, com isto é possível registrar informações em
regiões com nuvens.

LIDAR
Poucas pessoas poderiam imaginar, há 15 anos, as transformações pelas quais passariam as técnicas
de mapeamento e, particularmente a fotogrametria, afetada pelos desenvolvimentos da informática.
Acrescenta-se as novas formas de aquisição de dados mediante emprego de novas tecnologias para
levantamentos em escalas grandes, como o levantamento direto em campo com GPS e a varredura a
laser (TOMMASELLI, 2000).

Conforme o mesmo autor, particularmente a varredura a laser, objeto de analise do estudo em tela, tem
possibilitado a determinaçao de modelos tridimencionais de objetos com exatidão, rapidez e baixo
custo (tendo em vista a relaçao custo/beneficio) suficientes para substituir os atuais processos com
estação total, com elevado grau de eficiencia. Um instrumental capaz de realizar um levantamento
detalhado e preciso, consumindo pouco tempo para faze-lo, elevaria substancialmente a capacidade de
monitorar, por exemplo, processos construtivos na engenharia.

A presente analise sera efetuada, tendo como enfoque o sistema de lasers scanners
aerotransportados, tendo em vista sua importância na aquisição de dados ao processamento digital de
imagens. Sera apresentado uma descrição do funcionamento do laser scanner baseando-se,
principalmente, no texto de WEHR & LOHR (1999), onde poder-se-a obter informações mais
detalhadas.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
52

A tecnologia laser scanner utiliza-se de um sistema optomecanico montado em diferentes plataformas,


como aviões sobrevoando uma cidade. Podemos defini-lo como sendo um sistema de sensoriamento
remoto ativo usado para medir a distancia entre o sensor e a superfície dos objetos. Seu
funcionamento baseia-se na utilização de uma feixe de laser (LASER: light amplification by stimulatied
emission of radiance), que e disparado em direção dos objetos, refletido por eles e novamente captado
pelo sistema. A partir do sinal de retorno e o tempo decorrido entre a emissão e o registro do eco,
informações como a distancia entre o sensor e o objeto podem ser calculadas. Este tipo de sistema
também e chamado de LIDAR (light detection and ranging) ou LADAR (laser detection and ranging)
CENTENO et al. (2000). Simplificadamente, podemos dizer que todo sistema laser mede a distancia
entre o sensor e a regiao iluminada na terra.

Um típico laser scanner e dotado de uma unidade de medição do laser propriamente dita, encarregada
de emitir e receber o sinal laser, um sistema de varredura optomecanico e uma unidade de registro de
medições de apoio, as quais veremos adiante em maiores detalhes.

Unidade de Medição:
A unidade de medição de laser e responsável pelas emissão e recepção do sinal. O sistema e
montado de tal forma que a transmissão e o recebimento tenham o mesmo caminho óptico e
assegurando que o objeto iluminado esteja sempre no campo de visão do receptor óptico (FOV: field of
view).

Há duas formas de emissão, que pode ser um pulso ou um sinal continuo. O sistema de pulso e mais
comum e baseia-se na emissão e recepção de curtos pulsos de energia onde, pulsos de alta energia
em intervalos curtos de tempo e ajustamento com pequenas aberturas, conferem elevada precisão. O
sistema de onda continua, conhecido como CW (continuous wave), funciona a partir da medição da
diferença de fase entre o sinal emitido e o recebido e, segundo WEHR & LOHR (1999), quando da
ediçao do artigo, havia somente um sistema aerotransportado sendo empregado comercialmente com
o sistema CW, pela Universidade de Stuttgart-Alemanha. Neste sistema aplica-se varias freqüências
(tons) para atingir altas resoluções.

O sistema usa um feixe óptico de alta potencia e bem direcionado, coerente no espaço e no tempo,
para medir esta distancia. Uma faixa estreita do espectro e utilizada, operando na faixa do
infravermelho próximo e médio, ou seja, entre 800 e 1600 nm. A faixa do espectro a ser utilizada e
condicionada por questões de segurança pois, devido a alta potencia de energia utilizada, o feixe pode
ser nocivo para os olhos humanos. A titulo de exemplo cita-se a empresa Toposys, que comumente
opera com a faixa de 1.535 nm.

E importante destacar que a escolha da melhor faixa do espectro a ser trabalhada depende das
propriedades de reflexão dos objetos, tendo em vista os objetivos do estudo. Por exemplo uma faixa de
1.535 nm não e adequada para a neve, que reflete pouco neste comprimento de onda, uma melhor
escolha, neste caso, seria de 810 nm. Para melhor ilustrar esta questão, apresenta-se alguns exemplos
no Quadro 1.

Quadro 1 – Reflexão de alguns materiais a 900 nm para o sistema laser scanner (adaptado de WEHR
& LOHR, 1999).
MATERIAL REFLEXAO %
Pinus 94
Neve 80-90
Areia Seca 57
Areia Úmida 41
Concreto 24
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
53

Conforme o exposto, podemos depreender que as propriedades físicas básicas que buscamos num
laser scanner sera: a) tenha elevado poder (relacionado com a energia); b) tenha pulsos curtos ou a
capacidade de modular a frequencia, no caso de CW; c) tenha alta colimação (poder de observação de
um instrumento) e; d) atue numa faixa estreita do espectro óptico de emissão, de modo a suprimir
efeitos de distúrbios de radiação, como por exemplo no caso de espalhamento da luz.

A Varredura (ou escaneamento):


Como resultado da varredura obtem-se uma nuvem de pontos de elevada densidade, que varia em
função do tipo de scanner utilizado, da velociade do aeroplano e da topografia do terreno.

A varredura pode ser uni ou bi-direcional, existindo diferentes opções para se efetuar o
redirecionamento do feixe do laser, como por exemplo o uso de espelhos moveis. Entre as opções
disponíveis estão o uso de um espelho oscilante que produz linhas paralelas ou em “zig-zag”, o Palmer
Scanner, que utiliza um espelho que gira em torno de seu centro e produz um padrão elíptico e o
espelho em forma de polígono rotatório, que produz linhas paralelas. A Figura 55 ilustra este processo.

Esquema Tipo de traço

Figura 55: Diferentes esquemas de varredura (extraído do site


http://www.geocites.com/capacanaveral/launchpad/8806/lasc/sommaire/html).

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
54

O sistema Toposys apresenta um modelo único no mercado, trabalha com fibras ópticas, sendo
conhecido como “fiber scanner”. Este sistema consiste num arranjo de fibras ópticas usado tanto para
emitir como para medir o sinal. Neste caso, o redirecionamento do feixe e feito usando um espelho
rotativo que possibilita registrar a energia proveniente de uma linha inteira com o arranjo de fibras
ópticas no plano montadas no focal da emissão e recepção. A transmissão e a recepção óptica são
idênticas, pois há uma camada igual de fibras ópticas nos planos. Este sistema confere ao aparelho
uma alta velocidade de escaneamento e precisão.

Posição e Orientação do Sistema:


O laser scanner mede somente o vetor linha, a partir da sua abertura e projeção na superfície terrestre.
Para a obtenção da terceira dimensão faz-se necessário conhecer a posição e orientação do sistema
laser. A posição do sensor na hora da medição de cada ponto e possível graças ao uso de um sistema
de GPS diferencial (dGPS), encarregado de calcular a posição (x,y,z) do avião/sensor no espaço, num
sistema de coordenadas (WGS84). Um segundo sistema de apoio, uma unidade de medição de inércia
(IMU: inertial measurement unit) e encarregada de calcular a inclinação do sensor nas três direções. A
precisão do laser esta em torno de 0,1 m, por isso os sistemas de apoio devem ter uma precisão igual
ou maior. Na pratica conta-se com sistemas com precisão menor que 0,1 m, e menor que 0,02 graus
(WEHR & LOHR, 1999). O conjunto de medições de apoio, do IMU e do dGPS, que devem estar
perfeitamente sincronizados, são medidos e armazenados simultânea e paralelamente a mediçao da
distancia pelo sistema laser. Numa etapa posterior, as series de dados cole tados são sincronizadas e
a posição exata de cada ponto que forma a imagem e calculada. A Figura 56 a seguir ilustra esse
processo:

Figura 56 – Desenho Esquematico do Posicionamento do Sistema (extraído do site


http://www.geocites.com/capacanaveral/launchpad/8806/lasc/sommaire/html)

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
55

Determinação dos Pontos


Segundo LINDENBERGER (1993) e HUG (1996), ambos citados por WEHR & LOHR (1999), a
determinação dos pontos gerados por um laser scanner no sistema WGS84, pode ser computado com
a ajuda de 3 grupos de dados, quais sejam: a) calibração dos dados e montagem de parâmetros; b)
distancia do laser com o respectivo ângulo de abertura e; c) o sistema de posicionamento, obtido a
partir do dGPS e IMU.

O principal objetivo para se trabalhar com este agrupamento de dados e o do calculo do modelo digital
de elevação.Resumidamente podemos dizer que o processo se da nas seguintes etapas: 1º) obtenção
dos dados laser; 2º) transformação para o sistema WGS84; 3º) nuvem de pontos; 4º) obtenção da
elevação e posição e; 5º) utilização de diferentes filtros e algoritmos para separar, por exemplo,
construções de vegetação. Conforme WEHR & LOHR (1999), os maiores avanços nos últimos anos
tem sido mais nas tecnicas de pos-processamento (softwares) do que no hardware scanner, onde a
aplicação de diferentes técnicas tem determinado o resultado final.

Extensão da Capacidade do Laser


Alguns lasers podem registrar a intensidade de espalhamento da luz, isso em relação ao maximo
retorno do pulso. E possível tando nos sistemas pulso ou CW, e pode ser útil na visualização da cena e
para melhorar processos de filtragem/remoção e classificação/separação.

Outros sistemas podem registrar múltiplos ecos para cada pulso enviado, sendo útil para a elaboração
de perfis verticais de múltiplos objetos, a exemplo de arvores num bosque (veja Figura 57).

Figura 57: Esquema do retorno de múltiplos ecos Sistema (extraído do site


http://www.geocites.com/capacanaveral/launchpad/8806/lasc/sommaire/html)

Finalmente, existem lasers batimetricos baseados em princípios de lasers topográficos. Há emissão de


dois comprimentos de onda, comumente 1064 nm e 532 nm, proporcionando melhor separabilidade
entre diferentes objetos.

Aplicações e Exemplos
Na literatura já começam a surgir vários trabalhos relacionados com a aplicação em diversas áreas do
conhecimento, empregando-se a tecnologia laser scanner. Apenas para citar alguns trabalhos
científicos nesta área fazemos referencia ao artigo de CENTENO et al. (2000), onde os autores
Prof. Mauro Alixandrini
Apostila de Sensoriamento Remoto
56

realizaram um estudo do ambiente urbano visando a detecção de construções irregulares, enfocando


as alterações que infrigem as restrições impostas pelas leis de uso do solo, basicamente objetivando
contribuir para a prevenção de catástrofes naturais decorrentes da alteração excessiva da cobertura
superficial do solo, fornecendo uma metodologia de obtençao desta informação de maneira automática,
através do processamento digital de imagens de satelite, conluindo-se que a técnica baseada na
tecnologia laser scanner demonstrou viabilidade para o monitoramento urbano.

Outro trabalho, na área da engenharia florestal, desenvolvido por NELSON et al. (1997) demonstrou a
aplicabilidade da tecnologia laser scanner para o estudo em uma floresta tropical primaria na Costa
Rica. A metodologia permitiu estimar a área basal, volume e biomassa da floresta, demonstrando sua
potencialidade principalmente em áreas de difícil acesso e com densa cobertura florestal.

De modo geral podemos dizer que a tecnologia laser scanner pode ser empregada para o mapeamento
de corredores (estradas, rios); linhas de transmissao elétrica; DTM especialmente em áreas florestadas
visando estudos de drenagem; mensuramentos de áreas costeiras para estudos de erosão; elaboração
de modelos 3D de construções em áreas urbanas; mapeamento rápido e avaliação após catástrofes
naturais (ex: terremotos); modelos 3D para filmes, vídeos, produções de games, animações e
simulações de projetos de engenharia; monitoramento do crescimento de plantas em agricultura de
precisao; estudos de solo e relevo visando o zoneamento ambiental; etc.

Nas Figuras 58 e 59 a seguir, ilustramos alguns exemplos de resultados obtidos do sistema laser
scanner.

Figura 58: Modelo Digital do Terreno de uma Cidade na França Sistema (extraído do site
http://www.geocites.com/capacanaveral/launchpad/8806/lasc/sommaire/html)

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
57

HORIZONTAL

45 GRAUS

Figura 59- Modelos Digitais de Terreno Produzidos pela GEOIDE (fonte: http://www.geiode.com.br).

Para Aprofundar mais o Assunto:


1- http://www.geiod.com.br
2- http://www.geocites.com/capacanaveral/launchpad/8806/lasc/sommaire/html
3- http://www.csc.noaa.gov/crs/ALACE/
4- http://aol.wff.nasa.gov/aoltm/projects/beachmap/
5- http://www.bev.gv.at/bev/
6- http://www.eaglescan.com/
7- http://www.jchance.com/chanceweb/frameset.htm/
8- http://www.fugro-inpark.nl/
9- http://www.geographia.se/
10- http://www.kwc.de/geoscan/defaut.htm/
11- http://www.hansaluftbild.de/
12- http://www.asprs.org/asprs/resources/directory/h2.html/
13- http://www.ifp.uni-stuttgart.de/

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
58

14- http://www.inpho.de/
15- http://www.nav.uni-stuttgart.de/
16- http://www.ipf.tuwien.ac.at/
17- http://www.newtech-airborne.com/
18- http://www.optech.on.ca/
19- http://www.toposys.com/
20- http://www.combitech.se/survey/
21- http://www.kwc.de/vortrag/PL/TopoLaser/TopoLaser.htm

10 Referencias Bibliográficas:

ALAMÚS R.; KORNUS, W.; TALAYA, J. Studies on DMC Geometry. ISPRS Journal of
Photogrammetry and Remote Sensing. Volume 60, Issue 6, September 2006, pp. 375-386. 2006.

CRAMER, M. The ADS40 Vaihingen/Enz geometric performance test. ISPRS Journal of


Photogrammetry and Remote Sensing. Volume 60, Issue 6, September 2006, pp. 363-374. 2006.

CRAMER, M. Calibration and validation of digital airborne cameras. In: ISPRS Commission I
Symposium "From Sensors to Imagery", Paris - Marne le Vallee, July 4-6. 2006. Proceedings. 2006b

CRAMER, M. The EuroSDR Performance Test for Digital Aerial Camera Systems. Photogrammetric
Week '07, Wichmann. p. 89-106. 2007.

DIN 18716-1, Photogrammetrie und Fernerkundung - Teil 1: Grundbegriffe und besondere Begriffe der
photogrammetrischen Aufnahme

DIN 18716-3:1997-07, Photogrammetrie und Fernerkundung - Teil 3: Begriffe der Fernerkundung

DIN 18740-1, Photogrammetrische Produkte - Teil 1: Anforderungen an Bildflug und analoges Luftbild

DIN 18740-3, Photogrammetrische Produkte - Teil 3: Anforderungen an das Orthophoto

DIN 18740-4, Photogrammetrische Produkte - Teil 4: Anforderungen an digitale Luftbilkameras und an


digitale Luftbilder
DIN ISO 9022-3, Optik und optische Instrumente - Umweltprüfverfahren - Teil 3: Mechanische
Beanspruchung

DÖRSTEL, C.; JACOBSEN, K.; STALLMANN, D. DMC - Photogrammetric Accuracy - Calibration


Aspects and Generation of Synthetic DMC Images. In: Optical 3D Measurement Techniques VI.
Institut for Geodesy and Photogrammetry. vol. I, ETH, Zürich, p. 74-88. 2003.

DÖRSTEL, C. DMC – (R)evolution on Geometric Accuracy. Photogrammetric Week '07, Wichmann, p.


81-88. 2007.

FRICKER, P. Raising the Bar for Multi-Band, High-Resolution Airborne Imagery. Photogrammetric
Week '07, Wichmann, p. 71-79. 2007.

GRAHAM, R.; KOH, A.; BALTSAVIAS, M.; SCHÖNERMARK, M.; THEUWISSEN, A.; ZIEMANN, H.
Detector and Sensors. In: ASPRS Manual of Photogrammetry and Remote Sensing, 5th Edition.
American Society for Photogrammetry and Remote Sensing, p. 505-580. 2004.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
59

GRUBER M.; LEBERL, F.; PERKO, R. Paradigmenwechsel in der Photogrammetrie durch Digitale
Luftbildaufnahme? Photogrammetrie, Fernerkundung, Geoinformation, v.4, p. 285-297. 2003.

GRUBER, M. UltraCamX, the new Digital Aerial camera System by Microsoft Photogrammetry.
Photogrammetric Week '07, Wichmann, p. 137-145. 2007.

HINZ, A.; DÖRSTEL, C.; HEIER, H. Digital Modular Camera: System concept and data processing
workflow, In: IAPRS, Vol. XXXIII, Part B1, Amsterdam. Proceedings, p. 164-171

HONKAVAARA, E.; AHOKAS E.; HYYPPA, J.; JAAKKOLA J.; KAARTINEN, H.; KUITTINEN, R.;
MARKELIN, L.; NURMINEN, K. Geometric test field calibration of digital photogrammetric sensors.
ISPRS Journal of Photogrammetry and Remote Sensing. Volume 60, Issue 6, p. 387-399. 2006.

HONKAVAARA, E.; MARKELIN, L. Radiometric Performance of Digital Image Data Collection – A


Comparison of ADS40/DMC/UltraCam and EmergeDSS. Photogrammetric Week '07, Wichmann, p.
117-129. 2007.

ISO 7137, Aircraft - Environmental conditions and test procedures for airborne equipment

KRÖPFL, M.; KRUCK, E.; GRUBER, M. Geometric calibration of the digital large format camera
UltraCamD. International Archives of Photogrammetry, Remote Sensing and Spatial Information
Sciences 35 (Part B1), p. 42–44. 2004.

LEBERL, F.; GRUBER M. Flying the new large format digital aerial camera Ultracam.
Photogrammetric Week '03, Wichmann, pp. 67–76. 2003.

PAPARODITIS, N.; SOUCHON, J.; MARTINOTY, G.; PIERROT-DESEILLIGNY M. High-end aerial


digital cameras and their impact on the automation and quality of the production workflow. ISPRS
Journal of Photogrammetry and Remote Sensing. Volume 60, Issue 6, p. 400-412. 2006.

SANDAU, R., FRICKER, P. UND WALKER, A. Digital photogrammetric cameras: possibilities and
problems. Photogrammetric Week '99, Wichmann, p. 71-82. 1999.

SANDAU, R.; BRAUNECKER, B.; DRIESCHER, H.; ECKART, A.; HILBERT, S.; HUTTON, J.;
KIRCHHOFER, W.; LITHOPOULOS, E.; REULKE, R. WICKI, S. Design principles of the LH Systems
ADS40 airborne digital sensor. In: IAPRS, Vol. XXXIII, Part B1, Amsterdam. Proceedings, p. 258-265.
2000.

SIMONETT, D. Manual of remote sensing: Theory, instruments and techniques. 2. ed. Falls
Church, 1983.

STENSAAS, G. U.S. Geological Survey Digital Aerial Mapping Camera Certification and Quality
Assurance Plan for Digital Imagery. Photogrammetric Week '07, Wichmann, p. 107-116. 2007.

TÖLG, T. Newest Technologies for Compact Digital Aerial Survey Câmeras. Photogrammetric Week
'07, Wichmann, p. 131-136. 2007.

CENTENO, J. S.; STEINIE, E. & WOGTLE, T. Analise de modelo numerico de elevaçao derivados de
laser scanner para monitoramento urbano. ANAIS COBRAC-Congresso Brasileiro de Cadastro Técnico
Multifinalitario. Florianópolis/SC. 8p. 2000.

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto
60

NELSON, R.; ODERWALD, R. & GREGOIRE, T.G. Separating the ground and airborne laser sampling
phases to estimate tropical forest basal area, volume, and biomass. Elsevier Science Inc. Remote
Sensing and Enviromen. 60:311-326. New York.1997.

TOMMASELLI, A.M.G. Tendencias da fotogrametria digital. Revista InfoGeo. Março/Abril. 63-65p. 2000.

WEHR, A. & LOHR, U. Airborne laser scanning-an introduction and overview. LSPRS Journal of
Photogrammetry and Remote Sensing (54)2-3. 68-82p. 1999.

American Society of Photogrammetry - Manual of Remote Sensing - Falls Church – 1983

Câmara G., Davis C., Monteiro A.M.V., D©Alge J.C.L., Felgueiras C., Freitas C.C., Fonseca
L.M.G., Fonseca F. Introdução à Ciência da Geoinformação, www.dpi.inpe.br

Novo, E. M. L. M, - Sensoriamento Remoto, Princípios e Aplicações - Edgard Blucher, 1998.


Rosa, R. - Introdução ao Sensoriamento Remoto - EDUFU- 1995.

Schowengerdt, R. A., - Remote Sensing - Models and Methods for Image Processing, Ed. Academic
Press, 1997.

Slater, P. N. - Remote Sensing: Optics and Optical Systems - Addison-Wesley, 1980

ANDRADE, J. B. D. Fotogrametria. Curitiba: SBEE, 1998. 258 p.

ROCHA, C. H. B. Geoprocessamento: tecnologia transdisciplinar. Juiz de Fora: s.n., 2000.

WOLF, P. R. Elements of Photogrametry with Air Photo Interpretation and Romote Sensing. 2ªed.
Singapore: McGraw-Hill Book Company, 1983.

10. ALGUNS SITES RELACIONADOS AO SR

http://www.inpe.br
http://www.dpi.inpe.br
http://www.agespacial.gov.br/sensoriamento.htm
http://www2.ibama.gov.br/
http://www.csr.ufmg.br/
http://www.img.com.br/imagem/
http://www.cnpm.embrapa.br
http://www.intersat.com.br
http://www.engesat.com.br
http://www.threetek.com.br
http://terra.nasa.gov
http://www.usgs.gov/
http://eospso.gsfc.nasa.gov/

Prof. Mauro Alixandrini


Apostila de Sensoriamento Remoto