Você está na página 1de 155

Universidade Eduardo Mondlane

Faculdade de Letras e Ciências Sociais


Centro Nacional de
Dep. Geografia
Cartografia e Teledetecção
(CENACARTA)

MANUAL DE TELEDETECÇÃO

Fascículo II:

Tratamento de Imagens Satélite

Setembro de 2004 Compilado por: Eng. Manuel Ferrão


Índice

PREFÁCIO................................................................................................................................ 4
3 - Tratamento, Análise e Interpretação de Imagens Satélite ................................. 7
3.1 – Teoria da Cor ................................................................................................................ 7
3.1.1 Introdução ................................................................................................................... 7
3.1.2 Princípios físicos da cor ............................................................................................... 8
3.1.2.1 Definição............................................................................................................... 8
3.1.2.2 Natureza espectral da cor .................................................................................... 9
3.1.3 Representação das cores e sua combinação................................................................ 10
3.1.3.1 As três cores primárias ....................................................................................... 10
3.1.3.2 As três cores secundárias .................................................................................. 13
3.1.3.3 O círculo cromático ............................................................................................ 14
3.1.3.4 Cores complementares ........................................................................................ 14
3.1.3.5 Cores metaméricas ............................................................................................. 14
3.1.4 A Reprodução das cores............................................................................................. 15
3.1.4.1 A síntese aditiva ................................................................................................. 15
3.1.4.2 A análise subtractiva .......................................................................................... 16
3.1.5 Quantificação das cores ............................................................................................ 19
3.1.6 Sistema de representação ITS .................................................................................. 21
3.2 – Os Monitores de Imagens ......................................................................................... 21
3.2.1 Introdução ................................................................................................................ 21
3.2.2 O Princípio de Funcionamento e a Estrutura dos Micro-computadores ....................... 22
3.2.3 O princípio de funcionamento de um monitor ............................................................. 27
3.2.3.1 A estrutura de um monitor ................................................................................. 27
3.2.3.2 A formação de uma imagem digital ..................................................................... 30
3.2.3.3 A codificação dos valores radiométricos através do LUT ................................... 32
3.2.3.4 Histograma ........................................................................................................ 33
3.2.4 Visualização Monocanal ............................................................................................. 35
3.2.5 Visualização em Composição Colorida ......................................................................... 36
3.3 - Processamento Digital da Imagem Satélite ............................................................ 43
3.3.1 Pré-processamento .................................................................................................... 43
3.3.1.1 Correcção Radiométrica ...................................................................................... 43
3.3.1.2 Correcção Geométrica ........................................................................................ 44
3.3.1.3 Mosaicagem ........................................................................................................ 53
3.3.2 Processamento Final .................................................................................................. 53
3.3.2.1 Tratamentos radiométrico e espectral ............................................................... 54
3.3.2.2 Tratamento espacial ........................................................................................... 59
3.3.3. Classificação Digital ................................................................................................. 64
3.3.3.1 Classificação Não-Supervisada ........................................................................... 65
3.3.3.2 Classificação Supervisada .................................................................................. 67
3.4 – Interpretação Visual de Imagens Satélite ............................................................. 70
3.4.1 Definição ................................................................................................................... 71
3.4.2 Aspectos da interpretação visual .............................................................................. 71
3.4.3 Fases da interpretação visual .................................................................................... 72
3.4.4 Métodos de Fotointerpretação ................................................................................. 72
3.4.4.1 Sinais da Imagem................................................................................................ 73

Manual de Teledetecção – Fascículo II 2


3.4.4.2 Elementos de fotointerpretação ........................................................................ 76
3.4.5 O Processo da interpretação Visual ........................................................................... 78
3.4.5.1 Pré-requisitos ..................................................................................................... 78
3.4.5.2 Escolha da Imagem............................................................................................. 79
3.4.5.3 Metodologia ....................................................................................................... 82
3.4.5.4 Mapeamento do Uso e Cobertura de Terra ......................................................... 89
3.4.5.5 Classificação da Erosão do Solo.......................................................................... 97
3.4.6 Vantagens e Desvantagens da Interpretação Visual .................................................. 98
4 - Produção de Cartas ..................................................................................................... 101
4.1 Definições .................................................................................................................... 101
4.2 Classificação de cartas em Moçambique .................................................................. 102
4.3 Confecção das Cartas ................................................................................................. 103
4.4 Aspectos a Considerar na Edição de uma Carta ...................................................... 106
4.4.1 Título ...................................................................................................................... 106
4.4.2 Escala ..................................................................................................................... 107
4.4.3 Legenda .................................................................................................................. 107
4.4.4 Localização e sistema de coordenadas ..................................................................... 107
4.4.5 Projecção cartográfica............................................................................................ 109
4.4.6 Datum ..................................................................................................................... 112
4.4.6.1 Datum Usado em Moçambique ........................................................................... 113
4.4.6.2 O Novo Datum Geodésico de Moçambique - MOZNET/ITRF94 ........................ 114
4.4.7 Modelos de Elipsóide ............................................................................................... 117
4.4.8 Equilíbrio e Lay-out ................................................................................................. 118
4.4.8.1 Contraste de padrões ....................................................................................... 119
4.4.8.3 Claridade e legibilidade .................................................................................... 119
4.4.8.4 Generalização ................................................................................................... 119
4.4.9 Apresentação da Carta............................................................................................ 120
4.4.10 Impressão da carta ............................................................................................... 120
4.5 Precisão Cartográfica e Exactidão de Mapeamento ............................................... 121
4.5.1 Precisão Cartográfica .............................................................................................. 121
4.5.2 Exactidão do Mapeamento Temático ....................................................................... 122
4.6 Actualização Cartográfica ......................................................................................... 125
4.6.1 Metodologias ........................................................................................................ 125
4.6.2 Princípios básicos ................................................................................................ 128
4.6.3 Processamento de dados ..................................................................................... 130
4.6.3.1 A relação entre a escala do mapa e a resolução da imagem satélite ................... 131
4.6.3.2 Precisão geométrica ......................................................................................... 133
4.6.3.3 A extracção de informação nas imagens satélite .............................................. 134
4.6.4 Informações Auxiliares e Dicas ......................................................................... 139
4.6.4.1. Como produzir MNT’s baratos para orto-rectificar imagens IKONOS ............. 139
4.6.4.1. O Processo de produção ................................................................................... 140
4.6.4.2. Precisão Planimétrica das Imagens IKONOS ................................................... 141
4.6.4.3. Importância da Resolução Efectiva numa Imagem Satélite .............................. 142
4.6.4.4. Extracção automatizada de informação em dados espaciais ............................. 145
Referências Bibliográficas ............................................................................................... 152

Manual de Teledetecção – Fascículo II 3


___________________________________________________________________________

PREFÁCIO

O presente fascículo faz parte do Manual de Teledetecção iniciado com o Fascículo I - Satélites

e Princípios Físicos da Teledetecção. Neste, estão contidos os princípios e bases para o


Tratamento de Imagens Satélite.

O objectivo específico deste fascículo é o de fornecer aos utilizadores os princípios básicos e as

técnicas mais correntes de análise e processamento de imagens satélite. Partindo do tratamento,

análise e interpretação de imagens satélite, a abordagem inclui também a produção de cartas,

nomeadamente os aspectos a considerar na sua edição e utilização.

O presente Fascículo II inicia com uma abordagem sobre a teoria da cor, a base de qualquer

tratamento da imagem satélite. A manipulação da cor foi influenciada pelas descobertas do

comportamento da luz. Aliás, sem luz não há manifestação da cor. Da Grécia Antiga até os

tempos contemporâneos, a luz é fonte de estudo de cientistas, pesquisadores e artistas que,

através de teses científicas, deram vazão ao que hoje se entende por Teoria da Cor.

Essa teoria pode ser entendida como o conjunto de conhecimentos relacionados à luz, aos

corpos transmissores e reflectores e ao observador. A associação desses três factores resulta

na organização, percepção e reprodução das cores. Daí a importância da luz, tanto para a

existência da cor, quanto para a manipulação da mesma.

No decorrer da História, cientistas de todas as épocas procuraram entender como se dá a

estrutura da luz e seu comportamento, tendo entre seus objectos de estudos o espectro da

energia electromagnética e o espectro cromático em particular, formado pelas sete cores

visíveis. É para partilhar estes conhecimentos que se incluiu, neste fascículo, a parte referente

à cor.

Em reconhecimento à importância dos monitores no tratamento digital de imagens satélite, uma

parte deste fascículo é dedicada a este tema. O monitor de computador emprega o modelo de

cores RGB (sistema de cor luz). O écran do computador projecta a luz, enquanto que os meios

nele impressos reflectem a luz. A cor que vemos no monitor pode sofrer alterações devido a

Manual de Teledetecção – Fascículo II 4


condições adversas do ambiente externo (luminosidade da sala, temperatura, etc.). Nestas

condições é difícil obter-se cores consistentes.

A seguir aos monitores, o fascículo aborda o Processamento Digital de imagens. Também

referido como geo-processamento, este processamento é um conjunto de tecnologias usadas para

a análise e tratamento de informações espaciais para um objectivo específico. Assim, as

actividades que o envolvem são executadas por sistemas específicos designados por Software de

Tratamento de Imagens e Sistemas de Informação Geográfica (SIG), consoante o tratamento a


realizar.

Qualquer destes sistemas pode realizar um processamento de dados (georeferenciados), desde a

colheita da informação até a edição de saídas na forma de mapas convencionais, relatórios,

arquivos digitais, etc.. Com a evolução da tecnologia de processamento digital e dos softwares

gráficos, vários termos surgiram para as várias especialidades. O termo Sistema de Informação

Geográfica (Geographic Information System - GIS) é muito utilizado e, em muitos casos, é


confundido com geo-processamento. O geo-processamento é um conceito mais abrangente e

representa qualquer tipo de processamento de dados georeferenciados, enquanto que um SIG

processa dados gráficos e não gráficos (alfanuméricos), com ênfase em análises espaciais e

modelagem de superfícies.

Se o utilizador estiver interessado em praticar as técnicas de processamento de imagens

descritas neste fascículo, ser-lhe-á imprescindível o acesso a um computador com software

apropriado. Para o efeito, existem vários pacotes gratuitos na Internet. Para uma auto-

aprendizagem, é de recomendar o pacote completo de aprendizagem disponibilizado pelo

Instituto Nacional de Pesquisas Espaciais do Brasil (INPE), vulgarmente conhecido por Spring e

que contém, na sua actual versão 4.0, quatro módulos:

IMPIMA – para a leitura de imagens e sua conversão em outros formatos;


SPRING – módulo principal, de entrada, manipulação e transformação de dados;
SCARTA – para a edição e impressão das cartas ou mapas gerados;
IPLOT – para a geração de arquivos para a impressão em PostScript.

A versão do Spring, em português, encontra-se em www.dpi.inpe.br/spring/portugues/.

Manual de Teledetecção – Fascículo II 5


Se o utilizador estiver interessado somente em observar no écran o resultado de alguns

tratamentos já realizados, pode recorrer aos visualizadores gratuitos, que para além da

visualização de imagens podem fazer pequenos tratamentos específicos.

Geomatica FreeViewer , da PCI Geomatics, suporta mais de 100 formatos vector e raster e pode
ser usado para a visualização, adaptação dinâmica, ampliação, amostragem de pixeis e de

atributos da imagem. A imagem, contudo, não pode ser editada. A mais recente é a versão 9.1 e

pode ser encontrada em www.pcigeomatics.com.

ViewFinder version2.1 do Erdas, funciona somente com o formato raster e, para além das funções
contidas no software acima, inclui outras de sobreposição de imagens, medição de distâncias

entre dois pontos da imagem, projecção múltipla de imagens, rotação, etc. Esta versão coloca

simultaneamente no écran um visor principal (resolução de pixeis de 1:1), um visor de localização

(amostragem sinóptica de toda a imagem) e um visor de detalhe (ampliação de uma parcela da

imagem). Pode ser encontrada em www.Erdas.com.

Outra técnica que o presente manual aborda é a Interpretação visual de imagens satélite. Os
métodos computacionais de processamento digital, embora muito mais rápidos do que o método
visual, oferecem-nos por vezes resultados pouco fiáveis, porque os programas desenvolvidos para
a classificação são, na maior parte das vezes, baseados apenas nas assinaturas espectrais dos
objectos. Assim, objectos diferentes podem ser classificados como de uma mesma classe
temática, por apresentarem comportamento espectral idêntico e objectos similares, com
comportamento diferente, podem ser classificados como de classes temáticas diferentes. Pode-
se concluir, por isso, que embora o computador seja mais rápido, a interpretação visual pode ser
mais eficiente, proporcionando-nos resultados mais precisos.

Após o processamento final de uma imagem, há necessidade de produzir a carta, editá-la e

imprimi-la. Por isso, o presente fascículo inclui algumas noções de Cartografia, nomeadamente a

produção de cartas e os aspectos a levar em consideração para a sua edição e utilização. E porque

uma carta tende a ficar desactuaçizada com o tempo, aspectos relacionados à actualização

cartográfica são, também, considerados.

O autor

Setembro de 2004

Manual de Teledetecção – Fascículo II 6


3 - Tratamento, Análise e Interpretação de Imagens Satélite

3.1 – Teoria da Cor

3.1.1 Introdução

A manipulação das cores foi influenciada pelas descobertas do comportamento da luz. Aliás, sem
luz não há manifestação da cor. Desde a Grécia Antiga até os tempos contemporâneos, a luz tem
sido fonte de estudo de cientistas, pesquisadores e artistas que, através de estudos
científicos, deram vazão ao que hoje se entende por Teoria da Cor.

Esta teoria pode ser entendida como o conjunto de conhecimentos relacionados com a luz, com
os corpos transmissores e reflectores e com o observador. A associação desses três factores
resulta na organização, percepção e reprodução das cores. Daí a importância da luz, tanto para a
existência das cores, quanto para a manipulação das mesmas.

No decorrer da História, cientistas de todas as épocas procuraram entender como se dá a


estrutura da luz e seu comportamento, tendo entre seus objectos de estudos o espectro da
energia electromagnética e o espectro cromático em particular, formado pelas sete cores
visíveis. É para partilhar estes conhecimentos que se incluiu, aqui, a parte referente à cor.

Com um pouco de treino e formação adequada, o ser humano pode tornar-se competente na
interpretação visual da imagem satélite. Contudo, os nossos olhos possuem certas limitações ao
analisar esta, quer seja a preto e branco, quer seja em composição colorida.

Os sensores dos satélites fornecem-nos dados bastante variados, em diversos canais. O sensor
TM do Landsat, por exemplo, põe-nos à disposição diversos dados em 7 canais distintos, enquanto
o HRV (XS) do SPOT no-los dá em somente três. Para a realização de qualquer composição
colorida somente necessitamos de três canais. Se o satélite possui mais do que três, os canais
poderão ser combinados consoante os fins do estudo, porém, somente três de cada vez.

As técnicas de processamento ou tratamento numérico de uma imagem estão intimamente


relacionadas com os programas (software) que utilizamos para a sua manipulação, que envolvem
procedimentos matemáticos complexos. Abordaremos, nos passos seguintes, os princípios básicos
desse tipo de processamento sem, contudo, entrar em grandes detalhes matemáticos.

Somente com a interpretação visual, não nos seria possível atingir certos objectivos. Isto não é
para sugerir que a interpretação visual não é útil. Vamos ter a ocasião de demonstrar quão o é, ao

Manual de Teledetecção – Fascículo II 7


identificar os elementos da imagem a partir da sua tonalidade, cor, tamanho, contorno, textura,
etc.

O espectro electromagnético é uma faixa contínua de comprimentos de onda que são emitidas,
reflectidas ou transmitidas por diferentes objectos. Uma das características do olho humano é a
de poder discriminar mais tonalidades de cor que níveis de cinzento, nesse espectro. Por esta
razão, vamos iniciar esta parte do nosso programa com o estudo da cor: sua definição,
caracterização e representação.

Fig. 1 - A parte visível do espectro electromagnético

3.1.2 Princípios físicos da cor

3.1.2.1 Definição

Em termos absolutamente físicos a cor não existe. A noção de cor é inteiramente mental e
psicológica, uma sensação associada à visão e resultado do efeito produzido pela radiação visível
aos nossos olhos. A cor tanto pode ser criada através da interacção entre a luz (do sol, por
exemplo) e os objectos, como pode provir directamente de uma fonte de radiação.

No primeiro caso, a cor é estritamente ligada aos objectos e pode dividir-se em duas categorias:

• cor dos corpos opacos (maior parte dos objectos comuns),


• cor dos corpos transparentes (filtros, filmes, slides, etc.).

No segundo, o termo mais empregue é cor de radiação (feixe de raios laser, TV, etc.).

a) Cor dos corpos opacos b) Cor dos corpos transparentes

Fig. 2 – A cor estritamente ligada aos objectos

Manual de Teledetecção – Fascículo II 8


Para a interpretação de imagens interessa-nos, somente, a cor estritamente ligada aos objectos.
O olho humano funciona como um receptor que a analisa, deixando o cérebro encarregar-se da
interpretação dos fragmentos do sinal reflectido (no caso de corpo opaco) ou transmitido (no
caso de corpos transparentes).

3.1.2.2 Natureza espectral da cor

Foi Newton o primeiro a demonstrar, em 1669, que a luz branca se podia decompor nas chamadas
luzes monocromáticas simples e coloridas (violeta, azul, verde, amarelo, laranja, vermelho, etc.).
Para tal, utilizou um simples prisma através do qual fez atravessar a luz que, por sua vez, ao
atingir um novo prisma, retorna à luz branca original. Na realidade, cada uma da ‘luzes’
decompostas a partir da luz branca não é mais que uma onda electromagnética de comprimento de
onda característico, entre os 400nm a 700 nm.

Fig. 3 – Decomposição da luz branca

Fonte: www.p.wtlive.com

Nota: Fenómeno idêntico é produzido na Natureza, quando ocorrem certas condições especiais,
como chuva e sol ao mesmo tempo. Assim, pode-se observar o fenómeno do arco-íris. No período
que sucede ou antecede uma chuva, existe no ar uma grande quantidade de gotículas de água. Em
cada gotícula, a luz solar branca sofre decomposição, tal como num prisma, originando luzes
coloridas. A seguir, essas luzes se reflectem dentro da gotícula e saem apresentando as cores do
espectro: violeta, anil, azul, verde, amarelo, laranja e vermelho.

Assim, da experiência de olhar para o céu em um dia chuvoso, pode-se descobrir que a luz solar
branca é composta de muitas cores. Normalmente, vemos o arco-íris na forma semicircular, mas
esta não é sua única forma. Em cada gotícula de água, a luz do Sol sofre decomposição que se
reflecte e sai formando, de acordo com a direcção da luz solar original, ângulos variáveis de uma
cor para outra. Por uma questão de simetria, apenas as gotículas situadas num arco de
circunferência reflectem a luz exactamente para a posição em que se encontra o observador.
Assim, a bordo de um avião ou no alto de uma montanha é possível ver o arco-íris completo, em
toda sua circunferência. Da superfície da Terra, só podemos ver parte dele, ou seja, um arco,
porque a própria Terra intercepta grande parte dos raios solares.
Observa-se, também, que o Sol e o arco-íris estão sempre em direcções opostas: pela manhã, o
arco-íris se forma do lado do poente e, à tarde, do nascente.

Manual de Teledetecção – Fascículo II 9


A radiação e consequentemente a cor da maior parte dos objectos é algo mais complexo que a
difracção da luz solar num espectro contínuo. As cores comuns são menos puras que as
monocromáticas e estas são muito raras na vida quotidiana (o feixe de raios laser é um dos raros
exemplos de monocromacidade). Uma cor comum integra uma infinidade de ondas monocromáticas
e corresponde a uma radiação que cobre um intervalo contínuo de comprimentos de onda.

O branco e o preto são cores acromáticas (não coloridas) pois não estão presentes no espectro da
luz visível. A partir das duas pode-se obter uma infinidade de tons de cinzento dos quais o olho
humano é capaz de descriminar somente 300. Todas as outras cores são cromáticas (coloridas),
podendo ser monocromáticas (espectralmente puras, com um único comprimento de onda) ou
complexas (impuras, com mistura de cores cromáticas em mais de um comprimento de onda).

A sensação de cor é, de facto, o resultado da ausência de parte da radiação que compõe a luz branca.

Portanto, a cor pode ser caracterizada através da medição da reflectância de um corpo opaco ou
da medição da transmitância de um corpo transparente, de comprimento de onda em comprimento
de onda, no espectro visível.

3.1.3 Representação das cores e sua combinação

3.1.3.1 As três cores primárias

Após termos visto o aspecto puramente físico da cor, abordemos, agora, o seu aspecto fisiológico,
de modo a compreendermos melhor como é que ela é concebida e distinguida pelo olho humano.

Estudos de investigação em laboratórios revelam-nos a existência de dois tipo de receptores no


olho humano. Estes receptores são pigmentos foto-sensíveis que se encontram na retina e podem
ser subdivididos em duas categorias: cones e bastonetes.

Fig. 4 – A estrutura do olho humano


Fonte: http://visit.geocities.com

Manual de Teledetecção – Fascículo II 10


Medindo os comprimentos de onda da máxima absorção destes receptores, chega-se à conclusão
de que na retina estão presentes três variedades de cones sensíveis ao azul, verde e vermelho,
com o pico máximo em cerca de 440 nm, 540 nm e 580 nm, respectivamente. Porém, existe
somente uma variedade de bastonetes, com um número de longe superior ao dos cones (cerca de
110 a 125 milhões de bastonetes contra 6,3 a 6,8 milhões de cones). Estes, estão concentrados na
parte central da retina (fóvea) enquanto que os bastonetes ocupam mais a parte periférica.

Enquanto a máquina fotográfica se limita a registrar as imagens, o olho desempenha uma função
bem mais complexa. A informação por ele detectada é enviada ao cérebro, por meio de um código
de sinais nervosos dos cones e bastonetes, que geram as respectivas sensações de cor. Dos
impulsos nervosos, o cérebro extrai os elementos necessários para construir uma imagem
compreensível do objecto para o qual olhamos.

Fig. 5 - Absorção média de três pigmentos dos cones, medida com um espectrofotómetro.

Fonte: www.handprimt.com

Os bastonetes provaram ser 500 vezes mais sensíveis que os cones, providenciando-nos uma visão
em níveis baixos de iluminação nocturna (visão escotópica), enquanto que os cones só reagem
quando a iluminação é suficiente (visão fotópica), proporcionando-nos a acuidade visual e a
discriminação das cores. Apesar do grande número dos bastonetes, somente os cones nos
providenciam a visão a cores. Se, porventura, o ser humano tivesse somente bastonetes na retina,
só veria tonalidades de cinzento, como acontece com alguns animais, por exemplo os cachorros.

Nota: O olho é recoberto por um espessa membrana opaca, que apresenta na frente uma região
transparente chamada córnea. Atrás da córnea fica a íris, um diafragma em cujo centro há uma
abertura ( a pupila ) por onde a luz entra.

A pupila é comandada por um músculo que regula o seu diâmetro, permitindo-o variar de 2 a 9 mm,
conforme a intensidade da luz incidente. O espaço entre a córnea e a íris é preenchido por um
liquido transparente chamado humor aquoso.

Manual de Teledetecção – Fascículo II 11


Em contacto com a parte posterior da íris fica o cristalino, um corpo transparente com a forma
de lente, circundado pelo músculo ciliar. Todo o espaço situado atrás do cristalino é cheio de uma
substância gelatinosa transparente, o humor vítreo.

Quando olhamos para um objecto luminoso ou iluminado, alguns dos infinitos raios de luz dele
provenientes entram no olho através da pupila. Depois de serem refractados nos diversos meios
transparentes, esses raios formam sobre a retina uma imagem real do objecto.

O cristalino é uma lente cuja distância focal pode ser alterada por acção do músculo ciliar. Ao se
contrair, o músculo altera a curvatura da superfície do cristalino. Esse mecanismo é chamado
acomodação, e permite a formação de imagens nítidas sobre a retina, mesmo que a distância do
objecto ao olho se modifique.

Quando o olho está em repouso, o músculo ciliar fica relaxado e o cristalino adopta a curvatura
mínima. Nesse caso, dizemos que o olho está acomodado para o infinito. Quando o músculo ciliar
se contrai, a curvatura do cristalino fica mais pronunciada, permitindo formar sobre a retina
imagens nítidas de objectos situados a cerca de 15 cm do olho (acomodação para o ponto
próximo). No entanto, para conseguir ver nitidamente à tal distância é necessário um certo
esforço. Sem muito esforço, o olho pode ficar acomodado a uma distância de 25 cm do objecto
(distância de visão distinta).

Nem todas as pessoas vêem as cores da mesma maneira. Algumas possuem defeitos hereditários
de visão. Aproximadamente 10% dos homens e menos de 1% das mulheres apresentam algum grau
de deficiência na percepção das cores, por razões de ordem cromossómica. A deficiência mais
comum é a inabilidade de distinguir radiações de comprimento de onda superior a 540 nm.
Dicromatismo ou Daltonismo é o nome que se dá a essa deficiência de característica hereditária,
porque foi Dalton quem primeiramente estudou este fenómeno, no século XVIII, na Inglaterra. O
dicromatismo é provocado pela ausência do pigmento verde ou vermelho na retina.
O tipo mais comum de daltonismo é aquele em que a pessoa não distingue o vermelho do verde.
Pode ocorrer, para o daltónico, a dificuldade em distinguir essas cores, pois elas podem-se
apresentar cinzentas em várias tonalidades. Outros daltónicos podem confundir o azul e o
amarelo. Mas há um tipo raro de daltonismo que leva as pessoas a observar o mundo em
tonalidades de cinzento.
Existem, também, outras deficiências visuais que afectam a cor, tal como o tricromatismo, por
exemplo. As pessoas que sofrem desta deficiência possuem os três pigmentos responsáveis pela
cor mas a sua curva de sensibilidade é diferente da chamada normal. O tricromatismo é mais
frequente que o dicromatismo, segundo as estatísticas médicas.

É muito comum o caso em que a pessoa já nasce com o problema e só descobre a doença quando já
é adulta. Assim, amigos e pais só se apercebem do problema quando vêem o indivíduo a usar meias
de cores diferentes em cada pé, achando que são da mesma cor.
Outras condições que podem levar a distúrbios na percepção das cores são alterações
degenerativas da retina na infância, doenças maculares relacionadas à idade e doenças do nervo
óptico, entre outras. Nos casos adquiridos por doenças, geralmente o indivíduo começa a queixar-
se do declínio de visão e a deficiência de cores pode ser detectada no exame oftalmológico. Cores
muito contrastantes, como verde e vermelho, geralmente são percebidas. O que realmente
confunde essas pessoas são as tonalidades de cores "próximas", como verde escuro e verde
alface, por exemplo.

Manual de Teledetecção – Fascículo II 12


A explicação completa deste complexo mecanismo não está no âmbito do nosso estudo. Estas
considerações fisiológicas pretendem realçar, somente, que todas as cores possíveis podem ser
reproduzidas a partir da mistura das três cores primárias: Vermelho, Verde e Azul, em
proporções determinadas e também designadas de cores puras. Teoricamente, a variação dessa
mistura será tanto maior quão mais acentuada for a diferença entre as três cores. Além disso,
nenhuma das três cores primárias deverá ser obtida através da mistura das outras duas
(princípio da independência).

Fig. 6 – A roda das cores no sistema RGB

3.1.3.2 As três cores secundárias

As cores secundárias são definidas como sendo o resultado da mistura de duas cores primárias,
em quantidades iguais:

• Vermelho + Verde = Amarelo


• Verde + Azul = Cião
• Azul + Vermelho = Magenta

Das duas primeiras misturas resultam cores presentes no espectro puro (monocromático). O
resultado da terceira mistura não resulta em uma cor monocromática.

Magenta Cião Amarelo

Fig. 7 – Cores secundárias.

Manual de Teledetecção – Fascículo II 13


3.1.3.3 O círculo cromático

O circulo cromático é uma representação simplificada das cores, que nos ajuda a estabelecer e
facilitar a sua diferenciação e organização. Pode ser desenhado facilmente e empregue para nos
mostrar a relação existente entre as cores (sua mistura, sua complementaridade, etc.). Para o
desenhar, procedemos do seguinte modo: as três cores primárias Vermelho, Verde e Azul são
colocadas no círculo, a distâncias iguais (por exemplo, nos vértices de um triângulo equilátero
imaginário, inserido no círculo). As três cores secundárias (Cião, Magenta e Amarelo são
posicionadas nos pontos diametralmente opostos aos vértices do triângulo. Assim, obtém-se um
círculo de representação com uma intensidade constante. No meio do circulo estará o resultado
da adição das cores primárias e secundárias.

Vermelho

Magenta Amarelo

Cinz.

Azul Verde

Cião

Fig. 8 - Círculo cromático: a representação simplificada de cores.

3.1.3.4 Cores complementares

Chamam-se complementares dois feixes de luz colorida cuja mistura resulte em um feixe de luz
branca. No círculo da representação simplificada de cores são complementares quaisquer cores
diametralmente opostas. Contudo, esta noção não se limita às cores representadas no círculo
cromático. O laranja, por exemplo, é complementar do cião-azulado.

Da mistura de duas cores complementares resulta uma cor acromática, normalmente o Cinzento
neutro ou, se as duas cores forem muito intensas, o Branco (centro do círculo).

3.1.3.5 Cores metaméricas

A natureza das três cores na percepção da cor representada na fig. 10 pode levar-nos a uma
percepção visual idêntica de cores de um espectro diferente: Diferentes espectros podem-nos

• em resultado de estímulos simultâneos nos três tipos de cones,

• pelo efeito de adaptação ou vizinhança.

Manual de Teledetecção – Fascículo II 14


Cores assim são designadas metaméricas. A aparência idêntica de cores diferentes depende da
fonte de iluminação e varia, de algum modo, de pessoa para pessoa. Na realidade, cada pessoa
possui uma percepção de cor um pouco diferente das outras e aquilo que ela considera como
sendo duas cores metaméricas pode não sê-lo para outra pessoa.

Fig. 9 – Cores metaméricas.


Fonte: www.uic.edu

3.1.4 A Reprodução das cores

Os princípios utilizados para a reprodução das cores são: Síntese aditiva e análise subtractiva.

3.1.4.1 A síntese aditiva

A cor branca pode ser sintetizada projectando, num compartimento escuro e sobre uma tela
branca, um feixe de raios coloridos de luz Vermelha, Verde e Azul. Com a modulação da
intensidade dos três raios, podemos obter qualquer tipo de cor.

Fig. 10 - Síntese aditiva.

Manual de Teledetecção – Fascículo II 15


Isto pode ser realizado experimentalmente, utilizando três projectores de slides idênticos, isto
é, com o mesmo tipo de lâmpada, mesma potência e mesma intensidade. Bastará colocar em cada
saída de luz dos projectores um filtro previamente seleccionado, sendo Vermelho no primeiro,
Verde no segundo e Azul no terceiro. Para a modulação da intensidade deve-se utilizar um
regulador em cada projector.

Nota: Na prática, um filtro nunca deixa passar somente um tipo de radiação, mas sim um
determinado intervalo dos seus valores. Um filtro é caracterizado pela sua faixa de passagem ou
pela sua curva de transmitância espectral. Os filtros desta última característica são de alta
qualidade e, consequentemente, bastante caros.

A síntese aditiva é utilizada, por exemplo, em algumas impressoras de imagens numéricas,


particularmente nas que empregam raios laser. A imagem é, assim, reproduzida com fidelidade
pixel por pixel, num filme fotográfico colorido. Os monitores gráficos e os televisores coloridos
também empregam este princípio ao ‘carregarem’ imagens.

3.1.4.2 A análise subtractiva

Frequentemente, esta técnica é referida como ‘síntese subtractiva ´. Este termo é inexacto pois,
de facto, não se realiza nenhuma “síntese” real neste processo. O princípio da análise subtractiva
é o seguinte: um feixe de luz branca passa sucessivamente por vários filtros - Cião, Magenta e
Amarelo - que bloqueiam as suas respectivas cores complementares. No fim do processo, as três
cores primárias Vermelho, Verde e Azul são absorvidas pelos filtros e, no fim da linha aparece,
somente, o Preto. Tal como na síntese aditiva a absorção selectiva dos filtros pode ser modulada
de modo a reter somente as três cores primárias e, daí, obter qualquer tipo de cor pretendida.

A maneira mais fácil de ilustrar este princípio seria sobrepor os três filtros (Cião, Magenta e
Amarelo num único projector ou outra fonte de luz branca.

Vermelho

Verde Preto

Azul

Filtro Filtro Filtro


Cião Magenta Amarelo

Fig. 11 - O princípio da análise subtractiva.

Manual de Teledetecção – Fascículo II 16


A análise subtractiva é mais empregue na impressão offset, a três cores. Neste caso, o papel
branco serve de fonte de luz branca, enquanto as tintas Cião, Magenta e Amarela subtraem as
radiações supérfluas de modo a produzir a cor pretendida. Para trabalhos de alta qualidade, é
adicionada também a tinta Preta, tornando-se um processo de impressão a quatro cores.

Imagem original, RGB

Componente R Componente G Componente B

Fig. 12 – Reprodução de cores em análise subtractiva.

Fonte: www.dca.fee.unicamp.br

Apesar de se poder obter o Preto pela mistura das três cores secundárias Cião, Magenta e
Amarelo, ele é adicionado porque os materiais empregues na impressão (papel ou filme) não são
puros nem perfeitos e variam consoante o fabricante. Em vez de puro Preto, poderíamos obter
um castanho muito escuro na mistura. Outra razão para a inclusão da tinta preta é a seguinte: o
texto que é geralmente desta cor pode ser impresso de uma só vez, em vez de resultar da
sobreposição das cores secundárias com todos os riscos nele inerentes (distorção do papel e
imprecisão na sobreposição das letras).

Quando usamos o padrão RGB, devemos filtrar cada banda do modelo, isto é, R, G e B. O princípio
básico empregue em offset para a mistura de cores é o seguinte:

Cião +magenta = azul;


Magenta + amarelo = vermelho;
Amarelo + cião = verde;
Cião + magenta + amarelo = preto.

Manual de Teledetecção – Fascículo II 17


Fig. 13 – Impressão Offset a quarto cores: amarelo, magenta, cião, preto.
Fonte: www.hypertextbook.com

A análise subtractiva emprega-se também no processamento fotográfico a cores e em quase todo


o tipo de impressoras ligadas aos sistemas de processamento da imagem satélite, sejam elas a
tinta, térmicas ou electrostáticas.

Fig. 14 - Análise subtractiva experimentada com um projector.

Em resumo, a síntese aditiva e a análise subtractiva de cores são dois princípios complementares,
ambos com a mesma finalidade: reprodução de qualquer tipo de cor. O primeiro parte do Preto e
recria qualquer cor a partir da adição do Vermelho, Verde e Azul. O segundo começa com uma
fonte de luz branca e vai filtrando, sucessivamente, a parte supérflua das suas componentes
primárias através de filtros complementares Cião, Magenta e Amarelo, respectivamente.

Vermelho + Verde + Azul = Branco


Branco - Vermelho - Verde - Azul = Preto

Manual de Teledetecção – Fascículo II 18


3.1.5 Quantificação das cores

Para exprimir uma cor, as palavras são, quase sempre, subjectivas: dependendo da pessoa, a
mesma palavra pode ser empregue para designar duas cores distintas e, por outro lado, a mesma
cor pode ser definida por palavras completamente diferentes. Para evitar esta ambiguidade, a
cor pode ser definida mais racionalmente por números. A isto se chama quantificação.

Existem dois sistemas de referência para a quantificação:

• sistema RGB (Red, Green, Blue) e


• sistema CMY (Cyan, Magenta, Yellow).

É facial passar de um sistema para o outro e isto torna-se necessário quando, por exemplo,
pretendemos imprimir uma cor para a qual dispomos, somente, das componentes Vermelha, Verde
e Azul, enquanto a impressora só funciona com o Cião, Magenta e Amarelo. Qualquer cor (C) pode
ser definida através de coordenadas (r, g, b), conhecidas como coordenadas das três cores do
sistema ‘RGB’. r, g, b representa as quantidades de cada uma das cores primárias requeridas para
produzir “C’, isto é, os valores lidos na escala dos reguladores montados em cada um dos feixes
Vermelho, Verde e Azul:

C = rR +gG + bB

Se este tipo de síntese for representado no espaço livre, com eixos perpendiculares, todas as
cores serão localizadas num cubo (fig. 77). Os televisores coloridos usam este sistema
referencial.

Fig. 15 - Representação cúbica das cores, modelo RGB.

Manual de Teledetecção – Fascículo II 19


Na codificação binária em 8 bits (28) as quantidades r, g, b podem tomar valores inteiros entre 0
e 255. O número de cores resultante seria limitado a 2563, isto é, cerca de 16 milhões de cores.
Embora exista, teoricamente, uma infinidade de cores, o olho humano só consegue diferenciar
entre 7 a 10 milhões de cores.

Neste sistema o Preto toma o valor (0, 0, 0) e o Branco (255, 255, 255).

Como o Cião, Magenta e Amarelo são complementares do Vermelho, Verde e Azul, respectiva-
mente, as três coordenadas (c, m, y) de uma cor do sistema referencial CMY com três
coordenadas (r, g, b) no sistema RGB tomarão os seguintes valores:

C = (r, g, b) = (255-r, 255-g, 255-b)

Para analisar ou medir as coordenadas dos dois sistemas de referência, existem instrumentos
próprios:

• O microdensímetro mede a densidade óptica de um filme ou de um documento em cada


uma das cores primárias ou secundárias. Este instrumento é geralmente empregue para
verificar o balanceamento das cores consoante os padrões localizados nas margens desses
documentos (papel ou filme fotográfico), durante a impressão ou revelação fotográfica.

• O espectrofotómetro serve para analisar o espectro de um sinal luminoso, um filtro


colorido ou um documento.

Exercício (TPC)

1. Dada a cor C (r, g, b) = (50, 227, 156)


a) Defina em palavras a cor representada;
b) Calcule os valores das coordenadas (c, m, y).

2. Qual será a cor resultante da sobreposição de dois filtros Vermelho e Verde numa fonte de
luz branca (um projector, por ex.)?

Manual de Teledetecção – Fascículo II 20


3.1.6 Sistema de representação ITS

Para além da cor poder ser definida como uma mistura de três cores primárias ou secundárias em
proporções determinadas, também pode ser caracterizada por três parâmetros: Intensidade,
Tonalidade e Saturação.

Intensidade - É o grau de brilho ou palidez de uma cor. A intensidade corresponde à quantidade


de energia reflectida por um objecto colorido. Em linguagem comum, a intensidade é expressa por
diversos termos: brilho, palidez, luminosidade, etc. Os monitores e televisores possuem,
geralmente, um potenciómetro próprio para regular o brilho da imagem. Totalmente no mínimo, a
imagem quase que desaparece deixando escuro o écran. Ajustado para o máximo, o écran torna-se
brilhantemente esbranquiçado, provocando o desaparecimento quase total da imagem.

Tonalidade - Indica a qualidade de sensação da cor dominante, devida à presença de radiação


numa determinada faixa espectral.

Saturação - Indica o grau de pureza de uma cor. As cores dos objectos são, normalmente,
diluídas pelo branco, numa proporção maior ou menor. Na pintura, por exemplo, adiciona-se o
branco quando se quer reduzir a saturação de uma determinada cor. Nos monitores e televisores
coloridos, a saturação pode ser aumentada ou diminuída com o botão da cor.
Os três parâmetros Intensidade, Tonalidade e Saturação são um trio de propriedades que podem
definir completamente uma cor. A vantagem do sistema ITS, em relação ao RGB, reside no facto
das coordenadas de cada eixo poderem ser correladas à sensação da nossa visão:

Intensidade: Luminosidade, energia


Tonalidade: Natureza da cor
Saturação: Dinâmica da cor

Os algorítmos de conversão deste sistema para o RGB e vice-versa são algo complicados e não
vamos referi-los aqui. Existem, também, outros sistemas referenciais além dos aqui mencionados.

3.2 – Os Monitores de Imagens

3.2.1 Introdução

O monitor de computador emprega o modelo de cores RGB (sistema de cor luz). O écran do
computador projecta a luz, enquanto que os meios nele impressos reflectem a luz. A cor que
vemos no monitor pode sofrer alterações devido a condições adversas do ambiente externo
(luminosidade da sala, temperatura, etc.). Nestas condições é difícil obter-se cores consistentes.

Manual de Teledetecção – Fascículo II 21


No domínio do tratamento informático da imagem satélite interessa-nos, essencialmente, o tipo
de tratamento numérico. Para um computador, a imagem não é mais que uma sequência de números
no sistema binário (bits). Contudo, devemos ter sempre presente que uma imagem é, sobretudo, a
representação de uma parcela da superfície terrestre. O seu tratamento oferece-nos a
possibilidade de passar a informação numérica em visual, através do emprego de funções de
afixação num monitor gráfico apropriado ou num monitor vídeo (consola) de imagens.

Fig. 16 – Princípio de afixação de uma imagem no monitor gráfico.

Quando a imagem aparece na tela ou écran, para a podermos visualizar convenientemente e com
todos os detalhes, temos que melhorar a sua dinâmica. Com esta já melhorada podemos, então,
localizar as partes que nos interessam e interpretar a informação nela contida.

Para que todo este processo seja realizado conscientemente e da forma mais útil possível,
convém teremos noções sobre o funcionamento dos computadores e respectivos monitores.

3.2.2 O Princípio de Funcionamento e a Estrutura dos Micro-computadores

Representação dos números

A representação de um número é, geralmente, feita por símbolos de um determinado sistema. O


facto de o homem ter dez dedos é, quase que certamente, o responsável pelo amplo uso do
sistema decimal com base dez. Os símbolos usados na nossa sociedade para representar os
primeiros dez números inteiros não negativos são:

0, 1, 2, 3, 4, 5, 6, 7, 8, 9.

Os símbolos são, aqui, representados em ordem natural e deve ser entendido que o 0 precede o 1,
em vez de suceder ao 9, como no disco dos telefones. O desenvolvimento decimal é do tipo:

361 = 3.102+6.101+1.100

Manual de Teledetecção – Fascículo II 22


As calculadoras de mesa, em geral, empregam o sistema decimal. A memória de uma calculadora
de mesa, usualmente, comporta muito poucos números e os resultados intermediários devem ser
copiados para posterior reintrodução. Os computadores, diferentemente das calculadoras,
empregam o sistema binário, com base dois. Os dois símbolos usados são 0 e 1.

A relativa escassez de números no sistema binário, contrariamente ao decimal, tem a vantagem


de que as regras da aritmética são mais simples e os circuitos exigidos para a sua fabricação são
menos complexos. Contudo, o sistema binário padece da correspondente desvantagem de utilizar
mais símbolos para representar um número. Por ex.:

(361)10 = (101101001)2

Esta desvantagem é aliviada pelo uso do sistema octal, cuja base, oito, é uma potência de dois. A
representação binária e octal estão tão intimamente relacionadas que uma pode ser transformada
na outra. As calculadoras octais de mesa foram construídas para facilitar a verificação de
resultados intermediários em computadores binários automáticos.

Outra potência de dois, que muitas vezes é empregue como base, é o número dezasseis. O sistema
hexadecimal resultante combina a fácil translação para o sistema binário, com a habilidade de
representar qualquer dígito decimal por um único dígito hexadecimal. Remanescentes do sistema
sexagesimal chegaram até nós no uso de sessenta divisões ao computar latitudes e a subdivisão
da hora, intimamente relacionadas com aquela.

O homem tem usado, também, outros sistemas e é possível destacar os méritos e desvantagens
de quase todos eles.

Terminemos este assunto da representação dos números com um quadro ilustrativo de conversão
de um número decimal em binário:

Inteiro Resto Regra : Para converter um número decimal


361 em binário, dividimo-lo sucessivamente por 2
e anotamos os restos. Colocados em ordem
180 1
inverso estes formam o numero binário
90 0
correspondente.
45 0
22 1
Exemplo: 36110 = 1011010012
11 0
desenvolvimento binário :
5 1
8 7 6 5 4 3 2 1 0
2 1 N = 2 +0x2 +2 +2 +0x2 +2 +0x2 +0x2 +2
1 0
0 1 desenvolvimento decimal :
N = 3x102 + 6x101 + 1x100

Manual de Teledetecção – Fascículo II 23


Representação em computadores

a) Bit : dígito binário (do inglês Binary Unit).


A informação elementar tratada em computadores é representada por dígitos binários de
valor 0 ou 1. As grandezas informáticas estão codificadas em base dois. O funcionamento dos
computadores é baseado no princípio da álgebra booleana (AND, OR, NOT, XOR).

b) Byte: conjunto de oito dígitos binários.


Um conjunto de oito dígitos binários chama-se byte (byte=8 bits). Um conjunto maior de bits,
com comprimento fixo de alguns bytes, designa-se por palavra, podendo ser composta por 2, 4,
6, 8 ou mais bytes. Alguns micro-computadores portáteis, por exemplo, funcionam com
palavras de 4 bytes, ou seja, 32 bits. O programador pode usar uma palavra como a
representação binária de um inteiro, fracção ou número misto, ou pode considerar os dígitos
binários como agrupados em caracteres.

Grupos de 4 bits são, muitas vezes, usados como caracteres numéricos. Quando os caracteres
incluem letras do alfabeto, (cinco dígitos binários são suficientes para codificar as letras do
alfabeto), conjuntamente com dígitos decimais e outros caracteres especiais (tais como sinais de
pontuação), então chamam-se caracteres alfanuméricos.

O Código Padrão Americano para Intercâmbio de Informações (ASCII) usa sete bytes e inclui o
alfabeto. Este código internacional é reconhecido por todos os construtores de aparelhos
digitais, portanto, é independente da máquina. Permite codificar 128 caracteres diferentes.
Existem, entretanto, outros códigos como, por ex., o código ANSI que usa oito bytes.

A Estrutura do micro-computador

O computador é composto por duas partes distintas: a primeira, responsável pelas operações,
engloba os componentes mecânicos e electrónicos e é conhecido por hardware (HW). A outra,
composta pelos programas e a maneira de os correr, designa-se por software (SW).

Fig. 17 – O micro-computador (PC).


Para armazenar os programas, os computadores utilizam memória. Para a ligação com o seu
exterior, empregam periféricos. Tanto um como o outro componente fazem parte do HW.

O ‘cérebro’ dos computadores chama-se Unidade Central de Processamento (de dados),


abreviadamente designado por CPU (Central Processing Unit). Por ele passam todas as instruções
provenientes dos periféricos. Nos micro-computadores, o CPU é designado por microprocessador.

A troca de informações entre o CPU e os periféricos faz-se através de cartas ou módulos de


ligação, designados por “interface” ou “driver”.

Os periféricos são de diversos tipos, dependendo da função para que são projectados:

- Equipamento de visualização: monitores alfanuméricos (CGA, EGA, VGA), monitores


gráficos, monitores de vídeo, etc.;
- Equipamento de leitura ou gravação: leitores de disquetes, de CDs, de banda magnética
(CCT), de discos ópticos numéricos (DON), de fitas magnéticas e outros;

- Equipamento auxiliar: teclado, mesa digitalizadora, “rato” (mouse), entre outros;


- Equipamento de impressão: impressoras matriciais, impressoras laser, impressoras
térmicas, impressoras electrostáticas, impressoras de diapositivos (slides), plotters, etc..

A memória é caracterizada por capacidade e velocidade de resposta. A capacidade é expressa


em bytes ou nas suas unidades múltiplas (1 Kb = 1024 bytes, 1 Mb = 1 024 Kb, 1 Gb = 1024 Mb). A
velocidade de resposta é o tempo que a memória leva a satisfazer-nos um pedido ou a dar-nos
uma informação nela armazenada. Existem dois tipos de memória nos micro-computadores:
memória permanente (ou morta) e memória temporária (volátil ou viva).

A memória permanente serve para guardar a informação por longos períodos de tempo. Mesmo
depois de desligar o aparelho, a informação continua armazenada nela. Como exemplos de memória
permanente, podemos citar:

- Disquete (de 3’ l/2 ou 5’ 1/4, com capacidade de 1 a 2 Mbytes);


- Disco duro (com capacidade que varia de alguns Mbytes a vários Gbytes);
- Disco óptico numérico (com cerca de 200 Mb de capacidade);
- Banda magnética (CCT - Computer Compatible Tape, com cerca de 100MB);
- Cassete e fita magnética (streamer);
- CD ROM (Read Only Memory, donde só se pode ler e não gravar informação);
- CD RW (ReWritable, pode ler e tornar a gravar )
- Flash drive (disco portátil em miniatura, supercompacto,);
- Etc..

Manual de Teledetecção – Fascículo II 25


A memória temporária (RAM - Random Access Memory) é referenciada como sendo o espaço de
trabalho que serve de arquivo temporário e nos permite, também, o acesso à informação
armazenada (na memória permanente). Logo que o aparelho é desligado, a informação desaparece.
Para que esta permaneça é necessário gravá-la num dos dispositivos de memória permanente.

O RAM permite o acesso à informação armazenada em memória permanente duplicando-a, isto é,


fazendo uma cópia de trabalho. Assim, a original permanece intacta. Isto é bastante lógico, pois,
ninguém gosta de perder ou modificar, sem querer, o original do seu trabalho. Porém, existem
outras causas: a primeira é que as mudanças ou correcções que pretendemos efectuar no trabalho
só podem ser feitas com o RAM. A segunda é que antes de colocar a informação na memória viva,
o micro-computador faz a cópia dos programas necessários para se operar com essa informação.
Com isto, o acesso toma-se muito mais rápido que o uso directo da memória permanente.

Em 1980, a memória viva dos micro-computadores era de cerca de 64 Kb. Hoje, a maior parte
dos PC’s possui pelo menos 64 Mb de RAM e o recomendável para correr alguns sistemas
operativos é cerca de 128 Mb. Presentemente, é normal operar com micro-computadores com
RAM na ordem dos Gbytes.

O tratamento da imagem satélite requer grande capacidade de memória, tanto permanente como
viva. Para armazenar uma imagem SPOT XS, com 3.000 linhas e 3.000 colunas em três canais
diferentes, necessitamos de mais de 27 Mbytes (3.000 x 3.000 x 3 000 = 27 Mbytes). Uma
imagem SPOT PAN, com 6.000 linhas e 6.000 colunas, ocupa 36 Mbytes. A imagem LANDSAT
TM, com 6.000 linhas e 7.000 colunas, em sete canais diferentes, ocupa cerca de 300 Mbytes.

Imaginemos, então, a capacidade necessária para armazenar as imagens dos satélites da nova
geração, como o SPOT 5, por exemplo, com 2,5 m de resolução no canal pancromático.

A maior parte dos tratamentos numéricos das imagens satélite geram outros objectos que são,
também, armazenados provocando, às vezes, a lentidão da leitura das funções de afixação.

O arquivo dos dados pode ser feito em vários formatos. Os mais comuns são os seguintes:

BIL (band interleaved by line) – Cada canal é intercalado com a linha de varredura que
forma as colunas (linha 1 - canal 1, linha 1 - canal 2, linha 3 - canal 3, linha 1 – canal n; ...,
linha 2 – canal 1, linha2 – canal 2, linha 3 – canal 3, linha 2 – canal n; ...). Os dados do
SPOT1 são armazenados neste formato, nos seus gravadores a bordo.
BSQ (band sequential) – Um canal inteiro é intercalada por linhas (linha 1 – canal 1, linha 2
– canal 1, linha 3 canal 1, linha x – canal 1; ..., linha 1 – canal 2, linha 2 – canal 2, linha 3 –
canal 2, linha x – canal 2; ...). Os dados do Landsat são, geralmente, gravados neste

Manual de Teledetecção – Fascículo II 26


formato nas estações de recepção.
BIP (band interleaved by pixel) – o valor de cada canal é ordenado de acordo com o pixel
(pixel 1, canal 1, pixel 1 – canal 2, pixel 1 – canal 3, pixel 1 – canal p, pixel 2 – canal 1, pixel
2 – canal 2, pixel 2 – canal 3, ..., pixel 2 – canal k).

3.2.3 O princípio de funcionamento de um monitor

3.2.3.1 A estrutura de um monitor

O componente principal num monitor é o tubo de raios catódicos, tal como nos aparelhos comuns
de televisão. Numa das extremidades o tubo emite um feixe de electrões e na outra uma tela de
fósforo ilumina-se ao ser bombardeada pelos electrões. Já que a luz emitida pelo fósforo
enfraquece rapidamente, o feixe de electrões necessita de bombardear o fósforo continuamente,
pelo menos 30 vezes por segundo. Este é o mínimo de tempo de refrescamento (refreshing time)
necessário para evitar o tremular da imagem.

Fig. 18 – O tubo de raios catódicos

Os monitores antigos utilizavam um tubo de raios catódicos vectorial. Nesse tipo de tubo de raios
catódicos, o feixe de electrões funcionava como um lápis, desenhando linhas na camada de
fósforo. Embora as linhas pudessem ser de muito alta qualidade, não serviam para visualizar uma
imagem satélite que é do tipo ‘raster’. O problema foi solucionado com o aparecimento do tubo de
raios catódicos ‘raster’, também utilizado nos televisores comuns. Este possui uma matriz de
luminescência com pixeis onde é armazenada a informação digital da imagem, para ser convertida
em sinal analógico pelo controlador da tela. Assim, as imagens são produzidas como uma série de
linhas horizontais discretas. O monitor apresenta imagens como uma série de pontos denominados

Manual de Teledetecção – Fascículo II 27


pixeis. A tela assemelha-se a uma folha de papel quadriculado e as imagens são montadas a partir
do preenchimento da grade de pixeis.

O monitor de computador emprega o modelo de cores RGB. A tela do computador projecta luz,
enquanto os meios nela impressos reflectem a luz. A cor que vemos no monitor pode-se alterar de
acordo com as condições do ambiente externo (luminosidade da sala, temperatura, etc.). Nestas
condições é difícil obter cores consistentes.

Máscara

Fig. 19 – Funcionamento do tubo de raios catódicos Vectorial

Fig. 20 – Funcionamento do tubo de raios catódicos ‘raster’

Manual de Teledetecção – Fascículo II 28


Os problemas mais comuns na visualização das imagens são:

• número de cores simultâneas


• resolução da tela

A resolução de um monitor é normalmente indicada pelos fabricantes pelo número total de pixeis
numa linha horizontal e vertical:

•640 x 480 (horizontal x vertical)

•800 x 600

•1024 x 768

•1260 x 1024

Fig. 21 – Resolução de uma tela, com grade de 5x5

Para controlar o monitor, o computador necessita de um circuito que transforme os arquivos


digitais em sinal de vídeo. Este circuito é chamado de placa de vídeo ou placa gráfica. O utilizador
pode configurar a placa gráfica para diversas resoluções vídeo (permitidas pelo monitor). Além
disto, as placas podem produzir diferentes números de bits por pixel. Dependendo do número de
bits atribuído a cada pixel da tela, o número de cores visualizadas é aumentado ou reduzido.

A profundidade da cor em uma imagem bitmap refere-se à capacidade do monitor ou de um


arquivo de fazer a gestão de um determinado número de cores, simultaneamente.

Na fig. 16, por exemplo, para cada pixel da imagem foi atribuído um espaço de memória que
corresponde a 1 bit por pixel. Neste caso, apenas 2 cores podem ser utilizadas simultaneamente:

- Uma imagem com 1 bit por pixel consegue gerir 2 cores


- Uma imagem com 8 bit por pixel consegue gerir 256 cores
- Uma imagem com 16 bit por pixel consegue gerir 65 mil cores
- Uma imagem com 24 bit por pixel consegue gerir 16 milhões cores

As imagens em bitmaps ocupam muito espaço de memória. Foram desenvolvidas algumas técnicas
de compressão de dados de modo a que a memória não fique muito sobrecarregada. A utilização
de algumas dessas técnicas resulta em pequenas perdas de informação original, contrariamente à
utilização das outras. Os formatos de imagens mais comuns são os seguintes:

Manual de Teledetecção – Fascículo II 29


GIF (Graphics Interchange Format) – desenvolvido pela CompuServe, este formato comprimido
foi desenhado especialmente para minimizar o tempo de transferência do ficheiro numa rede. É
mais usado para imagens com tonalidades de cinzento ou com cores indexadas. Para que não haja
perda de dados, este formato emprega técnicas de compressão do tipo LZW (Lempel-Ziv Welch).

TIFF (Tagged-Image File Format) – desenvolvido inicialmente pela empresa americana Aldus
Corporation, conjuntamente com um grupo dedicado ao fabrico de ‘scanners’, é usado para a troca
de dados entre aplicações múltiplas, sem perdas de dados. Este formato utiliza uma técnica de
compressão LZW TIFF, que funciona com outro tipo de cores para além das indexadas. Hoje, o
TIFF tornou-se uma família de formatos largamente utilizada como suporte de várias aplicações.
O GeoIFF, por exemplo, permite que os dados sejam geo-referenciados ou geo-codificados.

JPEG (Joint Photographic Experts Group) – é um formato cujo processo de compressão emprega
uma técnica que identifica e põe de fora os dados que não são essenciais na visualização da
imagem. A perda de qualidade dos dados depende do nível de compressão escolhido. Este formato
não é recomendado para o arquivo de imagens satélite pois modifica o valor dos pixeis. Para
minimizar este problema, foi desenvolvido um sub-formato melhorado, o JFIF (JPEG File
Interchange Format), com o qual se pode arquivar imagens satélite, sem perca de dados.

MrSID (Multiresolution Seamless Image Database) – pronunciado Mister Sid, este formato é
mais usado em imagens satélite. Emprega uma excelente técnica de compressão desenhada pela
companhia americana LizardTech, Inc., que inclui uma eficiente implementação de memória e uma
inclusão automática de pirâmides ou camadas nos dados arquivados. Isto permite a este formato
o arquivo de grandes quantidades de dados digitais num espaço muito reduzido bem como a sua
rápida afixação na tela, sem grande perda de qualidade.

3.2.3.2 A formação de uma imagem digital

A função de uma imagem é a representação de um objecto ou uma cena no plano. Existem três
formas principais de representar uma imagem:

• em linhas (forma binária),


• em diferentes níveis de cinzento (forma pancromática),
• a cores (forma multispectral)

Uma imagem digital é representada por valores digitais descontínuos, contrariamente à


representação analógica em que os valores são contínuos. Vejamos como é que os sensores
registam a radiação reflectida pelos objectos:

Manual de Teledetecção – Fascículo II 30


Fig. 22 – Estrutura de uma imagem multispectral do HRV do SPOT

Os diferentes intervalos do espectro electromagnético registados pelos sensores formam os


diferentes canais de uma imagem multispectral. As bandas espectrais desses canais são
seleccionados de acordo com a resposta específica dos objectos que reflectem a radiação.

Detectores CCD Resposta do objecto Valores de radiância

Fig. 23 – Exemplo hipotético da formação de um canal numa imagem digital

Em cada canal, qualquer pixel é ligado a três valores distintos (fig. 22):

• a sua coordenada ao longo da linha Li


• a sua coordenada na coluna Cj
• o valor da medição física (valor radiométrico) realizada pelo sensor no pixel, em
determinado comprimento de onda CJ(ij).

Os três canais XS1, XS2 e XS3 (fig. 84) correspondentes à radiação verde, vermelha e
infravermelha, respectivamente. As coordenadas do pixel Pij são Li e Cj e cada uma das medições
associadas a XS1ij, XS2ij, XS3ij correspondem aos valores radiométricos de cada canal.

Manual de Teledetecção – Fascículo II 31


3.2.3.3 A codificação dos valores radiométricos através do LUT

O princípio de funcionamento de um monitor de imagens é a associação dos diversos níveis de


cinzento ou graduações de cor com determinado valor numérico.

Os canais de uma imagem bruta são quase ilegíveis se o seu contraste não for ajustado.
Efectivamente, é raro ter uma imagem bruta com valores extremamente fortes de radiometria,
qualquer que seja a banda espectral. No visível, por exemplo, a quase totalidade dos valores
radiométricos situam-se entre 0 e 80, num intervalo total de 0 a 256 níveis de cinzento. O valor
0 (codificado a preto) significa que o sensor não tem resposta nenhuma sobre o objecto. O valor
255 (codificado a branco) significa que a resposta do objecto é total, isto é, toda a radiação
electromagnética reflectida pelo objecto é captada pelo sensor (fig.23).

Se quisermos fazer uma visualização monocanal de dados brutos, teremos de recorrer a algumas
técnicas para melhorar o seu contraste global. Na prática, utilizam-se as tabelas de codificação
LUT (Look Up Table) e os dispositivos de conversão digital/analógico (DAC), para o efeito. Os
valores possíveis no canal constituem os dados de entrada da tabela e os valores visualizados no
écran, os dados de saída. A Fig. 24 mostra-nos um exemplo de codificação em forma digital e sua
respectiva representação gráfica.

Fig. 24 – Codificação e sua representação gráfica

Realizar uma adaptação dinâmica a uma imagem consiste em modificar o endereçamento dos
valores radiométricos para o écran, através do “Look Up Table”. Os valores brutos de radiometria
são transformados em valores definidos nessa tabela. O fósforo do écran de um monitor vídeo

Manual de Teledetecção – Fascículo II 32


brilha mais ou menos, consoante a energia eléctrica que recebe. O DAC, por sua vez, transforma
o valor 255 em máximo de energia e o valor 0 em mínimo de energia. Se não se fizer a adaptação
dinâmica, o LUT mantêm os valores originais (na realidade converte zero em zero,1 em 1, ... 255
em 255). Mais adiante, este assunto, será mais detalhado.

3.2.3.4 Histograma

Para ter uma ideia dos valores radiométricos efectivamente contidos numa imagem podemos
contar, para cada valor, o número de pixeis existentes e obter, assim, uma tabela da população.
Designaremos, então, por população o número de pixeis possuindo esse valor radiométrico.

Podemos representar a tabela em forma gráfica. Quando a população está em forma gráfica,
designa-se por histograma.

Fig. 25 – Um histograma simples

Dispondo da curva característica do histograma de um canal, podemos representar a função da


distribuição da sua população em termos de probabilidade, designada em estatística por integral
normalizada:
H(x0) = Probabilidade (x<x0)

Esta função é designada em processamento de imagens por histograma comulativo do canal.

O histograma de um canal da imagem digital é uma função que expressa o número de pixeis
associados a um valor radiométrico, geralmente, contidos num sistema de coordenadas planas, em
que o eixo horizontal representa o valor radiométrico (de 0 a 255) e o vertical o número de

Manual de Teledetecção – Fascículo II 33


pixeis.

Fig. 26 – Imagem bruta pancromática (extracto ETM+ 167-78, de 8/8/00) e respectivos valores digitais

Existem três formas gráficas da sua representação:

• forma de “ripas”, onde o número de pixeis de igual valor radiométrico é representado por
linhas verticais bastante finas;
• forma de “coluna “, onde o número de pixeis de igual valor radiométrico é representado
por linhas um pouco mais grossas;
• forma de “gráfico”, representando uma função continua que une cada um dos picos das
linhas anteriormente descritas.

Manual de Teledetecção – Fascículo II 34


Fig. 27 – Representação do histograma em forma de ripas do extracto ETM+ 167-78, de 8/8/00

O histograma pode, também, ser apresentado numa tabela, em forma digital, na qual os valores
digitais possíveis na imagem (de 0 a 255) formam os dados de entrada e o número de pixeis
associados a cada um deles constitui o resultado.

3.2.4 Visualização Monocanal

A afixação de uma imagem satélite nem sempre é como nós desejaríamos: por um lado, porque as
imagens são compostas por milhares de linhas e de colunas e, por outro, porque os monitores
vídeo e seus associados módulos gráficos possuem constrangimentos técnicos na sua reprodução.
A principal limitação de um monitor vídeo é a sua “resolução”.

Existem monitores vídeo de alta resolução ( superiores a 1024 pontos por linha) e outros de baixa
resolução (iguais ou inferiores a 512 pontos por linha). Devido às suas limitações, qualquer dos
dois impossibilita-nos a afixação integral de uma cena completa, isto é, com todos os seus pixeis.

Assim, para visualizar a imagem, teremos que optar por uma das seguintes possibilidades:

• Afixação comprimida: trata-se de uma reamostragem onde um número n de pixeis é


representado por um único pixel (n = coeficiente de compressão), de modo a se visualizar
toda a imagem dentro das dimensões padrões da tela. A técnica de reamostragem pode ser
realizada através de vários métodos: vizinho mais próximo, interpolação bilinear, convulução
cúbica, etc. Em qualquer deles, contudo, o programa de afixação calcula um coeficiente de
compressão de modo a que grelha da imagem matricial (raster) coincida com a grelha da
tela do monitor, proporcionando-nos uma visão sinóptica de toda a imagem. O inconveniente,
aqui, é o limitado número de detalhes visíveis, quando a imagem é relativamente grande.

• Afixação em plena resolução: não há compressão, todos os pixeis são apresentados e caso a

Manual de Teledetecção – Fascículo II 35


imagem não caiba nas dimensões da tela, a visualização da parte oculta pode ser feita
deslocando a imagem através de barras laterais ou de uma função apropriada, geralmente
disponível nas ferramentas do programa de afixação ou visualização de imagens. A imagem é,
assim, apresentada com todos os seus detalhes, mas, por partes.

A Visualização Monocanal dá-nos o acesso à informação contida num só canal da imagem. Em


qualquer sistema de processamento ou de visualização de imagens, cada canal é um objecto da
imagem e designa-se, geralmente, por plano-imagem ou simplesmente “plano”. No caso das
imagens Spot, Landsat e várias outras, cada ponto do plano-imagem é codificado em 8 bits, isto é,
o seu valor numérico está compreendido entre 0 e 255 (8 bits = 28 = 256). Este valor indica-nos a
intensidade do ponto nesse plano. Quanto mais o valor estiver próximo de 255, mais elevada é a
intensidade do ponto.

XS1 XS2 XS3


Fig. 28 –Visualização Monocanal (extracto SPOT 142-402, de 30/03/86, Cidade de Maputo)

3.2.5 Visualização em Composição Colorida

Para termos acesso à informação simultânea de três canais, é necessário utilizar o método de
visualização em composição colorida. Já sabemos que cada canal da imagem representa a
reflectância espectral da cena observada numa parte do espectro electromagnético, seja no
visível ou no infravermelho próximo, médio, térmico, ou ainda, nas ondas centimétricas.
Carregando três planos-imagem diferentes nas três cores básicas Vermelho, Verde e Azul,
estaremos a efectuar uma composição colorida. A visualização em composição colorida consiste,
portanto, em seleccionar os três canais e endereçá-los, cada um, a uma cor primária.

As imagens multiespectrais do satélite SPOT 1, por exemplo, contêm dois canais (XS1, XS2) no
visível e um canal (XS3) no infravermelho próximo. Para integrar o canal infravermelho (para nós
invisível) na composição colorida, temos que adoptar certas convenções: a tela de um monitor de
imagens (como nos televisores) é composto por pontos, cada pixel da imagem é endereçado a um
determinado ponto, cada ponto do écran é composto por três fósforos contendo as três cores
primárias (Vermelho, Verde, Azul).

Manual de Teledetecção – Fascículo II 36


A conversão que se adopta, em geral, para uma imagem SPOT1 multispectral, consiste em
endereçar o primeiro canal visível (Verde) à cor Azul, o segundo canal visível (Vermelho) à cor
Verde e o canal infravermelho à cor Vermelha. Cada ponto da imagem é caracterizado por um
valor diferente em cada plano, o que determina a sua cor. Teremos, para um determinado ponto,
uma tripla de valores numéricos idênticos, associada ao plano Vermelho, Verde e Azul, que
determinam as seguintes cores:

(R,G,B) Resultado Observações


( 0, 0, 0) Preto
(255, 0, 0) Vermelho
( 0, 255, 0) Verde
( 0, 0, 255) Azul
( 0, 255, 255) Cião Azul marinho
(255, 0, 255) Magenta Cor de vinho
(255, 255, 0) Amarelo
(255, 255, 255) Branco

Composição convencional e natural de cores

A essência da análise de uma imagem reside na identificação dos acidentes ou fenómenos


desejados e na sua categorização por classes (vegetação, solo húmido, tipos de erosão, etc.). O
reconhecimento destes, na imagem, depende muito da perícia do analista tanto ao escolher os
canais espectrais a serem empregues no estudo como as técnicas para a sua interpretação.

Para a captação da imagem muitos sensores utilizam as seguintes radiações, em ordem crescente
do seu comprimento de onda: Verde, Vermelho e Infravermelho.

Obviamente, a cor “infravermelha” não existe e, por isso, não é possível afectar cada canal à cor
correspondente do seu comprimento de onda. Resta-nos, então, proceder a uma afectação
convencional, ligando cada canal a uma cor primária, na ordem crescente do seu comprimento de
onda, isto é, Azul, Verde, Vermelho. Por exemplo, para uma imagem do HRV, a seguinte ordem:

Canal Cor
XS1 (Verde) Azul
XS2 (Vermelho) Verde
XS3 (Infravermelho) Vermelho

Para a imagem do TM, que possui sete bandas espectrais, temos de fazer a escolha das bandas
sobre as quais pretendemos fazer a análise em composição colorida. Se a composição que
pretendemos é similar à empregue para a imagem do HRV, então endereçamos:

Canal 2 (Verde) Azul


Canal 3 (Vermelho) Verde
Canal 4 (Infravermelho) Vermelho

Manual de Teledetecção – Fascículo II 37


O canal 1 (azul) do sensor TM que possui mais informação sobre a água e os canais 5 e 7
(infravermelho médio) podem ser, também, afectos às cores acima. O canal 6 (IR térmico) é mais
reservado a aplicações muito específicas (geologia e meteorologia) e não pode, normalmente, ser
afecto em conjunto com os canais anteriores pois a sua resolução espacial é diferente (120m).

Canal XS3 (IR próximo) Canal XS2 (Vermelho) Canal XS1 (verde)

Fig. 29 – Composição em falsa-cor (extracto SPOT 142-402, de 30/03/86)

Manual de Teledetecção – Fascículo II 38


A afectação convencional de cores é, geralmente, designada por composição em falsa-cor.
Apesar do aspecto resultante não ser semelhante à realidade, a experiência mostra-nos que é
com ela que se tira o máximo de informação da imagem visualizada. Conhecendo a assinatura
espectral dos objectos identificados na imagem e os relacionarmos com as cores afectadas nos
canais escolhidos, facilmente podemos identificar o objecto consoante a cor que exibe.

Por exemplo, partindo do princípio de que a vegetação verde e saudável se reflecte fortemente
no canal XS3 do HRV do SPOT, se a este canal foi atribuída a cor vermelha, então, pode-se
concluir que o que aparecer avermelhado na imagem será vegetação. Se ao XS1 afectarmos a cor
azul e, sabendo que este canal reflecte a água melhor que os outros, o que aparecer a azul será
água. Na realidade, a água possui baixa reflectância espectral em todos os canais do HRV mas o
seu pico está em XS1. Seguindo o mesmo raciocínio, se tivermos um cião claro, uma cor
esbranquiçada ou amarelada, saberemos que se trata do resultado da junção das três cores
primárias e isso, representa solo nu, areia, construções urbanas, etc., porque estes possuem uma
reflectância espectral idêntica nos três canais do HRV.

Se, contudo, atribuirmos a cada canal uma cor de acordo com a cor real do seu comprimento de
onda, por exemplo, o canal TM3 (vermelho) à cor Vermelha (R), TM2 (verde) à cor verde (G) e
TM1 (azul) à cor azul (B), teremos uma composição em cores naturais (fig. 30).

Fig. 30 - Composição em cores naturais R G B 3,2,1 (extracto ETM+ 167-78, de 08/08/00).

Manual de Teledetecção – Fascículo II 39


Com imagens de sensores que não possuem três canais no visível (RGB), não se pode obter uma
verdadeira composição em cores naturais, mas só uma composição em cores pseudo-naturais.

Adaptação Dinâmica

O fraco contraste que se pode apresentar na afixação de uma imagem, tanto se pode verificar em
dados brutos ou numa imagem já corrigida. Nesta, somente algumas áreas da imagem se
apresentam com uma espécie de sombra ou com pouco contraste, enquanto nos dados brutos a
falta de nitidez é generalizada em toda a imagem. A adaptação dinâmica (contrast stretch), a que
já nos referimos anteriormente, pode ser realizada de duas maneiras: por regulação do
histograma da imagem ou por regulação manual.

Regulação do histograma

a) Amostragem linear simples: consiste na introdução automática de uma função linear que faz
correspondência entre os valores radiométricos da imagem e o valor do brilho das cores
reproduzidas no écran. Assim se, por exemplo, numa tela de amplitude 0 a 255 se afixar uma
imagem cujos pixeis possuem um valor entre 30 e 100, o contraste desta será pobre. Com a
adaptação dinâmica, o programa pode afixar o valor 30 com brilho 0 e o valor 100 com brilho 255
e interpolar linearmente os valores intermédios (amostragem linear simples). Ou pode limitar os
valores máximo e mínimo do histograma, dando um valor zero a todos os pixeis que estiverem
abaixo de um determinado valor e 255 a todos os que estiverem acima de um valor escolhido
(amostragem linear simples com desvio padrão).

A função linear introduzida, automaticamente, é a seguinte:

f(x) = 255[(x-Min)/(Max-Min)]

A amostragem linear simples pode ser:

• equipotencial (com possibilidade de escolher o número de classes de tonalidade, até 255);

• interactiva fixa (em percentagem, até 9,9%).

A curva característica de uma amostragem linear simples é direita e este tipo de adaptação
dinâmica emprega-se mais para imagens brutas.

b) Amostragem linear em degraus: neste tipo de adaptação dinâmica a curva característica


apresenta-se em vários segmentos e pode ser:

• manual (escolhendo no gráfico o valor máximo e mínimo, podendo-se colocar,

Manual de Teledetecção – Fascículo II 40


manualmente, os pontos intermédios de cada segmento);

• por janela (alterando o valor máximo e mínimo, com variação automática dos pontos
intermédios).

Fig. 31 - Regulação do Histograma por adaptação linear

A amostragem linear em degraus utiliza-se mais para imagens já corrigidas, para realçar algumas
zonas específicas de pouco contraste.

c) Amostragem não linear: quando os valores máximo e mínimo dos pixeis de cada canal são
extremos em relação aos restantes, não se pode utilizar o método linear pois a interpolação não
melhoraria o contraste da imagem. Nesses casos, utiliza-se uma função não linear, pelo que, a
curva característica resultante não é direita. A aplicação da amostragem não linear aumenta
gradualmente o contraste de uma zona ao mesmo tempo que diminui gradualmente o de outra.
Esta é também útil para realçar zonas ou objectos específicos em imagens já corrigidas.

Uma das maneiras de proceder a uma amostragem não linear é através da equalização do
histograma. Com efeito, a equalização do histograma é um método não linear que redistribui os
valores dos pixeis de modo a ter, aproximadamente, o mesmo número de pixeis com o mesmo valor
num determinado intervalo. Assim, pode-se aumentar o contraste no pico do histograma e diminui-
lo na base. Geralmente, qualquer adaptação dinâmica é realizada somente na tela, mantendo-se
inalterados os valores originais da imagem. Já mencionamos em 3.2.3.3 que durante a adaptação
dinâmica é automaticamente criada uma tabela de conversão designada por look-up table. Se
quisermos guardar os valores obtidos na adaptação dinâmica, teremos que salvar o look-up table
como parte integrante da imagem matricial. Assim, a próxima vez que a imagem for afixada, os
valores guardados serão carregados por defeito como os actuais.

Manual de Teledetecção – Fascículo II 41


Fig. 32 - Função de Equalização do Histograma no Erdas Imagine

Regulação manual

Os sistemas de tratamento de imagens oferecem, geralmente, a possibilidade de regular


manualmente a aparência da imagem, a fim de aumentar ou diminuir o contraste e aumentar ou
diminuir a luminosidade. Para tal, possuem funções próprias como no exemplo abaixo:

Fig. 33 - Função de Regulação Manual do Histograma no Erdas Imagine

Os sistemas antigos de tratamento de imagens possuíam monitores especiais com botões


específicos para uma regulação manual da imagem:

Inversor: Inverte a tabela das cores seleccionadas. Os pontos de pouca intensidade


tornam-se muito luminosos e os de muita intensidade ficam sombreados.

+ Intensidade: Aumenta a intensidade da cor seleccionada. Dependendo do


sistema, pode fazer brilhar somente uma cor e deixar as outras apagadas.

- Intensidade: Diminui a intensidade da cor seleccionada. Dependendo do sistema,


pode fazer brilhar todas as cores, menos a seleccionada.

+ Contraste: Clicando, aumenta o contraste da côr seleccionada.

- Contraste: Clicando, diminue o contraste da côr seleccionada.

Manual de Teledetecção – Fascículo II 42


Ajustando de uma forma combinada os diversos botões, podia-se obter na imagem um resultado
com o contraste ou luminosidade desejados. O plano-imagem a regular dependia da cor
seleccionada, através de botões R, G e B referentes às cores vermelha, verde e azul. A regulação
tinha que ser feita plano por plano, um de cada vez.

3.3 - Processamento Digital da Imagem Satélite

Fases do Processamento Digital

As técnicas de melhoramento e análise de dados multidimensionais dos diversos tipos de sensores


recebem o nome de processamento digital de imagens. O processamento digital realiza-se para
melhorar o aspecto visual de certas feições estruturais e para fornecer ao analista humano
outros subsídios para a sua correcta interpretação. Na prática, a obtenção das informações
espectrais registadas pelos sistemas de sensores nas diferentes partes do espectro
electromagnético, visando a identificação e discriminação dos objectos de interesse, depende
principalmente da qualidade da representação dos dados.

As tecnologias empregues no processamento digital, para além de permitirem a análise de uma


imagem nas várias regiões do espectro electromagnético, possibilitam a integração de vários tipos
de outros dados, devidamente georeferenciados.

O processamento digital de imagens tem duas fases: pré-processamento e processamento final.

3.3.1 Pré-processamento

Quando uma imagem é captada no centro de recepção terrestre ou registada nas fitas
magnéticas a bordo dos satélites, contém um certo número de distorções que devem ser
corrigidas antes da sua análise ou interpretação. Pré-processamento consiste na preparação dos
dados brutos de modo a melhorar a sua qualidade. De entre as técnicas mais empregues,
destacam-se: correcção radiométrica, correcção geométrica e mosaicagem.

No processamento final faz-se o estudo pormenorizado dos objectos presentes na imagem.

3.3.1.1 Correcção Radiométrica

Esta espécie de correcção nem sempre é fácil, pois as distorções que originam as variações de
radiância dependem não somente do sensor como, também, variam de imagem para imagem devido
a outros factores. Aqui, limitaremos a nossa abordagem às imagens dos sensores ópticos.

Quando o sensor possui múltiplos detectores em várias linhas (MSS ou TM do Landsat, por

Manual de Teledetecção – Fascículo II 43


exemplo) com ligeiras variações físicas entre eles, pode provocar o efeito de listragem (striping)
na imagem, isto é, algumas linhas da cena aparecem com coloração diferente das restantes. O
efeito da listragem também pode ocorrer quando um detector fica mal ajustado, fazendo
medições sistemáticas maiores ou menores em relação aos restantes da mesma banda para o
mesmo objecto. Por exemplo, algumas imagens do Landsat 1,2 e 3 possuem esse defeito em todas
as sextas linhas, por causa do desajuste de calibração de um dos detectores do sensor MSS.
Nestes casos, o efeito de listragem pode ser removido através da “filtragem” dos dados da
imagem, com filtros de passo alto ou com a transformação das componentes principais.

Uma outra anomalia comum nas imagens é a falha de dados numa linha. Isto ocorre quando o
detector deixa completamente de funcionar ou fica temporariamente saturado durante a
varredura. O resultado é uma listragem na linha inteira ou parcialmente. Esta pode ser corrigida
substituindo os valores dos dados da linha com outros estimados a partir da linha acima ou
abaixo.

Outro tipo de distorção é causado por alguns efeitos atmosféricos tais como o nevoeiro, vapor de
água e nuvens. Estes fenómenos atmosféricos reduzem a radiância dirigida ao sensor,
principalmente nos comprimentos de onda mais curtos diminuindo, consequentemente, a sua
nitidez. Apesar de não serem propriamente falhas, uma adequada adaptação dinâmica pode
minimizar o problema. Se com esta não for possível, pode-se recorrer a métodos pontuais tais
como a subtracção de pixeis, a conversão da radiância em reflectância, aplicação de regressões
lineares ou modelação atmosférica.

Quando os ângulos de varredura do sensor são grandes (em alguns satélites ambientais), a
distância percorrida pela energia e proveniente dos objectos na superfície da terra é maior nos
extremos que no centro de varredura (nadir) do sensor. Disto resulta um desnível de radiância
entre os extremos e a parte central da imagem. Esta distorção pode ser removida omitindo os
extremos ou modelando um declínio de radiância em direcção aos extremos.

3.3.1.2 Correcção Geométrica

A correcção geométrica, também designada por rectificação, visa remover ou atenuar as


distorções existentes na geometria da imagem causadas, no seu processo de formação, pela
curvatura da terra ou pelo movimento do satélite, principalmente. Ela pode ser feita de uma
forma normal, aplicando modelos matemáticos para corrigir os erros, através de sistemas de
equações polinomiais de primeiro, segundo e terceiro graus.

Quando é realizada de uma forma mais rigorosa, usando Modelos Numéricos de Terreno - MNT’s
e informações relativas à posição do satélite, a rectificação toma o nome de ortocorrecção.

Manual de Teledetecção – Fascículo II 44


De uma maneira geral, a correcção geométrica é baseada no método de modelização ou de
utilização de pontos de controle terrestres.

No primeiro método, trata-se de modelizar a geometria da órbita do satélite de modo a predizer


o que o satélite deveria estar a ‘observar’ no terreno real e, de acordo com isso, modificar a
geometria da imagem, em conformidade com um determinado sistema de projecção cartográfica.

O segundo método consiste em identificar pontos de controle terrestre similares na imagem e


num mapa com a projecção requerida ou numa outra imagem já corrigida ou, então, medidos no
próprio terreno através de GPS, de modo a representá-la em superfície plana e com a integridade
de um mapa.

Fig. 34 - As possíveis causas das distorções geométricas numa imagem satélite.

Existem vários sistemas de projecção cartográfica e cada um deles está associado a um sistema
de coordenadas expressa numa grelha com pares X,Y (coluna e linha) de números que
representam a posição de qualquer ponto.

A rectificação de uma imagem nada mais é senão um processo de transformação dos seus dados,
de uma grelha de coordenadas para outra, usando transformações geométricas. Portanto, a
correcção geométrica ou rectificação é somente necessária nos casos em que a grelha de pixeis
da imagem deve ser alterada para se sobrepor a um sistema de projecção cartográfica ou a uma

Manual de Teledetecção – Fascículo II 45


imagem de referência.

A rectificação dos dados de uma imagem permite:

• relacionar as coordenadas da imagem (linha e coluna) com as coordenadas geográficas


(latitude e longitude) do mapa;
• combinar duas imagens diferentes de uma mesma área como, por exemplo, imagens
satélite de diferentes épocas, onde se deseja comparar mudanças ocorridas nessa área;
• integrar no mesmo projecto imagens de diferentes sensores (HRV e TM, por exemplo);
• Confeccionar mosaicos a partir de imagens adjacentes de uma área;
• Desenvolver uma base de dados de SIG a partir de várias fontes, incluindo imagens;
• Sobrepor a imagem a dados vectoriais;
• Comparar imagens adquiridas em escalas diferentes;
• Extrair informações, mais ou menos precisas, de distâncias e áreas;
• Realizar qualquer tipo de análise que requeira uma precisão de localização geográfica;
• Etc.

A correcção geométrica envolve os seguintes passos:

Aquisição dos pontos de controle terrestre,


Cálculo e teste da transformação geométrica;
Criação da imagem de saída, através da aplicação da transformação geométrica
mais adequada, com informação sobre as novas coordenadas.

Pontos de controle terrestres são feições possíveis de serem identificadas de modo preciso na
imagem e no mapa (imagem de referência ou no terreno), como por exemplo o cruzamento ou
intersecção de estradas, vértices das pistas de aterragem (aeroportos e aeródromos), junções
de canais de drenagem (rios ou riachos permanentes), etc.. Para a sua colheita a partir de um
mapa, é necessário que seja um mapa planimétrico ou plani-altimétrico confiável e numa escala
adequada, visto que os pontos de controle terão que ser precisamente identificados em ambos,
imagem e mapa.

Com os pontos de controle determinados aplica-se, em seguida, uma função que integra as
coordenadas do mapa na imagem, da imagem geocodificada na outra ou dos pontos medidos no
terreno na imagem. Esta função é um polinómio de transformação, geralmente de 1º ou 2º grau.

O número mínimo de Pontos de Controle Terrestre (GCP) para a determinação de um polinómio de


grau n pode ser dado pela seguinte regra:

Manual de Teledetecção – Fascículo II 46


N.º de GCP's =(n2 + 3n + 2)/2 (1.1)

Uma vez determinados os N pontos de controle e seleccionada a transformação polinomial, um


sistema de 2n equações é montado para resolver 6 ou 12 parâmetros, dependendo do polinómio
ser de 1º ou 2º grau. Assim, conclui-se que o número mínimo de pontos de controle é 3 para o
polinómio de 1º grau e 6 para o de 2º grau.

O número mínimo de pontos de controle representa a situação de um sistema de equações


determinado, no qual o número de equações coincide com o número de incógnitas a calcular.
Entretanto, como as coordenadas medidas dos pontos de controle estão sujeitas a erros, convém
usar um número de pontos maior que o mínimo. Neste caso, trabalha-se com um sistema de
equações que tem mais equações que incógnitas e que permite tratar e distribuir os erros de
medição dos pontos de controle. Em termos práticos, aconselha-se o uso mínimo de 6 pontos de
controle para o polinómio de 1º grau e 10 para o polinómio de 2º grau. Os pontos de controle
devem estar espalhados o mais homogeneamente possível dentro da área de trabalho.

Cálculo da transformação geométrica

A partir dos GCP’s, é computada uma matriz de transformação, composta de coeficientes que são
usadas na equação polinomial para converter as coordenadas. Uma fórmula prática para calcular o
número de coeficientes de uma matriz de transformação é a seguinte:

Nº de Coef = (n+1) x (n+2) (1.2)

onde n representa o grau do polinómio.

Para um polinómio do 2º grau, por exemplo, a matriz de transformação terá 12 coeficientes, seis
para cada coordenada (x e Y):

ao a1 a2 a3 a4 a5
bo b1 b2 b3 b4 b5

Os coeficientes são usados no polinómio do 2º grau da seguinte maneira:

X0 = a0 + a1x + a2y + a3x2 +a4xy + a5y2


Y0 = bo + b1x + b2y + b3x2 +b4xy + b5y2

Durante a transformação geométrica é, também, computado o erro médio quadrado (RMS) em


cada ponto, que indica a distância entre a posição do GCP na origem e a sua posição após a
transformação. O erro é reportado em sistema de coordenadas usadas na origem (introduzidas) e

Manual de Teledetecção – Fascículo II 47


ajuda-nos a avaliar a consistência do GCP. Simultaneamente a este erro, são computados os
residuais em X e Y, que nos indicam as distâncias entre a posição do GCP na origem e a sua
posição na direcção X e Y, após a transformação.

Fig. 35 - Erro Médio Quadrado e os Residuais

Ao analisar os erro RMS na correcção geométrica, temos de ter em conta o tipo de dados que
estão a ser corrigidos, a sua finalidade nos diversos usos e a fonte da sua aquisição. Para GCP’s
colectados com GPS o erro não deve exceder os 10 metros, nas imagens de alta resolução (10 a
30 metros). Porém, neste mesmo tipo de imagens, se a fonte for um mapa topográfico à escala de
1:50.000, por exemplo, o erro não deve ser superior a 20 metros. Normalmente, para que a
correcção geométrica tenha uma boa precisão no interior da imagem corrigida, o erro MRS não
deve exceder a 1,00.

Após a análise do erro médio quadrado, temos as seguintes opções:

• Retirar o ponto com maior erro, assumindo que este é o menos confiável e computar de
novo a transformação, somente com os pontos restantes. Assim, o resultado pode
melhorar. Porém, se o ponto retirado é o único numa zona particular da imagem, da nova
computação podem advir erros maiores;
• Seleccionar somente os pontos que julgarmos mais consistentes e confiáveis;
• Tolerar um erro um pouco maior, se possível.

Se com as duas opções acima não tivermos resultados satisfatórios, então pode-se aumentar a
complexidade da transformação, passando para um polinómio de 3º grau ou superior.

Métodos de Reamostragem
O passo seguinte para completar a transformação geométrica é a criação do ficheiro de saída.
Porque a grelha de pixeis na imagem com os pontos introduzidos a partir duma fonte raramente
coincide com a grelha de saída na imagem de referência, é necessário fazer uma reamostragem
dos pixeis, de modo a calcular os valores dos novos dados na imagem de saída.

Manual de Teledetecção – Fascículo II 48


Fig. 36 - Reamostragem de pixeis

Os métodos mais empregues na reamostragem de pixeis são:

Alocação de vizinho mais próximo - atribui ao valor de nível de cinzento do pixel da imagem
corrigida o mesmo valor do pixel que se encontra mais próximo da posição a ser ocupada. Não há
alteração assinalável no valor de nível de cinzento. Pela sua característica, é aplicado em imagens
onde não há heterogeneidade nos valores de nível de cinzento. Imagens saídas deste método
discriminam melhor diversos tipos de vegetação e contornos associados a alinhamentos
geológicos. Também determinam os diferentes níveis de turbidade ou temperatura nos lagos.

As maiores vantagens do método de alocação do vizinho mais próximo residem na sua simplicidade
e, consequentemente, na facilidade e rapidez da sua computação, tornando as imagens
apropriadas para serem usadas em classificação temática.

Interpolação bilinear - faz com que o nível de cinzento a ser atribuído ao "pixel" da imagem
corrigida seja determinado a partir do valor dos 4 pixeis vizinhos. Como resultado, há alteração
do valor do nível de cinzento, considerando a sua vizinhança. É mais aplicado nas imagens onde há
heterogeneidade nos níveis de cinzento dos pixeis ou nos casos em que pretende se fundir dados
de resolução espacial diferente como, por exemplo, do SPOT com os do Landsat. A imagem de
saída possui, geralmente, maior precisão espacial que a obtida com o método anterior.

Convolução cúbica – este método é similar ao anterior, com a única diferença de que faz com que
o nível de cinzento a ser atribuído ao "pixel" da imagem corrigida seja determinado a partir do
valor dos 16 "pixeis" vizinhos. A vantagem deste método é o de proporcionar, simultaneamente,
um bom contraste na imagem e uma boa atenuação dos ‘ruídos’. É recomendado o seu uso quando
se pretende mudar drasticamente a dimensão das células (área representada pelos pixeis) dos
dados, tal como na fusão de dados TM com os de uma fotografia aérea digital. Este método é,
porém, o mais lento na computação por causa da sua complexidade.

Algum software de tratamento de imagens permite uma reamostragem por interpolação híbrida,
aplicando a alocação de vizinho mais próximo e do interpolador bilinear, consoante a
característica local dos níveis de cinzento na imagem.

Manual de Teledetecção – Fascículo II 49


Métodos de Aquisição dos Pontos de Controle Terrestre

Como já nos referimos, os pontos de controle terrestre podem ser adquiridos de três modos:

• extraindo-os de um mapa colocado numa mesa digitalizadora (Modo Mesa),


• obtendo-os através de outra imagem já georeferenciado (Modo Écran), ou
• introduzindo directamente as coordenadas medidas com GPS no terreno, via
teclado (Modo Teclado).

No modo mesa, se a mesa digitalizadora não estiver calibrada, começamos pela sua calibração,
reconhecendo pontos homólogos, isto é, pontos que correspondam às mesmas feições na imagem e
no mapa, antes de iniciar com a sua aquisição. O mapa a utilizar tem de ser um mapa-base com boa
precisão. Há que evitar usar mapas iguais ou superiores à escala de 1:250.000 para as imagens
dos satélites de Teledetecção. Quanto maior é a resolução da imagem, melhor deve ser a precisão
planimétrica do mapa.

No modo écran, convêm recorrer a uma opção de ampliação da imagem, para permitir uma maior
precisão na localização os pontos. Contudo, evite-se tentar corrigir uma imagem de maior
resolução a partir de outra de menor resolução, isto é, não se deve usar uma imagem TM para
corrigir uma do HRV do SPOT ou uma imagem do SPOT para corrigir uma do IKONOS! Tanto
quanto possível, deve-se utilizar igual resolução ou escolher uma imagem de maior resolução para
corrigir a de menor. Neste modo, a correcção é de imagem para imagem e os pontos são
seleccionados e introduzidos via mouse, no visualizador. Devem-se manter ambos os
visualizadores (da fonte e do destino) abertos para permitir a selecção e a introdução das
respectivas coordenadas. Estas, são salvas na imagem, ao contrário das introduzidas através da
mesa digitalizadora ou directamente com o teclado, que são salvas como ficheiros separados.

Imagem de referência Imagem a corrigir

Fig. 37 - Aquisição de pontos de apoio para a Rectificação de Imagem para Imagem

Manual de Teledetecção – Fascículo II 50


No modo teclado, as coordenadas dos GCP´s devem ser introduzidas através do teclado e usando
o mouse para seleccionar o pixel de destino.

Ortocorrecção

A ortocorrecção é uma forma de correcção geométrica que corrige o deslocamento do terreno,


causado pelo relevo. É somente necessária para áreas montanhosas ou para as imagens de muito
alta resolução sobre as zonas urbanas de prédios altos, quando é requerida um alto grau de
precisão planimétrica. Só é possível realizar este tipo de correcção com um MNT da zona estudo.

Fig. 38 - Exemplo de uma imagem com o MNT aplicado (Cidade de Maputo).

A ortocorrecção é, geralmente, baseada em equações colineares que podem ser derivadas dos
pontos de controle adquiridos em três dimensões. Aos dados brutos é aplicado o MNT para se
criar a imagem ortocorrigida. Após a criação desta, cada pixel da imagem passa a ter uma boa
fidelidade geométrica.

Geo-referenciamento de uma imagem matricial

A correcção geométrica não é necessária quando não há distorção geométrica na imagem. Se, por
exemplo, tivermos uma imagem resultante da ‘scanagem’ ou digitalização de um mapa que se
encontra num sistema de projecção cartográfica desejado, então, essa imagem já é plana e não
requer uma correcção geométrica. Contudo, se quisermos integrar essa imagem matricial numa
base de dados SIG, será necessário fazer antes o seu registo na projecção cartográfica usada
nesse banco de dados. A este processo dá-se o nome de geo-referenciamento.

Geo-referenciamento é, pois, o processo que relaciona as coordenadas da imagem (espaço


matricial) com as coordenadas do sistema de referência em determinada projecção cartográfica,
modificando somente a informação relativa às coordenadas da imagem, sem alterar a sua grelha.

Manual de Teledetecção – Fascículo II 51


Fig. 39 – Processo de geo-referenciamento de uma cobertura hidrográfica usando o MapInfo.

A correcção geométrica, por definição, envolve o geo-referenciamento, pois, todos os sistemas


de projecção estão associados a coordenadas planas. Latitude e longitude são coordenadas
esféricas não associadas a projecções cartográficas que expressam a localização nos termos de
um esferóide e não de um plano. Por isso, uma imagem não é, usualmente, geograficamente
corrigida em Latitude/Longitude, embora seja possível depois convertê-la neste sistema de
coordenadas.

Para o geo-referenciamento, às vezes basta redefinir as coordenadas dos quatro cantos da


imagem ‘scanada’ ou digitalizada.

Designam-se por dados geocodificados os que já sofreram correcção geométrica e aos quais
foram aplicadas correcções radiométricas e outros melhoramentos. Imagens geocodificadas
permitem especificar a projecção, datum, elipsóide, etc., facilitando a representação das suas
coordenadas em latitude e longitude, para a reprojecção num outro sistema.

Chama-se a atenção que a terminologia aqui empregue pode diferir com a empregue em outros
países ou por outros autores!

Nota: o pré-processamento anteriormente descrito aplica-se somente a imagens ópticas. A


formação de uma imagem radar é bastante diferente da óptica pelo que o seu pré-processamento
é, também, diferente. Por exemplo, uma imagem radar possui, geralmente, uma maior quantidade
de ruído (speckle) e, por causa do seu modo de aquisição, maiores deformações de terreno. Estes,

Manual de Teledetecção – Fascículo II 52


não são tão facilmente removíveis como nas imagens ópticas e para os corrigir são necessários
algorítmos especiais.

Por causa da deformação de terreno causada pelo método de aquisição, as imagens radar passam,
geralmente, por um processo especial de orto-correcção que envolve vários passos:

• Modelagem das efemérides e refinamento dos GCP’s;


• Geração de uma grelha especial;
• Correcção da deformação do terreno.

Por causa da complexidade dos algorítmos utilizados, o pré-processamento das imagens radar não
será aqui abordado.

3.3.1.3 Mosaicagem

Mosaicagem de imagem nada mais é do que um processo de colagem de imagens adjacentes, para
obter uma maior cobertura da área de estudo. Acontece variadas vezes que a área de interesse
se situa em duas ou mais imagens adjacentes.

A correcção geométrica das imagens a serem empregues na mosaicagem deve ser


suficientemente precisa para que na região onde houve a "colagem" das partes não apareçam
lacunas nem distorções na continuidade das feições geográficas. O erro médio quadrado da
transformação geométrica deve ser o menor possível.

Os programas mais antigos de tratamento de imagens realizavam o mosaico juntando as imagens


uma a uma, na área de interesse. Hoje, já existem programas mais sofisticado que podem fazer
simultaneamente o mosaico de várias imagens da mesma faixa ou de faixas adjacentes,.

3.3.2 Processamento Final

Após o pré-processamento, os dados estão prontos para serem empregues numa aplicação
particular. Contudo, antes do seu derradeiro uso, pode-se melhorar ainda mais o seu aspecto, de
modo a tornarem-se mais facilmente interpretáveis.

Para tal, existe um grande número de técnicas ao nosso dispor, que deve ser seleccionado de
acordo com:

• O tipo de dados (devem-se conhecer os parâmetros técnicos dos sensores utilizados e a


utilidade das bandas a serem empregues);

Manual de Teledetecção – Fascículo II 53


• O objectivo (deve-se ter uma ideia clara do produto final desejado, antes de se iniciar
com o tratamento);

• A expectativa (que resultado se espera obter ao se aplicar uma determinada técnica);

• O conhecimento (a experiência que se possui na aplicação dessas técnicas).

Existem três categorias principais de técnicas de melhoramento:

• tratamento radiométrico – melhoram a imagem usando valores de pixeis individuais em


cada canal (perfis, operações aritméticas, realce do contraste através do LUT, da
equalização do histograma ou da regulação manual, etc.);

• tratamento espectral – melhoram a imagem transformando o valor de cada pixel a partir


de vários canais (índices, análise em componentes principais, entre outras).

• tratamento espacial - melhoram a imagem usando valores de pixeis individuais bem como
os dos pixeis em redor (textura, estratificação, filtragem, fusão de diferentes
resoluções, análise focal, contornos não-direccionais, etc.);

3.3.2.1 Tratamentos radiométrico e espectral

Alguns dos tratamentos radiométricos foram já referidos no pré-processamento.

Análise dos valores radiométricos

Um dos tratamentos radiométricos tem por objectivo o estudo dos valores numéricos dos
diferentes objectos da imagem, para se verificar a qualidade da imagem (radiometria) ou pôr em
evidência a presença de elementos temáticos particulares. Também serve para dar uma ideia da
resposta espectral de objectos conhecidos.

Uma das formas de se fazer a análise radiométrica é através de cortes ou perfis. Perfil é a
análise de radiometria dos pixeis, ao longo de uma linha determinada. A linha tanto pode ser
rectilínea como ser curva, consoante os objectivos a atingir.

Operações aritméticas

No processamento final, pode ser necessário realizar algumas operações aritméticas tais como
soma, subtracção, divisão e a multiplicação entre canais de uma imagem ou entre um canal e
uma constante. Nestas operações utiliza-se uma ou duas bandas de uma mesma área geográfica,
previamente geo-referenciada. Realiza-se a operação "pixel" a "pixel", através de uma regra
matemática definida, tendo como resultado uma banda que representa a combinação das originais.

As operações aritméticas permitem a compressão de dados, diminuindo o número de bandas


podendo, contudo, ocasionar perda da informação original. Os resultados das operações podem

Manual de Teledetecção – Fascículo II 54


ultrapassar o intervalo de 0-255, sendo estes resultados automaticamente normalizados,
saturando os valores abaixo de 0 e acima de 255.

De maneira geral, utiliza-se a operação de adição para realçar a similaridade entre canais ou
imagens diferentes; a subtracção, multiplicação e divisão, para realçar diferenças espectrais.

Subtracção de imagens

Utiliza-se a subtracção de imagens ou de canais de uma mesma imagem para realçar diferenças
espectrais. Conhecendo as curvas de comportamento espectral dos alvos de interesse e o
intervalo espectral das bandas dos sensores, é possível definir os canais a serem utilizados para
realçar as diferenças espectrais. Exemplos de aplicação:

• identificação de diferentes tipos de cobertura vegetal;


• identificação de minerais formados por óxido de ferro;
• detecção do padrão de mudança de cobertura, como cultivo do solo, expansão urbana,
desmatamento.

Quando, na imagem, a média e desvio padrão dos histogramas a serem subtraídos não coincidirem,
aconselha-se a igualização da sua média e do desvio padrão, antes da subtracção, através de um
aumento de contraste em ambas as imagens. Caso não seja adoptado este procedimento, o
resultado da subtracção entre as imagens não corresponderá à diferença real entre elas.

Adição de imagens

A adição de imagens ou de canais de uma mesma imagem constitui uma operação linear que pode
ser utilizada para a obtenção da média aritmética entre as imagens, minimizando a presença de
ruído. Para a obtenção da média, deve-se adoptar como valor de ganho 1/n, onde n é o número de
canais utilizados na operação. A adição pode ainda ser utilizada para a integração de imagens
resultantes de diferentes processamentos.

Multiplicação de imagens

É uma operação linear que consiste na multiplicação de uma constante pelos níveis de cinzento de
um canal. É utilizada na implementação de transformações que se deseja realizar sobre a imagem.

Divisão ou razão entre canais

A divisão consiste numa operação não-linear. É utilizada para realçar as diferenças espectrais de
um par de canais, caracterizando determinadas feições da curva de assinatura espectral de
alguns objectos. Esta operação não deve ser realizada em canais que apresentam ruídos, pois
estes seriam realçados. A operação de divisão entre os canais pode:

Manual de Teledetecção – Fascículo II 55


• remover efeitos de ganho provenientes de variações espaciais ou temporais, quando
ocorrem em canais de uma mesma imagem;
• diminuir variações de radiância da imagem, provenientes de efeito de topografia, declive
e aspecto;
• aumentar diferenças de radiância entre solo e vegetação.

Para remover o efeito de um factor de ganho, como o efeito de brilho, considera-se, por exemplo,
que a radiância de um "pixel" é 1, o factor de brilho é "a" e que a resposta detectada pelo sensor
é o produto destes dois factores. Remove-se o efeito de brilho, dividindo-se cada "pixel" de um
canal (1) pelo "pixel" correspondente em outro canal (2). Desta forma, sendo R o resultado
independente do factor de brilho, tem-se:

R1,2 = a.L1/a.L2 = L1/L2 (1.3)

A redução do efeito de brilho também elimina o efeito de sombra.

Para aumentar o contraste entre o solo e a vegetação, pode-se utilizar a razão entre dois canais
constituindo, assim, os chamados índices. Os índices fazem parte do tipo de tratamento espectral
numérico que nos permite pôr em evidência uma ou outra parte da informação contida numa
imagem, em detrimento das restantes.

• Índice de vegetação

O comportamento espectral muito particular da vegetação, com forte reflectância no


infravermelho e relativamente fraca no vermelho, é muito bem posto em evidência, em diversas
combinações dessas duas faixas do espectro electromagnético. A razão entre o canal vermelho e
o infravermelho (IR) próximo proporciona-nos os índices de vegetação, que podem ser usados
para o monitoramento da vegetação, indicando as condições e a forma da sua presença numa
imagem. Existem dois tipos de índices de vegetação:
índice simples SDVI = infravermelho próximo - vermelho

índice normalizado NDVI= (IR próximo - vermelho) /(IR próximo + vermelho)

Para que o resultado, no último caso, possa ser um novo canal com valores radiométricos entre 0 e
255, a formula adoptada é a seguinte :

NDVI = [(IR - R) / (IR + R) +1] x 128 (1.4)

• Índice de brilho

Trata-se de uma combinação linear de diferentes canais, com coeficientes variando de imagem
para imagem. Cada autor define este coeficiente à sua maneira.

Manual de Teledetecção – Fascículo II 56


Outra forma de definir o índice de brilho é através da média quadrática dos canais Vermelho e
Infravermelho próximo. Neste caso, será:

Ib = (XS22 + XS32)1/2 (1.5)

Análise em Componentes Principais - ACP

Outro tratamento espectral bastante comum é o ACP. Observa-se frequentemente que canais
individuais de uma imagem multispectral são altamente ‘correlados’, ou seja, são similares visual e
numericamente porque a informação contida neles é redundante. Esta correlação advém do efeito
de sombra resultante da topografia, da sobreposição das faixas espectrais entre canais
adjacentes e do próprio comportamento espectral dos objectos.

A ‘decorrelação’ em componentes principais é uma técnica que reduz ou remove esta redundância
espectral, ou seja, gera um novo conjunto de imagens cujos canais individuais apresentam
informações não disponíveis em outros canais, permitindo-nos reduzir o volume de dados a tratar,
sem perder muita informação. A transformação é derivada da matriz de covariância entre os
canais e gera um novo conjunto de imagens onde cada valor de pixel é uma combinação linear dos
valores originais. O número de componentes principais é igual ao número de canais espectrais
utilizados e estes são ordenados de acordo com o decréscimo da variância de nível de cinzento. A
primeira componente principal tem a maior variância (maior contraste) e a última, a menor.

A figura 41 mostra que a transformação da componente principal em duas dimensões corresponde


à rotação do eixo original das coordenadas para coincidir com as direcções de máxima e mínima
variância. Neste processo, utiliza-se o coeficiente de correlação ou da covariância para se
determinar um conjunto de quantidades chamadas de autovalores.

Fig. 40 - Análise em Componentes Principais

Manual de Teledetecção – Fascículo II 57


Canal verde Canal vermelho Canal infravermelho

Canal ACP1 Canal ACP2 ACP3

Fig. 41 - ACP de uma imagem sobre a Cidade de Maputo (sensor HRV do Spot)

No exemplo da figura 41, o ACP é realizado nos canais verde, vermelho e infravermelho duma
imagem do HRV do Spot, afim de gerar os três canais ACP1, ACP2 e ACP3, respectivamente. O
interesse do ACP em imagens com três canais é de sintetizar ao máximo a informação da imagem.
Assim, o primeiro canal ACP1, apresenta maior informação do brilho global da imagem, associada
às sombras de topografia e às grandes variações da reflectância espectral geral dos canais.
Também possui a maior parte da variância total dos dados, concentrando a informação, antes
diluída, em várias dimensões Por isso, este canal contém uma grande informação temática e é
numa boa representação sintética da imagem, com melhoramento considerável de contraste.

O segundo canal gerado (ACP2), toma conta das principais diferenças espectrais entre os canais
originais da imagem. Fortemente correlado com o canal infravermelho próximo pode, por isso, ser
mais empregue para estudos da vegetação e menos para índice normalizado da vegetação. O
terceiro, ACP3, agrega geralmente o ruído residual e não tem um interesse específico. Os
defeitos dos captores que se apresentam na imagem concentram-se aqui livrando os outros dois.

As imagens de componentes principais podem ser combinadas em composição colorida, como


quaisquer outras. Quando comparada com qualquer combinação de canais originais, a composição

Manual de Teledetecção – Fascículo II 58


colorida das componentes principais apresenta um realce na distribuição das cores, uma vez que
não há correlação entre os canais. Uma composição colorida de imagem de componentes principais
tende a apresentar apenas cores espectrais puras e intensamente saturadas, não apresentando
tons de cinzento (o que indicaria correlação).

Nota:
Os resultados do tratamento em ACP dependem da imagem de partida (a matriz de covariância
depende, evidentemente, dos dados de partida), obtidos após uma série de difíceis interpolações,
conforme os critérios clássicos conhecidos. Geralmente nós buscamos um tratamento autónomo
(depois da redução dos dados) que nos reduza o tempo. Tendo em conta a crescente capacidade
dos micro-computadores, o ACP não é, geralmente, utilizado para esta finalidade. Reserva-se este
tratamento às aplicações muito pontuais.

3.3.2.2 Tratamento espacial

Textura

Os tratamentos anteriores foram, essencialmente, virados à radiometria individual de cada um


dos pixeis - o que seria bastante simples se a cada objecto correspondesse um e somente um
valor (em monocanal) ou um triplo de valores (em composição colorida). Infelizmente, a resposta
espectral de um objecto é sempre a mistura de um grande número de respostas (ex.: os solos nus
fazem aparecer a humidade, a presença ou não de vegetação, elementos minerais...).

Prosseguiremos, agora, com o estudo de uma técnica que estabelece a relação entre os pixeis,
num domínio determinado. A geologia utiliza imenso esta técnica que permite pôr em evidência
alinhamentos geológicos. Nos meios urbanos, esta mesma técnica beneficia a “unidade” da imagem.

Para o nosso caso, “textura” será definida como o nível de homogeneidade da imagem. Diremos
que uma zona é “muito texturada” se a radiometria dos pixeis variar muito rapidamente (grande
dispersão). Se não, será “pouco texturada”.

Estatística e individualização

Representados em dois canais, os diferentes pixeis de um objecto terão as respostas


radiométricas repartidas numa ‘nuvem”.

Se o objecto for simples (parcela de solo nu, por ex.), esses valores reagrupar-se-ão numa
“nuvem” pouco alongada. Em objectos mais complexos (zona urbana), o reagrupamento formará
uma “nuvem” mais alongada, composta de objectos elementares diferentes. Em qualquer dos
casos, é necessário fazer a média (valor médio de radiometria do objecto) e calcular o seu

Manual de Teledetecção – Fascículo II 59


desvio-padrão (índice de dispersão).

Fig. 42 – Resposta de um objecto nos canais XS2 e XS3

Este processo é uma das formas para fazer estatística sobre os elementos da imagem. Os
resultados da estatística podem ser estendidos a todos os objectos da mesma natureza, na
imagem. Para tal, existem várias técnicas à nossa disposição, com resultados mais ou menos
satisfatórios. A mais simples é a individualização.

Tomemos como exemplo a água, no canal infravermelho. Fazendo uma análise estatística da
imagem, pode-se ver que as zonas com água têm uma resposta bem específica no infravermelho.
Daí pode-se fazer a média de valores e seu respectivo desvio-padrão.

Individualizar um canal da imagem para extrair as zonas com água, consiste em atribuir o valor 1
a todos os pixeis da imagem que respondem “como na nossa observação” e o valor zero aos
restantes. Feito isto, teremos uma máscara binária separando a água. Em geral, a individualização
pratica-se de um modo interactivo: a primeira individualização, baseada nas nossas observações,
não dará sempre um resultado satisfatório. Será necessário aumentar ou diminuir a dispersão,
alterar a média. Feito isto, todos os pixeis com uma radiometria inferior ao limite aparecerão a
preto, os restantes a branco. Se o resultado obtido não nos satisfizer, teremos de ajustar o
limite até obter uma boa individualização dos pixeis.

Estratificação

Para uma dada imagem, os objectos de natureza diferente (mas vizinhos) podem ter respostas
espectrais absolutamente idênticas, consoante as circunstâncias. Um tratamento puramente
radiométrico não seria, então, aconselhável. Podemos, pois, solucionar este problema através da
estratificação da imagem, usando técnicas bem definidos, entre elas diversos tipos de máscaras:

Manual de Teledetecção – Fascículo II 60


• Máscaras geomorfológicas

A análise de uma imagem em composição de falsa-cor pode, por exemplo, pôr em evidência uma
região com dunas, um escarpamento, etc. Podemos obter uma máscara delimitando
cuidadosamente cada uma das zonas assim observadas. Nesse caso, é aconselhável a utilização
dos limites para constituir um novo canal (designado por “máscara”, por exemplo). Cada pixel
conterá, como valor radiométrico, o número da zona morfológica a que pertence. A máscara será,
ulteriormente, utilizada para tratamentos específicos em cada zona.

• Outros critérios

A estratificação de uma imagem pode basear-se em critérios provenientes da análise directa da


imagem em composição de falsa-cor. Pode provir, em particular, da introdução de dados exógenos
que se representarão sob a forma de ficheiros numéricos de limites. Alguns exemplos:

♦ Possuímos um ficheiro numérico de limites pedológicos e estamos interessados na


ocupação de cada espécie de solos. O tratamento poderá basear-se, então, numa
estratificação proveniente de um tal ficheiro.

♦ Se tivermos um ficheiro numérico dos limites administrativos, faremos um tratamento


específico em cada distrito,...

♦ A escolha da estratificação depende da finalidade do estudo e dos dados disponíveis.

Filtros

Os filtros baseiam-se numa teoria complexa baseada em sinal e sua distribuição. É escusado
dizer que não é do nosso âmbito o seu estudo aqui - são teorias tão complexas que necessitam de
muito tempo para as estudar, além de exigirem fortes bases matemáticas. Abordaremos,
somente, o seu aspecto prático o que é suficiente para as ambições deste Manual.

As técnicas de filtragem são transformações da imagem pixel a pixel, que não dependem apenas
do nível de cinzento de um determinado pixel, mas também do valor dos níveis de cinzento dos
pixeis vizinhos.

O processo de filtragem é feito utilizando matrizes denominadas máscaras ou domínios, que são
aplicadas sobre a imagem. Na prática, utilizam-se três tipos de filtros:

• Filtros Lineares – o valor resultante de um pixel é uma combinação linear de valores de pixeis
do respectivo domínio ou máscara. Exemplos: Média Linear, Filtro de Laplace, Filtro de
derivadas, etc..

Manual de Teledetecção – Fascículo II 61


• Filtros Não-Lineares – usam-se mais para modificar o resultado de uma classificação (o
resultado de uma classificação é um novo canal onde cada pixel tem por valor o número da
classe a que pertence, geralmente com bastante ‘ruído’, isto é, muitos pixeis aparecerão
isolados no domínio da mesma classe, podendo ser atenuados recorrendo a esses filtros).

• Filtros Condicionais - são obtidos pela aplicação de um filtro condicional sobre o pixel
(exemplo: Filtros Majoritários)

Os filtros lineares suavizam ou realçam os detalhes da imagem ou minimizam os efeitos de ruído,


sem alterar a média da imagem e podem ser classificados em passo-baixo, passo-alto ou passo-
banda, respectivamente.

Os dois primeiros são os mais utilizados em processamento de imagens. O filtro passo-banda é


mais utilizado em processamentos específicos, principalmente para remover ruídos periódicos.
Vejamos estes filtros, em pormenor:

• O filtro passa-baixo: permite a passagem das frequências baixas e bloqueia as


frequências altas. As altas frequências que correspondem às transições abruptas são
suavizadas de modo a minimizar ruídos e apresentar o efeito de homogeneidade da
imagem. Na prática, empregam-se filtros de domínio 3x3, 5x5 e 7x7.

Canal original Imagem filtrada (passa-baixa)

0 1 1
1 1 1
1 1 1

Fig. 43 – Aplicação do filtro passa-baixo no canal XS1 Spot, utilizando o Erdas Imagine

• O filtro passa-alto: nesta, são atenuadas as frequências baixas, fazendo com que a
filtragem realce detalhes, produzindo um maior contraste da imagem, isto é, as
transições entre regiões diferentes tornam-se mais nítidas. Estes filtros podem ser

Manual de Teledetecção – Fascículo II 62


usados para realçar certas características presentes na imagem, tais como contornos,
linhas curvas ou manchas, mas enfatizam o ruído existente na imagem.

Canal original Image filtrada (passa-alto)

0 -1 -1
-1 9 -1
-1 -1 -1

Fig. 44 – Aplicação do filtro passa-alto no canal XS1 Spot, utilizando o Erdas Imagine

Os filtros não-lineares minimizam ou realçam os ruídos e suavizam ou realçam os contornos,


alterando a média da imagem, sendo os mais empregues os operadores para o melhoramento de
contornos, operador de detecção de contornos e os filtros morfológicos.

Operadores para detecção de contornos detectam características, como contornos, linhas, curvas
e manchas.

Canal original Imagem filtrada (detecção de contornos)

0 -1 -1
-1 8 -1
-1 -1 -1

Fig. 45 – Aplicação do operador de detecção de contornos no canal XS1 Spot, utilizando o Erdas Imagine

Os filtros morfológicos exploram as propriedades geométricas dos sinais (níveis de cinzento da


imagem). Para filtros morfológicos, as máscaras são denominadas elementos estruturantes. Os
filtros morfológicos básicos são o filtro da mediana, erosão e dilatação.

Manual de Teledetecção – Fascículo II 63


Filtro morfológico da mediana é utilizado para suavização e eliminação de ruído e
mantém a dimensão da imagem.

O filtro morfológico de erosão provoca efeitos de erosão das partes claras da imagem
(altos níveis de cinza), gerando imagens mais escuras. Considerando o exemplo anterior,
o valor a ser substituído no pixel central corresponde ao menor valor da ordenação.

O filtro morfológico de dilatação provoca efeitos de dilatação das partes escuras da


imagem (baixos níveis de cinzento), gerando imagens mais claras.

Existem diversos tipos de filtros condicionais:

• Os filtros condicionais de realce de contornos realçam a imagem, segundo direcções


preferenciais de interesse, definidas pelas máscaras. O nome dado às máscaras indica a
direcção ortogonal preferencial em que será realçado o limite do contorno. Assim, a
máscara norte realça limites horizontais.

• O filtro condicional de realce não-direccional de contornos é utilizado para realçar


contornos independentemente da direcção. Podem ser empregues três máscaras
diferentes, com intensidade de altos valores de níveis de cinzento. Uma máscara alta
deixa passar menos os baixos níveis de cinzento, isto é, a imagem fica mais clara. Uma
máscara baixa produz uma imagem mais escura que a anterior. Uma máscara média
apresenta resultados intermediários.

3.3.3. Classificação Digital

Classificação é o processo de extracção de informação em imagens para reconhecer


automaticamente padrões e objectos homogéneos. Os algoritmos empregues para a classificação
efectuam um reagrupamento de pixeis em função da sua similaridade. Assim, é possível
identificar automaticamente os diferentes temas de uma imagem, para a confecção de um
mapeamento temático.

A informação espectral de uma cena pode ser representada por uma imagem espectral, na qual
cada "pixel" tem coordenadas espaciais x, y e uma espectral L, que representa a radiância do
objecto em todas as bandas espectrais, ou seja para uma imagem de K bandas, existem K níveis
de cinzento associados a cada "pixel", sendo um para cada banda espectral. O conjunto de
características espectrais de um "pixel" é denotado pelo termo atributos espectrais.

Existem vários métodos de classificação: ascendente hierárquico, segmentação hipercúbica,


máxima verossemelhança, etc.. Os classificadores podem ser "pixel a pixel" ou classificadores
“por regiões”.

Manual de Teledetecção – Fascículo II 64


• Classificadores "pixel a pixel": utilizam apenas a informação espectral de cada pixel
para achar regiões homogéneas. Estes classificadores podem ser separados em métodos
estatísticos (com regras da teoria de probabilidade) e determinísticos.

• Classificadores por regiões: utilizam, além de informação espectral de cada "pixel", a


informação espacial que envolve a relação com seus vizinhos. Procuram simular o
comportamento de um foto-intérprete, reconhecendo áreas homogéneas na imagem,
baseando-se em propriedades espectrais e espaciais. A informação vizinha é utilizada
inicialmente para separar regiões e as propriedades espaciais e espectrais irão unir
áreas com mesma textura.

O resultado da classificação digital é apresentado por meio de classes espectrais (áreas que
possuem características espectrais semelhantes). É constituído por um mapa de "pixeis"
classificados, representados por símbolos gráficos ou cores, ou seja, o processo de classificação
digital transforma um grande número de níveis de cinzento em cada banda espectral em um
pequeno número de classes numa única imagem.

As técnicas de classificação aplicadas apenas a um canal espectral são conhecidas como


classificações unidimensionais. Quando o critério de decisão depende da distribuição de níveis de
cinzento em vários canais espectrais as técnicas são de classificação multispectral.

O primeiro passo num processo de classificação multispectral é o treinamento (treino em zonas


de teste). Treinamento é o reconhecimento da assinatura espectral das classes.
Existem basicamente duas categorias de classificação: classificação supervisada e classificação
não-supervisada.

A classificação não-supervisada é completamente autónoma, enquanto que na classificação


supervisada o utilizador define um certo número de parâmetros de ordem espacial ou temas de
entrada.

3.3.3.1 Classificação Não-Supervisada

Na classificação não-supervisada, o utilizador introduz somente uma quantidade limitada de


parâmetros, deixando para o computador o resto. A escolha dos parâmetros pode ser, por
exemplo, o número de classes pretendido ou o modo que o computador deve considerar a
classificação terminada (há sempre pixeis que são quase inacessíveis).

No tratamento, não há que se preocupar com a homogeneidade das classes. As áreas escolhidas
devem ser heterogéneas para assegurar que todas as possíveis classes e suas variabilidades
sejam incluídas. Os "pixeis" dentro de uma área de classificação são submetidos a um algoritmo

Manual de Teledetecção – Fascículo II 65


de reagrupamento que determina o agregação dos dados, numa feição espacial de dimensão igual
ao número de bandas presentes. O algoritmo assume que cada grupo representa a distribuição de
probabilidade de uma classe baseada em grupos naturais existentes. A identidade das classes não
é conhecida no início do processo.

Nos casos de uma classificação não-supervisada, o utilizador guia o computador fornecendo-lhe


informações de ordem temática ou espacial. Para tal, é necessário ter um mínimo de
conhecimento da zona de estudo. No resultado final, há sempre uma taxa de subjectividade.

Fig. 46 - Extracto TM 165-70, de Julho de 1991 Extracto ETM+ 165-70, de Agosto de 2000

Fig. 47 - Classificação não-supervisada, processada por Erdas Imagine:

Verde = Floresta, Amarelo = Actividade Humana, Vermelho = Limite da Reserva

A figura 47 mostra uma classificação não-supervisada da Reserva de Mecubúri, Nampula,


utilizando dados multitemporais para a detecção de mudanças. O objectivo é o de verificar a
progressão da actividade humana dentro da Reserva, ao longo de um determinado período.

Manual de Teledetecção – Fascículo II 66


3.3.3.2 Classificação Supervisada

Os parâmetros temáticos na classificação supervisada podem ser, por exemplo, intervalos


radiométricos identificados na zona de estudo (entre 0 e 255 em codificação de 8 bits). Os
parâmetros espaciais podem ser polígonos desenhados sobre a imagem delimitando uma porção
homogénea (uma zona cultivada, um lote de floresta plantada, etc.) que servirá de referência para
o computador. A classificação consiste em comparar cada um dos pixeis da imagem na classe
definida e afectá-los àquela que for considerada mais próxima da referência.

É importante que a área de amostragem (treinamento) tenha amostras homogéneas da classe


respectiva, mas ao mesmo tempo deve-se incluir toda a variabilidade dos níveis de cinzento.
Recomenda-se que o utilizador adquira mais de uma amostra, utilizando o maior número de
informações disponíveis, como trabalhos de campo, mapas, etc. Para a obtenção de classes
estatisticamente confiáveis, são necessários de 10 a 100 pixeis de treinamento por classe. O
número de pixeis de treinamento necessário para a precisão do reconhecimento de uma classe
aumenta com o aumento da variabilidade entre as classes.

Na classificação supervisada o analista supervisa o processo da categorização dos pixeis,


especificando ao algoritmo do computador, a descrição numérica de cada uma das classes
presentes na imagem. Começa-se pela escolha de alguns temas representativos de classes bem
reconhecidas visualmente, que são usadas para compilar a chave numérica de interpretação que
contém o atributo espectral requerido.

Fig. 48 - Definição das classes numa classificação supervisada

Depois, cada pixel da imagem é automaticamente comparado a cada um desses atributos e


colocado numa categoria a que mais se assemelha. O analista compara o resultado da classificação
com dados de referência colhidos no terreno.

Apesar de consumir muito tempo, em termos de uso do computador, a classificação supervisada é

Manual de Teledetecção – Fascículo II 67


o que dá melhores resultados.

Fig. 49 - Classificação supervisada com classificador “pixel a pixel”, utilizando o SPRING

(Extracto da imagem SPOT 142-402, de 30/03/86)

Precauções a ter em conta na classificação supervisada

Todos os algoritmos de classificação partem da hipótese de que os pixeis possuem sinais


espectrais idênticos ou vizinhos, se correspondentes ao mesmo tema. Se o tema é diferente,
logicamente, os pixeis terão sinais distintos. Podemos, então, separar os diferentes temas, graças
ao sinal espectral dos pixeis que os compõem. Há um certo número de problemas que tornam este
método imperfeito:

muitos dos pixeis duma imagem são mistos (resolução espectral fraca);

alguns temas podem aparecer com uma diversidade de respostas espectrais. É o caso
particular de temas urbanos (por ex., os pixeis da zona de caniço na periferia da cidade
de Maputo são uma mistura de solos nus, betão, capim e outra vegetação);

temas totalmente diferentes podem ter respostas muito próximas (caso de queimadas
recentes e a sombra de nuvens);

consoante a aproximação temática que estivermos a utilizar, os objectos a prior idênticos

Manual de Teledetecção – Fascículo II 68


podem ter um significado temático diferente (caso de culturas de tipo industrial e
culturas familiares);

os pixeis na sombra e os iluminados possuem respostas muito diferentes, apesar da sua


composição ser absolutamente a mesma.

A conclusão que se pode tirar destas observações todas é de que uma única aproximação
radiométrica num processo de classificação supervisada não é, em geral, suficiente. E, para todos
os casos, o resultado obtido não poderá ser considerado como uma verdade absoluta; a sua
validade terá de ser, para cada caso, estatisticamente avaliada.

A situação não é assim tão desesperante, pois, temos à disposição vários instrumentos que nos
permitem melhorar os resultados da classificação. Já vimos dois exemplos destes instrumentos: a
técnica de estratificação, que nos permite isolar as zonas homogéneas duma imagem para retirar
um certo número de confusões entre pixeis de um sinal mais representativo (entre objectos
diferentes) e a técnica da textura, que nos pode pôr em evidência algumas estruturas lineares,
através do uso de filtros de diversos tipos. Este procedimento de tentar uniformizar os temas,
ou seja, eliminar pontos isolados, classificados diferentemente de sua vizinhança e obter uma
imagem classificada com menos “ruído”, designa-se por pós-classificação

Fig. 50 - Exemplo de estratificação utilizando o software SPRING

Manual de Teledetecção – Fascículo II 69


3.4 – Interpretação Visual de Imagens Satélite

Quando foi lançado o primeiro satélite de Teledetecção, o Landsat 1, o uso de fotografias aéreas
já estava consolidado. Em outras palavras, toda a metodologia de interpretação de fotografia
aérea já havia sido definida e já vinha sendo usada com sucesso há um bom tempo. Como as
imagens satélite são produtos da energia reflectida e/ou emitida pelos objectos, pelo menos em
parte são parecidas com o processo de obtenção das fotografias aéreas. Evidentemente que há
diferenças fundamentais entre as duas. Por exemplo, enquanto as fotografias são obtidas em
bandas largas do espectro electromagnético e possuem altíssima resolução espacial (linhas por
milímetro), as imagens satélite são obtidas de forma multiespectral, isto é, várias cenas ao longo
da faixa de actuação do sensor e possuem uma resolução espacial mais baixa.

Dentro deste contexto, fica evidente que podemos empregar para as imagens satélite, com certa
restrição, a metodologia utilizada para a fotointerpretação.

Entretanto, é preciso lembrar que numa imagem satélite, de baixa e média resolução, como as
obtidas pelos sensores AVHRR ou ETM+, a definição dos objectos fica restrita ao tamanho do
pixel. Isso que dizer que um objecto que é perfeitamente individualizado numa fotografia aérea
pode não ser individualizado nas imagens satélite. Para exemplificar, imagine a sede de uma
localidade rural. Nas fotografias aéreas é perfeitamente possível individualizá-la e perceber que
há nele um conjunto de edifícios ou propriedades. Já nas imagens satélite o máximo que se pode
perceber é o local onde está localizada a sede. Logo, é necessário introduzir outros elementos de
fotointerpretação que são desnecessários para fotografias aéreas. Um desses elementos é a
assinatura espectral do objecto que é fortemente explorada nas imagens de satélites.

Os métodos computacionais de processamento digital que abordamos no capítulo anterior,


nomeadamente a classificação digital, embora muito mais rápidos do que o método visual,
oferecem-nos por vezes resultados pouco fiáveis, porque os programas desenvolvidos para a
classificação são, na maior parte das vezes, baseados apenas nas assinaturas espectrais dos
objectos. Assim, objectos diferentes podem ser classificados como de uma mesma classe
temática, por apresentarem comportamento espectral idêntico e objectos similares, com
comportamento diferente, podem ser classificados como de classes temáticas diferentes.

Pelo exposto, pode-se concluir que embora o computador seja mais rápido, a interpretação visual
é mais eficiente, porque os resultados obtidos são mais precisos.

Manual de Teledetecção – Fascículo II 70


3.4.1 Definição

A fotointerpretação é, hoje, um processo que envolve a análise de imagens, sejam elas


fotografias ou imagens satélite, com o objectivo de identificar as feições nelas representadas e
dar-lhes um significado.

O analista procura, através de processos lógicos, detectar, identificar, classificar, medir e


avaliar os objectos quanto ao seu significado físico e cultural, seu padrão e seu relacionamento
espacial. Portanto, a fotointerpretação é um processo complexo de actividades físicas e
fisiológicas que ocorrem numa determinada sequência, de modo a deduzir alguns factos que
podem ser considerados de informações úteis.

3.4.2 Aspectos da interpretação visual

Detecção

É o reconhecimento dos elementos de um objecto na imagem, através da utilização de técnicas de


fotointerpretação (localização de pontos, linhas e polígonos que podem significar edifícios,
aldeias, campos agrícolas, etc.).

Identificação

É o processo de classificação, isto é, distinguir os objectos através das suas características ou


do seu padrão que nos é familiar nas imagens (diferenciação das feições da água, por exemplo:
rio, correnteza, canal, tanque, reservatório ou albufeira, lago, etc.).

Análise

É o processo da diferenciação ou separação de objectos ou feiçoes com características similares.


Na análise, os diferentes objectos ou feições são diferenciados (por exemplo, areia do deserto,
areia da praia, etc.).

Classificação

É o processo de identificação e agrupamento de objectos ou feições recolhidos pela análise.


Coloca feições ou objectos recorrentes na mesma classe ou grupo. Se, por algum motivo, algum
objecto ou feição estiver mal identificada ou analisada, isso conduz à sua classificação errônea.

Dedução

A dedução pode ser direccionada à separação de diferentes grupos de objectos ou feições, de


modo a deduzir o seu significado com base nas evidências que as cobrem. As evidências derivam,
fundamentalmente, de factores visíveis e elementos invisíveis, que só dão uma informação parcial

Manual de Teledetecção – Fascículo II 71


da natureza do objecto. Quando a dedução não é acompanhada de um trabalho de campo (verdade
do terreno), o seu resultado pode conduzir a uma classificação errónea.

Idealização

É o processo de desenhar uma representação ideal ou standard daquilo que foi identificado e
interpretado na imagem. Consiste, geralmente no uso de símbolos e cores adaptados ao tema e às
classes que se pretendem. É um processo que ajuda o desenvolvimento da chave de interpretação
de uma imagem.

3.4.3 Fases da interpretação visual

Geralmente, a interpretação visual de imagens é dividida em duas fases ou etapas: observação e


fotointerpretação.

Na observação procede-se a uma análise global da imagem, tendo em vista somente reconhecer as
diferentes feições do terreno contidas na cena, sem a preocupação de as caracterizar ou avaliar.
Aqui, alguns pormenores marginais, tais como, a qualidade do papel ou filme onde está
reproduzida a imagem, a época do ano em que foram adquiridos os dados, etc., são também
observados.

A fotointerpretação (interpretação propriamente dita) consiste num estudo minucioso de


individualização e avaliação dos diferentes elementos da cena, usando para tal alguns sinais que
nos ajudam a identificar, analisar e classificar os diferentes aspectos. A interpretação exige do
analista ou foto-intérprete um mínimo de conhecimentos técnicos aliados à sua experiência.
Mesmo que inconscientemente, o foto-intérprete faz uma comparação dos elementos da imagem
com observações de referência armazenadas no seu cérebro.

Portanto, a interpretação visual de uma imagem implica um raciocínio lógico, dedutivo e indutivo
para poder compreender e explicar o comportamento de cada objecto nela contido e exige certa
competência local para facilitar o estudo pretendido.

3.4.4 Métodos de Fotointerpretação

Na fotointerpretação existem dois métodos distintos:

• Método Directo – que não deixa dúvidas na identificação dos objectos, com base em
fotografia, geralmente.

• Método Dedutivo – o objecto é identificado de maneira indirecta e definido em função de


uma série de características a ele pertinentes, com base numa imagem satélite. Aqui,

Manual de Teledetecção – Fascículo II 72


utiliza-se o critério espectral para agrupar em distintas classes temáticas os diferentes
objectos contidos na cena.

A fotointerpretação baseada no método dedutivo tem por suporte a análise e qualificação das
características mais patentes, pois são estas que contêm as informações de interesse. Essas
características, que nos dão de forma indirecta as informações sobre o terreno, podem ser
separadas em dois tipos: sinais da imagem e elementos de fotointerpretação.

3.4.4.1 Sinais da Imagem

Sinais da imagem são as propriedades básicas de análise e interpretação, a partir das quais se
extraem as informações dos objectos, áreas ou fenómenos. Eles ajudam-nos a identificar e
classificar os diferentes aspectos visíveis na imagem.

Os sinais da imagem são vários e podem ser agrupados de diversas maneiras. Os mais
importantes, são os seguintes:

Tonalidade e cor – é a propriedade mais simples de ser identificada e uma das mais importantes
para o reconhecimento dos objectos representados na imagem. A tonalidade representa o nível ou
quantidade de radiação reflectida e captada pelos sensores e aparece em diversos níveis de
cinzento que variam entre o branco e o preto ou em graduações de cor. Quanto mais energia um
objecto reflectir, mais esbranquiçado se apresenta numa imagem pancromática e quanto menos
energia reflectir, mais escuro se apresenta, pois a energia absorvida é maior.

Fig. 51 – Comparação de tonalidade e cor em imagens pancromática e colorida

A tonalidade ajuda-nos a descriminar objectos com reflectância espectral diferente. Entretanto,


objectos diferentes podem apresentar tonalidade semelhante e, por outro lado, o mesmo tipo de

Manual de Teledetecção – Fascículo II 73


objectos (vegetação, por exemplo) pode apresentar tonalidades diferentes. Por isso, só o uso da
tonalidade não é suficiente para separar os temas de um estudo, principalmente quando ela se
apresenta em níveis de cinzento. Embora as graduações de cor nos ajudem a descriminar melhor
os diferentes tipos de vegetação, mesmo elas se tornam, às vezes, insuficientes para nos
proporcionar as diferentes classes.

Textura – fornece-nos a frequência de mudanças de tonalidade numa imagem, quando um


determinado número de feições são visualizadas simultaneamente. A textura depende do tipo de
objecto, da resolução espacial da imagem, da escala de trabalho etc. Ela pode ser expressa em
lisa, rugosa, manchada, ponteada, ... A textura torna-se muito importante na identificação de
unidades de relevo. A lisa, indica-nos um relevo plano e a rugosa, acidentado. Também é
importante na classificação da cobertura vegetal: uma floresta ou mata cerrada aparece na
imagem com textura rugosa enquanto que uma zona com culturas alimentares é geralmente lisa.

Padrão – indica-nos a arrumação ou distribuição espacial dos objectos. Nas zonas cultivadas, por
exemplo, o padrão é caracterizado por polígonos regulares que advêm da presença dos limites de
cada cultura ou terreno cultivado. Nas grandes cidades, por exemplo, o padrão é geralmente
quadriculado. Nas restantes zonas urbanas, é caracterizado por uma mistura de pixeis mistos,
com informação variada, indicando unidades habitacionais, espaços verdes, linhas da estrutura
viária, etc. Os pequenos aglomerados populacionais aparecem como manchas onde o padrão é uma
mistura mais ou menos uniforme dos aspectos indicados para as zonas urbanas. Áreas com uma
rede de drenagem densa, por exemplo, possuem um padrão característico, que se assemelha a
uma rede ou teia, consoante os tipos de solo onde se encontra. O padrão de algumas estruturas
geológicas é caracterizado pela presença de linhas ou fiadas.

Fig. 52 - Exemplo de diferentes tipos de textura

Contorno – indica-nos a qualidade da forma geral do objecto. Em geral, os objectos apresentam,


na superfície terrestre, formas geométricas conhecidas e bem definidas. Por exemplo, as áreas
agrícolas e plantações possuem um contorno regular e bem definido. O contorno das áreas de

Manual de Teledetecção – Fascículo II 74


floresta natural, porém, não é regular. As áreas de cultivo irrigado por aspersão (pivô central),
por exemplo, apresentam-se com um contorno circular, pois, o equipamento para este tipo de
irrigação se move em círculo. A rede de drenagem, apresentam-se com um contorno sinuoso.

Fig. 53 – Diferentes contornos de objectos num extracto ETM+ sobre Mafambisse (Sofala)

Em alguns casos, para determinar com precisão o contorno de um objecto, temos que examiná-lo
em três dimensões, com o auxílio de um estereoscópio e, para tal, é necessário possuir um par de
imagens estereoscópicas.

Tamanho – ajuda-nos a dissipar dúvidas quando, por exemplo, dois ou mais objectos aparecem com
o mesmo contorno mas apresentam uma textura diferente. O tamanho dos objectos deve ser
estimado comparando-o com outros objectos cuja dimensão é conhecida. Também se pode
recorrer ao estereoscópio para estimar melhor o tamanho do objecto. A partir do tamanho,
podemos distinguir uma zona com agricultura de subsistência de outra com agricultura comercial.

O tamanho está em função da escala de trabalho e da própria resolução espacial da imagem.

Sombra – deriva da falta de informação. Pode ter efeitos positivos ou negativos. Quando os
efeitos são positivos, pode auxiliar-nos no cálculo da altura de um objecto e fornecer-nos

Manual de Teledetecção – Fascículo II 75


informações sobre a sua forma. Uma imagem com muita sombra (por causa das nuvens, por
exemplo), pode-nos dificultar a obtenção de informações relevantes em determinadas feições
porque omite-as. De um modo geral, a sombra aparece do lado oposto à incidência da radiação, em
tonalidade muito escura.

Fig. 54 - Obstrução provocada pelas nuvens em Março de 2000 (Imagem ETM, Rio Limpopo)

Lugar ou posição – reporta-nos a localização geográfica de um objecto, quer seja o seu


posicionamento absoluto quer em relação aos objectos vizinhos. Os aglomerados populacionais,
por exemplo, são mais facilmente identificados pela sua proximidade à rede viária.

Topografia – é o total dos contornos de todos os objectos presentes na imagem, que nos indica o
carácter geral do terreno.

3.4.4.2 Elementos de fotointerpretação

Após a análise de todos os sinais da imagem, o analista está em poder de informações relevantes
para o seu estudo. Para completar o estudo só lhe resta observá-los atentamente e combiná-los
devidamente para registar as diferentes feições do terreno. Estas diferentes feições com que o
analista pretende tirar conclusões sobre os temas do seu estudo, designam-se por elementos de
interpretação.

Manual de Teledetecção – Fascículo II 76


Os elementos de interpretação podem ser de carácter estático ou dinâmico. Os elementos
estáticos aparecem sempre como os mesmos, independentemente da época do ano em que foram
registados na imagem. Os elementos dinâmicos, variam consoante a época do seu registo. Por
exemplo, o padrão e contorno da rede de drenagem, a forma do relevo e das estruturas
geológicas, são elementos estáticos que não mudam o seu aspecto numa imagem captada na época
chuvosa ou na época seca. As condições de drenagem (maior ou menor quantidade de água)
contudo, são directamente afectadas pelos efeitos temporais em cada época do ano. A aparência
da cobertura vegetal e das várias formas de uso da terra também mudam durante o ano, em
função das condições climatéricas. Estes, são exemplos de elementos dinâmicos.

Fig. 55 – Comparação de elementos estáticos e dinâmicos numa abordagem bi-temporal (Mafambisse)

Os elementos estáticos, em geral, são melhor identificados nas imagens captadas em época seca,
enquanto que os elementos dinâmicos sobressaem melhor nas imagens da época chuvosa. Contudo,
uma análise bitemporal pode ser útil para optimizar os resultados da fotointerpretação.

Quanto maior é o conhecimento sobre a área de estudo, maior é a quantidade de informação que
podemos obter da fotointerpretação. A associação e comparação de objectos conhecidos no
terreno facilita a identificação de outras feições presentes na imagem. Por isso, o trabalho de
campo é fundamental e quase que indispensável para validar o resultado do nosso estudo.

A interpretação de uma imagem satélite pode ser comparada ao trabalho de um investigador. No


processo de análise, o investigador combina vários factos, utiliza vários métodos e avalia os
resultados obtidos, antes de tirar as conclusões finais. Na prática, ele deve saber bem o que
procurar, ter habilidade para o raciocínio lógico, senso comum e suficiente imaginação.

O analista deve ter em conta que a escolha dos sinais de imagem e elementos de interpretação
varia com o tipo de informações que se pretende extrair da imagem satélite, pelo que, é

Manual de Teledetecção – Fascículo II 77


recomendável listar os mais convenientes para cada situação. Por outro lado, deve ter a
suficiente sensatez de reconhecer que somente sentado no escritório, mesmo com meios
auxiliares disponíveis, não se podem resolver todos os problemas de uma fotointerpretação. É
necessário ir ao campo fazer o reconhecimento no terreno com vista a controlar o nível de
sucesso atingido na fotointerpretação, esclarecer certas dúvidas levantadas, corrigir possíveis
erros, ou mesmo, ganhar mais experiência sobre as limitações do tipo de imagem utilizada.

3.4.5 O Processo da interpretação Visual

3.4.5.1 Pré-requisitos

Embora a interpretação visual seja um processo simples, é fundamental a sua preparação


adequada para que se obtenham resultados satisfatórios.

A interpretação visual de uma imagem satélite era, tradicionalmente, levada a cabo em papel
fotográfico, diapositivo ou em outro suporte que garanta a fidelidade na sua reprodução. Hoje, a
evolução da informática permite-nos reproduzir em papel gráfico simples uma imagem satélite, a
partir das impressoras digitais (plotters), sem muitos custos e com suficiente qualidade para ser
usada em fotointerpretação.

Para além dos olhos, do cérebro e da nossa experiência, a interpretação visual recorre ao auxílio
de outros dados, materiais e instrumentos, consoante o objectivo a que se destinam os resultados
pretendidos. Enfim, tudo o que pode contribuir directa ou indirectamente para melhorar os
resultados do estudo, deve ser utilizado.

Fig. 56 ‘ Exemplo de material auxiliar (carta topográfica da Cidade de Maputo)

Do material auxiliar, é conveniente constarem mapas topográficos da região do estudo, resultado


de estudos similares já realizados sobre a mesma região e outra literatura relacionada ao tema

Manual de Teledetecção – Fascículo II 78


que nos propomos levar a cabo. Para o caso de um mapeamento de uso e cobertura da terra, por
exemplo, dados sobre o clima, tipo de solos, forma de relevo e tipos de vegetação podem ser
bastante úteis. Dados estatísticos existentes sobre os temas do nosso estudo são, também,
informações relevantes que podem servir de parâmetro para a tomada de decisão, em certas
análises particulares.

É imprescindível, quase sempre, o uso da lapiseira, caneta de feltro de ponta fina e papel
transparente, para o registo da informação e, algumas vezes, lupa, pantógrafo, grelha milimétrica,
curvímetro, planímetro, estereoscópio de bolso ou de mesa, ou outros instrumentos auxiliares de
ampliação, quantificação e análise detalhada de algumas feições de terreno presentes na cena.

(número de quadradinhos não inteiros

Fig. 57 - Exemplo da utilidade da grelha milimétrica

3.4.5.2 Escolha da Imagem

Outros pré-requisitos para a interpretação visual dizem respeito aos factores que podem
contribuir para o êxito da análise dos dados. Entre estes, são de considerável importância os
seguintes: a escolha do tipo de imagem e da data de sua aquisição pelo satélite, os canais
espectrais seleccionados, a escala de reprodução da imagem, o tipo de produto disponível e as
restrições técnicas dos sensores empregues na sua captação.

Como já nos referimos, a época de aquisição dos dados influencia os elementos dinâmicos de um
estudo. Por exemplo, para mapear a rede de drenagem, é conveniente utilizar imagens da época
seca porque na época das chuvas os contornos dos rios menores serão difíceis de traçar por
causa da vegetação que sobressai em seu redor. Quando só o uso de imagens ópticas da época das
chuvas nos trazem melhores informações, é recomendável que as mesmas sejam isentas de

Manual de Teledetecção – Fascículo II 79


nuvens, o que nem sempre é possível. Neste caso, torna-se útil a abordagem bi ou multitemporal.
Dependendo do objectivo do estudo, o tipo de produto, nomeadamente a preto e branco ou a
cores, pode influenciar a tomada de decisão do analista. O mesmo se pode dizer da escolha dos
canais. Por exemplo, para avaliar a qualidade da água numa albufeira, os canais que operam no
espectro visível são os mais indicados. Para delimitar os contornos da albufeira ou mapear a rede
de drenagem, já é conveniente utilizar as bandas que operam no infravermelho próximo.

A escolha de uma escala conveniente de trabalho, influencia no sucesso da análise dos dados. Em
certa medida, a escolha da escala depende da própria resolução espacial da imagem. Quanto maior
for a resolução, mais detalhes nos pode proporcionar e, consequentemente, mais opções nos pode
dar para a escolha propícia para o nosso propósito. Com uma escala maior mais facilmente
podemos delimitar os diferentes objectos, com menor erro. A ampliação da escala, por outro lado,
facilita a visualização de feições com respostas espectrais diferentes, dentro da mesma área.

Fig. 58 - Extracto de uma imagem do satélite QuickBird sobre a Cidade de Manica, em diferentes escalas

Para seleccionar uma imagem do satélite Landsat, por exemplo, recorremos à Grelha de
Referência Mundial do Landsat (Landsat’s Worldwide Reference System – WRS). Esta grelha é
uma espécie de mapa onde estão indicadas, por colunas e linhas numeradas as órbitas (path) e a
linha (row) de posição do satélite. O cruzamento destas, em pequemos círculos, está o centro da
imagem, cuja cobertura é assinalada com um segmento em seu redor. O segmento indica o
tamanho completo que cobre cada cena.

Manual de Teledetecção – Fascículo II 80


Fig. 59 - Cobertura da Grelha de Referência do Landsat 4 e 5 sobre Moçambique

A Grelha de Referencia do Landsat 4 e 5 (WRS-2) utiliza uma numeração de coluna/linha similar à


empregue para o Landsat 1 a 3 (WRS-1). Contudo, há grandes diferenças assinaláveis por causa
das diferenças na inclinação das órbitas e da resolução temporal dos satélites dessas séries. Com
efeito, os satélites da série Landsat estão numa órbita circular, heliosíncrona e quase-polar,
possuindo os Landsat 1 a 3 uma inclinação de cerca de 99 graus numa altitude de 920 Km e os
Landsat 4 e 5 com 98,22 graus na altitude de 705,3 Km. A sua resolução temporal é de 18 e 16
dias, perfazendo um total de 251 e 233 órbitas sobre o globo terrestre, respectivamente.

As órbitas adjacentes do Landsat 4 e 5 possuem uma sobreposição mínima de 7,3% no Equador e


máxima de 84% nas latitudes extremas. Contudo, as órbitas sucessivas e a sua estruturação
operacional são controladas de modo a que a sobreposição não tenha mais de 18 Km de variação.
Com a desactivação dos satélites Landsat 1 a 3, WRS-2 passou a ser conhecida simplesmente por

Manual de Teledetecção – Fascículo II 81


WRS, actualmente extensiva ao Landsat 7.
Os satélites da série Spot possuem a sua própria grelha mundial de referência, denominada
Grelha de Referência SPOT (GRS). Diferentemente da grelha do Landsat, a GRS é composta por
nodos localizados na intersecção de colunas (K) e linhas (J). Cada cena Spot está ligada a um par
K,J cuja intersecção representa, na grelha, o centro da sua localização no modo de aquisição
nadir. As colunas K são paralelas à direcção da órbita do satélite, enquanto que as linhas J são
paralelas às latitudes, geralmente.

Numa determinada órbita, cada número de aquisição (N) do satélite corresponde a duas colunas
K, associadas a dois instrumentos idênticos (HRV no Spot 1, 2, 3 e 4) e distanciadas uma da outra
com uma constante de cerca de 58 Km. Como os nodos da GRS estão localizados em cada um dos
lados da linha da órbita, o centro das cenas nadir não coincide com eles.

Fig. 60 - Extracto da Grelha Spot sobre o extremo nordeste de Moçambique

Alguns satélites, na maior parte dos casos os de cobertura não-sistemática, não possuem grelha
mundial de referência. Para estes casos, a escolha da imagem é em função das coordenadas
geográficas da área de interesse, a serem enviadas à Agência donde se pretendem obter os
dados ou com a sua introdução num software específico que identifica, através de um computador
ou na Internet, a imagem pretendida.

3.4.5.3 Metodologia
A metodologia usada para a interpretação visual de imagens depende do objectivo do estudo.
Mas, para qualquer que seja a finalidade, temos à disposição duas abordagens: sem conhecimento

Manual de Teledetecção – Fascículo II 82


de campo e com conhecimento de campo.

No primeiro caso, recorre-se à individualização das feições com as mesmas características


espectrais dentro da zona de estudo. Para tal, sobrepõe-se à imagem um transparente (overlay)
onde são delimitados individualmente os limites das diferentes feições de terreno (por exemplo,
rede hidrográfica, rede viária, cobertura vegetal, uso da terra, ... consoante o tema escolhido),
cada um em seu transparente. Após esta delimitação, compila-se o resultado num único mapa
(mapa temático) preliminar, contendo a localização ou distribuição espacial das diferentes feições
observadas e delimitadas, atribuindo-se-lhes um determinado código.

A esta etapa, segue-se um trabalho de campo, numa determinada zona (zona de teste) que possua
uma boa representatividade das feições presentes em toda a imagem de trabalho, para o seu
reconhecimento (confirmação ou rejeição) ou correcção. Para o trabalho de campo devem-se
preparar, com antecedência, fichas a serem preenchidas com informações a recolher no local.

Fig. 61 - a) Extracto do TM, julho de 1998 b) Estratificação temática por interpretação visual

Após o trabalho de campo e com base no seu resultado, realiza-se uma re-interpretação de toda a
imagem, corrigindo os erros verificados na primeira interpretação. Com base nas informações das
fichas, as classes temáticas são confirmadas e legendadas com números, letras ou outros
símbolos gráficos, num mapa temático final. O mapa assim obtido pode ser refinado por
desenhadores cartográficos ou, então, digitalizado para uma base de dados de um sistema de
informação geográfica que nos permitirá fazer o cálculo de áreas de cada tema e outras
interrogações pontuais para a produção de estatísticas.

No segundo caso, em que temos bom conhecimento do terreno do estudo, a etapa de trabalho de
campo na zona de teste pode ser substituída pela análise de fotografias aéreas recentes ou

Manual de Teledetecção – Fascículo II 83


imagens de muito alta resolução, para o reconhecimento das feições mapeadas. Contudo, esta
abordagem não traz resultados muito fiáveis.

Quando a fotointerpretação é realizada por uma equipa heterogénea, de diferentes escolas ou


com conhecimentos diferentes na utilização das técnicas de Teledetecção, recomenda-se o
estabelecimento de um procedimento metodológico único a ser seguido por todos, de modo a
padronizar os resultados.

Fig. 62 - Produto final (mapa de uso e cobertura da terra)

Manual de Teledetecção – Fascículo II 84


Regionalização do terreno

A fotointerpretação, qualquer que seja a metodologia escolhida, utiliza determinadas abordagens,


consoante a finalidade do estudo. Entre elas, estão: a abordagem baseada na bacia hidrográfica e
a abordagem baseada nos sistemas de terra. Ambas são constituídas por unidades funcionais
onde vários processos e propriedades de terra possuem arranjos espaciais distintos.

Bacia Hidrográfica

A bacia hidrográfica é um tipo de subdivisão morfométrica muito utilizada. Pode ser aplicada em
várias situações de planificação, exploração e monitoramento ambiental.

Fig. 63 - Ordenamento de uma bacia hidrográfica usando o sistema de Strahler

Contudo, esta abordagem possui as suas limitações: a escala e a resolução da imagem limitam o
número de correntes detectadas e prejudicando a precisão de delimitação da bacia drenada.

O padrão de drenagem é formado por todos os sulcos de corrente de água, activos ou fósseis,
independentemente de possuírem ou não possuírem água. O resultado do mapeamento da
drenagem forma um modelo complexo de canais que nos pode, indirectamente, informar sobre o
carácter físico da área de estudo, sua geologia, espessura e tipo de solo, etc.

Ao delimitar uma bacia hidrográfica convém separar os sistemas de drenagem diferentes,


através de um divisor de águas. Se a rede de drenagem superficial for traçado antecipadamente,
torna-se mais fácil identificar ou indicar a posição do divisor de águas, numa área alta, entre os
tributários mais pequenos de dois sistemas de drenagem vizinhos.

Manual de Teledetecção – Fascículo II 85


Fig. 64 - Imagem Spot 141-402, de 13/06/88 (em cima) e delineação da sua rede hidrográfica (em baixo)

Fonte: Rolf Larsson & Lennart Stromquist (1993)

Manual de Teledetecção – Fascículo II 86


Sistemas de Terra

Esta abordagem é mais comum para a descrição e avaliação da paisagem e é, geralmente,


empregue em estudos de uso da terra, comunicações e planificação de aglomerados populacionais.
Consiste em identificar a distribuição e o padrão dos aspectos físicos que definem o terreno para
se delimitarem unidades ou regiões com características específicas e uniformes.

São utilizadas, nesta abordagem, duas unidades principais de mapeamento, o sistema de terra e a
faceta de terra. O sistema de terra compreende uma área com um clima uniforme e um padrão
recorrente de topografia, solos e vegetação, podendo-se estender por vastas áreas. A faceta de
terra é a menor área que pode ser reconhecida, com condições ambientais uniformas.

Ao se implementar um levantamento dos sistemas de terra, os parâmetros constituintes de cada


sistema de terra devem ser anotados com base na morfologia do terreno. Nas regiões planas
como as planícies costeiras e aluviais, por exemplo, a vegetação pode ser incluída com a exclusão
das formas e padrões causados pelo uso humano .

A identificação e o delineamento de unidades de mapeamento baseadas na morfologia do terreno


são subjectivas e a sua descrição, em termos qualitativos deve ser feita com atributos tais como,
por exemplo, “ moderadamente ondulado com fundos de vale pouco espaçados”.

I – Grandes Libombos; II – Depressão do Inter-Libombos; III – Pequenos Libombos; IV – Planície Litoral


Fig. 65 - Classificação dos Sistemas de Terra na imagem Spot 141-402, de 13/06/88
Fonte: Rolf Larsson & Lennart Stromquist (1993)

Manual de Teledetecção – Fascículo II 87


A caracterização e descrição da morfologia do terreno deve ser feita em termos qualitativos,
com expressões como ‘ ... principalmente de crestas abruptas, ligeiramente cónicas em pontos
locais’, por exemplo.

As etapas da realização desta abordagem implicam: compilação de dados auxiliares (publicações


científicas, mapas topográficos, geológicos e outros); divisão preliminar da região em sistemas de
terra; interpretação da imagem e trabalho de campo; apresentação do resultado final, incluindo
textos descritivos, perfis topográficos, etc.

A fim de aumentar a utilidade do mapa, as facetas de terra devem ser definidas e descritas em
termos de atributos simples (morfologia do terreno, rochas, solo, regimes de água e vegetação ...)

Planalto riolítico com drenagem estrutural Área de transição


Planalto riolítico inclinado c/ drenagem estrutural Bacia inter-montanhesca
Cuesta complexa Complexo sedimentar com dunas
Escarpamento Planície aluvial recente
Escarpa e base do declive Pântano de marés

Fig. 66 - Inventário do Terreno na imagem Spot 141-402, de 13/06/88


Fonte: Rolf Larsson & Lennart Stromquist (1993)

Manual de Teledetecção – Fascículo II 88


3.4.5.4 Mapeamento do Uso e Cobertura de Terra

Em diversos países, são utilizados diferentes sistemas de classificação para o uso de terra e para
a cobertura de terra. Uso de Terra é, normalmente, referido como qualquer modificação do
padrão natural da terra, resultante de actividade humana. Por sua vez, Cobertura de Terra
refere-se à vegetação natural e artificial, água, solo e outros elementos resultantes da dinâmica
natural das transformações na terra.

Contudo, os dois termos estão tão intimamente relacionados que, muitas vezes, são permutados
(por exemplo, considerar as culturas como cobertura). Isto acontece, em geral, quando se define
a cobertura de terra como cobertura física observada, vista no terreno ou através da
Teledetecção, incluindo a vegetação natural ou plantada e as construções humanas (edifícios,
estradas, água, gelo, solo nu, etc.), que cobrem a superfície terrestre.

Qualquer que seja a definição adoptada num determinado exercício de mapeamento de uso ou de
cobertura da terra, o seu sistema de classificação baseia-se na busca de áreas homogéneas para
a separação das classes temáticas.

Quando se trata do uso de terra, área homogénea significa uma área onde nenhuma mudança
significativa de uso é observada na imagem, como resultado da sua análise. Todavia, na
determinação destas áreas, mudanças menores podem ocorrer dentro de uma área maior. De
forma alternativa, mudanças maiores podem ocorrer em áreas pequenas, que não são
significativas para a classificação geral, podendo ser ignoradas. Por isso, o foto-intérprete da
imagem deve decidir qual o grau de detalhe requerido para o propósito específico.

Na classificação da cobertura de terra, especialmente da vegetação, área homogénea refere-se a


uma área sem nenhuma variação fisionómica significativa. Em imagens satélite de fina resolução é
possível ver detalhes de padrões óbvios de tipos diferentes tipos de cobertura de terra. Se as
imagens de uma região mostram estes padrões, dados de base sobre o clima e uso da terra podem
ajudar a avaliar a distribuição da vegetação. Numa avaliação destas, não é necessário tentar
determinar a presença de espécies individuais de plantas, mas é importante tentar classificar o
que pode ser visto como área homogénea, como por exemplo região florestal, mata, savana,
pradaria aberta, solo nu, água, etc..

Nas imagens satélites em composição de falsa-cor, as unidades vegetais são diferenciadas em


várias tonalidades de vermelho.

Manual de Teledetecção – Fascículo II 89


Apesar de existirem os chamados “sistemas de referência” para a classificação da cobertura de
terra, nenhum dos sistemas correntes (Danserau, 1961; Fosberg, 1961; Eiten, 1968; UNESCO,
1973; Mueller-Dombois and Ellenberg, 1974; Anderson et al., 1976, Kuechler and Zonneveld,
1988; CEC, 1993; Duhamel, 1995) foi internacionalmente aceite. Na maior parte deles as classes
de cobertura de terra são inapropriadas para propósitos particulares tais como, por exemplo, a
produção de estatísticas ou a análise do desenvolvimento rural, porque os factores usados para o
sistema de classificação resultam numa mistura indesejada de parâmetros de cobertura de terra
potencial e actual (incluindo o clima como parâmetro). Existem muitas outras razões para a não
adopção destes sistemas como sistemas de referência, sendo as principais, as seguintes:

• Muitos são desenvolvidos para propósitos particulares;


• Em muitos deles, o critério usado para o agrupamento das classes não é sistematicamente
aplicado;
• Em outros, não foram definidos princípios comuns e explícitos de compreensão da sua
estrutura e das classes derivadas.

Recentemente, foi adoptado pela FAO um sistema de referência para a África, designado por
AFRICOVER, contendo três níveis de classificação e oito temas principais no terceiro nível, do
seguinte modo:

Primeiro Nível Segundo Nível Terceiro Nível

TERRESTRE ÁREAS TERRESTRES HUMANIZADAS


PRIMARIAMENTE
COM VEGETAÇÂO AQUÁTICO ou REGULARMENTE VEGETAÇÃO TERRESTRE NATURAL e
INUNDADO SEMI-NATURAL

ÁREAS CULTIVADAS AQUÁTICAS


TERRESTRE
VEGETAÇÃO NATURAL e SEMI-
NATURAL AQUÁTICA

SUPERFÍCIES ARTIFICIAIS
PRIMARIAMENTE SEM
VEGETAÇÂO SOLOS NUS
AQUÁTICO ou REGULARMENTE
INUNDADO CORPOS DE ÁGUA ARTIFICIAIS

CORPOS DE ÁGUA NATURAIS, NEVE e


GELO

AFRICOVER é um acrónimo de “AFRican Inventory and Comprehensive Observation of


Vegetation/Land Cover and Environmental Resources”, que em português significa “ Inventário
Africano de Observação Compreensiva da Vegetação / Recursos Ambientais de Cobertura da

Manual de Teledetecção – Fascículo II 90


Terra”. O projecto inicial1 cobria somente a África Oriental (Egipto, Sudão, Eritrea, Somália,
Djibuti, Uganda, Quénia, Tanzânia, Ruanda, República Democrática do Congo e Burundi) e foi
implementado pela FAO com fundos do Governo Italiano, principalmente. Posteriormente
estendeu-se à África Ocidental, estando actualmente em negociações para a sua realização na
África Austral. O objectivo, para além do Mapeamento de Cobertura da Terra, prevê a
capacitação institucional dos países africanos para o planeamento sustentável dos recursos
naturais renováveis.

Africover tentou estabelecer uma distinção fundamental entre o uso e a cobertura de terra. O
seu critério de classificação baseia-se na presença de vegetação, condições edáficas e no nível de
artificialidade da cobertura vegetal. O desenvolvimento da legenda é feito posteriormente, num
módulo hierárquico de classificação automatizada, possuindo oito diferentes classificadores. O
utilizador não é obrigado a usar todos os oito, podendo escolher os do seu interesse, consoante o
nível de detalhe pretendido.

Cada classe de cobertura de terra é descrita através de três códigos:

• Fórmula Booleana, consistindo numa linha de classificadores usados para a definição da


classe (exemplo: A3A10B2);

• Nome standard da classe de cobertura (exemplo “floresta alta fechada”);

• Código numérico (codificação no SIG, exemplo “20006”).

Todas as classes definidas estão dispostas numa sequência hierárquica na legenda do mapa final,
que é automaticamente gerada. Por causa da complexidade do sistema, foi desenvolvido um
software de fácil uso que permite a produção e o manuseamento rápido das classes de cobertura
desejadas. O software é composto de três módulos: classificação, legenda e tradução. Este
último módulo assegura a interpretação, para o interior do sistema, das classes existentes e da
legenda. Também permite a comparação de classes de cobertura com outras externas ao sistema.

Em Moçambique, foi desenvolvido, por iniciativa do Projecto de Mapeamento de Uso e Cobertura


da Terra2, um Sistema de Classificação de Uso e Cobertura da Terra que vai ao encontro das
necessidades de vários utilizadores locais, permitindo que um projecto ou utilizador específico
seja acomodado.

GCP/RAF/287/ITA Land Cover Mapping of East Africa


1

2
Levado a cabo pela Joint Venture CENACARTA / IGN-France International, entre finais de 1996 a
1999, para cobrir todo o País à escala de 1:250 000 e certas regiões à escala de 1:50 000.

Manual de Teledetecção – Fascículo II 91


Este Sistema foi elaborado por um grupo de utilizadores nacionais, tendo por base o Sistema de
Classificação de Uso da Terra da FAO, empregue no Mapeamento de Uso da Terra em
Moçambique, realizado em 1986, à escala de 1:500.000, a partir da interpretação visual de
imagens satélite.

Porque paralelamente estava a decorrer o AFRICOVER, o sistema de classificação proposto para


este projecto foi levado em consideração.

Os critérios gerais para o desenvolvimento do Sistema de Classificação de Uso e Cobertura da


Terra de Moçambique, foram os seguintes:

• um sistema de classificação independente da escala de trabalho e que possa ser


utilizado para qualquer mapeamento de uso e cobertura de terra a partir da
interpretação visual de imagens satélite e outros dados adicionais.

• um sistema de classificação que possua uma estrutura hierárquica e de tal forma


flexível que permita uma subdivisão temática partindo do genérico para o específico,
abarcando as classes temáticas mais representativas do uso e cobertura de terra em
Moçambique.

Destas premissas, nasceu um sistema de classificação não só compatível com o do AFRICOVER,


mas de consenso entre várias instituições nacionais, contendo mais de 25 classes temáticas na
lenda automaticamente gerada na produção do mapa.

Além da legenda temática, as cartas geradas possuem também uma legenda topográfica única,
compatível com a da cartografia sistemática de base em uso no país.

Primeiro Nível Segundo Nível Terceiro Nível


Artificial Cultivada
TERRESTRE Natural
PRIMARIAMENTE COM VEGETAÇÂO Semi-Natural
Artificial Cultivada
AQUÁTICO Natural
Semi-Natural
TERRESTRE Artificial
Natural
PRIMARIAMENTE SEM VEGETAÇÂO
AQUÁTICO Artificial
Natural

Manual de Teledetecção – Fascículo II 92


Fig. 67 - Estrutura Geral do Sistema de Classificação de Cobertura de Terra de Moçambique

Fig. 68 - Legenda Temática Gerada Automaticamente

Manual de Teledetecção – Fascículo II 93


Fig. 69 - Pormenor do Uso da Terra na Legenda Temática

Manual de Teledetecção – Fascículo II 94


Fig. 70 - Legenda Topográfica

Manual de Teledetecção – Fascículo II 95


A USGS possui um Sistema de Classificação do Uso e Cobertura de Terra que consta na maioria
de manuais e livros de ensino, agrupando a terra em nove classes principais, subdivididas em
subclasses de segundo nível. As classes principais de uso e cobertura da terra são bem
apropriadas para interpretação de imagem satélite em pequena escala, enquanto que a
classificação de segundo nível necessita às vezes de informações de fotografias aéreas ou de
imagens satélites de muito alta resolução em grande escala. É a seguinte a sua estrutura
(Anderson et al. 1976; USGS 1992):

Nível 1 Nível 2
11 Residencial
12 Comercial e de Serviços
13 Industrial
1. Terra Urbana ou com Actividade Humana 14 Transportes, Comunicações e Utilidade Pública
15 Complexos Industriais e Comerciais
16 Mistura de Urbana e Actividade Humana
17 Outro tipo de Urbana ou Actividade Humana
21 Culturas e Forragens
22 Hortícolas, Pomar, Bosque, Viveiro, Vinhedo e
2. Terra Agrícola Produção de Plantas Ornamentais
23 Áreas de Alimentação Confinada
24 Outras Terras Agrícolas
31 Pastagem Herbácea
3. Pastagens 32 Pastagem Shrub-Brushland
33 Pastagem Mista
41 Floresta Decídua
4. Floresta 42 Floresta Semprevirente
43 Floresta Mista
51 Rios e Canais
52 Lagos
5. Água
53 Reservatórios
54 Baías e Estuários
61 Pântanos com Vegetação
6. Pântanos
62 Pântanos sem Vegetação
71 Terrenos Salinos Secos
72 Praias
73 Áreas Arenosas
7. Terras Áridas 74 Rochas Expostas ao Solo
75 Jazigos de Minerais, Pedreiras e Saibreiras
76 Áreas de Transição
77 Terras Áridas Mistas
81 Shrub and Brush Tundra
82 Tundra Herbácea
8. Tundra (Planície) 83 Tundra sem Vegetação
84 Tundra Húmida
85 Tundra Mista
91 Campos de Neve Perene
9. Terras de Gelo ou Neve Perene
92 Glaciares

Manual de Teledetecção – Fascículo II 96


3.4.5.5 Classificação da Erosão do Solo

A avaliação e monitoramento da degradação do solo tem sido uma das questões mais importantes
na planificação efectiva do recurso natural ‘terra’, nos países em desenvolvimento. Os resultados
dos levantamentos no terreno são, geralmente, apresentados como mapas de uma área ou de uma
região. Estes mapas podem ser:

• tipos de erosão (por exemplo barrancos, desabamento de terra, etc., reflectindo,


até certo ponto, a taxa presente dos processos de erosão);

• taxas de erosão (decorrentes de estudos sobre mudanças de perfil do solo,


observadas em estudos de campo);

• risco de erosão;

• sedimentos (transportados pelos rios para fora de uma área), principalmente


produzidos à escala global ou regional.

Somente o último tipo reflecte variações sazonais ou anuais da produção de sedimento, enquanto
as outras abordagens mostram a soma de eventos passados e presentes, dando
consequentemente uma visão sinóptica do estado actual da terra, em vez de riscos e taxas dos
processos actuais.

Por outro lado, um mapa de riscos reflecte os riscos de erosão de acordo com vários factores,
como por exemplo a topografia, clima, uso de terra e vegetação e não reflecte necessariamente o
padrão actual que, para além dos factores naturais, também é explicado por factores históricos e
culturais.

Tradicionalmente, aspectos de erosão do solo têm sido mapeados à partir de fotografias aéreas
em vários países em desenvolvimento. Elas foram introduzidas em abordagens anteriores e podem
ser descritas como métodos de mapeamento directos. Nas imagens dos novos satélites de muito
alta resolução, esta abordagem pode ser também acomodada, resumindo-se nos seguintes passos:

a) Fase de mapeamento geral da morfologia do terreno; delineação da rede de drenagem e dos


limites da bacia hidrográfica.

b) Interpretação da imagem incluindo mapeamento detalhado da erosão, identificação das


estruturas de conservação, localização das áreas de maior contribuição no escoamento
superficial para as terras agrícolas, mapeamento de áreas de sedimentação, mapeamento de
informações auxiliares (em mapas ou transparências), como a erosividade, tipos de solo,
inclinação dos declives, uso de terra, padrões de vegetação e de assentamentos humanos.

c) Controle de campo seguido de uma segunda interpretação detalhada da imagem estéreo.

Manual de Teledetecção – Fascículo II 97


A análise dos riscos de erosão é um procedimento com objectivo de descrever o perigo físico de
erosão do solo sobre grandes áreas. Estimativas dos riscos de erosão incluem normalmente
observações de uma série de factores de erosão, como por exemplo a erosão causada pela chuva,
erosividade do solo e da cobertura vegetal. Os métodos também consideram quais são as
variáveis que melhor descrevem a influencia de cada factor na erosão, demarcam as distribuições
individuais no espaço de cada variável e depois combina-os para estimar um risco global (cf
Stocking et. al. 1988).

3.4.6 Vantagens e Desvantagens da Interpretação Visual

A técnica de interpretação digital permite um exame mais detalhado dos dados provenientes da
imagem satélite e dá-nos a possibilidade de automatizar o processo da sua análise. Contudo, tal
como o olho humano possui limitações na habilidade de interpretar alguns padrões espectrais, o
computador, também, possui limitações na avaliação de padrões espaciais. Por isso, as técnicas
visual e digital são complementares por natureza, devendo-se escolher cada uma (ou a combinação
das duas) para a aplicação particular que melhor se ajuste.

Os exemplos de vantagens e desvantagens que se seguem foram seleccionados tendo em conta os


aspectos mais importantes da comparação entre as duas técnicas:

Possibilidades de realçar aspectos particulares

Durante a interpretação pode-nos ser útil alterar o contraste da imagem para enfatizar ou
realçar um aspecto particular, classe ou área. Isto só pode ser feito no processo de
interpretação digital aumentando ou reduzindo, por exemplo, o intervalo dos valores
radiométricos ou seleccionando outros canais espectrais para uma diferente combinação. Assim,
podemos enfatizar os aspectos pretendidos para a sua melhor análise, o que com a técnica visual
não nos seria possível, pois, a imagem no papel restringe-se pelo realce global realizado no
processo da sua produção.

Outra maneira de melhorar a dinâmica da imagem no processo da interpretação digital é a


utilização de filtros para a supressão do ruído que aparece por falta de informação da energia
reflectida numa área ou objecto (falha momentânea no sistema de registo da energia, no instante
de captação do objecto pelo sensor).

Análise quantitativa, objectiva


Uma das grandes vantagens do uso do computador na interpretação digital é a possibilidade de
poder juntar várias imagens ou partes delas (mosaicos). Assim, várias operações podem ser mais
facilmente realizáveis por métodos matemáticos automatizados, o que não é possível fazer com

Manual de Teledetecção – Fascículo II 98


uma simples interpretação visual. Por exemplo, ao interpretar a vegetação, podemos recorrer aos
diferentes índices de vegetação.

Para a detecção de mudanças no monitoramento ambiental, por exemplo, a combinação e


comparação de dados com diferentes datas de aquisição é eficazmente realizável com o
computador. Transformações estatísticas e classificações automatizadas, também, só são
possíveis com a ajuda do computador.

Análise qualitativa, subjectiva

Nenhum computador pode, até ao momento, competir com o cérebro humano no que concerne a
juízos ou decisões. A interpretação visual baseia-se, normalmente, na decisão do analista que, a
partir do seu conhecimento e experiência em relação a área global da análise, pode melhor
examinar os limites de cada classe.

Por exemplo, as estradas podem-se reconhecer mais facilmente pela interpretação visual. Classes
da cobertura da terra são interpretadas eficientemente com qualquer um dos dois métodos mas,
quando se trata de separar as sub-classes dentro da mesma classe de cobertura da terra como,
por exemplo, diferentes culturas, dá-se preferência à técnica digital.

Banco de dados e sua integração

O arquivo dos resultados de uma interpretação num banco de dados digital permite a sua
posterior comunicação e integração em outros bancos de dados ou sistemas de informação
geográfica (SIG). Assim, os dados podem ser empregues em estatísticas e outros fins sendo,
deste modo, mais facilmente editáveis e/ou renováveis.

A integração de dados pode ser vista como uma forma de troca de diferentes tipos de dados ou
de formatos. Em interpretação visual, a integração pode ser realizada através do uso de
transparentes contendo os dados de um mapa como , por exemplo, diferentes classes de
vegetação ou de solos, sobrepostos à imagem em papel. Este método de integração é rápido. Com
a técnica de interpretação digital o processo de integração é mais moroso apesar de ser mais
simples o arquivo dos dados.

Visão estereoscópica

Embora as técnicas actuais permitam uma visão estereoscópica no écran do computador, a análise
recorrendo à visão tridimensional da superfície da terra realiza-se, geralmente, através da
interpretação visual de imagens num estereoscópio. Para se obter a visão estereoscópica são
necessárias duas imagens captadas em ângulos diferentes sobre a mesma zona. A possibilidade de
visão estereoscópica traz-nos vantagens na interpretação de alguns dados.

Manual de Teledetecção – Fascículo II 99


Trabalho de campo
A técnica de interpretação visual possui a vantagem de poder utilizar as imagens no campo, de
modo a compará-las directamente com os dados sobre o terreno.

Apresentação

A informação temática é apresentada em mapas. A linha de produção destes é, geralmente,


mantida uniforme através da técnica digital, desde a sua elaboração até à conclusão da
cartografia digital propriamente dita. Por outro lado, a técnica digital facilita a apresentação das
estatísticas e a integração dos resultados em sistemas de informação geográfica.

A interpretação visual, por sua vez, requer o desenho, scanagem ou digitalização e codificação
dos dados para produzir o mapa.

Tempo
Depende da natureza da interpretação. A interpretação de uma única imagem ou extracto dela
pode ser realizada muito rapidamente pela técnica visual. Porém, para a classificação de um
mosaico que se estende por vastas áreas, o método automatizado de interpretação digital é,
geralmente, mais rápido.

Custos
Este aspecto pode ser analisado de várias formas mas, convém limitar a comparação no custo do
material e do equipamento. O custo dos dados brutos utilizados em ambas as técnicas difere em
quase nada ou em muito pouco. Contudo, a técnica digital requer o uso de um computador e de um
sistema de tratamento de imagens, com custo significativo. Apesar dos instrumentos
cartográficos auxiliares para a interpretação visual poderem ser caros continuam, mesmo assim,
são mais baratos que os empregues na técnica digital. A interpretação visual pode, até certo
ponto, dispensar tais instrumentos.

Conclusão

Para minimizar as desvantagens da interpretação visual, a prática aconselha-nos a combiná-la com


as técnicas de interpretação digital, nos aspectos em que esta tem vantagens, de modo a se obter
melhor resultado nas aplicações particulares que a ela melhor se ajustam.

As técnicas de interpretação visual e digital são complementares por natureza !

Manual de Teledetecção – Fascículo II 100


4 - Produção de Cartas

4.1 Definições

Não existe uma diferença rígida entre os conceitos de mapa e carta. É, portanto, difícil
estabelecer uma separação definitiva entre o significados dessas duas designações. A palavra
mapa teve origem na Idade Média, quando era empregue exclusivamente para designar as
representações terrestres. Depois do século XIV, os mapas marítimos passaram a ser
denominadas cartas, como, por exemplo, as chamadas “cartas de marear” dos Portugueses.

Posteriormente, o uso da palavra carta generalizou-se e passou a designar não só as cartas


marítimas, mas também, uma série de outras modalidades de representação da superfície da
Terra, causando uma certa confusão.

Neste texto, a distinção entre mapa e carta é um tanto convencional e subordinada à ideia da
escala, notando-se, entretanto, certa preferência pelo uso da palavra mapa. Na realidade, o mapa
é apenas uma representação ilustrativa e pode perfeitamente incluir o caso particular da carta,
dentre os povos de língua inglesa. Entretanto, entre os engenheiros cartógrafos brasileiros
observa-se o contrário, isto é, o predomínio do emprego da palavra carta. Apesar dessas
diferenças, quase todos concordam com as definições formais existentes:

Mapa é a representação gráfica simples e generalizada de uma superfície plana, geralmente numa
escala pequena, com a representação de acidentes físicos e culturais da superfície da Terra, de
um planeta ou satélite. Exemplos: mapa de Moçambique (escala 1:5.000.000 ou menor), mapa de
África e mapa-múndi.

Carta é a representação mais detalhada dos aspectos naturais e artificiais da Terra, destinada a
fins práticos da actividade humana, permitindo a avaliação precisa de distâncias, direcções e a
localização plana, geralmente em média ou grande escala. Exemplos: cartas topográficas, cartas
cadastrais ou urbanas (escalas de 1:500 a 1:10.000) e cartas de navegação marítima e aérea
(cartas náuticas e cartas aeronáuticas).

Folha é resultado da subdivisão de uma carta, de forma sistemática, com corte e formato
estabelecido por um plano nacional ou internacional.

Planta é a representação cartográfica plana de uma área de extensão pequena, de modo que a
curvatura da Terra não seja considerada e, por conseguinte, a escala possa ser constante.

Manual de Teledetecção – Fascículo II 101


Por conveniência, consideraremos aqui os dois termos (mapa e carta), para nos referirmos a
qualquer produto cartográfico que tenha por finalidade a eficiente apresentação de uma grande
quantidade de informação sobre os objectos e seu relacionamento espacial.

Consideraremos, ainda, como mapa temático aquele que apresenta informações de variações
espaciais de um único fenómeno (exemplo: ocorrência de erosão) ou relacionamento entre
fenómenos (exemplo: diferentes classes de uso e cobertura da terra).

4.2 Classificação de cartas em Moçambique

De acordo com a escala, as cartas regulares produzidas em Moçambique, podem ser:

Cartas cadastrais : quando se destinam à representação de pequenas áreas, cidades, bairros,


machambas, complexos residenciais, etc., porém com elevado grau de detalhe e de precisão. É o
caso de plantas urbanas, de grande utilidade para as autoridades governamentais na
administração (cadastro de terras) e planeamento urbano. São cartas de grande escala, até
1:25.000 mas, normalmente, de 1:500 até 1:10.000.

Cartas topográficas: quando mostram a características ou os elementos naturais e artificiais da


paisagem de uma certa região ou parte desta, com um certo grau de precisão ou de detalhe.
Podem mostrar o relevo, acidentes naturais, obras realizadas pelo homem, etc. A escala varia,
normalmente, de 1:25.000 a 1:250.000.

Cartas geográficas: Quando mostram as características ou elementos geográficos gerais de uma


ou mais regiões, país ou continente ou mesmo do mundo, o que exige o emprego de escalas
pequenas, 1:250.000 e menores mas, normalmente, 1:500.000 a 1:2.000.000.

De acordo com a finalidade ou tipo de utilizador, os mapas produzidos em Moçambique podem ser:

Gerais: Quando se destinam ao público em geral, isto é, quando atendem aos diversos tipos de
utilizadores. Geralmente são mapas de pequena escala. Por exemplo: mapas de grandes regiões, de
países, de continentes e mapas-múndi.

Especiais: Quando se destinam a determinadas pessoas ou grupos (profissionais), isto é, são


mapas mais específicos ou técnicos e geralmente de grande escala. Por exemplo: mapas políticos,
económicos, científicos, cartas náuticas, cartas aéreas e cartas cadastrais.

Temáticos: Quando se destinam ao estudo, análise e pesquisa de determinados temas como Uso
da Terra, Cobertura Vegetal, Geologia, Pedologia, Demografia etc.

Manual de Teledetecção – Fascículo II 102


4.3 Confecção das Cartas

Cartografia

O desenvolvimento da cartografia moderna decorreu principalmente das grandes navegações


oceânicas (séculos XV e XVI) e em particular da contribuição dada pela Escola de Sagres
(formação de pilotos e cartógrafos, aperfeiçoamento das caravelas, do astrolábio e das cartas de
navegação). Entretanto o impulso definitivo ao desenvolvimento da Cartografia deu-se a partir de
1569, com a criação da famosa projecção cilíndrica de Mercator.

A cartografia tem por finalidade básica a elaboração de cartas ou mapas a partir de um conjunto
de operações científicas, técnicas e artísticas. As cartas ou mapas, por sua vez, nada mais são do
que superfícies planas onde a terra se acha total ou parcialmente representada.

Aerofotogrametria ou Fotografia Aérea

As diversas vantagens oferecidas pela aerofotogrametria, tais como boa orientação espacial,
facilidade de interpretação e elevado nível de precisão e rapidez, explicam o largo uso da
fotografia aérea em todo o mundo. No caso da cartografia, o seu emprego é fundamental, pois
quase toda a produção cartográfica utiliza os seus recursos.

A fotografia aérea oferece também, através da foto-interpretação, um amplo campo de trabalho


a diversos profissionais, como urbanistas, geólogos, geógrafos e outros.

O princípio da Aerofotogrametria

O princípio usado pela aerofotogrametria pode ser descrito assim, resumidamente:

1º) De um avião devidamente equipado e mediante condições de tempo apropriadas, são feitas, ao
longo de uma linha (recta) de voo, sucessivas exposições fotográficas de uma extremidade a
outra da área, até cobri-la totalmente.

2º) Ao longo de cada faixa ou linha de voo, as exposições são feitas de tal modo que, entre duas
fotos sucessivas, haja uma sobreposição de aproximadamente 60%, ou seja, a primeira e a
segunda fotos cubram uma área comum de 60%.

3º) Colocadas todas as fotos uma ao lado da outra e obedecendo-se à orientação correcta (linhas
de voo, sobreposição etc.), teremos uma visão total da área. Para obtermos a visão tridimensional,
recorremos ao estereoscópio, um instrumento óptico binocular que permite ver as imagens em
terceira dimensão (em relevo).

Manual de Teledetecção – Fascículo II 103


CAD e SIG

O CAD (Computer Aided Design) e o SIG (Sistemas de Informação Geográfica) são recursos
tecnológicos recentes que se tornaram mais disponíveis aos utilizadores somente nestes últimos
10 anos, graças à evolução dos computadores e seus periféricos. A sua expansão e o seu sucesso
são, também, atribuídos à queda nos preços de hardware e à variedade de software existentes
actualmente no mercado. Tanto o CAD como o SIG exigem máquinas cada vez melhores e,
portanto, a competição existente entre os fabricantes de hardware tem sido benéfica aos
utilizadores de ambas as tecnologias. Pela novidade tecnológica peculiar a ambos, torna-se
obscura a diferença existente entre eles. Basicamente, a diferença fundamental entre um
software de CAD e outro de SIG, reside na densidade de dados que cada um utiliza para a
realização das suas tarefas. Normalmente um SIG utiliza muito mais dados que um CAD.

Um CAD normalmente é usado para desenhos de carácter técnico, desde projectos de aviões até
projectos de minúsculos circuitos integrados. Um software tradicional de CAD como o AutoCAD
(CAD da Autodesk, Inc.) é projectado para ser de propósito geral e, portanto, pode até ser usado
para a geração de cartas. Quando utilizado com este propósito, um CAD não oferece muitas
facilidades. Podemos considerar que a diferença fundamental entre o gerador de cartas e o CAD
baseia-se na capacidade especializada que o gerador de cartas tem para elaboração de cartas.

Outra diferença é que os SIG’s, além de realizarem operações com dados vectoriais, também
realizam operações com dados matriciais (raster), enquanto que os CAD’s, normalmente se
limitam a trabalhar com dados vectoriais.

Cartografia Sistemática versus Cartografia Temática

As discussões sobre os novos rumos da Cartografia e o desenvolvimento de novas tecnologias


culminaram em 1991, numa nova definição de Cartografia, pela Associação Cartográfica
Internacional, na qual ela passou a ser considerada como a disciplina que trata da concepção,
produção, disseminação e estudo de mapas. De forma muito sucinta, esta definição coloca a
Cartografia como uma disciplina. A mesma que foi definida no início do século XX como ciência e
arte, nos anos noventa não é mais ciência e nem arte; é uma disciplina.

No entanto, a mudança de definições não provocou alterações significativas no modo de pensar


dos cartógrafos. O dualismo ainda persiste, principalmente quanto à arte e ciência, ciência e
técnica e revela diferenças que formam opiniões diversas. Entre as várias definições existentes,
podem-se destacar as seguintes:

Manual de Teledetecção – Fascículo II 104


‘ a ciência e a técnica de representações de dados espaciais, incluindo as instruções de como
utilizar tais representações cada vez mais transformadas espacialmente, considerando-se os
sistemas de informação geográfica’ [Fritsch (1990)].

‘é a arte de conceber, de levantar, de redigir e de divulgar os mapas’ [Joly (1990)] .

‘é a disciplina que trata da organização, apresentação, comunicação e utilização da geo-


informação nas formas gráfica, digital ou táctil incluindo todos os processos, desde o tratamento
dos dados até o uso final na criação de mapas e produtos relacionados com a informação espacial‘
[Taylor (1994)] .

É interessante observar que apesar dos autores apresentados pertencerem a um mesmo momento
histórico de desenvolvimento da Cartografia, apresentaram definições totalmente diferenciadas.
As concepções apresentadas sobre a definição de Cartografia retractam sobretudo posturas
teóricas e metodológicas diferentes. Verifica-se ao longo do tempo - principalmente nos últimos
anos sob a influência de novos recursos tecnológicos - que o conceito passou a considerar a
possibilidade de elaboração dos mapas e de outros documentos cartográficos, não somente na
forma analógica, mas também digital. Isto deu origem à utilização de uma nova linguagem como
computação gráfica, cartografia automatizada ou cartografia digital.

No entanto, os princípios básicos da Cartografia permanecem válidos e a sua divisão em dois


domínios - sistemática e temática, continua válida.

O domínio da cartografia sistemática é bem definido pois por razões históricas, continua ‘a
ciência responsável pela representação genérica da superfície tridimensional da Terra no plano’.

Utiliza convenções e escalas padrão, contemplando a execução dos mapeamentos básicos que
buscam o equilíbrio da representação altimétrica e planimétrica dos acidentes naturais e
culturais, visando a melhor percepção das feições gerais da superfície representada. A sua
preocupação central está na localização precisa dos fatos, na implantação e manutenção das
redes de apoio geodésico, na execução das coberturas aerofotogramétricas e na elaboração e
actualização dos mapeamentos básicos.

A discussão sobre a definição e o domínio da cartografia temática é relativamente longa e teve


início por volta dos anos trinta. Quanto à terminologia, o assunto é polémico, pois o que é tema
para um determinado campo do conhecimento científico, pode não ser para outro. Além disso, os
procedimentos de levantamento, redacção e comunicação também são diferentes, bem como a
formação e especialização dos cartógrafos.

Manual de Teledetecção – Fascículo II 105


A cartografia temática aborda a Cartografia como um instrumento de expressão dos resultados
adquiridos pela Geografia e pelas demais ciências que têm necessidade de se expressar na forma
gráfica. A cartografia temática tem como preocupação básica a elaboração e o uso dos
mapeamentos temáticos, abrangendo a colecta, a análise, a interpretação e a representação das
informações sobre uma carta base. Importa-se mais com o conteúdo que vai ser representado no
mapa do que com a precisão dos contornos ou da rede de paralelos e meridianos. Os temas
analíticos podem ser obtidos por correlação entre vários temas elementares ou entre séries
estatísticas. São representados a partir da utilização da técnica mais conveniente, com o
objectivo de ter a melhor visualização, incluindo, além de mapas, outras formas de representação
como gráficos, blocos diagramas e croquis.

Cartografia sistemática Cartografia temática


Mapas topográficos com a representação do Mapas temáticos que representam qualquer tema
terreno
Atendem uma ampla diversidade de propósitos Atendem utilizadores específicos
Podem ser utilizados por muito tempo Geralmente os dados são superados com rapidez
Não requerem conhecimento específico para Requerem conhecimento específico para sua
sua compreensão. Leitura simples compreensão. Interpretação complexa.
Elaborados por pessoas especializadas em Geralmente elaborados por pessoas não
cartografia especializadas em cartografia.
Utilizam cores de acordo com a convenção Utilizam cores de acordo com as relações entre os
estabelecida para mapas topográficos dados que apresentam
Uso generalizado de palavras e números para Uso de símbolos gráficos, especialmente
mostrar os fatos escolhidos para facilitar a compreensão de
diferenças quantitativas e qualitativas
Sempre servem de base para outras Raramente servem de base para outras
representações. representações.

Tabela 1: Cartografia sistemática versus temática [Sanchez, 1981]

Actualmente, por se considerar que a cartografia temática está muito mais ligada à Geografia do
que a cartografia sistemática, apesar de não ser dela exclusiva, é reconhecida como a Cartografia
da Geografia. Tendo em conta os diferentes tipos de mapas temáticos que representam um
mesmo território, parece legítimo, considerá-los como objectos geográficos.

4.4 Aspectos a Considerar na Edição de uma Carta

4.4.1 Título

O Título descreve o propósito da carta e portanto deve estar em local de destaque.

Manual de Teledetecção – Fascículo II 106


4.4.2 Escala

A escolha da escala deve-se fazer em função das informações que se pretende representar. A
escala correcta depende da resolução dos dados originais, bem como do nível de detalhe que se
deseja incluir na carta.

A escala deve estar localizada em uma posição de destaque na carta. Pode-se representá-la em
escala fraccionária (ex. escala 1:250.000) ou gráfica.
A escala gráfica é um segmento de recta dividido de modo a permitir a medida de distâncias na
carta. Este tipo de escala permite visualizar, de modo facilmente utilizável, as dimensões dos
objectos figurados na carta. O exemplo a seguir indica a distância na carta, equivalente a 3 Km:

O uso da escala gráfica tem vantagens sobre o outro tipo, porque é reduzida ou ampliada
juntamente com a carta, através de métodos fotográficos ou copiadoras, podendo-se sempre
saber a escala do documento com o qual trabalhamos.
Normalmente, as escalas são classificadas em função do tema representado. A tabela abaixo
mostra uma classificação geral das escalas em função do tamanho e da representação.

Tamanho Representação Escala Aplicações


Plantas Cadastrais,
Levantamentos
Escala Grande Escala de Detalhe até 1:25.000
de detalhes ou planos
topográficos
1:25:0000 até
Escala Média Escala de Semi-detalhe Cartas topográficas
1:250.000
Escala de síntese ou de 1:250.000
Escala Pequena Mapas gerais
Reconhecimento e menores.

4.4.3 Legenda
A legenda é uma classe que liga os atributos não-espaciais a entidades espaciais. Os atributos
não-espaciais podem ser indicados visualmente por cores, símbolos ou sombreados, da maneira
como é definida na legenda.

4.4.4 Localização e sistema de coordenadas

Uma carta é tanto mais confiável, quanto mais o objecto está confrontado com o espaço que o
contém. É por isso que cada carta deve trazer um sistema de coordenadas. Quando se dispõe de
um sistemas de coordenadas como referência, pode-se definir a localização de qualquer ponto na
superfície terrestre. Um objecto geográfico qualquer, como uma cidade, a foz de um rio, ou o

Manual de Teledetecção – Fascículo II 107


pico de uma montanha, somente poderá ser localizado se for possível descrevê-lo em relação a
outros objectos com posições conhecidas. Normalmente, utiliza-se a rede de coordenadas
geográficas ou planas.

• Sistema de Coordenadas Geográficas

É o sistema de coordenadas mais antigo. Nele, cada ponto da superfície terrestre localiza-se na
intersecção de um meridiano com um paralelo.

Meridianos são círculos máximos da esfera, cujos planos contêm o eixo


de rotação ou eixo dos pólos. Meridiano de origem (também conhecido
como inicial ou fundamental) é aquele que passa pelo antigo
observatório britânico de Greenwich, escolhido convencionalmente
como a origem (0°) das longitudes sobre a superfície terrestre e como
base para a contagem dos fusos horários. A leste de Greenwich os meridianos são medidos por
valores crescentes até + 180°. A oeste, as suas medidas são decrescentes até o limite mínimo de
- 180°.

Os paralelos são círculos da esfera cujo plano é perpendicular ao eixo


dos pólos. O Equador é o paralelo que divide a Terra em dois
hemisférios (Norte e Sul) e é considerado como o paralelo de origem
(0°). Partindo do equador em direcção aos pólos tem-se vários planos
paralelos ao equador , cujos tamanhos vão diminuindo até se tornarem
um ponto nos pólos Norte (+90°) e Sul (-90°).

Representa-se um ponto na superfície terrestre


por um valor de latitude e longitude. Longitude de
um lugar é a distância angular entre um ponto
qualquer da superfície terrestre e o meridiano
inicial ou de origem.

Latitude é a distância angular entre um ponto qualquer da


superfície terrestre e a linha do Equador. Por exemplo,
Maputo, situa-se a sul do Equador e a este de Greenwich,
tendo latitude negativa e a longitude positiva.

Como a latitude e a longitude são ângulos, as suas medidas

Manual de Teledetecção – Fascículo II 108


são tradicionalmente representadas em graus, minutos e segundos. Então, as coordenadas
geográficas de Maputo são:

• S -25° 57' 13.3": latitude sul


• E 32° 35' 22.4": longitude este

Por ser um sistema que considera desvios angulares a partir do centro da Terra, o sistema de
coordenadas geográficas não é um sistema conveniente para aplicações onde se trabalha com
distâncias ou áreas. Para esses casos, recomenda-se o uso de um sistema de coordenadas mais
adequado, como, por exemplo, o sistema de coordenadas planas, descrito a seguir.

• Sistema de Coordenadas Planas


O sistema de coordenadas planas, também conhecido por sistema de coordenadas cartesianas,
baseia-se na escolha de dois eixos perpendiculares, normalmente os eixos horizontal e vertical,
cuja intersecção é denominada origem, estabelecida como base para a localização de qualquer
ponto do plano. A origem normalmente tem coordenadas planas (0, 0), mas pode, por convenção,
receber valores diferentes, denominados offsets. Assim, pode-se ter a origem com coordenadas
(offset_x, offset_y).

Neste sistema de coordenadas, um ponto é representado por dois números: um correspondente à


projecção sobre o eixo x (horizontal), normalmente associado à longitude, e outro
correspondente à projecção sobre o eixo y (vertical),
normalmente associado à latitude.

Os valores de x e y são referenciados conforme um sistema


cartesiano, que representa, como exemplo, as coordenadas
de Maputo.

onde : x = 458 906.6 m e y = 7 129 542.2 m (Zona: 36 MC: 33)

Num SIG as coordenadas planas normalmente representam uma projecção cartográfica e,


portanto, estão matematicamente relacionadas com as coordenadas geográficas, de maneira que
umas podem ser convertidas nas outras.

4.4.5 Projecção cartográfica

As cartas são representações aproximadas da superfície terrestre. São aproximadas porque a


Terra, esférica, é desenhada em uma superfície plana.

Manual de Teledetecção – Fascículo II 109


A elaboração de uma carta consiste em um método segundo o qual se faz corresponder a cada
ponto da Terra, em coordenadas geográficas, um ponto no mapa, em coordenadas planas. Para se
obter essa correspondência utilizam-se os sistemas de projecção cartográfica.

Existem diferentes projecções cartográficas, uma vez que há uma variedade de modos de
projectar sobre um plano os objectos geográficos que caracterizam a superfície terrestre.
Analisam-se os sistemas de projecção cartográfica pelo tipo de superfície adoptada e grau de
deformação. Quanto ao tipo de superfície de projecção adoptada, classificam-se em: planas ou
azimutais, cilíndricas e cónicas, segundo se represente a superfície curva da Terra sobre um
plano, um cilindro ou um cone tangente ou secante à esfera terrestre.

A projecção, por sua vez, é controlada por símbolos usados para representar linhas costeiras,
meridianos e paralelos, divisões políticas e traços que ajudam o utilizador como referencial para a
localização. Porém, a respeito desta interdependência, o produtor de mapas tem uma liberdade
considerável na escolha de uma projecção, de uma escala e de um jogo de símbolos. Cada um
destes três atributos requer uma decisão separada. E ainda mais, cada decisão, se não for bem
feita, poderá causar um menor uso do mapa.

Classificação das projecções

a) Projecção plana ou azimutal

Constrói-se o mapa imaginando-o situado num plano tangente ou secante a um


ponto na superfície da Terra.

Exemplo: Projecção Stereográfica Polar.

b) Projecção cónica

Obtém-se o mapa imaginando-o desenhado num cone que envolve a esfera


terrestre. O cone é, em seguida, desenrolado sobre um plano. As projecções
cónicas podem ser tangentes ou secantes. Em todas as projecções cónicas
normais os meridianos são rectas que convergem num ponto (que representa o
vértice do cone) e todos os paralelos são circunferências concêntricas a esse
ponto. Exemplo: Projecção Cónica de Lambert.

Manual de Teledetecção – Fascículo II 110


c) Projecção cilíndrica
Obtém-se o mapa imaginando-o desenhado num cilindro tangente ou secante à
superfície da Terra. O cilindro é depois desenrolado sobre um plano. Em todas as
projecções cilíndricas normais os meridianos e os paralelos são representados por
rectas perpendiculares.
Exemplo: Projecção de Mercator.
A seguir apresenta-se a comparação da representação de um quarto de hemisfério segundo três
diferentes sistemas de projecção.

Projecção Plana Projecção Cónica Projecção Cilíndrica

A superfície da Terra é uma superfície curva irregular, porém aproxima-se de um elipsóide. Pode-
se transformar o elipsóide numa esfera com a mesma superfície: constrói-se um globo terrestre.

Como a superfície da Terra é curva e irregular, é impossível fazer uma cópia plana dela sem a
desfigurar ou alterar. Nesse processo, poucas grandezas podem ser mantidas. Por isso, deve-se
escolher entre uma possível conservação dos ângulos, uma proporcionalidade das superfícies ou
um outro método que reduza os efeitos da deformação, levando em conta o que se pretende
analisar no mapa. Conceitua-se então o grau de deformação.

Quanto ao grau de deformação das superfícies representadas, classificam-se em:

• Conformes ou isogonais: mantêm fidelidade aos ângulos observados na superfície de


referência da Terra, o que significa que as formas de pequenas feições são mantidas. Isto,
porém, causa distorções nas áreas dos objectos representados no mapa. Ex.: Mercator.

• Equivalentes ou isométricas: conservam as relações de superfície (não há deformação de


área). Exemplos: Cónica de Albers, Azimutal de Lambert.

• Equidistantes: conservam a proporção entre as distâncias, em determinadas direcções, na


superfície representada. Exemplo: Cilíndrica Equidistante.

O utilizador deve seleccionar uma projecção cartográfica. A sua escolha deve basear-se na
precisão desejada, no impacto sobre o que se pretende analisar e no tipo de dados disponível.

Manual de Teledetecção – Fascículo II 111


Projecção UTM - Universal Transversa de Mercator

A cartografia sistemática de Moçambique é feita na projecção UTM, nas escalas de 1:250 000 e
1:50 000. Relacionam-se, a seguir, as suas principais características:
• a superfície de projecção é um cilindro transverso e a projecção é conforme;
• o meridiano central da região de interesse, o equador e os meridianos situados a 90o
do meridiano central são representados por rectas;
• os outros meridianos e os paralelos são curvas complexas;
• o meridiano central pode ser representado em verdadeira grandeza;
• a escala aumenta com a distância em relação ao meridiano central. A 90o deste, a
escala torna-se infinita;
• a Terra é dividida em 60 fusos ou zonas de 6o de longitude. O cilindro transversal
adoptado como superfície de projecção assume 60 posições diferentes, já que seu
eixo mantém-se sempre perpendicular ao meridiano central de cada fuso ou zona;
• aplica-se ao meridiano central de cada fuso ou zona um factor de redução de escala
igual a 0,9996, para minimizar as variações de escala dentro do fuso ou zona. Como
consequência, existem duas linhas aproximadamente rectas, uma a leste e outra a
oeste, distantes cerca de 1o 37' do meridiano central, representadas em verdadeira
grandeza;

Apesar da característica "universal" da projecção, enfatiza-se que o elipsóide de referência varia


em função da região da superfície terrestre.

Nota: Os meridianos (norte geográfico) coincidem com as linhas verticais das quadrículas (norte
da quadrícula) da projecção UTM, apenas nos meridianos centrais. Com o aumento da longitude e
da latitude, ocorre o aumento do ângulo formado entre os meridianos e as linhas verticais da
quadrícula (convergência meridiana).

4.4.6 Datum

Para caracterizar um datum utiliza-se uma superfície de referência posicionada em relação à


Terra real. Trata-se, portanto, de um modelo matemático que substitui a Terra real nas
aplicações cartográficas.

Um datum planimétrico ou horizontal é estabelecido a partir da latitude e da longitude de um


ponto inicial, do azimute de uma linha que parte deste ponto e de duas constantes necessárias
para definir o elipsóide de referência. Assim, forma-se a base para o cálculo dos levantamentos
de controle horizontal.

Existe também o datum vertical, que se refere às altitudes medidas na superfície terrestre.

Manual de Teledetecção – Fascículo II 112


4.4.6.1 Datum Usado em Moçambique

Os mapas mais antigos de Moçambique adoptavam 3 datum-geodésicos clássicos “Madsanzua”,


“Tete” e “Observatório”. Mais recentemente, o datum planimétrico “Tete” passou a ser utilizado
como referência única. Modernamente, com o advento das medições GPS, tem sido comum o
emprego do datum planimétrico global, o WGS-84.

Estes 3 datum-geodésicos clássicos de Moçambique, são todos referidos ao Elipsóide de Clarke


1866 onde a = 6,378,206.4 metros e 1/f = 294.9786982. O Elipsóide de Clarke era um dos mais
favoritos dos Portugueses em África. Ele também foi utilizado em Angola.

O Datum mais antigo é o Madzansua, datado de 1904, com a sua origem no ponto MGM 2 (próximo
da vila do Zumbo), com as seguintes coordenadas:

Latitude = - 15° 35' 20.7" S


Longitude = 30° 28' 09.3" E
Ho = 1010.9 metros
Na literatura Ocidental o Datum de Moçambique classicamente mais referido é o “Observatório”,
datado de 1907, com a sua origem no ponto MGM 650 (próximo da cidade de Maputo), com as
seguintes coordenadas:

Latitude = - 25° 58' 06.99" S


Longitude = 32° 35' 37.75" E

O Azimute de referência neste é desconhecido.

Este Datum que surpreendentemente não foi muito utilizado, pouco mais serviu do que para a
elaboração da cartografia sistemática 1: 50 000 antes de 1971 (Zona Sul do País até Moebase).
A sua particularidade é a de estar ligado ao Datum do Cabo (África do Sul), através das estações
de M'Ponduíne e Ypoy (MGM 675) e da Triangulação do Transvaal. Estes dois antigos Datum
foram estabelecidos pelo capitão Gago Coutinho (mais tarde Almirante).

O Datum geodésico horizontal mais clássico e mais importante é sem dúvida o Datum “Tete”,
datado de 1960, com a sua origem na estação NW da Base Tete (MGM 799), com as seguintes
coordenadas:

Latitude = - 16° 09' 03.058" S


Longitude = 33° 33' 51.300" E

O Azimute de referencia para a estação Caloeira (MGM 40), é:

Azo = 355° 50' 21.07" contado a partir do Sul, e


Ho = 132.63 metros

Manual de Teledetecção – Fascículo II 113


No Datum “Tete” as coordenadas astronómicas são iguais às coordenadas geodésicas (o que
significa que a normal gravimétrica e a normal local são coincidentes), mas de acordo com cálculos
efectuados em 1974 pelo Instituto de Investigação Cientifica e Tropical, em Lisboa, suspeita-se
que existem desvios da vertical neste ponto escolhido para o Datum “Tete”. Com efeito, a Norte
e a NW do Datum “Tete”, existem efeitos anómalos de forças devidos à existência de densos
depósitos de minério de ferro enquanto que na zona Sul e SE a densidade é menor. Se esta
hipótese for verdadeira, então as coordenadas deste Datum necessitam de ser corrigidas.

4.4.6.2 O Novo Datum Geodésico de Moçambique - MOZNET/ITRF94

Em 1995, foi efectuado pela Direcção Nacional de Geografia e Cadastro (DINAGECA) e pela
Norway Mapping um reajustamento de toda a rede geodésica de Moçambique.

Este trabalho ficou concluído em Janeiro de 1998 e o seu resultado foi um ajustamento bi-
dimensional de 759 pontos da triangulação geodésica fundamental, baseado em 32 pontos
previamente seleccionados em todo o País, o que deu origem a um novo Datum designado
MOZNET/ITRF94, compatível com o Datum WGS84.

Para a sua utilidade prática, foram desenvolvidos modelos de transformação Bursa-Wolf com 7
parâmetros, mas o modelo nacional ainda contém erros residuais que podem atingir os 30 metros
em certas zonas do País.

Para minimizar este problema, foram desenvolvidos também 4 modelos regionais (D - Zona Norte,
C - Zona Centro, B - Zona Quase Sul, A - Zona Sul) com precisão que varia entre 1 a 10 metros,
dependendo da região.

Segundo o Professor Clifford J. Mugnier, da Louisiana State University, Moçambique parece ser
um país ideal para o desenvolvimento de um modelo de equações de regressão múltipla para
obtenção de um modelo único de deslocação do Datum nacional. Para ele, provavelmente uma
solução do tipo "NADCON" seria a melhor.

As coordenadas ajustadas dos Datum antigos no novo Datum MOZNET 98 (compatível com o
datum planimétrico global WGS-84) são:

Datum Observatório (MGM 650):

Latitude = - 25° 58' 12.7520" S


Longitude = 32° 35' 38.4687" E

Manual de Teledetecção – Fascículo II 114


Datum Tete na Base Tete NW (MGM 799):
Latitude = - 16° 09' 07.0480" S
Longitude = 33° 33' 49.7778" E

MODELOS DE TRANSFORMAÇÃO de COORDENADAS

Na transformação de coordenadas dos antigos Datum para o novo Datum de Moçambique, existem
os seguintes procedimentos (Fonte: http://www.posc.org/technical/specific222.html e DINAGECA):

MODELO GERAL

TETE PARA MOZNET (1)

Parâmetros e valores:
1.x-axis translation: -115.06 m (length metres only)
2.y-axis translation: -87.39 m (length metres only)
3.z-axis translation: -101.71 m (length metres only)
4.x-axis rotation: 0.05 seca (plane angle)
5.y-axis rotation: -4.00 seca (plane angle)
6.z-axis rotation: 2.06 seca (plane angle)
7.scale difference: 9.36 ppm (factor)
Nota: Média dos resíduos de 32 estações (erros até 30 metros). Para reduzir o tamanho dos
erros residuais foram calculados 4 modelos regionais (ver mais abaixo).

MOZNET PARA WGS 84 (1)

Parâmetros e valores:
1.x-axis translation: 0.00 m (length metres only)
2.y-axis translation: 0.00 m (length metres only)
3.z-axis translation: 0.00 m (length metres only)
4.x-axis rotation: 0.00 seca (plane angle)
5.y-axis rotation: 0.00 seca (plane angle)
6.z-axis rotation: 0.00 seca (plane angle)
7.scale difference: 0.00 ppm (factor)
Nota: Precisão melhor do que 1 metro.

MODELOS REGIONAIS

TETE PARA MOZNET (2)

Zona Sul, abaixo dos 24ºS, aproximadamente (Província de Maputo e Sul da Província de Gaza).
Parâmetros e valores:
1.x-axis translation: -82.87 m (length metres only)
2.y-axis translation: -57.09 m (length metres only)
3.z-axis translation: -156.76 m (length metres only)
4.x-axis rotation: 2.15 seca (plane angle)
5.y-axis rotation: -1.52 seca (plane angle)
6.z-axis rotation: 0.98 seca (plane angle)

Manual de Teledetecção – Fascículo II 115


7.scale difference: -0.35 ppm (factor)
Nota: Média de 9 estações os erros residuais são geralmente abaixo de 1 metro.

TETE PARA MOZNET (3)

Zona Sul e Centro, entre 24ºS e 20ºS, aproximadamente (Províncias de Gaza, Inhambane e parte
Sul das Províncias de Sofala e Manica).
Parâmetros e valores:
1.x-axis translation: -138.52 m (length metres only)
2.y-axis translation: -91.99 m (length metres only)
3.z-axis translation: -114.59 m (length metres only)
4.x-axis rotation: 0.14 seca (plane angle)
5.y-axis rotation: -3.36 seca (plane angle)
6.z-axis rotation: 2.21 seca (plane angle)
7.scale difference: 11.74 ppm (factor)
Nota: Média de 6 estações; os erros residuais são geralmente abaixo de 4 metros.

TETE PARA MOZNET (4)

Zona Centro, entre 20ºS e 16ºS, aproximadamente (Províncias de Sofala a norte do Corredor da
Beira, Províncias de Manica, Tete e Zambézia).
Parâmetros e valores:
1.x-axis translation: -73.47 m (length metres only)
2.y-axis translation: -51.66 m (length metres only)
3.z-axis translation: -112.48 m (length metres only)
4.x-axis rotation: -0.95 seca (plane angle)
5.y-axis rotation: -4.60 seca (plane angle)
6.z-axis rotation: 2.36 seca (plane angle)
7.scale difference: 0.58 ppm (factor)
Nota: Média de 11 estações; os erros residuais são geralmente abaixo de 3 metros.

TETE PARA MOZNET (5)

Zona Norte, a norte de 16ºS (províncias de Nampula, Niassa e Cabo Delgado)


Parâmetros e valores:
1.x-axis translation: 219.31 m (length metres only)
2.y-axis translation: 168.97 m (length metres only)
3.z-axis translation: -166.14 m (length metres only)
4.x-axis rotation: -0.19 seca (plane angle)
5.y-axis rotation: -5.92 seca (plane angle)
6.z-axis rotation: 2.35 seca (plane angle)
7.scale difference: -57.10 ppm (factor)
Nota: Média de 7 estações; os erros residuais são entre 5-10 metros.

Manual de Teledetecção – Fascículo II 116


4.4.7 Modelos de Elipsóide

Para fins práticos, aproxima-se a Terra a um elipsóide de revolução. Elipsóide de revolução é um


sólido gerado pela rotação de uma elipse em torno do eixo dos pólos (eixo menor).

Estudos geodésicos apresentam valores levemente diferentes para os elementos do elipsóide,


medidos nos vários pontos da Terra. Assim, cada região deve adoptar como referência o elipsóide
mais indicado. Em Moçambique adoptou-se o elipsóide de Clarke, cujas dimensões foram
consideradas as mais convenientes. Actualmente, no entanto, utiliza-se também o elipsóide WGS-
84 (WGS-84 = World Geodetic System - 1984).

A tabela a seguir ilustra os parâmetros dos dois elipsóides.

Elipsóide a = eixo semi-maior b = eixo semi-menor f = achatamento = (a-b)/a


CLARKE 1866 6.378.206,40 6.356.583,80 1/294.978698
WGS-84 6.378.137,00 6.356.752,314 1/298.257223563

Paralelo Padrão ou Latitude Reduzida

É aquele onde as deformações são nulas, isto é, a escala é verdadeira. A partir desse paralelo, as
deformações vão aumentando progressivamente sobre os paralelos e sobre os meridianos, com
valores desiguais. Utiliza-se o paralelo padrão como linha de controle no cálculo de uma projecção
cartográfica.

O paralelo padrão pode ser único, como nas projecções cónicas que usam um cone tangente à
Terra. Se o cone for secante, serão dois os paralelos padrão, como na projecção cónica de Albers.

Longitude e Latitude de Origem

Qualquer sistema de projecção cartográfica tem uma origem e um par de eixos cartesianos, (X,Y)
ou (E,N), que são usados para representar as coordenadas planas da projecção. Para tanto, a
origem é definida na intersecção de um paralelo com um meridiano. A tangente ao meridiano na
origem define o eixo Y ou N e a tangente ao paralelo na origem define o eixo X ou E.

A definição de longitude de origem depende da projecção utilizada pelo utilizador.

• Na projecção UTM a longitude de origem corresponde ao meridiano central de um fuso ou


zona (a cada 6o define-se um fuso), ou seja, ao meridiano central de uma carta ao
milionésimo.

Manual de Teledetecção – Fascículo II 117


A figura a seguir apresenta a distribuição das cartas 1: 250.000 (1 folha cobre 1 grau x 1grau)
para Moçambique.

Para saber a longitude de origem, o utilizador deve localizar a área de interesse e verificar a que
fuso ou zona ela pertence. O meridiano central (33 ou 39 ou 42) corresponderá à longitude de
origem. Maputo, por exemplo, situada a -25o S e 32o E, encontra-se no fuso de 30o a 36o W. Logo,
a sua longitude de origem é 33o E.

Outra possibilidade é usar a equação MC = -183


+ 6Z, onde MC é o meridiano central e Z é um
número inteiro que representa a zona ou fuso
UTM.

A latitude de origem usualmente refere-se ao


paralelo mais próximo à região de interesse.

A Projecção Policônica, por exemplo, costuma


utilizar o equador como latitude de origem, mas
pode também usar um paralelo mais próximo à
região de interesse.

4.4.8 Equilíbrio e Lay-out

O equilíbrio no desenho visual de uma carta é dado pela posição dos componentes mostrados de
uma maneira lógica, de modo a chamar a atenção para o que se quer realçar. Num desenho bem
balanceado nada é muito claro ou escuro, curto ou longo, pequeno ou grande. O lay-out é o
processo de se chegar ao equilíbrio adequado. Devem ser feito com tantos ensaios quantos se
achar conveniente.

Manual de Teledetecção – Fascículo II 118


4.4.8.1 Contraste de padrões

Utilizam-se diferentes padrões para a representação de diferentes regiões na carta. Os padrões


podem ser compostos por linhas ou pontos ou combinações de ambos. Se para a representação de
áreas irregulares se utilizarem padrões de linhas que não variam muito de espaçamento e
direcção, a visualização dos contornos e a compreensão geral da carta torna-se difícil.
Representada por padrão de pontos é mais estável e seus contornos mais facilmente distintos.

4.4.8.2 Cor
A cor é a variável visual mais forte, facilmente perceptível e intensamente selectiva. É também a
mais delicada para manipular e a mais difícil de se utilizar. Dependendo da ênfase desejável para
um dado na carta, escolhe-se uma determinada cor. Algumas cores são mais perceptíveis que
outras. O olho humano é mais sensível ao vermelho, seguido pelo verde, amarelo, azul e púrpura.
Exemplos: as estradas são representadas em vermelho, os rios e mares em azul, a florestas em
verde; nas cartas climáticas as áreas tropicais em vermelho e as regiões de clima seco, em
amarelo. Alguns países possuem normas estandardizadas para a representação a cores.

4.4.8.3 Claridade e legibilidade

A claridade e legibilidade é uma qualidade da carta em cuja informação procurada pode ser
facilmente encontrada, diferenciada entre outras e memorizada sem esforço. A legibilidade pode
ser obtida pela escolha apropriada de linhas, formas e cores e pela sua delineação precisa e
correcta. As linhas devem ser claras, finas e uniformes. Cores, padrões e sombreamento devem
ser facilmente distinguíveis e correctamente registados. As formas dos símbolos utilizados não
devem ser confusas. Deve-se tentar separar as manchas e símbolos significativos do tema
tratado, daqueles do mapa base, evitando que uma densidade gráfica muito grande torne a leitura
confusa e complicada numa carta mal distribuída.

4.4.8.4 Generalização

Nem sempre uma carta com muitos detalhes e grande número de informações significa
tecnicamente boa. Um bom cartógrafo deve saber generalizar e “generalização significa
distinguir entre o essencial e o não essencial, conservando-se o útil e abandonando-se o
dispensável. É a qualidade imprescindível na representação cartográfica, pois dela dependerá a
simplicidade, clareza e objectividade do mapa, através da selecção correcta dos elementos que a
compõe. Isso não significa eliminar detalhes, mas omitir detalhes sem valor” [Santos (1989)].
Evidentemente, a generalização tem relação directa com a escolha da escala e “o cartógrafo que
sabe generalizar correctamente, justifica melhor a escolha duma escala menor do que o que, por
falta de habilidade, procura, geralmente apresentar demasiados detalhes pelo receio de omitir
algum que seja essencial” [Deets (1949)].

Manual de Teledetecção – Fascículo II 119


Ao gerar cartas, será responsabilidade do utilizador escolher os dados, a sua escala e os
elementos de cartografia para a edição. Fazendo uma analogia com um processador de textos,
isto significa que a fonte de caracteres, o texto e as figuras, devem ser escolhidos e definidos
pelo utilizador, pelo que, a apresentação final dependerá muito da sua experiência e habilidade.

4.4.9 Apresentação da Carta

Exemplo:

Fig. 71 - Apresentação de uma carta

4.4.10 Impressão da carta

A impressão de uma carta ou mapa pode ser feita numa impressora ou plotter. Actualmente,
estão disponíveis no mercado impressoras ou plotters com alta qualidade e grande capacidade de
tiragem. Para baixar os custos, pode-se recorre à impressão offset para grandes quantidades de
reprodução, principalmente em formato vector.

O papel utilizado para a impressão de uma carta ou mapa é de tipo variável (plain, coated, heavy
coated, matte, bond, bright white, Hi-gloss, Hi-gloss photo, etc.) e com dimensões em formato-
padrão (ISO ou outro). O formato básico é o A0, do qual derivam os demais. A tabela a seguir

Manual de Teledetecção – Fascículo II 120


apresenta os formatos mais usados na Convenção ISO, considerando a linha da margem externa,
que é a indicação do corte do papel.

Formato Altura Comprimento


A0 841 mm 1189 mm
A1 594 mm 841 mm
A2 420 mm 594 mm
A3 297 mm 420 mm
A4 210 mm 297 mm

4.5 Precisão Cartográfica e Exactidão de Mapeamento

As imagens satélite são retratos fiéis da superfície terrestre. Os mapas, por sua vez, derivados
ou não das imagens satélite, são representações, numa superfície plana, de todo ou de uma parte
da superfície terrestre, de forma parcial e através de símbolos. A realidade nos mapas é
representada de forma reduzida e seleccionada.

A principal finalidade dos mapas é representar e localizar áreas, objectos e fenómenos,


facilitando-nos a sua orientação no espaço e aumentando o nosso conhecimento sobre eles.

Na cartografia sistemática, a definição de carta como “a representação mais detalhada dos


aspectos naturais e artificiais da Terra”, chama a atenção para diferença entre precisão
cartográfica e conteúdo cartográfico. A precisão cartográfica depende das normas de posição
planimétrica e altimétrica que determinam onde cada acidente está localizado na carta. Desta
forma, ela reflecte o controle aplicado na confecção de mapas e cartas e não depende da
qualidade de detalhes do mapa, o que faz parte do conteúdo. O conteúdo está altamente
condicionado pela escala e pela época da confecção. Uma carta topográfica com apenas três
pequenas ilhas pode ter muita precisão e pouco conteúdo. O tema também tem influência. Por
exemplo, uma rua, construída depois da confecção da carta topográfica não diminui a precisão
desta, mas afecta o seu conteúdo, que fica um pouco desactualizado.

Um mapa temático, contudo, feito a partir da foto-interpretação de uma imagem satélite, pode
ter pouca precisão e muito conteúdo, pois, é praticamente impossível retractar com fidelidade
absoluta qualquer objecto. Aqui, os erros introduzidos no processo da sua confecção, remetem-
nos, para além da precisão, a um outro conceito: a exactidão do mapeamento.

4.5.1 Precisão Cartográfica

Na precisão cartográfica é comum falar-se de precisão planimétrica e precisão altimétrica.


Partindo do princípio que o elemento mínimo que o olho humano pode distinguir numa carta

Manual de Teledetecção – Fascículo II 121


impressa é de 0, 2 mm, a precisão planimétrica de uma carta regular, em Moçambique, é dada por:
0,2 mm x denominador da escala

A precisão planimétrica de uma carta regular 1:50.000, por exemplo, é de 10 metros. Se assim
não fosse, esta carta não seria regular.

A precisão altimétrica, segundo as normas utilizadas em Moçambique, é dada por:

1/3 x equidistância das curvas de nível da carta.

Por exemplo, numa carta topográfica regular à escala 1: 50.000, com curvas de nível de 20 metros
de equidistância, possui uma precisão altimétrica de cerca de 6.7 metros. Na escala 1:250.000,
com curvas de nível de 100 metros, a precisão altimétrica é de 33 metros, aproximadamente.

Nas cartas regulares moçambicanas a equidistância das curvas de nível pode ser dada por:
0,2 x denominador da escala x 2

4.5.2 Exactidão do Mapeamento Temático

Os erros mais frequentemente introduzidos num mapa feito a partir da interpretação de uma
imagem satélite advêm, principalmente, das seguintes causas: falhas na correcta identificação
das classes temáticas, incorrecções na delimitação dos diferentes objectos, fraca resolução
espacial do sensor, deficiente escolha da escala de trabalho e falhas próprias do analista,
resultantes de factores psíquicos e emocionais ou mesmo falta de domínio das técnicas de
fotointerpretação.

Por causa deste tipo de erros, a qualidade de um mapa temático deve, também, ser avaliada pela
exactidão do mapeamento, para além da sua precisão.

Suponhamos que a partir da interpretação visual de uma imagem satélite obtivemos 60 Ha como
área ocupada por uma determinada classe, mas, a área medida no terreno (efectivamente
ocupada) seja de 65 Ha. A exactidão do mapeamento, neste caso, seria de 92,31%,
aproximadamente, número que indica que o mapa apresenta uma exactidão bastante boa para essa
classe. Contudo, esse número pode não corresponder exactamente à realidade no campo, isto é, o
analista pode ter introduzido na classe em questão outras áreas que apresentavam semelhanças
de comportamento espectral, quando na verdade não eram dessa classe. A exactidão de
mapeamento, geralmente em percentagem, só avalia o posicionamento da distribuição espacial de
cada uma das classes que foram escolhidas. Portanto, não é possível dizer se uma área que foi
representada como sendo de uma determinada classe é de facto ocupada por esta, no terreno. A

Manual de Teledetecção – Fascículo II 122


preocupação é, aqui, mais voltada ao posicionamento da área e não ao seu valor, contrariamente à
precisão.

Portanto, uma das formas de estimar a exactidão do mapeamento realizado a partir da


interpretação de imagens satélite, é determinar o seu erro com base na área de cada classe
calculada no mapa temático e na área real no terreno, utilizando a expressão

E (%) = 100 –[( área da classe estimada no mapa / área real no campo) x l00]

Quando a área estimada no mapa temático for maior do que a área real no campo, tem-se uma
situação de erro de inclusão; caso contrário, uma situação de erro de omissão.

Para o cálculo dos erros de inclusão e omissão, é necessário trazer informações do campo ou
obtê-las através de fotografias aéreas recentes, que poderão servir como verdade do terreno. O
procedimento deve basear-se numa amostragem da área a ser visitada no campo. A exactidão do
mapeamento depende, por outro lado, do tamanho, tipo e as unidades de amostragem.

Não é nada fácil seleccionar um tipo apropriado de amostragem para o cálculo da exactidão do
mapeamento, pois há dificuldade em se gerar uma matriz de erro que seja representativa de
todas as classes interpretadas na imagem. Porém, qualquer que seja o esquema de amostragem
adoptado, é necessário estabelecer um procedimento padronizado para a medição do erro e
comparação da exactidão de mapeamento.

As unidades de amostragem utilizadas para a avaliação da exactidão de mapeamento podem


incluir pontos, secções e áreas.
Até alguns anos atrás evitava-se o uso de pontos para obter informações de ocupação do solo,
visando estimar a exactidão de mapeamento, porque, na prática, a localização desses pontos no
terreno era muito difícil, pela incerteza do seu posicionamento. Na literatura, é muito frequente
a recomendação da área como unidade de amostragem. Aranoff (1985) comentou que uma unidade
de amostragem do tamanho de um pixel é muito reduzida para ser localizada com exactidão no
terreno. Para ele, a unidade de amostragem deve ser tão grande quanto a mínima unidade
representada. Dependendo do tamanho da unidade de amostragem, várias classes de uso da terra,
por exemplo, podem estar inseridas numa única unidade. Nesta situação, Aranoff (1985) sugere
que se utilize uma regra que atribua a classe com maior área à unidade de amostragem.

Com o uso cada vez maior do Sistema de Posicionamento Global (GPS), que fornece posições com
erro inferior a 10 m, a preocupação que se tinha há pouco tempo, em relação ao posicionamento
correcto do ponto no terreno, deixou de ter sentido. A possibilidade de se usar, cada vez mais, o

Manual de Teledetecção – Fascículo II 123


GPS para orientação no campo traz, à luz da verdade, a necessidade de se re-estruturar o
desenho das unidades de amostras a serem empregues na recolha de dados de campo, para
avaliação da exactidão do mapeamento temático a partir de imagens satélite.

O tamanho da amostra é outro parâmetro que deve ser levado em consideração quando se
pretende estabelecer um esquema de amostras. Em geral, deve ser determinado com base em
dois critérios: estatístico e económico.

Do ponto de vista estatístico, a amostra deve ser o suficientemente grande para garantir
confiabilidade aos resultados obtidos. Do ponto de vista económico, ela deve ser de um tamanho
tal que não inviabilize a sua utilização. Para ser utilizada na estimativa da exactidão de
mapeamento, a amostra de uma área deveria conter um número mínimo de 50 unidades, para cada
categoria de uso da terra e de 75 a 100 unidades, quando a área fosse grande ou o mapeamento
tivesse um número maior que 12 categorias.

Existe ainda uma possibilidade de definir o tamanho das amostras pelo estabelecimento de uma
percentagem do tamanho da área estudada. Para uma classificação digital supervisada ou não-
supervisada, a prática mostra que os tamanhos adequados têm sido 1,25% e 1,75% da área total,
respectivamente.

A precisão planimétrica de um mapa temático elaborado a partir da interpretação de imagens


satélite varia consoante a escala e depende da resolução espacial do sensor utilizado na aquisição
dos dados e pode ser estimada (no melhor dos casos...) através da seguinte expressão clássica:
2 x 21/2 x resolução espacial.

Para a escala 1:50.000, a precisão planimétrica que nos pode oferecer uma imagem multispectral
do HRV do SPOT1, com 20 m de resolução, só vai até 56,4 m. Uma imagem pancromática do
mesmo sensor, com 10 m de resolução, já nos oferece uma precisão de 28,2 m. No HRS do
SPOT5, com 2,5 m de resolução espacial, a precisão planimétrica melhora significativamente.

Como se pode ver, a precisão planimétrica dada pela imagem multispectral do HRV do SPOT1 é 5
vezes inferior à precisão planimétrica requerida para uma carta à escala 1:50.000, dita regular
(10 metros). Entretanto, uma imagem do HRS do SPOT5, com 2,5 m de resolução já nos fornece
uma precisão planimétrica de 7 metros, aceitável para a escala de 1:50.000.

Os dois parâmetros de avaliação do mapeamento temático tornam o mapa preciso e exacto, ou


preciso e pouco exacto, ou ainda pouco preciso e exacto.

Manual de Teledetecção – Fascículo II 124


Na produção de cartas, a precisão planimétrica dos dados digitalizados também deve ser levada
em consideração. Como sabemos, os decalques (transparentes) utilizados para a digitalização
podem conter alguns erros introduzidos pelo desenhador (na base topográfica) ou analista (na
informação temática). A norma utilizada pelo CENACARTA, em Moçambique, especifica que o
processo de digitalização (com erros do operador adicionados à informação digitalizada numa
base de dados SIG), só garante uma precisão planimétrica correcta se os dados forem
utilizados numa escala 2 vezes menor à escala de digitalização. Ou seja, se estivermos a
digitalizar a partir da escala 1:50.000, os dados só devem ser utilizados numa carta de escala
igual ou menor a 1:100.000, para se salvaguardar a precisão planimétrica correcta.

Há várias técnicas empregues para minimizar as várias fontes de erro na digitalização. O erro
devido à espessura da linha que separa dois temas diferentes ou que representa os contornos de
um objecto, pode diminuir com o aumento da escala de trabalho. Uma linha de espessura de 1,0
mm equivale, na escala 1:250.000 a 250 m no terreno, enquanto que na escala 1:50.000 essa
mesma linha corresponde a 50 m no terreno. Por essa razão, é necessário observar com certa
frequência a espessura da linha.

4.6 Actualização Cartográfica

A falta de cartas actualizadas provoca a necessidade de se desenvolverem métodos de


actualização que permitam reduzir o dispêndio de tempo e de recursos. Considerando as
vantagens da utilização de imagens satélite para fins cartográficos (alta resolução temporal; boa
resolução espectral; resoluções espaciais cada vez mais finas; rapidez na aquisição de dados
actuais do terreno; visão sinóptica da área de estudo), torna-se imprescindível encontrar uma
metodologia que seja a mais adequada para a actualização das cartas moçambicanas,
especialmente as cartas topográficas produzidas por métodos clássicos.

4.6.1 Metodologias

De entre os vários procedimentos aplicáveis para uma actualização cartográfica com imagens
satélite, podem-se destacar os seguintes:

A) Actualização cartográfica com dados analógicos

Pré-requisito: dados impressos em papel (imagens satélites, cartas topográficas) à mesma escala
e no mesmo formato.

Manual de Teledetecção – Fascículo II 125


Neste procedimento pode ser aplicada uma metodologia com as seguintes etapas:

1. Estratificação das imagens satélite em transparências previamente colocadas sobre elas,


mediante um processo de interpretação visual. A finalidade é de extrair, por temas (um tema
em cada transparência), a maior quantidade possível de informação necessária para actualizar
a carta original. Após a estratificação, as transparências são colocadas sobre a carta antiga
(ou sobre suas coberturas temáticas originais, se disponíveis) para determinar o grau de
desactualização do documento cartográfico. Desta forma, as mudanças podem ser
identificadas e assinaladas na transparência, através da correcção da posição dos dados
obsoletos e da introdução de dados novos não contidos nas cartas desactualizadas).

2. Terminada a etapa anterior, pode-se realizar um levantamento de campo em zonas de teste


previamente escolhidas, para eliminar prováveis dúvidas de classificação ocorridas durante a
foto-interpretação. Para tal é necessário ir ao terreno com as imagens e a respectiva
estratificação. Os dados obtidos no campo complementarão o trabalho realizado no gabinete.

3. Após o trabalho de campo e subsequente correcção dos erros, procede-se à digitalização dos
dados e a sua introdução numa base de dados SIG. Este procedimento torna-se mais facilitado
quando as coberturas temáticas originais das cartas topográficas estão disponíveis em suporte
físico de boa qualidade (filme ou diapositivo). Assim, a sua introdução na base de dados SIG
pode ser feita por um processo de ‘scanagem’ e vectorização automatizada (ou digitalizadas a
partir da tela do monitor). Na ausência das coberturas temáticas originais, o trabalho torna-se
mais complexo e moroso pois há que recorrer às folhas topográficas existentes em papel,
digitalizando-as em necessárias coberturas, para criar os temas pretendidos.

Após a conversão dos dados ao formato digital, segue-se um processo normal de edição e
produção cartográfica com recurso a um software apropriado.

4. A última etapa consistirá em avaliar o conteúdo informativo e a exactidão geométrica das


cartas actualizadas.
Para avaliar a geometria das cartas actualizadas pode-se recorrer ao uso de pontos de
controle terrestre (GCPs) obtidos por GPS de resolução apropriada para a escala de trabalho.

B) Actualização cartográfica com dados digitais

Pré-requisito: disponibilidade de dados digitais das folhas topográficas a actualizar, bem


como da imagem satélite a usar.

Manual de Teledetecção – Fascículo II 126


A actualização cartográfica utilizando imagens digitais pode ser realizada através de um
Sistema de Informação Geográfica de 1ª ou 2ª geração, aplicando uma metodologia com as
seguintes etapas:

1. As imagens devem passar por técnicas de processamento digital destinadas a melhorar a


sua qualidade visual e geométrica (correcção geométrica, filtragem e orto-rectificação,
se necessário) e colocadas numa base de dados SIG.

2. Incorpora-se, também, a informação desactualizada na mesma base de dados, para ser


usada como informação de referência.

3. A metodologia a aplicar para a actualização com dados digitais recorrendo a um software


de SIG consiste na sucessiva sobreposição das folhas topográficas a actualizar sobre as
imagens e a consequente foto-interpretação destas na tela. Durante este exercício são
identificadas e assinaladas as novas posições dos elementos cartográficos (incluindo os
novos elementos não constantes nas cartas desactualizadas), através da sua digitalização
na tela e segundo as coberturas pretendidas.

4. A seguir, as novas coberturas são editadas e preparadas para a produção da carta.


Recorrendo a um módulo de “Geração de Cartas” do SIG, a carta é finalmente editada e
produzida (processo que passa pela criação dos textos incluindo o título, a escala nas suas
representações gráfica e numérica, as necessárias coordenadas, a legenda, etc.).

5. Produzida a carta, procede-se ao trabalho de campo (as cartas digitais das zonas
escolhidas são transportadas ao terreno em PC portátil, para as devidas correcções).

6. Após o trabalho de campo, a carta pode ser impressa e a sua precisão avaliada, aplicando
o mesmo método descrito para as cartas obtidas com dados analógicos.

Fig. 72 – Exemplo de actualização da cobertura de estradas

Manual de Teledetecção – Fascículo II 127


4.6.2 Princípios básicos

Para melhor nos inteirarmos da complexidade de uma actualização cartográfica com dados
espaciais, é necessário termos em mente alguns dos princípios básicos inerentes ao processo.

Actualmente, o trabalho de produção e actualização de mapas é baseado na foto-interpretação


visual de imagens satélite, após o qual o trabalho de campo (completagem) é sempre necessário
para preencher as lacunas deixadas ou recolher mais informações não disponíveis nas imagens
(toponímia, a função das novas feições, etc.).

Apesar de ser sempre útil a completagem no campo, a quantidade de trabalho necessária para o
efeito varia muito de acordo com a ‘perfomance’ alcançada durante a foto-interpretação das
imagens: todo o objecto não detectado (ou mal interpretado) deve ser inspeccionado no terreno.

Com a recente entrada em vigor dos satélites de muito alta resolução, o trabalho de campo pode
ser drasticamente reduzido, bastando para tal que estejam disponíveis e possam ser utilizadas,
para as zonas de teste, imagens satélite (SPOT5, Cartosat-1, IKONOS, QuickBird) com uma
resolução tal que deixe poucas dúvidas na foto-interpretação.

Geralmente, a interpretação de um objecto é organizada em 4 níveis hierárquicos: detecção,


reconhecimento, identificação e análise técnica.

1. A detecção é a descoberta de um objecto sem ser necessário o seu reconhecimento.


Ex.: há uma característica linear branca neste canto da imagem.

2. O reconhecimento é a habilidade para determinar a identidade do objecto dentro de um tipo


de grupos.
Ex.: esta característica linear branca é uma estrada.

3. A identificação é a habilidade para rotular a identidade específica do objecto.


Ex.: esta estrada é uma estrada de duas faixas.

4. A análise técnica é a habilidade para descrever com precisão os atributos do objecto.


Ex.: as duas faixas estão separadas por uma parede baixa.

Resumindo:
A detecção corresponde à habilidade para contar o número de objectos.
O reconhecimento é possível quando o objecto já não for uma mancha escura mas
claramente um carácter
A identificação é possível quando se puder ler o carácter
A análise técnica corresponde à análise da fonte (tipo de caracteres) usada (itálicos,
negrito, etc.)

Manual de Teledetecção – Fascículo II 128


Como uma regra geral e para elementos não-lineares como, por exemplo, picadas ou caminhos de
pé-posto, pode-se considerar que objectos de formato complexo mas bem contrastados podem
ser mais ou menos detectados somente quando o seu tamanho for maior que 2 pixeis e a
identificação só é possível para objectos maiores que 4 pixels. Isto só é válido se a imagem tiver
uma resolução espacial efectiva muito boa. Com uma qualidade de resolução espacial efectiva
normal ou comum só objectos maiores que 5 pixeis podem ser descobertos e objectos maiores
que 6 a 7 pixeis podem ser identificados de um modo seguro.

Objectos geográficos susceptíveis de actualização cartográfica a partir de imagens

Tipo Escala 1/25 000 – 1/50 000 Escala 1/100 000 –1/250 000
• Estradas principais e pistas auto
• Estradas principais e pistas auto
• Estradas secundárias
• Estradas secundárias
• Picadas
Vias de acesso • Linhas férreas principais
• Caminhos de pé posto
• Aeroportos e pistas de
• Linhas férreas
aterragem
• Pistas de aterragem
• Linhas de transporte de energia
• Linhas de transporte de energia
• Túneis
Equipamentos • Túneis principais
• Pontes
• Pontes principais
• Campos de jogo
• Áreas urbanas de grande
• Áreas urbanas muito densas densidade populacional
Assentamentos • Áreas urbanas pouco densas • Áreas urbanas de pouca
humanos • Vilas densidade populacional
• Edifícios isolados • Vilas
• Aldeias
• Curvas de nível a intervalos verticais • Curvas de nível a intervalos
Relevo de 5 a 20 m verticais de 20 a 100 m
• Pontos cotados • Pontos cotados
• Rios e canais
• Ribeiros
• Rios e canais
Hidrografia • Lagos e albufeiras
• Lagos e albufeiras
• Correntes de água
• Poços
• Áreas cultivadas
Vegetação / uso • Plantações artificiais • Áreas cultivadas
e • Áreas herbáceas • Mata
cobertura da • Mata • Floresta
terra • Diversos tipos de floresta • Áreas rochosas
• Áreas rochosas
• Limites administrativos
Limites • Limites administrativos
• Limites cadastrais

Manual de Teledetecção – Fascículo II 129


Toponímia • Toponímia • Toponímia
Informação
• Às vezes presente • Frequentemente presente
turística

Tabela 2

Basicamente, existem três tipos de mapas produzidos a partir de imagens satélite: mapas
topográficos tradicionais, espaciocartas e mapas temáticos (uso e cobertura da terra, aptidão de
solos, geologia, inventário florestal, densidade populacional, etc.). Com ou sem um fundo da
imagem, todos estes produtos mostram feições, características ou objectos geográficas
susceptíveis de actualização tais como aldeias, estradas, florestas e outros.

A tabela 2 fornece-nos uma lista de objectos geográficos susceptíveis de actualização, consoante


as escalas mais comuns dos mapas topográficos.

A diferença principal entre cada escala é a densidade de detalhes que o mapa deve mostrar. O
propósito desta limitação física é o de deixar o produto final bastante sintético, de modo a ser
compreensível à primeira vista.

4.6.3 Processamento de dados

Para os propósitos de mapeamento cartográfico as imagens satélite devem ser submetidas a um


processo de correcção geométrica (geo-referenciação e orto-rectificação, se necessário), de
modo a que o processamento digital os coloque na devida geometria cartográfica. Isto realiza-se
através do uso de Pontos de Controle Terrestre (GCPs) e da aplicação de um determinado Modelo
Numérico de Terreno (MNT).

Os pontos de controle terrestre são geralmente colectados a partir de medições no terreno


empregando técnicas de Sistemas de Posicionamento Global (GPS). Ao que tudo indica, o
posicionamento preciso das plataformas em órbita através do uso de GPS de precisão a bordo,
aliado ao Sistema de Gravação de Altitude (ARS) permitirá, brevemente, a redução drástica do
número de pontos de controle necessários para a realização da cartografia topográfica, podendo
reduzir o seu espaçamento para 500 a 1000 km (no lugar de 30 a 50km hoje necessário para a
correcção geométrica de algumas imagens satélite).

O MNT usado para a orto-rectificação de imagens pode ser derivado de curvas de nível já
existentes em mapas ou também obtidos a partir de imagens satélite. Graças aos seus ângulos de
visada ajustáveis, alguns satélites com sensores ópticos adquirirem pares de imagens

Manual de Teledetecção – Fascículo II 130


estereoscópicas a partir das quais se podem criar os MNT’s. A interferometria de radar é outro
modo de obter MNT’s, a partir de algumas imagens radar.

Para o processamento, a cartografia moderna usa actualmente dois métodos de trabalho


diferentes. O primeiro, o “clássico”, é baseado em ferramentas fotogramétricas que podem ser
restituidores completamente digitais (no melhor dos casos), ou analíticos (caso mais comum nos
países em vias desenvolvimento) que ainda empregam filmes. Esta solução precisa de operadores
muito bem treinados e especializados e, também, de um investimento que pode ser considerado
caro em termos de hardware e software.

O segundo método de produção de cartas fundamenta-se, também, nos princípios básicos de


fotogrametria mas emprega um hardware e software mais barato à base dos actuais PCs
existentes no mercado. Esta nova cadeia de produção recorre ao uso de orto-imagens para a
produção e actualização de mapas, obtidas de satélites de alta e muito alta resolução

4.6.3.1 A relação entre a escala do mapa e a resolução da imagem satélite

Para obter o máximo benefício das imagens de muito alta resolução (1, 2.5, 5 e 10 m), no segundo
método de produção de cartas, as imagens devem ser exibidas no écran pelo menos na sua máxima
resolução, isto é, à escala aproximada de 1:2 000, 1:5 000, 1:10 000 e 1:20 000 respectivamente.
Para a actualização cartográfica o mapa deverá, evidentemente, ser exibido na mesma escala.

As figuras seguintes (73 a 80) tentam ilustrar a complexidade da produção e actualização


cartográfica, destacando alguns aspectos pertinentes, tais como os detalhes que se seleccionados
continuam legíveis em relação aos seus vizinhos circundantes. Em suma, as figuras tentam ilustrar
qual é a mínima resolução espacial requerida numa imagem para uma cartografia 1:50 000 fiável.

De um modo geral pode-se dizer que quanto maior for a escala (i.e.: quanto maior a resolução)
melhor será a imagem para efeitos da sua interpretação visual. Esta afirmação é especialmente
verdadeira para produção de novos mapas. Para a actualização de mapas, porém, pode não ser tão
evidente pois a escala da imagem deve ser ajustada à escala do mapa final e à escala de trabalho.

Na figura 73 estão representadas quatro orto-imagens de 1, 2.5, 5 e 10 m de resolução, em redor


de uma folha topográfica à escala 1:50 000 e correspondentes ampliações.

Manual de Teledetecção – Fascículo II 131


Fig. 73

Se o propósito for actualizar a folha topográfica 1:50 000, será mais conveniente trabalhar com
os dados na escala 1:25 000, 1:20 000 ou até mesmo a 1:10 000 do que usar uma escala de
trabalho 1:5 000 ou maior.

Fig. 74

Manual de Teledetecção – Fascículo II 132


Imagens de muito alta resolução (1 ou 2.5 m) devem ser exibidas com reamostragem de pixeis,
como mostra a figura 74, de modo a se poder notar que o aspecto visual de todas as imagens
exibidas à mesma escala, 1: 20 000 por exemplo, é idêntico qualquer que seja a resolução dos
dados originais.

Nessa escala, para a interpretação do uso e cobertura da terra, por exemplo, a imagem de 1m de
resolução não traz mais informação que a de 10m; para a interpretação e reconhecimento dos
edifício para um esboço da planta de uma cidade, a imagem de 5m de resolução que é exibida a
meia resolução e até mesmo a de 10m de resolução exibida em plena resolução, são mais
informativas que as outras exibidas com maior reamostragem de pixeis.

4.6.3.2 Precisão geométrica

O processo da correcção geométrica de imagens tem que ter em conta as especificações de


precisão requeridas para um mapa topográfico. A precisão planimétrica é em geral 0.2 mm na
escala da impressão e a precisão altimétrica deve ser aproximada a 1/3 do intervalo das curvas
de nível. A tabela 2 fornece uma estimativa destes valores, de acordo com a escala.

Escala Precisão Planimétrica (m) Intervalo de curvas de nível (m) Precisão Altimétrica (m)

1/25 000 5 5 a 10 1.5 a 3


1/50 000 10 10 a 20 3a6
1/100 000 20 20 a 50 6 a 15
1/200 000 40 50 a 100 15 a 30

Tabela 3

Precisão das imagens corrigidas: para actualizar uma carta topográfica 1:50 000 deve-se ter
imagens geometricamente corrigidas com uma precisão mínima de 10 metros.

A qualidade geométrica das imagens geometricamente corrigidas depende de:

o tamanho do pixel e a resolução efectiva do sensor


a qualidade do modelo de rectificação ou correcção geométrica
a precisão dos Pontos de Controle Terrestres d (GCP’s)
a precisão do DTM e o ângulo de incidência do satélite sobre a imagem original.

Tomemos como exemplo uma imagem pancromática SPOT, de 10m de resolução, captada na
posição quase-nadir (ângulo de incidência quase vertical) e corrigida com GCP’s de precisão sub-
métrica. A melhor precisão planimétrica que podemos esperar desta imagem estará entre 10 e 15
m, o que é completamente compatível com os padrões de mapeamento 1:50 000 a 1:100 000. Nas

Manual de Teledetecção – Fascículo II 133


mesmas condições, se a imagem SPOT for substituída por uma de 1 metro de resolução, a imagem
final terá uma precisão planimétrica melhor que 2 a 3 metros, o que seria uma precisão padrão
requerida para a escala 1:25 000. Para concluir, podemos dizer que as imagens satélite de média e
alta resolução (15 e 10 metros) cobrem os padrões geométricos requeridos para as escalas 1:50
000 a 1:100 000 e, actualmente, as de muito alta resolução (1 a 5 metros) atingem os padrões
geométricos requeridos para a escala 1:25 000 ou maior.

4.6.3.3 A extracção de informação nas imagens satélite

O processo de extracção de informações das imagens satélite não é trivial. Enquanto várias
tarefas tais como a confecção de DEMs e a produção de ortofotos podem ser alcançadas com um
grande grau de automatização, a extracção de características lineares e outras deve ainda ser
realizada manualmente. O máximo que se pode fazer é desenvolver métodos de incorporar um
maior nível de automatização nessas tarefas.

Analisemos o nível de interpretabilidade dos elementos cartográficas (cf. tabela 2) em quatro


tipos de imagens de satélite:
imagem pancromática normal de 10 m de resolução (sensor HRV do SPOT 4)
imagem pancromática normal de 5 m de resolução (sensor HRG do SPOT 5)
imagem pancromática ‘supermode’ de 2.5 m de resolução (sensor HRG do SPOT 5)
imagem pancromática normal de resolução de 1 m (sensor IKONOS).

Vias de comunicação

Resolução espacial

10 m 5 m 2.5 m 1m

Estradas principais e
Identificação Identificação Identificação Identificação
pistas auto

Reconhecimento
Estradas secundárias Identificação Identificação Identificação
e Identificação

Reconhecimento
Picadas principais Identificação Identificação Identificação
e Identificação

Detecção e Reconhecimento e Reconhecimento e


Outras picadas Reconhecimento
Reconhecimento Identificação Identificação

Vias férreas Reconhecimento Identificação Identificação Identificação

Aeroportos e pistas
Reconhecimento Identificação Identificação Análise técnica
de aterragem

Não ao
Caminhos de pé posto Não Não Não ao Reconhecimento
Reconhecimento

Tabela 4

Manual de Teledetecção – Fascículo II 134


Fig. 75

Hidrografia:

Resolução espacial

10 m 5 m 2.5 m 1m

Reconhecimento Reconhecimento Reconhecimento e Reconhecimento e


Rios e canais
e Identificação e Identificação Identificação Identificação

Detecção e Reconhecimento Reconhecimento e Reconhecimento e


Correntezas
Reconhecimento e Identificação Identificação Identificação

Reconhecimento
Lagos e albufeiras Identificação Identificação Identificação
e Identificação

Correntes de água Não Não Não Não

Poços Não Não Não Não à Detecção

Tabela 5

Manual de Teledetecção – Fascículo II 135


Albufeira dos Pequenos Libombos

Fig. 76

Equipamentos:

Resolução espacial

10 m 5 m 2.5 m 1m

Detecção à Detecção à Detecção à


Linhas de energia Identificação
Identificação Identificação Identificação

Túneis principais Não à Detecção Não à Detecção Não à Identificação Não à Identificação

Outros túneis Não Não à Detecção Não à Detecção Não à Detecção

Detecção à Detecção à Reconhecimento e Reconhecimento e


Pontes principais
Identificação Identificação Identificação Identificação

Outras pontes Não Não à Detecção Não ao Reconhecimento Não ao Reconhecimento

Reconhecimento Identificação e Análise


Campos de jogo Identificação Identificação
e Identificação Técnica

Tabela 6

Manual de Teledetecção – Fascículo II 136


Fig. 77

Assentamentos humanos:

Resolução espacial

10 m 5 m 2.5 m 1m

Área urbana de alta Reconhecimento e


Identificação Identificação Identificação
densidade populacional Identificação

Área urbana de baixa Reconhecimento e


Identificação Identificação Identificação
densidade populacional Identificação

Reconhecimento e
Vilas e aldeias Identificação Identificação Identificação
Identificação

Detecção e Reconhecimento e Detecção à


Edifícios isolados Identificação
Reconhecimento Identificação Identificação

Tabela 7

Alta densidade populacional Baixa densidade populacional

Área urbana, SPOT XS, 20 metros

Fig. 78

Manual de Teledetecção – Fascículo II 137


Fig. 79

Vegetação e Uso/cobertura da terra:

Resolução espacial

10 m 5 m 2.5 m 1m

Áreas cultivadas Identificação Identificação Identificação Identificação

Reconhecimento e Reconhecimento e
Pomares, plantações Identificação Identificação
Identificação Identificação

Áreas herbáceas Identificação Identificação Identificação Identificação

Mata Identificação Identificação Identificação Identificação

Floresta Identificação Identificação Identificação Identificação

Áreas rochosas Identificação Identificação Identificação Identificação

Tabela 8

Mata, floresta, áreas herbáceas e rochosas


(Vila de Inchope) Plantação de canavial em Mafambisse

Fig. 80

Manual de Teledetecção – Fascículo II 138


4.6.4 Informações Auxiliares e Dicas

4.6.4.1. Como produzir MNT’s baratos para orto-rectificar imagens IKONOS

Para muitas regiões do mundo é difícil obter ou criar um Modelo Digital de Elevação (DEM) que
tenha boa precisão. Para outras, obter um DEM com boa precisão é proibitivamente caro. A total
carência ou a falta de um DEM de boa precisão significa impossibilidade, inviabilidade ou grande
dificuldade para a produção de ortofotos dessas áreas.

ASTER é um sistema de sensores a bordo do satélite Terra, lançado em Dezembro de 1999. O


Esse sistema de sensores está munido de dois telescópios, um apontado na posição nadir e outro
com um ângulo de inclinação para traz, coleccionando ambos dados estereoscópicos de 15 metros
de resolução. O par estéreo dos dados ASTER (cobrindo 3600 Km2 ) custa nos EUA cerca de
US$55. As duas bandas estéreo (3n e 3b) contidas nos dados de Nível 1A (L1A) podem ser usadas
para produzir modelos digitais de elevação (DEMs), a partir de um modelo de sensor disponível na
Space Imaging. Estes DEMs podem ser usados para orto-rectificar imagem IKONOS até à
precisão standard dos produtos de referência da Space Imaging (25 metros CE90). Isto é
significativo pois, para algumas áreas do mundo, os dados do ASTER são o único recurso para a
produção de DEMs de precisão a baixo custo.

Para alcançar uma boa precisão usando o modelo de sensor do ASTER os pontos de controle
terrestre (GCPs) são obtidos a partir das imagens IKONOS e aplicadas à imagem ASTER. A
vantagem do uso desse modelo é a redução de GCPs requeridos, tendo em consideração que a sua
distribuição na imagem não é crítica. Em estudos prévios já se provou que a precisão do DEM do
Aster pode-se deteriorar em terreno mais acidentados (A. Kaab et al, 2002). Porém, em muitos
casos, a precisão obtida é comparável com a do DEM de 1 arco segundo da USGS (T. Toutin e P.
Cheng, 2001).

Muitas regiões do mundo não dispõem de pontos de controle de precisão, mas podem ser
derivados a partir da sobreposição de imagens monoscópicas do IKONOS com Coeficientes
Polinomiais Racionais (RPCs), em visão estereoscópica. A vantagem de usar imagens monoscópicas
do IKONOS em vez das estereoscópicas para extrair os pontos de controle reside no facto de
que o custo das primeiras é mais baixo. A pesar da sobreposição de quase 100% nas imagens
estereoscópicas e somente de uma pequena percentagem nas monoscópicas, a utilização destas
evita que a mesma área tenha de ser coberta duas vezes. A sobreposição existente nas imagens
monoscópicas é suficiente para a extracção de pontos de controle. Esta poupança reflecte-se,
consequentemente, no baixo custo do produto derivado.

Manual de Teledetecção – Fascículo II 139


Os dados do ASTER podem ser procurados, consultados e solicitados ao EROS Data Center da
USGS no seguinte endereço da Internet: http://edcimswww.cr.usgs.gov/pub/imswelcome/ .

4.6.4.1. O Processo de produção

Fig. 81 - Processo de produção de DEMs a partir de imagens Aster

A Space Imaging possui um software próprio para reformatar os dados ASTER de nível L1A para
a sua utilização estereoscópica.. Depois de reformatados, qualquer software com capacidade de
ajustamento em bloco das imagens IKONOS e auto-correlar pares esterescópicos pode ser usado
para produzir DEMs do ASTER.

As bandas L1A (3n e 3b) do ASTER são importadas como imagens separadas e reformatadas. A
partir das áreas de sobreposição das imagens IKONOS, extraem-se os GCPs a aplicar na
correcção das imagens ASTER. Após a aplicação dos GCPs, executa-se uma triangulação ou
ajustamento em bloco. Com a auto-correlação dos pares estereoscópicos do ASTER pode-se,
então, produzir o respectivo DEM (intervalo de 30 metros, por ex.). Se for necessário edita-se o
DEM para corrigir alguns detalhes pois áreas com nuvens, sombras e água são mal correladas.
Depois, o DEM é colocado no formato mais apropriado para a produção de orto-fotos (fig. 82).

Manual de Teledetecção – Fascículo II 140


Fig. 82 - Produção de orto-fotos a partir de imagens IKONOS

Os DEMs criados a partir de imagens ASTER com GCPs extraídos de imagens IKONOS possuem
uma precisão suficiente para serem usados na confecção de ortofotos de referência CE90 do
IKONOS (25 metros), com a vantagem do seu baixo custo.

4.6.4.2. Precisão Planimétrica das Imagens IKONOS

O sensor do IKONOS emprega um modelo de câmara fotográfica descrito pelas equações do


Coeficiente Polinomial Racional (RPC). Este modelo RPC é aplicado para resolver problemas de
extracção de alvos (Grodecki, 2001). A precisão das imagens IKONOS foi testada e avaliada em
relação aos desvios do modelo RPC (Dial, 2001; Grodecki e Disca 2001; Dial e Grodecki 2002a) e
chegou-se à conclusão de que os erros de ajustamento em bloco podem ser corrigidos com a
aplicação de parâmetros de controle de inclinação (bias) e de direcção (drift) do satélite.

Experiências práticas mostram que após o ajustamento em bloco as imagens IKONOS não orto-
rectificadas e sem correcção geométrica adicional possuem uma precisão planimétrica de cerca
de 4 metros (erro médio quadrático de inclinação, com um erro de drift de 50 PPM). Após a
correcção com os parâmetros de controle bias e drift, a precisão planimétrica pode atingir 0.5
metros (erro residual médio quadrático do bias e drift), como se explica a seguir:

O Modelo da Câmara RPC

A relação geométrica entre as coordenadas terrestres em 3-D e as coordenadas da imagem em


2-D são providas pelas seguintes equações do modelo da câmara fotográfica RPC:

Manual de Teledetecção – Fascículo II 141


L = RL(φ, λ, h)
S = RS (φ, λ, h) , onde
(φ, λ, h) = latitude, longitude e altitude,
L = número de linhas da imagem,
S = número de reamostragem na imagem, e
RL, RS = função racional para linhas e reamostras.

Se o ajustamento em bloco das imagens IKONOS tiver de ser feito fora das estações de
recepção, então as equações RPC devem ser acrescidas dos parâmetros de inclinação (bias) e
direcção (drift) para o cálculo dos erros residuais:

L = RL(φ, λ, h) + a0 +aLL + νL
S = RS (φ, λ, h) + b0 + bLL + νS , onde
(φ, λ, h) = latitude, longitude e altitude,
L = número de linhas da imagem,
S = número de reamostragem na imagem,
RL, RS = função racional para linhas e reamostras,
a0, b0 = parâmetros bias para linhas e reamostras,
aL, bL = parâmetros drift para linhas e reamostras,
νL, νS = erros residuais para linhas e reamostras.

Nas equações acima, RL e RS exprimem a relação nominal entre o terreno/imagem, provida pela
imagem. Os parâmetros bias (a0, b0) ajustam qualquer erro de inclinação de altitude do satélite ou
dos efemérides. Como estes erros não são observados independentemente, o seu efeito é
conjuntamente tratado pelo bias de linhas e de reamostras. O número de linhas L é o substituto
temporal para que os parâmetros drift (a0, b0) ajustem qualquer erro linear temporário na
altitude do satélite. Os erros drift costumam ser de 50 ppm, aproximadamente, pelo que usar o
número de linhas L nominal ou obtido por medição, o resultado não altera em quase nada.

4.6.4.3. Importância da Resolução Efectiva numa Imagem Satélite

Este aspecto é torna-se importante para a interpretabilidade das imagens. O intervalo de


reamonstragem de pixeis é o parâmetro mais frequentemente usado para caracterizar as imagens
satélite: por exemplo, em uma imagem pancromática do sensor HRV do satélite SPOT, cada
detector CCD regista a luz reflectida em cada 10m ao longo da linha de varredura (1,3 mícron no
CCD) e uma linha em cada 1,504 nano-segundos ao longo da órbita do satélite. Este parâmetro é
normalmente designado por ‘tamanho do pixel’ (10x10m para o canal P do HRV do SPOT) e é
frequentemente mal usado como uma indicação da resolução espacial.

Manual de Teledetecção – Fascículo II 142


O intervalo de reamostragem na gravação dos valores de radiância na fita magnética a bordo é
determinado pelos incrementos do sensor ao longo da linha de varredura e pela rotação do
tambor entre linhas sucessivas.

Fig. 83

Infelizmente, isto não significa que o sinal registado pelos elementos do CCD integra somente a
luz reflectida dos objectos localizados dentro da área do tamanho do pixel: o sinal também é
influenciado pelos objectos localizados fora desta área. A área ‘vista’ por cada detector é
chamada de campo instantâneo de visão (IFOV). Os objectos localizados no centro da área têm
uma influência mais forte que os localizados junto às extremidades. A redução de influência no

Manual de Teledetecção – Fascículo II 143


sinal dos objectos de acordo com a sua distância do centro é designada por modulação e é
descrita através do MTF (função de transferência de modulação).

Assim o conceito de “resolução espacial efectiva” é mais realístico: indica o diâmetro de uma
área circular onde a modulação de sinal é sempre mais alta que 50%. A área correspondente é
chamada de campo instantâneo efectivo de visão (EIFOV). Há que notar que se uma imagem
digital tiver uma resolução espacial efectiva maior que o intervalo de reamostragem de pixeis,
aparecerá como que borrada.

O MTF de um sensor depende de muitos factores: a qualidade óptica da lente e as


características electrónicas (ou propriedades do filme) são mais estáveis ao longo do tempo, para
um determinado dispositivo, mas para sistemas de sensor remotos, a qualidade óptica da
atmosfera é normalmente o factor limitante. Duas imagens da mesma área, adquiridas com o
mesmo dispositivo a datas diferentes podem ter uma MTF muito diferente e, consequentemente,
potencial muito diferente para a sua interpretação. A neblina pode ser uma explicação óbvia para
imagens com uma MTF pobre, mas a poluição urbana e as fumaças de queimadas florestais não são
desprezíveis, até mesmo quando acontecem muito longe do local da aquisição da imagem (camadas
de fumaça em altitudes altas são frequentes em áreas tropicais).

Medir a resolução efectiva em uma imagem não é uma tarefa fácil se não estirem disponíveis
objectos calibrados de referência no terreno. Diferenças de MTF podem até ser observadas em
partes diferentes de uma mesma imagem. O método mais usado para avaliar a MTF é baseado na
comparação de feições ou características padronizadas (aeródromos, edifícios, etc.) com imagens
de referência que possuam uma MTF conhecida (normalmente gerada por uma degradação
controlada de uma imagem de resolução mais alta).

Baseada na compilação de referências científicas múltiplas, a resolução efectiva de imagens


pancromáticas do sensor HRV do SPOT é posta frequentemente entre 15 e 25m, sendo de 30 e
50m para as multiespectrais e entre 45 e 75m para o sensor TM do Landsat5.

Para fotografias aéreas, a resolução espacial é normalmente expressa em par de linhas/mm. Os


valores comuns são 40 pl/mm em filme e 15 pl/mm em papel e pode-se dizer que a resolução
resultante de sistemas de filmes aéreos ópticos, incluindo filmes normais de máquina fotográfica,
é antecipada em cerca de 20 mícron na escala do filme. Como na imagem satélite, a causa principal
da degradação do MTF é relacionada às condições atmosféricas. A MTF do scaneador do filme é
geralmente adaptado ao intervalo de reamostragem para produzir imagens nítidas, quer dizer,
para ter 20 mícrons de resolução numa imagem, o melhor intervalo de amostragem é de 30

Manual de Teledetecção – Fascículo II 144


mícrons. Para se obterem boas fotografias na escala 1:80 000, a resolução efectiva (EIFOV) deve
ser de cerca de 2 a 2.4m e, para a escala 1:30 000, deverá ser melhor que 1m (cerca de 90cm)!

Vale a pena notar que o processamento de imagens para a produção de ortofotos danifica até
certo ponto o MTF, por causa da reamostragem de pixeis.

4.6.4.4. Extracção automatizada de informação em dados espaciais

Automatização é o desenho, desenvolvimento e implementação de operações com intervenção


humana mínima. Partindo do princípio de que o sistema de percepção humana olho/cérebro é a
parte fundamental na extracção de informações (no que concerne à solução inteligente de casos
mal definidos), pode-se dizer que a automatização é uma tentativa para substituir esse sistema
com uma máquina.

Por causa dos efeitos atmosféricos e outras imperfeições na fase de aquisição, a informação da
imagem satélite cai na categoria dos alvos “muito complexos” para uma extracção automatizada
de informação, diferentemente dos alvos em sistemas de visão industriais instalados em
ambientes controlados, cuja extracção automatizada de informação é quase que perfeita. Ciente
desta dificuldade, a meta tem sido modelar o sistema humano olho/cérebro, de tal maneira que se
possa capitalizar os aspectos pertinentes que maximizem o custo/benefício.

Não se deve esperar que os resultados de uma extracção automatizada de informação sejam
o produto final. Devem ser geralmente revistos, editados e corrigidos manualmente!.

Várias abordagens foram já realizadas para equilibrar o papel dos dois intervenientes, máquina e
ser humano, no concernente à automatização versus extracção manual. Os factores de influência
tidos em consideração incluem o tipo de imagem usada, a aplicação pretendida, os recursos
disponíveis e as especificações impostas para o produto final. Porém, pressupõe-se naturalmente
que maior automatização significa menor intervenção manual e, consequentemente, menor custo
de mão-de-obra. Pelos resultados que têm sido obtidos através dos métodos de extracção
automatizada de informação, chega-se à conclusão que a pós-edição manual é sempre necessária
para corrigir a informação errónea ou incompleta. Contudo,a pós-edição manual não deve consumir
muitas horas de trabalho para, eventualmente, não desvirtuar o propósito final da automatização.
Se o operador gastar mais tempo a corrigir dados erróneos que aquele que seria necessário para
extrair os mesmos dados manualmente, então a automatização não faz sentido.

A batalha entre o papel da máquina e o do ser humano pode ser exposta em três cenários:

• Extração manual com o auxílio de funções automatizadas;


• Extração automatizada manualmente dirigida

Manual de Teledetecção – Fascículo II 145


• Extração automatizada seguida por uma pós-edição manual e validação.

Como exemplo do primeiro podemos considerar o uso do BridgeView, um módulo desenvolvido para
ajudar o operador a extrair novas estradas e pontes ou a rever as existentes, a partir de imagens
satélite ou fotografias aéreas.

Do segundo podemos, como exemplo, mencionar o módulo Feature Analyst desenvolvido pela
Visual Learning Systems, Inc. Trata-se de é um conjunto de algoritmos de aprendizagem de
máquina, para extrair informações específicas de objectos definidos pelo operador.

Para exemplo da terceira abordagem podemo-nos referir ao Procom-2, componente principal de


um software desenvolvido pela GeoInsight Corporation, uma empresa privada canadiana. Este
componente é usado principalmente para captar e transferir informações de suportes analógicos
para bases de dado SIG.

Nas cenários anteriores, a qualidade dos resultados com os módulos empregues depende tanto da
qualidade e características da imagem usada como da complexidade reconhecimento/extracção
da informação.

O sucesso na extracção de uma determinada informação, qualquer que seja o pacote de software
a utilizar, depende do reconhecimento das suas condições específicas que a diferenciam de outra
informação e, fundamentalmente, da definição apropriada dos parâmetros e critérios de
inicialização de cada etapa do processo.

A extracção automática de estradas, por exemplo, baseia-se na localização do alvo na imagem,


sem contribuição de um operador para determinar a sua posição inicial. A localização automática
de uma estrada na imagem tem duas etapas:, o reconhecimento da estrada e a determinação da
sua posição. Reconhecer uma estrada na imagem é muito mais difícil que determinar a sua posição
pois não só requer a informação que pode ser derivada da imagem como, também, um
conhecimento à-priori sobre as propriedades de uma estrada, sua relação com outras
características na imagem e outros conhecimentos relacionados com o sistema de captação da
imagem. Como já dissemos atrás, devido à complexidade das imagens espaciais e a existência de
ruído e perturbações atmosféricas, a informação delas derivada é sempre incompleta e ambígua.
Isto faz com que o processo de reconhecimento seja mais complexo.

O desenvolvimento de procedimentos de inteligência artificial é, normalmente, baseado em: a


extracção de todos os atributos apropriados das características nas imagens (incluindo sua
distribuição radiométrica, assinaturas espectrais, estrutura geométrica), o contexto das

Manual de Teledetecção – Fascículo II 146


características espaciais na imagem e disponibilidade à-priori de informação existente nos bancos
de dados de mapas digitais; representação simbológica e relação entre os atributos; a perícia com
que a máquina realiza as técnicas de aprendizagem que servem de base para as regras de
representação dos atributos, do reconhecimento das característica e da sua selecção e
extracção com determinado algoritmo; a destreza de extracção rotineira das características nas
imagens remotas, baseada nas anteriores regras.

A avaliação da efectividade do processo é determinada pela comparação entre os resultados da


extracção automática e os da extracção manual ou de outras abordagens de extracção
automatizada e semi-automatizada.

Por serem os do nosso maior interesse, aprofundemos o nosso conhecimento sobre os módulos
atrás mencionados:

BridgeView

Como o próprio nome sugere, BridgeView é um módulo usado mais para a localização precisa e
eficiente de pontes, a partir de dados espaciais. Para tal, possui as seguintes funcionalidades:

Carrega e manipula imagens

Carrega e manipula dados vectoriais (estradas e localização de pontes em formato shape)

Localiza, edita e move estradas e pontes para posições precisas, com base em
ortoimagens

Adiciona novas pontes nos dados vectoriais (em formato shape)

Abre tabelas associadas e adiciona novos atributos para as novas pontes.

Para o seu funcionamento, o BridgeView possui um conjunto de ferramentas especificamente


desenvolvido para localizar novas estradas e pontes bem como para rever as existentes, usando
como fonte de dados as imagens espaciais. Foi desenvolvido usando a linguagem de programação
AvenueTM da ESRI, e funciona como uma extensão do ArcView, correndo em PC com sistema
operacional Windows 98, Windows NT ou Windows 2000.

A sua fonte primária de dados é qualquer ortofoto de precisão e resolução apropriada, gerado a
partir de fotografia aérea ou imagem satélite de alta resolução. O utilizador pode corrigir a
posição de estradas e pontes se a sua localização for julgada inexacta. A precisão da posição
corrigida é cerca de 1 a 2 metros, dependendo da fonte dos dados e da resolução da imagem.

Manual de Teledetecção – Fascículo II 147


Feature Analyst

O Feature Analyst funciona como uma extensão dos softwares ArcView, ArcGIS e ERDAS
IMAGINE, sendo mais usado para a extracção automatizada de objectos geográficos específicos,
escolhidos pelo operador, em fotografias aéreas ou imagens satélite. Este módulo emprega a
tecnologia de aprendizagem de máquina para a criação e manutenção de bancos de dados GIS,
proporcionando-nos uma grande redução de tempo e custo de trabalho.
Algumas organizações bem conceituadas recorrem a este software nas tarefas de produção e
actualização de dados geo-espaciais. Como exemplo, podem ser mencionadas duas: a US Forest
Service e o National Geospatial-Intelligence Agency dos Estados Unidos da América.

Este software pode ser usado com fotografias aéreas ou com quaisquer dados provenientes de
satélites de observação da terra., necessitando apenas de exemplos de aprendizagem inicial.

O gráfico abaixo mostra uma estimativa o número de horas e o custo do trabalho de extracção de
informação recorrendo a diversos métodos, incluindo o método automatizado do Feature Analyst.

Principais funcionalidades do Feature Analyst

• Extracção automatizada e assistida pelo operador (AFE)


• Colecta de informações em classe única ou múltiplas classes num contexto espacial
• Detecção de mudanças e processamento em grupo
• Modelos de aprendizagem
• Aprendizagem hierárquica para remoção de erros
• classificação não-supervisada
• Ferramentas de extracção de informação LIDAR (superfícies, árvores e edifícios)

Manual de Teledetecção – Fascículo II 148


• Auto-atributação de objectos em 3D
• Fusão de dados e conversão de formatos raster e vector
• Ferramentas de processamento de imagens
• Limpeza avançada de dados vectorias (linhas, polígonos e intersecções)
• Algoritmos de suavização de linhas e polígonos

O módulo Feature Analyst, as instruções de sua instalação e tutorial completo para treinamento
podem ser obtidos da Internete: http://www.featureanalyst.com/login/software.php. Neste
endereço pode-se obter, também, uma versão de ensaio gratuita que só funciona com o material
juntamente fornecido. A pesar desta limitação, a versão de ensaio é bastante útil para o
treinamento de pessoal, tomando em se consideração que a versão profissional completa custa
cerca de US$ 10 000.

O tutorial (em qualquer das versões) inclui um guia prático para o processo de extracção de
informações bem como material completo para um treinamento técnico (imagens e ficheiros com
dados em formato shape, necessários à realização dos exercícios práticos).

PROCOM-2

PROCOM-2 é o componente principal de um sistema de produção e transferência orientada de


dados, designado por PROCOM SYSTEM. Este componente possui a propriedade de ampliar dados
espaciais em suporte analógico (filme) para a sua interpretação e integração em bases de dados.
PROCOM-2 (fig. 13) não é propriamente um software mas, um dispositivo dotado de uma lente
fotogramétrica usada para ampliar ou reduzir os dados nela projectados, de modo a serem
compatíveis com uma determinada escala de mapeamento. Para a análise e modelagem espacial
complexa, os dados são processados em dois pacotes de sistemas de informação geográfica:
SPANS e ILWIS.

Fig. 84

Manual de Teledetecção – Fascículo II 149


PROCOM-2 projecta, amplia e geo-referencia dados, o que torna este dispositivo bastante útil e
efectivo na produção de novas cartas e actualização de cartas obsoletas. Os dados tanto podem
ser vistos independentemente como sobrepostos a um mapa em suporte analógico (hardcopy).

PROCOM SYSTEM possui módulos opcionais acopláveis ao PROCOM-2, que podem aumentar a
funcionalidade deste, dotando-o de capacidades para a integração de dados múltiplos e captura
digital da informação.

Os principais módulos opcionais são:

DIGITAL CAPTURE MODULE (DCM)


O MÓDULO de CAPTURA DIGITAL (DCM) consiste em componentes de hardware e software que
o permitem captar digitalmente a informação e converter a imagem visual projectada para o
formato raster digital no computador, geo-referenciando-a ou deixando-a no estado original. O
DCM é um sistema completo que opera em ambiente Windows em qualquer PC operacional. Este
módulo utiliza um hardware de captação digital de muito alta resolução em combinação com um
software com propriedades de edição de imagens no computador. Também possui uma câmara
vídeo para prover um sistema rápido e efectivo de armazenando, anotação e modificação das
imagens raster.

STEREO/CHANGE DETECTION MODULE (SCD)


Este módulo provê uma visão estereoscópica e uma capacidade de monitoramento de mudanças
nos dados. Trata-se de um segundo sistema de projecção que nos permite geo-referenciar outros
dados a partir dos contidos no PROCOM-2 e combiná-los com dados existentes num suporte
físico analógico (hardcopy). O módulo permite geo-referenciar dados de diferente datum de uma
dada projecção cartográfica, de diferentes escalas ou de diferentes fontes (dados radar e
ópticos) na mesma localização geográfica.

ROLL FILM SCAN MODULE (RFS)


Este módulo é destinado a adaptar o portador de imagem do PROCOM-2 de modo a acomodar um
rolo de filme com dimensões até 9 polegadas em largura. O módulo RFS é accionado com
manivelas para avançar ou rebobinar o filme, de modo a facilitar a busca de um dado pretendido.

Outras funcionalidades do PROCOM-2:

actualiza e faz a revisão de mapas existentes em suporte analógico antes da sua


transferência para o formato digital
sobrepõe uma imagem a qualquer mapa usando a sua capacidade de ampliação de 3 a 72
vezes

Manual de Teledetecção – Fascículo II 150


sobrepõe imagens de diferentes fontes num único mapa básico
transfere coordenadas de geo-referenciação
incorpora legenda topográfica e temática (toponímia, limites, tipo de edifícios, etc.)
projecta slides e diagramas esquemáticos
projecta imagens na parede ou na tela.
Aceita todos os tipos de dados espaciais.

Manual de Teledetecção – Fascículo II 151


Referências Bibliográficas

1. Lillesand &Kiefer R.: Remote Sensing and Image Interpretation.- New York: Library of
Congress Cataloguing in Publication Data, 1979.

2. 2. Lillesand T & Kiefer R.: Remote Sensing and image Interpretation, 2nd edition - New
York: Library of Congress Cataloguing in Publication Data, 1987.

3. GDTA Booklet B 1: Physical bases in Remote Sensing – Toulouse, Sept. 1992.

4. GDTA Booklet B 3: Color representation – Toulouse, May 1991.

5. GDTA Booklet B 2: Digital lmage Display - Toulouse, June 1992.

6. Harris R.: Satellite Remote Sensing – Nondan Routledge & Kegan Paul 1987.

7. Foin P: Cours de Télédetection, fascicule 1 Bases Physiques – Paris, ENSG/IGN, 1988.

8. Foin P: Cours de Télédetection, fascicule 2 Bases sur la connaissance du milieu naturel et


humain – Paris, ENSG/IGN, 1988.

9. Foin P.: Cours de Télédetection, fascicule 5 Méthodologie – Paris, ENSG/IGN, 1988.

10. INPE: Spring, Aulas Práticas – S. Paulo, 2003.

11. ARCHELA, R. S. Análise da cartografia brasileira: bibliografia da cartografia na


geografia no período de 1935-1997. Tese (Doutorado) - Universidade de São Paulo. - São
Paulo, 2000.

12. Moreira, M. A. Fundamentos do Sensoriamento Remoto e Metodologias de Aplicação, 2ª


Ed. – Viçosa, UFV 2003.

13. Florenzano, T. G. Imagens de Satélite para Estudos Ambientais, São Paulo, Oficina de
Textos, 2002.

14. Rolf Larsson R. & Stromquist L.: Uma Abordagem Prática sobre Análise de Imagens
Satélite para o Monitoramento Ambiental - Maseru SADC ELMS, 1993.

15. ESA: ERS-1: User Handbook - Noordwijk: ESA Publications Division, 1992.

16. SSC: Remote Sensing Magazine n0 27/28/29 - Kiruna: Swedish Space Corporation,
1990/96/97.

17. US Army: SPACE NEWS Periodical Newspaper Vol 5-9 - Springfield: Army Times
Publishing C0, 1995/96/97/98.

18. Satellitebild: Down to Earth (newsletter) - Kiruna Swedish Space Corporation, Feb. 1993.

19. CSIR SAC: News (newsletter) no 1-14 – Pretoria, Satellite Applications Centre,
1995/96/97.

Manual de Teledetecção – Fascículo II 152


20. SPOT Image: SPOT Magazine no 1 9/2 0/28 - Toulouse: CNES, June 1993, Jan.98.

21. SPOT lmage: SPOT Newsletter no 18 - Toulouse: CNES, Dec. 1992.

22. SPOT Image SPOTF1ash no 12/13 - Toulouse: CNES, October 1993/Feb. 1994.

23. Erdas, Inc: ERDAS Field Guide – Fifth Edition, USA, 1999.

24. SSC: Resurs-01 - Bringing the Gap (brochure) - Kiruna: Swedish Space Corporation, 1996

25. EOSAT: Landsat Thematic Mapper imagery - Maryland: EOSAT Publications.

26. Couper H & Henbert N.: The Space Atlas - London: Dorling Kindersley Ltd, 1992.

27. Bakst L., Yamazaki Y: Princípios físicos e técnicos da Meteorologia por Satélite – vol. 1,
Relações Espaciais.

28. Oscar R. Vergara, Maria de Lourdes Kurkdjian , Júlio César Lima d’Alge, Madalena Niero
Pereira: Geoprocessamento e Sensoriamento Remoto para Atualização de Cartas Topográficas.

29. David Holland, Paul Marshall: Updating Maps in a well-maped Country Using Hight
Resolution Satellite Imagery.

30. Peter Aniello: Using ASTER DEMs to Produce IKONOS Orthophotos.

31. Gene Dial, Jacek Grodecki: IKONOS Accuracy Without Ground Control

Consulta na Internet

web.mit.edu/abyrne/www/colorrealism.htm

http://kripton.psyc.virginia.edu/steve_boker/colorvision2/node1.htm

http://hypertextbook.com/physics/

http://www.comunica.unisinos.br/andre/disciplina/

www.eletronica.com/arte/cor

http://www.mundocor.com.br/

http://www.inf.puc-rio.br/~bacellar

http://www.colorindo.hpg.ig.com.br/aberturas/www.colormatters.com

http://www.lynda.com/

http://www.killersites.com/

http://www.stink.com/

http://www.webdeveloper.com/

Manual de Teledetecção – Fascículo II 153


http://www.complex-x.net/teoria/aber_main.htm

http://www.netprof.pt/HomeNetProf.htm
http://www.netprof.pt/fisica_quimica/4_quimica_temas_luzcorobjectos.htm

http://users.sti.com.br/mvalim/imagem.htm

http://www.fisica.ufc.br/coresluz.htm

http://www.artecor.com.br/Informativo/contra.htm

http://www.radarsat.com

http://www.cordesign.com.br/

http://www.netprof.pt/HomeNetProf.htm

http://www.inf.puc-rio.br/~bacellar/index_port.htm

http://www.alba.com.ar/uso_c.html

http://www.netnam.vn/unescocourse/computervision/13.htm

http://www.pa.msu.edu/cience/
http://www.uel.br/projeto/cartografia
http://mit.edu/abyrne/www/
http://csep10.phys.utk.edu/astr162/lect/light/ref-diff.html

http://kiptron.psyc.virginia.edu/steve_boker/ColorVision2/node1.html

http://aqua.nasa.gov

http://landsat7.usgs.gov

http://www.engesat.com.br/satelites/ikonos.htm

http://www.proteccioncivil.org/vademecum/vdm031.htm#3103

http://www. Proteccioncivil.org/vademecum/

http://dmsp.ngdc.noaa.gov/html/sensors/doc_ssmi.html
http://www.goes.noaa.gov/
http://goes1.gsfc.nasa.gov/
http://vppx134.vp.ehu.es/fisica/agustin/teledec/geoestacio.htm
http://www.nottingham.ac.uk/meteosat/
http://www.eumesat.de/en/area3/topic1.html
http://www.eumesat.de/
http://www.nasda.go.jp/
http://www.isro.org/insat2e.htm
http://www.aerospaceguide.net/spacecraft/index.html

Manual de Teledetecção – Fascículo II 154


http://www.aerospaceguide.net/soyuz
http://planet.iit.ru/
http://TerraServer_com/
http://kompsat.kari.kr
http://perso.club-internet.fr/tpouchin
http://cwcaribbean.aoml.noa.gov
http://www.resa-sac.org

http://www.gisdevelopment.net/technology/ip/techip010.htm
http://www.gmat.unsw.edu.au/research/ia/home.html
http://www.asprs.org/publications/pers/2004journal/december/foreword.html
http://www.ncgia.ucsb.edu/ncrst/resources/easyread/cookbooks/BridgeView/BridgeView.pdf.
http://www.featureanalyst.com/
http://www.vls-inc.com

http://riker.unm.edu/DASH_new/pdf/WhitePapers/AutomaticFeatureRecognition.pdf

http://www.cyberus.ca/~hmoore-gg/

Manual de Teledetecção – Fascículo II 155

Você também pode gostar