Escolar Documentos
Profissional Documentos
Cultura Documentos
MANUAL DE TELEDETECÇÃO
Fascículo II:
PREFÁCIO................................................................................................................................ 4
3 - Tratamento, Análise e Interpretação de Imagens Satélite ................................. 7
3.1 – Teoria da Cor ................................................................................................................ 7
3.1.1 Introdução ................................................................................................................... 7
3.1.2 Princípios físicos da cor ............................................................................................... 8
3.1.2.1 Definição............................................................................................................... 8
3.1.2.2 Natureza espectral da cor .................................................................................... 9
3.1.3 Representação das cores e sua combinação................................................................ 10
3.1.3.1 As três cores primárias ....................................................................................... 10
3.1.3.2 As três cores secundárias .................................................................................. 13
3.1.3.3 O círculo cromático ............................................................................................ 14
3.1.3.4 Cores complementares ........................................................................................ 14
3.1.3.5 Cores metaméricas ............................................................................................. 14
3.1.4 A Reprodução das cores............................................................................................. 15
3.1.4.1 A síntese aditiva ................................................................................................. 15
3.1.4.2 A análise subtractiva .......................................................................................... 16
3.1.5 Quantificação das cores ............................................................................................ 19
3.1.6 Sistema de representação ITS .................................................................................. 21
3.2 – Os Monitores de Imagens ......................................................................................... 21
3.2.1 Introdução ................................................................................................................ 21
3.2.2 O Princípio de Funcionamento e a Estrutura dos Micro-computadores ....................... 22
3.2.3 O princípio de funcionamento de um monitor ............................................................. 27
3.2.3.1 A estrutura de um monitor ................................................................................. 27
3.2.3.2 A formação de uma imagem digital ..................................................................... 30
3.2.3.3 A codificação dos valores radiométricos através do LUT ................................... 32
3.2.3.4 Histograma ........................................................................................................ 33
3.2.4 Visualização Monocanal ............................................................................................. 35
3.2.5 Visualização em Composição Colorida ......................................................................... 36
3.3 - Processamento Digital da Imagem Satélite ............................................................ 43
3.3.1 Pré-processamento .................................................................................................... 43
3.3.1.1 Correcção Radiométrica ...................................................................................... 43
3.3.1.2 Correcção Geométrica ........................................................................................ 44
3.3.1.3 Mosaicagem ........................................................................................................ 53
3.3.2 Processamento Final .................................................................................................. 53
3.3.2.1 Tratamentos radiométrico e espectral ............................................................... 54
3.3.2.2 Tratamento espacial ........................................................................................... 59
3.3.3. Classificação Digital ................................................................................................. 64
3.3.3.1 Classificação Não-Supervisada ........................................................................... 65
3.3.3.2 Classificação Supervisada .................................................................................. 67
3.4 – Interpretação Visual de Imagens Satélite ............................................................. 70
3.4.1 Definição ................................................................................................................... 71
3.4.2 Aspectos da interpretação visual .............................................................................. 71
3.4.3 Fases da interpretação visual .................................................................................... 72
3.4.4 Métodos de Fotointerpretação ................................................................................. 72
3.4.4.1 Sinais da Imagem................................................................................................ 73
PREFÁCIO
O presente fascículo faz parte do Manual de Teledetecção iniciado com o Fascículo I - Satélites
O presente Fascículo II inicia com uma abordagem sobre a teoria da cor, a base de qualquer
comportamento da luz. Aliás, sem luz não há manifestação da cor. Da Grécia Antiga até os
através de teses científicas, deram vazão ao que hoje se entende por Teoria da Cor.
Essa teoria pode ser entendida como o conjunto de conhecimentos relacionados à luz, aos
na organização, percepção e reprodução das cores. Daí a importância da luz, tanto para a
estrutura da luz e seu comportamento, tendo entre seus objectos de estudos o espectro da
visíveis. É para partilhar estes conhecimentos que se incluiu, neste fascículo, a parte referente
à cor.
parte deste fascículo é dedicada a este tema. O monitor de computador emprega o modelo de
cores RGB (sistema de cor luz). O écran do computador projecta a luz, enquanto que os meios
nele impressos reflectem a luz. A cor que vemos no monitor pode sofrer alterações devido a
actividades que o envolvem são executadas por sistemas específicos designados por Software de
arquivos digitais, etc.. Com a evolução da tecnologia de processamento digital e dos softwares
gráficos, vários termos surgiram para as várias especialidades. O termo Sistema de Informação
processa dados gráficos e não gráficos (alfanuméricos), com ênfase em análises espaciais e
modelagem de superfícies.
apropriado. Para o efeito, existem vários pacotes gratuitos na Internet. Para uma auto-
Instituto Nacional de Pesquisas Espaciais do Brasil (INPE), vulgarmente conhecido por Spring e
tratamentos já realizados, pode recorrer aos visualizadores gratuitos, que para além da
Geomatica FreeViewer , da PCI Geomatics, suporta mais de 100 formatos vector e raster e pode
ser usado para a visualização, adaptação dinâmica, ampliação, amostragem de pixeis e de
atributos da imagem. A imagem, contudo, não pode ser editada. A mais recente é a versão 9.1 e
ViewFinder version2.1 do Erdas, funciona somente com o formato raster e, para além das funções
contidas no software acima, inclui outras de sobreposição de imagens, medição de distâncias
entre dois pontos da imagem, projecção múltipla de imagens, rotação, etc. Esta versão coloca
Outra técnica que o presente manual aborda é a Interpretação visual de imagens satélite. Os
métodos computacionais de processamento digital, embora muito mais rápidos do que o método
visual, oferecem-nos por vezes resultados pouco fiáveis, porque os programas desenvolvidos para
a classificação são, na maior parte das vezes, baseados apenas nas assinaturas espectrais dos
objectos. Assim, objectos diferentes podem ser classificados como de uma mesma classe
temática, por apresentarem comportamento espectral idêntico e objectos similares, com
comportamento diferente, podem ser classificados como de classes temáticas diferentes. Pode-
se concluir, por isso, que embora o computador seja mais rápido, a interpretação visual pode ser
mais eficiente, proporcionando-nos resultados mais precisos.
imprimi-la. Por isso, o presente fascículo inclui algumas noções de Cartografia, nomeadamente a
produção de cartas e os aspectos a levar em consideração para a sua edição e utilização. E porque
uma carta tende a ficar desactuaçizada com o tempo, aspectos relacionados à actualização
O autor
Setembro de 2004
3.1.1 Introdução
A manipulação das cores foi influenciada pelas descobertas do comportamento da luz. Aliás, sem
luz não há manifestação da cor. Desde a Grécia Antiga até os tempos contemporâneos, a luz tem
sido fonte de estudo de cientistas, pesquisadores e artistas que, através de estudos
científicos, deram vazão ao que hoje se entende por Teoria da Cor.
Esta teoria pode ser entendida como o conjunto de conhecimentos relacionados com a luz, com
os corpos transmissores e reflectores e com o observador. A associação desses três factores
resulta na organização, percepção e reprodução das cores. Daí a importância da luz, tanto para a
existência das cores, quanto para a manipulação das mesmas.
Com um pouco de treino e formação adequada, o ser humano pode tornar-se competente na
interpretação visual da imagem satélite. Contudo, os nossos olhos possuem certas limitações ao
analisar esta, quer seja a preto e branco, quer seja em composição colorida.
Os sensores dos satélites fornecem-nos dados bastante variados, em diversos canais. O sensor
TM do Landsat, por exemplo, põe-nos à disposição diversos dados em 7 canais distintos, enquanto
o HRV (XS) do SPOT no-los dá em somente três. Para a realização de qualquer composição
colorida somente necessitamos de três canais. Se o satélite possui mais do que três, os canais
poderão ser combinados consoante os fins do estudo, porém, somente três de cada vez.
Somente com a interpretação visual, não nos seria possível atingir certos objectivos. Isto não é
para sugerir que a interpretação visual não é útil. Vamos ter a ocasião de demonstrar quão o é, ao
O espectro electromagnético é uma faixa contínua de comprimentos de onda que são emitidas,
reflectidas ou transmitidas por diferentes objectos. Uma das características do olho humano é a
de poder discriminar mais tonalidades de cor que níveis de cinzento, nesse espectro. Por esta
razão, vamos iniciar esta parte do nosso programa com o estudo da cor: sua definição,
caracterização e representação.
3.1.2.1 Definição
Em termos absolutamente físicos a cor não existe. A noção de cor é inteiramente mental e
psicológica, uma sensação associada à visão e resultado do efeito produzido pela radiação visível
aos nossos olhos. A cor tanto pode ser criada através da interacção entre a luz (do sol, por
exemplo) e os objectos, como pode provir directamente de uma fonte de radiação.
No primeiro caso, a cor é estritamente ligada aos objectos e pode dividir-se em duas categorias:
No segundo, o termo mais empregue é cor de radiação (feixe de raios laser, TV, etc.).
Foi Newton o primeiro a demonstrar, em 1669, que a luz branca se podia decompor nas chamadas
luzes monocromáticas simples e coloridas (violeta, azul, verde, amarelo, laranja, vermelho, etc.).
Para tal, utilizou um simples prisma através do qual fez atravessar a luz que, por sua vez, ao
atingir um novo prisma, retorna à luz branca original. Na realidade, cada uma da ‘luzes’
decompostas a partir da luz branca não é mais que uma onda electromagnética de comprimento de
onda característico, entre os 400nm a 700 nm.
Fonte: www.p.wtlive.com
Nota: Fenómeno idêntico é produzido na Natureza, quando ocorrem certas condições especiais,
como chuva e sol ao mesmo tempo. Assim, pode-se observar o fenómeno do arco-íris. No período
que sucede ou antecede uma chuva, existe no ar uma grande quantidade de gotículas de água. Em
cada gotícula, a luz solar branca sofre decomposição, tal como num prisma, originando luzes
coloridas. A seguir, essas luzes se reflectem dentro da gotícula e saem apresentando as cores do
espectro: violeta, anil, azul, verde, amarelo, laranja e vermelho.
Assim, da experiência de olhar para o céu em um dia chuvoso, pode-se descobrir que a luz solar
branca é composta de muitas cores. Normalmente, vemos o arco-íris na forma semicircular, mas
esta não é sua única forma. Em cada gotícula de água, a luz do Sol sofre decomposição que se
reflecte e sai formando, de acordo com a direcção da luz solar original, ângulos variáveis de uma
cor para outra. Por uma questão de simetria, apenas as gotículas situadas num arco de
circunferência reflectem a luz exactamente para a posição em que se encontra o observador.
Assim, a bordo de um avião ou no alto de uma montanha é possível ver o arco-íris completo, em
toda sua circunferência. Da superfície da Terra, só podemos ver parte dele, ou seja, um arco,
porque a própria Terra intercepta grande parte dos raios solares.
Observa-se, também, que o Sol e o arco-íris estão sempre em direcções opostas: pela manhã, o
arco-íris se forma do lado do poente e, à tarde, do nascente.
O branco e o preto são cores acromáticas (não coloridas) pois não estão presentes no espectro da
luz visível. A partir das duas pode-se obter uma infinidade de tons de cinzento dos quais o olho
humano é capaz de descriminar somente 300. Todas as outras cores são cromáticas (coloridas),
podendo ser monocromáticas (espectralmente puras, com um único comprimento de onda) ou
complexas (impuras, com mistura de cores cromáticas em mais de um comprimento de onda).
A sensação de cor é, de facto, o resultado da ausência de parte da radiação que compõe a luz branca.
Portanto, a cor pode ser caracterizada através da medição da reflectância de um corpo opaco ou
da medição da transmitância de um corpo transparente, de comprimento de onda em comprimento
de onda, no espectro visível.
Após termos visto o aspecto puramente físico da cor, abordemos, agora, o seu aspecto fisiológico,
de modo a compreendermos melhor como é que ela é concebida e distinguida pelo olho humano.
Enquanto a máquina fotográfica se limita a registrar as imagens, o olho desempenha uma função
bem mais complexa. A informação por ele detectada é enviada ao cérebro, por meio de um código
de sinais nervosos dos cones e bastonetes, que geram as respectivas sensações de cor. Dos
impulsos nervosos, o cérebro extrai os elementos necessários para construir uma imagem
compreensível do objecto para o qual olhamos.
Fig. 5 - Absorção média de três pigmentos dos cones, medida com um espectrofotómetro.
Fonte: www.handprimt.com
Os bastonetes provaram ser 500 vezes mais sensíveis que os cones, providenciando-nos uma visão
em níveis baixos de iluminação nocturna (visão escotópica), enquanto que os cones só reagem
quando a iluminação é suficiente (visão fotópica), proporcionando-nos a acuidade visual e a
discriminação das cores. Apesar do grande número dos bastonetes, somente os cones nos
providenciam a visão a cores. Se, porventura, o ser humano tivesse somente bastonetes na retina,
só veria tonalidades de cinzento, como acontece com alguns animais, por exemplo os cachorros.
Nota: O olho é recoberto por um espessa membrana opaca, que apresenta na frente uma região
transparente chamada córnea. Atrás da córnea fica a íris, um diafragma em cujo centro há uma
abertura ( a pupila ) por onde a luz entra.
A pupila é comandada por um músculo que regula o seu diâmetro, permitindo-o variar de 2 a 9 mm,
conforme a intensidade da luz incidente. O espaço entre a córnea e a íris é preenchido por um
liquido transparente chamado humor aquoso.
Quando olhamos para um objecto luminoso ou iluminado, alguns dos infinitos raios de luz dele
provenientes entram no olho através da pupila. Depois de serem refractados nos diversos meios
transparentes, esses raios formam sobre a retina uma imagem real do objecto.
O cristalino é uma lente cuja distância focal pode ser alterada por acção do músculo ciliar. Ao se
contrair, o músculo altera a curvatura da superfície do cristalino. Esse mecanismo é chamado
acomodação, e permite a formação de imagens nítidas sobre a retina, mesmo que a distância do
objecto ao olho se modifique.
Quando o olho está em repouso, o músculo ciliar fica relaxado e o cristalino adopta a curvatura
mínima. Nesse caso, dizemos que o olho está acomodado para o infinito. Quando o músculo ciliar
se contrai, a curvatura do cristalino fica mais pronunciada, permitindo formar sobre a retina
imagens nítidas de objectos situados a cerca de 15 cm do olho (acomodação para o ponto
próximo). No entanto, para conseguir ver nitidamente à tal distância é necessário um certo
esforço. Sem muito esforço, o olho pode ficar acomodado a uma distância de 25 cm do objecto
(distância de visão distinta).
Nem todas as pessoas vêem as cores da mesma maneira. Algumas possuem defeitos hereditários
de visão. Aproximadamente 10% dos homens e menos de 1% das mulheres apresentam algum grau
de deficiência na percepção das cores, por razões de ordem cromossómica. A deficiência mais
comum é a inabilidade de distinguir radiações de comprimento de onda superior a 540 nm.
Dicromatismo ou Daltonismo é o nome que se dá a essa deficiência de característica hereditária,
porque foi Dalton quem primeiramente estudou este fenómeno, no século XVIII, na Inglaterra. O
dicromatismo é provocado pela ausência do pigmento verde ou vermelho na retina.
O tipo mais comum de daltonismo é aquele em que a pessoa não distingue o vermelho do verde.
Pode ocorrer, para o daltónico, a dificuldade em distinguir essas cores, pois elas podem-se
apresentar cinzentas em várias tonalidades. Outros daltónicos podem confundir o azul e o
amarelo. Mas há um tipo raro de daltonismo que leva as pessoas a observar o mundo em
tonalidades de cinzento.
Existem, também, outras deficiências visuais que afectam a cor, tal como o tricromatismo, por
exemplo. As pessoas que sofrem desta deficiência possuem os três pigmentos responsáveis pela
cor mas a sua curva de sensibilidade é diferente da chamada normal. O tricromatismo é mais
frequente que o dicromatismo, segundo as estatísticas médicas.
É muito comum o caso em que a pessoa já nasce com o problema e só descobre a doença quando já
é adulta. Assim, amigos e pais só se apercebem do problema quando vêem o indivíduo a usar meias
de cores diferentes em cada pé, achando que são da mesma cor.
Outras condições que podem levar a distúrbios na percepção das cores são alterações
degenerativas da retina na infância, doenças maculares relacionadas à idade e doenças do nervo
óptico, entre outras. Nos casos adquiridos por doenças, geralmente o indivíduo começa a queixar-
se do declínio de visão e a deficiência de cores pode ser detectada no exame oftalmológico. Cores
muito contrastantes, como verde e vermelho, geralmente são percebidas. O que realmente
confunde essas pessoas são as tonalidades de cores "próximas", como verde escuro e verde
alface, por exemplo.
As cores secundárias são definidas como sendo o resultado da mistura de duas cores primárias,
em quantidades iguais:
Das duas primeiras misturas resultam cores presentes no espectro puro (monocromático). O
resultado da terceira mistura não resulta em uma cor monocromática.
O circulo cromático é uma representação simplificada das cores, que nos ajuda a estabelecer e
facilitar a sua diferenciação e organização. Pode ser desenhado facilmente e empregue para nos
mostrar a relação existente entre as cores (sua mistura, sua complementaridade, etc.). Para o
desenhar, procedemos do seguinte modo: as três cores primárias Vermelho, Verde e Azul são
colocadas no círculo, a distâncias iguais (por exemplo, nos vértices de um triângulo equilátero
imaginário, inserido no círculo). As três cores secundárias (Cião, Magenta e Amarelo são
posicionadas nos pontos diametralmente opostos aos vértices do triângulo. Assim, obtém-se um
círculo de representação com uma intensidade constante. No meio do circulo estará o resultado
da adição das cores primárias e secundárias.
Vermelho
Magenta Amarelo
Cinz.
Azul Verde
Cião
Chamam-se complementares dois feixes de luz colorida cuja mistura resulte em um feixe de luz
branca. No círculo da representação simplificada de cores são complementares quaisquer cores
diametralmente opostas. Contudo, esta noção não se limita às cores representadas no círculo
cromático. O laranja, por exemplo, é complementar do cião-azulado.
Da mistura de duas cores complementares resulta uma cor acromática, normalmente o Cinzento
neutro ou, se as duas cores forem muito intensas, o Branco (centro do círculo).
A natureza das três cores na percepção da cor representada na fig. 10 pode levar-nos a uma
percepção visual idêntica de cores de um espectro diferente: Diferentes espectros podem-nos
Os princípios utilizados para a reprodução das cores são: Síntese aditiva e análise subtractiva.
A cor branca pode ser sintetizada projectando, num compartimento escuro e sobre uma tela
branca, um feixe de raios coloridos de luz Vermelha, Verde e Azul. Com a modulação da
intensidade dos três raios, podemos obter qualquer tipo de cor.
Nota: Na prática, um filtro nunca deixa passar somente um tipo de radiação, mas sim um
determinado intervalo dos seus valores. Um filtro é caracterizado pela sua faixa de passagem ou
pela sua curva de transmitância espectral. Os filtros desta última característica são de alta
qualidade e, consequentemente, bastante caros.
Frequentemente, esta técnica é referida como ‘síntese subtractiva ´. Este termo é inexacto pois,
de facto, não se realiza nenhuma “síntese” real neste processo. O princípio da análise subtractiva
é o seguinte: um feixe de luz branca passa sucessivamente por vários filtros - Cião, Magenta e
Amarelo - que bloqueiam as suas respectivas cores complementares. No fim do processo, as três
cores primárias Vermelho, Verde e Azul são absorvidas pelos filtros e, no fim da linha aparece,
somente, o Preto. Tal como na síntese aditiva a absorção selectiva dos filtros pode ser modulada
de modo a reter somente as três cores primárias e, daí, obter qualquer tipo de cor pretendida.
A maneira mais fácil de ilustrar este princípio seria sobrepor os três filtros (Cião, Magenta e
Amarelo num único projector ou outra fonte de luz branca.
Vermelho
Verde Preto
Azul
Fonte: www.dca.fee.unicamp.br
Apesar de se poder obter o Preto pela mistura das três cores secundárias Cião, Magenta e
Amarelo, ele é adicionado porque os materiais empregues na impressão (papel ou filme) não são
puros nem perfeitos e variam consoante o fabricante. Em vez de puro Preto, poderíamos obter
um castanho muito escuro na mistura. Outra razão para a inclusão da tinta preta é a seguinte: o
texto que é geralmente desta cor pode ser impresso de uma só vez, em vez de resultar da
sobreposição das cores secundárias com todos os riscos nele inerentes (distorção do papel e
imprecisão na sobreposição das letras).
Quando usamos o padrão RGB, devemos filtrar cada banda do modelo, isto é, R, G e B. O princípio
básico empregue em offset para a mistura de cores é o seguinte:
Em resumo, a síntese aditiva e a análise subtractiva de cores são dois princípios complementares,
ambos com a mesma finalidade: reprodução de qualquer tipo de cor. O primeiro parte do Preto e
recria qualquer cor a partir da adição do Vermelho, Verde e Azul. O segundo começa com uma
fonte de luz branca e vai filtrando, sucessivamente, a parte supérflua das suas componentes
primárias através de filtros complementares Cião, Magenta e Amarelo, respectivamente.
Para exprimir uma cor, as palavras são, quase sempre, subjectivas: dependendo da pessoa, a
mesma palavra pode ser empregue para designar duas cores distintas e, por outro lado, a mesma
cor pode ser definida por palavras completamente diferentes. Para evitar esta ambiguidade, a
cor pode ser definida mais racionalmente por números. A isto se chama quantificação.
É facial passar de um sistema para o outro e isto torna-se necessário quando, por exemplo,
pretendemos imprimir uma cor para a qual dispomos, somente, das componentes Vermelha, Verde
e Azul, enquanto a impressora só funciona com o Cião, Magenta e Amarelo. Qualquer cor (C) pode
ser definida através de coordenadas (r, g, b), conhecidas como coordenadas das três cores do
sistema ‘RGB’. r, g, b representa as quantidades de cada uma das cores primárias requeridas para
produzir “C’, isto é, os valores lidos na escala dos reguladores montados em cada um dos feixes
Vermelho, Verde e Azul:
C = rR +gG + bB
Se este tipo de síntese for representado no espaço livre, com eixos perpendiculares, todas as
cores serão localizadas num cubo (fig. 77). Os televisores coloridos usam este sistema
referencial.
Neste sistema o Preto toma o valor (0, 0, 0) e o Branco (255, 255, 255).
Como o Cião, Magenta e Amarelo são complementares do Vermelho, Verde e Azul, respectiva-
mente, as três coordenadas (c, m, y) de uma cor do sistema referencial CMY com três
coordenadas (r, g, b) no sistema RGB tomarão os seguintes valores:
Para analisar ou medir as coordenadas dos dois sistemas de referência, existem instrumentos
próprios:
Exercício (TPC)
2. Qual será a cor resultante da sobreposição de dois filtros Vermelho e Verde numa fonte de
luz branca (um projector, por ex.)?
Para além da cor poder ser definida como uma mistura de três cores primárias ou secundárias em
proporções determinadas, também pode ser caracterizada por três parâmetros: Intensidade,
Tonalidade e Saturação.
Saturação - Indica o grau de pureza de uma cor. As cores dos objectos são, normalmente,
diluídas pelo branco, numa proporção maior ou menor. Na pintura, por exemplo, adiciona-se o
branco quando se quer reduzir a saturação de uma determinada cor. Nos monitores e televisores
coloridos, a saturação pode ser aumentada ou diminuída com o botão da cor.
Os três parâmetros Intensidade, Tonalidade e Saturação são um trio de propriedades que podem
definir completamente uma cor. A vantagem do sistema ITS, em relação ao RGB, reside no facto
das coordenadas de cada eixo poderem ser correladas à sensação da nossa visão:
Os algorítmos de conversão deste sistema para o RGB e vice-versa são algo complicados e não
vamos referi-los aqui. Existem, também, outros sistemas referenciais além dos aqui mencionados.
3.2.1 Introdução
O monitor de computador emprega o modelo de cores RGB (sistema de cor luz). O écran do
computador projecta a luz, enquanto que os meios nele impressos reflectem a luz. A cor que
vemos no monitor pode sofrer alterações devido a condições adversas do ambiente externo
(luminosidade da sala, temperatura, etc.). Nestas condições é difícil obter-se cores consistentes.
Quando a imagem aparece na tela ou écran, para a podermos visualizar convenientemente e com
todos os detalhes, temos que melhorar a sua dinâmica. Com esta já melhorada podemos, então,
localizar as partes que nos interessam e interpretar a informação nela contida.
Para que todo este processo seja realizado conscientemente e da forma mais útil possível,
convém teremos noções sobre o funcionamento dos computadores e respectivos monitores.
0, 1, 2, 3, 4, 5, 6, 7, 8, 9.
Os símbolos são, aqui, representados em ordem natural e deve ser entendido que o 0 precede o 1,
em vez de suceder ao 9, como no disco dos telefones. O desenvolvimento decimal é do tipo:
361 = 3.102+6.101+1.100
(361)10 = (101101001)2
Esta desvantagem é aliviada pelo uso do sistema octal, cuja base, oito, é uma potência de dois. A
representação binária e octal estão tão intimamente relacionadas que uma pode ser transformada
na outra. As calculadoras octais de mesa foram construídas para facilitar a verificação de
resultados intermediários em computadores binários automáticos.
Outra potência de dois, que muitas vezes é empregue como base, é o número dezasseis. O sistema
hexadecimal resultante combina a fácil translação para o sistema binário, com a habilidade de
representar qualquer dígito decimal por um único dígito hexadecimal. Remanescentes do sistema
sexagesimal chegaram até nós no uso de sessenta divisões ao computar latitudes e a subdivisão
da hora, intimamente relacionadas com aquela.
O homem tem usado, também, outros sistemas e é possível destacar os méritos e desvantagens
de quase todos eles.
Terminemos este assunto da representação dos números com um quadro ilustrativo de conversão
de um número decimal em binário:
Grupos de 4 bits são, muitas vezes, usados como caracteres numéricos. Quando os caracteres
incluem letras do alfabeto, (cinco dígitos binários são suficientes para codificar as letras do
alfabeto), conjuntamente com dígitos decimais e outros caracteres especiais (tais como sinais de
pontuação), então chamam-se caracteres alfanuméricos.
O Código Padrão Americano para Intercâmbio de Informações (ASCII) usa sete bytes e inclui o
alfabeto. Este código internacional é reconhecido por todos os construtores de aparelhos
digitais, portanto, é independente da máquina. Permite codificar 128 caracteres diferentes.
Existem, entretanto, outros códigos como, por ex., o código ANSI que usa oito bytes.
A Estrutura do micro-computador
O computador é composto por duas partes distintas: a primeira, responsável pelas operações,
engloba os componentes mecânicos e electrónicos e é conhecido por hardware (HW). A outra,
composta pelos programas e a maneira de os correr, designa-se por software (SW).
Os periféricos são de diversos tipos, dependendo da função para que são projectados:
A memória permanente serve para guardar a informação por longos períodos de tempo. Mesmo
depois de desligar o aparelho, a informação continua armazenada nela. Como exemplos de memória
permanente, podemos citar:
Em 1980, a memória viva dos micro-computadores era de cerca de 64 Kb. Hoje, a maior parte
dos PC’s possui pelo menos 64 Mb de RAM e o recomendável para correr alguns sistemas
operativos é cerca de 128 Mb. Presentemente, é normal operar com micro-computadores com
RAM na ordem dos Gbytes.
O tratamento da imagem satélite requer grande capacidade de memória, tanto permanente como
viva. Para armazenar uma imagem SPOT XS, com 3.000 linhas e 3.000 colunas em três canais
diferentes, necessitamos de mais de 27 Mbytes (3.000 x 3.000 x 3 000 = 27 Mbytes). Uma
imagem SPOT PAN, com 6.000 linhas e 6.000 colunas, ocupa 36 Mbytes. A imagem LANDSAT
TM, com 6.000 linhas e 7.000 colunas, em sete canais diferentes, ocupa cerca de 300 Mbytes.
Imaginemos, então, a capacidade necessária para armazenar as imagens dos satélites da nova
geração, como o SPOT 5, por exemplo, com 2,5 m de resolução no canal pancromático.
A maior parte dos tratamentos numéricos das imagens satélite geram outros objectos que são,
também, armazenados provocando, às vezes, a lentidão da leitura das funções de afixação.
O arquivo dos dados pode ser feito em vários formatos. Os mais comuns são os seguintes:
BIL (band interleaved by line) – Cada canal é intercalado com a linha de varredura que
forma as colunas (linha 1 - canal 1, linha 1 - canal 2, linha 3 - canal 3, linha 1 – canal n; ...,
linha 2 – canal 1, linha2 – canal 2, linha 3 – canal 3, linha 2 – canal n; ...). Os dados do
SPOT1 são armazenados neste formato, nos seus gravadores a bordo.
BSQ (band sequential) – Um canal inteiro é intercalada por linhas (linha 1 – canal 1, linha 2
– canal 1, linha 3 canal 1, linha x – canal 1; ..., linha 1 – canal 2, linha 2 – canal 2, linha 3 –
canal 2, linha x – canal 2; ...). Os dados do Landsat são, geralmente, gravados neste
O componente principal num monitor é o tubo de raios catódicos, tal como nos aparelhos comuns
de televisão. Numa das extremidades o tubo emite um feixe de electrões e na outra uma tela de
fósforo ilumina-se ao ser bombardeada pelos electrões. Já que a luz emitida pelo fósforo
enfraquece rapidamente, o feixe de electrões necessita de bombardear o fósforo continuamente,
pelo menos 30 vezes por segundo. Este é o mínimo de tempo de refrescamento (refreshing time)
necessário para evitar o tremular da imagem.
Os monitores antigos utilizavam um tubo de raios catódicos vectorial. Nesse tipo de tubo de raios
catódicos, o feixe de electrões funcionava como um lápis, desenhando linhas na camada de
fósforo. Embora as linhas pudessem ser de muito alta qualidade, não serviam para visualizar uma
imagem satélite que é do tipo ‘raster’. O problema foi solucionado com o aparecimento do tubo de
raios catódicos ‘raster’, também utilizado nos televisores comuns. Este possui uma matriz de
luminescência com pixeis onde é armazenada a informação digital da imagem, para ser convertida
em sinal analógico pelo controlador da tela. Assim, as imagens são produzidas como uma série de
linhas horizontais discretas. O monitor apresenta imagens como uma série de pontos denominados
O monitor de computador emprega o modelo de cores RGB. A tela do computador projecta luz,
enquanto os meios nela impressos reflectem a luz. A cor que vemos no monitor pode-se alterar de
acordo com as condições do ambiente externo (luminosidade da sala, temperatura, etc.). Nestas
condições é difícil obter cores consistentes.
Máscara
A resolução de um monitor é normalmente indicada pelos fabricantes pelo número total de pixeis
numa linha horizontal e vertical:
•800 x 600
•1024 x 768
•1260 x 1024
Na fig. 16, por exemplo, para cada pixel da imagem foi atribuído um espaço de memória que
corresponde a 1 bit por pixel. Neste caso, apenas 2 cores podem ser utilizadas simultaneamente:
As imagens em bitmaps ocupam muito espaço de memória. Foram desenvolvidas algumas técnicas
de compressão de dados de modo a que a memória não fique muito sobrecarregada. A utilização
de algumas dessas técnicas resulta em pequenas perdas de informação original, contrariamente à
utilização das outras. Os formatos de imagens mais comuns são os seguintes:
TIFF (Tagged-Image File Format) – desenvolvido inicialmente pela empresa americana Aldus
Corporation, conjuntamente com um grupo dedicado ao fabrico de ‘scanners’, é usado para a troca
de dados entre aplicações múltiplas, sem perdas de dados. Este formato utiliza uma técnica de
compressão LZW TIFF, que funciona com outro tipo de cores para além das indexadas. Hoje, o
TIFF tornou-se uma família de formatos largamente utilizada como suporte de várias aplicações.
O GeoIFF, por exemplo, permite que os dados sejam geo-referenciados ou geo-codificados.
JPEG (Joint Photographic Experts Group) – é um formato cujo processo de compressão emprega
uma técnica que identifica e põe de fora os dados que não são essenciais na visualização da
imagem. A perda de qualidade dos dados depende do nível de compressão escolhido. Este formato
não é recomendado para o arquivo de imagens satélite pois modifica o valor dos pixeis. Para
minimizar este problema, foi desenvolvido um sub-formato melhorado, o JFIF (JPEG File
Interchange Format), com o qual se pode arquivar imagens satélite, sem perca de dados.
MrSID (Multiresolution Seamless Image Database) – pronunciado Mister Sid, este formato é
mais usado em imagens satélite. Emprega uma excelente técnica de compressão desenhada pela
companhia americana LizardTech, Inc., que inclui uma eficiente implementação de memória e uma
inclusão automática de pirâmides ou camadas nos dados arquivados. Isto permite a este formato
o arquivo de grandes quantidades de dados digitais num espaço muito reduzido bem como a sua
rápida afixação na tela, sem grande perda de qualidade.
A função de uma imagem é a representação de um objecto ou uma cena no plano. Existem três
formas principais de representar uma imagem:
Em cada canal, qualquer pixel é ligado a três valores distintos (fig. 22):
Os três canais XS1, XS2 e XS3 (fig. 84) correspondentes à radiação verde, vermelha e
infravermelha, respectivamente. As coordenadas do pixel Pij são Li e Cj e cada uma das medições
associadas a XS1ij, XS2ij, XS3ij correspondem aos valores radiométricos de cada canal.
Os canais de uma imagem bruta são quase ilegíveis se o seu contraste não for ajustado.
Efectivamente, é raro ter uma imagem bruta com valores extremamente fortes de radiometria,
qualquer que seja a banda espectral. No visível, por exemplo, a quase totalidade dos valores
radiométricos situam-se entre 0 e 80, num intervalo total de 0 a 256 níveis de cinzento. O valor
0 (codificado a preto) significa que o sensor não tem resposta nenhuma sobre o objecto. O valor
255 (codificado a branco) significa que a resposta do objecto é total, isto é, toda a radiação
electromagnética reflectida pelo objecto é captada pelo sensor (fig.23).
Se quisermos fazer uma visualização monocanal de dados brutos, teremos de recorrer a algumas
técnicas para melhorar o seu contraste global. Na prática, utilizam-se as tabelas de codificação
LUT (Look Up Table) e os dispositivos de conversão digital/analógico (DAC), para o efeito. Os
valores possíveis no canal constituem os dados de entrada da tabela e os valores visualizados no
écran, os dados de saída. A Fig. 24 mostra-nos um exemplo de codificação em forma digital e sua
respectiva representação gráfica.
Realizar uma adaptação dinâmica a uma imagem consiste em modificar o endereçamento dos
valores radiométricos para o écran, através do “Look Up Table”. Os valores brutos de radiometria
são transformados em valores definidos nessa tabela. O fósforo do écran de um monitor vídeo
3.2.3.4 Histograma
Para ter uma ideia dos valores radiométricos efectivamente contidos numa imagem podemos
contar, para cada valor, o número de pixeis existentes e obter, assim, uma tabela da população.
Designaremos, então, por população o número de pixeis possuindo esse valor radiométrico.
Podemos representar a tabela em forma gráfica. Quando a população está em forma gráfica,
designa-se por histograma.
O histograma de um canal da imagem digital é uma função que expressa o número de pixeis
associados a um valor radiométrico, geralmente, contidos num sistema de coordenadas planas, em
que o eixo horizontal representa o valor radiométrico (de 0 a 255) e o vertical o número de
Fig. 26 – Imagem bruta pancromática (extracto ETM+ 167-78, de 8/8/00) e respectivos valores digitais
• forma de “ripas”, onde o número de pixeis de igual valor radiométrico é representado por
linhas verticais bastante finas;
• forma de “coluna “, onde o número de pixeis de igual valor radiométrico é representado
por linhas um pouco mais grossas;
• forma de “gráfico”, representando uma função continua que une cada um dos picos das
linhas anteriormente descritas.
O histograma pode, também, ser apresentado numa tabela, em forma digital, na qual os valores
digitais possíveis na imagem (de 0 a 255) formam os dados de entrada e o número de pixeis
associados a cada um deles constitui o resultado.
A afixação de uma imagem satélite nem sempre é como nós desejaríamos: por um lado, porque as
imagens são compostas por milhares de linhas e de colunas e, por outro, porque os monitores
vídeo e seus associados módulos gráficos possuem constrangimentos técnicos na sua reprodução.
A principal limitação de um monitor vídeo é a sua “resolução”.
Existem monitores vídeo de alta resolução ( superiores a 1024 pontos por linha) e outros de baixa
resolução (iguais ou inferiores a 512 pontos por linha). Devido às suas limitações, qualquer dos
dois impossibilita-nos a afixação integral de uma cena completa, isto é, com todos os seus pixeis.
Assim, para visualizar a imagem, teremos que optar por uma das seguintes possibilidades:
• Afixação em plena resolução: não há compressão, todos os pixeis são apresentados e caso a
Para termos acesso à informação simultânea de três canais, é necessário utilizar o método de
visualização em composição colorida. Já sabemos que cada canal da imagem representa a
reflectância espectral da cena observada numa parte do espectro electromagnético, seja no
visível ou no infravermelho próximo, médio, térmico, ou ainda, nas ondas centimétricas.
Carregando três planos-imagem diferentes nas três cores básicas Vermelho, Verde e Azul,
estaremos a efectuar uma composição colorida. A visualização em composição colorida consiste,
portanto, em seleccionar os três canais e endereçá-los, cada um, a uma cor primária.
As imagens multiespectrais do satélite SPOT 1, por exemplo, contêm dois canais (XS1, XS2) no
visível e um canal (XS3) no infravermelho próximo. Para integrar o canal infravermelho (para nós
invisível) na composição colorida, temos que adoptar certas convenções: a tela de um monitor de
imagens (como nos televisores) é composto por pontos, cada pixel da imagem é endereçado a um
determinado ponto, cada ponto do écran é composto por três fósforos contendo as três cores
primárias (Vermelho, Verde, Azul).
Para a captação da imagem muitos sensores utilizam as seguintes radiações, em ordem crescente
do seu comprimento de onda: Verde, Vermelho e Infravermelho.
Obviamente, a cor “infravermelha” não existe e, por isso, não é possível afectar cada canal à cor
correspondente do seu comprimento de onda. Resta-nos, então, proceder a uma afectação
convencional, ligando cada canal a uma cor primária, na ordem crescente do seu comprimento de
onda, isto é, Azul, Verde, Vermelho. Por exemplo, para uma imagem do HRV, a seguinte ordem:
Canal Cor
XS1 (Verde) Azul
XS2 (Vermelho) Verde
XS3 (Infravermelho) Vermelho
Para a imagem do TM, que possui sete bandas espectrais, temos de fazer a escolha das bandas
sobre as quais pretendemos fazer a análise em composição colorida. Se a composição que
pretendemos é similar à empregue para a imagem do HRV, então endereçamos:
Canal XS3 (IR próximo) Canal XS2 (Vermelho) Canal XS1 (verde)
Por exemplo, partindo do princípio de que a vegetação verde e saudável se reflecte fortemente
no canal XS3 do HRV do SPOT, se a este canal foi atribuída a cor vermelha, então, pode-se
concluir que o que aparecer avermelhado na imagem será vegetação. Se ao XS1 afectarmos a cor
azul e, sabendo que este canal reflecte a água melhor que os outros, o que aparecer a azul será
água. Na realidade, a água possui baixa reflectância espectral em todos os canais do HRV mas o
seu pico está em XS1. Seguindo o mesmo raciocínio, se tivermos um cião claro, uma cor
esbranquiçada ou amarelada, saberemos que se trata do resultado da junção das três cores
primárias e isso, representa solo nu, areia, construções urbanas, etc., porque estes possuem uma
reflectância espectral idêntica nos três canais do HRV.
Se, contudo, atribuirmos a cada canal uma cor de acordo com a cor real do seu comprimento de
onda, por exemplo, o canal TM3 (vermelho) à cor Vermelha (R), TM2 (verde) à cor verde (G) e
TM1 (azul) à cor azul (B), teremos uma composição em cores naturais (fig. 30).
Adaptação Dinâmica
O fraco contraste que se pode apresentar na afixação de uma imagem, tanto se pode verificar em
dados brutos ou numa imagem já corrigida. Nesta, somente algumas áreas da imagem se
apresentam com uma espécie de sombra ou com pouco contraste, enquanto nos dados brutos a
falta de nitidez é generalizada em toda a imagem. A adaptação dinâmica (contrast stretch), a que
já nos referimos anteriormente, pode ser realizada de duas maneiras: por regulação do
histograma da imagem ou por regulação manual.
Regulação do histograma
a) Amostragem linear simples: consiste na introdução automática de uma função linear que faz
correspondência entre os valores radiométricos da imagem e o valor do brilho das cores
reproduzidas no écran. Assim se, por exemplo, numa tela de amplitude 0 a 255 se afixar uma
imagem cujos pixeis possuem um valor entre 30 e 100, o contraste desta será pobre. Com a
adaptação dinâmica, o programa pode afixar o valor 30 com brilho 0 e o valor 100 com brilho 255
e interpolar linearmente os valores intermédios (amostragem linear simples). Ou pode limitar os
valores máximo e mínimo do histograma, dando um valor zero a todos os pixeis que estiverem
abaixo de um determinado valor e 255 a todos os que estiverem acima de um valor escolhido
(amostragem linear simples com desvio padrão).
f(x) = 255[(x-Min)/(Max-Min)]
A curva característica de uma amostragem linear simples é direita e este tipo de adaptação
dinâmica emprega-se mais para imagens brutas.
• por janela (alterando o valor máximo e mínimo, com variação automática dos pontos
intermédios).
A amostragem linear em degraus utiliza-se mais para imagens já corrigidas, para realçar algumas
zonas específicas de pouco contraste.
c) Amostragem não linear: quando os valores máximo e mínimo dos pixeis de cada canal são
extremos em relação aos restantes, não se pode utilizar o método linear pois a interpolação não
melhoraria o contraste da imagem. Nesses casos, utiliza-se uma função não linear, pelo que, a
curva característica resultante não é direita. A aplicação da amostragem não linear aumenta
gradualmente o contraste de uma zona ao mesmo tempo que diminui gradualmente o de outra.
Esta é também útil para realçar zonas ou objectos específicos em imagens já corrigidas.
Uma das maneiras de proceder a uma amostragem não linear é através da equalização do
histograma. Com efeito, a equalização do histograma é um método não linear que redistribui os
valores dos pixeis de modo a ter, aproximadamente, o mesmo número de pixeis com o mesmo valor
num determinado intervalo. Assim, pode-se aumentar o contraste no pico do histograma e diminui-
lo na base. Geralmente, qualquer adaptação dinâmica é realizada somente na tela, mantendo-se
inalterados os valores originais da imagem. Já mencionamos em 3.2.3.3 que durante a adaptação
dinâmica é automaticamente criada uma tabela de conversão designada por look-up table. Se
quisermos guardar os valores obtidos na adaptação dinâmica, teremos que salvar o look-up table
como parte integrante da imagem matricial. Assim, a próxima vez que a imagem for afixada, os
valores guardados serão carregados por defeito como os actuais.
Regulação manual
3.3.1 Pré-processamento
Quando uma imagem é captada no centro de recepção terrestre ou registada nas fitas
magnéticas a bordo dos satélites, contém um certo número de distorções que devem ser
corrigidas antes da sua análise ou interpretação. Pré-processamento consiste na preparação dos
dados brutos de modo a melhorar a sua qualidade. De entre as técnicas mais empregues,
destacam-se: correcção radiométrica, correcção geométrica e mosaicagem.
Esta espécie de correcção nem sempre é fácil, pois as distorções que originam as variações de
radiância dependem não somente do sensor como, também, variam de imagem para imagem devido
a outros factores. Aqui, limitaremos a nossa abordagem às imagens dos sensores ópticos.
Quando o sensor possui múltiplos detectores em várias linhas (MSS ou TM do Landsat, por
Uma outra anomalia comum nas imagens é a falha de dados numa linha. Isto ocorre quando o
detector deixa completamente de funcionar ou fica temporariamente saturado durante a
varredura. O resultado é uma listragem na linha inteira ou parcialmente. Esta pode ser corrigida
substituindo os valores dos dados da linha com outros estimados a partir da linha acima ou
abaixo.
Outro tipo de distorção é causado por alguns efeitos atmosféricos tais como o nevoeiro, vapor de
água e nuvens. Estes fenómenos atmosféricos reduzem a radiância dirigida ao sensor,
principalmente nos comprimentos de onda mais curtos diminuindo, consequentemente, a sua
nitidez. Apesar de não serem propriamente falhas, uma adequada adaptação dinâmica pode
minimizar o problema. Se com esta não for possível, pode-se recorrer a métodos pontuais tais
como a subtracção de pixeis, a conversão da radiância em reflectância, aplicação de regressões
lineares ou modelação atmosférica.
Quando os ângulos de varredura do sensor são grandes (em alguns satélites ambientais), a
distância percorrida pela energia e proveniente dos objectos na superfície da terra é maior nos
extremos que no centro de varredura (nadir) do sensor. Disto resulta um desnível de radiância
entre os extremos e a parte central da imagem. Esta distorção pode ser removida omitindo os
extremos ou modelando um declínio de radiância em direcção aos extremos.
Quando é realizada de uma forma mais rigorosa, usando Modelos Numéricos de Terreno - MNT’s
e informações relativas à posição do satélite, a rectificação toma o nome de ortocorrecção.
Existem vários sistemas de projecção cartográfica e cada um deles está associado a um sistema
de coordenadas expressa numa grelha com pares X,Y (coluna e linha) de números que
representam a posição de qualquer ponto.
A rectificação de uma imagem nada mais é senão um processo de transformação dos seus dados,
de uma grelha de coordenadas para outra, usando transformações geométricas. Portanto, a
correcção geométrica ou rectificação é somente necessária nos casos em que a grelha de pixeis
da imagem deve ser alterada para se sobrepor a um sistema de projecção cartográfica ou a uma
Pontos de controle terrestres são feições possíveis de serem identificadas de modo preciso na
imagem e no mapa (imagem de referência ou no terreno), como por exemplo o cruzamento ou
intersecção de estradas, vértices das pistas de aterragem (aeroportos e aeródromos), junções
de canais de drenagem (rios ou riachos permanentes), etc.. Para a sua colheita a partir de um
mapa, é necessário que seja um mapa planimétrico ou plani-altimétrico confiável e numa escala
adequada, visto que os pontos de controle terão que ser precisamente identificados em ambos,
imagem e mapa.
Com os pontos de controle determinados aplica-se, em seguida, uma função que integra as
coordenadas do mapa na imagem, da imagem geocodificada na outra ou dos pontos medidos no
terreno na imagem. Esta função é um polinómio de transformação, geralmente de 1º ou 2º grau.
A partir dos GCP’s, é computada uma matriz de transformação, composta de coeficientes que são
usadas na equação polinomial para converter as coordenadas. Uma fórmula prática para calcular o
número de coeficientes de uma matriz de transformação é a seguinte:
Para um polinómio do 2º grau, por exemplo, a matriz de transformação terá 12 coeficientes, seis
para cada coordenada (x e Y):
ao a1 a2 a3 a4 a5
bo b1 b2 b3 b4 b5
Ao analisar os erro RMS na correcção geométrica, temos de ter em conta o tipo de dados que
estão a ser corrigidos, a sua finalidade nos diversos usos e a fonte da sua aquisição. Para GCP’s
colectados com GPS o erro não deve exceder os 10 metros, nas imagens de alta resolução (10 a
30 metros). Porém, neste mesmo tipo de imagens, se a fonte for um mapa topográfico à escala de
1:50.000, por exemplo, o erro não deve ser superior a 20 metros. Normalmente, para que a
correcção geométrica tenha uma boa precisão no interior da imagem corrigida, o erro MRS não
deve exceder a 1,00.
• Retirar o ponto com maior erro, assumindo que este é o menos confiável e computar de
novo a transformação, somente com os pontos restantes. Assim, o resultado pode
melhorar. Porém, se o ponto retirado é o único numa zona particular da imagem, da nova
computação podem advir erros maiores;
• Seleccionar somente os pontos que julgarmos mais consistentes e confiáveis;
• Tolerar um erro um pouco maior, se possível.
Se com as duas opções acima não tivermos resultados satisfatórios, então pode-se aumentar a
complexidade da transformação, passando para um polinómio de 3º grau ou superior.
Métodos de Reamostragem
O passo seguinte para completar a transformação geométrica é a criação do ficheiro de saída.
Porque a grelha de pixeis na imagem com os pontos introduzidos a partir duma fonte raramente
coincide com a grelha de saída na imagem de referência, é necessário fazer uma reamostragem
dos pixeis, de modo a calcular os valores dos novos dados na imagem de saída.
Alocação de vizinho mais próximo - atribui ao valor de nível de cinzento do pixel da imagem
corrigida o mesmo valor do pixel que se encontra mais próximo da posição a ser ocupada. Não há
alteração assinalável no valor de nível de cinzento. Pela sua característica, é aplicado em imagens
onde não há heterogeneidade nos valores de nível de cinzento. Imagens saídas deste método
discriminam melhor diversos tipos de vegetação e contornos associados a alinhamentos
geológicos. Também determinam os diferentes níveis de turbidade ou temperatura nos lagos.
As maiores vantagens do método de alocação do vizinho mais próximo residem na sua simplicidade
e, consequentemente, na facilidade e rapidez da sua computação, tornando as imagens
apropriadas para serem usadas em classificação temática.
Interpolação bilinear - faz com que o nível de cinzento a ser atribuído ao "pixel" da imagem
corrigida seja determinado a partir do valor dos 4 pixeis vizinhos. Como resultado, há alteração
do valor do nível de cinzento, considerando a sua vizinhança. É mais aplicado nas imagens onde há
heterogeneidade nos níveis de cinzento dos pixeis ou nos casos em que pretende se fundir dados
de resolução espacial diferente como, por exemplo, do SPOT com os do Landsat. A imagem de
saída possui, geralmente, maior precisão espacial que a obtida com o método anterior.
Convolução cúbica – este método é similar ao anterior, com a única diferença de que faz com que
o nível de cinzento a ser atribuído ao "pixel" da imagem corrigida seja determinado a partir do
valor dos 16 "pixeis" vizinhos. A vantagem deste método é o de proporcionar, simultaneamente,
um bom contraste na imagem e uma boa atenuação dos ‘ruídos’. É recomendado o seu uso quando
se pretende mudar drasticamente a dimensão das células (área representada pelos pixeis) dos
dados, tal como na fusão de dados TM com os de uma fotografia aérea digital. Este método é,
porém, o mais lento na computação por causa da sua complexidade.
Algum software de tratamento de imagens permite uma reamostragem por interpolação híbrida,
aplicando a alocação de vizinho mais próximo e do interpolador bilinear, consoante a
característica local dos níveis de cinzento na imagem.
Como já nos referimos, os pontos de controle terrestre podem ser adquiridos de três modos:
No modo mesa, se a mesa digitalizadora não estiver calibrada, começamos pela sua calibração,
reconhecendo pontos homólogos, isto é, pontos que correspondam às mesmas feições na imagem e
no mapa, antes de iniciar com a sua aquisição. O mapa a utilizar tem de ser um mapa-base com boa
precisão. Há que evitar usar mapas iguais ou superiores à escala de 1:250.000 para as imagens
dos satélites de Teledetecção. Quanto maior é a resolução da imagem, melhor deve ser a precisão
planimétrica do mapa.
No modo écran, convêm recorrer a uma opção de ampliação da imagem, para permitir uma maior
precisão na localização os pontos. Contudo, evite-se tentar corrigir uma imagem de maior
resolução a partir de outra de menor resolução, isto é, não se deve usar uma imagem TM para
corrigir uma do HRV do SPOT ou uma imagem do SPOT para corrigir uma do IKONOS! Tanto
quanto possível, deve-se utilizar igual resolução ou escolher uma imagem de maior resolução para
corrigir a de menor. Neste modo, a correcção é de imagem para imagem e os pontos são
seleccionados e introduzidos via mouse, no visualizador. Devem-se manter ambos os
visualizadores (da fonte e do destino) abertos para permitir a selecção e a introdução das
respectivas coordenadas. Estas, são salvas na imagem, ao contrário das introduzidas através da
mesa digitalizadora ou directamente com o teclado, que são salvas como ficheiros separados.
Ortocorrecção
A ortocorrecção é, geralmente, baseada em equações colineares que podem ser derivadas dos
pontos de controle adquiridos em três dimensões. Aos dados brutos é aplicado o MNT para se
criar a imagem ortocorrigida. Após a criação desta, cada pixel da imagem passa a ter uma boa
fidelidade geométrica.
A correcção geométrica não é necessária quando não há distorção geométrica na imagem. Se, por
exemplo, tivermos uma imagem resultante da ‘scanagem’ ou digitalização de um mapa que se
encontra num sistema de projecção cartográfica desejado, então, essa imagem já é plana e não
requer uma correcção geométrica. Contudo, se quisermos integrar essa imagem matricial numa
base de dados SIG, será necessário fazer antes o seu registo na projecção cartográfica usada
nesse banco de dados. A este processo dá-se o nome de geo-referenciamento.
Designam-se por dados geocodificados os que já sofreram correcção geométrica e aos quais
foram aplicadas correcções radiométricas e outros melhoramentos. Imagens geocodificadas
permitem especificar a projecção, datum, elipsóide, etc., facilitando a representação das suas
coordenadas em latitude e longitude, para a reprojecção num outro sistema.
Chama-se a atenção que a terminologia aqui empregue pode diferir com a empregue em outros
países ou por outros autores!
Por causa da deformação de terreno causada pelo método de aquisição, as imagens radar passam,
geralmente, por um processo especial de orto-correcção que envolve vários passos:
Por causa da complexidade dos algorítmos utilizados, o pré-processamento das imagens radar não
será aqui abordado.
3.3.1.3 Mosaicagem
Mosaicagem de imagem nada mais é do que um processo de colagem de imagens adjacentes, para
obter uma maior cobertura da área de estudo. Acontece variadas vezes que a área de interesse
se situa em duas ou mais imagens adjacentes.
Após o pré-processamento, os dados estão prontos para serem empregues numa aplicação
particular. Contudo, antes do seu derradeiro uso, pode-se melhorar ainda mais o seu aspecto, de
modo a tornarem-se mais facilmente interpretáveis.
Para tal, existe um grande número de técnicas ao nosso dispor, que deve ser seleccionado de
acordo com:
• tratamento espacial - melhoram a imagem usando valores de pixeis individuais bem como
os dos pixeis em redor (textura, estratificação, filtragem, fusão de diferentes
resoluções, análise focal, contornos não-direccionais, etc.);
Um dos tratamentos radiométricos tem por objectivo o estudo dos valores numéricos dos
diferentes objectos da imagem, para se verificar a qualidade da imagem (radiometria) ou pôr em
evidência a presença de elementos temáticos particulares. Também serve para dar uma ideia da
resposta espectral de objectos conhecidos.
Uma das formas de se fazer a análise radiométrica é através de cortes ou perfis. Perfil é a
análise de radiometria dos pixeis, ao longo de uma linha determinada. A linha tanto pode ser
rectilínea como ser curva, consoante os objectivos a atingir.
Operações aritméticas
No processamento final, pode ser necessário realizar algumas operações aritméticas tais como
soma, subtracção, divisão e a multiplicação entre canais de uma imagem ou entre um canal e
uma constante. Nestas operações utiliza-se uma ou duas bandas de uma mesma área geográfica,
previamente geo-referenciada. Realiza-se a operação "pixel" a "pixel", através de uma regra
matemática definida, tendo como resultado uma banda que representa a combinação das originais.
De maneira geral, utiliza-se a operação de adição para realçar a similaridade entre canais ou
imagens diferentes; a subtracção, multiplicação e divisão, para realçar diferenças espectrais.
Subtracção de imagens
Utiliza-se a subtracção de imagens ou de canais de uma mesma imagem para realçar diferenças
espectrais. Conhecendo as curvas de comportamento espectral dos alvos de interesse e o
intervalo espectral das bandas dos sensores, é possível definir os canais a serem utilizados para
realçar as diferenças espectrais. Exemplos de aplicação:
Quando, na imagem, a média e desvio padrão dos histogramas a serem subtraídos não coincidirem,
aconselha-se a igualização da sua média e do desvio padrão, antes da subtracção, através de um
aumento de contraste em ambas as imagens. Caso não seja adoptado este procedimento, o
resultado da subtracção entre as imagens não corresponderá à diferença real entre elas.
Adição de imagens
A adição de imagens ou de canais de uma mesma imagem constitui uma operação linear que pode
ser utilizada para a obtenção da média aritmética entre as imagens, minimizando a presença de
ruído. Para a obtenção da média, deve-se adoptar como valor de ganho 1/n, onde n é o número de
canais utilizados na operação. A adição pode ainda ser utilizada para a integração de imagens
resultantes de diferentes processamentos.
Multiplicação de imagens
É uma operação linear que consiste na multiplicação de uma constante pelos níveis de cinzento de
um canal. É utilizada na implementação de transformações que se deseja realizar sobre a imagem.
A divisão consiste numa operação não-linear. É utilizada para realçar as diferenças espectrais de
um par de canais, caracterizando determinadas feições da curva de assinatura espectral de
alguns objectos. Esta operação não deve ser realizada em canais que apresentam ruídos, pois
estes seriam realçados. A operação de divisão entre os canais pode:
Para remover o efeito de um factor de ganho, como o efeito de brilho, considera-se, por exemplo,
que a radiância de um "pixel" é 1, o factor de brilho é "a" e que a resposta detectada pelo sensor
é o produto destes dois factores. Remove-se o efeito de brilho, dividindo-se cada "pixel" de um
canal (1) pelo "pixel" correspondente em outro canal (2). Desta forma, sendo R o resultado
independente do factor de brilho, tem-se:
Para aumentar o contraste entre o solo e a vegetação, pode-se utilizar a razão entre dois canais
constituindo, assim, os chamados índices. Os índices fazem parte do tipo de tratamento espectral
numérico que nos permite pôr em evidência uma ou outra parte da informação contida numa
imagem, em detrimento das restantes.
• Índice de vegetação
Para que o resultado, no último caso, possa ser um novo canal com valores radiométricos entre 0 e
255, a formula adoptada é a seguinte :
• Índice de brilho
Trata-se de uma combinação linear de diferentes canais, com coeficientes variando de imagem
para imagem. Cada autor define este coeficiente à sua maneira.
Outro tratamento espectral bastante comum é o ACP. Observa-se frequentemente que canais
individuais de uma imagem multispectral são altamente ‘correlados’, ou seja, são similares visual e
numericamente porque a informação contida neles é redundante. Esta correlação advém do efeito
de sombra resultante da topografia, da sobreposição das faixas espectrais entre canais
adjacentes e do próprio comportamento espectral dos objectos.
A ‘decorrelação’ em componentes principais é uma técnica que reduz ou remove esta redundância
espectral, ou seja, gera um novo conjunto de imagens cujos canais individuais apresentam
informações não disponíveis em outros canais, permitindo-nos reduzir o volume de dados a tratar,
sem perder muita informação. A transformação é derivada da matriz de covariância entre os
canais e gera um novo conjunto de imagens onde cada valor de pixel é uma combinação linear dos
valores originais. O número de componentes principais é igual ao número de canais espectrais
utilizados e estes são ordenados de acordo com o decréscimo da variância de nível de cinzento. A
primeira componente principal tem a maior variância (maior contraste) e a última, a menor.
Fig. 41 - ACP de uma imagem sobre a Cidade de Maputo (sensor HRV do Spot)
No exemplo da figura 41, o ACP é realizado nos canais verde, vermelho e infravermelho duma
imagem do HRV do Spot, afim de gerar os três canais ACP1, ACP2 e ACP3, respectivamente. O
interesse do ACP em imagens com três canais é de sintetizar ao máximo a informação da imagem.
Assim, o primeiro canal ACP1, apresenta maior informação do brilho global da imagem, associada
às sombras de topografia e às grandes variações da reflectância espectral geral dos canais.
Também possui a maior parte da variância total dos dados, concentrando a informação, antes
diluída, em várias dimensões Por isso, este canal contém uma grande informação temática e é
numa boa representação sintética da imagem, com melhoramento considerável de contraste.
O segundo canal gerado (ACP2), toma conta das principais diferenças espectrais entre os canais
originais da imagem. Fortemente correlado com o canal infravermelho próximo pode, por isso, ser
mais empregue para estudos da vegetação e menos para índice normalizado da vegetação. O
terceiro, ACP3, agrega geralmente o ruído residual e não tem um interesse específico. Os
defeitos dos captores que se apresentam na imagem concentram-se aqui livrando os outros dois.
Nota:
Os resultados do tratamento em ACP dependem da imagem de partida (a matriz de covariância
depende, evidentemente, dos dados de partida), obtidos após uma série de difíceis interpolações,
conforme os critérios clássicos conhecidos. Geralmente nós buscamos um tratamento autónomo
(depois da redução dos dados) que nos reduza o tempo. Tendo em conta a crescente capacidade
dos micro-computadores, o ACP não é, geralmente, utilizado para esta finalidade. Reserva-se este
tratamento às aplicações muito pontuais.
Textura
Prosseguiremos, agora, com o estudo de uma técnica que estabelece a relação entre os pixeis,
num domínio determinado. A geologia utiliza imenso esta técnica que permite pôr em evidência
alinhamentos geológicos. Nos meios urbanos, esta mesma técnica beneficia a “unidade” da imagem.
Para o nosso caso, “textura” será definida como o nível de homogeneidade da imagem. Diremos
que uma zona é “muito texturada” se a radiometria dos pixeis variar muito rapidamente (grande
dispersão). Se não, será “pouco texturada”.
Estatística e individualização
Se o objecto for simples (parcela de solo nu, por ex.), esses valores reagrupar-se-ão numa
“nuvem” pouco alongada. Em objectos mais complexos (zona urbana), o reagrupamento formará
uma “nuvem” mais alongada, composta de objectos elementares diferentes. Em qualquer dos
casos, é necessário fazer a média (valor médio de radiometria do objecto) e calcular o seu
Este processo é uma das formas para fazer estatística sobre os elementos da imagem. Os
resultados da estatística podem ser estendidos a todos os objectos da mesma natureza, na
imagem. Para tal, existem várias técnicas à nossa disposição, com resultados mais ou menos
satisfatórios. A mais simples é a individualização.
Tomemos como exemplo a água, no canal infravermelho. Fazendo uma análise estatística da
imagem, pode-se ver que as zonas com água têm uma resposta bem específica no infravermelho.
Daí pode-se fazer a média de valores e seu respectivo desvio-padrão.
Individualizar um canal da imagem para extrair as zonas com água, consiste em atribuir o valor 1
a todos os pixeis da imagem que respondem “como na nossa observação” e o valor zero aos
restantes. Feito isto, teremos uma máscara binária separando a água. Em geral, a individualização
pratica-se de um modo interactivo: a primeira individualização, baseada nas nossas observações,
não dará sempre um resultado satisfatório. Será necessário aumentar ou diminuir a dispersão,
alterar a média. Feito isto, todos os pixeis com uma radiometria inferior ao limite aparecerão a
preto, os restantes a branco. Se o resultado obtido não nos satisfizer, teremos de ajustar o
limite até obter uma boa individualização dos pixeis.
Estratificação
Para uma dada imagem, os objectos de natureza diferente (mas vizinhos) podem ter respostas
espectrais absolutamente idênticas, consoante as circunstâncias. Um tratamento puramente
radiométrico não seria, então, aconselhável. Podemos, pois, solucionar este problema através da
estratificação da imagem, usando técnicas bem definidos, entre elas diversos tipos de máscaras:
A análise de uma imagem em composição de falsa-cor pode, por exemplo, pôr em evidência uma
região com dunas, um escarpamento, etc. Podemos obter uma máscara delimitando
cuidadosamente cada uma das zonas assim observadas. Nesse caso, é aconselhável a utilização
dos limites para constituir um novo canal (designado por “máscara”, por exemplo). Cada pixel
conterá, como valor radiométrico, o número da zona morfológica a que pertence. A máscara será,
ulteriormente, utilizada para tratamentos específicos em cada zona.
• Outros critérios
Filtros
Os filtros baseiam-se numa teoria complexa baseada em sinal e sua distribuição. É escusado
dizer que não é do nosso âmbito o seu estudo aqui - são teorias tão complexas que necessitam de
muito tempo para as estudar, além de exigirem fortes bases matemáticas. Abordaremos,
somente, o seu aspecto prático o que é suficiente para as ambições deste Manual.
As técnicas de filtragem são transformações da imagem pixel a pixel, que não dependem apenas
do nível de cinzento de um determinado pixel, mas também do valor dos níveis de cinzento dos
pixeis vizinhos.
O processo de filtragem é feito utilizando matrizes denominadas máscaras ou domínios, que são
aplicadas sobre a imagem. Na prática, utilizam-se três tipos de filtros:
• Filtros Lineares – o valor resultante de um pixel é uma combinação linear de valores de pixeis
do respectivo domínio ou máscara. Exemplos: Média Linear, Filtro de Laplace, Filtro de
derivadas, etc..
• Filtros Condicionais - são obtidos pela aplicação de um filtro condicional sobre o pixel
(exemplo: Filtros Majoritários)
0 1 1
1 1 1
1 1 1
Fig. 43 – Aplicação do filtro passa-baixo no canal XS1 Spot, utilizando o Erdas Imagine
• O filtro passa-alto: nesta, são atenuadas as frequências baixas, fazendo com que a
filtragem realce detalhes, produzindo um maior contraste da imagem, isto é, as
transições entre regiões diferentes tornam-se mais nítidas. Estes filtros podem ser
0 -1 -1
-1 9 -1
-1 -1 -1
Fig. 44 – Aplicação do filtro passa-alto no canal XS1 Spot, utilizando o Erdas Imagine
Operadores para detecção de contornos detectam características, como contornos, linhas, curvas
e manchas.
0 -1 -1
-1 8 -1
-1 -1 -1
Fig. 45 – Aplicação do operador de detecção de contornos no canal XS1 Spot, utilizando o Erdas Imagine
O filtro morfológico de erosão provoca efeitos de erosão das partes claras da imagem
(altos níveis de cinza), gerando imagens mais escuras. Considerando o exemplo anterior,
o valor a ser substituído no pixel central corresponde ao menor valor da ordenação.
A informação espectral de uma cena pode ser representada por uma imagem espectral, na qual
cada "pixel" tem coordenadas espaciais x, y e uma espectral L, que representa a radiância do
objecto em todas as bandas espectrais, ou seja para uma imagem de K bandas, existem K níveis
de cinzento associados a cada "pixel", sendo um para cada banda espectral. O conjunto de
características espectrais de um "pixel" é denotado pelo termo atributos espectrais.
O resultado da classificação digital é apresentado por meio de classes espectrais (áreas que
possuem características espectrais semelhantes). É constituído por um mapa de "pixeis"
classificados, representados por símbolos gráficos ou cores, ou seja, o processo de classificação
digital transforma um grande número de níveis de cinzento em cada banda espectral em um
pequeno número de classes numa única imagem.
No tratamento, não há que se preocupar com a homogeneidade das classes. As áreas escolhidas
devem ser heterogéneas para assegurar que todas as possíveis classes e suas variabilidades
sejam incluídas. Os "pixeis" dentro de uma área de classificação são submetidos a um algoritmo
Fig. 46 - Extracto TM 165-70, de Julho de 1991 Extracto ETM+ 165-70, de Agosto de 2000
muitos dos pixeis duma imagem são mistos (resolução espectral fraca);
alguns temas podem aparecer com uma diversidade de respostas espectrais. É o caso
particular de temas urbanos (por ex., os pixeis da zona de caniço na periferia da cidade
de Maputo são uma mistura de solos nus, betão, capim e outra vegetação);
temas totalmente diferentes podem ter respostas muito próximas (caso de queimadas
recentes e a sombra de nuvens);
A conclusão que se pode tirar destas observações todas é de que uma única aproximação
radiométrica num processo de classificação supervisada não é, em geral, suficiente. E, para todos
os casos, o resultado obtido não poderá ser considerado como uma verdade absoluta; a sua
validade terá de ser, para cada caso, estatisticamente avaliada.
A situação não é assim tão desesperante, pois, temos à disposição vários instrumentos que nos
permitem melhorar os resultados da classificação. Já vimos dois exemplos destes instrumentos: a
técnica de estratificação, que nos permite isolar as zonas homogéneas duma imagem para retirar
um certo número de confusões entre pixeis de um sinal mais representativo (entre objectos
diferentes) e a técnica da textura, que nos pode pôr em evidência algumas estruturas lineares,
através do uso de filtros de diversos tipos. Este procedimento de tentar uniformizar os temas,
ou seja, eliminar pontos isolados, classificados diferentemente de sua vizinhança e obter uma
imagem classificada com menos “ruído”, designa-se por pós-classificação
Quando foi lançado o primeiro satélite de Teledetecção, o Landsat 1, o uso de fotografias aéreas
já estava consolidado. Em outras palavras, toda a metodologia de interpretação de fotografia
aérea já havia sido definida e já vinha sendo usada com sucesso há um bom tempo. Como as
imagens satélite são produtos da energia reflectida e/ou emitida pelos objectos, pelo menos em
parte são parecidas com o processo de obtenção das fotografias aéreas. Evidentemente que há
diferenças fundamentais entre as duas. Por exemplo, enquanto as fotografias são obtidas em
bandas largas do espectro electromagnético e possuem altíssima resolução espacial (linhas por
milímetro), as imagens satélite são obtidas de forma multiespectral, isto é, várias cenas ao longo
da faixa de actuação do sensor e possuem uma resolução espacial mais baixa.
Dentro deste contexto, fica evidente que podemos empregar para as imagens satélite, com certa
restrição, a metodologia utilizada para a fotointerpretação.
Entretanto, é preciso lembrar que numa imagem satélite, de baixa e média resolução, como as
obtidas pelos sensores AVHRR ou ETM+, a definição dos objectos fica restrita ao tamanho do
pixel. Isso que dizer que um objecto que é perfeitamente individualizado numa fotografia aérea
pode não ser individualizado nas imagens satélite. Para exemplificar, imagine a sede de uma
localidade rural. Nas fotografias aéreas é perfeitamente possível individualizá-la e perceber que
há nele um conjunto de edifícios ou propriedades. Já nas imagens satélite o máximo que se pode
perceber é o local onde está localizada a sede. Logo, é necessário introduzir outros elementos de
fotointerpretação que são desnecessários para fotografias aéreas. Um desses elementos é a
assinatura espectral do objecto que é fortemente explorada nas imagens de satélites.
Pelo exposto, pode-se concluir que embora o computador seja mais rápido, a interpretação visual
é mais eficiente, porque os resultados obtidos são mais precisos.
Detecção
Identificação
Análise
Classificação
Dedução
Idealização
É o processo de desenhar uma representação ideal ou standard daquilo que foi identificado e
interpretado na imagem. Consiste, geralmente no uso de símbolos e cores adaptados ao tema e às
classes que se pretendem. É um processo que ajuda o desenvolvimento da chave de interpretação
de uma imagem.
Na observação procede-se a uma análise global da imagem, tendo em vista somente reconhecer as
diferentes feições do terreno contidas na cena, sem a preocupação de as caracterizar ou avaliar.
Aqui, alguns pormenores marginais, tais como, a qualidade do papel ou filme onde está
reproduzida a imagem, a época do ano em que foram adquiridos os dados, etc., são também
observados.
Portanto, a interpretação visual de uma imagem implica um raciocínio lógico, dedutivo e indutivo
para poder compreender e explicar o comportamento de cada objecto nela contido e exige certa
competência local para facilitar o estudo pretendido.
• Método Directo – que não deixa dúvidas na identificação dos objectos, com base em
fotografia, geralmente.
A fotointerpretação baseada no método dedutivo tem por suporte a análise e qualificação das
características mais patentes, pois são estas que contêm as informações de interesse. Essas
características, que nos dão de forma indirecta as informações sobre o terreno, podem ser
separadas em dois tipos: sinais da imagem e elementos de fotointerpretação.
Sinais da imagem são as propriedades básicas de análise e interpretação, a partir das quais se
extraem as informações dos objectos, áreas ou fenómenos. Eles ajudam-nos a identificar e
classificar os diferentes aspectos visíveis na imagem.
Os sinais da imagem são vários e podem ser agrupados de diversas maneiras. Os mais
importantes, são os seguintes:
Tonalidade e cor – é a propriedade mais simples de ser identificada e uma das mais importantes
para o reconhecimento dos objectos representados na imagem. A tonalidade representa o nível ou
quantidade de radiação reflectida e captada pelos sensores e aparece em diversos níveis de
cinzento que variam entre o branco e o preto ou em graduações de cor. Quanto mais energia um
objecto reflectir, mais esbranquiçado se apresenta numa imagem pancromática e quanto menos
energia reflectir, mais escuro se apresenta, pois a energia absorvida é maior.
Padrão – indica-nos a arrumação ou distribuição espacial dos objectos. Nas zonas cultivadas, por
exemplo, o padrão é caracterizado por polígonos regulares que advêm da presença dos limites de
cada cultura ou terreno cultivado. Nas grandes cidades, por exemplo, o padrão é geralmente
quadriculado. Nas restantes zonas urbanas, é caracterizado por uma mistura de pixeis mistos,
com informação variada, indicando unidades habitacionais, espaços verdes, linhas da estrutura
viária, etc. Os pequenos aglomerados populacionais aparecem como manchas onde o padrão é uma
mistura mais ou menos uniforme dos aspectos indicados para as zonas urbanas. Áreas com uma
rede de drenagem densa, por exemplo, possuem um padrão característico, que se assemelha a
uma rede ou teia, consoante os tipos de solo onde se encontra. O padrão de algumas estruturas
geológicas é caracterizado pela presença de linhas ou fiadas.
Fig. 53 – Diferentes contornos de objectos num extracto ETM+ sobre Mafambisse (Sofala)
Em alguns casos, para determinar com precisão o contorno de um objecto, temos que examiná-lo
em três dimensões, com o auxílio de um estereoscópio e, para tal, é necessário possuir um par de
imagens estereoscópicas.
Tamanho – ajuda-nos a dissipar dúvidas quando, por exemplo, dois ou mais objectos aparecem com
o mesmo contorno mas apresentam uma textura diferente. O tamanho dos objectos deve ser
estimado comparando-o com outros objectos cuja dimensão é conhecida. Também se pode
recorrer ao estereoscópio para estimar melhor o tamanho do objecto. A partir do tamanho,
podemos distinguir uma zona com agricultura de subsistência de outra com agricultura comercial.
Sombra – deriva da falta de informação. Pode ter efeitos positivos ou negativos. Quando os
efeitos são positivos, pode auxiliar-nos no cálculo da altura de um objecto e fornecer-nos
Fig. 54 - Obstrução provocada pelas nuvens em Março de 2000 (Imagem ETM, Rio Limpopo)
Topografia – é o total dos contornos de todos os objectos presentes na imagem, que nos indica o
carácter geral do terreno.
Após a análise de todos os sinais da imagem, o analista está em poder de informações relevantes
para o seu estudo. Para completar o estudo só lhe resta observá-los atentamente e combiná-los
devidamente para registar as diferentes feições do terreno. Estas diferentes feições com que o
analista pretende tirar conclusões sobre os temas do seu estudo, designam-se por elementos de
interpretação.
Os elementos estáticos, em geral, são melhor identificados nas imagens captadas em época seca,
enquanto que os elementos dinâmicos sobressaem melhor nas imagens da época chuvosa. Contudo,
uma análise bitemporal pode ser útil para optimizar os resultados da fotointerpretação.
Quanto maior é o conhecimento sobre a área de estudo, maior é a quantidade de informação que
podemos obter da fotointerpretação. A associação e comparação de objectos conhecidos no
terreno facilita a identificação de outras feições presentes na imagem. Por isso, o trabalho de
campo é fundamental e quase que indispensável para validar o resultado do nosso estudo.
O analista deve ter em conta que a escolha dos sinais de imagem e elementos de interpretação
varia com o tipo de informações que se pretende extrair da imagem satélite, pelo que, é
3.4.5.1 Pré-requisitos
A interpretação visual de uma imagem satélite era, tradicionalmente, levada a cabo em papel
fotográfico, diapositivo ou em outro suporte que garanta a fidelidade na sua reprodução. Hoje, a
evolução da informática permite-nos reproduzir em papel gráfico simples uma imagem satélite, a
partir das impressoras digitais (plotters), sem muitos custos e com suficiente qualidade para ser
usada em fotointerpretação.
Para além dos olhos, do cérebro e da nossa experiência, a interpretação visual recorre ao auxílio
de outros dados, materiais e instrumentos, consoante o objectivo a que se destinam os resultados
pretendidos. Enfim, tudo o que pode contribuir directa ou indirectamente para melhorar os
resultados do estudo, deve ser utilizado.
É imprescindível, quase sempre, o uso da lapiseira, caneta de feltro de ponta fina e papel
transparente, para o registo da informação e, algumas vezes, lupa, pantógrafo, grelha milimétrica,
curvímetro, planímetro, estereoscópio de bolso ou de mesa, ou outros instrumentos auxiliares de
ampliação, quantificação e análise detalhada de algumas feições de terreno presentes na cena.
Outros pré-requisitos para a interpretação visual dizem respeito aos factores que podem
contribuir para o êxito da análise dos dados. Entre estes, são de considerável importância os
seguintes: a escolha do tipo de imagem e da data de sua aquisição pelo satélite, os canais
espectrais seleccionados, a escala de reprodução da imagem, o tipo de produto disponível e as
restrições técnicas dos sensores empregues na sua captação.
Como já nos referimos, a época de aquisição dos dados influencia os elementos dinâmicos de um
estudo. Por exemplo, para mapear a rede de drenagem, é conveniente utilizar imagens da época
seca porque na época das chuvas os contornos dos rios menores serão difíceis de traçar por
causa da vegetação que sobressai em seu redor. Quando só o uso de imagens ópticas da época das
chuvas nos trazem melhores informações, é recomendável que as mesmas sejam isentas de
A escolha de uma escala conveniente de trabalho, influencia no sucesso da análise dos dados. Em
certa medida, a escolha da escala depende da própria resolução espacial da imagem. Quanto maior
for a resolução, mais detalhes nos pode proporcionar e, consequentemente, mais opções nos pode
dar para a escolha propícia para o nosso propósito. Com uma escala maior mais facilmente
podemos delimitar os diferentes objectos, com menor erro. A ampliação da escala, por outro lado,
facilita a visualização de feições com respostas espectrais diferentes, dentro da mesma área.
Fig. 58 - Extracto de uma imagem do satélite QuickBird sobre a Cidade de Manica, em diferentes escalas
Para seleccionar uma imagem do satélite Landsat, por exemplo, recorremos à Grelha de
Referência Mundial do Landsat (Landsat’s Worldwide Reference System – WRS). Esta grelha é
uma espécie de mapa onde estão indicadas, por colunas e linhas numeradas as órbitas (path) e a
linha (row) de posição do satélite. O cruzamento destas, em pequemos círculos, está o centro da
imagem, cuja cobertura é assinalada com um segmento em seu redor. O segmento indica o
tamanho completo que cobre cada cena.
Numa determinada órbita, cada número de aquisição (N) do satélite corresponde a duas colunas
K, associadas a dois instrumentos idênticos (HRV no Spot 1, 2, 3 e 4) e distanciadas uma da outra
com uma constante de cerca de 58 Km. Como os nodos da GRS estão localizados em cada um dos
lados da linha da órbita, o centro das cenas nadir não coincide com eles.
Alguns satélites, na maior parte dos casos os de cobertura não-sistemática, não possuem grelha
mundial de referência. Para estes casos, a escolha da imagem é em função das coordenadas
geográficas da área de interesse, a serem enviadas à Agência donde se pretendem obter os
dados ou com a sua introdução num software específico que identifica, através de um computador
ou na Internet, a imagem pretendida.
3.4.5.3 Metodologia
A metodologia usada para a interpretação visual de imagens depende do objectivo do estudo.
Mas, para qualquer que seja a finalidade, temos à disposição duas abordagens: sem conhecimento
A esta etapa, segue-se um trabalho de campo, numa determinada zona (zona de teste) que possua
uma boa representatividade das feições presentes em toda a imagem de trabalho, para o seu
reconhecimento (confirmação ou rejeição) ou correcção. Para o trabalho de campo devem-se
preparar, com antecedência, fichas a serem preenchidas com informações a recolher no local.
Fig. 61 - a) Extracto do TM, julho de 1998 b) Estratificação temática por interpretação visual
Após o trabalho de campo e com base no seu resultado, realiza-se uma re-interpretação de toda a
imagem, corrigindo os erros verificados na primeira interpretação. Com base nas informações das
fichas, as classes temáticas são confirmadas e legendadas com números, letras ou outros
símbolos gráficos, num mapa temático final. O mapa assim obtido pode ser refinado por
desenhadores cartográficos ou, então, digitalizado para uma base de dados de um sistema de
informação geográfica que nos permitirá fazer o cálculo de áreas de cada tema e outras
interrogações pontuais para a produção de estatísticas.
No segundo caso, em que temos bom conhecimento do terreno do estudo, a etapa de trabalho de
campo na zona de teste pode ser substituída pela análise de fotografias aéreas recentes ou
Bacia Hidrográfica
A bacia hidrográfica é um tipo de subdivisão morfométrica muito utilizada. Pode ser aplicada em
várias situações de planificação, exploração e monitoramento ambiental.
Contudo, esta abordagem possui as suas limitações: a escala e a resolução da imagem limitam o
número de correntes detectadas e prejudicando a precisão de delimitação da bacia drenada.
O padrão de drenagem é formado por todos os sulcos de corrente de água, activos ou fósseis,
independentemente de possuírem ou não possuírem água. O resultado do mapeamento da
drenagem forma um modelo complexo de canais que nos pode, indirectamente, informar sobre o
carácter físico da área de estudo, sua geologia, espessura e tipo de solo, etc.
São utilizadas, nesta abordagem, duas unidades principais de mapeamento, o sistema de terra e a
faceta de terra. O sistema de terra compreende uma área com um clima uniforme e um padrão
recorrente de topografia, solos e vegetação, podendo-se estender por vastas áreas. A faceta de
terra é a menor área que pode ser reconhecida, com condições ambientais uniformas.
A fim de aumentar a utilidade do mapa, as facetas de terra devem ser definidas e descritas em
termos de atributos simples (morfologia do terreno, rochas, solo, regimes de água e vegetação ...)
Em diversos países, são utilizados diferentes sistemas de classificação para o uso de terra e para
a cobertura de terra. Uso de Terra é, normalmente, referido como qualquer modificação do
padrão natural da terra, resultante de actividade humana. Por sua vez, Cobertura de Terra
refere-se à vegetação natural e artificial, água, solo e outros elementos resultantes da dinâmica
natural das transformações na terra.
Contudo, os dois termos estão tão intimamente relacionados que, muitas vezes, são permutados
(por exemplo, considerar as culturas como cobertura). Isto acontece, em geral, quando se define
a cobertura de terra como cobertura física observada, vista no terreno ou através da
Teledetecção, incluindo a vegetação natural ou plantada e as construções humanas (edifícios,
estradas, água, gelo, solo nu, etc.), que cobrem a superfície terrestre.
Qualquer que seja a definição adoptada num determinado exercício de mapeamento de uso ou de
cobertura da terra, o seu sistema de classificação baseia-se na busca de áreas homogéneas para
a separação das classes temáticas.
Quando se trata do uso de terra, área homogénea significa uma área onde nenhuma mudança
significativa de uso é observada na imagem, como resultado da sua análise. Todavia, na
determinação destas áreas, mudanças menores podem ocorrer dentro de uma área maior. De
forma alternativa, mudanças maiores podem ocorrer em áreas pequenas, que não são
significativas para a classificação geral, podendo ser ignoradas. Por isso, o foto-intérprete da
imagem deve decidir qual o grau de detalhe requerido para o propósito específico.
Recentemente, foi adoptado pela FAO um sistema de referência para a África, designado por
AFRICOVER, contendo três níveis de classificação e oito temas principais no terceiro nível, do
seguinte modo:
SUPERFÍCIES ARTIFICIAIS
PRIMARIAMENTE SEM
VEGETAÇÂO SOLOS NUS
AQUÁTICO ou REGULARMENTE
INUNDADO CORPOS DE ÁGUA ARTIFICIAIS
Africover tentou estabelecer uma distinção fundamental entre o uso e a cobertura de terra. O
seu critério de classificação baseia-se na presença de vegetação, condições edáficas e no nível de
artificialidade da cobertura vegetal. O desenvolvimento da legenda é feito posteriormente, num
módulo hierárquico de classificação automatizada, possuindo oito diferentes classificadores. O
utilizador não é obrigado a usar todos os oito, podendo escolher os do seu interesse, consoante o
nível de detalhe pretendido.
Todas as classes definidas estão dispostas numa sequência hierárquica na legenda do mapa final,
que é automaticamente gerada. Por causa da complexidade do sistema, foi desenvolvido um
software de fácil uso que permite a produção e o manuseamento rápido das classes de cobertura
desejadas. O software é composto de três módulos: classificação, legenda e tradução. Este
último módulo assegura a interpretação, para o interior do sistema, das classes existentes e da
legenda. Também permite a comparação de classes de cobertura com outras externas ao sistema.
2
Levado a cabo pela Joint Venture CENACARTA / IGN-France International, entre finais de 1996 a
1999, para cobrir todo o País à escala de 1:250 000 e certas regiões à escala de 1:50 000.
Além da legenda temática, as cartas geradas possuem também uma legenda topográfica única,
compatível com a da cartografia sistemática de base em uso no país.
Nível 1 Nível 2
11 Residencial
12 Comercial e de Serviços
13 Industrial
1. Terra Urbana ou com Actividade Humana 14 Transportes, Comunicações e Utilidade Pública
15 Complexos Industriais e Comerciais
16 Mistura de Urbana e Actividade Humana
17 Outro tipo de Urbana ou Actividade Humana
21 Culturas e Forragens
22 Hortícolas, Pomar, Bosque, Viveiro, Vinhedo e
2. Terra Agrícola Produção de Plantas Ornamentais
23 Áreas de Alimentação Confinada
24 Outras Terras Agrícolas
31 Pastagem Herbácea
3. Pastagens 32 Pastagem Shrub-Brushland
33 Pastagem Mista
41 Floresta Decídua
4. Floresta 42 Floresta Semprevirente
43 Floresta Mista
51 Rios e Canais
52 Lagos
5. Água
53 Reservatórios
54 Baías e Estuários
61 Pântanos com Vegetação
6. Pântanos
62 Pântanos sem Vegetação
71 Terrenos Salinos Secos
72 Praias
73 Áreas Arenosas
7. Terras Áridas 74 Rochas Expostas ao Solo
75 Jazigos de Minerais, Pedreiras e Saibreiras
76 Áreas de Transição
77 Terras Áridas Mistas
81 Shrub and Brush Tundra
82 Tundra Herbácea
8. Tundra (Planície) 83 Tundra sem Vegetação
84 Tundra Húmida
85 Tundra Mista
91 Campos de Neve Perene
9. Terras de Gelo ou Neve Perene
92 Glaciares
A avaliação e monitoramento da degradação do solo tem sido uma das questões mais importantes
na planificação efectiva do recurso natural ‘terra’, nos países em desenvolvimento. Os resultados
dos levantamentos no terreno são, geralmente, apresentados como mapas de uma área ou de uma
região. Estes mapas podem ser:
• risco de erosão;
Somente o último tipo reflecte variações sazonais ou anuais da produção de sedimento, enquanto
as outras abordagens mostram a soma de eventos passados e presentes, dando
consequentemente uma visão sinóptica do estado actual da terra, em vez de riscos e taxas dos
processos actuais.
Por outro lado, um mapa de riscos reflecte os riscos de erosão de acordo com vários factores,
como por exemplo a topografia, clima, uso de terra e vegetação e não reflecte necessariamente o
padrão actual que, para além dos factores naturais, também é explicado por factores históricos e
culturais.
Tradicionalmente, aspectos de erosão do solo têm sido mapeados à partir de fotografias aéreas
em vários países em desenvolvimento. Elas foram introduzidas em abordagens anteriores e podem
ser descritas como métodos de mapeamento directos. Nas imagens dos novos satélites de muito
alta resolução, esta abordagem pode ser também acomodada, resumindo-se nos seguintes passos:
A técnica de interpretação digital permite um exame mais detalhado dos dados provenientes da
imagem satélite e dá-nos a possibilidade de automatizar o processo da sua análise. Contudo, tal
como o olho humano possui limitações na habilidade de interpretar alguns padrões espectrais, o
computador, também, possui limitações na avaliação de padrões espaciais. Por isso, as técnicas
visual e digital são complementares por natureza, devendo-se escolher cada uma (ou a combinação
das duas) para a aplicação particular que melhor se ajuste.
Durante a interpretação pode-nos ser útil alterar o contraste da imagem para enfatizar ou
realçar um aspecto particular, classe ou área. Isto só pode ser feito no processo de
interpretação digital aumentando ou reduzindo, por exemplo, o intervalo dos valores
radiométricos ou seleccionando outros canais espectrais para uma diferente combinação. Assim,
podemos enfatizar os aspectos pretendidos para a sua melhor análise, o que com a técnica visual
não nos seria possível, pois, a imagem no papel restringe-se pelo realce global realizado no
processo da sua produção.
Nenhum computador pode, até ao momento, competir com o cérebro humano no que concerne a
juízos ou decisões. A interpretação visual baseia-se, normalmente, na decisão do analista que, a
partir do seu conhecimento e experiência em relação a área global da análise, pode melhor
examinar os limites de cada classe.
Por exemplo, as estradas podem-se reconhecer mais facilmente pela interpretação visual. Classes
da cobertura da terra são interpretadas eficientemente com qualquer um dos dois métodos mas,
quando se trata de separar as sub-classes dentro da mesma classe de cobertura da terra como,
por exemplo, diferentes culturas, dá-se preferência à técnica digital.
O arquivo dos resultados de uma interpretação num banco de dados digital permite a sua
posterior comunicação e integração em outros bancos de dados ou sistemas de informação
geográfica (SIG). Assim, os dados podem ser empregues em estatísticas e outros fins sendo,
deste modo, mais facilmente editáveis e/ou renováveis.
A integração de dados pode ser vista como uma forma de troca de diferentes tipos de dados ou
de formatos. Em interpretação visual, a integração pode ser realizada através do uso de
transparentes contendo os dados de um mapa como , por exemplo, diferentes classes de
vegetação ou de solos, sobrepostos à imagem em papel. Este método de integração é rápido. Com
a técnica de interpretação digital o processo de integração é mais moroso apesar de ser mais
simples o arquivo dos dados.
Visão estereoscópica
Embora as técnicas actuais permitam uma visão estereoscópica no écran do computador, a análise
recorrendo à visão tridimensional da superfície da terra realiza-se, geralmente, através da
interpretação visual de imagens num estereoscópio. Para se obter a visão estereoscópica são
necessárias duas imagens captadas em ângulos diferentes sobre a mesma zona. A possibilidade de
visão estereoscópica traz-nos vantagens na interpretação de alguns dados.
Apresentação
A interpretação visual, por sua vez, requer o desenho, scanagem ou digitalização e codificação
dos dados para produzir o mapa.
Tempo
Depende da natureza da interpretação. A interpretação de uma única imagem ou extracto dela
pode ser realizada muito rapidamente pela técnica visual. Porém, para a classificação de um
mosaico que se estende por vastas áreas, o método automatizado de interpretação digital é,
geralmente, mais rápido.
Custos
Este aspecto pode ser analisado de várias formas mas, convém limitar a comparação no custo do
material e do equipamento. O custo dos dados brutos utilizados em ambas as técnicas difere em
quase nada ou em muito pouco. Contudo, a técnica digital requer o uso de um computador e de um
sistema de tratamento de imagens, com custo significativo. Apesar dos instrumentos
cartográficos auxiliares para a interpretação visual poderem ser caros continuam, mesmo assim,
são mais baratos que os empregues na técnica digital. A interpretação visual pode, até certo
ponto, dispensar tais instrumentos.
Conclusão
4.1 Definições
Não existe uma diferença rígida entre os conceitos de mapa e carta. É, portanto, difícil
estabelecer uma separação definitiva entre o significados dessas duas designações. A palavra
mapa teve origem na Idade Média, quando era empregue exclusivamente para designar as
representações terrestres. Depois do século XIV, os mapas marítimos passaram a ser
denominadas cartas, como, por exemplo, as chamadas “cartas de marear” dos Portugueses.
Neste texto, a distinção entre mapa e carta é um tanto convencional e subordinada à ideia da
escala, notando-se, entretanto, certa preferência pelo uso da palavra mapa. Na realidade, o mapa
é apenas uma representação ilustrativa e pode perfeitamente incluir o caso particular da carta,
dentre os povos de língua inglesa. Entretanto, entre os engenheiros cartógrafos brasileiros
observa-se o contrário, isto é, o predomínio do emprego da palavra carta. Apesar dessas
diferenças, quase todos concordam com as definições formais existentes:
Mapa é a representação gráfica simples e generalizada de uma superfície plana, geralmente numa
escala pequena, com a representação de acidentes físicos e culturais da superfície da Terra, de
um planeta ou satélite. Exemplos: mapa de Moçambique (escala 1:5.000.000 ou menor), mapa de
África e mapa-múndi.
Carta é a representação mais detalhada dos aspectos naturais e artificiais da Terra, destinada a
fins práticos da actividade humana, permitindo a avaliação precisa de distâncias, direcções e a
localização plana, geralmente em média ou grande escala. Exemplos: cartas topográficas, cartas
cadastrais ou urbanas (escalas de 1:500 a 1:10.000) e cartas de navegação marítima e aérea
(cartas náuticas e cartas aeronáuticas).
Folha é resultado da subdivisão de uma carta, de forma sistemática, com corte e formato
estabelecido por um plano nacional ou internacional.
Planta é a representação cartográfica plana de uma área de extensão pequena, de modo que a
curvatura da Terra não seja considerada e, por conseguinte, a escala possa ser constante.
Consideraremos, ainda, como mapa temático aquele que apresenta informações de variações
espaciais de um único fenómeno (exemplo: ocorrência de erosão) ou relacionamento entre
fenómenos (exemplo: diferentes classes de uso e cobertura da terra).
De acordo com a finalidade ou tipo de utilizador, os mapas produzidos em Moçambique podem ser:
Gerais: Quando se destinam ao público em geral, isto é, quando atendem aos diversos tipos de
utilizadores. Geralmente são mapas de pequena escala. Por exemplo: mapas de grandes regiões, de
países, de continentes e mapas-múndi.
Temáticos: Quando se destinam ao estudo, análise e pesquisa de determinados temas como Uso
da Terra, Cobertura Vegetal, Geologia, Pedologia, Demografia etc.
Cartografia
A cartografia tem por finalidade básica a elaboração de cartas ou mapas a partir de um conjunto
de operações científicas, técnicas e artísticas. As cartas ou mapas, por sua vez, nada mais são do
que superfícies planas onde a terra se acha total ou parcialmente representada.
As diversas vantagens oferecidas pela aerofotogrametria, tais como boa orientação espacial,
facilidade de interpretação e elevado nível de precisão e rapidez, explicam o largo uso da
fotografia aérea em todo o mundo. No caso da cartografia, o seu emprego é fundamental, pois
quase toda a produção cartográfica utiliza os seus recursos.
O princípio da Aerofotogrametria
1º) De um avião devidamente equipado e mediante condições de tempo apropriadas, são feitas, ao
longo de uma linha (recta) de voo, sucessivas exposições fotográficas de uma extremidade a
outra da área, até cobri-la totalmente.
2º) Ao longo de cada faixa ou linha de voo, as exposições são feitas de tal modo que, entre duas
fotos sucessivas, haja uma sobreposição de aproximadamente 60%, ou seja, a primeira e a
segunda fotos cubram uma área comum de 60%.
3º) Colocadas todas as fotos uma ao lado da outra e obedecendo-se à orientação correcta (linhas
de voo, sobreposição etc.), teremos uma visão total da área. Para obtermos a visão tridimensional,
recorremos ao estereoscópio, um instrumento óptico binocular que permite ver as imagens em
terceira dimensão (em relevo).
O CAD (Computer Aided Design) e o SIG (Sistemas de Informação Geográfica) são recursos
tecnológicos recentes que se tornaram mais disponíveis aos utilizadores somente nestes últimos
10 anos, graças à evolução dos computadores e seus periféricos. A sua expansão e o seu sucesso
são, também, atribuídos à queda nos preços de hardware e à variedade de software existentes
actualmente no mercado. Tanto o CAD como o SIG exigem máquinas cada vez melhores e,
portanto, a competição existente entre os fabricantes de hardware tem sido benéfica aos
utilizadores de ambas as tecnologias. Pela novidade tecnológica peculiar a ambos, torna-se
obscura a diferença existente entre eles. Basicamente, a diferença fundamental entre um
software de CAD e outro de SIG, reside na densidade de dados que cada um utiliza para a
realização das suas tarefas. Normalmente um SIG utiliza muito mais dados que um CAD.
Um CAD normalmente é usado para desenhos de carácter técnico, desde projectos de aviões até
projectos de minúsculos circuitos integrados. Um software tradicional de CAD como o AutoCAD
(CAD da Autodesk, Inc.) é projectado para ser de propósito geral e, portanto, pode até ser usado
para a geração de cartas. Quando utilizado com este propósito, um CAD não oferece muitas
facilidades. Podemos considerar que a diferença fundamental entre o gerador de cartas e o CAD
baseia-se na capacidade especializada que o gerador de cartas tem para elaboração de cartas.
Outra diferença é que os SIG’s, além de realizarem operações com dados vectoriais, também
realizam operações com dados matriciais (raster), enquanto que os CAD’s, normalmente se
limitam a trabalhar com dados vectoriais.
É interessante observar que apesar dos autores apresentados pertencerem a um mesmo momento
histórico de desenvolvimento da Cartografia, apresentaram definições totalmente diferenciadas.
As concepções apresentadas sobre a definição de Cartografia retractam sobretudo posturas
teóricas e metodológicas diferentes. Verifica-se ao longo do tempo - principalmente nos últimos
anos sob a influência de novos recursos tecnológicos - que o conceito passou a considerar a
possibilidade de elaboração dos mapas e de outros documentos cartográficos, não somente na
forma analógica, mas também digital. Isto deu origem à utilização de uma nova linguagem como
computação gráfica, cartografia automatizada ou cartografia digital.
O domínio da cartografia sistemática é bem definido pois por razões históricas, continua ‘a
ciência responsável pela representação genérica da superfície tridimensional da Terra no plano’.
Utiliza convenções e escalas padrão, contemplando a execução dos mapeamentos básicos que
buscam o equilíbrio da representação altimétrica e planimétrica dos acidentes naturais e
culturais, visando a melhor percepção das feições gerais da superfície representada. A sua
preocupação central está na localização precisa dos fatos, na implantação e manutenção das
redes de apoio geodésico, na execução das coberturas aerofotogramétricas e na elaboração e
actualização dos mapeamentos básicos.
Actualmente, por se considerar que a cartografia temática está muito mais ligada à Geografia do
que a cartografia sistemática, apesar de não ser dela exclusiva, é reconhecida como a Cartografia
da Geografia. Tendo em conta os diferentes tipos de mapas temáticos que representam um
mesmo território, parece legítimo, considerá-los como objectos geográficos.
4.4.1 Título
A escolha da escala deve-se fazer em função das informações que se pretende representar. A
escala correcta depende da resolução dos dados originais, bem como do nível de detalhe que se
deseja incluir na carta.
A escala deve estar localizada em uma posição de destaque na carta. Pode-se representá-la em
escala fraccionária (ex. escala 1:250.000) ou gráfica.
A escala gráfica é um segmento de recta dividido de modo a permitir a medida de distâncias na
carta. Este tipo de escala permite visualizar, de modo facilmente utilizável, as dimensões dos
objectos figurados na carta. O exemplo a seguir indica a distância na carta, equivalente a 3 Km:
O uso da escala gráfica tem vantagens sobre o outro tipo, porque é reduzida ou ampliada
juntamente com a carta, através de métodos fotográficos ou copiadoras, podendo-se sempre
saber a escala do documento com o qual trabalhamos.
Normalmente, as escalas são classificadas em função do tema representado. A tabela abaixo
mostra uma classificação geral das escalas em função do tamanho e da representação.
4.4.3 Legenda
A legenda é uma classe que liga os atributos não-espaciais a entidades espaciais. Os atributos
não-espaciais podem ser indicados visualmente por cores, símbolos ou sombreados, da maneira
como é definida na legenda.
Uma carta é tanto mais confiável, quanto mais o objecto está confrontado com o espaço que o
contém. É por isso que cada carta deve trazer um sistema de coordenadas. Quando se dispõe de
um sistemas de coordenadas como referência, pode-se definir a localização de qualquer ponto na
superfície terrestre. Um objecto geográfico qualquer, como uma cidade, a foz de um rio, ou o
É o sistema de coordenadas mais antigo. Nele, cada ponto da superfície terrestre localiza-se na
intersecção de um meridiano com um paralelo.
Por ser um sistema que considera desvios angulares a partir do centro da Terra, o sistema de
coordenadas geográficas não é um sistema conveniente para aplicações onde se trabalha com
distâncias ou áreas. Para esses casos, recomenda-se o uso de um sistema de coordenadas mais
adequado, como, por exemplo, o sistema de coordenadas planas, descrito a seguir.
Existem diferentes projecções cartográficas, uma vez que há uma variedade de modos de
projectar sobre um plano os objectos geográficos que caracterizam a superfície terrestre.
Analisam-se os sistemas de projecção cartográfica pelo tipo de superfície adoptada e grau de
deformação. Quanto ao tipo de superfície de projecção adoptada, classificam-se em: planas ou
azimutais, cilíndricas e cónicas, segundo se represente a superfície curva da Terra sobre um
plano, um cilindro ou um cone tangente ou secante à esfera terrestre.
A projecção, por sua vez, é controlada por símbolos usados para representar linhas costeiras,
meridianos e paralelos, divisões políticas e traços que ajudam o utilizador como referencial para a
localização. Porém, a respeito desta interdependência, o produtor de mapas tem uma liberdade
considerável na escolha de uma projecção, de uma escala e de um jogo de símbolos. Cada um
destes três atributos requer uma decisão separada. E ainda mais, cada decisão, se não for bem
feita, poderá causar um menor uso do mapa.
b) Projecção cónica
A superfície da Terra é uma superfície curva irregular, porém aproxima-se de um elipsóide. Pode-
se transformar o elipsóide numa esfera com a mesma superfície: constrói-se um globo terrestre.
Como a superfície da Terra é curva e irregular, é impossível fazer uma cópia plana dela sem a
desfigurar ou alterar. Nesse processo, poucas grandezas podem ser mantidas. Por isso, deve-se
escolher entre uma possível conservação dos ângulos, uma proporcionalidade das superfícies ou
um outro método que reduza os efeitos da deformação, levando em conta o que se pretende
analisar no mapa. Conceitua-se então o grau de deformação.
O utilizador deve seleccionar uma projecção cartográfica. A sua escolha deve basear-se na
precisão desejada, no impacto sobre o que se pretende analisar e no tipo de dados disponível.
A cartografia sistemática de Moçambique é feita na projecção UTM, nas escalas de 1:250 000 e
1:50 000. Relacionam-se, a seguir, as suas principais características:
• a superfície de projecção é um cilindro transverso e a projecção é conforme;
• o meridiano central da região de interesse, o equador e os meridianos situados a 90o
do meridiano central são representados por rectas;
• os outros meridianos e os paralelos são curvas complexas;
• o meridiano central pode ser representado em verdadeira grandeza;
• a escala aumenta com a distância em relação ao meridiano central. A 90o deste, a
escala torna-se infinita;
• a Terra é dividida em 60 fusos ou zonas de 6o de longitude. O cilindro transversal
adoptado como superfície de projecção assume 60 posições diferentes, já que seu
eixo mantém-se sempre perpendicular ao meridiano central de cada fuso ou zona;
• aplica-se ao meridiano central de cada fuso ou zona um factor de redução de escala
igual a 0,9996, para minimizar as variações de escala dentro do fuso ou zona. Como
consequência, existem duas linhas aproximadamente rectas, uma a leste e outra a
oeste, distantes cerca de 1o 37' do meridiano central, representadas em verdadeira
grandeza;
Nota: Os meridianos (norte geográfico) coincidem com as linhas verticais das quadrículas (norte
da quadrícula) da projecção UTM, apenas nos meridianos centrais. Com o aumento da longitude e
da latitude, ocorre o aumento do ângulo formado entre os meridianos e as linhas verticais da
quadrícula (convergência meridiana).
4.4.6 Datum
Existe também o datum vertical, que se refere às altitudes medidas na superfície terrestre.
O Datum mais antigo é o Madzansua, datado de 1904, com a sua origem no ponto MGM 2 (próximo
da vila do Zumbo), com as seguintes coordenadas:
Este Datum que surpreendentemente não foi muito utilizado, pouco mais serviu do que para a
elaboração da cartografia sistemática 1: 50 000 antes de 1971 (Zona Sul do País até Moebase).
A sua particularidade é a de estar ligado ao Datum do Cabo (África do Sul), através das estações
de M'Ponduíne e Ypoy (MGM 675) e da Triangulação do Transvaal. Estes dois antigos Datum
foram estabelecidos pelo capitão Gago Coutinho (mais tarde Almirante).
O Datum geodésico horizontal mais clássico e mais importante é sem dúvida o Datum “Tete”,
datado de 1960, com a sua origem na estação NW da Base Tete (MGM 799), com as seguintes
coordenadas:
Em 1995, foi efectuado pela Direcção Nacional de Geografia e Cadastro (DINAGECA) e pela
Norway Mapping um reajustamento de toda a rede geodésica de Moçambique.
Este trabalho ficou concluído em Janeiro de 1998 e o seu resultado foi um ajustamento bi-
dimensional de 759 pontos da triangulação geodésica fundamental, baseado em 32 pontos
previamente seleccionados em todo o País, o que deu origem a um novo Datum designado
MOZNET/ITRF94, compatível com o Datum WGS84.
Para a sua utilidade prática, foram desenvolvidos modelos de transformação Bursa-Wolf com 7
parâmetros, mas o modelo nacional ainda contém erros residuais que podem atingir os 30 metros
em certas zonas do País.
Para minimizar este problema, foram desenvolvidos também 4 modelos regionais (D - Zona Norte,
C - Zona Centro, B - Zona Quase Sul, A - Zona Sul) com precisão que varia entre 1 a 10 metros,
dependendo da região.
Segundo o Professor Clifford J. Mugnier, da Louisiana State University, Moçambique parece ser
um país ideal para o desenvolvimento de um modelo de equações de regressão múltipla para
obtenção de um modelo único de deslocação do Datum nacional. Para ele, provavelmente uma
solução do tipo "NADCON" seria a melhor.
As coordenadas ajustadas dos Datum antigos no novo Datum MOZNET 98 (compatível com o
datum planimétrico global WGS-84) são:
Na transformação de coordenadas dos antigos Datum para o novo Datum de Moçambique, existem
os seguintes procedimentos (Fonte: http://www.posc.org/technical/specific222.html e DINAGECA):
MODELO GERAL
Parâmetros e valores:
1.x-axis translation: -115.06 m (length metres only)
2.y-axis translation: -87.39 m (length metres only)
3.z-axis translation: -101.71 m (length metres only)
4.x-axis rotation: 0.05 seca (plane angle)
5.y-axis rotation: -4.00 seca (plane angle)
6.z-axis rotation: 2.06 seca (plane angle)
7.scale difference: 9.36 ppm (factor)
Nota: Média dos resíduos de 32 estações (erros até 30 metros). Para reduzir o tamanho dos
erros residuais foram calculados 4 modelos regionais (ver mais abaixo).
Parâmetros e valores:
1.x-axis translation: 0.00 m (length metres only)
2.y-axis translation: 0.00 m (length metres only)
3.z-axis translation: 0.00 m (length metres only)
4.x-axis rotation: 0.00 seca (plane angle)
5.y-axis rotation: 0.00 seca (plane angle)
6.z-axis rotation: 0.00 seca (plane angle)
7.scale difference: 0.00 ppm (factor)
Nota: Precisão melhor do que 1 metro.
MODELOS REGIONAIS
Zona Sul, abaixo dos 24ºS, aproximadamente (Província de Maputo e Sul da Província de Gaza).
Parâmetros e valores:
1.x-axis translation: -82.87 m (length metres only)
2.y-axis translation: -57.09 m (length metres only)
3.z-axis translation: -156.76 m (length metres only)
4.x-axis rotation: 2.15 seca (plane angle)
5.y-axis rotation: -1.52 seca (plane angle)
6.z-axis rotation: 0.98 seca (plane angle)
Zona Sul e Centro, entre 24ºS e 20ºS, aproximadamente (Províncias de Gaza, Inhambane e parte
Sul das Províncias de Sofala e Manica).
Parâmetros e valores:
1.x-axis translation: -138.52 m (length metres only)
2.y-axis translation: -91.99 m (length metres only)
3.z-axis translation: -114.59 m (length metres only)
4.x-axis rotation: 0.14 seca (plane angle)
5.y-axis rotation: -3.36 seca (plane angle)
6.z-axis rotation: 2.21 seca (plane angle)
7.scale difference: 11.74 ppm (factor)
Nota: Média de 6 estações; os erros residuais são geralmente abaixo de 4 metros.
Zona Centro, entre 20ºS e 16ºS, aproximadamente (Províncias de Sofala a norte do Corredor da
Beira, Províncias de Manica, Tete e Zambézia).
Parâmetros e valores:
1.x-axis translation: -73.47 m (length metres only)
2.y-axis translation: -51.66 m (length metres only)
3.z-axis translation: -112.48 m (length metres only)
4.x-axis rotation: -0.95 seca (plane angle)
5.y-axis rotation: -4.60 seca (plane angle)
6.z-axis rotation: 2.36 seca (plane angle)
7.scale difference: 0.58 ppm (factor)
Nota: Média de 11 estações; os erros residuais são geralmente abaixo de 3 metros.
É aquele onde as deformações são nulas, isto é, a escala é verdadeira. A partir desse paralelo, as
deformações vão aumentando progressivamente sobre os paralelos e sobre os meridianos, com
valores desiguais. Utiliza-se o paralelo padrão como linha de controle no cálculo de uma projecção
cartográfica.
O paralelo padrão pode ser único, como nas projecções cónicas que usam um cone tangente à
Terra. Se o cone for secante, serão dois os paralelos padrão, como na projecção cónica de Albers.
Qualquer sistema de projecção cartográfica tem uma origem e um par de eixos cartesianos, (X,Y)
ou (E,N), que são usados para representar as coordenadas planas da projecção. Para tanto, a
origem é definida na intersecção de um paralelo com um meridiano. A tangente ao meridiano na
origem define o eixo Y ou N e a tangente ao paralelo na origem define o eixo X ou E.
Para saber a longitude de origem, o utilizador deve localizar a área de interesse e verificar a que
fuso ou zona ela pertence. O meridiano central (33 ou 39 ou 42) corresponderá à longitude de
origem. Maputo, por exemplo, situada a -25o S e 32o E, encontra-se no fuso de 30o a 36o W. Logo,
a sua longitude de origem é 33o E.
O equilíbrio no desenho visual de uma carta é dado pela posição dos componentes mostrados de
uma maneira lógica, de modo a chamar a atenção para o que se quer realçar. Num desenho bem
balanceado nada é muito claro ou escuro, curto ou longo, pequeno ou grande. O lay-out é o
processo de se chegar ao equilíbrio adequado. Devem ser feito com tantos ensaios quantos se
achar conveniente.
4.4.8.2 Cor
A cor é a variável visual mais forte, facilmente perceptível e intensamente selectiva. É também a
mais delicada para manipular e a mais difícil de se utilizar. Dependendo da ênfase desejável para
um dado na carta, escolhe-se uma determinada cor. Algumas cores são mais perceptíveis que
outras. O olho humano é mais sensível ao vermelho, seguido pelo verde, amarelo, azul e púrpura.
Exemplos: as estradas são representadas em vermelho, os rios e mares em azul, a florestas em
verde; nas cartas climáticas as áreas tropicais em vermelho e as regiões de clima seco, em
amarelo. Alguns países possuem normas estandardizadas para a representação a cores.
A claridade e legibilidade é uma qualidade da carta em cuja informação procurada pode ser
facilmente encontrada, diferenciada entre outras e memorizada sem esforço. A legibilidade pode
ser obtida pela escolha apropriada de linhas, formas e cores e pela sua delineação precisa e
correcta. As linhas devem ser claras, finas e uniformes. Cores, padrões e sombreamento devem
ser facilmente distinguíveis e correctamente registados. As formas dos símbolos utilizados não
devem ser confusas. Deve-se tentar separar as manchas e símbolos significativos do tema
tratado, daqueles do mapa base, evitando que uma densidade gráfica muito grande torne a leitura
confusa e complicada numa carta mal distribuída.
4.4.8.4 Generalização
Nem sempre uma carta com muitos detalhes e grande número de informações significa
tecnicamente boa. Um bom cartógrafo deve saber generalizar e “generalização significa
distinguir entre o essencial e o não essencial, conservando-se o útil e abandonando-se o
dispensável. É a qualidade imprescindível na representação cartográfica, pois dela dependerá a
simplicidade, clareza e objectividade do mapa, através da selecção correcta dos elementos que a
compõe. Isso não significa eliminar detalhes, mas omitir detalhes sem valor” [Santos (1989)].
Evidentemente, a generalização tem relação directa com a escolha da escala e “o cartógrafo que
sabe generalizar correctamente, justifica melhor a escolha duma escala menor do que o que, por
falta de habilidade, procura, geralmente apresentar demasiados detalhes pelo receio de omitir
algum que seja essencial” [Deets (1949)].
Exemplo:
A impressão de uma carta ou mapa pode ser feita numa impressora ou plotter. Actualmente,
estão disponíveis no mercado impressoras ou plotters com alta qualidade e grande capacidade de
tiragem. Para baixar os custos, pode-se recorre à impressão offset para grandes quantidades de
reprodução, principalmente em formato vector.
O papel utilizado para a impressão de uma carta ou mapa é de tipo variável (plain, coated, heavy
coated, matte, bond, bright white, Hi-gloss, Hi-gloss photo, etc.) e com dimensões em formato-
padrão (ISO ou outro). O formato básico é o A0, do qual derivam os demais. A tabela a seguir
As imagens satélite são retratos fiéis da superfície terrestre. Os mapas, por sua vez, derivados
ou não das imagens satélite, são representações, numa superfície plana, de todo ou de uma parte
da superfície terrestre, de forma parcial e através de símbolos. A realidade nos mapas é
representada de forma reduzida e seleccionada.
Um mapa temático, contudo, feito a partir da foto-interpretação de uma imagem satélite, pode
ter pouca precisão e muito conteúdo, pois, é praticamente impossível retractar com fidelidade
absoluta qualquer objecto. Aqui, os erros introduzidos no processo da sua confecção, remetem-
nos, para além da precisão, a um outro conceito: a exactidão do mapeamento.
A precisão planimétrica de uma carta regular 1:50.000, por exemplo, é de 10 metros. Se assim
não fosse, esta carta não seria regular.
Por exemplo, numa carta topográfica regular à escala 1: 50.000, com curvas de nível de 20 metros
de equidistância, possui uma precisão altimétrica de cerca de 6.7 metros. Na escala 1:250.000,
com curvas de nível de 100 metros, a precisão altimétrica é de 33 metros, aproximadamente.
Nas cartas regulares moçambicanas a equidistância das curvas de nível pode ser dada por:
0,2 x denominador da escala x 2
Os erros mais frequentemente introduzidos num mapa feito a partir da interpretação de uma
imagem satélite advêm, principalmente, das seguintes causas: falhas na correcta identificação
das classes temáticas, incorrecções na delimitação dos diferentes objectos, fraca resolução
espacial do sensor, deficiente escolha da escala de trabalho e falhas próprias do analista,
resultantes de factores psíquicos e emocionais ou mesmo falta de domínio das técnicas de
fotointerpretação.
Por causa deste tipo de erros, a qualidade de um mapa temático deve, também, ser avaliada pela
exactidão do mapeamento, para além da sua precisão.
Suponhamos que a partir da interpretação visual de uma imagem satélite obtivemos 60 Ha como
área ocupada por uma determinada classe, mas, a área medida no terreno (efectivamente
ocupada) seja de 65 Ha. A exactidão do mapeamento, neste caso, seria de 92,31%,
aproximadamente, número que indica que o mapa apresenta uma exactidão bastante boa para essa
classe. Contudo, esse número pode não corresponder exactamente à realidade no campo, isto é, o
analista pode ter introduzido na classe em questão outras áreas que apresentavam semelhanças
de comportamento espectral, quando na verdade não eram dessa classe. A exactidão de
mapeamento, geralmente em percentagem, só avalia o posicionamento da distribuição espacial de
cada uma das classes que foram escolhidas. Portanto, não é possível dizer se uma área que foi
representada como sendo de uma determinada classe é de facto ocupada por esta, no terreno. A
E (%) = 100 –[( área da classe estimada no mapa / área real no campo) x l00]
Quando a área estimada no mapa temático for maior do que a área real no campo, tem-se uma
situação de erro de inclusão; caso contrário, uma situação de erro de omissão.
Para o cálculo dos erros de inclusão e omissão, é necessário trazer informações do campo ou
obtê-las através de fotografias aéreas recentes, que poderão servir como verdade do terreno. O
procedimento deve basear-se numa amostragem da área a ser visitada no campo. A exactidão do
mapeamento depende, por outro lado, do tamanho, tipo e as unidades de amostragem.
Não é nada fácil seleccionar um tipo apropriado de amostragem para o cálculo da exactidão do
mapeamento, pois há dificuldade em se gerar uma matriz de erro que seja representativa de
todas as classes interpretadas na imagem. Porém, qualquer que seja o esquema de amostragem
adoptado, é necessário estabelecer um procedimento padronizado para a medição do erro e
comparação da exactidão de mapeamento.
Com o uso cada vez maior do Sistema de Posicionamento Global (GPS), que fornece posições com
erro inferior a 10 m, a preocupação que se tinha há pouco tempo, em relação ao posicionamento
correcto do ponto no terreno, deixou de ter sentido. A possibilidade de se usar, cada vez mais, o
O tamanho da amostra é outro parâmetro que deve ser levado em consideração quando se
pretende estabelecer um esquema de amostras. Em geral, deve ser determinado com base em
dois critérios: estatístico e económico.
Do ponto de vista estatístico, a amostra deve ser o suficientemente grande para garantir
confiabilidade aos resultados obtidos. Do ponto de vista económico, ela deve ser de um tamanho
tal que não inviabilize a sua utilização. Para ser utilizada na estimativa da exactidão de
mapeamento, a amostra de uma área deveria conter um número mínimo de 50 unidades, para cada
categoria de uso da terra e de 75 a 100 unidades, quando a área fosse grande ou o mapeamento
tivesse um número maior que 12 categorias.
Existe ainda uma possibilidade de definir o tamanho das amostras pelo estabelecimento de uma
percentagem do tamanho da área estudada. Para uma classificação digital supervisada ou não-
supervisada, a prática mostra que os tamanhos adequados têm sido 1,25% e 1,75% da área total,
respectivamente.
Para a escala 1:50.000, a precisão planimétrica que nos pode oferecer uma imagem multispectral
do HRV do SPOT1, com 20 m de resolução, só vai até 56,4 m. Uma imagem pancromática do
mesmo sensor, com 10 m de resolução, já nos oferece uma precisão de 28,2 m. No HRS do
SPOT5, com 2,5 m de resolução espacial, a precisão planimétrica melhora significativamente.
Como se pode ver, a precisão planimétrica dada pela imagem multispectral do HRV do SPOT1 é 5
vezes inferior à precisão planimétrica requerida para uma carta à escala 1:50.000, dita regular
(10 metros). Entretanto, uma imagem do HRS do SPOT5, com 2,5 m de resolução já nos fornece
uma precisão planimétrica de 7 metros, aceitável para a escala de 1:50.000.
Há várias técnicas empregues para minimizar as várias fontes de erro na digitalização. O erro
devido à espessura da linha que separa dois temas diferentes ou que representa os contornos de
um objecto, pode diminuir com o aumento da escala de trabalho. Uma linha de espessura de 1,0
mm equivale, na escala 1:250.000 a 250 m no terreno, enquanto que na escala 1:50.000 essa
mesma linha corresponde a 50 m no terreno. Por essa razão, é necessário observar com certa
frequência a espessura da linha.
4.6.1 Metodologias
De entre os vários procedimentos aplicáveis para uma actualização cartográfica com imagens
satélite, podem-se destacar os seguintes:
Pré-requisito: dados impressos em papel (imagens satélites, cartas topográficas) à mesma escala
e no mesmo formato.
3. Após o trabalho de campo e subsequente correcção dos erros, procede-se à digitalização dos
dados e a sua introdução numa base de dados SIG. Este procedimento torna-se mais facilitado
quando as coberturas temáticas originais das cartas topográficas estão disponíveis em suporte
físico de boa qualidade (filme ou diapositivo). Assim, a sua introdução na base de dados SIG
pode ser feita por um processo de ‘scanagem’ e vectorização automatizada (ou digitalizadas a
partir da tela do monitor). Na ausência das coberturas temáticas originais, o trabalho torna-se
mais complexo e moroso pois há que recorrer às folhas topográficas existentes em papel,
digitalizando-as em necessárias coberturas, para criar os temas pretendidos.
Após a conversão dos dados ao formato digital, segue-se um processo normal de edição e
produção cartográfica com recurso a um software apropriado.
5. Produzida a carta, procede-se ao trabalho de campo (as cartas digitais das zonas
escolhidas são transportadas ao terreno em PC portátil, para as devidas correcções).
6. Após o trabalho de campo, a carta pode ser impressa e a sua precisão avaliada, aplicando
o mesmo método descrito para as cartas obtidas com dados analógicos.
Para melhor nos inteirarmos da complexidade de uma actualização cartográfica com dados
espaciais, é necessário termos em mente alguns dos princípios básicos inerentes ao processo.
Apesar de ser sempre útil a completagem no campo, a quantidade de trabalho necessária para o
efeito varia muito de acordo com a ‘perfomance’ alcançada durante a foto-interpretação das
imagens: todo o objecto não detectado (ou mal interpretado) deve ser inspeccionado no terreno.
Com a recente entrada em vigor dos satélites de muito alta resolução, o trabalho de campo pode
ser drasticamente reduzido, bastando para tal que estejam disponíveis e possam ser utilizadas,
para as zonas de teste, imagens satélite (SPOT5, Cartosat-1, IKONOS, QuickBird) com uma
resolução tal que deixe poucas dúvidas na foto-interpretação.
Resumindo:
A detecção corresponde à habilidade para contar o número de objectos.
O reconhecimento é possível quando o objecto já não for uma mancha escura mas
claramente um carácter
A identificação é possível quando se puder ler o carácter
A análise técnica corresponde à análise da fonte (tipo de caracteres) usada (itálicos,
negrito, etc.)
Tipo Escala 1/25 000 – 1/50 000 Escala 1/100 000 –1/250 000
• Estradas principais e pistas auto
• Estradas principais e pistas auto
• Estradas secundárias
• Estradas secundárias
• Picadas
Vias de acesso • Linhas férreas principais
• Caminhos de pé posto
• Aeroportos e pistas de
• Linhas férreas
aterragem
• Pistas de aterragem
• Linhas de transporte de energia
• Linhas de transporte de energia
• Túneis
Equipamentos • Túneis principais
• Pontes
• Pontes principais
• Campos de jogo
• Áreas urbanas de grande
• Áreas urbanas muito densas densidade populacional
Assentamentos • Áreas urbanas pouco densas • Áreas urbanas de pouca
humanos • Vilas densidade populacional
• Edifícios isolados • Vilas
• Aldeias
• Curvas de nível a intervalos verticais • Curvas de nível a intervalos
Relevo de 5 a 20 m verticais de 20 a 100 m
• Pontos cotados • Pontos cotados
• Rios e canais
• Ribeiros
• Rios e canais
Hidrografia • Lagos e albufeiras
• Lagos e albufeiras
• Correntes de água
• Poços
• Áreas cultivadas
Vegetação / uso • Plantações artificiais • Áreas cultivadas
e • Áreas herbáceas • Mata
cobertura da • Mata • Floresta
terra • Diversos tipos de floresta • Áreas rochosas
• Áreas rochosas
• Limites administrativos
Limites • Limites administrativos
• Limites cadastrais
Tabela 2
Basicamente, existem três tipos de mapas produzidos a partir de imagens satélite: mapas
topográficos tradicionais, espaciocartas e mapas temáticos (uso e cobertura da terra, aptidão de
solos, geologia, inventário florestal, densidade populacional, etc.). Com ou sem um fundo da
imagem, todos estes produtos mostram feições, características ou objectos geográficas
susceptíveis de actualização tais como aldeias, estradas, florestas e outros.
A diferença principal entre cada escala é a densidade de detalhes que o mapa deve mostrar. O
propósito desta limitação física é o de deixar o produto final bastante sintético, de modo a ser
compreensível à primeira vista.
O MNT usado para a orto-rectificação de imagens pode ser derivado de curvas de nível já
existentes em mapas ou também obtidos a partir de imagens satélite. Graças aos seus ângulos de
visada ajustáveis, alguns satélites com sensores ópticos adquirirem pares de imagens
Para obter o máximo benefício das imagens de muito alta resolução (1, 2.5, 5 e 10 m), no segundo
método de produção de cartas, as imagens devem ser exibidas no écran pelo menos na sua máxima
resolução, isto é, à escala aproximada de 1:2 000, 1:5 000, 1:10 000 e 1:20 000 respectivamente.
Para a actualização cartográfica o mapa deverá, evidentemente, ser exibido na mesma escala.
De um modo geral pode-se dizer que quanto maior for a escala (i.e.: quanto maior a resolução)
melhor será a imagem para efeitos da sua interpretação visual. Esta afirmação é especialmente
verdadeira para produção de novos mapas. Para a actualização de mapas, porém, pode não ser tão
evidente pois a escala da imagem deve ser ajustada à escala do mapa final e à escala de trabalho.
Se o propósito for actualizar a folha topográfica 1:50 000, será mais conveniente trabalhar com
os dados na escala 1:25 000, 1:20 000 ou até mesmo a 1:10 000 do que usar uma escala de
trabalho 1:5 000 ou maior.
Fig. 74
Nessa escala, para a interpretação do uso e cobertura da terra, por exemplo, a imagem de 1m de
resolução não traz mais informação que a de 10m; para a interpretação e reconhecimento dos
edifício para um esboço da planta de uma cidade, a imagem de 5m de resolução que é exibida a
meia resolução e até mesmo a de 10m de resolução exibida em plena resolução, são mais
informativas que as outras exibidas com maior reamostragem de pixeis.
Escala Precisão Planimétrica (m) Intervalo de curvas de nível (m) Precisão Altimétrica (m)
Tabela 3
Precisão das imagens corrigidas: para actualizar uma carta topográfica 1:50 000 deve-se ter
imagens geometricamente corrigidas com uma precisão mínima de 10 metros.
Tomemos como exemplo uma imagem pancromática SPOT, de 10m de resolução, captada na
posição quase-nadir (ângulo de incidência quase vertical) e corrigida com GCP’s de precisão sub-
métrica. A melhor precisão planimétrica que podemos esperar desta imagem estará entre 10 e 15
m, o que é completamente compatível com os padrões de mapeamento 1:50 000 a 1:100 000. Nas
O processo de extracção de informações das imagens satélite não é trivial. Enquanto várias
tarefas tais como a confecção de DEMs e a produção de ortofotos podem ser alcançadas com um
grande grau de automatização, a extracção de características lineares e outras deve ainda ser
realizada manualmente. O máximo que se pode fazer é desenvolver métodos de incorporar um
maior nível de automatização nessas tarefas.
Vias de comunicação
Resolução espacial
10 m 5 m 2.5 m 1m
Estradas principais e
Identificação Identificação Identificação Identificação
pistas auto
Reconhecimento
Estradas secundárias Identificação Identificação Identificação
e Identificação
Reconhecimento
Picadas principais Identificação Identificação Identificação
e Identificação
Aeroportos e pistas
Reconhecimento Identificação Identificação Análise técnica
de aterragem
Não ao
Caminhos de pé posto Não Não Não ao Reconhecimento
Reconhecimento
Tabela 4
Hidrografia:
Resolução espacial
10 m 5 m 2.5 m 1m
Reconhecimento
Lagos e albufeiras Identificação Identificação Identificação
e Identificação
Tabela 5
Fig. 76
Equipamentos:
Resolução espacial
10 m 5 m 2.5 m 1m
Túneis principais Não à Detecção Não à Detecção Não à Identificação Não à Identificação
Tabela 6
Assentamentos humanos:
Resolução espacial
10 m 5 m 2.5 m 1m
Reconhecimento e
Vilas e aldeias Identificação Identificação Identificação
Identificação
Tabela 7
Fig. 78
Resolução espacial
10 m 5 m 2.5 m 1m
Reconhecimento e Reconhecimento e
Pomares, plantações Identificação Identificação
Identificação Identificação
Tabela 8
Fig. 80
Para muitas regiões do mundo é difícil obter ou criar um Modelo Digital de Elevação (DEM) que
tenha boa precisão. Para outras, obter um DEM com boa precisão é proibitivamente caro. A total
carência ou a falta de um DEM de boa precisão significa impossibilidade, inviabilidade ou grande
dificuldade para a produção de ortofotos dessas áreas.
Para alcançar uma boa precisão usando o modelo de sensor do ASTER os pontos de controle
terrestre (GCPs) são obtidos a partir das imagens IKONOS e aplicadas à imagem ASTER. A
vantagem do uso desse modelo é a redução de GCPs requeridos, tendo em consideração que a sua
distribuição na imagem não é crítica. Em estudos prévios já se provou que a precisão do DEM do
Aster pode-se deteriorar em terreno mais acidentados (A. Kaab et al, 2002). Porém, em muitos
casos, a precisão obtida é comparável com a do DEM de 1 arco segundo da USGS (T. Toutin e P.
Cheng, 2001).
Muitas regiões do mundo não dispõem de pontos de controle de precisão, mas podem ser
derivados a partir da sobreposição de imagens monoscópicas do IKONOS com Coeficientes
Polinomiais Racionais (RPCs), em visão estereoscópica. A vantagem de usar imagens monoscópicas
do IKONOS em vez das estereoscópicas para extrair os pontos de controle reside no facto de
que o custo das primeiras é mais baixo. A pesar da sobreposição de quase 100% nas imagens
estereoscópicas e somente de uma pequena percentagem nas monoscópicas, a utilização destas
evita que a mesma área tenha de ser coberta duas vezes. A sobreposição existente nas imagens
monoscópicas é suficiente para a extracção de pontos de controle. Esta poupança reflecte-se,
consequentemente, no baixo custo do produto derivado.
A Space Imaging possui um software próprio para reformatar os dados ASTER de nível L1A para
a sua utilização estereoscópica.. Depois de reformatados, qualquer software com capacidade de
ajustamento em bloco das imagens IKONOS e auto-correlar pares esterescópicos pode ser usado
para produzir DEMs do ASTER.
As bandas L1A (3n e 3b) do ASTER são importadas como imagens separadas e reformatadas. A
partir das áreas de sobreposição das imagens IKONOS, extraem-se os GCPs a aplicar na
correcção das imagens ASTER. Após a aplicação dos GCPs, executa-se uma triangulação ou
ajustamento em bloco. Com a auto-correlação dos pares estereoscópicos do ASTER pode-se,
então, produzir o respectivo DEM (intervalo de 30 metros, por ex.). Se for necessário edita-se o
DEM para corrigir alguns detalhes pois áreas com nuvens, sombras e água são mal correladas.
Depois, o DEM é colocado no formato mais apropriado para a produção de orto-fotos (fig. 82).
Os DEMs criados a partir de imagens ASTER com GCPs extraídos de imagens IKONOS possuem
uma precisão suficiente para serem usados na confecção de ortofotos de referência CE90 do
IKONOS (25 metros), com a vantagem do seu baixo custo.
Experiências práticas mostram que após o ajustamento em bloco as imagens IKONOS não orto-
rectificadas e sem correcção geométrica adicional possuem uma precisão planimétrica de cerca
de 4 metros (erro médio quadrático de inclinação, com um erro de drift de 50 PPM). Após a
correcção com os parâmetros de controle bias e drift, a precisão planimétrica pode atingir 0.5
metros (erro residual médio quadrático do bias e drift), como se explica a seguir:
Se o ajustamento em bloco das imagens IKONOS tiver de ser feito fora das estações de
recepção, então as equações RPC devem ser acrescidas dos parâmetros de inclinação (bias) e
direcção (drift) para o cálculo dos erros residuais:
L = RL(φ, λ, h) + a0 +aLL + νL
S = RS (φ, λ, h) + b0 + bLL + νS , onde
(φ, λ, h) = latitude, longitude e altitude,
L = número de linhas da imagem,
S = número de reamostragem na imagem,
RL, RS = função racional para linhas e reamostras,
a0, b0 = parâmetros bias para linhas e reamostras,
aL, bL = parâmetros drift para linhas e reamostras,
νL, νS = erros residuais para linhas e reamostras.
Nas equações acima, RL e RS exprimem a relação nominal entre o terreno/imagem, provida pela
imagem. Os parâmetros bias (a0, b0) ajustam qualquer erro de inclinação de altitude do satélite ou
dos efemérides. Como estes erros não são observados independentemente, o seu efeito é
conjuntamente tratado pelo bias de linhas e de reamostras. O número de linhas L é o substituto
temporal para que os parâmetros drift (a0, b0) ajustem qualquer erro linear temporário na
altitude do satélite. Os erros drift costumam ser de 50 ppm, aproximadamente, pelo que usar o
número de linhas L nominal ou obtido por medição, o resultado não altera em quase nada.
Fig. 83
Infelizmente, isto não significa que o sinal registado pelos elementos do CCD integra somente a
luz reflectida dos objectos localizados dentro da área do tamanho do pixel: o sinal também é
influenciado pelos objectos localizados fora desta área. A área ‘vista’ por cada detector é
chamada de campo instantâneo de visão (IFOV). Os objectos localizados no centro da área têm
uma influência mais forte que os localizados junto às extremidades. A redução de influência no
Assim o conceito de “resolução espacial efectiva” é mais realístico: indica o diâmetro de uma
área circular onde a modulação de sinal é sempre mais alta que 50%. A área correspondente é
chamada de campo instantâneo efectivo de visão (EIFOV). Há que notar que se uma imagem
digital tiver uma resolução espacial efectiva maior que o intervalo de reamostragem de pixeis,
aparecerá como que borrada.
Medir a resolução efectiva em uma imagem não é uma tarefa fácil se não estirem disponíveis
objectos calibrados de referência no terreno. Diferenças de MTF podem até ser observadas em
partes diferentes de uma mesma imagem. O método mais usado para avaliar a MTF é baseado na
comparação de feições ou características padronizadas (aeródromos, edifícios, etc.) com imagens
de referência que possuam uma MTF conhecida (normalmente gerada por uma degradação
controlada de uma imagem de resolução mais alta).
Vale a pena notar que o processamento de imagens para a produção de ortofotos danifica até
certo ponto o MTF, por causa da reamostragem de pixeis.
Por causa dos efeitos atmosféricos e outras imperfeições na fase de aquisição, a informação da
imagem satélite cai na categoria dos alvos “muito complexos” para uma extracção automatizada
de informação, diferentemente dos alvos em sistemas de visão industriais instalados em
ambientes controlados, cuja extracção automatizada de informação é quase que perfeita. Ciente
desta dificuldade, a meta tem sido modelar o sistema humano olho/cérebro, de tal maneira que se
possa capitalizar os aspectos pertinentes que maximizem o custo/benefício.
Não se deve esperar que os resultados de uma extracção automatizada de informação sejam
o produto final. Devem ser geralmente revistos, editados e corrigidos manualmente!.
Várias abordagens foram já realizadas para equilibrar o papel dos dois intervenientes, máquina e
ser humano, no concernente à automatização versus extracção manual. Os factores de influência
tidos em consideração incluem o tipo de imagem usada, a aplicação pretendida, os recursos
disponíveis e as especificações impostas para o produto final. Porém, pressupõe-se naturalmente
que maior automatização significa menor intervenção manual e, consequentemente, menor custo
de mão-de-obra. Pelos resultados que têm sido obtidos através dos métodos de extracção
automatizada de informação, chega-se à conclusão que a pós-edição manual é sempre necessária
para corrigir a informação errónea ou incompleta. Contudo,a pós-edição manual não deve consumir
muitas horas de trabalho para, eventualmente, não desvirtuar o propósito final da automatização.
Se o operador gastar mais tempo a corrigir dados erróneos que aquele que seria necessário para
extrair os mesmos dados manualmente, então a automatização não faz sentido.
A batalha entre o papel da máquina e o do ser humano pode ser exposta em três cenários:
Como exemplo do primeiro podemos considerar o uso do BridgeView, um módulo desenvolvido para
ajudar o operador a extrair novas estradas e pontes ou a rever as existentes, a partir de imagens
satélite ou fotografias aéreas.
Do segundo podemos, como exemplo, mencionar o módulo Feature Analyst desenvolvido pela
Visual Learning Systems, Inc. Trata-se de é um conjunto de algoritmos de aprendizagem de
máquina, para extrair informações específicas de objectos definidos pelo operador.
Nas cenários anteriores, a qualidade dos resultados com os módulos empregues depende tanto da
qualidade e características da imagem usada como da complexidade reconhecimento/extracção
da informação.
O sucesso na extracção de uma determinada informação, qualquer que seja o pacote de software
a utilizar, depende do reconhecimento das suas condições específicas que a diferenciam de outra
informação e, fundamentalmente, da definição apropriada dos parâmetros e critérios de
inicialização de cada etapa do processo.
Por serem os do nosso maior interesse, aprofundemos o nosso conhecimento sobre os módulos
atrás mencionados:
BridgeView
Como o próprio nome sugere, BridgeView é um módulo usado mais para a localização precisa e
eficiente de pontes, a partir de dados espaciais. Para tal, possui as seguintes funcionalidades:
Localiza, edita e move estradas e pontes para posições precisas, com base em
ortoimagens
A sua fonte primária de dados é qualquer ortofoto de precisão e resolução apropriada, gerado a
partir de fotografia aérea ou imagem satélite de alta resolução. O utilizador pode corrigir a
posição de estradas e pontes se a sua localização for julgada inexacta. A precisão da posição
corrigida é cerca de 1 a 2 metros, dependendo da fonte dos dados e da resolução da imagem.
O Feature Analyst funciona como uma extensão dos softwares ArcView, ArcGIS e ERDAS
IMAGINE, sendo mais usado para a extracção automatizada de objectos geográficos específicos,
escolhidos pelo operador, em fotografias aéreas ou imagens satélite. Este módulo emprega a
tecnologia de aprendizagem de máquina para a criação e manutenção de bancos de dados GIS,
proporcionando-nos uma grande redução de tempo e custo de trabalho.
Algumas organizações bem conceituadas recorrem a este software nas tarefas de produção e
actualização de dados geo-espaciais. Como exemplo, podem ser mencionadas duas: a US Forest
Service e o National Geospatial-Intelligence Agency dos Estados Unidos da América.
Este software pode ser usado com fotografias aéreas ou com quaisquer dados provenientes de
satélites de observação da terra., necessitando apenas de exemplos de aprendizagem inicial.
O gráfico abaixo mostra uma estimativa o número de horas e o custo do trabalho de extracção de
informação recorrendo a diversos métodos, incluindo o método automatizado do Feature Analyst.
O módulo Feature Analyst, as instruções de sua instalação e tutorial completo para treinamento
podem ser obtidos da Internete: http://www.featureanalyst.com/login/software.php. Neste
endereço pode-se obter, também, uma versão de ensaio gratuita que só funciona com o material
juntamente fornecido. A pesar desta limitação, a versão de ensaio é bastante útil para o
treinamento de pessoal, tomando em se consideração que a versão profissional completa custa
cerca de US$ 10 000.
O tutorial (em qualquer das versões) inclui um guia prático para o processo de extracção de
informações bem como material completo para um treinamento técnico (imagens e ficheiros com
dados em formato shape, necessários à realização dos exercícios práticos).
PROCOM-2
Fig. 84
PROCOM SYSTEM possui módulos opcionais acopláveis ao PROCOM-2, que podem aumentar a
funcionalidade deste, dotando-o de capacidades para a integração de dados múltiplos e captura
digital da informação.
1. Lillesand &Kiefer R.: Remote Sensing and Image Interpretation.- New York: Library of
Congress Cataloguing in Publication Data, 1979.
2. 2. Lillesand T & Kiefer R.: Remote Sensing and image Interpretation, 2nd edition - New
York: Library of Congress Cataloguing in Publication Data, 1987.
6. Harris R.: Satellite Remote Sensing – Nondan Routledge & Kegan Paul 1987.
13. Florenzano, T. G. Imagens de Satélite para Estudos Ambientais, São Paulo, Oficina de
Textos, 2002.
14. Rolf Larsson R. & Stromquist L.: Uma Abordagem Prática sobre Análise de Imagens
Satélite para o Monitoramento Ambiental - Maseru SADC ELMS, 1993.
15. ESA: ERS-1: User Handbook - Noordwijk: ESA Publications Division, 1992.
16. SSC: Remote Sensing Magazine n0 27/28/29 - Kiruna: Swedish Space Corporation,
1990/96/97.
17. US Army: SPACE NEWS Periodical Newspaper Vol 5-9 - Springfield: Army Times
Publishing C0, 1995/96/97/98.
18. Satellitebild: Down to Earth (newsletter) - Kiruna Swedish Space Corporation, Feb. 1993.
19. CSIR SAC: News (newsletter) no 1-14 – Pretoria, Satellite Applications Centre,
1995/96/97.
22. SPOT Image SPOTF1ash no 12/13 - Toulouse: CNES, October 1993/Feb. 1994.
23. Erdas, Inc: ERDAS Field Guide – Fifth Edition, USA, 1999.
24. SSC: Resurs-01 - Bringing the Gap (brochure) - Kiruna: Swedish Space Corporation, 1996
26. Couper H & Henbert N.: The Space Atlas - London: Dorling Kindersley Ltd, 1992.
27. Bakst L., Yamazaki Y: Princípios físicos e técnicos da Meteorologia por Satélite – vol. 1,
Relações Espaciais.
28. Oscar R. Vergara, Maria de Lourdes Kurkdjian , Júlio César Lima d’Alge, Madalena Niero
Pereira: Geoprocessamento e Sensoriamento Remoto para Atualização de Cartas Topográficas.
29. David Holland, Paul Marshall: Updating Maps in a well-maped Country Using Hight
Resolution Satellite Imagery.
31. Gene Dial, Jacek Grodecki: IKONOS Accuracy Without Ground Control
Consulta na Internet
web.mit.edu/abyrne/www/colorrealism.htm
http://kripton.psyc.virginia.edu/steve_boker/colorvision2/node1.htm
http://hypertextbook.com/physics/
http://www.comunica.unisinos.br/andre/disciplina/
www.eletronica.com/arte/cor
http://www.mundocor.com.br/
http://www.inf.puc-rio.br/~bacellar
http://www.colorindo.hpg.ig.com.br/aberturas/www.colormatters.com
http://www.lynda.com/
http://www.killersites.com/
http://www.stink.com/
http://www.webdeveloper.com/
http://www.netprof.pt/HomeNetProf.htm
http://www.netprof.pt/fisica_quimica/4_quimica_temas_luzcorobjectos.htm
http://users.sti.com.br/mvalim/imagem.htm
http://www.fisica.ufc.br/coresluz.htm
http://www.artecor.com.br/Informativo/contra.htm
http://www.radarsat.com
http://www.cordesign.com.br/
http://www.netprof.pt/HomeNetProf.htm
http://www.inf.puc-rio.br/~bacellar/index_port.htm
http://www.alba.com.ar/uso_c.html
http://www.netnam.vn/unescocourse/computervision/13.htm
http://www.pa.msu.edu/cience/
http://www.uel.br/projeto/cartografia
http://mit.edu/abyrne/www/
http://csep10.phys.utk.edu/astr162/lect/light/ref-diff.html
http://kiptron.psyc.virginia.edu/steve_boker/ColorVision2/node1.html
http://aqua.nasa.gov
http://landsat7.usgs.gov
http://www.engesat.com.br/satelites/ikonos.htm
http://www.proteccioncivil.org/vademecum/vdm031.htm#3103
http://www. Proteccioncivil.org/vademecum/
http://dmsp.ngdc.noaa.gov/html/sensors/doc_ssmi.html
http://www.goes.noaa.gov/
http://goes1.gsfc.nasa.gov/
http://vppx134.vp.ehu.es/fisica/agustin/teledec/geoestacio.htm
http://www.nottingham.ac.uk/meteosat/
http://www.eumesat.de/en/area3/topic1.html
http://www.eumesat.de/
http://www.nasda.go.jp/
http://www.isro.org/insat2e.htm
http://www.aerospaceguide.net/spacecraft/index.html
http://www.gisdevelopment.net/technology/ip/techip010.htm
http://www.gmat.unsw.edu.au/research/ia/home.html
http://www.asprs.org/publications/pers/2004journal/december/foreword.html
http://www.ncgia.ucsb.edu/ncrst/resources/easyread/cookbooks/BridgeView/BridgeView.pdf.
http://www.featureanalyst.com/
http://www.vls-inc.com
http://riker.unm.edu/DASH_new/pdf/WhitePapers/AutomaticFeatureRecognition.pdf
http://www.cyberus.ca/~hmoore-gg/