Você está na página 1de 44

FOTOGRAMETRIA E PROCESSAMENTO

DIGITAL DE IMAGENS
1

Sumário
NOSSA HISTÓRIA .................................................................................. 3

Introdução ................................................................................................ 4

Histórico ................................................................................................... 6

Conceitos Básicos ................................................................................... 9

Fotogrametria interpretativa ............................................................... 10


Métodos de fotointerpretação ............................................................. 10
Fatores básicos de interpretação – elementos de reconhecimento ... 12
Fotogrametria métrica ........................................................................ 13
Estereoscopia .................................................................................... 14
Áreas de Aplicação ................................................................................ 15

Classificações da Fotogrametria ........................................................ 16


Quanto ao tipo de tratamento dado às fotografias aéreas ................. 16
Fotogrametria digital .............................................................................. 21

O SISTEMA DVP(DIGITAL VIDEO PLOTTER) – GENERALIDADES 22


PROCESSAMENTO DIGITAL DE IMAGENS ........................................ 23

Processamento de Imagens: breve histórico e exemplos de aplicações 23

Entendendo o Processamento Digital de Imagens ................................ 25

Relação entre Processamento de Imagens e Computação Gráfica ...... 27

Natureza Interdisciplinar do Processamento de Imagens .................. 27


Organização do Tutorial ..................................................................... 28
Conceitos Fundamentais ....................................................................... 28

Natureza da luz .................................................................................. 28


Estrutura do Olho Humano................................................................. 29
Modelos Cromáticos........................................................................... 31
Modelo de Imagem Digital .................................................................. 33
Amostragem e Quantização .................................................................. 35

Sistema Típico para Processamento Digital de Imagens ................... 38

1
2

REFERÊNCIAS ..................................................................................... 42

2
3

NOSSA HISTÓRIA

A nossa história inicia com a realização do sonho de um grupo de


empresários, em atender à crescente demanda de alunos para cursos de
Graduação e Pós-Graduação. Com isso foi criado a nossa instituição, como
entidade oferecendo serviços educacionais em nível superior.

A instituição tem por objetivo formar diplomados nas diferentes áreas de


conhecimento, aptos para a inserção em setores profissionais e para a
participação no desenvolvimento da sociedade brasileira, e colaborar na sua
formação contínua. Além de promover a divulgação de conhecimentos culturais,
científicos e técnicos que constituem patrimônio da humanidade e comunicar o
saber através do ensino, de publicação ou outras normas de comunicação.

A nossa missão é oferecer qualidade em conhecimento e cultura de forma


confiável e eficiente para que o aluno tenha oportunidade de construir uma base
profissional e ética. Dessa forma, conquistando o espaço de uma das instituições
modelo no país na oferta de cursos, primando sempre pela inovação tecnológica,
excelência no atendimento e valor do serviço oferecido.

3
4

Introdução
A fotografia, RAY(1963), é um registro instantâneo dos detalhes do
terreno que se determina principalmente pela distância focal da lente da câmara,
pela altura de voo do avião no momento da exposição e pelo filme e filtros
usados. A fotografia aérea é uma perspectiva geometricamente relacionada com
o tipo de câmara usada; ela pode ser ou uma fotografia vertical, figura 1, tirada
com o eixo da câmara apontado para baixo(ponto nadir; extremidade inferior de
uma direção que coincide com a linha de gravidade) essencialmente na vertical,
ou uma fotografia oblíqua, figura 2, tirada com o eixo da câmara propositalmente
inclinado em relação à vertical do lugar(linha de gravidade). Os fatores que
afetam a imagem fotográfica podem ser divididos em dois grupos; a.
influenciados pelo ser humano tais como a distância focal da lente, altura de voo,
combinações de filmes, filtros e ângulo da lente e influenciados pela ação da
natureza, a exemplo a cor dos objetos fotografados, posição de um objeto com
respeito ao ângulo de incidência do sol, bruma atmosférica entre outros.

A escala da fotografia aérea é decorrente da relação entre a distância


focal da câmara e a altura de voo da aeronave. Entende-se ainda que quando a
distância focal aumenta a escala das fotografias torna-se maior do que outrora,
logo para qualquer altura de voo as câmaras com lentes de distância focal longas
podem produzir fotografias de escala maior do que as de distância focal curta.
Se uma fotografia for ampliada ou reduzida, a distância focal para esta fotografia
será também mudada em proporção direta com o valor da ampliação ou redução.

fig.1 – fotografia aérea vertical

RAY(1963) afirma que a qualidade da imagem fotográfica pode ser


controlada pela sensibilidade do filme usado. Quer dizer, depende da

4
5

sensibilidade da emulsão quando ela for feita de modo que todo ou somente
partes selecionadas do espectro visível sejam registradas, ou de modo que parte
do espectro invisível, como a luz infravermelha, seja registrada. Por outro lado,
é possível estabelecer uma seleção do comprimento de onda de luz refletida de
um objeto e realmente registrada.

fig.2 – fotografia aérea oblíqua

Já o ângulo da lente da câmara, figura 3, é importante em relação às


aplicações fotogramétricas na interpretação das fotografias. As lentes de
distância focal longa(maior do que 153 mm) têm ângulo de lente mais estreito do
que as de distância focal curta(menores do 153 mm). Portanto, para se manter
uma dada escala e tamanho de formato, as fotografias tomadas com uma lente
de ângulo estreito requerem voo a uma altitude mais elevada do que as tomadas
com lente de grande ângulo.

5
6

Fig.3 – relação entre a distância focal e a altura de voo

Nestas condições, o deslocamento radial de pontos-imagem similares é


menor quando se usam lentes de ângulo estreito, mas somente por causa da
maior altura requerida da lente de ângulo estreito para manter a escala dada e o
tamanho do formato. A diferença de paralaxe para um objeto de altura específica
é por sua vez, diretamente afetada por causa da diferença de altura de voo e,
decresce com o aumento da altura de voo para uma lente de distância focal
dada. Outra, a distorção da imagem nas bordas das fotografias tiradas com lente
de grande ângulo pode ser maior do que nas fotografias obtidas com lente de
ângulo estreito e prejudicial as atividades de restituição ou mesmo para aquelas
de foto-interpretação, especialmente em terreno fortemente acidentado.

Histórico
Os desenvolvimentos que conduziram ao presente estado da arte da
Fotogrametria são muito anteriores ao invento da fotografia. Aristóteles, em 350
A.C. já mencionava como projetar imagens por meio ótico. Leonardo da Vinci,
em 1492 demonstrou graficamente os princípios da aerodinâmica e da projeção
ótica. Também projetou mecanismos para o polimento de lentes.

Figura 4 (a) Dispositivo mecânico para desenhar perspectivas;

(b) Estereograma (J.Chimenti, 1600)

6
7

Um contemporâneo de Leonardo da Vinci, o alemão Albrecht Drer,


produziu um esboço das leis da perspectiva e, em 1525, construiu um aparato
mecânico para desenhar perspectivas verdadeiras (fig. 4(a)); também construiu
um mecanismo para produzir desenhos estereoscópicos.

O astrônomo alemão Johannes Kepler, por volta de 1600, formulou uma


definição precisa para estereoscopia, e o pintor florentino Jacopo Chimenti
produziu o primeiro par estereoscópico desenhado a mão (fig. 4(b)).

O conceito de estereoscopia foi usado pela primeira vez em um


levantamento prático, para construção de cartas topográficas, pelo suiço F.
Kapeller, em 1726. Ainda no século XVII o Dr. Brook Taylor publicou trabalhos
sobre perspectiva linear. Em 1759 J. H. Lambert escreveu um tratado clássico
sobre a perspectiva, sugerindo a sua utilização na construção de mapas; nestes
trabalhos Lambert já tratava os problemas da perspectiva central inversa e da
ressecção espacial, que são os fundamentos da fotogrametria praticada até os
dias atuais. Evidentemente, a prática fotogramétrica só pôde se desenvolver
após a invenção da fotografia. Louis Daguerre, em 1839, anunciou o invento do
processo fotográfico baseado em placas de metal com uma camada de iodeto
de prata, sensibilizado pela luz. Um ano depois, o geodesista francês Arago
demonstrou a viabilidade do uso de fotografias nos levantamentos topográficos.

Recentemente, foram reconhecidos também os experimentos do químico


brasileiro de origem francesa, Hercule Florence, que, na mesma época, em
Campinas, S.P., inventou um processo heliográfico semelhante ao de Daguerre.
Os primeiros experimentos para verificar o uso da fotogrametria em mapeamento
topográfico foram conduzidos pelo coronel francês Aimé Laussedat, em 1849,
que obteve fotografias a bordo de balões. Percebendo as dificuldades então
existentes para a obtenção de fotos aéreas, Laussedat concentrou seus esforços
no mapeamento usando fotogrametria terrestre. Em reconhecimento ao seu
pioneirismo, Laussedat recebeu o título de "Pai da Fotogrametria".

Apesar dos problemas as fotos obtidas a partir de balões continuaram a


ser usadas, especialmente com fins militares. Em 1909 o alemão Carl Pulfrich

7
8

iniciou experimentos com estereo pares, estabelecendo os fundam entos de


muitos dos procedimentos instrumentais até hoje utilizados.

A invenção do avião permitiu um grande avanço na fotogrametria, que era,


até então, praticamente limitada à fotogrametria terrestre. Em 1913, o avião foi
utilizado pela primeira vez para a tomada de fotografias aéreas com o objetivo
de mapeamento. Durante a Primeira Guerra as aerofotos foram intensamente
utilizadas, especialmente em atividades de reconhecimento. No período entre as
duas Guerras Mundiais, a Aerofotogrametria tornou-se uma tecnologia
largamente utilizada para a produção de mapas. Neste período desenvolveram-
se equipamentos de restituição utilizados até recentemente; é o caso do
Multiplex e do Estereoplanígrafo. Deste período datam alguns métodos usados
até hoje, como as técnicas de orientação empírica e a aerotriangulação
analógica. O processo de produção passou a ser desenvolvido por grandes
companhias privadas na Europa e América.

Durante a Segunda Guerra as técnicas fotogramétricas foram utilizadas


como nunca para atender às necessidades de mapas. A fotointerpretação foi
utilizada em grande escala para fins de reconhecimento e inteligência. O advento
do computador permitiu progressos ainda maiores na ciência fotogramétrica.
Inicialmente (década de 50) foi utilizado para cálculos de blocos de
aerotriangulação. Em 1958, Helava apresentou o primeiro protótipo do restituidor
analítico, que viria a revolucionar a Fotogrametria. Apesar do pioneirismo, o
equipamento desenvolvido por Helava não foi aceito pela comunidade
fotogramétrica, devido ao estágio ainda embrionário da informática e das
sucessivas panes dos equipamentos.

Somente em 1976, no Congresso de Hamburgo, as grandes companhias


produtoras de equipamentos fotogramétricos apresentaram seus modelos de
restituidores analíticos. Era o fim da era dos equipamentos analógicos, que,
entretanto, continuam a ser utilizados até hoje (e continuarão em operação por
algum tempo). Estes equipamentos análogicos passaram a receber dispositivos
de digitalização de coordenadas, sendo conectados a computadores; iniciou-se
a chamada "Fotogrametria Assistida por Computador".

8
9

Atualmente estamos assistindo à substituição da Fotogrametria analógica


e analítica pela Fotogrametria Digital. Estações de trabalho fazem o trabalho dos
restituidores, com a vantagem de realizar várias tarefas de modo automático,
como a coleta de Modelos Digitais do Terreno (DTMs) e a produção de
ortoimagens. Entretanto, uma automação completa no processo de restituição,
com extração e identificação automática de feições ainda deve aguardar
avanços significativos da ciência fotogramétrica e da área de inteligência
artificial.

Conceitos Básicos
Pode-se definir fotogrametria como “a ciência e a arte de se obterem
medidas dignas de confiança por meio de fotografias” (MARCHETTI; GARCIA,
1989, p. 13). Já Loch e Lapolli (1989, p. 5) ampliam esse conceito e definem
fotogrametria como sendo “a ciência e a tecnologia de obter informações seguras
acerca de objetos físicos e do meio, através de processos de registro, medição
e interpretação das imagens fotográficas”. Para Fagundes e Tavares (1991),
fotogrametria é a ciência aplicada que se propõe a registrar, por meio de
fotografias métricas, imagens e objetos que poderão ser medidos e
interpretados. A American Society of Photogrametry (WOLF, 1983) define
fotogrametria como a arte, ciência e tecnologia de obter informações de
confiança sobre objetos físicos e meio ambiente, através de processos de
registros, medição e interpretação de imagens fotográficas e padrões de
registros de energia eletromagnética irradiada e outros fenômenos.

A fotogrametria, ASP(1966), é a arte, ciência e tecnologia de obter


informações de confiança sobre objetos e do meio ambiente com o uso de
processos de registro, medições e interpretações das imagens fotográficas e
padrões de energia eletromagnética registrados. A fotogrametria pode ser usada
nos estudos e nas explorações do espaço. Vestígios de furacões e outros
distúrbios da natureza que se movem pela Terra podem ser observados e
estudados. O intervalo de tempo de exposições feitas na câmara fotográfica
transportada pelo avião é ajustado de tal maneira que cada ponto da superfície
da Terra é fotografado mais de uma vez de diferentes posições.

9
10

As fotografias decorrentes de um voo podem ser colocadas em projetores


cujas posições e altitudes podem ser ajustadas de maneira a restabelecer a
posição e altitude da câmara no momento da exposição. A posição e interseção
de cada ponto no modelo são então restabelecidos pela interseção de dois
raios(homólogos) de luz.

Por outro lado, MARCHETTI & GARCIA(1989) assinalam que as


condições de obter e preservar os negativos são raramente ideais e a
transferência de informações contidas nos negativos originais para os mapas
compilados raramente pode ser feita com completa exatidão, logo, é possível
admitir que há dificuldades que os fotogrametristas encontram para obterem
medidas precisas e cópias seguras isentas de deformações.

Fotogrametria interpretativa
A fotogrametria interpretativa objetiva principalmente o reconhecimento e
identificação de objetos e o julgamento do seu significado, a partir de uma análise
sistemática e cuidadosa de fotografias. A interpretação de fotos é o ato de
examinar as imagens fotográficas com o propósito de identificar os objetos e
determinar sua significância. A esta definição deve-se adicionar o conceito de
identificar o ambiente, porque muitos fatores críticos exigem que o processo seja
mais do que simplesmente identificar objetos individualmente. De um modo
geral, há vários estágios consecutivos durante a interpretação de fotos. As
imagens ou condições específicas, segundo CARVER(1982) devem ser
detectadas preliminarmente, identificadas e finalmente julgadas para então , ser
avaliada sua significância.

Métodos de fotointerpretação
Podem ser usadas várias técnicas de exames de fotos para se conseguir
a informação desejada. Estas técnicas podem variar de simples às mais
complexas, tais como a:

• Foto-leitura,
• Foto-análise e
• Foto-dedução

10
11

Todos estes métodos são conhecidos como fotointerpretação muito


embora sejam técnicas independentes, aplicadas em graus crescentes de
complexidade. Foto-leitura, esta técnica é antes de tudo, o reconhecimento
direto de objetos feitos pelo homem e de características comuns do terreno. Ela
refere-se à visão vertical de, por exemplo: construções, trabalhos de engenharia,
campos cultivados, riachos, florestas e formações do terreno. Normalmente este
processo não precisa do estereoscópio e é a técnica de interpretação mais
simples. Foto-análise, é a técnica de examinar o objeto através da separação e
distinção de suas partes componentes. A aplicação deste processo para várias
características da fotografia representa a fotoanálise. Em termos de classificação
da terra, o objetivo principal é o de identificar estereoscopicamente as várias
unidades do terreno e delinear todas as áreas homogêneas que indicam
diferenças nas condições do solo. Cada área homogênea é metodicamente
analisada e comparada às outras. Áreas similares recebem símbolos iguais.

Foto-dedução é a mais adiantada e complexa das técnicas interpretativas.


Ela inclui todas as características da foto-leitura e ainda uma avaliação da
estrutura geomorfológica da área, os processos responsáveis por sua formação
e o estágio de seu desenvolvimento. Ela inclui também, um exame detalhado de
todos os outros elementos da foto aérea e uma cuidadosa avaliação dos
mesmos. O estudo da imagem ou modelo estereoscópico pode levar a deduções
relativas a elementos ocultos. Porém, o único método eficiente em relação ao
uso do material fotográfico aéreo para fins de classificação do solo e uso da terra,
seria uma combinação de análises de fotos aéreas e um sistema planejado de
verificação no campo. O maior número de aspectos da expressão exterior
usados em interpretação é identificado à base de elementos de reconhecimento
– características das fotografias que se originam da escala selecionada, cor da
rocha, vegetação e solos do terreno fotografado; a qualidade do filme e filtros
usados; o processo de revelação do filme, e fatores relacionados. Os mais
significativos elementos de reconhecimento são: a tonalidade fotográfica relativa,
cor, textura, padrão e a associação de aspectos. A aparência é importante para
identificar muitas formas fisiográficas construcionais.

11
12

Fatores básicos de interpretação – elementos de


reconhecimento
a. a forma, aliada ao reconhecimento de configurações e margens em
geral, é o fator mais importante, segundo CARVER(1982), na
identificação visual de objetos numa fotografia aérea vertical.

FIG.5- Forma e tamanho de objetos na foto aérea

b. o tamanho, objetos, figura 5, com forma idêntica e visão plana podem


ser distinguidos pelo tamanho relativo. Assim, é possível distinguir
uma vossoroca de um sulco de erosão;

FIG. 6- Padrão de drenagem


c. o padrão, refere-se à combinação, figura 6, de detalhes ou à forma que
são características de muitos grupos de objetos, tanto natural como
construído pelo homem. Quer dizer, é o arranjo espacial ordenado de
aspectos geológicos, topográficos ou de vegetação, quando os
elementos de reconhecimento do padrão se tornam muito pequenos,
passam a constituir uma textura fotográfica. São elementos que
auxiliam o intérprete no reconhecimento de feições existentes nas
fotografias. A rede de drenagem é um dos elementos mais importantes
do padrão, e vem a ser o modelamento da superfície do terreno sob a
ação das águas. Outros fatores, afirma MARCHETTI &

12
13

GARCIA(1989), que influenciam a drenagem são: relevo, manto


vegetal, textura do solo, forma e estrutura das rochas
d. a textura, é a frequência de mudança da tonalidade dentro de uma
imagem. Esta tonalidade é produzida por um agregado de
componentes muito pequenos que não podem ser distintos
individualmente na fotografia.
e. . a tonalidade é uma medida da quantidade relativa de luz refletida por
um objeto e realmente registrada numa fotografia em preto e branco.
Os tons em fotografias correntes são usualmente gradações do
cinzento, dependem não só do relevo e teor de umidade do material
superficial, como também de fatores fotográficos, como combinação
do filme e filtro, exposição e processamento fotográfico, dependendo
ainda de fatores meteorológicos como névoa, ângulo de incidência do
sol e sombras.

MARCHETTI & GARCIA(1989) afirmam ser imprescindíveis para as


atividades de fotointerpretação de qualquer região o estudo da localização e
condições de estradas, rios, represas, pontes, pântanos e outros aspectos
importantes. Outra, as informações devem conter esclarecimentos sobre a
configuração do solo e seu conjunto, orientação geral das serras, forma, altitude
e declive das elevações, natureza do solo, vegetação e hidrografia sem esquecer
a análise combinada destes fatores. Em síntese, a arte de interpretação de fotos
aéreas é internacionalmente reconhecida como uma ciência. Pode ser usada
para determinar a significância do meio-ambiente para uso da terra, para fins
agrícolas e para outros incontáveis levantamentos e projetos.

Fotogrametria métrica
A fotogrametria, figura 7, métrica consiste na feitura de medições de fotos
e outras fontes de informação para determinar, de um modo geral, o
posicionamento relativo de pontos. É possível determinar, em razão de técnicas
e processos correntes da fotogrametria métrica: a.distâncias, ângulos, áreas,
volumes, elevações e, tamanhos e formas de objetos; b.cartas planimétricas e
altimétricas, mosaicos, ortofotos e demais subprodutos das fotografias tomadas.

13
14

Fig. 7 – fotos consecutivas de um levantamento aerofotogramétrico

Estereoscopia
É a propriedade que estuda os métodos e técnicas que permitem a visão
em perspectiva, quer dizer, a percepção de objetos com todas as modificações
aparentes, ou com os diversos aspectos que a sua posição e situação
determinam com relação à figura e à luz. Segundo WOLF(1983), diariamente há
atividades que mede-se inconscientemente a profundidade ou julga-se
distâncias relativas de um vasto número de objetos em relação a outros. Os
métodos de julgamento de profundidade podem ser classificados como
estereoscópico ou monoscópico. As pessoas com visão normal, i.é, capazes de
ver com ambos os olhos simultaneamente, são ditas com visão binocular, e a
percepção de profundidade desta forma é denominada de visão estereoscópica.
Já a visão monocular é o termo aplicado para a observação com apenas um dos
olhos e, o método de julgamento de distância é denominado monoscópico. A
distância entre objetos ou profundidade pode ser obtida monoscopicamente à
consideração do:

• o tamanho relativo de objetos;


• os objetos ocultos;
• o sombreamento e
• a diferença de focalização do cristalino para observar elementos
diferentemente afastados.

Ainda, o autor afirma que os métodos estereoscópicos são mais


vantajosos do que os monoscópicos para a percepção da profundidade e,
segundo ele, de fundamental importância para a fotogrametria.

14
15

Áreas de Aplicação
Vamos agora apresentar alguns exemplos de aplicações importantes da
fotogrametria, lembrando que o resultado desses estudos se apresenta sempre
em forma de mapas.

• Estudos de caracterização dos solos (pedologia);


• Estudos florestais;
• Estudos de caracterização de rochas e estruturas geológicas
(geologia);
• Estudos relativos ao do clima (climatologia);
• Estudos de parâmetros do relevo que sejam importantes na
caracterização da dinâmica da paisagem, como magnitude da rede
de drenagem, comprimento total dos canais de escoamento,
densidade da drenagem, altimetria, declividade, comprimento de
vertente, formas do relevo e unidades de relevo;
• Elaboração de mapas topográficos planialtimétricos, mapas
temáticos, mapas de índices de fotografias (fotoíndices) e
mosaicos;
• Caracterização de áreas para fins de tributação e cadastramento
urbano ou rural;
• Projetos ambientais, rodoviários, ferroviários, de obras (por
exemplo: pontes, canais, barragens, oleodutos, linhas de
transmissão etc.), de planejamento e desenvolvimento rural e
urbano, de melhoramento de rios e portos, de controle à erosão e
às cheias.

A fotogrametria divide-se em dois ramos: o primeiro deles é a


fotogrametria métrica, que executa medidas precisas e computações para
estabelecer a forma e o tamanho dos objetos que aparecem na fotografia. O
segundo é a fotogrametria interpretativa, responsável pelo reconhecimento e a
identificação dos objetos presentes na fotografia.

15
16

Classificações da Fotogrametria
• Fotogrametria terrestre: as fotografias utilizadas são obtidas a partir
de estações fixas sobre a superfície do terreno; o eixo ótico da
câmara é na horizontal.
• Fotogrametria aérea: as fotografias utilizadas são obtidas através
de estações móveis no espaço (avião, ultraleve ou balão), com o
eixo ótico da câmara na posição vertical ou inclinado.
• Fotogrametria espacial: as imagens utilizadas são obtidas por
estações móveis externas à atmosfera terrestre; utiliza-se,
também, fotografias feitas com câmaras balísticas (câmaras fixas
na superfície da Terra e/ou da Lua).

Quanto ao tipo de tratamento dado às fotografias aéreas


• Numérica: quando todo o processo de transformação da imagem
fotográfica em mapa é realizado matematicamente pelo
computador.
• Digital: nesse caso, além do processo de restituição fotogramétrica
ser realizado pelo computador, a fotografia e o mapa gerado
podem ser armazenados em meio magnético na forma de imagem.

São os equipamentos utilizados para a obtenção das fotografias, como


mostram as Figuras 8 e 9. O seu funcionamento se assemelha ao
comportamento do olho humano, e da mesma forma, apenas registram em seus
produtos a faixa visível do espectro eletromagnético. Em outras palavras, os
objetos que aparecem nas fotografias aéreas são exatamente os mesmos
visíveis pelo olho humano. As câmaras fotográficas podem ser terrestres ou
aéreas, dependendo de onde estejam montadas – se no solo ou sobre uma
plataforma móvel, respectivamente.

16
17

Fig 8 e 9: Equipamentos utilizados para a obtenção das fotografias

O quadro a seguir mostra as diferenças entre esses dois tipos de câmaras

Quadro 1 – Quadro comparativo entre os tipos de câmaras


fotogramétricas

Câmaras terrestres: as câmaras terrestres podem ser de dois tipos:

• Métrica: determinam a forma e a posição do objeto com precisão;

17
18

• Não-métrica: produzem fotografias de qualidade; no entanto, não


se preocupam com a precisão geométrica dos objetos
fotografados.
• Câmaras aéreas: as câmaras aéreas possuem algumas
classificações, listadas a seguir.

QUANTO AO ÂNGULO DE CAMPO


O ângulo de campo é o ângulo de abrangência da câmara.

Figura 10 – Ângulo de campo

Os ângulos de campo representados pela letra α podem ser: α < 50º (pequeno
angular); 50º ≤ α < 75º (normal); 75º ≤ α < 100º (grande-angular); α ≥ 100º (super-
grande-angular). As principais características estão listadas no quadro a seguir.

18
19

Quadro 2 – Tipos de câmaras aéreas segundo o ângulo de campo

QUANTO À DISTÂNCIA FOCAL (F)


Segundo esse critério, as câmaras fotográficas aéreas são classificadas
em Pequena, Normal e Grande, como mostra o Quadro 3 a seguir.

Quadro 3 – Tipos de câmaras aéreas segundo a distância focal

QUANTO AO FORMATO
1. Câmara com formato: Existência das marcas fiduciais (laterais ou nos
cantos da fotografia). As marcas fiduciais podem ter: 1818cm, 1218cm e
2323cm, ou ainda 2346cm (formato especial).

2. Câmara sem formato

Tipos:

19
20

• De faixa contínua: a passagem da luz é contínua e é feita através


de uma fenda. O avanço do filme é sincronizado com a velocidade
da imagem.
• Panorâmica: utiliza sistemas de varredura lateral perpendicular à
linha de voo, além de sistemas óticos giratórios de varreduras.

QUANTO AO USO E FINALIDADE


• Câmara aérea cartográfica ou métrica;
• Câmara aérea de reconhecimento;
• Câmara aérea especial.

PRINCIPAIS COMPONENTES DAS CÂMARAS AÉREAS


As câmaras aéreas são compostas pelos elementos descritos a seguir.
Magazine: compartimento fechado que acomoda os rolos de filme, assim como
os dispositivos de planificação e avanço.

• Corpo: engloba um mecanismo que fornece e controla a energia


destinada a operar a câmara. Esse mecanismo obedece a um ciclo
que envolve o final de uma exposição e o início de outra.
• Cone: suporta o sistema de lentes (objetiva) e o cone interno.
• Lentes: estabelecem a convergência dos raios luminosos
procedentes de um objeto na superfície da Terra, projetando-os
sobre o plano focal.
• Obturador: controla o tempo de exposição da imagem. Esse tempo
varia em relação à altura do vôo, à velocidade do avião e à
iluminação da imagem.
• Diafragma: controla a quantidade de luz que atinge o filme durante
o tempo de exposição.
• Filtros: permitem reduzir efeitos da névoa atmosférica, fazem a
distribuição homogênea da luz, protegem a lente das partículas em
suspensão durante a decolagem e o pouso do avião e permitem a
absorção de cores para evidenciar contrastes entre os objetos
fotografados.

20
21

Fotogrametria digital
A fotogrametria digital, HEIPKE(1995), é uma tecnologia de informação
usada para gerar informações geométricas, radiométricas e de semântica sobre
objetos no universo 3D(tridimensional) obtidas de imagens digitais 2D(planas)
destes objetos. Nas últimas cinco décadas verificou-se que, a fotogrametria teve
um crescimento surpreendente, seja como arte, seja como ciência, e se
consolidou como instrumento fundamental para a edição de cartas em todo o
mundo. A evolução nos instrumentos fotogramétricos para o processo de
restituição, não foi diferente. Observou-se durante este intervalo de tempo, o
crescimento e o declínio dos instrumentos estereorestituidores óticos-
mecânicos, a expansão da triangulação analítica, os ajustes de bloco e a
ascensão dos estereorestituidores analíticos.

HELAVA(1992) afirma que, o domínio da tecnologia do computador, as


imagens rasterizadas/vetorizadas(obtidas a partir de scanners) e a fotogrametria
analítica compreendem as três vertentes de sustentação da fotogrametria digital.
Segundo o autor, ocorrem alianças estratégicas da fotogrametria digital com
outros segmentos, tais como o Sistema de Informações Geográficas(SIG) e com
o Sensoriamento Remoto. Uma vez que, a fotogrametria digital pode fornecer a
acurácia e a integridade métrica necessários para a edificação de suas
estruturas. Para HELAVA(1992), os elementos fundamentais para a
fotogrametria digital são: a)a acurácia; b)a estabilidade e c)a repetitividade do
processo digital, que abrigam a precisão e a continuidade nas relações
matemáticas entre o pixel(na imagem digital) e os correspondentes pontos no
terreno que podem gerar um produto especial, único para a fotogrametria digital.
Pretende-se abordar alguns aspectos gerais, a precisão e limitações de
operação dos sistemas DVP, DSS, DPS e DSI voltados para a fotogrametria
digital que operam em plataformas PC(personal computer).

21
22

O SISTEMA DVP(DIGITAL VIDEO PLOTTER) –


GENERALIDADES
A lógica do DVP, estação de trabalho fotogramétrica digital(em inglês,
softcopy workstation) com limitado desempenho e funcionalidade mas de custo
reduzido, foi concebida e desenvolvida por uma equipe de pesquisadores do
Laboratoire de Photogrammetrie Numérique da Universidade de Laval, em
Quebec, Canadá. O software foi idealizado originalmente como recurso didático
para o ensino de fotogrametria e sensoriamento remoto, para os alunos do
Départment des Sciences Geodesiques et de Télédétection da Universidade de
Laval. O estereorestituidor digital DVP(em inglês, Digital Video Plotter) é um
software que

a)por meio de rasterização(imagens geradas pela varredura de scanners)


de fotografias(aéreas ou terrestres) ou,

b)quando extraídas de imagens digitais geradas pelo satélite SPOT.

FIG 11: Visualização de imagens digitais

A visualização das imagens, figura 11, digitais pode ser alcançada por
intermédio de um sistema ótico similar aos estereoscópios de espelhos ou
alternativas mais sofisticadas tais como os óculos de cristal líquido (liquid crystal
shutter glasses). O uso do software aliado ao sistema estereoscópico, permite
ao usuário proceder as extrações planimétricas e altimétricas da imagem, bem
como na determinação, em tempo real(informa ao operador a qualquer instante
as coordenadas do cursor), das medidas das coordenadas X, Y e Z das imagens
planas à esquerda e à direita no vídeo. A imagem estereoscópica torna possível
o uso combinado de técnicas de visualização e mensuração. Segundo GAGNON
e alii(1993), a versatilidade e a flexibilidade do aplicativo possibilita ao usuário
desprovido de conhecimentos específicos de fotogrametria, atuar nas operações
de edição e atualização de cartas com o uso da superposição ótica de imagens

22
23

ou mesmo , dos recursos das funções gráficas, próprias do aplicativo. Os autores


sugerem ainda que, o operador possa integrar ao DVP, os módulos do
COGO(aplicativo para entrada de dados e projetos gerais de engenharia)
permitindo a otimização e a rapidez nas diferentes atividades para cadastro ou
para análises da superfície do terreno em 3D.

A integração de arquivos digitais gerados pelo DVP aos SIGs, podem


traduzir informações espaciais sobre a qual atuam uma série de operadores
espacias(operações algébricas usadas pelos SIGs no cruzamento de dados) e
permitem as operações de análise. Isso posto, as informações obtidas compõe
uma base de dados espaciais de modo que permitem:

a) o controle de redes como água e esgotos, comunicação, energia,


tráfego, gás;

b) o gerenciamento de culturas de cereais e controle de pragas;

c) o planejamento regional e

d) as observações de catástrofes, inundações, terremotos etc.

PROCESSAMENTO DIGITAL DE IMAGENS

Processamento de Imagens: breve histórico e


exemplos de aplicações
A área de processamento de imagens vem sendo objeto de crescente
interesse por permitir viabilizar grande número de aplicações em duas categorias
bem distintas: (1) o aprimoramento de informações pictóricas para interpretação
humana; e (2) a análise automática por computador de informações extraídas de
uma cena. Ao longo deste livro, reservaremos a expressão 'processamento de
imagens' para designar a primeira categoria, adotando os termos 'análise de
imagens', 'visão por computador' (ou 'visão computacional') e 'reconhecimento
de padrões' para a segunda. Uma das primeiras aplicações na primeira categoria
remonta ao começo deste século, onde buscavam-se formas de aprimorar a

23
24

qualidade de impressão de imagens digitalizadas transmitidas através do


sistema Bartlane de transmissão de imagens por cabo submarino entre Londres
e Nova Iorque. Os primeiros sistemas Bartlane, no início da década de 20,
codificavam uma imagem em cinco níveis de intensidade distintos. Esta
capacidade seria expandida, já em 1929, para 15 níveis, ao mesmo tempo em
que era desenvolvido um método aprimorado de revelação de filmes através de
feixes de luz modulados por uma fita que continha informações codificadas sobre
a imagem.

Mas o grande impulso para a área de Processamento de Imagens viria


cerca de três décadas mais tarde, com o advento dos primeiros computadores
digitais de grande porte e o início do programa espacial norte-americano. O uso
de técnicas computacionais de aprimoramento de imagens teve início no Jet
Propulsion Laboratory (Pasadena, California - EUA)1 em 1964, quando imagens
da lua transmitidas por uma sonda Ranger2 eram processadas por computador
para corrigir vários tipos de distorção inerentes à câmera de TV acoplada à
sonda. Estas técnicas serviram de base para métodos aprimorados de realce e
restauração de imagens de outros programas espaciais posteriores, como as
expedições tripuladas da série Apollo, por exemplo.

De 1964 aos dias atuais, a área de processamento de imagens vem


apresentando crescimento expressivo e suas aplicações permeiam quase todos
os ramos da atividade humana. Em Medicina, o uso de imagens no diagnóstico
médico tornou-se rotineiro e os avanços em processamento de imagens vêm
permitindo tanto o desenvolvimento de novos equipamentos quanto a maior
facilidade de interpretação de imagens produzidas por equipamentos mais
antigos, como por exemplo o de raio X. Em Biologia, a capacidade de processar
automaticamente imagens obtidas de microscópios, por exemplo contando o
número de células de um certo tipo presentes em uma imagem, facilita
sobremaneira a execução de tarefas laboratoriais com alto grau de precisão e
repetibilidade. O processamento e a interpretação automática de imagens
captadas por satélites auxiliam os trabalhos nas áreas de Geografia,
Sensoriamento Remoto, Geoprocessamento e Meteorologia, dentre outras.
Técnicas de restauração de imagens auxiliam arqueologistas a recuperar fotos

24
25

borradas de artefatos raros, já destruídos. O uso de robôs dotados de visão


artificial em tarefas tais como controle de qualidade em linhas de produção
aumenta a cada ano, num cenário de crescente automação industrial. Inúmeras
outras áreas tão distintas como Astronomia, Segurança, Publicidade e Direito /
para citar apenas algumas / vêm sendo beneficiadas com os avanços nas áreas
de processamento de imagens e visão por computador.

Entendendo o Processamento Digital de Imagens


O Processamento Digital de Imagens (PDI) não é uma tarefa simples, na
realidade envolve um conjunto de tarefas interconectadas (vide Fig. 12). Tudo
se inicia com a captura de uma imagem, a qual, normalmente, corresponde à
iluminação que é refletida na superfície dos objetos, realizada através e um
sistema de aquisição. Após a captura por um processo de digitalização, uma
imagem precisa ser representada de forma apropriada para tratamento
computacional. Imagens podem ser representadas em duas ou mais dimensões.
O primeiro passo efetivo de processamento é comumente conhecido como pré-
processamento, o qual envolve passos como a filtragem de ruídos introduzidos
pelos sensores e a correção de distorções geométricas causadas pelo sensor.

25
26

Fig. 12 - Uma hierarquia de tarefas de processamento de imagens.

Uma cadeia maior de processos é necessária para a análise e


identificação de objetos. Primeiramente, características ou atributos das imagens
precisam ser extraídos, tais como as bordas, texturas e vizinhanças. Outra
característica importante é o movimento. Em seguida, objetos precisam ser
separados do plano de fundo (background), o que significa que é necessário
identificar, através de um processo de segmentação, características constantes
e descontinuidades. Esta tarefa pode ser simples, se os objetos são facilmente
destacados da imagem de fundo, mas normalmente este não é o caso, sendo
necessárias técnicas mais sofisticadas como regularização e modelagem. Essas
técnicas usam várias estratégias de otimização para minimizar o desvio entre os
dados de imagem e um modelo que incorpora conhecimento sobre os objetos da
imagem. Essa mesma abordagem matemática pode ser utilizada para outras
tarefas que envolvem restauração e reconstrução. A partir da forma geométrica
dos objetos, resultante da segmentação, pode-se utilizar operadores
morfológicos para analisar e modificar essa forma bem como extrair informações

26
27

adicionais do objeto, as quais podem ser úteis na sua classificação. A


classificação é considerada como uma das tarefas de mais alto nível e tem como
objetivo reconhecer, verificar ou inferir a identidade dos objetos a partir das
características e representações obtidas pelas etapas anteriores do
processamento. Como último comentário, deve-se observar que, para problemas
mais difíceis, são necessários mecanismos de retro-alimentação (feedback)
entre as tarefas de modo a ajustar parâmetros como aquisição, iluminação, ponto
de observação, para que a classificação se torne possível. Esse tipo de
abordagem também é conhecido como visão ativa. Em um cenário de agentes
inteligentes, fala-se de ciclos de ação-percepção.

Relação entre Processamento de Imagens e


Computação Gráfica
Em geral, autores de livros em Computação Gráfica (CG) e
Processamento de Imagens (PDI) vêm tratando as duas áreas como distintas. O
conhecimento em ambas as áreas tem crescido consideravelmente, o que tem
permitido a resolução de problemas cada vez mais complexos. Numa visão
simplificada, CG busca imagens fotos-realísticas de cenas tridimensionais
geradas por computador, enquanto PDI tenta reconstruir uma cena
tridimensional a partir de uma imagem real, obtida através de uma câmera. Neste
sentido, PDI busca um procedimento inverso ao de CG, análise ao invés de
síntese, mas ambas as áreas atuam sobre o mesmo conhecimento, o qual inclui,
dentre outros aspectos, a interação entre iluminação e objetos e projeções de
uma cena tri-dimensional em um plano de imagem. O cenário envolvendo todas
as disciplinas que tenham algum ingrediente de processamento da informação
visual, dentre as quais a CG e o PDI ocupam posição de destaque, é definido
por alguns autores como Computação Visual.

Natureza Interdisciplinar do Processamento de Imagens


A área de Processamento de Imagens incorpora fundamentos de várias
ciências, como Física, Computação, Matemática. Conceitos como Óptica, Física
do Estado Sólido, Projeto de Circuitos, Teoria dos Grafos, Álgebra, Estatística,
dentre outros, são comumente requeridos no projeto de um sistema de

27
28

processamento de imagens. Existe também uma intersecção forte entre PDI e


outras disciplinas como Redes Neurais, Inteligência Artificial, Percepção Visual,
Ciência Cognitiva. Há igualmente um número de disciplinas as quais, por razões
históricas, se desenvolveram de forma parcialmente independente do PDI, como
Fotogrametria, Sensoriamento Remoto usando imagens aéreas e de satélite,
Astronomia e Imageamento Médico.

Organização do Tutorial
O tutorial está estruturado em duas partes: a primeira parte (principal) trata
dos fundamentos de PDI e a segunda (complementar) apresenta exemplos de
aplicações. As próximas duas seções contemplam a parte de fundamentos,
incluindo o processo de formação da imagem e uma seleção de operações
típicas sobre imagens. A Seção 4 apresenta alguns exemplos de aplicações.
Finalmente, na Seção 5 estão as considerações finais.

Conceitos Fundamentais
Natureza da luz
Sendo radiação eletromagnética, a luz apresenta um comportamento
ondulatório caracterizado por sua frequência (f) e comprimento de onda (λ). A
faixa do espectro eletromagnético à qual o sistema visual humano é sensível se
estende aproximadamente de 400 a 770 nm e denomina-se luz visível. Radiação
eletromagnética com comprimentos de onda fora desta faixa não é percebida
pelo olho humano. Dentro dessa faixa, o olho percebe comprimentos de onda
diferentes como cores distintas, sendo que fontes de radiação com um único
comprimento de onda denominam-se monocromáticas e a cor da radiação
denomina-se cor espectral pura. O espectro eletromagnético é a distribuição da
intensidade da radiação eletromagnética com relação ao seu comprimento de
onda e/ ou frequência. Na Fig. 13, apresenta-se uma síntese do espectro
eletromagnético, destacando-se a faixa de luz visível.

28
29

Fig. 13 - Espectro eletromagnético.

Estrutura do Olho Humano


De conformação aproximadamente esférica, o olho humano possui um
diâmetro médio aproximado variando de 2 a 2,5 cm. A radiação luminosa advinda
de objetos do mundo real penetra no olho a partir de uma abertura frontal na íris,
denominada pupila, e de uma lente denominada cristalino, atingindo então a
retina, que constitui a camada interna posterior do globo ocular (vide Fig. 14).

Fig. 14 - Olho humano: (A) visão geral; e (B) detalhamento dos componentes.

A focalização apropriada da cena implica a formação nítida de sua imagem


invertida sobre a retina. A retina contém dois tipos de fotossensores, os cones

29
30

(sensíveis a cores e com alta resolução, operantes apenas em cenas


suficientemente iluminadas) e os bastonetes, (insensíveis a cores, com baixa
resolução, operantes em condições de baixa luminosidade), encarregados do
processo de conversão da energia luminosa em impulsos elétricos que serão
transmitidos ao cérebro, para posterior interpretação. A visualização de um
objeto consiste do posicionamento do olho pela estrutura muscular que o
controla, implicando a projeção da imagem do objeto sobre a fóvea. Em
essência, toda câmara fotográfica é uma câmara escura, projetada para
apreender a energia luminosa proveniente de uma cena, produzindo uma
imagem adequada para propósitos os mais diversificados. Trata-se de uma
extensão do olho humano, o qual compõe imagens a partir de excitação luminosa
e as transmite ao cérebro sob a forma de impulsos bioelétricos. A pálpebra do
olho tem uma função análoga àquela do obturador da câmara. O diafragma (ou
íris) de uma câmera funciona analogamente à íris do olho humano, controlando
a quantidade de luz que atravessa a lente. A lente da câmera é análoga ao
conjunto formado pelo cristalino do olho, a córnea e, em menor grau, o humor
aquoso e o humor vítreo. Ambos têm o propósito de focalizar a luz, de modo a
tornar nítidas as imagens que se formarão invertidas no plano focal. A diferença
é que o cristalino se deforma para focalizar a imagem, enquanto a lente é dotada
de um mecanismo manual ou automático para o ajuste da distância focal, à
exceção das lentes das câmaras de foco fixo, projetadas para dar foco a partir
de uma distância mínima (usualmente a partir de 1,5m). A coróide funciona como
a câmara escura de uma câmara fotográfica. A retina corresponde ao sensor da
câmara fotográfica (componente digital ou filme). A Fig. 15 ilustra essa analogia.

30
31

Fig. 15– Analogia olho humano-câmara digital.

Modelos Cromáticos
Objetos que emitem luz visível são percebidos em função da soma das
cores espectrais emitidas. Tal processo de formação é denominado aditivo. O
processo aditivo pode ser interpretado como uma combinação variável em
proporção de componentes monocromáticas nas faixas espectrais associadas
às sensações de cor verde, vermelho e azul, as quais são responsáveis pela
formação de todas as demais sensações de cores registradas pelo olho humano.
Assim, as cores verde, vermelho e azul são ditas cores primárias. Este processo
de geração suscitou a concepção de um modelo cromático denominado RGB
(Red, Green, e Blue), para o qual a Comissão Internacional de Iluminação (CIE)
estabeleceu as faixas de comprimento de onda das cores primárias. A
combinação dessas cores, duas a duas e em igual intensidade, produz as cores
secundárias, Ciano, Magenta e Amarelo (ver Fig. 16).

31
32

Fig. 16 - Modelo cromático RGB.

A cor oposta a uma determinada cor secundária é a cor primária que não
entra em sua composição. Assim, o verde é oposto ao magenta, o vermelho ao
ciano e o azul ao amarelo. A cor branca é gerada pela combinação balanceada
de vermelho, verde e azul, assim como pela combinação de qualquer cor
secundária com sua oposta. Objetos que não emitem radiação eletromagnética
visível própria são, em contraposição, percebidos em função dos pigmentos que
os compõem. Assim sendo, objetos diferentemente pigmentados absorvem (ou
subtraem) da radiação eletromagnética incidente uma faixa do espectro visível,
refletindo o restante. O processo de composição cromática pode ser interpretado
como a absorção ou reflexão, em proporções variáveis, das componentes verde,
vermelho e azul da radiação eletromagnética visível incidente. Tome-se como
exemplo um objeto amarelo. As componentes vermelha e verde da luz branca
incidente são refletidas, enquanto a componente azul é subtraída por absorção
pelo objeto. Assim, a cor amarela pode ser encarada como o resultado da
subtração do azul da cor branca. As cores primárias no modelo CMY são
definidas em função da absorção de uma cor primária da luz branca incidente e
da reflexão das demais componentes, ou seja, as cores primárias são as
secundárias do modelo RGB - Ciano, Magenta e Amarelo (Fig. 17).

32
33

Fig. 17 - Modelo cromático CMY.

A formação de imagens em um terminal de vídeo se dá por emissão de


radiação eletromagnética visível, em um processo que integra, em diferentes
proporções, as cores verde, vermelha e azul. Já os dispositivos de impressão
coloridos (e.g. impressoras e traçadores gráficos) adotam o sistema CMY (Cyan,
Magenta, Yellow). Uma vez que os pigmentos empregados (tintas em cartuchos
ou toners) não produzem o preto quando combinados de modo balanceado, é
necessário acrescentá-lo como um quarto pigmento, o novo sistema cromático
é denominado CMYK (Cyan, Magenta, Yellow, blacK). Há vários outros modelos
cromáticos nos quais a caracterização da cor não se dá conforme o
comportamento fisiológico da retina humana, mas sim em função de outros
atributos de percepção cromática empregados por seres humanos. Ao invés da
caracterização da cor a partir de combinações de vermelho, verde e azul, tais
modelos adotam outros atributos, tais como a intensidade, o matiz ou tonalidade
(hue) e a saturação ou pureza.

Modelo de Imagem Digital


Uma imagem monocromática é uma função bidimensional contínua f(x,y),
na qual x e y são coordenadas espaciais e o valor de f em qualquer ponto (x,y)
é proporcional à intensidade luminosa (brilho ou nível de cinza) no ponto
considerado. Como os computadores não são capazes de processar imagens
contínuas, mas apenas arrays de números digitais, é necessário representar

33
34

imagens como arranjos bidimensionais de pontos. Cada ponto na grade


bidimensional que representa a imagem digital é denominado elemento de
imagem ou pixel. Na Fig. 18, apresenta-se a notação matricial usual para a
localização de um pixel no arranjo de pixels de uma imagem bidimensional. O
primeiro índice denota a posição da linha, m, na qual o pixel se encontra,
enquanto o segundo, n, denota a posição da coluna. Se a imagem digital contiver
M linhas e N colunas, o índice m variará de 0 a M-1, enquanto n variará de 0 a
N-1. Observe-se o sentido de leitura (varredura) e a convenção usualmente
adotada na representação espacial de uma imagem digital.

Fig. 18 – Representação de uma imagem digital bidimensional.

A intensidade luminosa no ponto (x,y) pode ser decomposta em: (i)


componente de iluminação, i(x,y), associada à quantidade de luz incidente sobre
o ponto (x,y); e a componente de reflectância, r(x,y), associada à quantidade de
luz refletida pelo ponto (x,y) [3]. O produto de i(x,y) e r(x,y) resulta em:

f(x,y) = i(x,y).r(x,y)

na qual 0 < i(x,y) < ∞ e 0 < r(x,y) < 1, sendo i(x,y) dependente das
características da fonte de iluminação, enquanto r(x,y) dependente das
características das superfícies dos objetos.

Em uma imagem digital colorida no sistema RGB, um pixel pode ser visto
como um vetor cujas componentes representam as intensidades de vermelho,

34
35

verde e azul de sua cor. A imagem colorida pode ser vista como a composição
de três imagens monocromáticas, i.e.:

f (x, y) = fR(x,y) + fG(x,y) + fB(x,y),

na qual fR(x,y), fG(x,y), fB(x,y) representam, respectivamente, as


intensidades luminosas das componentes vermelha, verde e azul da imagem, no
ponto (x,y).

Na Fig. 19, são apresentados os planos monocromáticos de uma imagem


e o resultado da composição dos três planos. Os mesmos conceitos formulados
para uma imagem digital monocromática aplicam-se a cada plano de uma
imagem colorida.

Fig. 19 – Representação de uma imagem digital bidimensional.

Amostragem e Quantização
Como já foi anteriormente mencionado, para que uma imagem possa ser
armazenada e/ ou processada em um computador, torna-se necessária sua
discretização tanto em nível de coordenadas espaciais quanto de valores de
brilho. O processo de discretização das coordenadas espaciais denomina-se
amostragem, enquanto a discretização dos valores de brilho denomina-se
quantização. Usualmente, ambos os processos são uniformes, o que implica a
amostragem da imagem f(x,y) em pontos igualmente espaçados, distribuídos na
forma de uma matriz M x N, na qual cada elemento é uma aproximação do nível

35
36

de cinza da imagem no ponto amostrado para um valor no conjunto {0, 1, ..., L -


1}.

Costuma-se associar o limite inferior (0) da faixa de níveis de cinza de um


pixel ao preto e ao limite superior (L–1) ao branco. Pixels com valores entre 0 e
L-1 serão visualizados em diferentes tons de cinza, os quais serão tão mais
escuros quanto mais próximo de zero forem seus valores.

Uma vez que os processos de amostragem e quantização implicam a


supressão de informação de uma imagem analógica, seu equivalente digital é
uma aproximação, cuja qualidade depende essencialmente dos valores de M, N
e L. Usualmente, o número de valores de brilho, L, é associado a potências de
2:

com l ∈ ℵ. Assim sendo, o número de bits necessário para representar uma


imagem digital de dimensões M x N será:

b=MxNxl

Percebe-se, a partir da Eq. 5, que embora o aumento de M, N e l implique a


elevação da qualidade da imagem, isto também implica o aumento do número
de bits necessários para a codificação binária da imagem e, por conseguinte, o
aumento do volume de dados a serem armazenados, processados e/ou
transmitidos. O Quadro 1 contém o número de bytes empregado na
representação de uma imagem digital monocromática para alguns valores típicos
de M e N, com 2, 5 e 8 níveis de cinza.

Quadro 1 – Número de bytes para uma imagem monocromática.

36
37

O número de amostras e o número de níveis de cinza necessários para a


representação de uma imagem digital de qualidade adequada é função tanto de
características da imagem, tais como suas dimensões e a complexidade dos
alvos nela contidos, quanto da aplicação à qual se destina. Nas Figs. 20(A) a
(D), ilustra-se a influência dos parâmetros de digitalização na qualidade visual
de uma imagem monocromática.

Fig. 20 – Influência da variação do número de amostras e de níveis de


quantização na qualidade de uma imagem digital: (A) 200 x 200 pixels/ 256
níveis; (B) 100 x 100 pixels/ 256 níveis; (C) 25 x 25 pixels/ 256 níveis; e (D) 200
x 200 pixels/ 2 níveis.

Em geral, costuma-se amostrar de forma idêntica os diferentes planos de uma


imagem colorida. O número de cores que um pixel pode assumir em uma
imagem RGB com LR níveis de quantização no plano R, LG no plano G e LB no
plano B é LR x LG x LG. Considerando a Eq. (6), se lR = log2(LR), lG = log2
(LG)e lB = log2 (LB), o número de bits por pixel necessários para representar as
cores será igual a lR + lG + lB e o número de bits necessário para representar
uma imagem digital de dimensões M x N será:

b = M x N x (lR + lG + lB)

37
38

Seja, por exemplo, LR = LG = LG = 2^8 = 256 níveis de cinza possíveis em cada


banda. Assim sendo, cada pixel da imagem colorida poderá assumir uma das
16.777.216 cores da paleta, uma vez que será representado por 3 x 8 = 24 bits.
O Quadro 2 contém o número de bytes empregado na representação de uma
imagem digital colorida para alguns valores típicos de M e N, com 2, 5 e 8 níveis
de cinza.

Quadro 2 – Número de bytes para uma imagem colorida.

Sistema Típico para Processamento Digital de Imagens


Vários modelos de sistemas para processamento de imagens têm sido
propostos e comercializados no mundo inteiro nas duas últimas décadas. Entre
meados das décadas de 80 e 90, com a progressiva redução nos custos das
tecnologias de hardware, as tendências de mercado voltaram-se para placas
projetadas, segundo padrões industriais, para uso em computadores pessoais e
estações de trabalho. Assim, surgiram diversas empresas que se especializaram
no desenvolvimento de software dedicado ao processamento de imagens. Nos
dias atuais, o extenso uso dos sistemas para processamento de imagens desta
natureza ainda é um fato, sobretudo em aplicações de sensoriamento remoto
(processamento de produtos aerofotogramétricos e orbitais) e imageamento
biomédico (processamento de imagens geradas a partir de MR, CT, PET/ SPEC,
tomografia óptica, ultra-sonografia e raios X). Todavia, tendências recentes
apontam para a miniaturização e integração do hardware especializado para
processamento de imagens a computadores de pequeno porte de uso geral.

38
39

A representação do hardware e o diagrama em blocos da Fig. 21 ilustram


os componentes de um sistema de uso geral tipicamente utilizado para o
processamento digital de imagens. O papel de cada componente será discutido,
em linhas gerais, a seguir. No tocante à aquisição (também referida como
sensoriamento) de imagens digitais, afiguram-se relevantes dois elementos, a
saber: (i) o dispositivo físico sensível à faixa de energia irradiada pelo alvo de
interesse; e (ii) o dispositivo conversor da saída do o dispositivo físico de
sensoriamento em um formato digital (usualmente referido como digitalizador).
Tome-se como exemplo uma câmara de vídeo digital. Os sensores CCD são
expostos à luz refletida pelo alvo de interesse, o feixe de radiação
eletromagnética capturada é convertido em impulsos elétricos proporcionais à
intensidade luminosa incidente nos diferentes pontos da superfície do sensor e,
finalmente, o digitalizador converte os impulsos elétricos em dados digitais.

Fig. 21: Diagrama em blocos de um sistema típico para processamento


de imagens.

Em geral, o hardware especializado para processamento de imagens


consiste de um digitalizador integrado a um hardware destinado à execução de
outras operações primitivas, e.g. uma unidade lógico-aritmética (ULA) para a
realização de operações aritméticas e lógicas em imagens inteiras, à medida que
são digitalizadas. O diferencial do hardware desta natureza, também
denominado subsistema front-end, é a velocidade de processamento em
operações que requerem transferências rápidas de dados da entrada para a
saída, e.g., digitalização e remoção de ruído em sinais de vídeo capturados a

39
40

uma taxa de 30 quadros/s, tarefa que um computador típico não consegue


realizar com o mesmo desempenho. Em nível do processamento propriamente
dito, o computador em um sistema para processamento de imagens é um
hardware de uso geral que pode ser desde um PDA até um supercomputador,
em função da capacidade de processamento exigida pela tarefa. Embora
aplicações dedicadas possam requerer computadores especialmente projetados
e configurados para atingir o grau de desempenho exigido pela tarefa de
interesse, os sistemas de uso geral para processamento de imagens utilizam
computadores pessoais típicos para a execução de tarefas off-line.

O armazenamento é um dos grandes desafios para a área de


processamento de imagens, uma vez que os sistemas de aquisição vêm sendo
cada vez mais aprimorados para a captura de volumes de dados cada vez
maiores, o que requer dispositivos com capacidades de armazenamento cada
vez maiores, além de taxas de transferência de dados mais elevadas e maiores
índices robustez e confiabilidade do processo de armazenamento. Costuma-se
discriminar a etapa de armazenamento em três níveis, a saber: (i)
armazenamento de curta duração (memória RAM), durante o uso temporário das
imagens de interesse em diferentes etapas de processamento; (ii)
armazenamento online ou de massa, típico em operações relativamente rápidas
de recuperação de imagens; e (iii) arquivamento de imagens, com fins ao acesso
infreqüente e à recuperação quando o uso se fizer necessário. No âmbito da
saída do sistema de processamento de imagens, são típicas duas alternativas,
a saber: (i) a visualização de dados; e (ii) a impressão de dados. A visualização
requer tipicamente monitores de vídeo coloridos e preferencialmente de tela
plana, que recebem dados de placas gráficas comerciais ou dedicadas. Há
circunstâncias em que se torna necessário o uso de visualizadores estéreo, e.g.
em aplicações que lidam com pares estereoscópicos de produtos
aerofotogramétricos. No tocante à impressão, costuma-se utilizar diferentes
dispositivos de impressão de pequeno, médio e grande porte - impressoras e/ou
traçadores gráficos (plotters) de jato de tinta, sublimação de cera ou laser.
Costuma-se também incluir nesta etapa a geração de produtos em filme, que
oferecem a mais alta resolução possível.

40
41

O software para processamento de imagens consiste, em geral, de


módulos destinados à realização de tarefas específicas (e.g. operações de
processamento radiométrico e/ou geométrico de imagens monocromáticas ou
coloridas, mono ou multiespectrais). Há pacotes que incluem facilidades de
integração de módulos e geração de código em uma ou mais linguagens de
programação. Por fim, faz-se pertinente comentar que a conexão em rede de
sistemas para processamento de imagens parece ser uma função típica nos dias
atuais, uma vez que, para diversas aplicações, se faz necessária a transmissão
de grandes volumes de dados. Para tais aplicações, a consideração mais
relevante é a largura de faixa, uma vez que a comunicação com sites remotos
via Internet pode constituir um obstáculo para a transferência eficiente de dados
de imagens.

41
42

REFERÊNCIAS

JÄHNE, B. Digital Image Processing. Springer-Verlag, 2002.

ACHARYA, T., RAY, A. K. Image Processing- Principles and Applications. John


Wiley & Sons, Inc. 2005.

GONZALEZ, R., WOODS, P. Digital Image Processing. Prentice Hall, 2002, 2nd
ed.

FORSYTH, D., PONCE, J. Computer Vision: A modern approach. Prentice Hall,


2001.

JÄHNE, B., HAUSSECKER, H. (Eds.) Handbook of Computer Vision and


Applications. Academic Press, 2000.

RENCZ, A. N., RYERSON. R. A. (Eds.) Manual of Remote Sensing, Remote


Sensing for the Earth Sciences. John Wiley & Sons, Inc. 1999, 3rd ed.

HANSEN, C. D., JOHNSON, C. R. Visualization Handbook. Elsevier, 2005.

RUSS, J. C. The image processing handbook. CRC Press LLC, 2000 3rd ed.

BANKMAN, I. (Ed.) Handbook of Medical Imaging: Processing and Analysis.


Academic Press. 2000.

MATHERON, G. Random sets and integrated geometry. Wiley, 1975.

SERRA, J. Introduction to mathematical morphology, Computer Vision, Graphics


and Image Processing, 35(3):283–305, September 1986.

SERRA, J. Image analysis and mathematical morphology. Academic Press,


London, 1988.

DOUGHERTY, E. R., LOTUFO, R. A. Hands-on Morphological Image


Processing, SPIE Press, Bellingham, 2003, 1st ed.

GALO,M.; HASEGAWA, J.K.; TOMMASELLI, A.M.G. $YDOLDomR


JHRPpWULFD GH FkPDUDV GH YtGHR SDUD XVR HP IRWRJUDPHWULD

42
43

GLJLWDO. IN: ANAIS DO CONGRESSO BRASILEIRO DE CARTOGRAFIA,


EM CD-ROM, 1999.

GALO, M.; TOZZI, C.L. The concept of matching paralelepid and its use in the
correspondence problem. In: Proceedings of the ICIP99-International
Conference on Image Processing, Kope, Japão, 1999.

TOMMASELLI, A.M.G. Implementação de um sistema fotogramétrico digital para


reconstrução de superfícies a curta distância. Projeto de pesquisa apresentado
à Fundunesp, 1996.

43

Você também pode gostar