Escolar Documentos
Profissional Documentos
Cultura Documentos
Resumo. Este artigo tem como objetivo fornecer uma visão introdutória e explicativa
sobre as àreas citadas a seguir: introdução ao processamento de imagens, fundamen-
tos de imagens digitais, processamento de histograma e traçamento de raios. Cada
àrea será melhor aprofundada e descrita em tópicos especı́ficos para melhor entendi-
mento.
O computador só é capaz de armazenar bits, um valor que pode ser 0 ou 1. Para simpli-
ficar as coisas juntou-se 8 bits formando uma palavra chamada de byte. Um byte então pode
assumir 28 = 256 valores diferentes, variando de 0 a 255. Quando falamos de sistemas operaci-
onais de 16 bits e 32 bits, estamos falando da maior palavra que aquele sistema pode processar
de uma vez, por isso sistemas de 32 bits são mais eficientes que os de 16.
Assim, o computador trabalha sempre com números inteiros ou na melhor das hipóteses
com uma aproximação de um número real, chamada de ponto flutuante (isso porque o número
de bits dedicado para as casas decimais é flexı́vel de acordo com o número). Por conseqüência,
não é possı́vel representar uma função contı́nua no computador. Podemos apenas simula-la.
O processo para trazer uma função contı́nua para o computador é discretizando-a (ou
digitalizando-a), ou melhor, tomando valores pontuais ao longo de x e guardando o valor de
f(x) correspondente (é claro que o eixo f(x) também é contı́nuo, assim também precisaremos
discretizalo). O processo de discretização do eixo x (o domı́nio) é chamado de Amostragem, o
do eixo f(x) (o contradomı́nio) é chamado de Quantização.
Em resumo, a discretização de qualquer sinal contı́nuo primeiro passa por uma amostra-
gem e depois passa por uma quantização. Além disso, não podemos armazenar um sinal que se
estenda indefinidamente, portanto o sinal digital também é limitado a um intervalo do domı́nio.
A amostragem que vemos na figura é a mais comum de todas e mais popular, imple-
mentada na grande maioria de dispositivos de captura. É chamada de uniformemente espaçada,
pois cada amostra é tomada em intervalos iguais. Embora existam outras técnicas de amostra-
gem que utilizam menos amostras onde a função é monótona e mais amostras onde a função
apresenta mais irregularidades [Scuri 1999].
A imagem digital é obtida a partir de uma amostragem e de uma quantização dessa função,
como já foi visto, e pode ser representada pela mesma função, só que neste caso, x e y são
números inteiros. Uma vez amostrado o plano temos uma matriz de valores que representam a
cor. Cada elemento dessa matriz é chamado de Pixel (abreviação de Picture Element).
A figura a seguir ilustra o processo de discretização da imagem e mostra uma possı́vel
codificação da cor para cada elemento da matriz.
2. Fundamentos
2.1. Análise
O termo análise está relacionada a parte do tratamento onde existe uma descrição da
INFORMAÇÃO presente na imagem. Esta parte é chamada de parametrização e é nela que
várias medidas quantitativas (parâmetros) são utilizadas para descrever diferentes informações
dentro de uma imagem. Algumas aplicações tı́picas são: a determinação do número de células
presentes em um tecido biológico, o cálculo das formas dos contornos de uma célula ou ainda
a determinação da distribuição de uma população especı́fica de um conjunto de células. As
técnicas dedicadas a análise de imagens podem variar significativamente segundo a sua
complexidade e a necessidade em tempo de processamento. E nesta área que vamos encontrar
um nı́vel elevado de complexidade no tratamento da informação. Um exemplo prático e
quando da classificação automática de células doentes dentro de um conjunto de células
observadas em microscopia. Esta análise especı́fica demanda soluções dadas pelas técnicas de
“CLASSIFICAÇÃO E RENCONHECIMENTO DE FORMAS”, que discutiremos brevemente
posteriormente neste artigo. Neste caso devemos rapidamente medir vários parâmetros,
pertinentes ao problema, na imagem, como por exemplo: a superfı́cie, a forma de cada célula,
sua quantidade, o número de células vizinhas a uma dada célula e a densidade de células em
uma dada região. Em seguida comparamos estas medidas com várias classes de células
organizadas em uma base de dados, catalogadas anteriormente. Obteremos então uma
classificação das células com uma dada probabilidade de serem células doentes ou normais.
3.1. Aquisição
3.3. armazenamento
O armazenamento é um dos grandes desafios para a área de processamento de imagens, uma
vez que os sistemas de aquisição vêm sendo cada vez mais aprimorados para a captura de
volumes de dados cada vez maiores, o que requer dispositivos com capacidades de
armazenamento cada vez maiores, além de taxas de transferência de dados mais elevadas e
maiores ı́ndices robustez e confiabilidade do processo de armazenamento. Costuma-se
discriminar a etapa de armazenamento em três nı́veis, a saber: (i) armazenamento de curta
duração (memória RAM), durante o uso temporário das imagens de interesse em diferentes
etapas de processamento; (ii) armazenamento online ou de massa, tı́pico em operações
relativamente rápidas de recuperação de imagens; e (iii) arquivamento de imagens, com fins ao
acesso infreqüente e à recuperação quando o uso se fizer necessário.
3.4. Exibição
No âmbito da saı́da do sistema de processamento de imagens, são tı́picas duas alternativas, a
saber: (i) a visualização de dados; e (ii) a impressão de dados. A visualização requer
tipicamente monitores de vı́deo coloridos e preferencialmente de tela plana, que recebem
dados de placas gráficas comerciais ou dedicadas. Há circunstâncias em que se torna
necessário o uso de visualizadores estéreo, e.g. em aplicações que lidam com pares
estereoscópicos de produtos aerofotogramétricos. No tocante à impressão, costuma-se utilizar
diferentes dispositivos de impressão de pequeno, médio e grande porte - impressoras e/ou
traçadores gráficos (plotters) de jato de tinta, sublimação de cera ou laser. Costuma-se também
incluir nesta etapa a geração de produtos em filme, que oferecem a mais alta resolução
possı́vel. O software para processamento de imagens consiste, em geral, de módulos
destinados à realização de tarefas especı́ficas (e.g. operações de processamento radiométrico
e/ou geométrico de imagens monocromáticas ou coloridas, mono ou multiespectrais). Há
pacotes que incluem facilidades de integração de módulos e geração de código em uma ou
mais linguagens de programação. Por fim, faz-se pertinente comentar que a conexão em rede
de sistemas para processamento de imagens parece ser uma função tı́pica nos dias atuais, uma
vez que, para diversas aplicações, se faz necessária a transmissão de grandes volumes de
dados. Para tais aplicações, a consideração mais relevante é a largura de faixa, uma vez que a
comunicação com sites remotos via Internet pode constituir um obstáculo para a transferência
eficiente de dados de imagens.
Ray tracing Raytracing é a técnica de renderização de uma cena que calcula a imagem de uma
cena simulando a forma como os raios de luz percorrem o seu caminho no mundo real. Ela é
utilizada nos mais variados ambientes e bibliotecas gráficas, inclusive em OpenGL. Para tornar
o processamento factı́vel, a técnica de Ray Tracing opera este processo de trás para frente. O
ray tracing tenta descobrir o caminho da luz, imaginando o olho observando uma cena e
fazendo o caminho inverso, até a fonte de luz. A cor de cada pixel deve ser calculada com base
nos objetos de uma cena, na relação entre eles e no número, tipo e posição das fontes de luz da
cena. No mundo real, os raios de luz são emitidos a partir de uma fonte de luz, de acordo com
as caracterı́sticas desta fonte de luz, e iluminam os objetos da cena. A luz é então refletida por
estes objetos pode ainda passar através de objetos transparentes e semitransparentes. Esta luz
refletida então atinge os olhos do observador ou a lente de uma câmera. Como a grande
maioria dos raios de luz nunca atinge um observador, implementar uma simulação exatamente
desta forma é impraticável em termos da quantidade de processamento desnecessário
envolvido. O modo como a luz incide sobre um pano preto é diferente de como ele cai em uma
esfera cromada, é claro, e os algoritmos de traçado de raios precisam levar em conta todas
essas propriedades de cada objeto em vista de cada fonte de luz que incide neles. A luz salta e
reflete também, tornando ainda mais difı́cil o processo de descobrir as cores de milhões de
pixels. Como resultado, é necessário uma enorme quantidade de poder de processamento. Já
vemos cenas utilizando o ray tracing de alta qualidade há anos, mas elas têm sido restritas a
imagens estáticas ou cenas que podem ser processadas com bastante antecedência, cenas de
efeitos especiais em filmes conseguiram implantar o ray tracing muito antes dos videogames,
porque enorme sistemas computacionais podem passar dias calculando a fı́sica de uma cena.
Até agora, os jogos dependiam somente de uma técnica de renderização chamada rasterização,
onde, em vez de bombardear uma cena com milhões de raios de luz virtual em todas as
direções, os processadores gráficos calculam como os milhões de triângulos que compõem os
modelos 3D deveriam parecer convertidos em pixels e imagens planas em 2D, mas somente
um por vez. Raios de luz simulados vindos diretamente de uma fonte de luz virtual
influenciam a cor eo brilho desses pixels renderizados, mas vários triângulos não podem afetar
um ao outro, exigindo sombras, iluminação indireta e reflexos para que todos sejam
inteligentemente simulados.
A Rasterização é um processo rápido e gera imagens de forma mais simples. Para quem joga
faz um tempo, é fácil de lembrar da época em que os primeiros tı́tulos em 3D eram bem
quadradões e com técnicas de iluminação rudimentares. Às vezes, apenas alternando entre os
tons das cores para dar uma ideia de sombreamento e profundidade.
No ray tracing, em vez de “simplesmente” projetar onde os polı́gonos devem aparecer na tela e
então aplicar efeitos para deixá-los mais bonitos; é feita uma simulação fisicamente correta do
caminho percorrido por cada fóton desde sua fonte luminosa, rebatendo pelo ambiente virtual
até chegar à “câmera”. É como cada “rebote” do raio altera as caracterı́sticas da luz que
ajudará a determinar a cor final para cada pixel.
Referências
Scuri, A. E. (1999). Fundamentos da Imagem Digital. Tecgraf/PUC-Rio.