Você está na página 1de 25

PROCESSAMENTO DIGITAL DA

IMAGEM
TEMAS:
• PROCESSAMENTO DE IMAGEM;
• CONTRASTE E GAMA DINÂMICA
• ROTAÇÃO
• INTERPOLAÇÃO
ELEMENTOS DO GRUPO:

1. António Cajumbo
2. Aristóteles Domingos
3. Eugénio
4. Fábio Pascoal
5. Serafim
6. Colega
PROCESSAMENTO DE IMAGEM

Processamento de imagem é qualquer forma de


processamento de dados no qual a entrada e saída são imagens tais
como fotografias ou quadros de vídeo. Ao contrário do
tratamento de imagens, que se preocupa somente na manipulação de
figuras para sua representação final, o processamento de imagens é um
estágio para novos processamentos de dados tais como aprendizagem
de máquina ou reconhecimento de padrões. A maioria das técnicas
envolve o tratamento da imagem como um sinal bidimensional, no qual
são aplicados padrões de processamento de sinal.
MÉTODOS DE PROCESSAMENTO

• Algumas décadas atrás o processamento de imagem era feito


majoritariamente de forma analógica, através de dispositivos ópticos.
Apesar disso, devido ao grande aumento de velocidades dos
computadores, tais técnicas foram gradualmente substituídas por
métodos digitais.
• O processamento digital de imagem é geralmente mais versátil,
confiável e preciso, além de ser mais fácil de implementar que seus
duais analógicos. Hardware especializado ainda é usado para o
processamento digital de imagem, contando com
arquiteturas de computador paralelas para tal, em sua maioria no
processamento de vídeos. O processamento de imagens é, em sua
maioria, feito por computadores pessoais.
TÉCNICAS MAIS USADAS

• A maioria dos conceitos de processamento de sinais que se aplicam a


sinais unidimensionais também podem ser estendidos para o
processamento bidimensional de imagens. A transformada de Fourier é
bastante usada nas operações de imagem envolvendo uma grande
área de correlação, envolvendo diversos aspectos de óptica, eletrônica,
matemática, fotografia e computação.
• As Técnicas mais Utilizadas são:
1. Técnicas unidimensionais
2. Técnicas bidimensionais
TÉCNICAS UNIDIMENSIONAIS

• Resolução de imagem;
• Limite dinâmico;
• Largura de banda;
• Filtro: Permite a redução de ruídos da imagem para que mais padrões
possam ser encontrados;
• Operador diferencial;
• Histograma: Consiste na frequência de um tom específico (seja escala
de cinza ou colorido) em uma imagem. Permite a obtenção de
informações como o brilho e o contraste da imagem e sua distribuição;
• Detecção de borda;
• Redução de ruído.
TÉCNICAS BIDIMENSIONAIS
• Conectividade
Como pode-se dividir o processamento de
imagens?
• Em pré-processamento, realce e classificação.
• Pré-processamento refere-se ao processamento inicial de dados
brutos para calibração radiométrica da imagem, correção de
distorções geométricas e remoção de ruído.
• Realce visa melhorar a qualidade da imagem, permitindo uma melhor
discriminação dos objetos presentes na imagem.
• Na classificação são atribuídas classes aos objetos presentes na
imagem.
ALGUMAS MAQUINAS QUE FAZEM O
PROCESSAMENTO DE IMAGEM
CONTRASTE E GAMA DINÂMICA
• Contraste é a diferença de luminância ou cor que torna um objeto (ou
sua representação em uma imagem ou tela) distinguível. Na
percepção visual do mundo real, o contraste é determinado pela
diferença na cor e no brilho do objeto e de outros objetos dentro do
mesmo campo de visão. O sistema visual humano é mais sensível ao
contraste do que a luminância absoluta; ele pode perceber o mundo
da mesma forma, independentemente das grandes mudanças na
iluminação ao longo do dia ou de um lugar para outro.
O contraste máximo de uma imagem é a taxa de contraste ou a
faixa dinâmica.
O LADO ESQUERDO DA IMAGEM TEM BAIXO
CONTRASTE, A DIREITA TEM MAIOR
CONTRASTE
ALTERAÇÕES NA QUANTIDADE DE
CONTRASTE EM UMA FOTO
O QUE É REALCE DE CONTRASTE?

• A técnica de realce de contraste tem por objetivo melhorar a qualidade das imagens sob os
critérios subjetivos do olho humano. É normalmente utilizada como uma etapa de pré-
processamento para sistemas de reconhecimento de padrões.
• O contraste entre dois objetos pode ser definido como a razão entre os seus níveis de cinza
médios.
• A manipulação do contraste consiste numa transferência radiométrica em cada "pixel", com
o objetivo de aumentar a discriminação visual entre os objetos presentes na imagem. Realiza-
se a operação ponto a ponto, independentemente da vizinhança.
• A escolha do mapeamento direto adequado é, em geral, essencialmente empírica. Entretanto,
um exame prévio do histograma da imagem pode ser útil. O histograma de uma imagem
descreve a distribuição estatística dos níveis de cinza em termos do número de amostras
("pixels") com cada nível. A distribuição pode também ser dada em termos da percentagem do
número total de "pixels" na imagem. Pode ser estabelecida uma analogia entre o histograma
de uma imagem e a função densidade de probabilidade, que é um modelo matemático da
distribuição de tons de cinza de uma classe de imagens.
• A cada histograma está associado o contraste da imagem.
GAMA DINÂMICA
• Em fotografia, entende-se por gama dinâmica a faixa de luminância que uma
câmera fotográfica consegue captar, ou seja, os limites dessa gama. Se a câmera deixa
as áreas de sombra totalmente pretas ou as áreas mais claras totalmente brancas, não
registrando os detalhes e sutilezas do ambiente, essa câmera é de baixa gama
dinâmica.
• Gama dinâmica é uma gama de valores de brilho que podem ser gravados em media
(filme, chapas fotográficas, e papel fotográfico) ou em matriz eletrônica de uma câmera
digital.

• Essa questão também está diretamente relacionada ao ruído que polui as imagens das
câmeras eletrônicas em condições de baixa iluminação (imagem granulada). Câmeras
de menor sensibilidade tendem a produzir imagens mais granuladas.
• A gama dinâmica de câmeras fotográficas digitais é muito menor que a do olho humano,
e geralmente não tão ampla quanto a do filme fotográfico. Existem técnicas que foram
criadas para ampliar a gama dinâmica de imagens digitais, conhecidas como HDR.
HDR (GAMA DINÂMICA ELEVADA)
• Quando você fotografa uma cena que consiste tanto de uma luz forte quanto de sombras profundas
você percebe que os detalhes de ambas são perdidos. Imagine ficar em um quarto escuro e olhar
para fora de uma janela - você verá apenas um detalhe - ou a visão fora da janela ou o interior do
ambiente. Contudo, existe um método para visualizar os detalhes em cada parte da imagem.
• HDRI (High Dynamic Range Imaging - Imagens com alta gama dinâmica) é uma tecnologia que
expande o ganho dinâmico de uma imagem e mostra detalhes tanto em áreas de sombra quanto
em áreas densamente iluminadas.
• Em contraste com as câmeras modernas que tem um alcance dinâmico baixo, olho humano está
apto a discernir muito mais tons de cores e detalhes em um objeto sem nenhuma iluminação.
• A tecnologia HDRI minimiza esta discrepância em uma combinação de várias tomadas da mesma
imagem para alcançar uma imagem bastante próxima daquela que o fotógrafo vê com seus olhos.
Contudo, monitores, assim como as câmeras tem um ganho dinâmico mais baixo e podem não
reproduzir uma imagem-HDR não oferecendo assim nenhuma vantagem. Por isso que uma
tecnologia chamada Mapa de tom (Tone Mapping) é aplicada para comprimir o ganho dinâmico de
uma Imagem_HDR sem degradar a qualidade da mesma. A imagem resultante é
chamada LDR (baixa gama dinâmica) imagem, mas parece muito melhor do que a imagem original.
• A diferença é evidente quando você fotografa com altos níveis de contraste.
• Compare as tomadas originais
IMAGEM A BAIXO COM O RESULTADO DO PROCESSAMENTO HDR:
OBS:

• Anteriormente, havia a necessidade da utilização de filtros gradientes


para fotografar ou várias ferramentas do Adobe Photoshop
(mascaras, camadas) para conseguir uma imagem semelhante.
• Com o evento da tecnologia HDRI o processo foi simplificado. Agora
é suficiente tirar tirar uma série de fotos de um único e mesmo objeto
utilizando diferentes ajustes de exposição, e carregar as imagens
para o AKVIS HDRFactory e combina-las e uma única imagem.
ROTAÇÃO E INTERPOLAÇÃO DE IMAGEM

A rotação de uma imagem nada mais é do que aplicar uma função de


transformação e obter novas coordenadas para cada pixel dessa
imagem. Em outras palavras, após uma função de transformação de
rotação aplicada a um pixel P(X,Y) obtém-se P(X',Y'). Uma vez que a
identidade de um pixel é sua cor, copia-se a cor de P(X,Y) para
P(X',Y'). A rotação de objetos em ângulos múltiplos de 90 graus é fácil
de ser realizada, uma vez que é necessário apenas aplicar uma
transformação simples, como uma operação de matriz transposta. O
exemplo a seguir, rotaciona uma imagem em 90 graus em sentido
antihorário.
ROTAÇÃO DA IMAGEM EM QUALQUER
ÂNGULO
• A partir da equação, é possível rotacionar uma imagem em qualquer ângulo, em
torno da origem do sistema (coordenada 0,0). x '=x⋅cos(θ)−y⋅sen (θ ) y '=x⋅sen
(θ )+ y⋅cos( θ ) (1) A figura 1 apresenta os dois sistemas utilizados na rotação da
imagem: o sistema de coordenadas da tela e o sistema de coordenadas do
mundo real. O primeiro é o sistema utilizado pela imagem, enquanto que o
segundo é o sistema utilizado para rotacionar a a imagem. Obtém a cor do pixel a
ser rotacionado. Aplica rotação e copia a cor do pixel. Varre toda a imagem. É
desejável que a origem do sistema esteja posicionada no meio da figura e não
em suas extremidades, conforme mostra a figura 1. Deve-se observar também
que o sistema de coordenadas na tela possui o eixo Y no sentido inverso do
sistema de coordenadas do mundo real.
EXEMPLO DE ROTAÇÃO DE IMAGEM
MÉTODOS DE INTERPOLAÇÃO

• Vizinho mais próximo (Nearest Neighbor)


A interpolação por vizinho mais próximo assume a cor do pixel mais
próximo daquela coordenada. Dessa forma, é feito o arredondamento
das coordenadas de valores reais. Por exemplo, a coordenada (98,5;
34,2) ficaria:
round(98.5) = 99
round(34.2) = 34
Assim, a cor assumida na imagem destino seria a do pixel, cuja a
coordenada fosse (99,34). Esta interpolação é a mais simples de se
implementar, entretanto, apresenta efeitos colaterais como o “dente de
serra”
• Interpolação Bilinear
A interpolação bilinear faz uma média ponderada dos quatro pixels vizinhos da região em torno da coordenada
encontrada. O valor da intensidade do pixel é calculado, segundo a equação (4): f ( x , y )=f (0,0) ⋅(1−x ) ⋅(1−y )+f
(1,0)⋅x⋅(1−y )+f (0,1)⋅(1−x )⋅y+f (1,1) ⋅x ⋅y (4) Onde f(x,y) é a cor do pixel, segundo a seguinte configuração:
Para cada pixel vizinho em relação a coordenada (x',y'), é considerado o inverso da distância, uma vez que quanto menor a
distância do pixel ao ponto calculado, maior a contribuição daquele pixel na cor final. Suponha uma transformação de rotação,
cujas coordenadas calculadas são (150,4; 200,3). Os quatro pixels vizinhos a esta coordenada são os seguintes:
• P1(150,200)
• P2(151,200)
• P3(150,201)
• P4(151,201)
Tomando-se P1 como origem em (0,0), temos:
• P1(0, 0)
• P2(1, 0)
• P3(0, 1)
• P4(1, 1)
• P(0,4; 0,3)
A figura ilustra o sistema de coordenadas normalizado para o cálculo da interpolação, enquanto que a figura 4b apresenta os
níveis de cinza dos pixels.
• Comparação dos resultados
A figura 5 apresenta uma comparação entre os resultados da interpolação por vizinho mais
próximo e bilinea

Observa-se que o resultado da interpolação bilinear é melhor do que o vizinho mais próximo.
Entretanto, o custo computacional na interpolação bilinear é bem maior, problema este
agravado em computadores como o MSX. Outro problema para o uso da interpolação bilinear
no MSX, diz respeito à média ponderada de cores. Somente a screen 8 poderia fazê-la com
sucesso, visto que não possui sistema de cores indexados. Entretanto, o custo computacional
seria aumentado ainda mais.
FIM DA AULA,
OBRIGADO PELA
ATENÇÃO

Você também pode gostar