Você está na página 1de 6

Aplicação de Wavelets para Recuperação de Imagens Médicas por

Conteúdo
Ana Cláudia Paris, Ana Carolina Nicolosi da Rocha Gracioso, Adilson Gonzaga
Universidade de São Paulo - Escola de Engenharia Elétrica – São Carlos, SP, Brasil
acp@netsite.com.br, carolina@sel.eesc.usp.br, agonzaga@sc.usp.br
Telefone/Fax +55 16 3373 9371

Abstract
This work presents a content-based medical image retrieval system. Features vectors were created
applying the Wavelet and Wavelet Packet Transforms in the images. The search in the database image
considered the similarities between this vectors and the given image. This work propose aid in a
medical image diagnostic, eliminating the subjectivity in the searches that considering textual data
exclusively.

Palavras-Chave: Content Based Image Retrieval (CBIR), Wavelets, Wavelets Packet, Medical
Images.

1. Introdução
Tecnologias associadas a imagens médicas, têm oferecido relevantes contribuições à prática da
Medicina moderna, influenciando decisivamente no auxílio ao diagnóstico. Dessa forma, trabalhos na
área de processamento de imagens médicas e diagnósticos auxiliados por computador (CAD -
Computer-Aided Diagnosis) [1, 2] têm recebido atenção especial nos últimos tempos.
O principal motivo para esta pesquisa refere-se ao fato de que algoritmos automáticos para
recuperação de imagens baseando-se em suas características intrínsecas, podem ser desenvolvidos para
viabilizar a manipulação da crescente quantidade de imagens que são atualmente geradas em hospitais
e em centros médicos.
Este recurso é descrito na literatura como Recuperação de Imagens Baseada em Conteúdo
(Content-Based Image Retrieval - CBIR) [3], e considera a informação visual da imagem e não apenas
uma simples descrição textual sobre a mesma, o que possibilita que o profissional da área médica
obtenha informações e realize comparações relevantes entre imagens provenientes de meios de
aquisição distintos rapidamente.
Neste contexto, algoritmos que realizam a busca por similaridade, comparando aspectos da
imagem de consulta com as imagens armazenadas em um banco de dados criado para esta finalidade
foram desenvolvidos. Tais algoritmos processam as imagens médicas e extraem as características mais
relevantes aplicando as Transformadas Wavelet (TW) e Wavelet Packet (WP). Estas são armazenadas
em vetores de características e servem como parâmetro para comparação através do uso de medidas de
dissimilaridade e recuperação das imagens semelhantes existentes no banco.
Os resultados iniciais do método proposto são avaliados através da análise de gráficos Recall x
Precision, os quais fornecem uma medida da eficácia do método de recuperação utilizado.
2. Metodologia
As características comumente extraídas das imagens e usadas para gerar os vetores de
características são: cor, textura e forma.
A primeira e mais simples classe de características são as características de cor ou distribuição de
brilho, dada principalmente por histogramas da imagem. Embora apresente baixo custo computacional,
o histograma produz uma representação ambígua da mesma, visto que duas imagens diferentes podem
ter a mesma distribuição de cor, ou seja, o mesmo histograma.
A respeito das imagens médicas, características baseadas em textura e forma obtidas das regiões
da imagem podem discriminá-las e separá-las de modo mais apurado, pois os objetos (órgãos, tecidos e
anomalias) têm na maioria das vezes, formas e texturas específicas que podem ser empregadas para a
delimitação dos mesmos [4].
Assim, o presente trabalho está focado no estudo da representação, comparação e recuperação de
imagens médicas, inicialmente considerando apenas suas características de textura.
As três principais abordagens usadas no processamento de imagens para descrever a textura de
uma região são: estatística, estrutural e espectral. A abordagem estatística considera a distribuição dos
tons de cinza e o inter-relacionamento entre eles. As técnicas estruturais, por outro lado, lidam com o
arranjo espacial de primitivas de imagens regulares. A abordagem espectral é baseada em propriedades
de espectros de freqüência, obtidas através das Transformadas de Fourier e Wavelets, por exemplo [5].
Neste estudo, foram desenvolvidos dois algoritmos que utilizam a TW e sua generalização WP,
com dois níveis de decomposição aplicados sobre toda a imagem para análise dos subespaços
resultantes, uma vez que elas tendem a localizar informações sobre padrões anteriormente globalizadas
na imagem. As TW e WP são funções matemáticas que apresentam os dados contidos em diferentes
componentes de freqüência e estuda cada componente com uma resolução relacionada a sua escala. A
diferença básica entre elas reside no fato de que na TW apenas os coeficientes de aproximação são
subdivididos, já na análise WP tanto os coeficientes de detalhe quanto os de aproximação são
subdivididos, conforme ilustrado na figura 1(a) e 1(b), o que segundo alguns autores [8], permite uma
análise mais rica da imagem, o que a torna um excelente descritor de textura.

Figura 1(a) Decomposição Wavelet Figura 1(b) Decomposição Wavelet Packet

Os algoritmos que empregam a TW e WP processam dados em diferentes escalas e resoluções,


permitindo que sejam vistas tanto informações globais quanto os detalhes da imagem, fornecendo uma
representação Tempo x Freqüência, o que permite saber quais e onde estão as componentes de
freqüência. Uma descrição mais detalhada sobre as Transformadas Wavelets e Wavelet Packet podem
ser encontrada em [6] [7] [8] [9].
Para os testes iniciais, optou-se pela utilização da Wavelet Daubechies de ordem 1 (db1) que
corresponde a Wavelet de Haar, a qual é a primeira Wavelet idealizada e a mais simples, logo de fácil
implementação e freqüentemente usada para propósitos educacionais, composta pelas funções Wavelet
(1) e Escala (2) descritas abaixo:

+ 1 0 ≤ t < 1/ 2 1 x ∈ [0,1]
ψ (t )  (1) φ (t ) (2)
− 1 1/ 2 ≤ t < 1 0 x ∉ [0,1]

Para que possam ser efetuadas consultas baseadas em conteúdo inicialmente as imagens coletadas
são analisadas e processadas individualmente. O banco de imagens atual contém mais de 2.500
imagens laudadas e está sendo populado com imagens de exames de Medicina Nuclear e Tomografia
Computadorizada de diversas partes do corpo humano, incluindo abdômen superior, abdômen inferior,
crânio, pescoço, pulmão, pelve, tórax, entre outras. As referidas imagens foram obtidas através de uma
parceria entre o Hospital Amaral Carvalho de Jaú e o Departamento de Engenharia Elétrica, da USP,
São Carlos. A partir das imagens coletadas, um conjunto de imagens para testes foi gerado. As
informações referentes aos pacientes são armazenadas sob um simples código de identificação,
mantendo em sigilo a identidade dos mesmos.
Uma vez processadas as imagens, calcula-se a média, variância e energia dos coeficientes de
detalhe e aproximação de cada subespaço gerado pela TW e WP, estes valores, são então armazenados
em vetores de características, os quais são uma representação numérica da imagem, ou de uma porção
dela, sintetizando suas informações mais representativas. Estes elementos numéricos representam de
forma reduzida o conteúdo de uma imagem [5]. Posteriormente, estes vetores são comparados através
de uma função de dissimilaridade.
Existe um forte relacionamento entre as características das imagens e a função de distância. Neste
ponto um dos desafios é escolher a função de distância adequada para o conjunto de dados [5]. Dentre
as funções de distância usuais da Família Lp, está a Distância Euclidiana (3) ou Distância L2, a qual foi
utilizada neste experimento.

L2 = (∑ x − y )
i i
2 1/ 2
(3)

Toda função de distância deve respeitar três propriedades [5]:

• Simetria: d(x,y) = d(y,x);


• Não-negatividade: 0 < d(x,y) < ∞, x ≠ y e d(x,x) = 0;
• Desigualdade triangular: d(x,y) ≤ d(x,z) + d(z,y).

A busca por imagens realizada por um sistema CBIR envolve a comparação de pares de imagens e
a atribuição de um coeficiente de similaridade a cada par, onde tal medida de similaridade é obtida a
partir da função de distância. Existem dois tipos fundamentais de consultas por similaridade, ambas
baseadas em um objeto de referência (centro da consulta): Consultas por Vizinhança e Consultas por
Abrangência.
A Consulta por Vizinhança (k-Nearest Neighbors Queries), utilizada neste experimento, dado um
valor inteiro k, retorna os k elementos do conjunto de dados que são mais similares ao objeto central da
consulta. Já na Consulta por Abrangência (Range Queries), dado um grau de similaridade (raio),
obtém-se todos os objetos no conjunto de dados que sejam similares ao objeto central da consulta até
esse grau dado [5], conforme ilustrado pelos exemplos das figuras 2(a) e 2(b).

Figura 2(a) Consulta kNN: “Dado o exame de CT do Figura 2(b) Consulta Rq: “Encontre todos os exames
paciente X, encontre os 3 exames mais parecidos com que diferem em até 10 unidades do exame original
o exame original” indicado”

Para validar e comparar as técnicas utilizou-se o gráfico Recall x Precision (Revocação x


Precisão), definido na figura 3.
Dado um conjunto de dados, sobre o qual serão feitas as consultas, define-se: TR – número total
de objetos relevantes, ou seja, o número de imagens pertencentes à mesma classe que a imagem de
consulta, TRO – número total de objetos relevantes recuperados na consulta e TO – número total de
objetos recuperados na consulta, independente da classe a que pertencem [5].

TRO – Total de
Relevantes Obtidos
Precision = TRO
TO

Recall = TRO
TR
TR – Objetos TO – Total de
Relevantes Objetos Obtidos

Figura 3 Técnica de Validação do Método aplicado: Recall x Precision

A precisão (precision) representa a porção de imagens recuperadas que são relevantes à consulta.
Já a revocação (recall) corresponde a porção de imagens relevantes que foram recuperadas. Na prática,
uma curva mais próxima do alto do gráfico representa maior eficácia na recuperação [4].
A obtenção das imagens na área da medicina pode ser realizada utilizando inúmeros recursos, os
quais atualmente, em sua maioria utilizam o protocolo DICOM (Digital Imaging and Communications
in Medicine). Uma das vantagens do formato DICOM é que ele é diferente dos demais formatos
conhecidos comercialmente como JPEG, TIF, BMP e outros, pois permite que as informações dos
pacientes sejam armazenadas de forma estruturada juntamente com a imagem, isto é, elas são
armazenadas utilizando ponteiros, conhecidos como Tags que identificam e limitam as informações.
O conjunto de imagens para teste é composto por 70 imagens no formato DICOM, com tamanhos
256x256 e 512x512, o qual está subdividido em 7 classes sendo elas: abdômen inferior, abdômen
superior, abdômen completo, rim, espinha, intestino e cérebro. Cada classe possui imagens da mesma
parte do corpo de exames diferentes e algumas do mesmo exame, simulando as bases de imagens
existentes nos hospitais.
O experimento foi realizado utilizando um equipamento Pentium4, com processador de 3.0Ghz,
120Gb de HD e 1Gb de RAM. Os algoritmos foram desenvolvidos com o auxílio da ferramenta Matlab
versão 7.0.

3. Resultados
Para teste e avaliação da técnica proposta fez-se uma comparação entre a TW e WP, sendo que a
última mostrou-se sutilmente mais eficiente no que diz respeito à precisão na recuperação das imagens.
No entanto, o tempo de processamento da WP foi em média 60% superior ao da TW para realizar a
recuperação das 10 imagens mais similares a imagem de entrada.
A figura 4 apresenta um exemplo do resultado de uma busca por imagens similares de Cérebro
aplicando o algoritmo que faz uso da TW (a) e WP (b), no qual podemos observar que a precisão da
busca aumentou com as características extraídas através da WP.

Figura 4 (a) – Recuperação das 10 imagens mais Figura 4 (b) – Recuperação das 10 imagens mais
similares usando características extraídas com TW. similares usando características extraídas com WP.

Os gráficos 1(a) e 1(b) apresentam a comparação dos resultados obtidos utilizando-se TW e WP


respectivamente.

Gráfico 1(a) – Recall x Precision utilizando Gráfico 1(b) – Recall x Precision utilizando Wavelet
Transformada Wavelet DB1 Packet DB1

4. Conclusão
Para resolver o problema da subjetividade decorrente das consultas realizadas apenas com dados
textuais, buscou-se uma alternativa na qual consultas podem ser realizadas fornecendo uma imagem
como parâmetro de entrada. Os algoritmos desenvolvidos aplicam as Transformadas Wavelet e Wavelet
Packet nas imagens contidas no banco e geram vetores de características compostos por valores de
média, variância e energia dos coeficientes obtidos em cada subespaço e através de uma função de
distância foram calculadas quais são as imagens mais similares a imagens de consulta.
Um dos objetivos do estudo era obter melhores resultados nas buscas efetuadas através do
algoritmo que emprega a WP, porém nos resultados iniciais, observamos que esta função contribuiu de
forma muito sutil, para ampliar a exatidão da recuperação, não justificando seu alto custo
computacional e tempo de processamento.
Novas pesquisas estão sendo desenvolvidas para extrair características e melhorar o desempenho
dos algoritmos, visando aperfeiçoar os resultados e justificar o uso da WP principalmente, nas buscas
de recuperação por conteúdo.

4. Referências
[1] Eakins, J. P., Graham, M. E. Content-based Image Retrieval. A report to the JISC Technology
Applications Programme. Institute for Image Data Research, University of Northumbria at Newcastle,
1999.

[2] Santos, M., Furuie, S. Base de Imagens para Avaliação de Algoritmos de Processamento de
Imagens Médicas. IV SBQS – V Workshop de Informática Médica (WIM), Fevereiro, 2006.

[3] Gato, H. E. R., Nunes, F. L. S., Schiabel, H. Uma Proposta de Recuperação de Imagens
Mamográficas Baseada em Conteúdo. Anais do IX Congresso Brasileiro de Informática em Saúde,
2004.

[4] Balan, A. G. R., Traina, A. J. M., Traina Jr, C., Marques, P. M. A. Integrando Textura e Forma
para a Recuperação de Imagens por Conteúdo. Anais do IX Congresso Brasileiro de Informática em
Saúde, 2004.

[5] Traina, A. J. M., Traina Jr., C. Técnicas e Aplicações de Recuperação de Imagens por Conteúdo.
Minicurso sobre CBIR, ministrado no I Workshop de Visão Computacional. Unimep, Piracicaba, SP,
Setembro, 2005.

[6] Polikar, R. Fundamental Concepts & An Overview Of The Wavelet Theory - The Wavelet Tutorial.
Rowan University, College of Engineering, 2001. http://users.rowan.edu/%7Epolikar/
WAVELETS/WTtutorial.html

[7] Lima, P. C. Wavelets: uma introdução. Departamento de Matemática - ICEX – UFMG, 2003.

[8] Parraga, A. Aplicação da Transformada Wavelet Packet na Análise e Classificação de Sinais de


Vozes Patológicas. Universidade Federal do Rio Grande do Sul, Departamento de Engenharia Elétrica,
2002.

[9] Garcia C., Zikos G., Tziritas G. Wavelet packet analysis for face recognition. Image and Vision
Computing, Vol. 18, Issue 4, Pages 289-297, March 2000.

Você também pode gostar