Você está na página 1de 70

Evaluación de algoritmos basados en lógica difusa aplicados al

preproceso y detección de bordes en imágenes digitales

César A. Cardona Valencia

Universidad Nacional de Colombia


Sede Manizales
Facultad de Ingenierı́a y Arquitectura
Departamento de Electricidad, Electrónica y Computación
Manizales, Colombia
2004
Evaluación de algoritmos basados en lógica difusa aplicados al
preproceso y detección de bordes en imágenes digitales

César A. Cardona Valencia

Tesis para optar al tı́tulo de


Ingeniero Electrónico

Director
Ing. Julián Andrés Betancur A.

Universidad Nacional de Colombia


Sede Manizales
Facultad de Ingenierı́a y Arquitectura
Departamento de Electricidad, Electrónica y Computación
Manizales, Colombia
2004
A mi familia
por darme una oportunidad,
y a mis dos hermosas

que son la razón de mi vida


Agradecimientos

Al Ingeniero Julián Andrés Betancur por todo el apoyo brindado para para llevar a cabo este
proyecto.

A mi familia por el soporte brindado dı́a a dı́a.

A mis amigos y compañeros del grupo PCI por la confianza y el apoyo.


Índice General

Agradecimientos i

Índice General i

Índice de Figuras iii

Índice de Tablas v

Resumen viii

Abstract ix

Antecedentes x

1 Lógica Difusa 1
1.1 Operaciones básicas entre conjuntos difusos . . . . . . . . . . . . . . . . . . . . . 2
1.2 Modelos difusos lingüı́sticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Reglas Difusas Si....Entonces . . . . . . . . . . . . . . . . . . . . . . . . 5

Introducción 1

2 Filtros Difusos para imágenes digitales 6


2.1 Filtro Difuso de reducción de Ruido . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.2 Filtro Difuso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Detector de Bordes Difuso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2 Metodologı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

i
2.3 Umbralización basada en medida de ambigüedad . . . . . . . . . . . . . . . . . . 17
2.3.1 Cálculo de la medida de ambigüedad . . . . . . . . . . . . . . . . . . . . 17
2.3.2 Método propuesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Medidas Globales de Coherencia para la Evaluación de Detectores de Bordes 20


3.1 Todos los Bordes son Colineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Todos los Bordes se Intersectan en un Solo Punto . . . . . . . . . . . . . . . . . . 23
3.3 Todos los Bordes son Paralelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.4 Cálculo de las Medidas Globales de Coherencia . . . . . . . . . . . . . . . . . . . 23
3.4.1 Comparación de los detectores a través de los parámetros . . . . . . . . . . 23
3.4.2 Muestreo del Espacio de Aparición de Bordes . . . . . . . . . . . . . . . . 24

4 Resultados 26
4.1 Comparación de detectores de bordes sobre imágenes sintéticas . . . . . . . . . . . 26
4.2 Comparación de detectores de bordes sobre imágenes de café, rostros y células . . 30
4.2.1 Resultados obtenidos sobre imágenes de café . . . . . . . . . . . . . . . . 30
4.2.2 Resultados obtenidos sobre imágenes de rostros . . . . . . . . . . . . . . . 35
4.2.3 Resultados obtenidos sobre imágenes de células . . . . . . . . . . . . . . . 39
4.3 Desempeño del detector de bordes sobre imágenes a color . . . . . . . . . . . . . 42

5 Conclusiones 47
5.1 Respecto de las Medidas Globales de Coherencia . . . . . . . . . . . . . . . . . . 47
5.2 Respecto de las imágenes de café, células y rostros . . . . . . . . . . . . . . . . . 47
5.3 Trabajo Futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

Bibliografı́a 49

6 Anexo 1 1–1

7 Anexo 2 2–1

8 Anexo 3 3–1
Índice de Figuras

1.1 Funciones de pertenencia para tres tipos de velocidad . . . . . . . . . . . . . . . . . . . . . 1


1.2 Componentes de un modelo difuso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.1 (a) vecindario del pı́xel central (x,y), (b) pı́xeles indicados en gris son usados para obtener la derivada

difusa del pı́xel (x,y) en la dirección NW . . . . . . . . . . . . . . . . . . . . . . . . . . 8


2.2 Funciones de pertenencia (a) pequeño, (b) positivo y (c) negativo . . . . . . . . . . . . . . . . 10
2.3 vecindario 3x3 y direcciones de bordes . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4 Clases de bordes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5 Clasificador difuso competitivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3.1 Regiones cortadas de las tres restricciones: (a) todos los bordes son colineales, (b)todos los bordes

intersectan un único punto, (c) todos los bordes son paralelos en la escena. Estas restricciones soportan

la verdad sin relacionarse a la adquisición y las condiciones de iluminación. . . . . . . . . . . . 21


3.2 Entradas para calcular las medidas globales de Coherencia. . . . . . . . . . . . . . . . . . . . 22
3.3 Tercera medida global de coherencia contra el número de bordes para diversos detectores. . . . . . 24

4.1 Primera medida global de coherencia con θ para los detectores de bordes. σf uzzy = 2.2x10−4 ,

σsobel = 5.2x10−5 , σcanny = 4.5x10−6 . . . . . . . . . . . . . . . . . . . . . . . . . . 27


4.2 Primera medida global de coherencia sin θ para los detectores de bordes. σf uzzy = 5.1x10−4 ,

σsobel = 4.2x10−5 , σcanny = 1.2x10−5 . . . . . . . . . . . . . . . . . . . . . . . . . . 28


4.3 Segunda medida global de coherencia para los detectores de bordes. σf uzzy = 4.6x10−3 , σsobel =

1.2x10−6 , σcanny = 2.6x10−7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29


4.4 Tercera medida global de coherencia para los detectores de bordes. σf uzzy = 9.1x10−7 , σsobel =

1.5x10−7 , σcanny = 1.3x10−7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

iii
4.5 Imágenes obtenidas con los detectores de bordes a:Imagen Original b:Detector difuso c:Detector de

Sobel d:Detector de Canny. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31


4.6 Imágenes obtenidas con los detectores de bordes a.Imagen Original b.Detector difuso c.Detector de

Sobel d.Detector de Canny. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36


4.7 Imágenes obtenidas con los detectores de bordes a:Imagen Original b:Detector difuso c:Detector de

Sobel d:Detector de Canny. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41


4.8 Detector de bordes para imágenes de color. . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.9 Detector de bordes en imágenes a color de cafe a:Imagen Original b:Bordes sobre imagen sin filtrar

c:Bordes sobre imagen filtrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44


4.10 Detector de bordes en imágenes a color de rostros a:Imagen Original b:Bordes sobre imagen sin filtrar
c:Bordes sobre imagen filtrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.11 Detector de bordes en imágenes a color de células a:Imagen Original b:Bordes sobre imagen sin filtrar
c:Bordes sobre imagen filtrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

6.1 Diagrama de flujo para el filtro difuso de reducción de ruido . . . . . . . . . . . . . . . . . . 1–1

7.1 Diagrama de flujo para el detector de bordes difuso . . . . . . . . . . . . . . . . . . . . . . 2–1

8.1 Funciones de pertenencia para la variable α. . . . . . . . . . . . . . . . . . . . . . . . . . 3–3


Índice de Tablas

2.1 Pı́xeles usados en el cálculo de las derivadas. . . . . . . . . . . . . . . . . . . . . 9

4.1 Desempeño del detector de bordes con umbral manual sobre imágenes de café sin
filtrar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2 Varianza de los descriptores sobre imágenes de café sin filtrar. . . . . . . . . . . . 32
4.3 Desempeño del detector de bordes con umbral manual sobre imágenes de café fil-
tradas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.4 Varianza de los descriptores sobre imágenes de café filtradas. . . . . . . . . . . . . 33
4.5 Desempeño del detector de bordes con umbral basado en medida de ambigüedad
sobre imágenes de café. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.6 Varianza de los descriptores sobre imágenes de café con umbral basado en medida
de ambigüedad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.7 Desempeño del detector de bordes Sobel sobre imágenes de café. . . . . . . . . . . 34
4.8 Varianza de los descriptores sobre imágenes de café con detector de Sobel. . . . . . 34
4.9 Desempeño del detector de bordes Canny sobre imágenes de café. . . . . . . . . . 34
4.10 Varianza de los descriptores sobre imágenes de café con detector de Canny. . . . . 35
4.11 Desempeño del detector de bordes con umbral manual sobre imágenes de rostros
sin filtrar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.12 Desempeño del detector de bordes con umbral basado en medida de ambigüedad
sobre imágenes de rostros. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.13 Varianza de los descriptores sobre imágenes de rostros sin filtrar. . . . . . . . . . . 37
4.14 Varianza de los descriptores sobre imágenes de rostros con umbral basado en medi-
da de ambigüedad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

v
4.15 Desempeño del detector de bordes con umbral manual sobre imágenes de rostros
filtradas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.16 Varianza de los descriptores sobre imágenes de rostros filtradas. . . . . . . . . . . 38
4.17 Desempeño del detector de bordes Sobel sobre imágenes de rostros. . . . . . . . . 38
4.18 Varianza de los descriptores sobre imágenes de rostros con detector de Sobel. . . . 38
4.19 Desempeño del detector de bordes Canny sobre imágenes de rostros. . . . . . . . . 38
4.20 Varianza de los descriptores sobre imágenes de rostros con detector de Canny. . . . 39
4.21 Desempeño del detector de bordes con umbral manual sobre imágenes de células
sin filtrar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.22 Varianza de los descriptores sobre imágenes de células sin filtrar. . . . . . . . . . . 39
4.23 Desempeño del detector de bordes con umbral manual sobre imágenes de células
filtradas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.24 Varianza de los descriptores sobre imágenes de células filtradas. . . . . . . . . . . 40
4.25 Desempeño del detector de bordes con umbral basado en medida de ambigüedad
sobre imágenes de células. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.26 Varianza de los descriptores sobre imágenes de células con umbral basado en medi-
da de ambigüedad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.27 Desempeño del detector de bordes Sobel sobre imágenes de células. . . . . . . . . 42
4.28 Varianza de los descriptores sobre imágenes de células con detector de Sobel. . . . 42
4.29 Desempeño del detector de bordes Canny sobre imágenes de células. . . . . . . . . 42
4.30 Varianza de los descriptores sobre imágenes de células con detector de Canny. . . . 42
4.31 Desempeño del detector de bordes sobre imágenes de café a color. . . . . . . . . . 44
4.32 Varianza de los descriptores sobre imágenes de café a color. . . . . . . . . . . . . . 44
4.33 Desempeño del detector de bordes sobre imágenes de rostros a color. . . . . . . . . 45
4.34 Varianza de los descriptores sobre imágenes de rostros a color. . . . . . . . . . . . 45
4.35 Desempeño del detector de bordes sobre imágenes a color de células. . . . . . . . . 46
4.36 Varianza de los descriptores sobre imágenes de células a color. . . . . . . . . . . . 46

8.1 Desempeño del detector de bordes con diferentes valores de K para el filtro de
reducción de ruido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3–1
Resumen

Debido a la aplicación satisfactoria de los sistemas de visión artificial en áreas como la medicina,
industria, agricultura, entre otras, ha cobrado gran importancia el desarrollo de herramientas de
preprocesamiento digital de imágenes. En el preprocesamiento digital de imágenes las tareas más
importantes son la reducción de ruido y el realce de caracterı́sticas, entre esta última categorı́a se
encuentra es la extracción de bordes.

En este documento se presenta la implementación y evaluación de filtros tanto para el preproceso co-
mo para la detección de bordes en imágenes digitales, los cuales se basan en lógica difusa. Se evalúa
la herramienta difusa Vs. los algoritmos de Sobel y Canny. Para esto se utilizaron los métodos de
evaluación usados en [1] y adicionalmente se realizaron pruebas de los algoritmos desarrollados
sobre imágenes de frutos de café, células del epitelio escamoso del cervix y rostros.

vii
Abstract

The preprocessing stage is one relevant in artificial vision, due its successfully application in medicine,
industry, agriculture and other areas. In the image preprocessing stage, the most important tasks are
both, the noise reduction and the characteristics enhancement. In image processing, one of the more
relevant task is the edge extraction.

This document is about the filters implementation and evaluation one preprocessing filter and another
for edge extraction, applied to digital images. The filters are based on fuzzy logic approach. The
performance of the fuzzy edge detection filter was evaluated, and contrast with Sobel and Canny
techniques. To do this, the evaluation method used in [1] was chosen, and the results when the fuzzy
filter was applied on coffee beans, cervix cells and faces images, are present too.

viii
Antecedentes

Dentro de la literatura revisada para el desarrollo del siguiente trabajo se encontraron los siguientes
trabajos basados en técnicas difusas, los cuales fueron desarrollados al interior de la Universidad
Nacional de Colombia Sede Manizales:

Desarrollo de un toolbox de control difuso para Matlab e implementación de un controlador difuso


adaptivo, Autores: Diego Fernando Quintero López, Jose Luis Villa Ramı́rez. 1998

Implementación de control difuso para el secador de alimentos del laboratorio de procesos produc-
tivos de la sede, Autores: Jose David Casas Rendón, Fabiola Angulo. 2001

Desarrollo de un toolbox de identificación de sistemas no lineales con lógica difusa, Autores: Luis
Felipe Rı́os Cardona, Gustavo Osorio. 2000

Diseño e implementación de un controlador neurodifuso, optimizado por medio de algoritmos evo-


lutivos, Autores: Natalia Arboleda, Miguel Angel Franco, Nicolás Toro. 2003

Modelo basado en lógica difusa para la construcción de indicadores de vulnerabilidad urbana frente
a fenómenos naturales, Autores: Carlos Eduardo Garcia, Jorge Eduardo Hurtado. 2003

Podemos observar que las técnicas difusas han sido aplicadas al interior de la universidad princi-
palmente en el campo del control de procesos, es de notar que este trabajo es el primero que se
desarrolla en la Universidad Nacional de Colombia Sede Manizales en el nivel de pregrado aplican-
do técnicas difusas en el campo del procesamiento digital de imágenes.

ix
Introducción

La lógica difusa ha cobrado una gran relevancia por la variedad de áreas en las cuales es aplicada.
Estas van desde el control de complejos procesos industriales, hasta el diseño de dispositivos artifi-
ciales de deducción automática, pasando por el procesamiento digital de señales, ası́ como también
de sistemas de diagnóstico. [8]

La lógica difusa trata de crear aproximaciones matemáticas en la solución de ciertos tipos de pro-
blemas. Pretende producir resultados exactos a partir de datos imprecisos, por lo cual es particular-
mente útil en aplicaciones electrónicas o computacionales.

La aplicación de técnicas difusas en el procesamiento de imágenes, es un campo que ha mostrado


buenos resultados [4]. Las técnicas difusas han sido aplicadas en varias áreas del procesamiento de
imágenes, como son filtrado, interpolación, detección de bordes y morfologı́a, además de tener nu-
merosas aplicaciones prácticas [11] [8]. El presente trabajo está enfocado hacia la implementación
y evaluación de algoritmos basados en técnicas difusas, para el preprocesamiento de imágenes di-
gitales.

La metodologı́a de evaluación de desempeño para algoritmos detectores de borde que se utiliza es


la propuesta por Simón Baker [2], la cual se basa en medidas de colinealidad, paralelidad ó único
punto de intersección.

En el primer capı́tulo del presente documento se da una breve mirada a los principios de la lógica
difusa. En el capı́tulo dos se presentan los filtros de reducción de ruido y de detección de bordes
propuestos. El tercer capı́tulo hace referencia a las medidas de coherencia propuestas por Baker
[2]. En el capı́tulo cuatro se presentan los resultados del detector de bordes propuesto tanto sobre

x
imágenes sintéticas como sobre imagenes de café, rostros y células. Por ultimo en el capı́tulo cinco
se presentan las conclusiones derivadas de este trabajo.
Capı́tulo 1

Lógica Difusa

La lógica difusa maneja la incertidumbre presente en la estructura de un conjunto de datos. Los


elementos de un conjunto difuso son pares ordenados que indican el valor del elemento y su grado
de pertenencia.
Para un conjunto difuso, se tiene que el elemento x pertenece al conjunto A con un grado de perte-
nencia µA (x), donde µA (x) ∈ [0, 1]. Por lo tanto, una variable puede ser caracterizada por diferen-
tes valores lingüı́sticos, cada uno de los cuales representa un conjunto difuso.
Por ejemplo, la velocidad puede ser caracterizada por valores lingüı́sticos como Bajo, Medio y Alto,
que representan una velocidad aproximadamente menor que 40 km/h, una velocidad cercana a 55
km/h y una velocidad sobre 70 km/h, respectivamente. Estos términos pueden ser conjuntos difusos
con funciones de pertenencia como las mostradas en la figura 1.1.

Figura 1.1: Funciones de pertenencia para tres tipos de velocidad

Por lo tanto, si la velocidad es 45 km/h, existen grados de pertenencia 0.66, 0.33 y 0 a los conjuntos
difusos Bajo, Medio y Alto respectivamente.

1
Capı́tulo 1. Lógica Difusa

1.1 Operaciones básicas entre conjuntos difusos

Dados dos conjuntos difusos A y B ⊂ X, con funciones de pertenencia µA (x) y µB (x) respectiva-
mente, se pueden definir las siguientes operaciones básicas estándar:

– Unión. La función de pertenencia de la unión de A y B se define como:

µA∪B = max {(µA (x), µB (x))} (1.1.1)

Sin embargo esta no es la única operación posible entre conjuntos difusos para la unión, pues
una definición más precisa es la de t-conormas [3]

– Intersección. La función de pertenencia de la intersección de A y B se define como:

µA T B = min {(µA (x), µB (x))} (1.1.2)

Dada la dualidad entre la operación de unión e intersección, igual que en el ı́tem anterior, una
definición más exacta es la de t-normas [3]

– Complemento. La función de pertenencia del complemento de A se define como:

µA (x) = 1 − µA (x) (1.1.3)

– Producto Cartesiano. Dados los conjuntos difusos A1 , ..., An con universos ·X1 , ..., Xn res-
pectivamente, se define el producto cartesiano como un conjunto difuso en X1 x...xXn con la
siguiente función de pertenencia:

µA1 x...xAn (x1 , ..., xn ) = min {µA1 (x1 ), ..., µAn (xn )} (1.1.4)

µA1 x...xAn (x1 , ..., xn ) = µA1 (x1 ) · µA2 (x2 ) · · · µAn (xn ) (1.1.5)

1.2 Modelos difusos lingüı́sticos

Estos modelos se basan en un conjunto de reglas heurı́sticas donde las variables lingüı́sticas de las
entradas y salidas se representan por conjuntos difusos.
La figura 1.2 muestra las principales componentes de un modelo difuso lingüı́stico: interfaz de
fusificación, base de conocimiento, motor de inferencia e interfaz de defusificación [3].

2
Capı́tulo 1. Lógica Difusa

Figura 1.2: Componentes de un modelo difuso

– Interfaz de fusificación. Este elemento transforma las variables de entrada del modelo (u) en
variables difusas. Para esta interfaz se deben tener definidos los rangos de variación de las
variables de entrada, asi como los conjuntos difusos asociados con sus respectivas funciones
de pertenencia.

– Base de conocimientos. Contiene las reglas lingüı́sticas del control y la información referen-
te a las funciones de pertenencia de los conjuntos difusos. Estas reglas lingüı́sticas, tienen
tı́picamente la siguiente forma:

Si u1 es A y u2 es B entonces y es C

Donde A, B son los conjuntos difusos de las variables de entrada u1 y u2 , mientras C es el de


la variable de salida y. Existen varias formas de derivar las reglas [3], entre las que destacan
las basadas en:

* La experiencia de expertos y el conocimiento de ingenierı́a de control. La base de reglas


se determina a partir de entrevistas con el operador o a través del conocimiento de la
dinámica del proceso.

* La modelación del proceso. Los parámetros de la base de conocimiento se obtienen a


partir de datos de entrada y salida del proceso.

– Motor de inferencia. Realiza la tarea de calcular las variables de salida a partir de las variables
de entrada, mediante las reglas del controlador y la inferencia difusa, entregando conjuntos
difusos de salida. Por ejemplo, dada una base de conocimiento con n reglas del tipo:

3
Capı́tulo 1. Lógica Difusa

Si u1 es Ai y u2 es Bi entonces y es Ci

la secuencia de cálculos que realiza el motor de inferencia incluye:

* Determinar el grado de cumplimiento Wi de cada regla a partir de los grados de perte-


nencia de las variables de entrada obtenidos en la etapa de fusificación, es decir,

Wi = t(µAi (u1 ), µBi (u2 )) (1.2.1)

donde t representa las t-normas [18], dado que las premisas de la reglas están unidos
por operadores AND, definidos como la intersección (t-normas) de conjuntos difusos.

* Para cada regla se tiene una consecuencia y es Ci , que tiene asociado una función de
pertenencia µCi . Por lo tanto, se tiene un conjunto de salida Ci0 , cuya función de perte-
nencia es:

µC’i = min (Wi , µCi ) (1.2.2)

donde Wi es el grado de cumplimiento para la regla i. La restricción dada por la


ecuación 1.2.2 se cumple usando dos tipos de métodos para la inferencia difusa, los
cuales son Clipping y Scaling [18].

* Para evaluar el conjunto total de reglas, se unen los conjuntos difusos Ci0 resultantes de
cada regla, generándose un conjunto de salida con la siguiente función de pertenencia:
n
[
µC 0 (y) = µCi0 (y) (1.2.3)
i=1

De esta forma, se obtiene una salida difusa del controlador, con una función de perte-
nencia µC 0 .

– Interfaz de defusificación. Este elemento provee salidas discretas y determinı́sticas a partir de


los conjuntos difusos C 0 obtenidos como resultado de la inferencia.

Existen diferentes métodos de defusificación, algunos de los cuales se describen a continua-


cion:

* Método del máximo. La salida corresponde al valor para el cual la función de pertenen-
cia µC 0 alcanza su máximo.

4
Capı́tulo 1. Lógica Difusa

* Media del máximo. La salida es el promedio entre los elementos del conjunto C 0 que
tienen un grado de pertenencia máximo.

* Centro de área. Genera como salida el valor correspondiente al centro de gravedad de


la función de pertenencia del conjunto de salida C 0 .

1.2.1 Reglas Difusas Si....Entonces

Los conjuntos y los operadores difusos son los sujetos y predicados de la lógica difusa. Las reglas
Si....Entonces son usadas para formular las expresiones condicionales que abarca la lógica difusa:

Si x es A Entonces y es B

Donde A y B son los valores lingüı́sticos dados por los conjuntos definidos en los rangos de los
universos de discurso llamados X e Y , respectivamente.
La parte Si de la regla x es A es llamada el antecedente o premisa, mientras la parte Entonces de la
regla y es B es llamada la consecuencia o conclusión

5
Capı́tulo 2

Filtros Difusos para imágenes digitales

Una de las técnicas de procesamiento más utilizadas para mejorar la calidad de una imagen digi-
tal, es la aplicación de algoritmos que permitan eliminar las señales indeseadas, que por causa del
método de adquisición aparecen en la imagen. Este tipo de técnica recibe el nombre de filtrado de
imágenes, la cual es clasificada en dos grandes grupos, Filtrado Lineal y Filtrado No-Lineal [4].

En el procesamiento digital de imágenes, las técnicas que generan una matriz imagen al aplicarle un
proceso lineal a la imagen de entrada son conocidas como técnicas lineales, las cuales realizan una
combinación lineal de los pı́xeles pertenecientes a una pequeña vecindad del punto en estudio, con
una matriz bidimensional que describe el proceso aplicar: esta técnica es llamada convolución [4].
La matriz que describe el proceso lineal a aplicar, tiene como principal caracterı́stica su tamaño, el
cual depende exclusivamente de la aplicación que se quiera implantar. Dicha matriz recibe el nom-
bre ventana o máscara. La principal ventaja de los filtros lineales es que llevar a cabo el proceso
de inverso, es decir, hallar la imagen original a partir de la imagen filtrada, es inmediata usando por
ejemplo la transformación de Fourier.

Los filtros no lineales son aquellos filtros cuyo funcionamiento no puede ser modelado por una con-
volución. Mejoran en algunos casos el filtrado lineal pero no siempre son la solución. Un filtro no
lineal comúnmente usado es el de mediana, el cual sustituye cada valor de un pı́xel en la imagen,
por la mediana de los valores vecinos a él. La vecindad se determina usando una ventana que suele
ser de tamaño 3x3 o 5x5. Una ventaja del filtro de mediana es que produce una menor pérdida de
información de los bordes.

Una nueva idea que se ha desarrollado dentro del campo de filtrado de imágenes digitales, es la de los

6
Capı́tulo 2. Filtros Difusos para imágenes digitales

filtros difusos, los cuales involucran técnicas difusas para realizar el procesamiento de la imagen.
Ya varios filtros difusos han sido desarrollados, como el filtro de inferencia difusa manejado por
acción Sino [5], filtro de mediana ponderada [6], entre otros.

2.1 Filtro Difuso de reducción de Ruido

2.1.1 Introducción

Las técnicas difusas para reducción de ruido en imágenes digitales, tratan principalmente con ruido
impulsivo [5]. Estos filtros difusos funcionan mejor que los filtros de esquema de rango (tales como
los filtros de mediana), no obstante la mayorı́a de las técnicas difusas no están especı́ficamente
diseñadas para ruido gaussiano, o no producen resultados convincentes cuando son aplicadas para
tratar este tipo de ruido [5]. Para la construcción del filtro difuso se debe tener en cuenta su aspecto
principal:

* El filtro estima una derivada difusa con el fin de ser menos sensible a variaciones locales
debidas a estructuras de la imagen como son los bordes presentes en ésta.

La construcción del filtro difuso es explicada en la sección 2.1.2. Para cada pı́xel que es procesado,
se calcula en una primera etapa su derivada difusa, mientras que en la segunda etapa se elaboran 16
reglas, que determinan un término de corrección. Estas reglas hacen uso de la derivada difusa como
entrada. Los conjuntos difusos son empleados para representar las variables lingüı́sticas: Pequeño,
Positivo y Negativo.

2.1.2 Filtro Difuso

La idea general tras el filtro es la de promediar un pı́xel usando los valores de los pı́xeles del vecin-
dario, pero simultáneamente cuidando las estructuras importantes de la imagen como son sus bordes.
La principal preocupación del filtro propuesto es distinguir entre las variaciones locales a causa del
ruido y las debidas a los bordes presentes en la imagen. A fin de lograr esto, para cada pı́xel se
obtiene un valor que expresa el grado en el que la derivada en cierta dirección es pequeña. Tal valor
es obtenido para cada dirección correspondiente al vecindario del pı́xel procesado. La construcción
del filtro está basada entonces en la observación de que una pequeña derivada difusa es causada por
ruido, mientras que una gran derivada difusa es causada probablemente por un borde en la imagen.

7
Capı́tulo 2. Filtros Difusos para imágenes digitales

En consecuencia, para cada dirección debemos aplicar dos reglas difusas para tener en cuenta esta
observación (y poder distinguir entre variaciones locales de ruido y estructuras de la imagen), y esto
determina la contribución de los valores del vecindario de pı́xeles. El resultado de estas reglas es
defusificado y se obtiene un término de corrección para procesar el valor del pı́xel. En el anexo 1 se
muestra el diagrama del filtro propuesto.

Estimación de la Derivada Difusa

Estimar la derivada y filtrar puede ser el problema del huevo y la gallina, para filtrar debemos tener
buenas indicaciones de los bordes y para hallar los bordes debemos filtrar.

Figura 2.1: (a) vecindario del pı́xel central (x,y), (b) pı́xeles indicados en gris son usados para obtener la derivada
difusa del pı́xel (x,y) en la dirección NW

Considérese el vecindario de 8 vecinos (ventana 3x3) del pı́xel (x, y) como se muestra en la figu-
ra 2.1. La derivada simple del pı́xel en la posición central (x, y) y dirección D (D ∈ dir =
N W, W, SW, S, SE, E, N E, N ), se define como la diferencia entre el pı́xel (x, y) y su vecino en
la dirección D. Este valor de la derivada se denota como ∇D (x, y). Por ejemplo para el caso de las
derivadas en la dirección norte (N) o noroeste (NW), su valor se computa asi:

∇N (x, y) = I(x, y − 1) − I(x, y)


(2.1.1)
∇N W (x, y) = I(x − 1, y − 1) − I(x, y)

8
Capı́tulo 2. Filtros Difusos para imágenes digitales

La derivada difusa, denotada ∇FD (x, y) se define a partir de la combinación de 3 derivadas clásicas,
la derivada del pı́xel en proceso (x, y) y las 2 derivadas de los pı́xeles adyacentes perpendiculares a
la dirección del borde que se está evaluando.
El principio de la derivada difusa está basado en la siguiente observación. Considérese un borde
pasando por el vecindario del pı́xel (x, y) en la dirección SW-NE (ver figura 2.1.b). El valor de la
derivada ∇N W (x, y) puede ser grande, pero también los valores de la derivada de los pı́xeles del
vecindario perpendiculares a la dirección del borde se espera sean grandes. Por ejemplo en la direc-
ción NW podemos calcular los valores ∇N W (x, y), ∇N W (x − 1, y + 1), ∇N W (x + 1, y − 1) (ver
figura 2.1.b.) La idea es cancelar el efecto de un valor alto en la derivada debido al ruido, y no a un
borde en la imagen. Por consiguiente, si dos de tres derivadas son pequeñas es seguro asumir que
no hay un borde presente en la dirección considerada. Esta observación debe ser tenida en cuenta
cuando se formulan las reglas difusas para calcular la derivada difusa.

Tabla 2.1: Pı́xeles usados en el cálculo de las derivadas.

Dirección Posición Pı́xeles involucrados


NW (x − 1, y − 1) (x − 1, y + 1), (x, y), (x + 1, y − 1)
W (x − 1, y) (x, y + 1), (x, y), (x, y − 1)
SW (x − 1, y + 1) (x + 1, y + 1), (x, y), (x − 1, y − 1)
S (x, y + 1) (x + 1, y), (x, y), (x − 1, y)
SE (x + 1, y + 1) (x + 1, y − 1), (x, y), (x − 1, y + 1)
E (x + 1, y) (x+, y − 1), (x, y), (x, y + 1)
NE (x + 1, y − 1) (x − 1, y − 1), (x, y), (x + 1, y + 1)
N (x, y − 1) (x − 1, y), (x, y), (x + 1, y)

En la Tabla 2.1 se muestra los pı́xeles que se usan al calcular la derivada difusa para cada direc-
ción. Cada dirección (columna 1), corresponde a una posición fija (columna 2); los conjuntos de la
columna 3 especifican cuales pı́xeles son considerados con respecto al pı́xel central.

Para encontrar el valor que expresa el grado con el cual la derivada difusa en cierta dirección es
pequeña, debemos hacer uso del conjunto difuso pequeño. La función de pertenencia µk (u) para la

9
Capı́tulo 2. Filtros Difusos para imágenes digitales

propiedad pequeño es la siguiente. (ver figura 2.2:)

Figura 2.2: Funciones de pertenencia (a) pequeño, (b) positivo y (c) negativo

 
 1 − |u| , 0 6 |u| 6 K 
K
µK (u) = (2.1.2)
 0, |u| > K 

El valor de K se discute en el anexo 3, aunque para nuestra aplicación se tomo un K=25.


Por ejemplo, el valor de la derivada difusa ∇FN W (x, y) para el pı́xel (x, y) en la dirección NW, se

10
Capı́tulo 2. Filtros Difusos para imágenes digitales

calcula aplicando las siguiente regla:

Si(∇N W (x, y)es pequeño y ∇N W (x − 1, y + 1)es pequeño)


or
(∇N W (x, y)es pequeño y ∇N W (x + 1, y − 1)es pequeño)
or (2.1.3)
(∇N W (x − 1, y + 1)es pequeño y ∇N W (x + 1, y − 1)es pequeño)

Entonces

∇FN W (x, y)es pequeño

Se aplican 8 reglas para hallar la derivada difusa en cualquier dirección para el conjunto pequeño.
Estas reglas son implementadas usando el mı́nimo para operaciones and y el máximo para opera-
ciones or. La defusificación no es necesaria en la segunda etapa, pues se usan directamente los
grados de pertenencia de la función pequeño. La gran ventaja de utilizar la derivada difusa es la
robustez que toma a causa de las múltiples combinaciónes de derivadas simples alrededor del pı́xel
(x, y).

Suavizado difuso

Para calcular el término 4r de corrección del valor del pı́xel procesado, usamos un par de reglas
difusas para cada dirección. La idea tras éstas reglas es la siguiente: si se asume que no hay borde
presente en cierta dirección, el valor de la derivada en esa dirección puede, y debe ser usada, para
calcular el término 4r de corrección. La primera parte (presunción de bordes), puede realizarse
usando el valor de la derivada difusa. Para la segunda parte (filtrado), se debe distinguir entre los
valores positivos y negativos. Por ejemplo si consideramos la dirección N W , usando los valores
∇FN W (x, y) y ∇N W (x, y) podemos lanzar el siguiente par de reglas y calcular su certeza λ+
NW y

λ−
NW .

λ+ F
N W : Si ∇N W (x, y) es pequeño y ∇N W (x, y) es positivo

Entonces c es positivo
λ−
NW : Si ∇FN W (x, y) es pequeño y ∇N W (x, y) es negativo
Entonces c es positivo

11
Capı́tulo 2. Filtros Difusos para imágenes digitales

donde c es la función de pertenencia positivo o negativo, la cual se usa para determinar el término
de corrección.

La obtención del valor numérico de λ+
N W o λN W se realiza mediante de defusificación sobre las

funciones de pertenencia positivo y negativo, la entrada es el valor del gradiente normalizado en


cada dirección y la salida es un valor entre 0 y L. Donde L representa el número de niveles de gris.

Para las propiedades positivo y negativo también se usan funciones de pertenencia lineales (ver figu-
ra 2.2.b, 2.2.c). De nuevo se implementan basándose en operadores and y or, usando el mı́nimo y
máximo respectivamente. Esto debe hacerse para cada dirección.

El proceso final en el cálculo del filtro difuso es la defusificación. El termino ∆r de correccion



puede ser sumado al valor del pı́xel (x, y) en tratamiento. La certeza de las reglas λ+
N W y λN W , D

∈ dir (para todas las direcciones), se usa para calcular y reescalar la certeza media como sigue:

L X −
∆r = (λ+
D − λD ) (2.1.4)
8
D∈dir

Donde dir contiene las direcciones y L representa el número de niveles de gris. Puede observarse
que cada dirección contribuye al termino ∆r de corrección.

2.2 Detector de Bordes Difuso

2.2.1 Introducción

Los bordes en una imagen se definen como sitios donde hay una variación significante en los nive-
les de gris en alguna dirección [8]. La detección de bordes es la más común aproximación para la
detección de discontinuidades significativas en niveles de gris [9]. Los algoritmos de detección de
bordes localizan y acentúan bordes. El principal propósito de detectar bordes es la segmentación
de escenas para la identificación de objetos en una imagen. Un segundo propósito es la conversión
de una imagen en escala de grises a una en blanco y negro. La delineación de bordes es usada en
medicina, vigilancia, análisis de muestras, y, en general para extraer las principales componentes
geométricas presentes en la escena.

12
Capı́tulo 2. Filtros Difusos para imágenes digitales

Existen diferentes estrategias para detectar bordes como lo son Sobel, el cual usa una mascara de
3x3 al igual que Prewit. También existen otros filtros como el Laplaciano del Gaussiano, los filtros
basados en el momento, los operadores de Shen y Castan, los operadores de Canny y Deriche. Al-
gunos problemas comunes de todos estos son la sensibilidad al ruido, el alto costo computacional y
la no isotropı́a [8].

Los beneficios de emplear un clasificador difuso para la detección de bordes son que requieren un
bajo costo computacional, tienen baja sensibilidad al ruido, son isotrópicos, es decir que su compor-
tamiento es el mismo sin importar en que dirección se encuentre el borde, y de fácil modelado [8]..

El clasificador difuso propuesto, opera sobre un conjunto de 4 caracterı́sticas extraı́das de un vecin-


dario de 3x3 para cada pı́xel. El paradigma es simple, computacionalmente eficiente y es isotrópico.
Cada pı́xel en la imagen es mapeado a blanco o negro. El detector de bordes basado en el clasifi-
cador difuso produce lı́neas blancas sobre un fondo negro.

2.2.2 Metodologı́a

Para el vecindario de 3x3 del pı́xel central p5, definimos cuatro direcciones: horizontal, vertical
y dos diagonales. La diferencia de magnitudes de niveles de gris entre p5 y todos sus vecinos se
designa por X1, X2, X3 y X4 y se calculan como sigue:

X1 = |p1 − p5| + |p9 − p5|


X2 = |p2 − p5| + |p8 − p5|
(2.2.1)
X3 = |p3 − p5| + |p7 − p5|
X4 = |p4 − p5| + |p6 − p5|
donde |pi − pj| representa el valor absoluto de la diferencia de intensidades de gris.

La figura 2.3 muestra el vecindario de 3x3 y las direcciones mencionadas arriba.


Se diferencian en este modelo cuatro clases de bordes y una clase no borde. Cada clase repre-
senta un par de bordes tı́picos, los cuales comparten el mismo vector de caracterı́sticas c. c es
4-dimensional y asumido por X1, X2, X3 and X4. Los bordes representados por cada clase y su
vector de caracterı́sticas son mostrados en la figura 2.4

13
Capı́tulo 2. Filtros Difusos para imágenes digitales

Figura 2.3: vecindario 3x3 y direcciones de bordes

Figura 2.4: Clases de bordes

Los vectores de caracterı́sticas están dados de la siguiente forma:

Clase Blanca : c0 ={ L, L, L, L}
Borde tipo 1 : c1 ={ L, H, H, H}
Borde tipo 2 : c2 ={ H, L, H, H}
Borde tipo 3 : c3 ={ H, H, L, H}
Borde tipo 4 : c4 ={ H, H, H, L}

14
Capı́tulo 2. Filtros Difusos para imágenes digitales

En la práctica el valor de L es cero y el valor de H debe ser introducido por el usuario de acuerdo
con las caracterı́sticas de cada imagen.

Un clasificador difuso es un sistema que acepta vectores de caracterı́sticas o verdades difusas para
caracterı́sticas pertenecientes a conjuntos difusos. La salida proporciona la clase a la cual pertenece
ese vector de caracterı́sticas o esa verdad difusa. Usualmente, los componentes de salida individua-
les son verdades difusas y estas indican a que clase corresponde la salida.

La figura 2.5 muestra el clasificador difuso empleado en el detector de bordes

Figura 2.5: Clasificador difuso competitivo

En el espacio de caracterı́sticas 4-dimensional, se definen las funciones de pertenencia difusas para


las cinco clases de borde usando las funciones de Epanechnikov [20], de la siguiente manera:

Clase Blanca : Max {0, 1 − kX − c0 k2 /β}


Borde tipo 1 : Max {0, 1 − kX − c1 k2 /β}
Borde tipo 2 : Max {0, 1 − kX − c2 k2 /β}

15
Capı́tulo 2. Filtros Difusos para imágenes digitales

Borde tipo 3 : Max {0, 1 − kX − c3 k2 /β}


Borde tipo 4 : Max {0, 1 − kX − c4 k2 /β}
Donde X es un vector formado por X1, X2, X3 y X4, los cuales se definen en la ecuación 2.2.1,
β es un factor de escala, cuyo valor es tomado de forma empı́rica, en este caso β se toma como un
factor de normalización por lo cual β = 2562 , tomado de [7] y kX − µj k2 representa la distancia
Euclidiana desde el vector de caracterı́sticas de entrada hasta cada una de las funciones que repre-
sentan los tipos de bordes.

El máximo valor de verdad de los cinco conjuntos de pertenencia es el ganador, y este determina
la clase de cada pı́xel. Antes de que cada pı́xel sea cambiado a blanco o negro en la imagen de
salida, ocurre una competencia entre los tipos de bordes mostrados arriba, para determinar en que
dirección aparece el borde. Esto si el pı́xel va ha ser parte de los bordes, sino el pı́xel hace parte del
fondo. Las reglas de competencia son las siguientes:

Si clase Blanca gana: cambiar el pı́xel a blanco.

Si borde tipo 1 gana: Compite X3 con los pı́xeles del vecindario en la dirección 3. Si gana, cambiar
el pı́xel a negro, sino cambiar a blanco.

Si borde tipo 2 gana: Compite X4 con los pı́xeles del vecindario en la dirección 4. Si gana, cambiar
el pı́xel a negro, sino cambiar a blanco.

Si borde tipo 3 gana: Compite X1 con los pı́xeles del vecindario en la dirección 1. Si gana, cambiar
el pı́xel a negro, sino cambiar a blanco.

Si borde tipo 4 gana: Compite X2 con los pı́xeles del vecindario en la dirección 2. Si gana, cambiar
el pı́xel a negro, sino cambiar a blanco.

Donde X1, X2, X3 y X4, se definen en la ecuación 2.2.1.

16
Capı́tulo 2. Filtros Difusos para imágenes digitales

2.3 Umbralización basada en medida de ambigüedad

Los métodos clásicos de umbralización no tienen un óptimo funcionamiento para histogramas mul-
timodales [15]. Debido a ésto se propone una aproximación para umbralizar el histograma, de
acuerdo con la similaridad entre los umbrales posibles. Dicha similaridad es evaluada a través de
una medida de ambigüedad (en inglés Measure of Fuzzyness).

El problema que debe ser resuelto es encontrar el umbral óptimo para hallar el valor H (alto), del
detector de bordes difuso expuesto anteriormente y ası́ hallar los bordes óptimamente en una imagen
digital. El objetivo de usar la medida de ambigüedad es encontrar automáticamente dicho umbral.

2.3.1 Cálculo de la medida de ambigüedad

Para utilizar el ı́ndice de ambigüedad IF (en inglés Index of Fuzzyness) introducido por Kaufmann
[17], podemos determinar cuan compacto es el conjunto A comparado con el conjunto clásico más
cercano A. Este último conjunto tiene la siguiente función de pertenencia.

 
 0, si µ (x ) < 0.5 
A i
µA (xi ) = (2.3.1)
 1, si µ (x ) ≥ 0.5 
A i

En la definición de Kaufmann este ı́ndice es definido midiendo la distancia entre A y A. Dicho


ı́ndice se define como:

2
ψk (A) = d (A, A) (2.3.2)
1/ k
n k

Donde dk (A, A) es una medida de distancia y n es el número de elementos en A. Dicha distancia


se obteniene de acuerdo a la siguiente ecuación:

!1/
2
n k
(µA (xi ) − µA (xi )k k
X 
dk (A, A) = (2.3.3)
1
(n) /k i=1

17
Capı́tulo 2. Filtros Difusos para imágenes digitales

Para nuestro propósito usamos la ecuación 2.3.3 con k = 1, el cual denota el ı́ndice de ambigüedad
lineal [17]. Para esta aplicación se usa el concepto de similaridad. Si un conjunto difuso tiene una
medida de ambigüedad baja, indica que sus elementos son muy similares. Es decir, existe una baja
ambigüedad entre ellos. La medida IF de un conjunto difuso A, el cual contiene n puntos, refleja el
nivel de ambigüedad en este.

2.3.2 Método propuesto

Para la aplicación del método propuesto se asumen las siguientes caracterı́sticas:

- Existe un contraste significativo entre los pı́xeles pertenecientes a los bordes y los que no
pertenecen a los bordes.

- Los posibles umbrales comforman el universo de discurso, un conjunto unidimensional, el


cual denotaremos X.

El propósito es hallar el umbral óptimo dividiendo el histograma del gradiente de la imagen en dos
conjuntos clásicos, el conjunto O que contiene los pı́xeles pertenecientes a los bordes y el conjunto
F el cual contiene los pı́xeles no pertenecientes a los bordes, usando la medida de ambigüedad pre-
viamente definida.

Se definen dos variables lingüı́sticas borde, no borde, modeladas por dos conjuntos difusos del uni-
verso X, denotados por B y W respectivamente. Los conjuntos difusos B y W son asociados con
intervalos de los posibles umbrales [xmin , xj ] y [xr , xmax ], donde xj y xr son los umbrales lı́mite
inicial y final para estos subconjuntos, y xmin , xmax son el menor y mayor umbral posible en la
imagen.

Para obtener el umbral óptimo debemos clasificar cada uno de los posibles umbrales dentro de las
regiones existentes borde, no borde. El procedimiento de clasificación es el siguiente: añadimos
el umbral que estamos procesando xi , a uno de los dos subconjuntos B ó W dependiendo de la
medida del IF, es decir agregamos xi al conjunto con más pequeño IF, ya que este tiene la máxima

18
Capı́tulo 2. Filtros Difusos para imágenes digitales

similaridad.

Finalmente, aplicamos este procedimiento para todos los posibles umbrales de la región difusa, y
los clasificamos dentro de uno de los dos conjuntos difusos borde, no borde. En otra palabras,
observamos como la introducción de un umbral afecta la medida de similaridad en cada uno de los
conjuntos difusos, y el umbral en proceso xi se adhiere al conjunto cuya similaridad sea máxima,
es decir cuyo IF sea menor.

Los subconjuntos W y B, pueden ser modelados por una función S y una función Z respectiva-
mente. Los parámetros de estas funciones son los siguientes:
q
P
xi h(xi )
i=p
b= q (2.3.4)
P
h(xi )
i=p

c = b + max {|b − (xi )max | ; |b − (xi )min |} ; p ≤ i ≤ q (2.3.5)

a = 2b − c (2.3.6)

Donde h(xi ) denota el histograma de los posibles umbrales y xp , xq son los lı́mites del subconjunto
en consideración. Las cantidades (xi )max y (xi )min en la ecuación 2.3.5, representan el máximo y
mı́nimo umbral en el conjunto actual para el cual h((xi )max ) 6= 0 y h((xi )min ) 6= 0.

El umbral óptimo determinado está dado por la intersección de las funciones S y Z después de
analizar y adherir a ellas todos los umbrales posibles.

19
Capı́tulo 3

Medidas Globales de Coherencia para la


Evaluación de Detectores de Bordes

Dentro de la literatura referente a evaluación del desempeño de algoritmos detectores de bordes


se encuentran diversas técnicas, las cuales se basan en diferentes caracterı́sticas de las imágenes y
de la visión humana. Por ejemplo, Cho [12] propuso usar una técnica estadı́stica conocida como
bootstrap. Heath [14], usando la habilidad humana para reconocer la escena del mapa de bordes.
Shin [13], usó el desempeño de una estructura basada en bordes para algoritmos de movimiento.
Doughtery y Bowyer [10], usaron imágenes marcadas a mano. Steeger [16], estudió la localización
de sub-pı́xeles en una tarea de inspección industrial.

Un aspecto importante que no es tratado por ninguna de estas aproximaciones es como muestrear
el espacio de aparición de bordes a fondo. El desempeño de la mayorı́a de detectores de bordes es
altamente dependiente de la dirección de vista, las condiciones de iluminación, caracterı́sticas de la
cámara, y propiedades fı́sicas de la escena. El trabajo de Baker [2] emplea una técnica que propone
un conjunto de estándares de comparación para evaluación de detectores de bordes, que permita
realizar las tareas que se listan a continuación:

1. Promedio sobre un amplio rango de condiciones de adquisición de imágenes.

2. Comparación del desempeño a través de condiciones diferentes.

Cada uno de estos estándares de comparación está basado en una restricción sobre los bordes pre-
sentes en la escena, por ejemplo, su colinealidad. Después de aplicar el detector de bordes, se estima
y usa el grado para el cual la restricción se mantiene en el mapeo de los bordes de salida como una
medida de desempeño. Para la restricción de colinealidad mencionada anteriormente, la medida de

20
Capı́tulo 3. Medidas Globales de Coherencia para la Evaluación de Detectores de
Bordes

desempeño es una medida de la magnitud para la cual los bordes detectados son colineales. Dado
que los estándares de comparación son funciones de cuan bien son detectados los bordes de manera
satisfactoria en algunas escenas restringidas, Simon Baker se refiere a estas como Medidas Globales
de Coherencia [2].

Para muestrear ampliamente el espacio de apariciones de bordes, se construye cuidadosamente una


escena para la cual se mantengan las restricciones apropiadas. Se usan entonces robots para capturar
un gran número de imágenes, variando independientemente la dirección de la vista, las condiciones
de iluminación y los parámetros de la cámara. Para construir escenas similares de diferentes ma-
teriales, se pueden variar las propiedades de forma como la redondez de la superficie normal a los
bordes discontinuos. De otro lado, esta aproximación no requiere segmentación a mano.

Figura 3.1: Regiones cortadas de las tres restricciones: (a) todos los bordes son colineales, (b)todos los bordes in-
tersectan un único punto, (c) todos los bordes son paralelos en la escena. Estas restricciones soportan la verdad sin
relacionarse a la adquisición y las condiciones de iluminación.

En este capı́tulo, serán descritas tres medidas diferentes. Cada medida es obtenida de una restric-
ción sobre el borde en la escena. Las tres restricciones son mostradas en la figura 3.1: en (a) todos
los bordes son colineales, en (b) todos los bordes se intersectan en un único punto, en (c) todos los
bordes son paralelos en la escena. Nótese que existe un número de variantes de estas medidas. Se

21
Capı́tulo 3. Medidas Globales de Coherencia para la Evaluación de Detectores de
Bordes

menciona una combinación que no requiere el conocimiento de la orientación de los bordes, y por
otro lado no se discuten múltiples alternativas.

Figura 3.2: Entradas para calcular las medidas globales de Coherencia.

Como entrada para calcular las medidas, se asume que cada detector de bordes produce un número
n fijo de pı́xeles de bordes:

E = {ei = (xi , yi , Θi ) / i = 1, ..., n} (3.0.1)

Se asume que el i-ésimo borde ei = (xi , yi , θi ) pasa a través del punto (xi , yi ) en la imagen, y la
normal a este borde forma un ángulo θi con el eje y positivo, como se ve en la figura 3.2

3.1 Todos los Bordes son Colineales

La primera restricción es que todos los bordes sean colineales. Una escena puede ser construida por
la ubicación de un objeto poligonal convexo con refractancia uniforme, frente de un fondo comple-
tamente negro. Si una imagen de tal escena se corta con el fin que solamente un fondo o superficie
discontinuamente normal sea visible, todos los bordes deberán ser colineales. Ver figura 3.1(a) para
una imagen de ejemplo de tal escena.

Para esta primera medida de coherencia se tienen dos variantes. La primera de estas tiene en cuenta
el ángulo θi , mientras que la segunda variante puede estimarse sin usar el ángulo θi [1].

22
Capı́tulo 3. Medidas Globales de Coherencia para la Evaluación de Detectores de
Bordes

3.2 Todos los Bordes se Intersectan en un Solo Punto

La segunda restricción es que todos los bordes se intersectan en un solo punto. Si una imagen de
una escena es cortada haciendo que solamente el vecindario de uno de los vértices sea visible, todos
los bordes deberán intersectar al vértice de la imagen. (Ver figura 3.1(b) para una imagen ejemplo
de tal escena). Esta medida dice principalmente que dados dos o más bordes que no sean paralelos,
es posible estimar el punto en el cual ellos se intersectan [1].

3.3 Todos los Bordes son Paralelos

La tercera restricción es que todos los bordes son paralelos en la escena (ver figura 3.1(c)). A di-
ferencia de las dos restricciones previas, los bordes paralelos en la escena no siempre se mantienen
paralelos en la imagen, a causa de los efectos de escorzo en la perspectiva. Además si la cámara es
lineal, los bordes paralelos en la escena son proyectados sobre bordes que se intersectan en un solo
punto en la imagen, llamado el punto de fuga [1].

3.4 Cálculo de las Medidas Globales de Coherencia

3.4.1 Comparación de los detectores a través de los parámetros

Muchos detectores de bordes tienen varios parámetros o umbrales que deben ser determinados. Por
ejemplo, los detectores basados en el gradiente usualmente umbralizan en la magnitud del gradiente.
Ya que, el valor de cualquier desempeño métrico dependerá de estos parámetros, comparar los
detectores independientemente de sus parámetros de escena requerirá de algunos esfuerzos. En
el caso más simple, hay solamente un parámetro. Como este parámetro es variado, se detecta un
mayor o menor número de bordes, y la medida global de coherencia cambiará. Usualmente, a
mayor número de bordes detectados, menos eficiente será la medida. Ası́, por la variación de los
parámetros, una curva puede graficarse a partir del número de bordes detectados contra la medida
global de coherencia. Dos detectores pueden ser comparados con estas curvas. La curva que se
acerca a la abscisa tiene un mejor desempeño. (Ver la Figura 3.3).

23
Capı́tulo 3. Medidas Globales de Coherencia para la Evaluación de Detectores de
Bordes

Figura 3.3: Tercera medida global de coherencia contra el número de bordes para diversos detectores.

3.4.2 Muestreo del Espacio de Aparición de Bordes

La aparición de un borde depende tanto de las condiciones de la imagen como de las propiedades
fı́sicas de la escena. Hay varios aspectos para cada una de estas variables:

• La posición del objeto

• Las condiciones de iluminación

• Las caracterı́sticas de la cámara: Acercamiento, abertura y foco.

• Las propiedades de reflectancia de los objetos.

• El tipo de discontinuidad: Profundidad o superficie normal

• La redondez de los bordes.

En la base de datos utilizada para este trabajo, alguna o todas de estas propiedades pueden variar
independientemente. La posición y la dirección de la iluminación varı́an usando robots y platafor-

24
Capı́tulo 3. Medidas Globales de Coherencia para la Evaluación de Detectores de
Bordes

mas giratorias. Los parámetros de la cámara fueron cambiados a mano. Los objetos son elaborados
con tres propiedades diferentes de superficie, una aproximación Lambertiana, una pintura metálica
difusa, y una plástica brillante. El tipo de discontinuidad varı́a cortando diferentes partes de las
imágenes. Finalmente, para cada tipo de propiedad de reflectancia fueron creados múltiples obje-
tos, cada uno con bordes que tienen diferentes radios de curvatura [2].

25
Capı́tulo 4

Resultados

En el presente capı́tulo se presentan los resultados obtenidos al evaluar los algoritmos implemen-
tados en este trabajo, descritos en el capı́tulo 2. Los algoritmos descritos en este trabajo fueron
implementados sobre MATLAB V 6.1T M , utilizando un PC con procesador AMD Athlon(tm) -
1.33 Ghz con 256 MB de memoria RAM DDR.

4.1 Comparación de detectores de bordes sobre imágenes sintéticas

Para hacer la comparación del algoritmo detector de bordes basado en lógica difusa contra los de-
tectores de bordes de Sobel y Canny, se utilizó una base de datos diseñada con las restricciones de
bordes enunciadas anteriormente [19]. Esta base datos consta de seis benchmarks o estándares de
comparación, los cuales se describen a continuación:

Benchmark 1: Está conformado por 150 imágenes, donde todos los bordes en la escena son coli-
neales y el contraste entre los dos elementos presentes es muy bajo.

Benchmark 2: Está conformado por 185 imágenes, donde todos los bordes en la escena son coli-
neales y el contraste entre los dos elementos presentes es medio.

Benchmark 3: Está conformado por 126 imágenes, donde todos los bordes en la escena son coli-
neales y el contraste entre los dos elementos presentes en la imagen es muy alto.

Benchmark 4: Está conformado por 150 imágenes, donde los bordes en la escena se intersectan en
un solo punto de izquierda a derecha y viceversa. El contraste entre los dos elementos en la imagen

26
Capı́tulo 4. Resultados

es alto.

Benchmark 5: Está conformado por 150 imágenes, donde los bordes en la escena se intersectan en
un solo punto de arriba a abajo y viceversa. El contraste entre los dos elementos en la imagen es alto.

Benchmark 6: Está conformado por 75 imágenes, donde todos los bordes en la escena son paralelos
y el contraste entre los dos elementos en la imagen es alto.

Para la evaluación de los Algoritmos Detectores de Bordes sobre todo un banco de imágenes se
utilizó la media, la cual representa el desempeño medio del detector. Esta medida fue aplicada al
conjunto completo de imágenes, para evaluar todos los detectores. También se utilizó la varianza σ,
para dar una idea de la confiabilidad de dicha medida.

1.2 gmc1v1−sobel
gmc1v1−fuzzy
gmc1v1−canny

1
Primera Medida Global de Coherencia con theta

0.8

0.6

0.4

0.2

0
0 10 20 30 40 50 60 70 80 90 100
Número de bordes

Figura 4.1: Primera medida global de coherencia con θ para los detectores de bordes. σf uzzy = 2.2x10−4 , σsobel =
5.2x10−5 , σcanny = 4.5x10−6

Se presentan las gráficas de desempeño promedio para todos los detectores con la base de datos
completa. En las figuras 4.1 y 4.2 se pueden observar las gráficas de desempeño para los tres de-
tectores de bordes evaluados. Se incluye en estas el valor de la varianza σ, para dar una idea de la
confiabilidad, podemos observar que el valor de más alto de sigma lo tiene el detector difuso lo que
indica que este valor es más variable que los obtenidos con los otros detectores, este valor se incluye

27
Capı́tulo 4. Resultados

gmc1v2−sobel
0.7 gmc1v2−fuzzy
gmc1v2−canny

Primera Medida Global de Coherencia sin theta


0.6

0.5

0.4

0.3

0.2

0.1

0
0 10 20 30 40 50 60 70 80 90 100
Número de bordes

Figura 4.2: Primera medida global de coherencia sin θ para los detectores de bordes. σf uzzy = 5.1x10−4 , σsobel =
4.2x10−5 , σcanny = 1.2x10−5

también en las gráficas de desempeño para la segunda y tercera medida global de coherencia. Puede
notarse que el detector difuso propuesto no tiene un desempeño óptimo, debido a que enfatiza mu-
cho los bordes detectados, por lo cual los bordes en la mayorı́a de los casos se presentan dobles
o triples (es decir los bordes se presentan de más de un pı́xel de espesor). Esto es un problema
al calcular las medidas de coherencia, ya que los bordes detectados presentan información errónea
acerca del ángulo y la orientación.

En la figura 4.3 se puede observar que el detector difuso es el que peor desempeño muestra, dado
que la segunda medida global de coherencia indica si los bordes detectados se intersectan en un solo
punto, y debido a que el detector propuesto obtiene los bordes dobles o triples, la medida de este
parámetro es muy deficiente. Notamos además como el valor de la varianza para el detector difuso
es alto comparado con los valores de varianza obtenidos para Canny y Sobel, lo cual indica una baja
confiabilidad en la medida en comparación con los demás detectores

Para la tercera medida global de coherencia el detector difuso se comportó de una manera aceptable.
Su desempeño fue mejor que el del detector de Sobel, pero fue superado por el detector de Canny. El
desempeño en esta medida mejoró pues esta determina que tan paralelas son las lı́neas en una escena,

28
Capı́tulo 4. Resultados

0.3 gmc2−sobel
gmc2−fuzzy
gmc2−canny

0.25

Segunda Medida Global de Coherencia 0.2

0.15

0.1

0.05

0
0 10 20 30 40 50 60 70 80 90 100
Número de bordes

Figura 4.3: Segunda medida global de coherencia para los detectores de bordes. σf uzzy = 4.6x10−3 , σsobel =
1.2x10−6 , σcanny = 2.6x10−7

y para esto no importa si los bordes están o no dobles. En la figura 4.4 se muestra el desempeño de
los detectores para la tercera medida global de coherencia. Para esta medida se obtuvo una varianza
pequeña para los tres detectores de bordes, lo cual nos da una idea de una buena confiabilidad.
−3
x 10
7 gmc3−sobel
gmc3−fuzzy
gmc3−canny

6
Tercera Medida Global de Coherencia

0
0 10 20 30 40 50 60 70 80 90 100
Número de bordes

Figura 4.4: Tercera medida global de coherencia para los detectores de bordes. σf uzzy = 9.1x10−7 , σsobel =
1.5x10−7 , σcanny = 1.3x10−7

29
Capı́tulo 4. Resultados

4.2 Comparación de detectores de bordes sobre imágenes de café, ros-


tros y células

Los descriptores de desempeño utilizados son: Verdadera Aceptación, Verdadero Rechazo, Falsa
Aceptación y Falso Rechazo. Estos descriptores utilizan la imagen de bordes dada por el detector
difuso, y la comparan contra los bordes dados por un humano.

La Verdadera Aceptación (V.A.), indica qué porcentaje de la región fue segmentada acertadamente
por el detector de bordes. Su valor oscila entre 0% - 100%, siendo este último el valor ideal.

El Verdadero Rechazo (V.R.), indica qué porcentaje de los pı́xeles que no pertenecen a la estructura
que se desea segmentar, fueron rechazados por el detector. Su valor está entre 0% - 100%, siendo el
de 100% el valor ideal.

La Falsa Aceptación (F.A.), indica qué porcentaje de los pı́xeles que no pertenecen a la estructura,
fueron clasificados como tal. Su valor es tomado en relación al tamaño de la región ideal, por lo
cual su valor puede ser:

1. Entre 0% - 100%. Por ejemplo para el caso de 30%, quiere decir que se han aceptado falsamente
pı́xeles que representan el 30% de la región real, segmentada por un humano.

2. Mayor a 100%. Para el caso de 200%, por ejemplo, significa que fueron aceptados falsamente,
pı́xeles que representan el doble del tamaño de la región real. Su valor ideal es de 0%.

El Falso Rechazo (F.R.), indica qué porcentaje de los pı́xeles que pertenecen a la estructura fueron
rechazados por el detector de bordes. Su valor oscila entre 0% - 100% , siendo el de 0% el ideal.

4.2.1 Resultados obtenidos sobre imágenes de café

Los resultados obtenidos con el detector de bordes difuso sobre las imágenes de café sin filtrar se
relacionan en la tabla 4.1. En la tabla 4.3 se presentan los resultados obtenidos sobre las imágenes
a las cuales previamente se les ha aplicado el filtro de reducción de ruido propuesto en la sección

30
Capı́tulo 4. Resultados

2.1. En la figura 4.5 se muestra el resultado obtenido al aplicarle los diferentes detectores de bordes
a una imagen de café.

Figura 4.5: Imágenes obtenidas con los detectores de bordes a:Imagen Original b:Detector difuso c:Detector de Sobel
d:Detector de Canny.

Los resultados obtenidos para la base de datos de imágenes de café, la cual consta de 25 imágenes
de laboratorio, tomadas en condiciones controladas y en las cuales se incluyen granos y partes del
tallo, fue satisfactorio, pues el desempeño obtenido superó los detectores de Canny y Sobel respec-
to del descriptor de verdadera Aceptación (ver tablas 4.1 y 4.3). En la figura 4.5 se aprecia que el
detector difuso tiene un buen desempeño sobre la imagen, pues omite menos bordes que el detector
de Sobel y deja la imagen de bordes más clara, comparada con la obtenida con el detector de Canny,
(ver recuadro en la imagen).

31
Capı́tulo 4. Resultados

Tabla 4.1: Desempeño del detector de bordes con umbral manual sobre imágenes de café sin filtrar.
Umbral % V. A. % V. R. % F. A. % F. R.
20 67.20 82.52 501.83 32.80
25 59.24 87.15 341.51 40.76
30 53.00 89.79 250.40 47.00
35 47.38 91.41 194.60 52.62

Tabla 4.2: Varianza de los descriptores sobre imágenes de café sin filtrar.

Umbral σV.A. σV.R. σF.A. σF.R.


20 17.84 3.98 140.84 17.84
25 18.01 3.22 111.79 18.01
30 18.40 2.65 91.73 18.40
35 18.20 2.07 74.84 18.20

En las tablas 4.1 y 4.3 los umbrales corresponden al valor H del algoritmo detector de bordes (ver
sección 2.3), el cual fue determinado de forma manual a priori, de acuerdo a las caracterı́sticas de la
imagen. Puede observarse en ambas tablas la misma tendencia: A medida que el umbral disminuye
los porcentajes de Verdadera Aceptación y Falsa Aceptación aumentan, mientras que los de Ver-
dadero Rechazo y Falso Rechazo disminuyen, esto porque a mayor umbral el detector reconoce en
mayor grado los bordes en la imagen, pero también reconoce demasiados pı́xeles que no pertenecen
a los bordes. Los valores de la varianza para los descriptores de la tabla 4.1 se presentan en la tabla
4.2 y para la tabla 4.3 en la tabla 4.4. A partir de los valores de σx se puede tener una idea de la
confiabilidad de las medidas de los descriptores, en cuanto menor sea el valor de σ mayor es la
confiabilidad de la medida.

También se implementó un algoritmo para detectar el umbral óptimo de forma automática, basado
en la medida de ambigüedad (ver sección 2.3). En la tabla 4.5 se muestran los resultados obtenidos
con dicho umbral. Con respecto al filtro de reducción de ruido podemos decir que tiene un de-

32
Capı́tulo 4. Resultados

Tabla 4.3: Desempeño del detector de bordes con umbral manual sobre imágenes de café filtradas.

Umbral % V. A. % V. R. % F. A. % F. R.
20 60.33 88.85 278.29 39.67
25 53.13 91.05 204.89 46.87
30 47.48 92.37 160.66 52.52
35 42.88 93.22 131.95 57.12

Tabla 4.4: Varianza de los descriptores sobre imágenes de café filtradas.

Umbral σV.A. σV.R. σF.A. σF.R.


20 18.29 3.12 86.72 18.29
25 18.77 2.63 69.74 17.77
30 18.85 1.94 59.70 18.85
35 18.72 1.66 51.77 18.72

sempeño bueno ante el ruido impulsivo, pues elimina este en gran parte y preserva los bordes de
manera adecuada. El valor de K utilizado (k = 25), se determinó experimentalmente después de
realizar pruebas con diferentes valores y posteriormente obtener los bordes de las imágenes filtradas
(ver anexo 3. Este parámetro de dejó igual para todas las bases de datos (café, rostros, células).

Tabla 4.5: Desempeño del detector de bordes con umbral basado en medida de ambigüedad sobre
imágenes de café.
% V. A. % V. R. % F. A. % F. R.
37.42 95.43 135.38 62.58

Tabla 4.6: Varianza de los descriptores sobre imágenes de café con umbral basado en medida de
ambigüedad.
σV.A. σV.R. σF.A. σF.R.
24.38 8.46 90.46 24.38

33
Capı́tulo 4. Resultados

En las tablas de desempeño del detector difuso podemos notar una fuerte relación entre el por-
centaje de bordes detectados correctamente y el umbral H utilizado. Esto nos indica que el umbral
escogido es un factor determinante para el desempeño óptimo del filtro. Debido a esto se intentó
automatizar el valor de H. Primero se probó el método de umbralización por máxima entropı́a, el
cual no arrojó resultados favorables. Como segunda opción se implementó el método de umbrali-
zacion basado en la medida de ambigüedad, aunque tampoco tuvo un resultado bueno comparados
con los obtenidos con el umbral manual, y sus resultados fueron mejores que los del primer método
planteado. Podemos notar también que los valores de σ para los diferentes descriptores utilizando
el umbral automático (ver tabla 4.6) son mayores a los obtenidos usando umbral manual, lo cual
nos sugiere una confiabilidad mas baja.

En las tablas 4.7 y 4.9 se muestra el desempeño de los de detectores de Sobel y Canny sobre
imágenes de café respectivamente.

Tabla 4.7: Desempeño del detector de bordes Sobel sobre imágenes de café.

% V. A. % V. R. % F. A. % F. R.
28.12 95.66 49.91 71.88

Tabla 4.8: Varianza de los descriptores sobre imágenes de café con detector de Sobel.

σV.A. σV.R. σF.A. σF.R.


15.72 1.80 25.84 15.72

Tabla 4.9: Desempeño del detector de bordes Canny sobre imágenes de café.

% V. A. % V. R. % F. A. % F. R.
33.67 92.06 173.96 66.33

Al comparar el desempeño del filtro difuso con los detectores de Canny y Sobel notamos que tu-
vo un comportamiento bueno, pues superó a ambos en el porcentaje de Verdadera Aceptación, a

34
Capı́tulo 4. Resultados

Tabla 4.10: Varianza de los descriptores sobre imágenes de café con detector de Canny.

σV.A. σV.R. σF.A. σF.R.


13.47 1.39 51.02 13.47

la vez que tiene un porcentaje de falsa aceptación similar al detector de Canny (para valores de
H=30, H=35), aunque debe tenerse en cuenta que los descriptores utilizados son subjetivos, ya que
dependen de la segmentación manual de las imágenes, la cual debe ser hecha por un experto. En
las tablas 4.8 y 4.10, se muestran los valores de la varianza para los detectores de Sobel y Canny
respectivamente. Es de notar que los indices de varianza para el detector de Sobel son un poco más
bajos que los obtenidos con el detector difuso, lo cual nos sugiere una mayor confiabilidad para este
detector.

4.2.2 Resultados obtenidos sobre imágenes de rostros

Los resultados obtenidos con el detector de bordes difuso sobre las imágenes de rostros sin filtrar y
filtradas se relacionan en las tablas 4.11 y 4.15, respectivamente.
La figura 4.6 muestra las imágenes obtenidas después de aplicar los detectores de bordes a la ima-
gen de un rostro. Se puede notar que el detector difuso propuesto tiene un buen desempeño sobre
este tipo de imágenes, aunque presenta el problema de la acentuación de los bordes (duplicación de
éstos), y por ello aparecen bordes dobles (ver recuadro en la imagen 4.6). El detector de Sobel tiene
un buen desempeño aunque omite bordes en algunas localidades. Por su parte el detector de Canny
obtiene bordes no existentes, y no muestra un contorno claro y limpio.

Al igual que en la base de datos de café, el desempeño del detector difuso sobre rostros muestra
una tendencia definida, mientras que los porcentajes de V.A. y F.A. aumentan, los porcentajes de
V.R. y F.R, disminuyen. Podemos notar también que el desempeño del detector cuando usamos el
algoritmo de umbralización basado en medida de ambigüedad, es más pobre que cuando utilizamos
el umbral manual 4.12, esto porque el método de obtención del umbral no es el más adecuado para
esta aplicación. Con respecto a la varianza, podemos observar en las tablas 4.13 y 4.16 que esta
presenta valores bajos comparados con los valores obtenidos sobre la base de datos de café, esto

35
Capı́tulo 4. Resultados

Figura 4.6: Imágenes obtenidas con los detectores de bordes a.Imagen Original b.Detector difuso c.Detector de Sobel
d.Detector de Canny.

nos indica que el detector propuesto tiene una mejor confiabilidad sobre las imágenes de rostros que
sobre las imágenes de café

En las tablas 4.17 y 4.19 se muestra el desempeño de los de detectores de Sobel y Canny en imágenes
de rostros, respectivamente.
Para la base de datos de rostros, la cual consta de 20 imágenes de laboratorio, tomadas bajo condi-
ciones controladas, el detector de Sobel tuvo un buen desempeño, pues detecta la mayorı́a de los
bordes presentes en las imágenes sin excederse demasiado en las falsas detecciones. Por otra parte
el detector de Canny no tiene el mejor desempeño ya que detecta demasiados bordes falsos. El
detector difuso tuvo un buen desempeño en cuanto al descriptor de Verdadera Aceptación, pero

36
Capı́tulo 4. Resultados

Tabla 4.11: Desempeño del detector de bordes con umbral manual sobre imágenes de rostros sin
filtrar.
Umbral % V. A. % V. R. % F. A. % F. R.
20 88.91 86.72 720.92 11.09
25 83.50 89.90 524.21 16.50
30 77.49 90.06 390.35 22.51
35 70.95 93.58 296.43 29.05

Tabla 4.12: Desempeño del detector de bordes con umbral basado en medida de ambigüedad sobre
imágenes de rostros.
% V. A. % V. R. % F. A. % F. R.
50.46 94.29 210.69 49.54

Tabla 4.13: Varianza de los descriptores sobre imágenes de rostros sin filtrar.

Umbral σV.A. σV.R. σF.A. σF.R.


20 3.71 3.59 203.91 3.71
25 4.50 2.82 160.62 4.50
30 5.13 2.27 128.74 5.13
35 5.55 1.76 99.76 5.55

Tabla 4.14: Varianza de los descriptores sobre imágenes de rostros con umbral basado en medida
de ambigüedad.
σV.A. σV.R. σF.A. σF.R.
13.42 8.93 157.41 13.42

debe notarse también que detecta muchos bordes falsamente, debido al problema de enfatización
mencionado anteriormente. Respecto de la varianza (tablas 4.18 y 4.20) podemos notar que los va-
lores están próximos a los obtenidos con el detector difuso lo cual sugiere un grado de confiabilidad
similar.

37
Capı́tulo 4. Resultados

Tabla 4.15: Desempeño del detector de bordes con umbral manual sobre imágenes de rostros fil-
tradas.
Umbral % V. A. % V. R. % F. A. % F. R.
20 83.50 90.31 495.94 16.50
25 77.15 92.60 355.34 22.85
30 71.00 94.06 265.76 29.00
35 64.74 95.03 205.75 35.26

Tabla 4.16: Varianza de los descriptores sobre imágenes de rostros filtradas.

Umbral σV.A. σV.R. σF.A. σF.R.


20 4.67 1.93 100.48 4.67
25 5.10 1.44 75.76 5.10
30 5.50 1.12 61.26 5.50
35 5.61 0.93 51.21 5.61

Tabla 4.17: Desempeño del detector de bordes Sobel sobre imágenes de rostros.

% V. A. % V. R. % F. A. % F. R.
76.16 97.60 39.95 23.84

Tabla 4.18: Varianza de los descriptores sobre imágenes de rostros con detector de Sobel.

σV.A. σV.R. σF.A. σF.R.


6.24 0.98 31.98 6.24

Tabla 4.19: Desempeño del detector de bordes Canny sobre imágenes de rostros.

% V. A. % V. R. % F. A. % F. R.
53.43 93.51 279.87 46.57

38
Capı́tulo 4. Resultados

Tabla 4.20: Varianza de los descriptores sobre imágenes de rostros con detector de Canny.

σV.A. σV.R. σF.A. σF.R.


3.07 0.77 61.68 3.07

4.2.3 Resultados obtenidos sobre imágenes de células

Los resultados obtenidos con el detector de bordes difuso se relacionan en las tablas 4.21 y 4.23.
Estos resultados corresponden a imágenes sin filtrar y filtradas, respectivamente.

Tabla 4.21: Desempeño del detector de bordes con umbral manual sobre imágenes de células sin
filtrar.
Umbral % V. A. % V. R. % F. A. % F. R.
20 45.33 82.55 575.09 54.67
25 34.04 87.73 357.02 65.96
30 26.51 90.71 236.53 73.49
35 20.71 92.63 165.58 79.29

Tabla 4.22: Varianza de los descriptores sobre imágenes de células sin filtrar.

Umbral σV.A. σV.R. σF.A. σF.R.


20 17.60 14.16 344.95 17.60
25 16.21 10.76 242.22 16.21
30 15.72 8.52 179.68 15.72
35 14.95 6.87 136.12 14.95

La figura 4.7 muestra los resultados después de aplicarle los detectores de bordes a una imagen de
células. La base de datos consta de 20 imágenes de laboratorio. Para las adquisición de las imágenes
se utilizo una cámara JAVELIN SYSTEMS (JE3942-A) acoplada a un microscopio MEIJI TECNO
con un lente 0.25 160/0.17 que entrega los datos a una tarjeta digitalizadora ZOLTRIX TV MAX.
En este tipo de imágenes se obtuvo el desempeño más pobre del detector de bordes propuesto. En
el recuadro de la figura 4.7 se puede notar que el detector difuso omite gran parte de los bordes pre-

39
Capı́tulo 4. Resultados

Tabla 4.23: Desempeño del detector de bordes con umbral manual sobre imágenes de células fil-
tradas.
Umbral % V. A. % V. R. % F. A. % F. R.
20 41.90 90.72 264.48 58.10
25 30.15 93.17 163.80 69.85
30 21.94 94.47 110.75 78.06
35 16.81 95.26 79.409 83.19

Tabla 4.24: Varianza de los descriptores sobre imágenes de células filtradas.

Umbral σV.A. σV.R. σF.A. σF.R.


20 17.38 6.60 156.73 17.38
25 15.12 4.95 103.86 15.12
30 13.57 4.05 75.33 13.57
35 12.25 3.49 57.23 12.25

sentes en la figura y por otro lado se obtienen bordes falsos, dado a que la mayorı́a de las imágenes
de células presentan un contraste muy bajo, caso contrario a las imágenes de café y rostros. Por
su parte el detector de Sobel tiene un desempeño bueno, mientras que el detector de Canny obtiene
los bordes adecuadamente pero incluye en la imagen demasiados bordes inexistentes. Las varianzas
para este tipo de imágenes (tablas 4.22 y 4.24) tienen unos valores superiores a las otras aplicaciones
en los ı́ndices de Verdadero Rechazo y Falsa Aceptación, lo cual puede indicar que el detector es
mas confiable en aplicaciones de café y rostros que en células.

Tabla 4.25: Desempeño del detector de bordes con umbral basado en medida de ambigüedad sobre
imágenes de células.
% V. A. % V. R. % F. A. % F. R.
13.86 93.48 80.45 86.14

Como en los dos casos anteriores las tablas corresponden al desempeño del algoritmo detector de

40
Capı́tulo 4. Resultados

Figura 4.7: Imágenes obtenidas con los detectores de bordes a:Imagen Original b:Detector difuso c:Detector de Sobel
d:Detector de Canny.

Tabla 4.26: Varianza de los descriptores sobre imágenes de células con umbral basado en medida
de ambigüedad.
σV.A. σV.R. σF.A. σF.R.
21.47 11.36 189.38 21.47

bordes con umbral manual para imágenes sin filtrar (tabla 4.21), imágenes filtradas (tabla 4.23), y
basado en la medida de ambigüedad (tabla 4.25).

En las tablas 4.27 y 4.29 se muestra el desempeño de los de detectores de Sobel y Canny sobre

41
Capı́tulo 4. Resultados

imágenes de células respectivamente.

Tabla 4.27: Desempeño del detector de bordes Sobel sobre imágenes de células.

% V. A. % V. R. % F. A. % F. R.
17.85 95.36 97.74 82.15

Tabla 4.28: Varianza de los descriptores sobre imágenes de células con detector de Sobel.

σV.A. σV.R. σF.A. σF.R.


7.29 1.36 42.01 7.29

Tabla 4.29: Desempeño del detector de bordes Canny sobre imágenes de células.

% V. A. % V. R. % F. A. % F. R.
26.20 90.26 322.53 73.80

Tabla 4.30: Varianza de los descriptores sobre imágenes de células con detector de Canny.

σV.A. σV.R. σF.A. σF.R.


6.67 3.41 170.02 6.67

Respecto de los detectores de Canny y Sobel el detector difuso tuvo un desempeño pobre, pues como
se ha dicho, el detector tiene dificultades al encontrar los bordes cuando se trabaja sobre imágenes
que tienen bajo contraste. Los detectores de Canny y Sobel presentaron unos valores más bajos para
la varianza de los diferentes descriptores, comparados con el detector difuso.

4.3 Desempeño del detector de bordes sobre imágenes a color

Debido a que los detectores de bordes convencionales están diseñados para imágenes de intensidad
(Escala de Grises), se implementó un detector de bordes para imágenes de color, el cual se basa en

42
Capı́tulo 4. Resultados

el detector difuso explicado en la sección 2.3. (ver anexo 2)

El detector implementado obtiene los bordes de las tres capas de la imagen de color (R, G, B), y
posteriormente se aplica una fusión con el fin de unir la información de los tres planos de color.
La fusión se realiza mediante la intersección de los bordes obtenidos en cada plano. La salida del
detector es una imagen de bordes en blanco y negro, (ver figura 4.8).

De manera similar se implementó también un filtro de reducción de ruido para imágenes de color,
dicho filtro está basado en el filtro de reducción de ruido impulsivo mostrado en la sección 2.1.
El funcionamiento del filtro es similar al detector de bordes, pues toma la imagen color y hace un
filtrado de cada capa (R, G, B), para posteriormente fusionar las capas en una sola imagen de salida,
la cual, al igual que la entrada, es en color.

Figura 4.8: Detector de bordes para imágenes de color.

La figura 4.9 muestra las imágenes obtenidas después de aplicar el detector de bordes a una imagen
a color. Se puede apreciar que el detector tiene un mejor desempeño sobre la imagen previamente
filtrada, pues en este caso la aparición de ruido impulsivo se reduce considerablemente, comparada
con la imagen sin filtrar. La tabla 4.31 muestra el desempeño del detector de bordes sobre la base
de datos de imágenes de café a color, tanto filtradas como sin filtrar. La base de datos utilizada fue
la misma usada en la sección 4.2.1
En la tabla 4.33 se muestran los porcentajes obtenidos de los descriptores de desempeño, para la
base de datos de imágenes de rostros (La misma usada en la sección 4.2.2). En la figura 4.10 se

43
Capı́tulo 4. Resultados

Tabla 4.31: Desempeño del detector de bordes sobre imágenes de café a color.

% V. A. % V. R. % F. A. % F. R.
imágenes sin filtrar 68.65 83.38 478.69 31.35
imágenes filtradas 67.03 89.90 244.78 32.97

Tabla 4.32: Varianza de los descriptores sobre imágenes de café a color.

σV.A. σV.R. σF.A. σF.R.


imágenes sin filtrar 18.49 1.44 46.83 18.49
imágenes filtradas 19.64 2.39 66.94 19.64

Figura 4.9: Detector de bordes en imágenes a color de cafe a:Imagen Original b:Bordes sobre imagen sin filtrar
c:Bordes sobre imagen filtrada

puede apreciar el desempeño del detector de bordes sobre imágenes de rostros en color. Podemos
notar que el detector funciona mejor sobre la imagen filtrada, pues el filtro elimina gran parte del

44
Capı́tulo 4. Resultados

ruido, mientras que preserva los bordes de una manera adecuada.

Tabla 4.33: Desempeño del detector de bordes sobre imágenes de rostros a color.

% V. A. % V. R. % F. A. % F. R.
imágenes sin filtrar 80.39 91.33 436.61 19.61
imágenes filtradas 72.52 93.60 294.78 27.48

Tabla 4.34: Varianza de los descriptores sobre imágenes de rostros a color.

σV.A. σV.R. σF.A. σF.R.


imágenes sin filtrar 6.59 1.42 79.03 6.59
imágenes filtradas 5.06 1.13 56.50 5.06

Figura 4.10: Detector de bordes en imágenes a color de rostros a:Imagen Original b:Bordes sobre imagen sin filtrar
c:Bordes sobre imagen filtrada

45
Capı́tulo 4. Resultados

Como en las aplicaciones anteriores, la base de datos de células fue la que mostró un desempeño más
pobre ante el detector de bordes difuso, porque son imágenes de muy bajo contraste y demasiado
ruidosas. En la tabla 4.35 se muestra el desempeño del detector de bordes en imágenes de células
a color, mientras que la figura 4.11 nos da una idea de como es el desempeño del detector de
bordes propuesto sobre una imagen de la base de datos de células. Puede observarse que el detector
difuso propuesto omite una buena cantidad de bordes, pero presenta un buen comportamiento con
referencia al ruido.

Tabla 4.35: Desempeño del detector de bordes sobre imágenes a color de células.

% V. A. % V. R. % F. A. % F. R.
imágenes sin filtrar 31.24 86.67 357.90 68.76
imágenes filtradas 15.92 95.48 63.96 84.08

Tabla 4.36: Varianza de los descriptores sobre imágenes de células a color.

σV.A. σV.R. σF.A. σF.R.


imágenes sin filtrar 13.34 6.45 103.37 13.34
imágenes filtradas 13.60 4.04 50.35 13.60

Figura 4.11: Detector de bordes en imágenes a color de células a:Imagen Original b:Bordes sobre imagen sin filtrar
c:Bordes sobre imagen filtrada

46
Capı́tulo 5

Conclusiones

5.1 Respecto de las Medidas Globales de Coherencia

El desempeño del detector de bordes difuso con respecto a las dos primeras medidas globales de
coherencia no fue el mejor, comparado con Sobel y Canny (ver figuras 4.1, 4.2 y figura 4.3).

El detector de bordes difuso tuvo su mejor desempeño en la tercera medida global de coherencia,
comparado con Sobel y Canny (ver figura 4.4).

El detector de bordes que se desempeñó mejor fue el de Canny (ver figuras 4.1, 4.2, 4.3 y 4.4).

5.2 Respecto de las imágenes de café, células y rostros

El filtro difuso de reducción de ruido se comportó bien en el sentido que preserva la información de
bordes, mientras atenúa las perturbaciones debido al ruido impulsivo.

El umbral H del detector de bordes es un parámetro determinante para el desempeño del filtro,
porque los porcentajes de V.A., F.A. dependen de él (ver tablas de desempeño del detector de bor-
des con umbral manual).

La detección de H usando la medida de ambigüedad no fue satisfactoria, puesto que los porcentajes
de VA obtenidos fueron inferiores a cuando se utilizó umbral manual (ver tablas 4.5, 4.12, 4.25).

47
Capı́tulo 5. Conclusiones

El detector de bordes propuesto tuvo un desempeño pobre frente a los ı́ndices de V.A. sobre imágenes
de células (ver tablas 4.21 y 4.23). Es necesario el uso de algoritmos que involucren umbrales adap-
tivos cuando se trabaja con este tipo de imágenes, dadas las pobres condiciones de adquisición que
estas presentan.

Sobre la base de datos de imágenes de café el desempeño del detector fue bueno (V.A. mayor que
en Canny y Sobel) (ver tablas 4.1 y 4.3).

En las imágenes de rostros se obtuvo un desempeño mayor que el detector de Canny, en la medida
de V.A (ver tablas 4.11, 4.15 y 4.19).

5.3 Trabajo Futuro

Explorar otras técnicas de automatización de los umbrales de ambos filtros.

Emplear otro tipo de evaluación para los detectores de bordes, el cual tenga en cuenta los parámetros
difusos del filtro (En cuanto a la metodologı́a de Baker).

Aplicar un proceso de esqueletización al detector difuso y/o explorar nuevas reglas difusas para
obtener bordes de un solo pı́xel de espesor.

48
Bibliografı́a

[1] David A. Montes T, Comparación de Algoritmos Detectores de Borde, Universidad Nacional


de Colombia, 2003.

[2] Simon Baker, Desing and evaluation of feature detectors, Ph.D. Thesis, Columbia University,
november 1998.

[3] Fuller, Robert, Introduction to Neuro-Fuzzy Systems. Softcover, 2000.

[4] Dimitri Van De Ville, Mike Nachtrgael, Dietrich Van Der Weken, Etienne E. Kerre, Wilfried
Philips, and Ignace Lemahieu, Noise reduction by fuzzy image filtering, IEEE Trans. Fuzzy
Systems, vol. 11, no.4, pp.429-436, 2003.

[5] F. Russo, Fire operators for image processing. Fuzzy Sets Systems, vol. 103, no. 2, pp.
265–275, 1999.

[6] C.-S. Lee, Y.-H. Kuo, and P.-T. Yu, Weighted fuzzy mean filters for image processing, Fuzzy
Sets Systems, no. 89, pp. 157–180, 1997.

[7] Lily Rui Liang and Carl G. Looney, Competitive Fuzzy-Classifier Image Edge Detection, Com-
puter Science Department University of Nevada, 2002

[8] Nick Efford, Digital Image Processing, Addison Wesley, pp.164-173, 2000

[9] Earl Gose, Richard Johnsonbaug and Steve Jost, Pattern Recognition and Image Analysis,
Prentice Hall PTR, pp. 298, 1996

[10] S. Dougherty and K.W. Bowyer, Objective evaluation of edge detectors using a formally de-
fined framework, In Proc. of the 1998 Workshop on Empirical Evaluation Techniques in Com-
puter Vision, pp. 211–234, 1998.

49
BIBLIOGRAFÍA

[11] O. Faugeras, Three–dimensional computer vision: A geometric viewpoint, MIT Press 1993.

[12] P. Meer K. Cho and J. Cabrera, Performance assessment through bootstrap, IEEE Trans. on
PAMI vol 19, no. 11, 1185–1198, 1997.

[13] D. Goldgof M.C. Shin and K.W. Bowyer, An objective comparison methodology of edge de-
tection algorithms using a structure from motion task, In Proc. of the 1998 Workshop on
Empirical Evaluation Techniques in Computer Vision, pp. 235–254. 1998

[14] T. Sanocki M.D. Heath, S. Sarkar, A robust visual method for assessing the relative perfor-
mance of edge-detection algorithms,IEEE Trans. on PAMI vol 19, no. 12, 1338–1359, 1997.

[15] Orlando J. Tobias and Rui Seara, Image segmentation by histogram thresholding using fuzzy
sets,IEEE Transactions on Image Processing, vol. 11, no. 12, pp. 1457-1465, 2002.

[16] C. Steeger, Analytical and empirical performance evaluation of subpixel line and edge detec-
tion, In Proc. of the 1998 Workshop on Empirical Evaluation Techniques in Computer Vision,
pp. 188–210, 1998.

[17] A. Kaufmann, Introduction to the Theory of fuzzy subsets- Fundamental theoretical elements,
New York Academic Press, 1975.

[18] John Yen, Reza Langari, Fuzzy Logic: Intelligence, Control and Information,Prentice Hall,
Upper Saddle River, New Jersey 07458.1999

[19] Columbia Automated Vision Environment, Databases,


http://http://www.cs.columbia.edu/CAVE/

[20] www.cs.unr.edu/ looney/cs791j/unit4 C

50
Capı́tulo 6

Anexo 1

Figura 6.1: Diagrama de flujo para el filtro difuso de reducción de ruido

1–1
Capı́tulo 7

Anexo 2

Figura 7.1: Diagrama de flujo para el detector de bordes difuso

2–1
Capı́tulo 8

Anexo 3

Tabla 8.1: Desempeño del detector de bordes con diferentes valores de K para el filtro de reducción
de ruido.
K % V. A. % F. A.
10 37.38 91.41
15 45.20 102.91
20 56.24 110.56
25 68.00 125.79
30 71.94 207.15
35 74.68 292.52
40 76.47 351.41

Se realizaron pruebas sobre las tres bases de datos de imágenes (café. células, rostros) y se eligió
el valor de K = 25 debido a que el valor de Verdadera Aceptación es alto y el Valor de Falsa
Aceptación es relativamente bajo comparado con umbrales más altos, los cuales tienen un valor de
Verdadera Aceptación un poco más alto, pero su valor de Falsa Aceptación se incrementa demasia-
do.

Para otras aplicaciones, por ejemplo restauración de imágenes corruptas por ruido, el parámetro K
puede ser hallado de una forma automática de acuerdo a las condiciones de la imagen que se desea
restaurar, a continuación se presenta el método propuesto.

En lugar de usar ventanas grandes para obtener mejores resultados, el filtro de reducción de ruido se

3–1
Capı́tulo 8. Anexo 3

puede aplicar iterativamente. La función de pertenencia pequeño se puede adaptar después de cada
iteración de acuerdo con el nivel de ruido estimado.

Se debe empezar dividiendo la imagen en pequeños bloques de N x N pı́xeles no sobrepuestos. Para


cada bloque B, se computa una medida de homogeneidad m la cual considera el valor máximo y el
mı́nimo de los pı́xeles del bloque.

max(x,y)∈B I(x, y) − min(x,y)∈B I(x, y)


m=1− (8.0.1)
L

Con la medida m se construye el histograma de homogeneidad normalizado, en el eje x se ubican


todos los valores de homogeneidad posibles y en el eje y las ocurrencias de estos valores. Para
calcular el valor de K es necesario tomar el valor pico máximo del histograma, el cual denotaremos
mmax . Se debe notar que para un valor mmax = 1, el ruido en la imagen será 0, esto debido a que
este es el máximo valor de homogeneidad.

Ahora con el valor de mmax podemos hallar una relación lineal entre la homogeneidad y la desviación
estándar del ruido σ

σ = (1 − mmax )γM (8.0.2)

donde γM se tomó de la literatura dependiendo el tipo de ruido, para ruido gaussiano γM = 52.1,
para ruido Laplaciano γM = 41.8 y para ruido uniforme γM = 75.2. (tomado de [4])

Por último tenemos que K depende también de un parámetro de amplificación α el cual se adapta
dependiendo del nivel de ruido presente en la imagen. En la literatura consultada se tiene que un
σ menor que 10 es un nivel de ruido bajo y un σ mayor que 20 es un nivel de ruido alto [4]. Para
determinar este parámetro se recurre a la función de pertenencia de la figura 8.1. La obtención del

3–2
Capı́tulo 8. Anexo 3

Figura 8.1: Funciones de pertenencia para la variable α.

valor numérico de α se hace utilizando la siguiente ecuación:

α = µpeq (σ)(1) + µgr(σ)(3) (8.0.3)

Finalmente obtenemos el valor de K, el cual está dado por:

K = (α)(σ) (8.0.4)

El parámetro K se calcula y se adapta después de cada repetición cuando se está aplicando el filtro
iterativamente.

3–3

Você também pode gostar