Escolar Documentos
Profissional Documentos
Cultura Documentos
En procesado de imagen, las imágenes procesadas de caras pueden verse como vectores cuyas componentes
son la luminancia de cada píxel. La dimensión de este espacio vectorial es el número de píxeles. Los vectores
propios de la matriz de covarianza asociada a un conjunto amplio de imágenes normalizadas de rostros se
llaman caras propias. Son muy útiles para expresar una imagen de un rostro como la combinación lineal de
otras. Las caras propias proporcionan un medio de aplicar compresión de datos a los rostros, para propósitos de
biometría.
RECONOCIMIENTO FACIAL
Introducción
Los humanos a menudo utilizan los rostros para reconocer individuos y los avances en las capacidades de
computación en las últimas décadas, ahora permiten reconocimientos similares en forma automática. Los
algoritmos de reconocimiento facial anteriores usaban modelos geométricos simples, pero el proceso de
reconocimiento actualmente ha madurado en una Ciencia de Sofisticadas representaciones matemáticas y
procesos de coincidencia. Importantes avances e iniciativas en los pasados diez a quince años han propulsado
a la tecnología de reconocimiento facial al centro de la atención.
Resumen
La industria de reconocimiento facial basado en computadoras ha hecho muchos adelantos útiles en la pasada
década; sin embargo la necesidad de sistemas de mayor precisión persiste. A través de la determinación y
compromiso de la industria, las evaluaciones del gobierno, y cuerpos estándar organizados, el crecimiento y el
progreso continuaran, elevando la barra para la tecnología de reconocimiento facial.
Historia
El reconocimiento facial automatizado es relativamente un concepto nuevo. Desarrollado en los años 60, el
primer sistema semiautomático para reconocimiento facial requería del administrador para localizar rasgos
(como ojos, orejas, nariz y boca) en las fotografías antes de que este calculara distancias a puntos de referencia
en común, los cuales eran comparados luego con datos de referencia.
En los años 70 Goldstein, Harmon, & Lesk [1], usaron 21 marcadores subjetivos específicos tales como el color
del cabello y grosor de labios para automatizar el reconocimiento facial. El problema con estas soluciones
previas era que se computaban manualmente. En 1988 Kirby & Sirobich aplicaron análisis de componentes
principales, una técnica estándar del álgebra lineal, al problema del reconocimiento facial. Esto fue considerado
algo así como un hito al mostrar que eran requeridos menos de 100 valores para cifrar acertadamente la imagen
de una cara convenientemente alineada y normalizada [2].
En 1991 Turk & Pentland utilizando las técnicas Eigenfaces, el error residual podía ser utilizado para detectar
caras en las imágenes [3] - un descubrimiento que permitió sistemas automatizados de reconocimiento facial
en tiempo real fidedignos. Si bien la aproximación era un tanto forzada por factores ambientales, creó sin
embargo un interés significativo en posteriores desarrollos de éstos sistemas.
La tecnología inicialmente capturó la atención del público a partir de la reacción de los medios a una prueba de
implementación en el Super Bowl de la NFL en enero de 2001, la cual capturó imágenes de vigilancia y las
comparó con una base de datos de fotoarchivos digitales. Esta demostración inició un muy requerido análisis
sobre cómo usar la tecnología para satisfacer necesidades nacionales, mientras se tomaban en consideración las
preocupaciones sociales y de privacidad del público. Hoy la tecnología de reconocimiento facial está siendo
utilizada para combatir el fraude de pasaportes, soporte al orden público, identificación de niños extraviados y
minimizar el fraude en las identificaciones.
Enfoques predominantes
Una imagen de sondeo es comparada con una gallería de imágenes midiendo la distancia entre sus respectivos
vectores de rasgos. La aproximación PCA típicamente requiere la cara completa de frente para ser presentada
cada vez; de otra forma la imagen dará un resultado de bajo rendimiento.
La ventaja primaria de esta técnica es que puede reducir los datos necesarios para identificar el individuo a
1/1000 de los datos presentados [5].
Figura 1: Eigenfaces estándar. Los vectores de los rasgos son derivados utilizando Eigenfaces [6]
Correspondencia entre agrupaciones de grafos elásticos Elastic Bunch Graph Matching, EBGM)
EBGM tiene en cuenta que las imágenes faciales reales tienen muchas características no lineales que no son
tratadas en los métodos lineales de análisis discutidos previamente, tales como variaciones en la iluminación
(Iluminación de exteriores vs. Interior fluorescente), postura (frontal vs. inclinada) y expresión (sonrisa vs. ceño
fruncido).
Una ondeleta de transformación Gabor crea una arquitectura de enlace dinámico que proyecta el rostro sobre la
planilla elástica. El Jet Gabor es un nodo en la planilla elástica, manifestado por círculos en la imagen debajo.
El cual describe el comportamiento de la imagen alrededor de un píxel.
Este es el resultado de una convulsión de la imagen con un filtro Gabor, el cual es usado para detectar formas
y extraer características utilizando procesamiento de imagen.(Una convulsión expresa la suma de solapamientos
de las funciones en la mezcla de funciones entre si) El reconocimiento esta basado en la similitud de la respuesta
del filtro Gabor a cada nodo Gabor [4].
Este método biológicamente basado utilizando filtros Gabor es un proceso ejecutado en la corteza visual de los
mamíferos más grandes. La dificultad con este método es el requerimiento de la precisa localización del punto
de referencia el cual puede ser algunas veces logrado combinando los métodos PCA y LDA [4].