Você está na página 1de 213

Universidade Federal de Pernambuco

Centro de Informática

Pós-graduação em Ciência da Computação

COMPOSIÇÃO DE BIOMETRIAS PARA


SISTEMAS MULTIMODAIS DE
VERIFICAÇÃO DE IDENTIDADE PESSOAL

George Darmiton da Cunha Cavalcanti

TESE DE DOUTORADO

Recife
Maio de 2005
Universidade Federal de Pernambuco
Centro de Informática

George Darmiton da Cunha Cavalcanti

COMPOSIÇÃO DE BIOMETRIAS PARA SISTEMAS


MULTIMODAIS DE VERIFICAÇÃO DE IDENTIDADE
PESSOAL

Trabalho apresentado ao Programa de Ps-graduao em Cin-

cia da Computao do Centro de Informtica da Universidade

Federal de Pernambuco como requisito parcial para obteno

do grau de Doutor em Cincia da Computao.

Orientador: Prof. Dr. Edson Costa de B. Carvalho Filho

a a
Co-orientadora: Prof. Dr. Katia Silva Guimares

Recife
Maio de 2005
RESUMO

Essa tese apresenta contribuições para o problema de vericação de identidade pes-


soal através de uma arquitetura que combina as biometrias da face, da assinatura
e da dinâmica da digitação. As duas primeiras biometrias foram escolhidas por
estarem integradas à vida de grande parte da sociedade e os dispositivos utiliza-
dos para capturar os padrões são comuns e de baixo custo. A terceira biometria,
dinâmica da digitação, além de ser barata, é uma tecnologia transparente ao usuário.
A motivação principal dessa tese é analisar estratégias de combinação de padrões
para melhorar o desempenho de sistemas de identicação pessoal. Para tanto, foram
identicados e investigados os seguintes pontos: (i) Vericação de assinaturas de
tamanhos diferentes usando sete grupos de características: pseudo-dinâmicas, estru-
turais e invariantes (momentos de Hu, Maitra, Flusser, Simon e Central); (ii) Classi-
cação de faces usando Eigenbands Fusion; (iii) Vericação de autenticidade através
da análise da dinâmica da digitação utilizando os tempos de pressionamento e de
latência; (iv) Modelagem de uma arquitetura para combinar as três biometrias, além
da realização de experimentos, visando à avaliação do desempenho; (v) Investigação
do limiar de separação entre regiões que denem usuários autênticos e impostores,
por classe, através da distribuição t-Student. Os resultados alcançados com o sistema
combinado foram comparados com cada uma das modalidades biométricas separada-
mente, e mostraram que o sistema integrado conseguiu melhores taxas de acerto.

Palavras-chave: Identicação Pessoal Multimodal, Classicação de Faces, Veri-


cação de Assinaturas, Vericação através de Dinâmica da Digitação, Combinação de
Decisão, Cálculo de Limiar Local

3
ABSTRACT

This work presents contributions for the problem of identity verication thought an
architecture that combines face, signature and keystroke dynamics. The rst two
biometrics were chosen based on the fact that they are already integrated in the
society, besides the equipment to capture these modalities are cheap. The third bio-
metrics chosen, keystroke dynamics, is also cheap and transparent to the user. The
main motivation of this thesis is to analyze combination strategies aiming to improve
the performance of personal identication systems. Therefore, it was identied and
investigated the following points: (i) Signature verication of dierent sizes using
seven features groups: pseudo-dynamics, structural, and invariant (moments of Hu,
Maitra, Flusser, Simon and Central); (ii) Face classication through Eigenbands
Fusion (a face image was divided into bands and the best principal components of
each band was assembled to form the feature vector); (iii) Keystroke dynamics veri-
cation through the analyzes of press and latency time of the users; (iv) Architecture
arrangement aiming to combine three biometrics, besides experiments to measure
performance; (v) Local threshold investigation to separate regions of authentic and
impostor users through t-Student distribution. The results showed that the combined
system over performed each one of the biometrics modalities when used separately.

Keywords: Multimodal personal identication, Face classication, Signature ver-


ication, Keystroke dynamics verication, Decision combination, Local threshold

4
CONTEÚDO

Capítulo 1Introdução20
1.1 Biometria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.4 Estrutura da Tese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Capítulo 2Classicação Biométrica27
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Técnicas Biométricas . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Face . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.2 Assinatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.3 Impressão Digital . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.4 Voz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.5 Mão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.6 Íris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.7 Retina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.8 Radiograa Dental . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.9 Formato da Orelha . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.10 Imagem Térmica do Rosto . . . . . . . . . . . . . . . . . . . . 35
2.2.11 Dinâmica da Digitação . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Sistema Biométrico Monomodal . . . . . . . . . . . . . . . . . . . . . 36
2.3.1 Avaliação de Desempenho . . . . . . . . . . . . . . . . . . . . 37
2.3.2 Encontrando o Critério de Separação . . . . . . . . . . . . . . 40
2.4 Sistema Biométrico Multimodal . . . . . . . . . . . . . . . . . . . . . 42

5
2.4.1 Estado da Arte . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.2 Arquiteturas para Integração de Modalidades Biométricas . . 47
2.4.2.1 Integração de Dados . . . . . . . . . . . . . . . . . . 48
2.4.2.2 Integração de Características . . . . . . . . . . . . . 48
2.4.2.3 Integração de Decisões . . . . . . . . . . . . . . . . . 49
2.4.2.4 Comentários . . . . . . . . . . . . . . . . . . . . . . 50
Capítulo 3Métodos de Extração de Características e de Classicação de Pa-
drões52
3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2 Extração de Características Faciais através da Análise dos Compo-
nentes Principais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3 Extração de Características de Assinaturas . . . . . . . . . . . . . . . 54
3.3.1 Características Pseudo-dinâmicas . . . . . . . . . . . . . . . . 55
3.3.2 Características Estruturais . . . . . . . . . . . . . . . . . . . . 56
3.3.3 Características Invariantes . . . . . . . . . . . . . . . . . . . . 57
3.3.3.1 Momentos Centrais . . . . . . . . . . . . . . . . . . . 57
3.3.3.2 Invariantes de Hu . . . . . . . . . . . . . . . . . . . . 58
3.3.3.3 Invariantes de Maitra . . . . . . . . . . . . . . . . . 59
3.3.3.4 Invariantes de Flusser . . . . . . . . . . . . . . . . . 59
3.3.3.5 Invariantes de Simon . . . . . . . . . . . . . . . . . . 60
3.4 Classicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.4.1 Classicador Bayesiano . . . . . . . . . . . . . . . . . . . . . . 61
3.4.2 Classicador k-Vizinhos Mais Próximos (k − vmp) . . . . . . . 62
3.4.3 Classicador Cross-correlation . . . . . . . . . . . . . . . . . . 63
Capítulo 4Classicação de Faces65
4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.1.1 Trabalhos relacionados . . . . . . . . . . . . . . . . . . . . . . 68
4.1.2 Pré-processando imagens de faces . . . . . . . . . . . . . . . . 69
4.2 Reconhecimento de Faces usando Eigenbands . . . . . . . . . . . . . . 72

6
4.2.1 Resultados Experimentais . . . . . . . . . . . . . . . . . . . . 75
4.2.1.1 Bandas Horizontais . . . . . . . . . . . . . . . . . . . 75
4.2.1.2 Bandas Verticais . . . . . . . . . . . . . . . . . . . . 77
4.3 Vericação de Faces . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3.1 Faces Completas . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.3.2 Eigenbands Fusion . . . . . . . . . . . . . . . . . . . . . . . . 82
4.4 Alguns Experimentos com o Banco de Faces da IIS . . . . . . . . . . 84
4.4.1 Redes Neurais Auto-associativas . . . . . . . . . . . . . . . . . 84
4.4.2 Estudo Experimental . . . . . . . . . . . . . . . . . . . . . . . 85
4.4.2.1 Avaliação do Desempenho . . . . . . . . . . . . . . . 85
Capítulo 5Vericação de Assinaturas90
5.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2 Banco de Dados de Assinaturas . . . . . . . . . . . . . . . . . . . . . 91
5.3 Seleção de Características . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.1 Seleção de Características usando o Classicador k-vmp . . . . 95
5.3.2 Seleção de Características usando o Classicador Bayesiano . . 97
5.3.3 Comentários . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.4 Vericação de Assinaturas . . . . . . . . . . . . . . . . . . . . . . . . 101
5.4.1 Classicador Bayesiano . . . . . . . . . . . . . . . . . . . . . . 103
5.4.2 Classicador Cross-Correlation . . . . . . . . . . . . . . . . . 105
5.4.3 Classicador Baseado em Distância . . . . . . . . . . . . . . . 107
5.5 Comentários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Capítulo 6Vericação da Dinâmica da Digitação112
6.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.2 Trabalhos Relacionados . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.3 Estudo Experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.3.1 Aquisição dos Dados . . . . . . . . . . . . . . . . . . . . . . . 116
6.3.2 Extração de Características e Representação . . . . . . . . . . 118
6.3.3 Vericação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

7
6.3.3.1 Procedimento Experimental . . . . . . . . . . . . . . 121
6.3.3.2 Características Tempo de Pressionamento . . . . . . 126
6.3.3.3 Características Tempo de Latência . . . . . . . . . . 129
6.3.3.4 Combinação de Características . . . . . . . . . . . . 131
6.4 Considerações Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Capítulo 7Combinação de Biometrias137
7.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.2 Banco de Dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
7.3 Arquitetura de Combinação . . . . . . . . . . . . . . . . . . . . . . . 140
7.3.1 Normalização . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
7.3.2 Regra de Combinação . . . . . . . . . . . . . . . . . . . . . . 142
7.4 Combinando Face e Assinatura . . . . . . . . . . . . . . . . . . . . . 142
7.4.1 Combinando os melhores grupos de assinaturas com eigenbands
verticais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
7.4.2 Combinando os melhores grupos de assinaturas com eigenbands
horizontais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.5 Combinando Assinatura e Dinâmica da Digitação . . . . . . . . . . . 152
7.6 Combinando Face e Dinâmica da Digitação . . . . . . . . . . . . . . . 155
7.7 Combinando Face, Assinatura e Dinâmica da Digitação . . . . . . . . 156
7.8 Análise dos Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . 162
7.9 Comentários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Capítulo 8Conclusão168
8.1 Resumo das Contribuições do Trabalho . . . . . . . . . . . . . . . . . 168
8.2 Trabalhos Futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.3 Considerações Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
Apêndice ARótulos das Características Extraídas das Assinaturas173 Apêndice B
Detalhamento dos Resultados da Vericação de Assinaturas175 Apêndice CBanco
de Dados e Detalhamento dos Resultados da Dinâmica da Digitação186 Apêndice D
Rótulos dos Pesos Utilizados para Combinar as Biometrias191

8
LISTA DE FIGURAS

2.1 Classicação das Técnicas Biométricas. . . . . . . . . . . . . . . . . . 28


2.2 Arquitetura básica de um sistema de identicação pessoal monomodal. 36
2.3 Região de decisão para sistemas biométricos. . . . . . . . . . . . . . . 37
2.4 Gráco da distribuição t-Student. . . . . . . . . . . . . . . . . . . . . 42
2.5 Integração de Dados. . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.6 Integração de Características. . . . . . . . . . . . . . . . . . . . . . . 49
2.7 Integração de Decisão. . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3.1 Cálculo do limiar de alta pressão. . . . . . . . . . . . . . . . . . . . . 56

4.1 Exemplos de imagens utilizadas por sistemas fechados de classicação


de faces, extraídas do banco de dados da ORL. . . . . . . . . . . . . . 66
4.2 Sistemas abertos de classicação de faces tratam com imagens dessa
natureza. Exemplos de detecção de faces extraídos do artigo de Schnei-
derman e Kanade [SK00]. . . . . . . . . . . . . . . . . . . . . . . . . 66
4.3 Exemplo de detecção de bordas em uma face usando o operador de
Sobel. (a) Imagem original. (b) Bordas Verticais e Horizontais. (c)
Bordas Verticais. (d) Bordas Horizontais. . . . . . . . . . . . . . . . . 70
4.4 (a) Figura 4.3(c). (b) Projeção vertical dessa gura. . . . . . . . . . . 71
4.5 (a) Figura 4.3(d). (b) Projeção horizontal dessa gura. . . . . . . . . 71
4.6 Particionamento de uma face em bandas horizontais e verticais. . . . 72
4.7 Composição do vetor de características (eigenband vector ). Cada banda
fornece um número n de componentes principais para o vetor nal. . 74
4.8 Eigenbands: 1, 2, 4, 8, 16, 32, 64 e 128. . . . . . . . . . . . . . . . . . 74

9
4.9 Avaliação de cada banda horizontal individualmente usando o classi-
cador Bayesiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.10 Avaliação de cada banda vertical individualmente, usando o classi-
cador Bayesiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.11 Amostra de imagens do banco de faces da IIS. . . . . . . . . . . . . . 86
4.12 Vericação de faces usando Redes Neurais Auto-associativas: análise
do desempenho. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

5.1 Exemplos de assinaturas de autênticas e impostoras. . . . . . . . . . . 92


5.2 Processo de normalização de assinaturas pequenas, médias e grandes. 95
5.3 Processo de corte (remoção) do oreio de uma assinatura. . . . . . . . 95
5.4 Avaliação das características usando o classicador 1-vmp (imagens
sem transformação). . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.5 Avaliação das características usando o classicador 1-vmp (imagens
normalizadas). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.6 Avaliação das características usando o classicador 1-vmp (imagens
após a aplicação da técncia do corte). . . . . . . . . . . . . . . . . . . 97
5.7 Avaliação das características usando o classicador Bayesiano (imagens
sem transformação). . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.8 Avaliação das características usando o classicador Bayesiano (imagens
normalizadas). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.9 Avaliação das características usando o classicador Bayesiano (imagens
após a aplicação da técnica do corte). . . . . . . . . . . . . . . . . . . 99
5.10 Análise do Coeciente de Variação médio por característica. . . . . . 101
5.11 Classicador Bayesiano (sem transformação). . . . . . . . . . . . . . . 103
5.12 Classicador Bayesiano (imagens normalizadas). . . . . . . . . . . . . 104
5.13 Classicador Bayesiano (imagens cortadas). . . . . . . . . . . . . . . 104
5.14 Classicador Cross-Correlation (sem transformação). . . . . . . . . . 105
5.15 Classicador Cross-Correlation (imagens normalizadas). . . . . . . . 106
5.16 Classicador Cross-Correlation (imagens cortadas). . . . . . . . . . . 106

10
5.17 Classicador Baseado em Distância (sem transformação). . . . . . . . 107
5.18 Classicador Baseado em Distância (normalizadas). . . . . . . . . . . 108
5.19 Classicador Baseado em Distância (imagens cortadas). . . . . . . . . 108

6.1 Características comumente usadas em sistemas de autenticação pessoal


usando a dinâmica da digitação. . . . . . . . . . . . . . . . . . . . . . 113
6.2 Exemplos de Padrões Autênticos da Classe 16. . . . . . . . . . . . . . 119
6.3 Exemplos de Padrões Falsos para a Classe 16. . . . . . . . . . . . . . 120
6.4 FRR (quando FAR = 0) versus Número de Amostras de Treinamento. 122
6.5 FRR (quando FAR = 0) versus Número de Amostras de Treinamento. 123
6.6 Avaliação da FRR (adotando FAR = 0) quando o número de caracte-
rísticas varia (combinação das características). . . . . . . . . . . . . . 124
6.7 Avaliação da FRR (adotando FAR = 0) quando o número de caracte-
rísticas varia (combinação das características reverso). . . . . . . . . . 125
6.9 FRR após eliminar porcentagem das características sem normalização
(Características: Tempo de Pressionamento). . . . . . . . . . . . . . . 126
6.10 FRR após eliminar porcentagem das características com normalização
(Características: Tempo de Pressionamento). . . . . . . . . . . . . . . 126
6.8 FRR de quatro congurações de experimentos quando FAR igual a
zero (Características: Tempo de Pressionamento). . . . . . . . . . . . 127
6.12 FRR após eliminar porcentagem das características sem normalização
(Características: Tempo de Latência). . . . . . . . . . . . . . . . . . . 129
6.13 FRR após eliminar porcentagem das características com normalização
(Características: Tempo de Latência). . . . . . . . . . . . . . . . . . . 129
6.11 FRR de quatro congurações de experimentos quando FAR igual a
zero (características: Tempo de Latência). . . . . . . . . . . . . . . . 130
6.15 FRR após eliminar porcentagem das características sem normalização
(Combinação das Características). . . . . . . . . . . . . . . . . . . . . 132
6.14 FRR de quatro congurações de experimentos quando FAR igual a
zero (Combinação das Características). . . . . . . . . . . . . . . . . . 133

11
6.16 FRR após eliminar porcentagem das características com normalização
(Combinação das Características). . . . . . . . . . . . . . . . . . . . . 133

7.1 Arquitetura de um Sistema de Identicação Pessoal Multimodal. . . . 140


7.2 Distribuição dos padrões autênticos e falsos da modalidade assinatura
- grupo de características Selecionadas extraídas das imagens normal-
izadas por tamanho, usando o classicador Baseado em Distância. . . 144
7.3 Distribuição dos padrões autênticos e falsos da modalidade face - eigen-
bands horizontais, usando o classicador Baseado em Distância. . . . 144
7.5 Gráco 2D com os padrões autênticos e falsos da combinação das
modalidades usando a normalização Brunelli. . . . . . . . . . . . . . . 145
7.4 Distribuição dos padrões autênticos e falsos da combinação das modali-
dades assinatura e face, mostradas nas Figuras 7.2 e 7.3, usando o
classicador Baseado em Distância. . . . . . . . . . . . . . . . . . . . 145
7.6 Combinação de Face com Assinatura (Eigenbands Verticais e Norma-
lização Sanderson). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
7.7 Combinação de Face com Assinatura (Eigenbands Verticais e Norma-
lização Brunelli). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
7.8 Combinação de Face com Assinatura (Eigenbands Horizontais e Nor-
malização Sanderson). . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.9 Combinação de Face com Assinatura (Eigenbands Horizontais e Nor-
malização Brunelli). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.10 Combinação de Assinatura com Dinâmica da Digitação (Normalização
Sanderson). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
7.11 Combinação de Assinatura com Dinâmica da Digitação (Normalização
Brunelli). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
7.12 Combinação de Face com Dinâmica da Digitação. . . . . . . . . . . . 155
7.13 Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands
Horizontais e Normalização Sanderson). . . . . . . . . . . . . . . . . . 157

12
7.14 Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands
Horizontais e Normalização Brunelli). . . . . . . . . . . . . . . . . . . 158
7.15 Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands
Verticais e Normalização Sanderson). . . . . . . . . . . . . . . . . . . 160
7.16 Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands
Verticais e Normalização Brunelli). . . . . . . . . . . . . . . . . . . . 161
7.17 Análise dos resultados que usaram a normalização Sanderson. Face1:
Eigenbands Horizontais. Face2: Eigenbands Verticais. . . . . . . . . . 163
7.18 Análise dos resultados que usaram a normalização Brunelli. Face1:
Eigenbands Horizontais. Face2: Eigenbands Verticais. . . . . . . . . . 164

13
LISTA DE TABELAS

2.1 Técnicas biométricas usadas em trabalhos recentes para a identicação


pessoal multimodal em ambientes controlados (apresentados em ordem
cronológica). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

4.1 Detectores de bordas de Sobel. . . . . . . . . . . . . . . . . . . . . . . 69


4.2 Avaliação do desempenho das bandas horizontais. . . . . . . . . . . . 77
4.3 Avaliação do desempenho das bandas verticais. . . . . . . . . . . . . . 78
4.4 Taxas de erros sobre o conjunto de teste do banco de dados de faces
ORL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.5 Vericação das faces completas (eigenfaces) usando o banco de dados
da UMIST para representar usuários autênticos e o banco de dados da
ORL para representar usuários impostores. . . . . . . . . . . . . . . . 81
4.6 Resultados obtidos com as Bandas Horizontais (o banco de dados da
UMIST para representar usuários autênticos e o banco de dados da
ORL para representar usuários impostores). . . . . . . . . . . . . . . 82
4.7 Resultados obtidos com as Bandas Verticais (o banco de dados da
UMIST para representar usuários autênticos e o banco de dados da
ORL para representar usuários impostores). . . . . . . . . . . . . . . 83
4.8 Avaliação do desempenho usando 40 componentes principais extraídas
das imagens das faces completas. NUI: Número de Unidades Inter-
mediárias. NTrTeVa: Número de amostras de Treino, Teste e Validação. 87

14
4.9 Avaliação do desempenho após a combinação das bandas horizontais.
NUI: Número de Unidades Intermediárias. NTrTeVa: Número de
amostras de Treino, Teste e Validação. . . . . . . . . . . . . . . . . . 88
4.10 Estatística do teste-t Emparelhado. . . . . . . . . . . . . . . . . . . . 89

5.1 Resumo dos melhores resultados, em termos da medida R2, das tabelas
do Apêndice B. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

6.1 Resumo de alguns trabalhos relevantes sobre dinâmica da digitação.


(TP - Tempo de Pressionamento e PL - Tempo de Latência). . . . . . 117
6.2 F RR por conguração de teste quando F AR = 0. Características
Tempo de Pressionamento e Classicador Baseado em Distância. . . . 128
6.3 F RR por conguração de teste quando F AR = 0. Características
Tempo de Pressionamento e Classicador Vizinho Mais Próximo. . . . 129
6.4 F RR por conguração de teste quando F AR = 0. Características
Tempo de Latência e Classicador Baseado em Distância. . . . . . . . 131
6.5 F RR por conguração de teste quando F AR = 0. Características
Tempo de Latência e Classicador Vizinho Mais Próximo. . . . . . . 132
6.6 F RR por conguração de teste quando F AR = 0. Combinação das
Características e Classicador Baseado em Distância. . . . . . . . . . 134
6.7 F RR por conguração de teste quando F AR = 0. Combinação das
Características e Classicador Vizinho Mais Próximo. . . . . . . . . . 135

7.1 Resumo contendo os melhores resultados da Figura 7.7. . . . . . . . . 149


7.2 Resumo contendo os melhores resultados da Figura 7.8. . . . . . . . . 151
7.3 Resumo contendo os melhores resultados da Figura 7.9. . . . . . . . . 151
7.4 Resumo contendo os melhores resultados da Figura 7.10. TP - Tempo
de Pressionamento e TL - Tempo de Latência. . . . . . . . . . . . . . 153
7.5 Resumo contendo os melhores resultados da Figura 7.11. TP - Tempo
de Pressionamento e TL - Tempo de Latência. . . . . . . . . . . . . . 154

15
7.6 Resumo contendo os melhores resultados da Figura 7.12. TP - Tempo
de Pressionamento e TL - Tempo de Latência. . . . . . . . . . . . . . 156
7.7 Resumo contendo os melhores resultados da Figura 7.13. . . . . . . . 158
7.8 Resumo contendo os melhores resultados da Figura 7.14. . . . . . . . 158
7.9 Resumo contendo os melhores resultados da Figura 7.15. . . . . . . . 160
7.10 Resumo contendo os melhores resultados da Figura 7.16. . . . . . . . 161

A.1 Rótulo das características extraídas das assinaturas. . . . . . . . . . . 174

B.1 Avaliação dos erros de cada um dos grupos de características usando


o classicador Bayesiano sobre as imagens das assinaturas sem trans-
formação, adotando um intervalo de conança de 99% (α = 0, 01). . . 177
B.2 Avaliação dos erros de cada um dos grupos de características usando o
classicador Bayesiano sobre as imagens das assinaturas normalizadas,
adotando um intervalo de conança de 99% (α = 0, 01). . . . . . . . . 178
B.3 Avaliação dos erros de cada um dos grupos de características usando o
classicador Bayesiano sobre as imagens das assinaturas após aplicação
da técnica do corte, adotando um intervalo de conança de 99% (α =
0, 01). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
B.4 Avaliação dos erros de cada um dos grupos de características usando
o classicador cross-correlation sobre as imagens das assinaturas sem
transformação, adotando um intervalo de conança de 99% (α = 0, 01). 180
B.5 Avaliação dos erros de cada um dos grupos de características usando
o classicador cross-correlation sobre as imagens das assinaturas nor-
malizadas, adotando um intervalo de conança de 99% (α = 0, 01). . 181
B.6 Avaliação dos erros de cada um dos grupos de características usando
o classicador cross-correlation sobre as imagens das assinaturas após
aplicação da técnica do corte, adotando um intervalo de conança de
99% (α = 0, 01). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

16
B.7 Avaliação dos erros de cada um dos grupos de características usando
o classicador baseado em distância sobre as imagens das assinaturas
sem transformação, adotando um intervalo de conança de 99% (α =
0, 01). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
B.8 Avaliação dos erros de cada um dos grupos de características usando
o classicador baseado em distância sobre as imagens das assinaturas
normalizadas, adotando um intervalo de conança de 99% (α = 0, 01). 184
B.9 Avaliação dos erros de cada um dos grupos de características usando
o classicador baseado em distância sobre as imagens das assinaturas
após aplicação da técnica do corte, adotando um intervalo de conança
de 99% (α = 0, 01). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

C.1 Número de padrões autênticos e de falsos por classe. . . . . . . . . . . 187


C.2 F RR por conguração de teste quando F AR = 0. Características:
Tempo de Pressionamento. . . . . . . . . . . . . . . . . . . . . . . . . 188
C.3 F RR por conguração de teste quando F AR = 0. Características:
Tempo de Latência. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
C.4 F RR por conguração de teste quando F AR = 0. Combinação das
Características. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

D.1 Pesos empregados nos experimentos quando da combinação das três


biometrias: Face, Assinatura e Dinâmica da Digitação. . . . . . . . . 192

17
LISTA DE ABREVIATURAS

AANN Auto-Associative Neural Network


AMI Ane Moment Invariants
API Application Program Interface
BioAPI Consórcio formado para desenvolver uma API útil para diversas
tecnologias biométricas
Site: http://www.bioapi.org/
CV Coeciente de Variação
DNA Ácido Desoxirribonucléico
EER Equal Error Rate
FAR False Acceptance Rate (Taxa de Falsa Aceitação)
FERET The Facial Recognition Technology Database
Site: http://www.itl.nist.gov/iad/humanid/feret/
FRR False Rejection Rate (Taxa de Falsa Rejeição)
HCI Human-Computer Interface (Interface Humano-Máquina)
HPR High Pressure Regions
HTER Half Total Error Rate
IBG International Biometric Group
Site: http://www.biometricgroup.com
ICA Independent Component Analysis (Análise dos Componentes Independentes)

18
IIS Banco de dados de faces de orientais
Site: http://smart.iis.sinica.edu.tw
k-vmp Classicador k-Vizinhos Mais Próximos
LDA Linear Discriminant Analysis (Análise Discriminante Linear)
M2VTS Multi Modal Verication for Teleservices and Security Applications
Um banco de dados bimodal (face e voz)
Site: http://www.tele.ucl.ac.be/PROJECTS/M2VTS/m2fdb.html
MLP Multi-Layer Perceptron
NIST National Institute of Standards and Technology
Site: http://www.nist.gov/
ORL Banco de dados de faces da Olivetti Research Laboratory
PCA Principal Component Analysis (Análise dos Componentes Principais)
RBF Radial Basis Function
ROC Receiver Operating Characteristic
SOM+CN Self-Organizing Map and Convolutional Networks
SVM Support Vector Machine
THP Threshold of High Pressure
UMIST Banco de dados de faces da University of Manchester Institute of
Science and Technology
VidTIMIT Banco de dados de vídeo útil para sistemas mono ou multimodais de
identicação pessoal e que usam voz e face
Site: http://users.rsise.anu.edu.au/ conrad/vidtimit/
XM2VTS Uma extensão do banco de dados multimodal de faces M2VTS
Site: http://www.ee.surrey.ac.uk/Research/VSSP/xm2vtsdb/

19
CAPÍTULO 1

INTRODUÇÃO

"Não olhes de onde vens, olha para onde vais."


Pierre Augustin Caron

1.1 BIOMETRIA

Tradicionalmente, têm-se usado senhas e cartões a m de identicar os indivíduos.


Todavia, senhas podem ser esquecidas e cartões perdidos. Além disso, usuários in-
devidos podem utilizar indiscriminadamente cartões e senhas, fazendo-se passar por
outros indivíduos.
Desse problema, originou-se a motivação de usar propriedades inerentes a cada
pessoa com o intuito de identicá-la, como, por exemplo, a assinatura. Vale salientar
que essa idéia não é nova. Há muito tempo, a justiça utiliza impressões digitais,
retratos e assinaturas com esse propósito. O termo biometria pode ser denido
como o uso de padrões comportamentais e/ou físicos para identicar unicamente um
indivíduo.
A biometria possui diversas aplicações, que podem ser divididas em três grupos:
forense, social e comercial. Em aplicações de caráter jurídico, a biometria pode ser
útil para investigação criminal, identicação de corpos e determinação de parentesco.
Através da unicidade de nossas características físicas e comportamentais, espera-se
que em um futuro próximo, documentos de identicação pessoal, tais como identidade
e carteira de motorista, possam ser dispensados. Como outra aplicação, tem-se: o
controle de acesso em ambientes comerciais, residenciais ou militares que necessitem

20
de segurança. Para o comércio, a posse do cartão de crédito pode dar lugar a uma
simples assinatura, que, no ato da compra, autentica a transação. Ou ainda, a
necessidade do uso de cartões e/ou de chas, para a realização de ligações a partir
de telefones públicos seria suprimida, a conta poderia ser enviada para o solicitante
do serviço através do reconhecimento de voz, por exemplo; esse raciocínio se estende
para o uso de celulares. Transações bancárias, comércio eletrônico e serviços de
cartório formam mais um lão para sistemas biométricos.
O maior desao da aplicação de sistemas biométricos em aplicações do mundo
real está atrelado ao melhoramento do seu desempenho. Em um futuro próximo,
técnicas de classicação monomodais, isto é, que utilizam apenas uma biometria,
tendem a alcançar um limite de saturação do desempenho [DBB+ 97]. Alguns tra-
balhos [BF95, ABB+ 96, UDW97, DBB+ 97, KMJS97, JLGW97, HJ98, JLK99, JR02,
Nak02, SP03c, CF03b, JR04, RJ04, SUM+ 05] mostraram que a combinação de mais
de uma técnica biométrica tem melhorado o desempenho, em relação à análise das
técnicas individualmente. Tais sistemas são chamados Sistema de Identicação Pes-
soal Multibiométricos ou Multimodais.

1.2 MOTIVAÇÃO

Cientistas de áreas diferentes têm investido no estudo de modelos para a inte-


gração de sensores, entre eles: neurosiologistas, psicólogos, engenheiros, estatísticos
e cientistas da computação.
Em seu trabalho, Murphy [Mur96] dene a integração inteligente de sensores como
um mecanismo que se adapta às mudanças do ambiente e aos problemas relativos
à captura de informação, determinando, assim, a melhor estratégia para perceber
o ambiente. Nesse mesmo trabalho, o autor examina as contribuições de linhas de
pesquisa em integração de sensores aplicadas à área de aprendizagem de máquina.
Muitas são as aplicações para sistemas que combinam sensores, entre elas pode-se
citar: reconhecimento automático de alvos, sistemas que controlam veículos auto-

21
maticamente, sensoriamento remoto, monitoramento de processos industriais, apli-
cações médicas, robótica e identicação pessoal. Uma outra aplicação para a inte-
gração de múltiplos sensores foi estudada por Sharma et al. [SPH98], em um trabalho
cujo objetivo foi o de investigar direções para a Interface Humano-Máquina (HCI)
multimodal.
A interação pressencial de humanos é multimodal por natureza. À medida que um
humano estabelece um diálogo com outro indivíduo, ele olha, gesticula e aponta para
objetos. A pessoa que está passiva, naquele momento do diálogo, presta atenção
não apenas para a voz do outro, ca atenta, também, à entonação da mesma, às
expressões faciais, bem como capta odores. Dito isso, pode-se armar que os humanos
são animais que integram múltiplos sensores. Vale salientar que, não apenas humanos,
outros animais usam, e muito bem, múltiplas informações captadas do ambiente para
estabelecer a própria sobrevivência.
Talvez o maior incentivo para a fusão de diversas modalidades (sensores) seja
a falta de robustez e o baixo desempenho de sistemas monomodais. A seguir são
mostradas razões biológicas e matemáticas para a combinação de sensores.
Os humanos possuem várias formas de interagir com o meio-ambiente. A capaci-
dade do sistema nervoso central de combinar estímulos provenientes de vários sensores
pode facilitar as tarefas de detecção, localização e discriminação dos mesmos [KC01].
Por exemplo, a habilidade humana de compreender a fala é bastante aumentada
quando, não apenas, a voz é escutada, mas também, quando o locutor pode ser visu-
alizado. Além disso, o tempo de resposta a estímulos multimodais é menor quando
comparado com estímulos monomodais [CHB01]. Entretanto, existem casos em que
a pluralidade da percepção pode gerar resultados indesejados, como, por exemplo,
quando os sinais visuais e auditivos são incongruentes, situação que ocorre em um
lme dublado.
As informações provenientes de diversos sensores devem ser processadas conjun-
tamente em alguma região do cérebro. E estudos realizados por Stein e Meredith,
reportados por Murphy [Mur96], armaram que estímulos provenientes de sensores

22
diferentes não interagem entre si antes de atingirem o cérebro. Sendo mais preciso,
sinais perceptivos são enviados para o Colículo Superior e lá processados. O Colículo
Superior é uma estrutura presente no Sistema Nervoso Central, mais precisamente
no tecto do mesencéfalo de mamíferos, e é constituído de camadas superpostas e al-
ternadas de substância branca e cinzenta que estão relacionas à visão [Mac00]. Esses
resultados foram observados em experimentos realizados em cérebros de felinos, em
especial gatos. Sabendo que a estrutura do Colículo Superior é similar na maioria dos
mamíferos, inclusive no homem, o estudo torna-se aceitável para ns de observação
do fenômeno de combinação de sensores.
Além das razões biológicas mostradas acima para a fusão de sensores, é possível
destacar ainda razões matemáticas que encontram origem na análise estatística de
dados. A desvantagem de se usar apenas uma modalidade (sensor) está na inca-
pacidade da mesma de reduzir a incerteza para a tomada de decisão. Essa incerteza
pode ser proveniente de diversas fontes: imprecisão na captura das características,
características ocultas ou oclusas e ambigüidade na observação. Além disso, com-
binar múltiplas informações da mesma fonte pode aumentar o desempenho quando
informações redundantes são usadas [HL97].

1.3 OBJETIVOS

Na fase de projeto de um sistema de vericação biométrica multimodal, algumas


questões surgem:

i Quais biometrias devem ser usadas?

ii Como extrair características relevantes de cada uma das biometrias?

iii Qual(is) classicador(es) usar?

iii Como combinar as biometrias, combinar as características ou as decisões dos


classicadores?

23
iv Se a combinação for feita a partir das respostas dos classicadores, como
normalizar essas respostas para que a decisão nal não seja prejudicada pelas
diferentes escalas dos valores de saída dos classicadores?

As respostas a tais questões serão dadas ao longo da tese que tem como principal
motivação analisar os resultados da combinação de biometrias diferentes, em especial
face, assinatura e dinâmica da digitação. Para tanto, será necessário investigar e
propor melhorias para cada uma das modalidades individualmente e, em seguida,
conceber uma arquitetura que modele a fusão.
As biometrias face e assinatura têm-se destacado como duas técnicas de fácil
aceitação pela sociedade em geral. Isso se deve ao fato de seu uso corriqueiro em
transações comerciais e burocráticas. Carteiras de identidade, habilitação de mo-
torista, título de eleitor, passaporte, entre outros documentos, se valem tanto da face
quanto da assinatura para identicar o indivíduo portador; alguns desses, se utilizam,
também, da impressão digital. A assinatura de cheques, contratos, contra-cheques,
procurações, é fato comum para o comércio, cartórios e empresas. Essas duas biome-
trias se caracterizam, também, pela facilidade de aquisição, pois os equipamentos
necessários (câmera - para face; scanner - para assinatura) são baratos e de fácil
manuseio. Quanto à dinâmica da digitação, o qual captura o ritmo de digitação
do usuário, pode-se armar que a mesma é transparente. Seu uso não causaria
transtorno algum, uma vez que, para a maioria dos computadores, o teclado é parte
complementar.
A integração de biometrias tem o objetivo primordial de combinar o que elas têm
de melhor para aumentar o desempenho do sistema. Tendo como base as questões
realçadas acima, é possível destacar os seguintes objetivos secundários:

i Encontrar características que descrevam as faces, as assinaturas e a dinâmica


da digitação sem perder informações relevantes para processos de discriminação;

ii Em geral, um fato inerente a sistemas biométricos é o pequeno número de


exemplares por classe. Isso ocorre, pois, em aplicações práticas, é inviável,

24
por exemplo, pedir que um usuário assine trinta, quarenta vezes. Assim, o
classicador selecionado deve ser capaz de encontrar regiões de separação para
as classes, mesmo com poucos exemplos, sendo ao mesmo tempo, rápido e
eciente;

iii Desenvolver um modelo de combinação das biometrias.

1.4 ESTRUTURA DA TESE

Neste capítulo introdutório, a motivação e os objetivos deste trabalho foram apre-


sentados.
O Capítulo 2 traz uma visão geral sobre sistemas biométricos, sejam eles mono
ou multimodais. Nesse capítulo, são apresentadas informações básicas sobre as mais
populares modalidades biométricas, tais como: face, assinatura, impressão digital,
entre outras. Além disso, são mostradas uma arquitetura geral de um sistema
biométrico e três possíveis arquiteturas de sistemas multimodais. Para cada uma
das arquiteturas, são descritas as fases que a compõem. Em uma das seções, a
atenção está voltada às alternativas para avaliar sistemas dessa natureza.
No Capítulo 3 são descritas as técnicas de extração de características usadas para
capturar informações relevantes de cada uma das modalidades biométricas. Ainda
nesse capítulo, os classicadores usados para criar regiões de separação entre as classes
são explicados.
No Capítulo 4 é discutido o problema de classicação de faces e apresenta uma
estratégia para combinar características extraídas de diversas áreas (bandas) da ima-
gem da face - eigenbands fusion. Nesse capítulo, também, são apresentados os resul-
tados obtidos para o reconhecimento e para a vericação de faces usando Principal
Component Analysis (PCA) e eigenbands fusion.
O foco do Capítulo 5 é a vericação de assinaturas. Esse problema é abordado
sob a perspectiva de vericação de assinaturas de tamanhos diferentes. Oito gru-
pos de características extraídos das imagens das assinaturas são avaliados por três

25
classicadores.
No Capítulo 6 são reportados os resultados conseguidos com a biometria dinâmica
da digitação sobre um banco de dados capturados pelos autores. Em especial, dois
grupos de características são avaliados: tempo de pressionamento e tempo de latência.
A combinação das três modalidades biométricas (face, assinatura e dinâmica da
digitação) é exposta no Capítulo 7. Nesse capítulo, em primeiro lugar as biometrias
serão combinadas duas-a-duas e, em seguida, as três biometrias serão unidas. Serão
avaliados o desempenho e a importância da participação de cada uma das biometrias
no sistema combinado.
No Capítulo 8 é mostrado um sumário das contribuições da tese, bem como
possibilidades de atividades futuras da mesma.
No Apêndice A apresenta-se uma tabela contendo o rótulo das características
extraídas das imagens da assinaturas.
No Apêndice B são mostradas tabelas contendo, de forma detalhada, os resulta-
dos encontrados utilizando os oito grupos de características e os três classicadores
empregados na vericação de assinaturas.
No Apêndice C apresentam-se tabelas. A primeira delas contém informações
sobre os usuários utilizados para compor o banco de dados de dinâmica da digitação,
tais como: nome completo, número de padrões autênticos e falsos por classe. Já
nas outras tabelas, são mostrados, de forma detalhada, os resultados da modalidade
biométrica dinâmica da digitação.
No Apêndice D é mostrada uma tabela utilizada para indicar quais os pesos de
cada uma das biometrias no processo de combinação multimodal, que usam três
modalidades: face, assinatura e dinâmica da digitação.

26
CAPÍTULO 2

CLASSIFICAÇÃO BIOMÉTRICA

"People pick bad passwords,


and either forget, write down,
or resent good ones"
Steven Bellovin and Michael Merritt.

2.1 INTRODUÇÃO

Na literatura, muitas técnicas biométricas foram investigadas. Esse capítulo obje-


tiva mostrar as técnicas mais estudadas, fornecendo descritivo das mesmas - Seção 2.2.
Além disso, na Seção 2.3, uma arquitetura de um sistema biométrico monomodal, ou
seja, aquele que se vale de apenas uma biometria, é apresentada. Ainda na Seção 2.3,
pode-se vericar como é realizada a avaliação de sistemas baseados em biometria que,
em geral, são regidos por duas taxas de erros: falso positivo e falso negativo, ou seja,
Erro Tipo I e Erro Tipo II. O estado da arte e arquiteturas de combinação para
sistemas biométricos multimodais são apresentados na Seção 2.4.

2.2 TÉCNICAS BIOMÉTRICAS

É possível classicar as técnicas biométricas em físicas e comportamentais. Dentre


as técnicas físicas, alguns exemplos são: face, impressão digital, retina, íris, formato
da orelha, impressão da mão e DNA. Outras técnicas, como, por exemplo, assinatura,
voz e dinâmica da digitação, são consideradas comportamentais. A Figura 2.1 mostra
um esquema contendo as duas classes de técnicas biométricas.

27
DNA

Íris Retina
Voz
Impressão Digital
Assinatura
Face
Radiografia Dental Dinâmica da Digitação

Mão
Orelha Comportamental
Física

Técnicas Biométricas

Figura 2.1: Classicação das Técnicas Biométricas.

A demanda por sistemas mais ecientes de identicação pessoal existe. Estudo


realizado pelo International Biometric Group - IBG [IBG], em 2002, aponta que os
investimentos, no período de 2002 a 2007, em sistemas biométricos devem atingir o
patamar de mais de 12 bilhões de dólares em todo o mundo (sem contar com DNA).
Pelas prospecções realizadas, em 2005, apenas a tecnologia de reconhecimento fa-
cial deverá alcançar um total de 200 milhões de dólares de investimento. Segundo
relatório do IBG de 2003, 52% do mercado é destinado a aplicações que usam im-
pressão digital. Outros 11,4% cam sob domínio de reconhecimento facial e 2,4%
para assinatura.
Um dos motivos pelos quais técnicas biométricas não estão disseminadas, em
uso cotidiano, por grande parte da sociedade, está atrelado ao desempenho. Pois,
sistemas de identicação pessoal devem ser rápidos e robustos a mudanças de fa-
tores ambientais. Além do desempenho, outros atributos são necessários para o bom
funcionamento de um sistema biométrico:

Aceitabilidade: a sociedade está apta a integrar esse tipo de tecnologia no seu


dia-a-dia.

Custo do Sensor: investimento necessário para compra do sensor.

28
Escalabilidade: impacto sobre o sistema quando o número de usuários é sensivel-
mente aumentado.

Desempenho: para a aplicação proposta, os níveis de erros de falsa aceitação e falsa


rejeição se encontram em patamares aceitáveis.

Facilidade de Captura: a característica deve ser de fácil quanticação (medição).

Longevidade: quanto a característica se modica ao passar do tempo.

Maturidade da Pesquisa: quanto já se pesquisou e se os resultados são relevantes.

Tamanho do Padrão número de bytes necessários para ns de armazenamento do


padrão.

Tamanho do Sensor: as dimensões do sensor implicam se o sistema pode ser apli-


cado a meios móveis e se será percebido pelo usuário.

Tipo do Sensor: divisão dos sensores em classes: invasivo ou não-invasivo.

Unicidade: a característica deve ser única para cada indivíduo.

Universalidade: todas as pessoas devem possuir a característica.

Vulnerabilidade: facilidade de uma característica ser fraudada.

Nenhuma característica biométrica estudada até então satisfaz todos os atributos


realçados acima. Dependendo do contexto, escolhem-se aquela, ou aquelas, que me-
lhor atendem aos requisitos. Jain et al. [JHP00] e Ratha et al. [RSB01] compuseram
tabelas, a partir de especialistas biométricos, que atribuem níveis de aplicação para
alguns dos atributos relacionados acima, referentes a algumas técnicas biométricas.
Dada a quantidade de variáveis envolvidas, é possível armar que, fornecer o título
de melhor técnica biométrica, a alguma das existentes, é uma tarefa não trivial.
Uma promessa, em termos de biometria, é o DNA. Entretanto, o DNA, assim
como outras técnicas, traz consigo questões que envolvem privacidade de informações

29
pessoais e questões legais, referentes ao mau uso dessas informações. Discussões éticas
a esse respeito, que ponderam os prós e os contras de processos biométricos, podem
ser encontradas no trabalho de Woodward [Woo97].
Esforços com o intuito de padronizar interfaces e métodos de avaliação estão
sendo desenvolvidos. Acredita-se que essa iniciativa possa tornar biometria um termo
mais corriqueiro, integrado no dia-a-dia da atual sociedade. Diversos bancos de
dados de impressões digitais foram projetados pelo NIST [NIS]. FERET [FER] e
M2VTS [M2V] são exemplos de banco de dados de faces e de faces e voz, respecti-
vamente, que possuem processos de avaliação bem denidos para facilitar a com-
paração de métodos. BioAPI [Bio] é uma organização que possui o propósito de criar
uma especicação para padronizar o desenvolvimento de interfaces para aplicações
biométricas.
A seguir, informações sobre algumas técnicas biométricas serão apresentadas.
Além das técnicas citadas abaixo, é possível que, num futuro próximo, aplicações
viáveis de outras técnicas sejam usadas comercialmente: odor, salinidade do corpo e
DNA.

2.2.1 Face

Para reconhecer o rosto de uma pessoa, utilizam-se, basicamente, três estratégias.


A primeira delas pode ser atribuída à geometria e às proporções da face [BP93]. Outra
forma de classicar faces é através de uma análise estatística da face completa, uti-
lizando algoritmos como PCA [KS90, BHK97, MK01, CF03a], LDA [BHK97, SW96,
MK01], ICA [BS98], Redes Neurais [LKL97, LGTB97, RBK98] e Wavelets [CW02].
Elastic Graph Matching é uma abordagem que extrai características usando a trans-
formada de Gabor em partes da imagem [LWvdM97].
A face é uma característica bastante aceita pela sociedade em geral, pois, para
sua captura, o usuário não precisa passar por nenhum dispositivo invasivo. Outro
fator interessante é o baixo custo do dispositivo de captura, uma vez que uma câmera

30
digital é suciente. Ainda assim, muitos usuários não se sentem à vontade ao saber
que estão sendo lmados. Porém, sistemas de reconhecimento de faces podem fa-
lhar quando os usuários alteram alguns atributos estéticos, tais como: mudanças de
corte ou cor do cabelo, uso de acessórios como véu, óculos, barba, bigode e chapéu.
Além desses fatores, outros podem inuenciar diretamente no desempenho do sis-
tema: iluminação, rotação e escala. Muito progresso está sendo notado na pesquisa
de reconhecimento de faces em ambientes controlados, nos quais a iluminação, a es-
cala e a posição são, praticamente, xos. Estudos mais consolidados precisam ser
produzidos no trato com imagens com diferentes níveis de iluminação, imagens rota-
cionadas e em diferentes escalas.

2.2.2 Assinatura

Em ambientes comerciais, a assinatura é amplamente aceita como comprovante de


autenticidade pessoal. Documentos como cheques, boletos bancários, comprovante
de débito, cartões de crédito, contratos, entre outros, são validados apenas pela
conferência da assinatura.
Sistemas de classicação de assinatura podem tratar o ato de assinar observando
apenas a estrutura da assinatura, ou ainda, podem levar em consideração caracterís-
ticas sobre o ato de assinar, tais como: velocidade, pressão e pontos em que a caneta
não toca a superfície. Essas duas formas são chamadas, respectivamente, de classi-
cação o-line e on-line de assinaturas. O modelo on-line oferece mais informações,
pois pode incorporar características sobre a estrutura da assinatura, facilitando, as-
sim, o processo de reconhecimento.
Uma diculdade inerente ao problema é que a assinatura de uma mesma pessoa
varia bastante (alta variabilidade intra-classe). Isso pode ser agravado dependendo
do estado emocional do usuário e por problemas de saúde relacionados com a coor-
denação motora.

31
2.2.3 Impressão Digital

Das técnicas biométricas, as que se baseiam em impressão digital lideram o mer-


cado. Os dispositivos de captura de impressões digitais são baratos e podem ser
acoplados ao teclado ou ao mouse. As impressões digitais são únicas. Mesmo gêmeos
idênticos possuem digitais distintas, mais ainda, as impressões dos dedos de uma
mesma pessoa diferem. Outro fator interessante é o bom desempenho atingido por
sistemas computacionais que usam essa técnica.
A classicação das digitais, em grande parte dos sistemas, fundamenta-se em
alguns pontos especiais, chamados de minúcias. A extração desses pontos é realizada
após algumas etapas de melhoramento da imagem: binarização, ltros (realce de
vales, eliminação de pontos falsos) e esqueletização.
Alguns ambientes de trabalhos não são propícios para o uso da impressão digital.
Laboratórios e algumas indústrias necessitam da realização de atividades manuais que
podem desgastar a impressão digital. Além dessa desvantagem, parte da sociedade
ainda associa a impressão digital a questões jurídico-criminais.

2.2.4 Voz

Sistemas de identicação do usuário através da fala tratam a voz como uma


função e se valem dos padrões harmônicos para separar um usuário impostor de um
autêntico. Alguns sistemas, chamados de dependentes do texto, usam os padrões
extraídos de uma palavra ou frase pré-denidas, que é falada pelo usuário, como, por
exemplo: números, senha ou o próprio nome. Outros identicam o usuário através
de qualquer frase, esses são conhecidos como sistemas independentes do texto. No
segundo caso, espera-se que o sistema seja menos vulnerável a fraudes do que o
primeiro.
A voz de um usuário pode ser capturada através de um dispositivo simples como
um microfone ou um telefone. Um fator desfavorável a esse tipo de biometria é sua
susceptibilidade a variações oriundas do estado emocional (cansaço, tristeza, alegria)

32
e físico (gripe, rouquidão) do usuário. Além disso, ruídos captados pelo microfone
podem levar o sistema a recusar um usuário legítimo.

2.2.5 Mão

Três grupos de informações biométricas que podem ser extraídas da mão estão em
voga atualmente na literatura: geometria da mão [SRSAGM00, KWSJ03], impressão
da palma [DJM02, HCLF03, KWSJ03] e veias do punho [IPK+ 01].
Comprimento e largura dos dedos, tamanho e área da palma da mão e compri-
mento da mão são características geométricas. Assim como a impressão digital, a
impressão da palma da mão oferece pontos delta e minúcias, além de três linhas
principais, chamadas de: linha do coração, linha da mente e linha da vida. Os pa-
drões das veias do punho são extraídos através de um dispositivo que não requer
contato, apenas uma "fotograa"da amostra é requerida. Esse atributo representa
uma vantagem em relação a outras biometrias.
Alguns trabalhos têm focado nessa área, com o intuito de preencher o espaço
não alcançado por outras tecnologias. Impressão digital é a técnica mais usada atu-
almente. Entretanto, é difícil capturar suas características relevantes em grupos de
pessoas que realizam trabalhos manuais em laboratórios e em pessoas idosas [KWSJ03].
Im et al. [IPK+ 01], implementaram um FPGA(Field Programmable Gate Array), de
baixo custo, que atingiu 99,45% de acerto, gastando apenas 150ms por pessoa para
fornecer a decisão. O banco de dados por eles usado continha informações de 10 mil
pessoas. Uma estratégia que unia características geométricas com a impressão da
palma da mão foi desenvolvida por Kumar et al. [KWSJ03].

2.2.6 Íris

A íris (parte colorida dos olhos) oferece uma imagem complexa que é única
em cada ser humano. Das técnicas biométricas mais difundidas, imagens da íris
encontram-se no grupo das que apresentam melhor precisão [JHP00, RSB01]. A

33
grande desvantagem desse tipo de abordagem reside no tipo de sensor utilizado. Atu-
almente, é necessário se aproximar bastante do dispositivo de captura, isso caracteriza
um método invasivo que se torna um incômodo para o usuário.
Além da necessidade da cooperação do usuário, o sistema de classicação de íris
é muito exigente, no que diz respeito à qualidade da imagem adquirida. Imagens de
baixa qualidade, íris com uma pupila muito grande ou não centralizada, são normal-
mente rejeitadas logo na aquisição [WTJ03].

2.2.7 Retina

Sistemas de identicação pessoal que usam a retina (imagem do fundo do olho),


analisam uma camada interna do olho que é composta por vasos sanguíneos que
formam um padrão único em cada indivíduo.
Assim como a íris, a captura da imagem da retina é um processo difícil e incômodo,
pois é necessário que o usuário olhe xamente para um ponto luminoso até que a
câmera capture os padrões. O custo associado ao dispositivo para capturar a retina
é mais alto do que o para íris. Assim, o uso dessa modalidade só se justica em
ambientes nos quais a segurança é prioridade absoluta, como exemplo no trato com
presidiários de alta periculosidade.

2.2.8 Radiograa Dental

O principal objetivo do uso de radiograa dental é identicar indivíduos nos casos


em que outras características não estão mais disponíveis. Normalmente, a radiograa
dental, extraída após a morte, é comparada com uma ou mais radiograas que foram
extraídas quando o indivíduo estava vivo.
As características usadas para vericar a similaridade vão desde propriedades dos
dentes (ausência/presença, morfologia da raiz, patologias e restaurações), até detalhes
do tecido periodontal, passando por feições anatômicas. Um atributo problemático
em sistemas que usam radiograas dentais é a longevidade da conformação dentária

34
do indivíduo. As características dentais mudam bastante durante a vida [JCM03].

2.2.9 Formato da Orelha

A orelha é outra característica que distingue humanos. Burge e Burger [BB99]


extraíram 12 características geométricas relativas à orelha para a construção de um
sistema de identicação pessoal. Essa modalidade será útil quando usada para com-
plementar outra técnica. Identicação usando a orelha é extremamente dependente
da iluminação, posição e escala. Outro fator negativo é atribuído à oclusão parcial,
ou total, da orelha pelos cabelos.

2.2.10 Imagem Térmica do Rosto

O sistema vascular da face produz um padrão térmico único que emana através
da pele. Essas características podem ser observadas com uma câmera que capture
luz infravermelha.
A iluminação é uma desvantagem do sistema de reconhecimento de faces, que pode
ser sanada quando a temperatura da face é analisada, pois, uma câmera infravermelha
pode capturar informações mesmo na ausência de luz. Algumas desvantagens são:
dependência do estado emocional, alterações de temperatura devido a doenças, além
de dependência de rotação e de escala.

2.2.11 Dinâmica da Digitação

Assim como a geometria da mão, a dinâmica da digitação é uma forma barata de


se implementar autenticação pessoal, em especial para acesso a computadores.
As características analisadas são extraídas da forma como a pessoa digita. A
velocidade, tempo entre o acionamento de cada tecla, a força aplicada a cada tecla
e a duração do tempo de pressionamento de cada tecla formam um padrão que
difere de pessoa para pessoa. O dispositivo necessário para a implementação dessa

35
modalidade já está disponível nos computadores atuais, uma vez que apenas um
teclado é requerido.

2.3 SISTEMA BIOMÉTRICO MONOMODAL

Uma arquitetura básica de um sistema biométrico pode ser visualizada na Figura 2.2.
Basicamente, ela é composta de uma etapa de treinamento e uma etapa de uso. Na
etapa de treinamento, algumas amostras biométricas dos indivíduos são utilizadas
para criar uma representação que os denote. Na etapa de uso, o sistema treinado
utiliza a representação criada na etapa anterior para atribuir um valor verdade ao
indivíduo que está sob investigação.

Treinamento

Sensor Extração de
Biométrico Características Biométricas BD

Biometria
Uso
Verificação Aceita
Biométrica Recusa
Sensor Extração de
Biométrico Características Biométricas
Reconhecimento Lista de
Biométrico respostas

Figura 2.2: Arquitetura básica de um sistema de identicação pessoal monomodal.

O tipo de sensor empregado depende, diretamente, da técnica biométrica esco-


lhida. Desta forma, o processo de aquisição do padrão pode ocorrer de diversas for-
mas, como, por exemplo, câmera digital (face, mão, imagem térmica do rosto, orelha,
movimento dos lábios), teclado (dinâmica da digitação), dispositivo de captura de
impressão digital, microfone, mesa digitalizadora (assinatura), entre outros.
A tarefa do módulo de Extração de Características é reduzir a dimensão dos
dados de entrada, resguardando, no entanto, informações que discriminem, da melhor

36
forma possível, os padrões. A Classicação de Padrões pode ser dividida em duas
classes menores: Vericação e Reconhecimento. Na Vericação, o padrão (usuário),
fornecido como entrada, é comparado com sua representação prévia, armazenada no
banco de dados (BD). A saída atesta se o usuário é autêntico ou não, isto é, se ele é
quem diz ser. Já no Reconhecimento, o objetivo é encontrar dentro do BD usuários
que se assemelhem bastante ao padrão de entrada. Uma lista de possíveis candidatos
é fornecida como saída. O trabalho de encontrar o candidato ideal é deixado para
uma fase posterior, que pode requerer intervenção humana ou não.

2.3.1 Avaliação de Desempenho

Na seção anterior, foi observado que sistemas de classicação de padrões podem


ser divididos em sistemas de reconhecimento e em sistemas de vericação (autenti-
cação). Um sistema de reconhecimento associa um novo exemplar a uma das classes
do problema em questão. Já um sistema de vericação consiste em aceitar ou rejeitar
uma determinada observação. Esse último pode ser visto como um reconhecimento,
no qual existem apenas duas classes, uma representando um usuário verdadeiro e a
outra um impostor. Discussões sobre como avaliar e selecionar um sistema baseado
em biometria podem ser encontradas nos trabalhos de Shen et al. [SSK97], de Way-
man [Way99] e de Daugman [Dau00].

− Correta Aceitação
critério c − Correta Rejeição
− Falsa Aceitação
− Falsa Rejeição

Autêntico fau
Impostor fim

Figura 2.3: Região de decisão para sistemas biométricos.

37
As regiões de decisão geradas por problemas de autenticação biométrica podem ser
visualizadas na Figura 2.3. As duas curvas modelam distribuições de probabilidade
de cada uma das classes, as quais não são completamente separadas. A abcissa
representa alguma métrica de similaridade. As duas curvas geram quatro regiões, que
são nomeadas da seguinte forma: Correta Aceitação (CA), Correta Rejeição (CR),
Falsa Aceitação (FA) e Falsa Rejeição (FR). CA e CR representam usuários autênticos
e impostores corretamente classicados, respectivamente. Os erros podem vir de duas
fontes: usuários impostores classicados como autênticos (FA) e usuários autênticos
classicados como impostores (FR).
A probabilidade de cada uma das quatro possíveis regiões é dada pela área abaixo
das suas distribuições de probabilidade sobre cada um dos lados gerados pelo critério
de decisão, Equações ., ., . e ..

Z c
P (CA) = fau (x) dx (.)
0

Z 1
P (CR) = fim (x) dx (.)
c

Z c
P (F A) = fim (x) dx (.)
0

Z 1
P (F R) = fau (x) dx (.)
c

Na Figura 2.3, observam-se duas classes: autêntico e impostor. O trabalho do


classicador é determinar se um novo padrão é, na realidade, um usuário verdadeiro
ou apenas um impostor. O critério de decisão c gerado pelo classicador pode tornar
o sistema mais permissivo a erros provocados por aceitar usuários impostores ou,
por outro lado, pode torná-lo mais restritivo, ao rejeitar usuários autênticos. Então,
nota-se que existe uma relação entre a taxa de aceitação de usuários autênticos e a
taxa de aceitação de impostores.

38
Dependendo do tipo de aplicação, deve-se manipular o critério de decisão para
tornar o sistema mais permissivo a erros provocados por aceitar usuários impostores
ou não. Por exemplo: em um sistema de alta segurança militar, é mais indicado que,
na dúvida, não se conceda acesso a um dado usuário. Já em um sistema de acesso
a um computador pessoal em uma residência, pode ser mais vantajoso aceitar um
possível impostor do que impedir o acesso de um usuário autêntico.
Manipulando o critério de decisão c, mostrado nas Equações ., ., . e .,
é possível atingir 0%(zero) de erro de FA, basta rejeitar todos os usuários. Esse
procedimento gera um erro de 100% de FR. Da mesma forma, 0%(zero) de erro de
FR pode ser obtido, simplesmente, aceitando todos os candidatos. Entretanto, nesse
caso, o erro de FA pode atingir o patamar máximo de 100%.
Em meio discreto, o desempenho de um sistema biométrico é, freqüentemente,
medido por meio de duas taxas, que são expressas pelas seguintes equações:

número de falsas aceitações


F AR = (.)
número de acessos de usuários impostores

número de falsas rejeições


F RR = (.)
número de acessos de usuários autênticos
A Taxa de Falsa Aceitação (FAR - False Acceptance Rate ), ocorre quando o
sistema aceita um impostor como um usuário autêntico, ao passo que a Taxa de
Falsa Rejeição (FRR - False Rejection Rate ) ocorre quando o sistema rejeita um
usuário autêntico. Uma medida que combina essas duas taxas é chamada de Risco e
pode ser denida pela equação a seguir:

λ1 × F RR + λ2 × F AR
Risco = , (.)
λ1 + λ2
λ1 e λ2 são constantes que denem a importância das taxas (FAR e FRR). Quando
λ1 e λ2 são iguais, a mesma relevância é dada para cada uma das taxas e a equação
de Risco associada recebe o nome de Half Total Error Rate (HTER). Sistemas que
necessitam de baixas taxas de Falsa Aceitação devem ter λ2 maior do que λ1 . A

39
minimização da FRR foi considerada mais importante, em usos práticos, do que a
minimização da FAR em trabalho realizado por Dieckmann et al. [UDW97], eles
usaram os seguintes valores: λ1 = 2 e λ2 = 1.
Outra medida comumente utilizada é a EER (Equal Error Rate) [Way99, Dau00],
na qual procura-se pelo ponto em que os erros, FRR e FAR, atingem valores iguais
ou bastante próximos. A curva ROC (Receiver Operating Characteristic ) também é
bastante usada para avaliar o desempenho de um sistema biométrico, ela representa
FRR como uma função do FAR [Way99, Dau00].

2.3.2 Encontrando o Critério de Separação

O critério de separação c, também conhecido como limiar (threshold), dene duas


regiões: uma região de usuários autênticos e outra de impostores, conforme mostrado
na Figura 2.3. Entretanto, os grácos que modelam cada uma dessas regiões, nor-
malmente, se sobrepõem, causando, assim, erros que foram denidos como: erro de
falsa aceitação (FAR) e erro de falsa rejeição (FRR). Isso signica dizer que, em sis-
temas biométricos reais, alguns usuários impostores possuem padrões que fornecem
respostas inferiores ao valor do limiar e, alguns usuários autênticos produzem res-
postas com valores maiores do que o limiar. Assim, mesmo após criteriosa escolha
do limiar, erros de classicação podem ocorrer.
Uma pergunta que surge é: como encontrar o melhor limiar dada uma deter-
minada distribuição de dados, denida por um conjunto de padrões de validação?
Algumas formas simples de calcular o limiar podem ser vistas nas equações abaixo.
Operações simples como: máximo (.), mínimo (.) e média (.), foram usadas
por Jain et al. [JGC02] para calcular o critério de separação.

limiarmax = Máximo(x1 , x2 , . . . , xn ), (.)

limiarmin = Mínimo(x1 , x2 , . . . , xn ), (.)

40
n
1X
limiarmed = (xi ), (.)
n i=1
sendo n o número de padrões de validação e xi é a resposta do classicador para o
i-ésimo padrão no conjunto de validação.
O cálculo do limiar pode ser realizado de duas formas: assumindo o mesmo valor
para todas as classes (limiar global) ou atribuindo limiares independentes para cada
classe (limiar local). A vantagem que pode ser observada na computação do limiar
global é que todo o conjunto de dados de validação é usado para encontrar um limiar
ótimo baseado em algum critério de minimização do erro. Isso é relevante pois, em
aplicações de biometria, o número de exemplos por classe, em geral, é limitado. En-
tretanto, nesse modelo, características inerentes a cada classe são perdidas. Usando
um limiar por classe, ou seja, cada classe é tratada individualmente, resultados melho-
res podem ser alcançados. Esse limiar local, dependente do usuário, torna-se mais
conável à medida que o número de amostras da população cresce.
Nesse trabalho, o limiar será calculado com base na distribuição t-Student [DeG89].
Uma maneira de estimar um parâmetro desconhecido é construir um intervalo de con-
ança que possua uma probabilidade igual a 1 − α (nível de conança) - sendo α o
nível de signicância. Esse valor indica a probabilidade de que o intervalo contenha
o verdadeiro parâmetro.
Para o cálculo do intervalo de conança, no caso em que o valor da variância
populacional é conhecida, supõe-se que a distribuição de dados é regida por uma
Normal. Todavia, se o desvio padrão é desconhecido, o mesmo precisa ser estimado.
Tendo uma amostra aleatória de tamanho n, o estimador para σ 2 é dado por:

n
1 X
S2 = (xi − x)2 , (.)
n − 1 i=1
sendo x a média dos padrões no conjunto de validação, xi o i-ésimo padrão nesse
mesmo conjunto, e S 2 a variância amostral.
Sabendo que S 2 também é uma variável aleatória, não se pode considerar que
tenha distribuição Normal, simplesmente. A distribuição t-Student (Equação .)

41
se adapta a essa circunstância, na qual a variância σ 2 é desconhecida, pois ela depende
do valor n, ou seja, do número de elementos da amostra. Uma amostra de tamanho
n possui n − 1 graus de liberdade. Essa distribuição é semelhante à distribuição
Normal, porém, menos "achatada". Quando n tende para o innito, a distribuição
de t-Student tende para a distribuição Normal. A Figura 2.4 mostra o gráco da
distribuição t-Student.

Figura 2.4: Gráco da distribuição t-Student.

x−µ
t= q 2 , (.)
S
n
Para a construção de um intervalo de conança para µ com nível de conança
igual a 1 − α, utiliza-se a Equação ..

S S
P (x − t α2 √ < µ ≤ x + t α2 √ ) = 1 − α, (.)
n n
o valor de t α2 mostrado na Equação . e na Figura 2.4, para a distribuição t-Student,
é tabelado.

2.4 SISTEMA BIOMÉTRICO MULTIMODAL

2.4.1 Estado da Arte

A Tabela 2.1 mostra quais modalidades biométricas têm sido usadas para compor
sistemas multibiométricos. Duas modalidades, uma física e uma comportamental,

42
têm dominado a maioria dos trabalhos, são elas: face e voz, respectivamente. Alguns
trabalhos usaram apenas características físicas [KMJS97, HJ98, JR02, RJ03, WTJ03,
KWSJ03]. Já trabalhos que combinassem apenas características comportamentais
não foram encontrados.
A motivação de compor técnicas biométricas possui o mesmo objetivo de combi-
nação de classicadores: agrupar as melhores funcionalidades de cada uma das partes.
Técnicas biométricas foram divididas em duas grandes categorias (Seção 2.2): físicas
e comportamentais. A união de uma técnica biométrica física (exemplo: face) com
uma técnica biométrica comportamental (exemplo: assinatura) pode conduzir a um
ganho de desempenho.
Brunelli e Falavigna [BF95] apresentaram um artigo, no qual um sistema de iden-
ticação pessoal multibiométrico foi usado. A resposta do sistema era dada por uma
combinação de cinco classicadores, dos quais dois eram baseados em características
vocais e três baseados em aspectos visuais da face, tais como: olhos, nariz e boca.
Porém, antes de realizar a classicação, as características de cada uma das modali-
dades biométricas foram submetidas a um processo de normalização, fundamentado
nos conceitos de robusts statistical. Para realizar os experimentos, dados de 89 pes-
soas foram colhidos em três seções. A primeira seção foi usada para treinamento, e
as outras duas para validar o sistema. Cada seção consistia de 82 iterações do indiví-
duo com o sistema. A taxa de classicação correta do sistema integrado foi de 98%.
Resultado que representa uma melhora signicativa em relação as taxas individuais
de acerto: 88% para voz e 91% para face.
Na mesma linha do trabalho desenvolvido por Brunelli, em 1996, Acheroy et
al. [ABB+ 96] desenvolveram um sistema de identicação baseado em voz e imagens
de faces. O banco de dados usado foi confeccionado pelos próprios autores e continha
37 classes com 5 imagens por classe. Durante a captura de cada face, o indivíduo
contava de 0 (zero) até 9 (nove), em sua língua nativa. O melhor resultado da
combinação das modalidades atingiu os seguintes erros: 2,0% de FRR e 2,72% de
FAR.

43
Trabalho Face Voz Impressão Digital Mão Movimento dos Lábios Íris Assinatura
N N
Brunelli e Falavigna [BF95]
N N
Acheroy et al. [ABB+ 96]
N N
Duc et al. [DBB+ 97, BBDF97]
N N N
Dieckmann et al. [UDW97]
N N
Jourlin et al. [JLGW97]
N
Kittler et al. [KMJS97]
N N
Kittler et al. [KHDM98]
N N
Hong e Jain [HJ98]

44
N N
Verlinde et al. [VCA00]
N N N
Jain et al. [JLK99]
N N N
Ross e Jain [JR02, RJ03]
N N
Sanderson e Paliwal [SP03c]
N N
Wang et al. [WTJ03]
N
Kumar et al. [KWSJ03]
N N
Cavalcanti e Filho [CF03b]

Tabela 2.1. Técnicas biométricas usadas em trabalhos recentes para a identicação pessoal multimodal em ambientes controlados
(apresentados em ordem cronológica).
Bigun et al. [BBDF97, DBB+ 97] desenvolveram um algoritmo, baseado na teoria
Bayesiana, que tinha por objetivo conciliar a saída de cada um dos classicadores
individuais na direção correta. A validação do framework ocorreu usando dados
reais do banco de dados M2VTS. Usando características da face e da voz, o sistema
melhorou a qualidade de cada classicador individual e atingiu taxa de acerto igual
a 99,5%. Também em 1997, Dieckmann et al. [UDW97] propuseram a combinação
de três características biométricas, duas delas dinâmicas: a voz e o movimento dos
lábios; e uma estática: a imagem da face. O banco de dados foi desenvolvido pelos
próprios autores e continha 15 pessoas. Os melhores resultados foram alcançados
combinando as modalidades pela votação 2-de-3: 0,2% de FRR e 0,3% de FAR.
Jourlin et al. [JLGW97] desenvolveram um sistema de vericação acústico-labial.
Tal sistema era composto de dois classicadores: um que usava características vi-
suais (movimento dos lábios) e outro que usava aspectos sonoros. O banco de dados
audiovisual M2TVS foi usado para a realização dos experimentos. O melhor resultado
foi encontrado após a combinação: 2,8% de FRR e 0,5% de FAR.
Kittler et al. [KMJS97, KHDM98] desenvolveram dois trabalhos sobre identi-
cação pessoal. No primeiro deles, diferentes informações foram extraídas apenas da
face do usuário: face e perl da face. Já no segundo trabalho [KHDM98], eles com-
binaram características da face com a voz, usando diferentes regras de combinação:
Produto, Média, Votação, Máximo e Mínimo. Os experimentos foram realizados so-
bre o banco de dados M2VTS e o melhor resultado encontrado, após a combinação,
foi de 0,7% de ERR. A combinação de duas técnicas biométricas baseadas em ima-
gens foi proposta por Hong e Jain [HJ98] em 1998. O sistema de identicação pessoal
proposto usava impressões digitais e faces. Três bancos de dados de faces foram usa-
dos, resultando num total de 86 pessoas, são eles: o banco de dados da Olivetti
(ORL [ORL]), o banco de dados da Universidade de Bern e o banco de dados do
MIT Media Lab. As impressões digitais provieram do banco de dados da Universi-
dade Estadual de Michigan, contendo 150 pessoas. O melhor resultado encontrado
foi 1,8% de FRR e 0,1% de FAR.

45
Verlinde et al. [VCA00] propuseram uma arquitetura geral, baseada na teoria de
Bayes, para resolver o problema de vericação pessoal multimodal. Duas modalidades
biométricas foram extraídas do banco de dados M2VTS: face e voz. O melhor resul-
tado da arquitetura proposta foi encontrado usando um modelo de regressão logística
e alcançou as seguintes taxas: 2,7% de FRR e 0,0% de FAR. No trabalho de Jain
et al. [JLK99], a composição de duas técnicas biométricas físicas (impressão digital
e face) com uma técnica comportamental (voz) foi implementada. Os experimentos
foram realizados a partir de um banco de dados adquirido no ambiente do labo-
ratório. Os sistemas de vericação pessoais multimodais, na sua maioria, adquirem
informações de ambientes bem controlados. Choudhury et al. [CCJA99] propuseram
uma forma de combinar imagens de vídeo com áudio sem restrições de aquisição. O
sistema admite que a imagem da face esteja rotacionada e que a voz apresente padrões
ruidosos. O sistema atingiu 0% de erro com um banco de dados de 26 pessoas.
Ross e Jain [JR02, RJ03] estudaram mecanismos para extrair parâmetros ine-
rentes a cada usuário com o intuito de compor um sistema multibiométrico usando
três características: impressão digital, face e geometria da mão.
Sanderson e Paliwal [SP03c] utilizam um sistema de vericação bimodal que com-
bina a fala (independente do texto) com a face. Os experimentos foram realizados
sobre o banco de dados VidTIMIT. As características foram extraídas usando PCA
(para a face) e Maximum Auto-Correlation Values (para a voz). Antes de realizar a
combinação das decisões dos classicadores, um processo de normalização foi usado.
A face é uma técnica biométrica "amigável"e não invasiva, enquanto que a íris
é uma das que consegue melhor desempenho. Wang et al. [WTJ03] construíram
um sistema que combina essas duas técnicas, através integração de decisão aplicada
à regra da soma ponderada. PCA é um algoritmo que encontra pontos críticos
de variações locais que foram usados para extrair características da face e da íris,
respectivamente.
A combinação de duas técnicas biométricas extraídas da mesma fonte foi estudada
por Kumar et al. [KWSJ03]. Eles usaram uma câmera digital para coletar 1000

46
imagens da mão de 100 pessoas. A parte central da palma da mão foi dividida em
144 blocos de tamanho 24x24 pontos. De cada um dos blocos, o desvio-padrão das
imagens em tons de cinza foi calculado. Dezessete características geométricas foram
calculadas, sendo elas: comprimento de cada um dos dedos (4 caracerísticas - exceto
o polegar), largura de cada um dos dedos (8 características - duas larguras por dedo,
exceto o polegar), comprimento e largura da palma, além da área e do tamanho da
mão. Os resultados alcançados usando a regra de combinação Máximo [KHDM98],
conseguiram melhores resultados do que o uso das técnicas isoladamente.
A primeira iniciativa de se combinar face com assinatura, diante do nosso conhe-
cimento, foi realizada por Cavalcanti e Carvalho Filho [CF03b]. Essas duas biome-
trias representam as técnicas com maior grau de aceitação social. A assinatura é
amplamente utilizada, em diversos documentos, como validação de autenticidade. Já
a foto do rosto é encontrada nos mais variados documentos de uso diário: identidade,
carteira de motorista e crachás. Características Estruturais e PCA foram usadas,
respectivamente, para capturar informações relevantes das assinaturas e das faces.
As duas modalidades foram submetidas ao mesmo classicador: Baseado em Distân-
cia. Após a classicação, os métodos de normalização propostos por Brunelli [BF95]
e por Sanderson [SP03c], foram utilizados. Os experimentos deram ligeira vantagem
ao segundo método de normalização e mostraram que a combinação melhorou o de-
sempenho do processo de vericação, quando comparado com o uso de apenas uma
modalidade por vez.

2.4.2 Arquiteturas para Integração de Modalidades Biométricas

No desenvolvimento de um sistema multimodal, é necessário decidir qual arquite-


tura de integração será empregada. Analisando a integração multimodal clássica,
três arquiteturas são comumente lembradas: Integração de Dados, Integração de
Características e Integração de Respostas (Decisões) [Das97, SPH98]. Essas três
possibilidades são detalhadas nas seções que seguem.

47
2.4.2.1 Integração de Dados A Figura 2.5 mostra um esquema para a inte-
gração de dados. Nesse modelo, a integração é realizada através da união das obser-
vações percebidas por diversos sensores, sendo usada apenas quando as observações
são do mesmo tipo.

BIOMETRIA 1

BIOMETRIA 2 CLASSIFICADOR DECISÃO

BIOMETRIA n

VETOR DE
DADOS
COMBINADO

Figura 2.5: Integração de Dados.

Em geral, esse tipo de combinação não é usada em sistemas multibiométricos,


mesmo sendo o nível de integração no qual menos informação é desperdiçada. Isso
ocorre porque as observações são, normalmente, diferentes, provenientes de tipos
distintos de sensores, como, por exemplo, uma câmera que captura uma face e um
microfone que captura voz.

2.4.2.2 Integração de Características Nesse modelo de integração, as carac-


terísticas extraídas de diversas fontes são combinadas, formando um vetor único
(Figura 2.6).

48
EXTRAÇÃO DE
BIOMETRIA 1
CARACTERÍSTICAS

EXTRAÇÃO DE
BIOMETRIA 2 CLASSIFICADOR DECISÃO
CARACTERÍSTICAS

EXTRAÇÃO DE
BIOMETRIA n
CARACTERÍSTICAS

VETOR DE
CARACTERÍSTICAS
COMBINADO

Figura 2.6: Integração de Características.

Embora perca mais informações do que o modelo anterior, a integração de carac-


terísticas é menos sensível ao ruído [SPH98]. Uma possível desvantagem é encontrada
no tamanho do vetor combinado de características. Esse aumento na dimensionali-
dade dos dados de entrada pode acarretar a necessidade de mais padrões de treina-
mento (curse of dimensionality). Além disso, é necessário, também, normalizar os
dados de diversas fontes, a m de impedir inuência indevida de algumas caracterís-
ticas sobre outras.

2.4.2.3 Integração de Decisões Nesse tipo de integração, cada modalidade


biométrica passa suas características para um classicador dedicado, que gera uma
resposta. Todas as respostas são combinadas com o intuito de gerar uma decisão
única. Uma representação esquemática da Integração de Decisão é apresentada na
Figura 2.7.

49
EXTRAÇÃO DE
BIOMETRIA 1 CLASSIFICADOR
CARACTERÍSTICAS

SUPERVISOR
EXTRAÇÃO DE
BIOMETRIA 2 CLASSIFICADOR DECISÃO
CARACTERÍSTICAS

EXTRAÇÃO DE
BIOMETRIA n CLASSIFICADOR
CARACTERÍSTICAS

Figura 2.7: Integração de Decisão.

Na Integração de Decisões, cada classicador é um especialista que observa apenas


as características de cada uma das fontes de entrada. A estratégia é combinar a
resposta de cada um dos classicadores em uma resposta global, fornecida por um
supervisor. Pode-se dividir o tipo de resposta de classicadores em: soft e hard. No
primeiro tipo, a saída de cada um dos classicadores é um valor real, normalmente,
no intervalo entre 0 e 1. Esse tipo de resposta preserva informação, ao contrário do
segundo caso (hard ), no qual apenas duas saídas são suportadas: 0 para rejeitar o
padrão e 1 para aceitar o padrão. A Integração de Decisão é o método mais robusto
e resistente a erros provenientes de falhas dos sensores [SPH98].

2.4.2.4 Comentários Outras arquiteturas de integração são factíveis. Uma forma


híbrida pode ser conseguida unindo informações dos modelos de integração: carac-
terísticas e decisão, apresentados acima. Isto é, apresentar a vários classicadores os
vetores conseguidos da fusão de características de várias fontes. Nessa arquitetura
híbrida, a decisão soft ou hard pode ser empregada.
Pode-se pensar, também, em arquiteturas não-seqüenciais, nas quais os dados de
entrada podem inuenciar na decisão gerada pelo supervisor; bem como, arquiteturas
recorrentes. Vale salientar que essas arquiteturas são mais complexas do que as
apresentadas anteriormente e, por essa razão, mais difíceis de serem implementadas
e avaliadas. Encontrar o melhor método de integração para um dado problema é

50
uma questão não trivial, que deve levar em consideração os recursos computacionais
disponíveis e características inerentes a cada um dos sensores.
As biometrias mostradas nas Figuras 2.5, 2.6 e 2.7 podem ser provenientes de dife-
rentes fontes biométricas (face, assinaturas, impressão digital), ou ainda, diferentes
observações da mesma característica biométrica, como nos trabalhos de Kittler et
al.[KMJS97] e de Kumar et al. [KWSJ03].
Alguns trabalhos mostraram vantagens quando decisões são combinadas. No tra-
balho de Kumar et al. [KWSJ03], a impressão da palma da mão foi combinada com
características geométricas da mão usando duas arquiteturas de combinação: carac-
terísticas e decisão. Os melhores resultados foram encontrados combinando decisões.
Os trabalhos desenvolvidos por Guimarães et al. [GMC02, GMC03] mostraram que
a combinação das respostas de três redes neurais podem melhorar os resultados da
predição de estruturas secundárias de proteínas através de decisão soft.

51
CAPÍTULO 3

MÉTODOS DE EXTRAÇÃO DE
CARACTERÍSTICAS E DE
CLASSIFICAÇÃO DE PADRÕES

"Não basta ler, é necessário entender o que se lê."


Stanislas Jean.

3.1 INTRODUÇÃO

Um ponto de fundamental importância, quando o assunto se refere a um sistema


de processamento de padrões, é o esforço computacional necessário para realizar a
tarefa. Sabe-se que utilizar todos os pixels de uma imagem, como entrada para
um classicador, pode ser considerado desperdício de tempo, já que, é grande a
probabilidade da existência de dados redundantes e de informações irrelevantes. Além
do mais, quanto maior o conjunto de entrada de um classicador, maior o tempo gasto
para o seu processamento.
Sendo assim, utiliza-se a transformação dos dados de entrada para alguma outra
representação antes de apresentá-lo a um classicador. Essa nova representação tem
o objetivo, não só, de reduzir a dimensão dos dados de entrada, como também, gerar
uma representação que realmente modele os dados originais.
É fato que essa diminuição na dimensão da imagem poderá levar a alguma perda
de informação. Mas, o importante é que essas técnicas de extração de características

52
consigam eliminar apenas informações que possuam pouca importância no conjunto
da imagem.
O processo de extração de características está intimamente ligado à fase de classi-
cação, já que, em geral, um bom conjunto de características irá propiciar uma alta
taxa de classicação correta.
Na Seção 3.2, será apresentado o método de extração de características aplicado
à face: a transformada de Karhunen-Loève, também conhecida como PCA (Análise
dos Componentes Principais - Principal Component Analysis). Os métodos de ex-
tração de características aplicados às assinaturas são mostrados na Seção 3.3, são eles:
Pseudo-dinâmicos, Estruturais e Invariantes. Já os classicadores estão descritos na
Seção 3.4.

3.2 EXTRAÇÃO DE CARACTERÍSTICAS FACIAIS ATRAVÉS DA ANÁLISE


DOS COMPONENTES PRINCIPAIS

A análise de Componentes Principais é uma transformação linear ortogonal de um


espaço p-dimensional para um espaço m-dimensional, m ≤ p. As coordenadas dos
dados, no novo espaço, não são correlacionadas e a maior quantidade de variância dos
dados originais é preservada usando-se somente algumas poucas coordenadas [JW92].
O objetivo da análise das componentes principais é a obtenção de um pequeno
número de variáveis não correlacionadas (componentes principais), que retenha o
máximo possível de informação. Freqüentemente, um pequeno número de compo-
nentes pode ser usado, em lugar das variáveis originais, nas análises de regressões,
análise de agrupamentos e outros [Bis95].
Os componentes principais são extraídos na ordem do mais explicativo para o
menos explicativo. O número de componentes é sempre igual ao número de variáveis.
Porém, alguns poucos componentes são responsáveis por grande parte da explicação
total.
A análise de componentes principais é uma técnica que encontrou uso em uma

53
ampla gama de aplicações: Predição de Estrutura Secundária de Proteínas [MCG03a,
MCG04], Reconhecimento Automático de Alvos [SVCA98, VAF+ 99], Reconhecimento
de Caracteres, Reconhecimento de Faces [KS90, BHK97, ZCP99, MK01, CF03a], Re-
dução de Ruído, Compressão de Dados, Visualização de Dados Multidimensionais.
Um método usado para encontrar os autovetores e os autovalores da matriz de
covariância (Σ), de uma matriz com n vetores e p dimensões, é através da diagona-
lização direta de Σ. Esse método é extremamente custoso, principalmente quando
dados multidimensionais são usados, o número de operações é da ordem de O(n3 ).
Para superar esse problema, Roweis [Row98] apresentou um algoritmo baseado no
algoritmo Expectation-Maximization (EM) para aprender os componentes principais
de dados multivariados. Para esse algoritmo EM, não é necessário o cálculo da ma-
triz de covariância e sua complexidade está limitada a O(knp) operações, sendo k o
número de autovetores. O algoritmo é dividido em duas partes:

• (expectation) − X = (C T C)−1 C T Y

• (maximization) − C novo = Y X T (XX T )−1 ,

sendo Y uma matriz de dados de dimensão p × n, X é uma matriz de estados


desconhecidos k × n e C é uma matriz que contém os k componentes principais. A
idéia básica por trás desse algoritmo é a seguinte: uma linha arbitrária é escolhida;
depois, todos os pontos são projetados nessa linha. Em seguida, os valores dos estados
escondidos são xados (X ) e uma nova linha que otimize a função de distância deve
ser encontrada. Após a computação dessa nova linha, deve-se retornar para o passo
de expectation e encontrar outra linha, o procedimento continua até convergir.

3.3 EXTRAÇÃO DE CARACTERÍSTICAS DE ASSINATURAS

Após a digitalização, processo de discretização de uma imagem, cada assinatura


pode ser representada por uma matriz, na qual cada posição denota um pixel. Tendo
em vista que a quantidade de informação redundante nessa representação é muito

54
alta, foi preciso transformar essas matrizes para alguma outra representação antes de
apresentá-las a um classicador. Essa nova representação tem o objetivo, não só, de
diminuir a dimensão dos dados de entrada, como também, gerar uma representação
que realmente modele os dados originais. Essa tarefa é realizada por métodos de
extração de características.
Para cada uma das assinaturas, foi extraído um conjunto de 37 características que
pertencem a três técnicas diferentes: técnicas pseudo-dinâmicas, técnicas estruturais
e técnicas invariantes.

3.3.1 Características Pseudo-dinâmicas

A técnica selecionada para extração de características pseudo-dinâmicas, foi a


técnica desenvolvida por Ammar [AYF86], que recupera a informação da pressão
exercida durante o traçado. A pressão é uma característica interessante para a iden-
ticação o-line de assinaturas pelo fato de ser dinâmica, pois pode ser extraída de
uma imagem estática.
Foram utilizadas cinco características relativas à pressão, são elas: limiar de alta
pressão, pressão máxima, mínima-máxima, área de alta pressão e fator de pressão.
A técnica consiste, basicamente, na extração de algumas características formadas
por regiões de alta pressão - HPR (High Pressure Regions ). A denição das regiões
de alta pressão é dada pela Equação ..



 255, if I(i,j) ≥ THP
Ihp = (.)

 0, caso contrário
Na qual I é a imagem original, Ihp é a imagem que contém apenas regiões de
alta pressão e THP (Threshold of High Pressure ) é o limiar de alta pressão. O valor
do THP é denido, adaptativamente, a partir do histograma da assinatura. O THP
será o nível de cinza, cuja quantidade de pixels com tonalidade menor ou igual a ele,
corresponda a 0,7 do número de pixels do nível de cinza com maior quantidade de
pontos na imagem, ou seja, o ponto 0,7 no histograma acumulado normalizado da

55
assinatura [AYF86]. A Figura 3.1 ilustra o ponto correspondente ao THP.

Frequencia
Acumulada

1.0

0.7

THP Nivel de Cinza

Figura 3.1: Cálculo do limiar de alta pressão.

O limiar de alta pressão, isto é, o THP foi explicado acima. A pressão máxima
exercida correspondente ao menor tom de cinza encontrado. Quanto mais próximo
de zero, mais escuro o traço, o que representa maior pressão exercida. A faixa
dinâmica da pressão, ou seja, o tom de cinza máximo, menos o tom de cinza mínimo,
representa a característica Mínima-Máxima. A área de alta pressão é dada por um
valor correspondente à área da imagem de HPR, isto é, o número de pixels pretos da
imagem contendo apenas HPRs. Já o fator de pressão corresponde à razão entre a
área da imagem de alta pressão e área da imagem binária completa.

3.3.2 Características Estruturais

Duas características estruturais foram utilizadas: Razão e Inclinação. A razão é


calculada pela divisão da largura da assinatura por sua altura.
No que diz respeito à inclinação, três medidas foram calculadas: inclinação posi-
tiva, sem inclinação (inclinação vertical) e inclinação negativa. Uma maneira de se
calcular a inclinação de uma assinatura é calcular a inclinação de cada ponto isolada-
mente. Para medir a inclinação dos pontos, analisa-se a vizinhança de cada um deles,
ou seja, dado um ponto P(i,j), não zero, na imagem do esqueleto da assinatura, o
ponto não zero P(i+1,j+1) é classicado como positivamente inclinado (PI), o ponto
não zero P(i,j+1) é classicado como verticalmente inclinado (VI) e o ponto não zero

56
P(i-1,j+1) é classicado como negativamente inclinado (NI). O número de pontos
PI, dividido pelo número de pixels da imagem, gera o fator de inclinação positiva
da imagem. Da mesma forma, podem ser obtidos os fatores de inclinação negativa e
inclinação vertical da imagem.

3.3.3 Características Invariantes

As técnicas de extração de características invariantes apresentam invariância


quanto a determinadas transformações que uma imagem pode sofrer, tais como:
translação, escala e orientação. Os conjuntos de momentos utilizados foram: sete
momentos centrais [GW02], sete momentos de Hu [Li92] que são invariantes quanto
à translação, à rotação e à escala, cinco momentos de Maitra [Mai79] que estendem
os momentos de Hu, deixando-os invariantes ao contraste da imagem, seis momentos
de Flusser [FS93] e três momentos de Simon [LL97].

3.3.3.1 Momentos Centrais Esta é uma técnica de representação por região,


isto é, ela considera a imagem de um objeto como uma entidade indivisível. Dada
uma função bidimensional contínua f (x, y), o momento de ordem p+q , mpq é denido
pela Equação ..

Z +∞ Z +∞
mpq = xp y q f (x, y)dxdy (.)
−∞ −∞

Um conjunto de momentos de ordem n é formado por elementos do tipo mpq ,


tais que p + q ≤ n, sabendo que p e q admitem valores pertencentes ao conjunto dos
Naturais = 0, 1, 2, .... Para uma imagem digital f de dimensões m×n, na qual f (x, y)
representa o nível de cinza do ponto (x, y), a fórmula para o momento bidimensional
é dada pela Equação ..

m−1
X n−1
X
mpq = xp y q f (x, y) (.)
x=0 y=0

Para uma imagem digital com apenas dois níveis (0 e 1), os momentos permitem

57
denir algumas propriedades, como, por exemplo: (i) O momento de ordem 0, m00 ,
representa a área total do objeto; (ii) Os momentos de ordem 1, m01 e m10 , são
m10
utilizados para calcular o centro de massa (xg , yg ) da imagem. Sendo: xg = m00
e
m01
yg = m00
. Se o objeto for posicionado de forma que seu centro de massa coincida
com a origem do sistema de coordenadas, então cada valor de momento computado
é chamado de Momento Central ., µpq .

m−1
X n−1
X
µpq = (x − xg )p (y − yg )q f (x, y) (.)
x=0 y=0

Os Momentos Centrais Normalizados, ηpq , são denidos pela Equação ..

c p+q
ηpq = γ , γ = +1 (.)
µ00 2

3.3.3.2 Invariantes de Hu O método Invariantes de Momento foi denido por


Hu, em 1962 (reportado por [Li92]). Ele consiste em um conjunto de combinações
não lineares dos valores de momento.
Os sete momentos de Hu, os quais estão mostrados nas equações a seguir, são
denidos a partir dos momentos centrais normalizados ηpq , e são invariantes quanto
à translação, à rotação e à mudança de escala.

M1 = η20 + η02 (.)

M2 = (η20 − η02 )2 + 4η11


2
(.)

M3 = (η30 − 3η12 )2 + (3η21 − η03 )2 (.)

M4 = (η30 + η12 )2 + (η21 + η03 )2 (.)

M5 = (η30 + η12 )(η30 − 3η12 )[(η30 + η12 )2 − 3(η21 + η03 )2 ] +

(η21 + η03 )(3η21 − η03 )[3(η30 + η12 )2 − (η21 + η03 )2 ] (.)

M6 = (η20 − η02 )[(η30 + η12 )2 − (η21 + η03 )2 ] +

4η11 (η30 + η12 )(η21 + η03 ) (.)

58
M7 = (η30 − 3η12 )(η30 + η12 )[3(η30 + η12 )2 − (η21 + η03 )2 ] +

3(η21 − η03 )(η21 + η03 )[(η30 + η12 )2 − 3(η21 + η03 )2 ] (.)

Li [Li92] desenvolveu um algoritmo para gerar um número innito de momentos


invariantes que engloba os sete momentos de Hu. Entretanto, apenas os momentos
de baixa ordem, ou seja, os de ordem 3 - tal que (p + q ≤ 3), serão usados nos
experimentos. Esses momentos são menos sensíveis a ruídos do que os de alta ordem.

3.3.3.3 Invariantes de Maitra Os momentos derivados por Hu foram esten-


didos por Maitra [Mai79] para inserir a característica adicional de invariância ao
contraste da imagem. Uma outra vantagem é que os valores desses novos momen-
tos estão numa escala menor do que os de Hu. Tendo em vista que as imagens das
assinaturas são binarizadas, a mudança de contraste não é fator primordial, o que
não invalida a análise desse grupo de momentos. As equações para extração dos
momentos de Maitra de imagens são mostradas abaixo.


M2
β1 = (.)
M1
M3 µ00
β2 = (.)
M1 M2
M4
β3 = (.)
M3

M5
β4 = (.)
M4
M6
β5 = (.)
M1 M4
A raiz quadrada extraída no cálculo da momento β1 não levará a problemas, já
que M2 será um valor positivo. Entretanto, será usado o valor absoluto do quinto mo-
mento de Hu, M5 , pois provar que seu valor será sempre positivo é não trivial [Dor01].

3.3.3.4 Invariantes de Flusser Momentos invariantes a transformações ane,


chamados de AMI - Ane Moment Invariants, foram desenvolvidos por Flusser e

59
Suk [FS93]. Seis momentos invariantes serão usados nos experimentos desse trabalho,
são eles:

1
F1 = (µ20 µ02 − µ211 ) (.)
µ400
1 2 2
F2 = 10
(µ30 µ03 − 6µ30 µ21 µ12 µ03 + 4µ30 µ312 + 4µ03 µ321 − 3µ321 µ212 ) (.)
µ00
1
F3 = (µ20 (µ21 µ03 − µ212 ) − µ11 (µ30 µ03 − µ21 µ12 ) + µ02 (µ30 µ12 − µ221 ) (.)
µ700
1 2 2
F4 = (µ12 µ12 − 6µ220 µ11 µ12 µ03 − 6µ220 µ02 µ21 µ03 + 9µ220 µ02 µ212 + 12µ211 µ20 µ21 µ03 +
µ11
00
= 6µ20 µ11 µ02 µ30 µ03 − 18µ20 µ11 µ02 µ21 µ12 − 8µ211 µ30 µ03 − 6µ20 µ202 µ30 µ12 +

= 9µ20 µ202 µ221 + 12µ211 µ02 µ30 µ12 − 6µ11 µ202 µ30 µ21 + µ302 µ230 ) (.)
1
F5 = (µ40 µ04 − 4µ31 µ12 + 3µ222 ) (.)
µ600
1
F6 = (µ40 µ04 µ22 + 2µ31 µ22 µ12 − µ40 µ212 − µ04 µ231 − µ322 ) (.)
µ900

3.3.3.5 Invariantes de Simon Uma tarefa também bastante complicada é a de


reconhecimento de caracteres chineses, principalmente pela variedade de caracteres
existentes e também pela proximidade que alguns apresentam. Em 1997, Simon e
Qin [LL97] desenvolveram um estudo comparativo entre os momentos centrais nor-
malizados, momentos de Legrend e um subconjunto por eles denido, aplicados para
reconhecimento de 6.763 caracteres chineses. Os invariantes utilizados pelos autores
foram:

q
S1 = (m20 − m01 )2 + 4m211 (.)

S2 = m10 − m01 (.)

S3 = m30 + m03 (.)

Os resultados encontrados pelos autores mostraram que os momentos de Legrend


obtiveram os melhores resultados. Porém, para alguns determinados caracteres, o

60
resultado dos momentos de Legrend não foram satisfatórios, ao contrário dos resulta-
dos obtidos pelas outras técnicas. Sendo assim, os autores sugeriram que os valores
de momento obtidos por diferentes técnicas fossem utilizados em conjunto para a re-
solução de problemas difíceis de reconhecimento de padrão. Esta é uma abordagem
que será investigada e discutida na fase experimental.

3.4 CLASSIFICAÇÃO

Nas seções a seguir, métodos de classicação usados nesse trabalho são descritos.
Maiores detalhes sobre essas técnicas podem ser encontrados em [DHS01, Hay01,
JDM00, Bis95].

3.4.1 Classicador Bayesiano

A Equação . representa o teorema de Bayes. Através dessa equação, é pos-


sível estimar a probabilidade a posteriori, usando probabilidades a priori e class-
conditional probabilities.

P (X|C)P (C)
P (C|X) = (.)
P (X)
A regra de decisão de Bayes pode ser simplicada usando a maximum a posteriori
rule (MAP), que assinala o padrão de entrada x para a classe Ci se

P (Ci |X) > P (Cj |X) para todo i 6= j (.)

Para calcular os termos da Equação ., é necessário modelar a função de den-


sidade de probabilidade baseado nos dados do conjunto de treinamento. Para esti-
mar essa densidade de probabilidade, podem-se utilizar métodos paramétricos, como
também outros métodos, tais como: não-paramétricos e semi-paramétricos [Bis95].
No método paramétrico, a densidade de probabilidade é expressa através de uma
função que possui um número de parâmetros ajustáveis. A regra de classicação

61
mais aplicada é baseada na distribuição normal ou Gaussiana, ela precisa de ape-
nas dois parâmetros: média e matriz de covariância, como pode ser observado na
Equação ..

1 1
yk (x) = − (x − µk )T Σ−1
k (x − µk ) − ln|Σk | + lnP (Ck ) (.)
2 2
A regra de classicação, dada pela Equação ., representa um discriminante
quadrático e assinala o vetor de entrada x para a classe Ci se yi (x) > yj (x) para todo
i 6= j .
Um caso importante ocorre quando se assume que todas as classes possuem co-
variâncias iguais, Sk = S . Essa simplicação transforma o discriminante quadrático
em linear, isto porque o termo quadrático, associado à Equação ., é eliminado. A
função do discriminante linear pode ser escrita como mostrado na Equação ..

yk (x) = wkT x + wk0

sendo

wkT = µTk Σ−1


1
wk0 = − µTk Σ−1 µk + lnP (Ck ) (.)
2

Supor que as matrizes de covariâncias são idênticas, quando se tem um pequeno


conjunto de treinamento, pode melhorar os resultados [HL96].

3.4.2 Classicador k-Vizinhos Mais Próximos (k − vmp)

A classicação trabalha da seguinte maneira: dado um padrão p que se deseja


descobrir sua classe, o primeiro passo é calcular a distância de p para todos os padrões
de treinamento. Dentre as k classes que obtiveram a menor distância ao padrão p, é
escolhida a classe que possuir a maior freqüência.
Quando o classicador k − vmp é usado, não é necessário calcular as distribuições
de probabilidades das classes. Sendo assim, ele não faz uso da fase de treinamento.

62
Entretanto, é necessário um conjunto de padrões de treinamento para que o método
funcione [DHS01].
Essa distância é, normalmente, calculada por duas medidas: euclidiana e Maha-
lanobis, como mostrado nas Equações . e ., respectivamente.

d2e = (x1 − y1 )2 + (x2 − y2 )2 + · · · + (xn − yn )2 (.)

d2m = (x − µx )Σ−1 (x − µx )0 (.)

Sendo x = [x1 , x2 , · · · , xn ] e y = [y1 , y2 , · · · , yn ]. µ representa a média e Σ a


matriz de covariância. A distância de Mahalanobis leva em conta a dispersão de
cada classe, essa informação é extraída da matriz de covariância. Enquanto que a
distância euclidiana é computacionalmente mais barata.

3.4.3 Classicador Cross-correlation

Chim et al. [CKI99] mostraram que o classicador Cross-correlation conseguiu


bons resultados no reconhecimento de caracteres usando grupos de momentos. O
primeiro passo é calcular o centróide de cada uma das classes. Esse cálculo é dado
pela Equação ..

n
1X
centróide(k) = xi , (.)
n i=1
n representa o número de padrões no conjunto de treinamento, k o índice da classe
e x o conjunto de características que representa um padrão.
O classicador Cross-correlation normalizado (Equação .) faz uso do centróide
para vericar qual classe possui maior grau de similaridade com o padrão desco-
nhecido.

Pm 1
i=1 σ 2 · centróide(k)m · xm
CC = qP Pm 1 , (.)
m 1
i=1 σ 2 · centróide(k)m ·
2 · x2m
i=1 σ 2

63
m representa o número de características do padrão x e, σ 2 é o fator de normaliza-
ção que possui o objetivo de melhorar a performace do classicador, aumentando a
inuência de características mais conáveis.

64
CAPÍTULO 4

CLASSIFICAÇÃO DE FACES

"O melhor aspecto da beleza


é aquele que um retrato não pode exprimir"
Bacon

4.1 INTRODUÇÃO

A classicação de faces é uma técnica biométrica passiva, isto é, não é necessária


a intervenção direta do usuário para que o processamento ocorra. Como um exemplo
de uma técnica ativa, pode-se citar vericação on-line de assinaturas; visto que o
usuário necessita acessar a mesa digitalizadora e assinar.
Ambientes de classicação de faces podem pertencer a duas categorias: fechados
(controlados) e abertos (não-controlados). Nos sistemas fechados, as imagens das
faces são capturadas contra um fundo padrão. Além dessa simplicação, as imagens
resultantes, normalmente, estão centralizadas e possuem pouca, ou nenhuma, vari-
ação de escala, de iluminação e de rotação. O reconhecimento de faces, em uma cena
que contém uma, nenhuma ou várias faces, é uma tarefa realizada com trivialidade
por humanos. Sistemas computacionais que trabalham dessa maneira são conside-
rados sistemas abertos, portanto são mais complexos do que os sistemas fechados.
Diante desse contexto, os ambientes abertos possuem uma etapa a mais, quando
comparados aos ambientes fechados. Essa etapa é chamada de detecção de faces, que
tem o objetivo de encontrar todas as faces que constem em uma cena.

65
Figura 4.1: Exemplos de imagens utilizadas por sistemas fechados de classicação de
faces, extraídas do banco de dados da ORL.

Grande parte dos erros provenientes dos sistemas de reconhecimento de faces


atuais, está atrelada à qualidade da imagem da face. Imagens de baixa qualidade são
bastante propícias a gerar erros, tanto na fase de treinamento do sistema, quanto na
fase de uso. Sistemas que tratam de imagens de faces frontais com pouca variação
têm obtido sucesso considerável. A Figura 4.1 exibe exemplos de imagens fornecidas
a ambientes fechados. Já sistemas que não fazem restrições representam uma área
aberta a investigações. Na Figura 4.2, encontram-se duas cenas que apresentam
um certo número de faces, as quais estão mais sujeitas à variação de escala, de
translação, de iluminação e de rotação - representando, assim, uma diculdade a
mais no processamento.

Figura 4.2: Sistemas abertos de classicação de faces tratam com imagens dessa
natureza. Exemplos de detecção de faces extraídos do artigo de Schneiderman e
Kanade [SK00].

A classicação de faces encontra aplicações em diversas áreas: identicação de


criminosos e controle de acesso em ambientes de segurança (sistemas computacionais,

66
máquinas bancárias). Basicamente, todas as aplicações que realizam identicação
pessoal são potenciais aplicações de classicação de faces.
Uma arquitetura geral de um sistema de classicação de faces é constituída de
quatro fases: aquisição, detecção, extração de características e classicação. Na fase
de aquisição, uma câmera poderá ser utilizada para digitalizar uma cena do ambiente.
Essa cena poderia conter diversas faces, assim, o esforço seguinte seria o de encontrar
as faces que formam a cena. Essa etapa é denominada detecção de faces. Muitos dos
pontos que formam a face não oferecem informação relevante para os propósitos da
classicação. Dessa forma, encontrar um novo conjunto de variáveis que represente a
face concisamente, sem perder o poder de discriminação, é de essencial importância.
Esse é o serviço da fase de extração de características. Por m, esse novo conjunto de
variáveis será dado como entrada para um classicador, o qual fornecerá a provável
classe da face.
Muitos trabalhos que serão descritos na seção a seguir ignoram a tarefa de de-
tecção e propõem soluções para o problema de classicação de faces frontais ou de
perl, sem se preocuparem com faces rotacionadas e mudança de escala. Esse tam-
bém será o foco dos experimentos realizados nesse trabalho.
Entretanto, vale salientar que detecção de faces pode ser caracterizada como uma
tarefa de encontrar faces (caso exista alguma) em uma imagem de vídeo ou em uma
fotograa digitalizada. Ela representa uma área bastante ativa que possui bastante
espaço para pesquisa, por isso, nos últimos anos muitas pesquisas foram realizadas
a m de obter soluções para esse problema [RBK98]. Tal fato deve-se a uma grande
variedade de aplicações para essa tecnologia. Sistemas de reconhecimento de faces
usam a detecção de faces como uma fase de pré-processamento, objetivando realizar
identicação biométrica. Sistemas de recuperação de imagens (image retrieval) po-
dem se valer dessa tecnologia com o propósito de procurar imagens na Internet,
como exemplo, pode-se citar um engenho de busca (WebSeer [SFA97]) que usa o
sistema de detecção de faces, baseado em redes neurais, desenvolvido por Rowley et
al. [RBK98]. Utilizando esse mesmo princípio, outras aplicações podem ser vislum-

67
bradas, tais como, indexação de imagens e banco de dados de vídeos. Em sistemas de
vídeo conferência, faz-se necessário ajustar a câmera automaticamente a partir dos
movimentos do interlocutor para manter o foco. Essa movimentação automática da
câmera poderá ser aplicada também em sistemas de interfaces inteligentes, a m de
facilitar a iteração humano-máquina. Uma referência interessante sobre o estado da
arte de detecção de faces foi desenvolvida por Hjelmas e Low [HL01]. Dois artigos,
que fazem um apanhado da área de classicação de faces, podem ser tomados como
referência para a obtenção de maiores informações, são eles: Samal et al. [SI92] e
Chellappa et al. [CWS95].

4.1.1 Trabalhos relacionados

O reconhecimento de faces frontais, em ambientes com a iluminação e a escala


de captura da imagem controladas, tem obtido um sucesso considerável. É uma
importante área de pesquisa, que devido a sua idade, já possui uma vasta gama de
técnicas capazes de extrair informações faciais, as quais podem ser agrupadas em
algumas categorias: Geometria da Face, Elastic Graph Matching e Face Completa.
Uma face pode ser caracterizada por informações, tais como: distância entre os
olhos, espessura dos lábios, distância entre a boca e o ponto central entre os olhos,
formato do queixo, largura do nariz, entre outras. O uso dessas características, com
o objetivo de reconhecer faces, pertence à categoria de Geometria da Face. É pos-
sível também obter informações de faces dispostas de perl, como, por exemplo,
a ponta do nariz, a localização da sobrancelha, dos olhos e dos lábios. Brunelli e
Poggio [BP93] calcularam um conjunto de 35 características geométricas e atingiram
90% de reconhecimento usando um banco de dados com 47 indivíduos (4 imagens por
pessoa). Entretanto, quando eles dividiram cada face usando máscaras que represen-
tavam os olhos, o nariz, a boca e toda a face, além de utilizarem template matching,
foi encontrada uma taxa de reconhecimento maior do que 95%.
Elastic Graph Matching é uma abordagem que extrai características usando a

68
transformada de Gabor em partes da imagem [LWvdM97]. Não uniformidade na
iluminação e no fundo da imagem pode levar a imperfeições no processo de extração
de características ao usar essa técnica.
Uma alternativa a esses métodos seria tratar a imagem da face completa, ou seja,
trabalhar com todos os pontos que formam a face. O objetivo desses métodos é
encontrar uma nova representação das faces, em uma dimensão inferior da original,
mas que mantenha as informações relevantes. Algumas alternativas surgem como
solução para esse problema: PCA [KS90, BHK97, MK01, CF03a], LDA [BHK97,
SW96, MK01], ICA [BS98, MCG03b], Redes Neurais [LKL97, LGTB97, RBK98] e
Wavelets [CW02].

4.1.2 Pré-processando imagens de faces

Antes de calcular medidas geométricas da face, é necessário encontrar áreas como


os olhos e a boca. Essa tarefa pode ser facilitada através do uso de detectores de
bordas. Uma borda é o limite entre duas regiões com propriedades relativamente
distintas de níveis de cinza. Os detectores de bordas usam ltros espaciais lineares
que pertencem a dois tipos: baseados no gradiente ou baseados no laplaciano [GW02]
- que são aproximados por máscaras de tamanho 3x3 pixels, conforme mostrado na
Tabela 4.1.

z1 z2 z3
z4 z5 z6
z7 z8 z9

−1 −2 −1 −1 0 1
0 0 0 −2 0 2
1 2 1 −1 0 1

Tabela 4.1. Detectores de bordas de Sobel.

Alguns exemplos de operadores baseados no gradiente são: Canny, Prewitt e

69
Sobel. Após inspeção visual, foi vericado que dos três operadores, o de Sobel apre-
sentou resultados interessantes no trato com imagens de faces. Mesmo sabendo que
uma das características do operador laplaciano é ser invariante à rotação, o mesmo
apresenta uma desvantagem: é bastante sensível ao ruído.

(a) (b)

(c) (d)

Figura 4.3: Exemplo de detecção de bordas em uma face usando o operador de Sobel.
(a) Imagem original. (b) Bordas Verticais e Horizontais. (c) Bordas Verticais. (d)
Bordas Horizontais.

Na Figura 4.3, é mostrada a aplicação dos operadores horizontal e vertical de Sobel


em uma imagem de face frontal. A Figura 4.3(a) mostra uma imagem frontal de face.
Após a aplicação do detector de bordas vertical de Sobel, o resultado pode ser visto
na Figura 4.3(c). Na Figura 4.3(d), é possível visualizar o emprego do detector de
bordas horizontal de Sobel. Unindo as Figuras 4.3(c) e 4.3(d), através da operação
lógica OU, pode-se gerar uma imagem que realça todas as bordas (horizontais e
verticais) da imagem; o resultado é mostrado na Figura 4.3(b).

70
(a)

30

25

20

15

10

0
0 50 100 150
(b)

Figura 4.4: (a) Figura 4.3(c). (b) Projeção vertical dessa gura.

180

160

140

120

100

80

60

40

20

0
0 10 20 30
(a) (b)

Figura 4.5: (a) Figura 4.3(d). (b) Projeção horizontal dessa gura.

A projeção de uma imagem binária pode ser obtida a partir das somas dos pixels
em uma das seguintes direções: horizontal ou vertical. Na Figura 4.4, observa-se
que, ao utilizar a projeção vertical, é possível encontrar picos referentes aos limites
esquerdo e direito da face. Dessa maneira, podem-se eliminar informações pouco úteis

71
para ns de classicação. Já na Figura 4.5, através dos pontos de máximo da projeção
horizontal, torna-se possível encontrar regiões de bastante interesse, como os olhos e a
boca. Esse tipo de estratégia funciona bem para imagens que estejam centralizadas
e com pouca rotação. Imagens cujos olhos ou a boca não estejam alinhados na
horizontal, faz-se necessário uma correção antes da aplicação desse procedimento.
Conclui-se que essa estratégia simples para encontrar regiões de interesse em faces,
usando detectores de bordas, encontra sucesso em ambientes controlados, nos quais
a iluminação é uniforme e as imagens das faces estão centralizadas e com pouca
rotação.

4.2 RECONHECIMENTO DE FACES USANDO EIGENBANDS

Em trabalho recente, Cavalcanti et al. [CF03a] mostraram que o particionamento


de faces frontais em bandas horizontais e verticais pode melhorar o desempenho de
um sistema de reconhecimento de faces.

Figura 4.6: Particionamento de uma face em bandas horizontais e verticais.

A face foi dividida em bandas horizontais e verticais que possuem signicado,


como mostrado na Figura 4.6. Cortando a face, exatamente no centro (vertical-
mente), é possível construir uma metade a partir da outra metade. Baseado nesse
fato, o sistema poderá tirar proveito da simetria da face. Sabe-se que regiões como
olhos e boca são bastante informativas. Assim, o particionamento horizontal favorece
a análise do desempenho dessas áreas (regiões).
O número de bandas usada nos experimentos foi 4 (quatro). Após o particiona-
mento de cada imagem, a transformada PCA foi aplicada sobre cada banda. A

72
aplicação do extrator de características PCA para o reconhecimento de faces tem
obtido sucesso em muitos trabalhos [SH94, LGTB97].
A Análise dos Componentes Principais (PCA - Principal Component Analysis )
ou transformada de Karhunen-Loève é uma técnica de redução de dimensionalidade
bastante empregada para a análise de dados. Ela é ótima, em termos da minimização
do erro quadrado médio, a m de comprimir um conjunto de dados. Compressão e
descompressão são operações simples de realizar, dados os parâmetros do modelo.
Além disso, as variáveis não são eliminadas. Novas variáveis são calculadas a partir
das variáveis originais, otimizando-as.
PCA pode ser resumida como um método para transformar as variáveis origi-
nais em novas variáveis não-correlacionadas. O primeiro passo é computar a média
dos vetores e, em seguida, subtrair essa média dos dados originais. Após esse pro-
cedimento, a matriz de covariância é calculada e seus autovalores e autovetores são
encontrados. Os autovetores correspondentes aos maiores autovalores são mantidos,
enquanto que e o vetor de entrada é projetado sobre esses autovetores gerando, assim,
as componentes principais [JW92]. Dessa forma, cada componente principal é uma
combinação linear das variáveis originais.
Componentes Principais de cada uma das bandas são agrupados com o objetivo de
formar um vetor de características (eigenband vector ), como mostrado na Figura 4.7.
Esse vetor resultante é calculado para cada padrão e será usado como entrada pelo
classicador tanto para a fase de treinamento, quanto para a fase de teste.
A estratégia de quebrar a imagem em subimagens ajuda o sistema, pois minimiza
o esforço computacional para calcular a transformada PCA. Uma vez que PCA é
aplicado sobre uma banda por vez, a imagem completa não é analisada. Além disso,
sabendo que cada banda está associada a uma característica facial, um algoritmo
para extrair essas partes não é mais necessário. Reunir as melhores informações
(componentes principais) de cada uma das bandas poderá melhorar a taxa de acerto
do sistema de reconhecimento de faces.
O objetivo da extração de características usando PCA é, principalmente, diminuir

73
Vetor de

CARACTERÍSTICAS
Características

EXTRAÇÃO DE
PCA 1
PCA 2
PCA 3
PCA 4

Figura 4.7: Composição do vetor de características (eigenband vector ). Cada banda


fornece um número n de componentes principais para o vetor nal.

a dimensionalidade dos dados tratados (faces). Sabendo que os componentes prin-


cipais são organizados em ordem decrescente de variância, é possível selecionar os
primeiros, a m de representar o conjunto original de variáveis. Dentre as várias
regras existentes para decidir quantos componentes devem ser selecionados, foi esco-
lhida uma que mantém um número de componentes principais e aglomere uma certa
percentagem da variância. Assim, um certo número de componentes principais devem
ser selecionados com o intuito de obter um porcentagem do total da variância.

(a) Eigenbands horizontais.

(b) Eigenbands verticais.

Figura 4.8: Eigenbands: 1, 2, 4, 8, 16, 32, 64 e 128.

74
4.2.1 Resultados Experimentais

O banco de dados de faces empregado nos experimentos foi o ORL (http://www.cam-


orl.co.uk/facedatabase.html). Este consiste de 10 imagens de 40 pessoas diferentes,
gerando um total de 400 imagens. Essas imagens foram capturadas no período en-
tre 1992 e 1994, e elas apresentam algumas variações na posição (20 graus), escala
(10%), expressões faciais (olhos abertos e fechados, sionomia séria ou sorrindo)
além de alguns detalhes (presença ou não de óculos) [LGTB97]. As imagens foram
adquiridas contra um fundo padrão (preto), usando 256 tons de cinza e com resolu-
ção de 92x112 (10.304 pontos por imagens). A Figura 4.1 mostra alguns exemplos
de imagens do banco de dados de faces da ORL.
Outros trabalhos usaram esse mesmo banco de dados para reconhecer faces [SH94,
LGTB97, LKL97]. O método Hidden Markov Model (HMM) foi usado por Samaria
et al. [SH94]. Nesse experimento, o melhor resultado 13% de erro. Uma rede neural
baseada em decisão probabilística (PDBNN) foi usada como classicador no tra-
balho de Lin and Kung [LKL97], atingindo 4% de erro, enquanto que Lawrence et
al. [LGTB97], ao usarem um mapa auto-organizável em conjunto com uma rede
neural convolucional (SOM+CN), obteve o melhor resultado: 3,8% de erro.

4.2.1.1 Bandas Horizontais Conforme mostrado na Figura 4.6, cada face foi
dividida em quatro bandas horizontais. O primeiro passo foi a análise do poder
de classicação de cada uma das bandas individualmente. Os resultados, usando o
classicador Bayesiano, podem ser observados na Figura 4.9.
É possível atribuir semântica a cada uma das bandas. Observando para cada
banda horizontal individualmente, verica-se que a Banda 1 é responsável pelo ca-
belo e por uma fração da testa do usuário em praticamente todas as faces. Uma
porção abaixo dos olhos e acima da boca, incluindo o nariz, pode ser encontrada na
imagem referente a Banda 3. Devido à pequena variação na posição e na escala, a
Banda 2 é responsável pela região dos olhos, que é notoriamente uma região bas-

75
Avaliaçao do Desempenho das Bandas Horizontais
100

90

80

70
Taxa de Acerto (%)

60

50

40

30
Banda 1
20 Banda 2
Banda 3
10 Banda 4

0
1 2 4 8 16 32 64 128
Numero de Caracteristicas

Figura 4.9: Avaliação de cada banda horizontal individualmente usando o classi-


cador Bayesiano.

tante informativa; e a boca, outra região bastante informativa para propósitos de


classicação, está localizada na Banda 4 em grande parte das faces.
As Bandas 1 e 3 representam áreas com baixa informação. Por essa razão, elas
tiveram os piores resultados individuais. Já as Bandas 2 e 4, que representam regiões
informativas: olhos e boca, alcançaram os melhores resultados individuais. A Banda
2 alcançou 84% de taxa de acerto, usando 32 componentes principais. Analisando a
Figura 4.9, nota-se que os melhores resultados individuais foram obtidos no intervalo
entre 32 e 64 componentes principais.
A Figura 4.8 mostra algumas imagens formadas por bandas verticais e horizon-
tais (eigenbands ). O próximo passo será a união dos melhores componentes principais
de cada banda. Agora, a entrada do classicador será formada por um vetor cons-
truído a partir da concatenação dos melhores componentes de cada uma das bandas.
Os autovalores normalizados representam a variância de cada autovetor. Mantendo-
se todos os autovetores, a variância total é preservada. Porém, para reduzir a dimen-
sionalidade das novas variáveis, é preciso eliminar alguns autovetores. Isso é feito
baseado na informação fornecida pelos autovalores. Assim, a estratégia usada nesses
experimentos foi a de manter os primeiros componentes principais de cada banda
que representassem uma certa percentagem do total da variância. Desta forma, o

76
número de componentes removidos de cada banda pode diferir, dando mais relevân-
cia as bandas mais informativas.

Perda de Variância 20% 25% 30%

# de Componentes (Banda 1) 6 4 3
# de Componentes (Banda 2) 24 17 12
# de Componentes (Banda 3) 29 21 15
# de Componentes (Banda 4) 21 15 11

# Total de Componentes 80 57 41
Taxa de Acerto (Classicador Bayesiano) 96,5% 96,5% 95,0%

Tabela 4.2. Avaliação do desempenho das bandas horizontais.

A Tabela 4.2 mostra os resultados após a concatenação das melhores caracterís-


ticas, em termos de variância, de cada uma das bandas com 20, 25 e 30% de perda
de variância. O melhor resultado foi encontrado quando 25% da variância foi descar-
tada, o que implicou num total de 57 componentes principais. Com 20% de perda de
variância, o desempenho foi o mesmo encontrado com 25% de perda, entretanto, no
primeiro caso, mais recursos computacionais são gastos, uma vez que 80 componentes
principais são necessários ao invés de 57. A Banda 1 foi comprimida com o menor
número de componentes, quando comparada as outras bandas. Esse resultado era
esperado, pois essa banda é pouco informativa.

4.2.1.2 Bandas Verticais Nessa seção, cada face é dividida em quatro bandas
verticais. Na Figura 4.10, poderá ser vista a avaliação do desempenho de cada
uma das bandas verticais usando o classicador Bayesiano. Na média, os resultados
encontrados com as bandas verticais se mantiveram estáveis, isto é, nenhum resultado
foi substancialmente melhor do que os outros. A Banda 1 obteve 88% de taxa de
acerto usando 32 componentes principais. Nos experimentos realizados, os resultados
das bandas verticais foram superiores aos encontrados com as bandas horizontais.
Devido à simetria da face, esperava-se que as Bandas 1 e 4, e as Bandas 2 e 3,

77
Avaliaçao do Desempenho das Bandas Verticais
100

90

80

70
Taxa de Acerto (%)

60

50

40

30
Banda 1
20 Banda 2
Banda 3
10 Banda 4

0
1 2 4 8 16 32 64 128
Numero de Caracteristicas

Figura 4.10: Avaliação de cada banda vertical individualmente, usando o classicador


Bayesiano.

gerassem resultados similares. Entretanto, enquanto os resultados com as Bandas 2


e 3 foram muito similares, o mesmo não aconteceu com as Bandas 1 e 4. Esse fato
aconteceu, pois as faces não estão perfeitamente centralizadas, ou seja, possuem um
certo grau de rotação e alterações na posição, conforme descrito na Seção 4.2.1.

Perda de Variância 20% 25% 30%

# de Componentes (Banda 1) 23 16 12
# de Componentes (Banda 2) 20 14 11
# de Componentes (Banda 3) 18 13 9
# de Componentes (Banda 4) 19 13 10

# Total de Componentes 80 56 42
Taxa de Acerto (Classicador Bayesiano) 95,0% 95,0% 97,5%

Tabela 4.3. Avaliação do desempenho das bandas verticais.

A Tabela 4.3 mostra os resultados dos experimentos após a concatenação das


bandas verticais. O procedimento para realizar a composição de características foi o
mesmo adotado nos experimentos com bandas horizontais.
Usando a concatenação das bandas verticais, o resultado que merece maior desta-

78
Classicador Taxa de Erro (%)
HMM [SH94] 13,0
PDBNN [LKL97] 4,0
waveletfaces +NFC [CW02] 3,9
SOM+CN [LGTB97] 3,8
(Eigenbands Fusion ) [CF03a] 2,5

Tabela 4.4. Taxas de erros sobre o conjunto de teste do banco de dados de faces ORL.

que foi encontrado quando 30% da variância foi descartada. Essa conguração obteve
97,5% de classicação correta, isto é, apenas cinco padrões (2,5% de erro) de um uni-
verso de duzentos padrões, foram incorretamente classicados. O número de com-
ponentes principais usado foi de 42. Esse número reside no intervalo entre 32 e 64
componentes principais, o qual obteve os melhores resultados nos experimentos ante-
riores. Além disso, quarenta (40) componentes principais têm sido usados como um
número ideal em outros trabalhos [SH94, BHK97, SP03c]. A estratégia de combinar
características das bandas alcançou resultado melhor do que métodos anteriores so-
bre o mesmo banco de dados (banco de dados de faces da ORL) - ver Tabela 4.4 para
comparação.

4.3 VERIFICAÇÃO DE FACES

No processo de vericação de faces, o sistema possui uma representação do usuário,


que foi obtida na fase de treinamento, vericando se o usuário é realmente quem diz
ser, através de uma medida de similaridade entre o padrão armazenado e o padrão
recém capturado.
Além do banco de dados de faces da ORL, descrito na Seção 4.2.1, foi usado
também o banco de dados da UMIST que é formado por imagens de 20 pessoas com
um total de 564 imagens. Assim, como as imagens do banco da ORL, as imagens
do banco da UMIST foram adquiridas contra um fundo padrão usando 256 tons

79
de cinza e com resolução de 92x112 (10.304 pontos por imagens). Por motivo de
compatibilidade com os experimentos de combinação biométrica, apenas 12 imagens
por pessoa foram selecionadas do banco de dados da UMIST. Os usuários autênticos
foram representados pelo banco de dados da UMIST e os impostores pelo banco da
ORL.
Para facilitar a interpretação dos resultados, a Equação . foi usada com dife-
rentes valores para λ1 e λ2 . As colunas mostradas nas tabelas, com resultados nas
próximas seções, intituladas R1, R2 e R3, usam, respectivamente os seguintes valo-
res para λ1 e λ2 : 2 e 1; 1 e 1; e 1 e 2. R1 condiz com um sistema que está mais
preocupado em reduzir o erro por não permitir o acesso de um usuário autêntico,
enquanto que R3 procura minimizar o erro provocado pela permissão de acesso a
usuários impostores. R2 atribui a mesma importância aos dois tipos de erro: FRR e
FAR.
O classicador usado nos experimentos foi o Baseado em Distância. Na Seção 4.3.1,
serão apresentados os resultados dos experimentos usando PCA sobre a face com-
pleta. Por sua vez, a Seção 4.3.2 trará os resultados obtidos usando as eigenbands
verticais e horizontais.

4.3.1 Faces Completas

PCA [KS90, BHK97, LGTB97, ZCP99, JKLM02] reduz a dimensionalidade dos


padrões através de uma análise estatística que captura as direções com maiores va-
riâncias da distribuição de dados em questão. Uma crítica que pode ser feita ao
uso de PCA é que essa técnica não leva em consideração a estrutura particular de
cada classe, isto é, todo o banco de dados é analisado sem rotulação. Outra técnica,
que também é bastante usada para extração de características faciais, é a Análise
Discriminante Linear (LDA) [BHK97, MK01], que faz uso das peculiaridades das
classes. Baseado nesses fatos, escolher LDA, ao invés de PCA, parece ser a me-
lhor alternativa. Entretanto, PCA obtém melhores resultados do que LDA, quando

80
o número de padrões de treinamento por classe é pequeno [MK01]. Isso se aplica
à situação que está sendo tratada aqui, já que, normalmente, no desenvolvimento
de aplicações práticas de sistemas biométricos é comum se terem poucas amostras
por classe para a construção do mesmo. Nos experimentos realizados nessa seção, o
número de componentes principais utilizado foi 40 (baseado em [BHK97]). As eigen-
faces, características extraídas das faces usando PCA, são usadas comercialmente
pela empresa Viisage Technology1 , em seu software de reconhecimento e vericação
de faces.

Treino Validação FRR FAR R1 R2 R3


Média 0,04 1,86 6,44 7,53 6,80 6,99 7,17
Desvio Padrão 0,21 2,23 7,58 4,08

Tabela 4.5. Vericação das faces completas (eigenfaces) usando o banco de dados da
UMIST para representar usuários autênticos e o banco de dados da ORL para representar
usuários impostores.

A Tabela 4.5 mostra os resultados encontrados na vericação de faces usando o


banco de dados da UMIST, para representar usuários autênticos, e o bando de dados
da ORL, para representar usuários impostores. Os erros FRR e FAR mantiveram
uma média bastante semelhante. Todavia, o desvio padrão mostra que a taxa de falsa
aceitação foi mais estável. Usando a Equação . para combinar os dois erros (FRR
e FAR), um risco aproximado de 7% foi atingido. O limiar de cada uma das classes
foi calculado pela distribuição t-Student, adotando um intervalo de conança de
99%(α = 0, 01). Sabendo que o conjunto de referência, que é dado pelo banco
de dados de faces da UMIST, foi formado com 12 faces por classe, e que 4 dessas
faces foram usadas para treinamento, 4 para validação e 4 para teste, um total de
100 combinações foram geradas com o objetivo de promover mais conabilidade aos
resultados.
1 site: http://www.viisage.com/

81
4.3.2 Eigenbands Fusion

A vericação de faces será apresentada nessa seção com base nos experimentos
realizados por Cavalcanti et al. [CF03a] para o reconhecimento de faces. Neste tra-
balho, mostrou-se que, ao tratar faces frontais com pouca variação na posição, escala
e rotação, dividir a face em bandas horizontais e verticais pode melhorar o desem-
penho do sistema como um todo. Esses experimentos de reconhecimento de faces
estão reportados na Seção 4.2.
O estudo realizado nessa seção mostra que a divisão de faces em bandas e, sua pos-
terior combinação, melhora o desempenho de sistemas de vericação de faces. Para
efeito de comparação, os mesmos bancos de dados que foram usados nos experimentos
anteriores, Seção 4.3.1, são adotados aqui.
Alguns testes iniciais mostraram que, com uma perda de variância de 20%, a soma
dos componentes principais das quatro bandas, sejam elas horizontais ou verticais,
resultava num total aproximado de 40 componentes principais. Esse número parece
ser ideal, tanto é que em vários trabalhos, esse número foi adotado para representar
faces [SH94, BHK97, SP03c].
As Tabelas 4.6 e 4.7 mostram os resultados obtidos pela combinação das bandas
horizontais e verticais, respectivamente. Mais uma vez, o limiar de cada uma das
classes foi calculado pela distribuição t-Student, adotando um intervalo de conança
de 99%(α = 0, 01).

Treino Validação FRR FAR R1 R2 R3


Média 0,05 0,00 4,39 0,90 3,23 2,64 2,06
Desvio Padrão 0,30 0,00 5,47 2,40

Tabela 4.6. Resultados obtidos com as Bandas Horizontais (o banco de dados da UMIST
para representar usuários autênticos e o banco de dados da ORL para representar usuários
impostores).

Os resultados da concatenação das bandas horizontais e verticais se mostraram

82
superiores aos encontrados usando PCA sobre as faces completas. As taxas R2 das
bandas horizontais e verticais foram, respectivamente, iguais a 2,64% e 3,69%. Esses
resultados foram melhores do que o obtido usando as faces completas que foi de
6,99%.
Uma pequena vantagem foi notada para a composição de bandas horizontais de
aproximadamente uma unidade percentual de erro. O número médio de componentes
principais por banda horizontal foi de: Banda 1 - 7,50, Banda 2 - 14,20, Banda 3 -
14,19 a Banda 4 - 10,95. Já o número médio de componentes principais por banda
vertical foi de: Banda 1 - 11,90, Banda 2 - 9,58, Banda 3 - 13,17 a Banda 4 - 13,18.

Treino Validação FRR FAR R1 R2 R3


Média 0,03 0,00 5,59 1,80 4,33 3,69 3,06
Desvio Padrão 0,18 0,00 6,90 3,06

Tabela 4.7. Resultados obtidos com as Bandas Verticais (o banco de dados da UMIST
para representar usuários autênticos e o banco de dados da ORL para representar usuários
impostores).

A análise do poder de vericação de cada uma das bandas, individualmente,


mostrou que nenhuma banda obteve um resultado muito melhor do que as outras,
isto é, suas taxas de acerto atingiram valores bastante similares. No que diz respeito
às bandas horizontais, os valores de FRR e FAR, em todas as quatro bandas, caram
próximos de 1,50 e 6,50, respectivamente. Já nas quatro bandas verticais, os erros
FRR e FAR foram de aproximadamente 2,00 e 12,00, respectivamente, em todas as
quatro bandas verticais. A avaliação de cada banda, individualmente, mostrou certa
superioridade, novamente, para as bandas horizontais. Vale salientar que o limiar
calculado pela distribuição t-Student, após a combinação das bandas, gerou um erro
de falsa rejeição (FRR) maior do que o erro de falsa aceitação (FAR). O contrário
foi observado quando as bandas foram analisadas separadamente.

83
4.4 ALGUNS EXPERIMENTOS COM O BANCO DE FACES DA IIS

Nessa seção serão apresentados alguns experimentos realizados com as faces de um


banco de imagens de orientais. A motivação foi avaliar o desempenho das eigenbands
nessa distribuição de dados, que representa, de forma genérica, um problema mais
complexo do que um banco de dados formado apenas de ocidentais. O classicador
usado foi uma rede neural auto-associativa.

4.4.1 Redes Neurais Auto-associativas

Classicadores são, normalmente, avaliados por sua perícia em classicar corre-


tamente os padrões que pertencem às classes a partir das quais eles foram treina-
dos [VFB95a]. Vasconcelos et al. [VFB95b] estudaram a conabilidade de redes
neurais feedforward, no quesito rejeição de padrões espúrios, isto é, padrões que não
pertencem às classes usadas no treinamento. Em especial, as seguintes redes foram
investigadas: MLP, MLP com função de ativação Gaussiana (GMLP) e Radial Basis
Function (RBF). Pode ser provado que redes neurais RBF podem gerar regiões de
separação fechadas e, conseqüentemente, mostram-se mais adequadas do que MLPs
que usam funções de ativação baseada em sigmóide ou em funções de base radial.
Gori et al. [GS98] também investigaram a habilidade de redes MLPs na geração
de domínios limitados no espaço dos padrões e, em particular, eles relacionaram
essa análise a aplicações de vericação. Eles provaram que, independente da função
usada nas unidades de processamento, arquiteturas com menos unidades na primeira
camada escondida do que na camada de entrada não podem modelar regiões fechadas
de separação. À medida que mais unidades na camada escondida do que na de entrada
são usadas, eles também provaram que uma MLP pode criar uma região aberta ou
fechada.
Existem abordagens alternativas que usam redes neurais para vericação de pa-
drões, as quais não sofrem dos problemas assinalados acima. Por exemplo, MLPs
usadas como auto-associadores [Kra92]. Nesse modelo de rede, os pesos são ajusta-

84
dos de forma que os padrões de entrada são copiados na saída. Para cada padrão, o
critério de vericação é baseado na distância Euclidiana entre os padrões de entrada
e as saídas fornecidas pela rede. Para tanto, dado um limiar (threshold ) t, um padrão
x é aceito, se e somente se |f (x) − x| ≤ t. A idéia básica é que apenas os padrões
da classe usados para treinar o auto-associador sejam reproduzidos com precisão su-
ciente na camada de saída. Isso pode ser demonstrado, visto que essa estratégia
sempre constrói regiões fechadas de separação [GLS96].
Há duas maneiras de calcular o limiar: global ou local. Na abordagem global,
existe apenas um limiar t para todas as n classes, ti = t, i = 1, 2, . . . , n. Por outro
lado, na abordagem local, existe um limiar para cada classe. Nos experimentos
mostrados a seguir, a abordagem local foi escolhida, logo, foi calculado um limiar
por classe utilizando a seguinte equação: tmax = Max(x1 , x2 , . . . , xk ), sabendo que xk
são padrões que pertencem ao conjunto de validação.

4.4.2 Estudo Experimental

O estudo experimental foi desenvolvido usando o bando de imagens de faces IIS


que está acessível a partir da seguinte URL: http://smart.iis.sinica.edu.tw/. Ele é
formado de imagens de faces de 100 pessoas, cada pessoa forneceu 30 imagens de
tamanho 175x155 com pequenas variações em escala, posição e expressões faciais
(Figure 4.11). É importante notar que esse banco de dados é formado apenas por
orientais, que constituem um grupo mais homogêneo do que os ocidentais.

4.4.2.1 Avaliação do Desempenho Os resultados apresentados nessa seção


foram colhidos do artigo escrito por Cavalcanti et al. [CdSPF04]. Após alguns experi-
mentos preliminares, cou estabelecido que um número interessante de unidades na
camada intermediária da rede neural auto-associativa reside no intervalo entre 5 e 9.
Todos os experimentos mostrados a seguir utilizaram essa prerrogativa, além de um
limiar por classe que foi calculado com base na função max.

85
(a) Classe 18.

(b) Classe 26.

(b) Classe 36.

Figura 4.11: Amostra de imagens do banco de faces da IIS.

Para cada pessoa, foram selecionadas 10 imagens como referência, outras 10 ima-
gens foram usadas para testar e o restante, 10 imagens foram utilizadas para vali-
dação. Além da conguração previamente apresentada, outra foi testada, na qual
foi usada a seguinte divisão: 10 imagens para treinar, 15 imagens para testar e 5
imagens para validar. Para cada uma das classes, as faces falsas foram representadas
por todas as outras faces do banco de dados que não pertenciam a classe original.
Desta forma, um total de 2970 (99 classes * 30 imagens por classe) faces foram usa-
das como impostores por classe. O número de amostras de treinamento foi de 1000
nas duas congurações. As imagens para treino, teste e validação foram selecionadas
aleatoriamente do banco de faces da IIS para cada uma das rodadas em que o sistema
foi testado.
Na Tabela 4.8, são mostrados os resultados encontrados, usando a abordagem

86
tradicional de eigenfaces com 5, 7 e 9 neurônios na camada intermediária e duas
congurações diferentes para os números de amostras para treinar, testar e validar o
sistema. Com 40 componentes principais, o melhor resultado encontrado foi 8.86%
de HTER.

NUI NTrTeVa FR FA HTER

5 10-10-10 7.30 10.98 9.14


7 10-10-10 7.80 10.29 9.05
9 10-10-10 7.10 10.62 8.86
5 10-15-5 16.06 6.52 11.29
7 10-15-5 16.27 6.53 11.40
9 10-15-5 15.87 6.70 11.29

Tabela 4.8. Avaliação do desempenho usando 40 componentes principais extraídas das


imagens das faces completas. NUI: Número de Unidades Intermediárias. NTrTeVa: Número
de amostras de Treino, Teste e Validação.

Na Tabela 4.9, é possível ver os resultados após a composição dos melhores com-
ponentes (em termos de variância) de cada uma das bandas com 35% de perda de
variância. Na média, o número de componentes principais foi de: 43, sendo 7 da
Banda1, 14 da Banda2, 15 da Banda3 e 7 da Banda4. Sabe-se que regiões como os
olhos, o nariz e a boca fornecem informações interessantes para propósitos de discri-
minação de faces. Na grande maioria das vezes, essas regiões estavam localizadas nas
Bandas 2 e 3. Assim, conforme esperado, as bandas horizontais 1 e 4 foram menos
importantes. Isso mostra que a estratégia das eigenbands atribui mais importância
as regiões mais informativas, pois cada banda pode gerar um número diferente de
componentes principais para compor o vetor de características.
O melhor resultado usando as eigenbands foi encontrado com 7 neurônios na
camada intermediária e um vetor de características com 43 componentes principais:
6.42% de HTER. Na média, essa taxa foi 2.5% melhor do que o melhor resultado
encontrado sem a fusão das eigenbands.

87
NUI NTrTeVa FR FA HTER

5 10-10-10 7.10 6.02 6.56


7 10-10-10 6.90 5.93 6.42
9 10-10-10 7.40 5.93 6.67
5 10-15-5 15.20 3.68 9.44
7 10-15-5 15.87 3.78 9.83
9 10-15-5 15.93 3.15 9.54

Tabela 4.9. Avaliação do desempenho após a combinação das bandas horizontais. NUI:
Número de Unidades Intermediárias. NTrTeVa: Número de amostras de Treino, Teste e
Validação.

Figura 4.12: Vericação de faces usando Redes Neurais Auto-associativas: análise do


desempenho.

Com o objetivo de mensurar a robustez da estratégia de classicação, foi com-


putada a razão rb entre as taxas de erro HT ERb e a menor taxa de erro entre todos
métodos sendo comparados: rb = HT ERb /min1≤k≤n HT ERk . Desta forma, o me-
lhor método m0 dentre todos, terá rm0 = 1, e todos os outros métodos terão valores
maiores rm > 1, parar m 6= m0 . A distribuição dos valores para cada método sobre
todos os resultados aparenta ser um bom indicador de robustez.
Na Figura 4.12, é exposto um gráco da distribuição da abordagem tradicional
usando eigenfaces e recorrendo, também, à abordagem proposta, eigenbands. O
gráco representa a média e o desvio-padrãoda razão rb . Observando o gráco, é
possível notar que o método mais robusto, sobre o banco de dados utilizado, é a

88
combinação das eigenbands.

H 0 : µ1 = µ 2
H 1 : µ1 > µ 2
Valor calculado para a variável de teste decisão
2.4381 Rejeita

Tabela 4.10. Estatística do teste-t Emparelhado.

Além da análise de robustez proposta acima, um teste de hipótese foi realizado.


Na Tabela 4.10, é mostrado o resultado do paired students' t-test, com 5% de sig-
nicância. Nesta tabela, µ1 and µ2 representam o erro médio da rede neural auto-
associativa, aplicando as abordagens eigenface e eigenband, respectivamente. Esses
resultados suportam a hipótese de que na média o desempenho das eigenbands é
superior ao desempenho das eigenfaces.

89
CAPÍTULO 5

VERIFICAÇÃO DE
ASSINATURAS

"Com a pena na mão,


começo a compreender que a coisa
tem que ser apresentada de
modo a interessar ao leitor."
Artur Conan Doyle

5.1 INTRODUÇÃO

A assinatura é uma técnica biométrica comportamental que possui algumas van-


tagens, tais como: alta aceitação social e facilidade de aquisição. A maioria das
pessoas está acostumada a fornecer suas assinaturas para efetuar transações comer-
ciais, tornando, assim, esse tipo de tecnologia menos invasivo do que outras. Para a
captura de uma assinatura são necessários equipamentos de baixo custo, tais como:
uma mesa digitalizadora e uma caneta especial.
Uma das fraquezas desse tipo de biometria pode ser observada quando, por exem-
plo, um usuário não assina de uma maneira consistente - seja por não estar acostu-
mado ao contato com a mesa digitalizadora, seja por possuir alguma doença muscular
degenerativa - isso prejudica o sistema na fase de uso, podendo causar a não aceitação
de um usuário autêntico.

90
Vericação automática de assinaturas pode ser implementada em sistemas, nos
quais assinaturas já são usadas: cheques, boletos de cartões, contratos, acesso a docu-
mentos, entre outros. À medida que dispositivos digitais de captura de assinatura
(mesa digitalizadora) forem incorporados a pontos-de-venda e outros locais, o uso
dessa biometria terá um crescimento signicativo.
Uma assinatura pode ser considerada um caso particular de um manuscrito que
contém caracteres especiais e desenhos, muitas vezes com signicado apenas para o
autor. Porém, o ato de assinar aglomera informações sucientes para discernir o autor
da assinatura de prováveis fraudadores. Esse processo de identicação pode utilizar,
basicamente, duas fontes de informação: o-line e on-line. Em sistemas de vericação
de assinaturas o-line, a imagem da assinatura é, normalmente, capturada através
de um scanner ou de uma câmera, e apenas as características que formam a estrutura
da assinatura são analisadas. A forma on-line captura informações dinâmicas, tais
como: velocidade, pressão e intervalo de tempo em que a caneta não toca a mesa,
isso torna o processo decisório do sistema uma tarefa mais fácil do que no caso o-
line. Um ganho de desempenho pode ser obtido a partir da utilização tanto das
informações estáticas, quanto das informações dinâmicas.

5.2 BANCO DE DADOS DE ASSINATURAS

O banco de dados de assinaturas, desenvolvido por Dória [Dor01], foi usado nesse
trabalho e é descrito a seguir. Para capturar as imagem, foi utilizado um formulário
que comporta vinte espaços para as assinaturas de um usuário. Esses espaços não
são do mesmo tamanho, eles foram divididos da seguinte forma: quatro espaços
pequenos, doze espaços médios e quatro espaços grandes. As áreas de cada espaço
são, respectivamente, Pequeno (7,0cm x 1,0cm), Médio (8,0cm x 2,0cm) e Grande
(9,5cm x 4,0cm). As dimensões dessas áreas foram inspiradas em casos práticos
vividos diariamente por um cidadão brasileiro. Os espaços pequenos representam
a área para um usuário assinar um comprovante de cartão de crédito, os espaços

91
de tamanho médio são alusões à área destinada a assinaturas em um cheque e os
espaços grandes são representações de áreas associadas a assinaturas de contratos.
Foram colhidas assinaturas de vinte voluntários. Cada um deles representa uma
classe, dando um total de 20 classes.

Autênticas
Pequena

Média

Grande

Falsas

Simples Habilidosa

Figura 5.1: Exemplos de assinaturas de autênticas e impostoras.

Os formulários foram digitalizados com 150dpi (dots per inch - pontos por pole-
gada) de resolução. Após a digitalização, todas as assinaturas, de cada formulário,
foram segmentadas, tiveram suas características extraídas e armazenadas em um
banco de dados.
Sabendo que, para cada classe, estão disponíveis vinte assinaturas, o conjunto de
dados foi dividido da seguinte maneira: oito assinaturas médias por classe foram usa-
das para o treinamento, o restante, quatro médias, quatro pequenas e quatro grandes,
foram usadas para teste. Este procedimento gerou um total de 160 assinaturas para
treinamento e 240 para teste, sendo 80 pequenas, 80 médias e 80 grandes. O pequeno
número de exemplares por classe para a realização do treinamento é uma realidade
inerente ao problema de classicação de assinaturas.

92
Além das assinaturas genuínas, foram gerados dois conjuntos de assinaturas fal-
sas: simples e habilidosas. Na produção das falsas simples, o falsicador não tinha
acesso às assinaturas verdadeiras, enquanto que, na geração das falsas habilidosas,
foi apresentada para o falsicador a assinatura que se desejava reproduzir. Para cada
classe, foram geradas 10 assinaturas falsas simples e 10 assinaturas falsas habilidosas.
O espaço no formulário, para as assinaturas falsas foi do mesmo tamanho fornecido
para as assinaturas de tamanho médio, tornando o problema mais difícil, pois é a
mesma dimensão usada para treinar os classicadores. Esse procedimento gerou um
total de 200 assinaturas falsas simples e 200 assinaturas falsas habilidosas. Existe
ainda uma alternativa, para a produção de assinaturas falsas, a qual não foi estudada,
que consiste na produção de assinaturas falsicadas por especialistas. A Figura 5.1
mostra três assinaturas de diferentes tamanhos, grande, média e pequena, de um
determinado usuário; além de duas assinaturas falsicadas desse mesmo indivíduo.

5.3 SELEÇÃO DE CARACTERÍSTICAS

Quando muitas características são extraídas de uma mesma fonte de dados, é


possível que algumas dessas contribuam mais do que outras para o desempenho do
sistema. Assim como, algumas outras características podem ser até dispensáveis para
a solução do problema. Diante desse contexto, encontrar um conjunto de caracterís-
ticas que maximize o desempenho do sistema é tarefa de um algoritmo de seleção de
características.
O desempenho nesse caso pode ser medido tendo como referência um classi-
cador especíco. Jain [JZ97] avaliou o desempenho de diversas técnicas de seleção
de características para conjuntos de dados pequenos (fato relevante para aplicações
de classicação de assinaturas). A técnica ideal é aquela que avalia todos os sub-
conjuntos possíveis e, escolhe o que alcançou os melhores resultados. Entretanto,
essa técnica cria uma quantidade muito grande de combinações, tornando, algumas
vezes, o procedimento intratável, no que diz respeito ao tempo de processamento

93
computacional.
Uma técnica simples para realizar a seleção de características é baseada no cál-
culo do poder de discriminação de cada uma delas individualmente e, após esse
procedimento, as melhores características são reunidas em um grupo. Esse método
é ingênuo e não garante que o melhor conjunto será encontrado, uma vez que no
grupo selecionado podem existir características com alto grau de correlação. Por
outro lado, essa alternativa exige menos esforço computacional do que testar todas
as combinações possíveis e pode dar bons indícios para uma seleção posterior mais
criteriosa.
Cavalcanti et al. [CDF02] utilizaram dois classicadores: k-Vizinhos Mais Pró-
ximos (k-vmp ) e Classicador Bayesiano, para realizar a seleção de características
através do agrupamento das melhores características individuais. Nas seções a seguir,
serão mostrados os resultados desse procedimento aplicados a três conjuntos de da-
dos:

- Assinaturas brutas: as características foram extraídas das assinaturas sem ne-


nhum pré-processamento;

- Assinaturas normalizadas: as características foram extraídas das imagens das


assinaturas após o processo de normalização por tamanho;

- Assinaturas cortadas: as características foram extraídas das imagens das assina-


turas após a aplicação da técnica do corte.

O objetivo da normalização, por tamanho, é enquadrar todas as assinaturas den-


tro de um retângulo de dimensões denidas, como mostrado na Figura 5.2.
Os valores das dimensões do retângulo para a realização da normalização foram
calculados através da média das dimensões das assinaturas de tamanho médio. As-
sim, todas as assinaturas, inclusive as médias, foram redimensionadas para a altura
e a largura calculadas. Nesse processo, dois caminhos podem ser vislumbrados: nor-
malizar por classe ou normalizar globalmente. O mecanismo local foi escolhido, pois
apresentou resultados melhores do que o global, no item taxa de classicação.

94
Figura 5.2: Processo de normalização de assinaturas pequenas, médias e grandes.

As assinaturas cortadas são obtidas após a aplicação da técnica do corte [Dor01]


sobre as imagens originais da assinatura. Essa técnica remove os oreios das assina-
turas, permanecendo apenas com o corpo delas. A Figura 5.3 mostra o resultado do
corte de uma assinatura.

Figura 5.3: Processo de corte (remoção) do oreio de uma assinatura.

Essa técnica possui algumas questões que devem ser postas em discussão. Muita
informação pode ser desperdiçada quando o oreio é eliminado. Além disso, existem
assinaturas nas quais a técnica do corte praticamente não atua, pois essas não pos-
suem altos e baixos, o traço percorre uma faixa horizontal, praticamente, de forma
constante. Porém, nesse último caso, a técnica não prejudica o resto do processa-
mento, já que a assinatura é basicamente composta apenas de corpo.

5.3.1 Seleção de Características usando o Classicador k-vmp

Os experimentos com o classicador k-vmp usaram k = 1 e a distância de Ma-


halanobis para avaliar o poder de discriminação de cada uma das características. A
Figura 5.4 mostra que as seguintes características atingiram os melhores resultados:
32 (Central 3), 10 (Hu 2), 16 (Maitra 1), 9 (Hu 1), 36 (Central 7), 6 (Inclinação N),
28 (Simon 2), 37 (Razão), 31 (Central 2) e 7 (Inclinação V). Enquanto que as caracte-
rísticas 5 (Fator de Pressão), 2 (Pressão Máxima), 3 (Mínina-Máxima), 1 (THP) e 30

95
(Central 1) alcançaram os piores resultados. A taxa de acerto mostrada na Figura 5.4
e nas próximas guras que tratam da seleção de características, corresponde à mé-
dia aritmética das taxas de acerto das assinaturas de tamanho pequeno, médio e
grande. A Tabela A.1 (Anexo A) relaciona os índices mostrados na Figura 5.4 com
suas características correspondentes.

Avaliação das Características usando 1−vmp


50

40
Taxa de Acerto (%)

30

20

10

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
Características

Figura 5.4: Avaliação das características usando o classicador 1-vmp (imagens sem
transformação).

Avaliação das Características usando 1−vmp


50

40
Taxa de Acerto (%)

30

20

10

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Características

Figura 5.5: Avaliação das características usando o classicador 1-vmp (imagens nor-
malizadas).

Após o processo de normalização, todas as assinaturas foram redimensionadas


para uma dimensão pré-denida. Por esse motivo, a característica 37 (Razão) que
representava a divisão da largura pela altura, foi removida do conjunto. O grupo
restante, 36 características, foi usado para a execução de outro experimento. Os re-
sultados obtidos usando as características normalizadas são mostrados na Figura 5.5.

96
Avaliação das Características usando 1−vmp
50

40
Taxa de Acerto (%)

30

20

10

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
Características

Figura 5.6: Avaliação das características usando o classicador 1-vmp (imagens após
a aplicação da técncia do corte).

Comparando os resultados obtidos na normalização com os resultados obtidos com


as características brutas houve um decréscimo signicativo no poder de classicação
por característica.
O comportamento do classicador 1-vmp, sobre as características extraídas das
imagens após a eliminação dos oreios das assinaturas (técnica do corte), pode ser
observado na Figura 5.6. Em geral, os resultados foram semelhantes aos encontrados
com as características extraídas das imagens brutas. Excetuando-se, o grupo de
características pseudo-dinâmicas, que obteve um acréscimo de desempenho. Isso
pode ser explicado, pois, muitos dos pontos de pressão, durante o ato de assinar,
encontram-se no corpo da assinatura, e não nos oreios. Ênfase especial para as
seguintes características: 6 (Inclinação N), 9 (Hu 1), 10 (Hu 2), 18 (Maitra 3), 32
(Central 3), 1 (THP - Limiar Alta Pressão) e 16 (Maitra 1).
Diferentes valores de k , tais como 3, 5 e 7, foram testados. Entretanto, os resul-
tados não foram melhores do que os alcançados com k = 1. Por esse motivo, apenas
os resultados com 1-vmp foram apresentados.

5.3.2 Seleção de Características usando o Classicador Bayesiano

Em todos os experimentos realizados nessa seção, foi assumido que os dados são
regidos por uma distribuição Normal, na qual a matriz de covariância é a mesma

97
para todas as classes. Isso torna o classicador Bayesiano um discriminante linear.
O primeiro experimento aplica o classicador Bayesiano às características ex-
traídas das imagens das assinaturas sem nenhum tipo de pré-processamento. Os
resultados desse procedimento podem ser observados na Figura 5.7. Eles mostram
que algumas características obtiveram resultados interessantes, quando utilizadas iso-
ladamente para o reconhecimento das assinaturas, entre elas é possível destacar as
seguintes: 8 (Inclinação P), 6 (Inclinação N), 16 (Maitra 1), 36 (Central 7), 10 (Hu
2), 32 (Central 3), 9 (Hu 1) e 28 (Simon 2). Já as características a seguir não al-
cançaram bons resultados: 1 (THP-Limiar de Alta Pressão), 2 (Pressão Máxima), 3
(Mínima-Máxima) e 5 (Fator Pressão).

Avaliação das Características usando Bayes


50

40
Taxa de Acerto (%)

30

20

10

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
Características

Figura 5.7: Avaliação das características usando o classicador Bayesiano (imagens


sem transformação).

Avaliação das Características usando Bayes


50

40
Taxa de Acerto (%)

30

20

10

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Características

Figura 5.8: Avaliação das características usando o classicador Bayesiano (imagens


normalizadas).

98
A Figura 5.8 mostra o segundo experimento realizado com o classicador Bayesiano
para a seleção de características, no qual, as características foram extraídas das ima-
gens das assinaturas após a normalização por tamanho. Os resultados foram bastante
inferiores aos encontrados com as características extraídas das imagens sem nenhum
pré-processamento.

Avaliação das Características usando Bayes


50

40
Taxa de Acerto (%)

30

20

10

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
Características

Figura 5.9: Avaliação das características usando o classicador Bayesiano (imagens


após a aplicação da técnica do corte).

Os resultados alcançados pelo classicador Bayesiano sobre as características ex-


traídas das imagens após a aplicação da técnica do corte são mostrados na Figura 5.9
e são comparáveis aos resultados atingidos quando as imagens não sofreram nenhuma
transformação - Figura 5.7. Destaque especial para as características: 32 (Central
3), 9 (Hu 1), 11 (Hu 3), 16 (Maitra 1), 6 (Inclinação N), 37 (Razão), 8 (Inclinação
P) e 7 (Inclinação V). Algumas características conseguiram discriminar muito pouco,
são elas: 3 (Mínimo-Máximo), 17 (Maitra 2), 2 (Pressão Máxima) e 1 (THP).

5.3.3 Comentários

Os piores resultados dentre todos os experimentos foram encontrados quando


assinaturas normalizadas foram usadas. Nesses experimentos, as taxas de acerto das
assinaturas de tamanho pequeno, médio e grande foram similares. Já a análise mais
detalhada dos outros experimentos mostrou que a taxa de acerto das assinaturas de
tamanho médio foi superior em, aproximadamente, 60% dos experimentos. Fato que

99
reforça resultado encontrado por Dória [Dor01]: quando um usuário assina em espaços
de tamanhos diferentes ele adapta sua assinatura de forma não-linear. Lembrando
que o sistema foi treinado apenas com assinaturas de tamanho médio.
Foi observado, também, que algumas características atingiram bons resultados,
quando aplicadas a classes especícas. Essa análise pode favorecer à construção de
um sistema personalizado, isto é, um sistema que analisa características diferentes
por usuário. Entretanto, encontrar características relevantes, cada vez que um novo
usuário é adicionado ao sistema, é uma tarefa a mais para ser realizada, embora possa
oferecer baixos índices de erro.
Todos os experimentos realizados com o intuito de selecionar características e,
em especial, os que as extraíram das imagens brutas e das imagens após o corte,
destacaram o poder de reconhecimento de algumas características, são elas: 6 (In-
clinação N), 8 (Inclinação P), 9 (Hu 1), 16 (Maitra 1), 28 (Simon 2) e 32 (Central
3). Embora se saiba que a união das melhores características individuais pode não
gerar o melhor grupo de características para ns de classicação, o grupo selecionado
pode produzir boas taxas de classicação, além de servir como ponto de partida para
encontrar um grupo de características ideal.
Características de boa qualidade devem ter baixa variância para as assinaturas
de uma mesma classe e alta variância para assinaturas de classes distintas. Essa
dispersão, dentro da classe, pode ser calculada usado o Coeciente de Variação
(Equação .). Ao realizar essa análise, buscam-se características que tenham baixos
Coecientes de Variação, pois se espera que essas sejam relevantes para propósi-
tos de classicação. Características com altos Coecientes de Variação devem ser
desprezadas.

σ
CV = , (.)
x
sendo, σ o desvio padrão e x a média.
Os Coecientes de Variação médios das características investigadas são mostrados
na Figura 5.10. Através dessa análise, as melhores características, isto é, aquelas que

100
conseguiram os menores Coecientes de Variação foram: 1 (Limiar Alta Pressão),
2 (Pressão Máxima), 3 (Mínima-Máxima), 6 (Inclinação N), 7 (Inclinação V), 8
(Inclinação P), 9 (Hu 1), 16 (Maitra 1), 28 (Simon 2), 32 (Central 3) e 37 (Razão).
As características que conseguiram os maiores Coecientes de Variação foram: 15
(Hu 7), 29 (Simon 3), 14 (Hu 6), 33 (Central 4), 30 (Central 1) e 26 (Flusser 6).

Coeficientes de Variação Médio


4

3.5
Coeficiente de Variaçao

2.5

1.5

0.5

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
Caracteristicas

Figura 5.10: Análise do Coeciente de Variação médio por característica.

Essa análise vericou que as características selecionadas (6, 8, 9, 16, 28 e 32), isto
é, aquelas que obtiveram os melhores resultados individuais, usando os classicadores
k-vmp e bayesiano, conseguiram, também, bons resultados na análise do coeciente
de correlação. Vale salientar que essas características foram selecionadas, observando
apenas assinaturas autênticas. Em sistemas de vericação, deve-se levar em conside-
ração, também, assinaturas falsas. Sendo assim, a análise realizada deve ser validada
através de outras evidências, como, por exemplo, uma análise de vericação, na qual
o conjunto de características selecionado deve ser testado com exemplos autênticos e
falsos. Essa análise é realizada na seção seguinte.

5.4 VERIFICAÇÃO DE ASSINATURAS

A vericação de assinaturas tem o objetivo de determinar se uma dada assinatura


pertence ou não a um usuário. Também chamada de autenticação, ela averigua se
um usuário é realmente quem diz ser. Esta tecnologia biométrica é uma importante
área de estudo para prover segurança em aplicações de identicação pessoal, tais

101
como: autenticações e autorizações legais, operações bancárias e restrição de acesso
em ambientes que necessitam de alta segurança.
Dependendo do método de aquisição das assinaturas, o sistema de vericação
de assinaturas pode ser on-line ou o-line. No método on-line, as assinaturas são
adquiridas em tempo real, esse fator oferece algumas características que facilitam o
processo de decisão, principalmente para a detecção de falsicação, tais como: vari-
ação da velocidade no ato da escrita e pressão. Já no método o-line, as assinaturas
são capturadas por scanners ou câmeras, após a assinatura ter sido escrita. Como
a quantidade de informação nos métodos o-line é menor, pode-se dizer que esse
representa um problema mais complexo.
Na literatura, é comum encontrar trabalhos sobre vericação on-line e o-line de
assinaturas [BC97, HY97, RM99, BP01, CF02, FLT+ 02, HYM05]. Entretanto, em
nenhum deles, o problema de variação do tamanho das assinaturas de um mesmo
usuário é analisado. Dória et el. [DFS01] mostraram que, quando uma pessoa
assina em espaços de tamanhos diferentes, ela varia a escala de sua assinatura de
forma não linear. Dando continuidade ao estudo iniciado por Dória, Cavalcanti et
al. [CDAF02] mostraram alternativas para solucionar o problema de vericação o-
line de assinaturas de diferentes tamanhos, utilizando três grupos de características:
pseudo-dinâmicas, estruturais e momentos.
Nas seções que seguem, será mostrado um estudo sobre vericação o-line de
assinaturas. Três classicadores são usados sobre o banco de dados de assinaturas
descrito na Seção 5.2. Todos os experimentos usam um limiar especíco por classe
que é calculado sobre as assinaturas autênticas do conjunto de validação usando a
distribuição t-Student, com intervalo de conança de 99% (α = 0, 01). Para colher os
resultados apresentados nas próximas seções, um total de duzentas (200) combinações
diferentes dos padrões de treinamento, de teste e de validação foram consideradas.
Além dos grupos de características pseudo-dinâmicas, estruturais e momentos,
um grupo de características selecionadas foi adicionado. Ele é formado pelas caracte-
rísticas que conseguiram os melhores desempenhos individuais na tarefa de reconhe-

102
cimento (Seção 5.3) e apresentaram baixos Coecientes de Variação (Seção 5.3.3),
são elas: 6 (Inclinação N), 8 (Inclinação P), 9 (Hu 1), 16 (Maitra 1), 28 (Simon 2) e
32 (Central 3).

5.4.1 Classicador Bayesiano

Essa seção expõe a análise dos grupos de características estudados para o problema
de vericação de assinaturas usando o classicador Bayesiano. Os resultados gerados
pelas três massas de dados - assinaturas sem nenhum tipo de transformação, assina-
turas normalizadas por tamanho e assinaturas após a aplicação da técnica do corte
- são apresentados, respectivamente, nas Figuras 5.11, 5.12 e 5.13. Duzentas com-
binações possíveis foram geradas e os valores mostrados nas guras correspondem à
média aritmética.
100

90 Pseudo−dinâmicas
Estruturais
Hu
80 Maitra
Flusser
70 Simon
Central
Taxa de Erro (%)

Selecionadas
60

50

40

30

20

10

0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas

Figura 5.11: Classicador Bayesiano (sem transformação).

103
100

90 Pseudo−dinâmicas
Estruturais
Hu
80 Maitra
Flusser
70 Simon
Central
Taxa de Erro (%)

Selecionadas
60

50

40

30

20

10

0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas

Figura 5.12: Classicador Bayesiano (imagens normalizadas).

100

90 Pseudo−dinâmicas
Estruturais
Hu
80 Maitra
Flusser
70 Simon
Central
Taxa de Erro (%)

Selecionadas
60

50

40

30

20

10

0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas

Figura 5.13: Classicador Bayesiano (imagens cortadas).

De maneira geral, os resultados conseguidos com o classicador bayesiano não


foram satisfatórios. As Figuras 5.11 e 5.12 mostram que o limiar empregado não
conseguiu manter um bom compromisso entre as taxas de falsa aceitação e falsa
rejeição. Quando um grupo de características alcançou um pequeno valor para a taxa
de falsa aceitação, a taxa de falsa rejeição atingiu patamares muito altos, próximo
do erro máximo, e vice-versa, quando um grupo de características encontrou um
pequeno erro na taxa de falsa rejeição, a taxa de falsa aceitação foi altíssima. Os
resultados mais equilibrados, embora com erros bastante elevados, foram conseguidos
com as características extraídas das assinaturas após a aplicação da técnica do corte
- Figura 5.13. Resultados mais detalhados desses experimentos, como, por exemplo,

104
erro de treinamento, erro de validação e desvio-padrão, podem ser observados nas
Tabelas B.1, B.2 e B.3.

5.4.2 Classicador Cross-Correlation

Um outro classicador usado para vericar as assinaturas foi o Cross-Correlation.


Os resultados dos experimentos realizados nessa seção, sobre as imagens das assina-
turas puras (sem transformação), normalizadas pelo tamanho e após a aplicação da
técnica do corte, podem ser observados nas Figuras 5.14, 5.15 e 5.16, respectivamente.
Os resultados expostos nessas guras foram obtidos através da média aritmética dos
resultados de cada uma das duzentas congurações testadas.

80

Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)

50 Selecionadas

40

30

20

10

0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas

Figura 5.14: Classicador Cross-Correlation (sem transformação).

105
80

Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)

50 Selecionadas

40

30

20

10

0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas

Figura 5.15: Classicador Cross-Correlation (imagens normalizadas).

80

Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)

50 Selecionadas

40

30

20

10

0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas

Figura 5.16: Classicador Cross-Correlation (imagens cortadas).

Analisando os resultados do classicador Cross-Correlation sobre as característi-


cas extraídas das imagens puras, observa-se que os melhores resultados foram obtidos
pelo grupo de características Selecionadas, seguido de perto pelo grupo de carac-
terísticas Estruturais. Todos os grupos de características se mostraram bastante
susceptíveis a variações no tamanho da assinatura. Isso pode ser constatado, pois
as assinaturas de tamanho médio conseguiram resultados, visivelmente, superiores
às assinaturas de outros tamanhos. Nenhum dos grupos de características obteve
resultados satisfatórios no trato com as assinaturas falsas habilidosas.
Após a normalização pelo tamanho, o erro das assinaturas de tamanho médio
atingiu níveis superiores aos erros das assinaturas de tamanhos pequeno e grande, em

106
todos os grupos. O melhor grupo foi o de características Selecionadas, que conseguiu
erros inferiores, ou bastante próximos, a 10%. Três outros grupos de características
conseguiram resultados interessantes, são eles: Pseudo-dinâmicas, Central e Estrutu-
rais. Dos conjuntos de dados utilizados, esse foi o que gerou a menor distância entre
os erros das assinaturas de tamanhos diferentes.
Quando as imagens são cortadas, eliminando seus traços estilísticos, o grupo
de características Estruturais merece destaque, seguido de perto pelos grupos: Sele-
cionadas, Central e Pseudo-dinâmicas. Vale salientar que, mais uma vez, os erros das
assinaturas pequenas e grandes foram superiores ao erro das assinaturas de tamanho
médio.
Informações mais detalhadas sobre os resultados da vericação das assinaturas,
usando o classicador Cross-Correlation, são mostradas nas Tabelas B.4, B.5 e B.6,
tais como: erro de treinamento, erro de validação e desvio padrão.

5.4.3 Classicador Baseado em Distância

O classicador Baseado em Distância foi empregado sobre as três massas de dados


de assinaturas: sem transformação, normalizadas e cortadas. Seus resultados são
apresentados nas Figuras 5.17, 5.18 e 5.19, respectivamente.

80

Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)

50 Selecionadas

40

30

20

10

0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas

Figura 5.17: Classicador Baseado em Distância (sem transformação).

107
80

Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)

50 Selecionadas

40

30

20

10

0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas

Figura 5.18: Classicador Baseado em Distância (normalizadas).

80

Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)

50 Selecionadas

40

30

20

10

0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas

Figura 5.19: Classicador Baseado em Distância (imagens cortadas).

No trato com assinaturas sem nenhum tipo de pré-processamento, os resulta-


dos mostram que o grupo de características Selecionadas conseguiu resultados rele-
vantes, exceto no que diz respeito às assinaturas Falsas Habilidosas. Mesmo assim,
os menores erros obtidos com assinaturas falsas foi produzido por esse grupo, em
especial, quando assinaturas Falsas Simples foram analizadas. Os erros provocados
por assinaturas de tamanho médio foram sempre inferiores aos erros atingidos pelas
assinaturas de tamanhos pequeno e grande.
Após a normalização das imagens por tamanho, os resultados foram melhores
do que os obtidos quando nenhum pré-processamento foi utilizado. O grupo de
características Selecionadas obteve erro inferior a 7,0% - analisando a função risco

108
(Equação .), dando a mesma importância ao FRR e ao FAR, isto é, adotando
λ1 = λ2 = 1. Os grupos também obtiveram resultados relevantes, são eles: Pseudo-
dinâmicas, Central e Estruturais. Mais uma vez, quando o processo de normalização
foi empregado o erro das assinaturas de tamanhos pequeno e grande, em geral, foram
menores do que o erro das assinaturas médias.
Os resultados encontrados com a aplicação da técnica do corte foram um pouco
inferiores aos encontrados após a normalização e, superiores quando nenhum pré-
processamento foi adotado. A Figura 5.19 mostra que os melhores grupos foram:
Central, Estruturais e Selecionadas, com taxas de erros semelhantes.

5.5 COMENTÁRIOS

A diferença entre as taxas de erros das assinaturas de tamanhos pequeno, médio


e grande apresentou as maiores variações quando as imagens das assinaturas não
sofreram nenhum pré-processamento. A partir da utilização das técnicas do corte e
da normalização, que visam minimizar a inuência do uso de assinaturas de tamanhos
diferentes, essa diferença foi diminuída.
Ainda assim, conforme esperado, na maioria dos experimentos, a taxa de erro de
teste para as assinaturas de tamanho médio foi menor do que a taxa de erro de assina-
turas de tamanhos pequeno e grande. A exceção foi observada quando as imagens
das assinaturas foram normalizadas por tamanho. De todos os experimentos, o que
atingiu as menores diferenças entre os erros das assinaturas de tamanhos diferentes
utilizou as imagens normalizadas. Isso leva a crer que o processo de normalização
corrobora com a minimização da inuência do tamanho da assinatura.
Outro fato, igualmente esperado, atestou que o erro das assinaturas falsas simples
foi, na maioria das vezes, menor do que os erros encontrados pelas assinaturas falsas
habilidosas. Visto que essas últimas possuem uma semelhança visual muito maior
do que as falsas simples, quando comparadas com as assinaturas autênticas.
É importante mencionar que todos os resultados encontrados nessa Seção 5.4,

109
Imagens das Assinaturas
Classicador Sem Transformação Normalizada Cortada

Baseado em Distância Selecionadas Selecionadas Central


R2 23,62 6,58 13,03
Cross-Correlation Pseudo-Dinâmica Selecionadas Estruturais
R2 22,69 7,88 15,48
Bayesiano Simon Simon Pseudo-Dinâmica
R2 39,74 31,33 28,46

Tabela 5.1. Resumo dos melhores resultados, em termos da medida R2, das tabelas do
Apêndice B.

utilizaram um limiar por classe que é calculado usando apenas informações sobre a
referida classe. Nenhuma informação sobre possíveis impostores é levada em consi-
deração no momento do cálculo do limiar. Quando informações sobre prováveis im-
postores são usadas, para esse cálculo, menores taxas de erro podem ser alcançadas.
Porém, essa estratégia pode não representar um experimento real.
Na Tabela 5.1, é possível visualizar um resumo dos melhores resultados obtidos
com a vericação de assinaturas. Esse resumo baseia-se na taxa R2 (atribui im-
portância igual às taxas FRR e FAR - λ1 = 1 e λ2 = 1) e coletou informações das
tabelas do Apêndice B. O grupo de características Selecionadas [6 (Inclinação N), 8
(Inclinação P), 9 (Hu 1), 16 (Maitra 1), 28 (Simon 2) e 32 (Central 3)], aliada à nor-
malização das assinaturas por tamanho, mostrou-se bastante eciente, tanto no trato
com vericação de assinaturas de mesmo tamanho, como no trato com assinaturas
de tamanhos diferentes. Seu melhor resultado foi de 6,58% de erro R2.
A partir desta tabela, é possível vericar a importância do pré-processamento das
imagens, quando se está tratando com assinaturas de tamanhos diferentes. Pois, os
resultados encontrados com as assinaturas sem nenhum tipo de transformação foram
os piores. Dos classicadores analisados, o Baseado em Distância obteve melhores
resultados do que os outros, deixando o classicador Cross-correlation em segundo

110
lugar e o Bayesiano por último.

111
CAPÍTULO 6

VERIFICAÇÃO DA DINÂMICA
DA DIGITAÇÃO

6.1 INTRODUÇÃO

A vericação através da dinâmica da digitação é o processo de analisar o modo


como os usuários digitam em um terminal através da monitoração das entradas de
dadas no teclado, cujo objetivo é identicar esses usuários, tomando como base o
padrão formado pela digitação de cada um.
Essa dinâmica é extraída a partir de duas medidas que mensuram em milisse-
gundos o tempo que os usuários mantém cada uma das teclas pressionadas (tempo
de pressionamento) e o intervalo de tempo entre o pressionamento de duas teclas
consecutivas (tempo de latência). O gráco da Figura 6.1 mostra as características
comumente usadas em sistemas de autenticação através da digitação. Essas carac-
terísticas formam um vetor contendo os tempos de pressionamentos de cada tecla,
além do intervalo de tempo entre duas teclas.
Observando o exemplo mostrado na Figura 6.1, no qual a palavra "ABCDE",
que contém 5 símbolos foi usada, é possível notar que um vetor de características de
tamanho 9 pode ser construído. De forma geral, para uma palavra de tamanho n,
um vetor de tempo de tamanho 2n − 1 pode ser construído, sendo: n características
correspondentes aos tempos em que as teclas cam pressionadas e n−1 características
que representam o tempo entre duas teclas consecutivas.
As Equações . e . mostram os vetores citados no parágrafo acima e adotam a

112
E

C
B

tAi tAf tBi tCi tBf tCf tDi tDf tEi tEf
Tempo
Duração Intervalo

Figura 6.1: Características comumente usadas em sistemas de autenticação pessoal


usando a dinâmica da digitação.

seguinte notação: trs representa o instante em que a tecla r é pressionada ou liberada;


o índice s pode assumir dois valores (i, f ), que informa se o instante corresponde ao
início (i) do pressionamento da tecla ou ao nal (f ), de liberação da tecla. Desta
forma, t1i signica o instante de pressionamento da tecla 1, e t2f signica o instante
de liberação da tecla 2. Na Equação ., é mostrada a composição de um vetor de
características a partir dos vetores previamente mencionados.

vetorpressionamento = [t1p , t2p , . . . , tnp ], (.)

dado que t1p = t1f − t1i , t2p = t2f − t2i , . . . , tnp = tnf − tni .

vetorlatencia = [t1l2 , t2l3 , . . . , t(n−1)ln ], (.)

dado que t1l2 = t2i − t1f , t2l3 = t3i − t2f , . . . , t(n−1)ln = tni − t(n−1)f .

vetorcompleto = [t1p , t1l2 , t2p , t2l3 , t3p , . . . , t(n−1)p , t(n−1)ln , tnp ]. (.)

O vetor de características mostrado na Equação . é formado apenas por valores


inteiros positivos. Entretanto, o vetor de características denido pela Equação .

113
pode conter valores negativos; como mostrado no intervalo tCi − tBf da Figura 6.1,
pois tCi é menor do que tBf . Haverá intervalo de tempo negativo, quando o usuário
pressionar uma tecla antes de soltar a anteriormente pressionada. Como em geral, os
bancos de dados construídos para realizar experimentos sobre essa tecnologia utilizam
usuários que já possuem prática no ato de digitar, é bastante comum encontrar valores
negativos na composição do vetor de características de intervalos.
No quesito aplicação, sistemas de identicação pessoal que usam a dinâmica da
digitação podem ser empregados em qualquer ambiente, no qual existe a necessidade
de controlar acesso através de senhas [YC04]. Como vantagens desse tipo de biometria
é possível citar que são sistemas baratos e mais transparentes para o usuário do que
sistemas baseados em impressão digital e em íris, além disso, podem ser usados,
também, pela Internet [CHK00].
Nesse capítulo, serão apresentados, na Seção 6.2, alguns trabalhos anteriores so-
bre o assunto em questão. As estratégias usadas para capturar os padrões, extrair
características e vericar, bem como os resultados dos experimentos serão descritos
na Seção 6.3. Por m, a Seção 6.4 dará vez a algumas discussões.

6.2 TRABALHOS RELACIONADOS

Existem duas abordagens para se trabalhar com dinâmica da digitação: uma que
utiliza um texto xo e pré-determinado para todos os usuários do sistema e outro
que se vale de textos diferentes por pessoa. Em seu trabalho, Bleha et al. [BSH90]
utilizaram tanto um texto xo (a seguinte frase: University of Missouri Columbia )
quanto a senha de cada um dos usuários como entrada do sistema. O vetor de
características foi formado a partir do intervalo de tempo entre o pressionamento das
teclas. Os resultados nais foram calculados, usando 32 classes (pessoas), sendo 10
autênticas e 22 impostores, e atingiram as seguintes taxas de erro: 3,1% de FRR e
0,5% de FAR.
Em 1993, Brown e Rogers [BR93] estudaram a aplicação de redes neurais para o

114
problema de autenticação de usuários através de informações extraídas da digitação
de seus próprios nomes. Foram usados dois modelos de redes neurais: Kohonen e
Backpropagation. Como características, foram usados o tempo de pressionamento de
cada tecla e o intervalo de tempo entre a soltura da primeira tecla e o pressionamento
da segunda. Esta última característica pode ser negativa, pois o usuário que já possui
certa desenvoltura ao digitar, geralmente, pressiona uma nova tecla antes de soltar a
primeira pressionada. Um total de 25 usuários foram responsáveis pela criação tanto
dos padrões autênticos como dos falsos. Os melhores resultados alcançaram 11,5%
de FRR e 4,2% de FAR.
Monrose e Rubin [MR97, MR00] concentraram seus esforços no problema de
reconhecimento ao invés de vericação e, usaram as mesmas características do tra-
balho realizado por Brown e Rogers [BR93], descrito anteriormente. Foi requisitado
que cada um dos 63 usuários digitassem a seguinte tupla: (x1 , x2 , x3 , x4 ), sendo: x1
o login do usuário, x2 sua senha, x3 seu primeiro nome e x4 seu nome de família. A
taxa de acerto do sistema variou entre 83,22% e 92,14%.
Em Cho et al. [CHK00], uma rede neural auto-associativa foi treinada apenas
com padrões genuínos, sendo uma rede por classe. Essa arquitetura foi usada para
detectar impostores e atingiu 1,0% de FRR e 0% de FAR. Entretanto, os experimentos
apresentavam algumas limitações, tais como: alto custo computacional, além de um
fator que, na prática, não é trivial de se conseguir, muitos padrões autênticos por
classe, que, no caso do artigo foram usados centenas de padrões por pessoa.
A maioria dos sistemas visto até agora utilizava um texto variável por pessoa,
como, por exemplo, seu nome ou uma senha. No sistema proposto por Bergadana et
al. [BGP02], um grande texto com 683 caracteres foi selecionado para que todos os
154 usuários o digitassem. Com esse conguração foi alcançada uma taxa de 4,00%
de FRR e 0,01% de FAR.
Em trabalho recente, Yu e Cho [YC04] construíram um sistema, no qual foi uti-
lizada uma Máquina de Vetor de Suporte (Support Vector Machine - SVM ) como
classicador. As características foram extraídas a partir das senhas de cada um dos

115
usuários utilizando a mesma abordagem implementada por Brown e Rogers [BR93].
Uma pequena diferença reside no fato de Yu levar em consideração a tecla Enter
pressionada ao nal da digitação da senha. Foi desenvolvido, também, um procedi-
mento de seleção de características, baseado em uma arquitetura integrada de seleção-
classicação, usando algoritmos genéticos e SVM. Para um total de 21 usuários, o
sistema estudado apresentou as seguintes taxas de erros: 3,54% de FRR e 0% de
FAR.
Na Tabela 6.1, é apresentado um conjunto de informações relevantes sobre alguns
trabalhos que tratam de dinâmica da digitação.

6.3 ESTUDO EXPERIMENTAL

Essa seção está dividida em três partes: Aquisição de Dados (6.3.1), Extração de
Características (6.3.2) e Vericação (6.3.3). Na primeira parte, será mostrado o pro-
cedimento utilizado para compor o banco de dados a partir da captura de informações
da digitação de diversos usuários. É responsabilidade da etapa de extração de carac-
terísticas encontrar uma boa representação para os tempos capturados dos usuários
de forma que consigam discriminá-los. Na última parte, são validadas, através do
uso de classicadores, todos os conjuntos de dados extraídos na etapa de extração de
características.

6.3.1 Aquisição dos Dados

Foi desenvolvido um software para a aquisição do comportamento de cada usuário,


no que diz respeito ao ritmo da digitação. Esse software foi desenvolvido em Visual
Basic (VB) e permitia que cada um dos usuários, inicialmente, zesse um cadastro,
o qual continha: o identicador do usuário (um inteiro), o nome completo e o e-
mail. Uma vez feito o cadastro, o usuário poderia dar entrada nos dados. Foi pedido
que cada usuário digitasse aproximadamente 60 vezes o seu próprio nome, de forma
idêntica ao que ele tinha previamente cadastrado no sistema. Essa alimentação do

116
Artigo Texto Extração de Carac. Seleção de Carac. Classicação # de Usuários FRR FAR

[BSH90] Nome e Senha TL - Bayesiano 32 3,1 0,5


[BR93] Nome TP e TL - Redes Neurais 25 11,5 4,2
[MR97, MR00] Nome e Senha TP e TL - Distância 63 - -
[CHK00] Senha TP e TL - AANN 21 1,00 0,00

117
[BGP02] Texto - - Distância 154 4,00 0,01
[YC04] Senha TP e TL GA-SVM SVM 21 3,54 0,0

Tabela 6.1. Resumo de alguns trabalhos relevantes sobre dinâmica da digitação. (TP - Tempo de Pressionamento e PL - Tempo de
Latência).
banco de dados foi realizada em três sessões e, em cada uma delas, o usuário digitava
aproximadamente 20 vezes. Para a construção do banco de dados de impostores,
foi pedido que alguns usuários digitassem os nomes completos de outros usuários.
Cada impostor digitou aproximadamente 5 vezes o nome de cada um dos usuários
autênticos.
Na Tabela C.1 (Apêndice), é mostrada a quantidade de padrões autênticos e de
padrões falsos por classe. Um total de 24 pessoas ajudaram a compor um banco de
dados. O número total de padrões autênticos e de padrões falsos foi de 1465 (média de
61,04 padrões por classe) e 987 (média de 41,13 padrões por classe), respectivamente.
Padrões com erro de tipograa ou no qual o usuário tentava fazer correções não
foram inseridos no banco de dados. Mas, ao contrário do trabalho desenvolvido por
Yu e Cho [YC04], foi permitido que o usuário colocasse acento em seus nomes, bem
como zesse uso de letras maiúsculas e minúsculas, além de espaços em branco.
Nas Figuras 6.2 e 6.3, são exibidos grácos que mostram os vetores de tempos
de padrões produzidos por um usuário genuíno e por fraudadores para a classe 16,
respectivamente. É possível observar que os padrões produzidos pelo usuário autên-
tico 16 são bem mais uniformes do que os produzidos pelos impostores da mesma
classe. Vale salientar que os padrões falsos são produzidos por vários usuários, não
apenas por um.

6.3.2 Extração de Características e Representação

Nessa seção, são mostrados os métodos usados para normalizar e para selecionar
os tempos de pressionamento e de latência dos usuários. Vale salientar que esses
métodos serão realizados por classe. Assim, deseja-se construir um sistema que seja
personalizado por classe (usuário) e que consiga atingir taxas de acerto maiores e
mais robustas.
Normalização das Características
A normalização dos dados tem o objetivo de deixar todas as características em

118
5000

4000
Tempo (ms)

3000

2000

1000

−1000
60
50 35
40 30
25
30 20
Padrões do Usuário 20 15
10 10 Características
5
0 0

Figura 6.2: Exemplos de Padrões Autênticos da Classe 16.

uma mesma escala, com o intuito de minimizar a inuência do valor da característica,


dando importância à informação que a mesma carrega. Com esse propósito em mente,
a normalização dos dados foi realizada usando o desvio padrão:

· n ¸1/2
1 X
σ= (xi − x)2 , (.)
n − 1 i=1
1 Pn
sabendo que x = n i=1 xi .
A partir do conjunto de treinamento, é calculado o desvio-padrão de cada uma das
características. O vetor gerado é utilizado para normalizar todas as características,
sejam elas do conjunto de treinamento, teste ou validação, conforme mostrado na
Equação ..

Di
Dni = , (.)
σi
Di e Dni representam a i-ésima característica da matriz de dados originais e da matriz
de dados normalizados, respectivamente.

119
5000

4000

3000
Tempo (ms)

2000

1000

−1000
40

30 35
30
20 25
20
Padrões do Usuário 15
10 10 Características
5
0 0

Figura 6.3: Exemplos de Padrões Falsos para a Classe 16.

Sabendo que o desvio-padrão é uma medida que expressa a dispersão dos dados em
relação à média e que em problemas de discriminação deseja-se que a variação intra-
classe seja pequena, o desvio-padrão apresenta-se como uma alternativa interessante
pois, quanto menor o desvio-padrão menos variação sofreu a carcaterística analisada.
Seleção de Características
O objetivo da seleção de característica é encontrar um subconjunto a partir do
conjunto original de características que consiga atingir melhores taxas de acerto.
Assim, a estratégia adotada visa escolher as n características que possuem os menores
coecientes de variação (CV), dentre as m totais (n < m). Para tanto, foi construída
uma função que recebe dois parâmetros como entrada: os dados originais e uma
porcentagem p. Os dados originais possuem padrões com m dimensões, assim, m CVs
são calculados. O retorno da função são os índices das características que representam
p% das características originais com menores CVs.
Realizar um procedimento de seleção de características pode gerar algumas van-

120
tagens além da melhoria da taxa de acerto, entre elas, pode-se destacar a diminuição
no tempo necessário para efetuar o processamento, tanto para o treinamento, quanto
para o uso, uma vez que um vetor menor do que o original será avaliado.

6.3.3 Vericação

Os experimentos realizados, usando as características extraídas dos 24 usuários


que alimentaram o banco de dados, serão mostrados nessa seção. O classicador
Centróide que é baseado em distância será usado. Os resultados apresentados a
seguir foram colhidos adotando que o sistema não iria cometer nenhum erro de Falso
Positivo (F AR = 0). Portanto, um limiar foi calculado por classe de forma que
represente a menor distância entre o conjunto de impostores e o centro da classe.
Conforme mostrado na equação abaixo:

limiari = argmin(distância(Ci , Ii )) (.)

sendo Ci o centro da classe i e Ii o conjunto de padrões impostores para a mesma


classe.

se distância(Ci , P ) >= limiari

então P é um padrão impostor

senão P é um padrão genuíno (.)

Assim, a região de decisão criada para a classe i é construída de acordo com a


equação acima.

6.3.3.1 Procedimento Experimental Três conjuntos de experimentos foram


realizados a partir de três massas de dados distintas: uma com as características que
continham apenas o tempo de pressionamento das teclas; a segunda com o tempo
entre dois pressionamentos (latência); e a terceira com a combinação das duas massas

121
anteriores.
A partir dos procedimentos de normalização e de seleção de características, cada
um dos conjuntos de experimentos foi particionado em quatro baterias. Uma com os
dados brutos, sem normalização e sem seleção de características, outra sem norma-
lização, mas com seleção, a teceira com normalização, porém sem seleção, e por m
uma última com normalização e com seleção; conforme mostrado abaixo:

Teste1 Erro médio sem normalização e sem seleção das características;

Teste2 Erro médio com normalização e sem seleção das características;

Teste3 Erro médio sem normalização e com seleção das características;

Teste4 Erro médio com normalização e com seleção das características.

Cada um dos experimentos foi realizado 10 vezes, os valores que aparecem nas
tabelas e nos grácos representam a média dessas iterações. É mostrado, também, o
desvio-padrão referente a essas repetições.

40
Teste1
Teste2
Teste3
35 Teste4

30
FRR (quando FAR =0)

25

20

15

10

0
0 10 20 30 40 50 60
Número de padrões usados para treinar

Figura 6.4: FRR (quando FAR = 0) versus Número de Amostras de Treinamento.

122
30
Teste4

25

20
FRR (quando FAR =0)

15

10

0
0 10 20 30 40 50 60
Número de padrões usados para treinar

Figura 6.5: FRR (quando FAR = 0) versus Número de Amostras de Treinamento.

Um primeiro experimento que analisou a inuência do número de amostras ado-


tadas para treinar o sistema, usando todas as características, tanto as que mensuram
o tempo de pressionamento quanto o tempo de latência, pode ser visualizado na
Figura 6.4. Observando essa gura, nota-se que o Teste3 e o Teste4 foram os que
obtiveram os melhores resultados. Já a amostra de dados sem normalização e sem
seleção de características (Teste1) alcançou as piores taxas de acerto. Em todos os
testes mostrados nessa gura, foi observado que a medida que o número de padrões
usado para treinar o sistema aumentava a taxa de erro diminuia. Entretanto, é im-
portante notar que o fator de decréscimo do erro apresenta-se de forma logarítmica,
o que sugere um limite a partir do qual aumentar o número de amostras para treinar
o sistema se torna irrelevante.
Na Figura 6.5, é exibido, em destaque, apenas o conjunto de dados (Teste4), o
qual obteve, em termos absolutos, os melhores resultados. As barras verticais repre-
sentam o desvio padrão das taxas de erro (FRR) de cada uma das 10 repetições. A
melhoria da taxa de acerto provocada pelo aumento do número de padrões de treino
é um resultado esperado, uma vez que, ao ter acesso a mais amostras, o classi-

123
cador consegue criar uma representação da classe de forma mais precisa. Entretanto,
através de uma inspeção visual, um número de padrões de treinamento interessante
é 40. Pois, a partir desse ponto, o ganho de desempenho é pequeno, principalmente,
se for levado em conta a variação mostrada pelo desvio-padrão.
Segundo a análise realizada acima, um bom número de padrões de treinamento
é 40 por classe. Assim, os resultados mostrados nas seções seguintes se valem dessa
prerrogativa.

80

Teste1
70 Teste2
Teste3
Teste4

60
FRR (quando FAR =0)

50

40

30

20

10

0
0 5 10 15 20 25 30 35
Número de Características

Figura 6.6: Avaliação da FRR (adotando FAR = 0) quando o número de caracterís-


ticas varia (combinação das características).

Um segundo experimento realizado visava, de maneira simples, vericar um número


de características interessante para realizar a classicação dos padrões da dinâmica
da digitação, bem como vericar se as características iniciais, no início do nome,
são melhores que as do m do nome. Assim, o classicador baseado em distância
Euclidiana discriminou as amostras se valendo das primeiras n características, com
n ∈ {5, 10, 15, 20, 25, 30}. O limite superior de 30 características foi estabelecido,

124
80

Teste1
70 Teste2
Teste3
Teste4

60
FRR (quando FAR =0)

50

40

30

20

10

0
0 5 10 15 20 25 30 35
Número de Características

Figura 6.7: Avaliação da FRR (adotando FAR = 0) quando o número de caracterís-


ticas varia (combinação das características reverso).

pois, para algumas classes, esse era o número próximo do total de características.
O vetor de características original e completo estava organizado da seguinte forma,
para uma palavra com m teclas: [t1p , t1l2 , t2p , . . ., tmp ], isto é, tempo de pressio-
namento da primeira tecla, tempo de latência entre a primeira e a segunda tecla,
tempo de pressionamento da segunda tecla e assim por diante. Os resultados da clas-
sicação, selecionando as primeiras n características, são mostrados na Figura 6.6.
Aumentando o número de características, nota-se um decréscimo na taxa de erro,
esse comportamento permanece até quando 25 características são usadas. A partir
desse ponto, os conjuntos de dados representados por Teste2 e Teste4 não melhoram
a taxa de acerto. Indícios para a seleção de um número ideal de características, entre
25 e 30, podem ser retirados dessa análise.
Na Figura 6.7, é exposta a mesma análise realizada acima, só que em vez de
usar as primeiras n características são utilizadas as últimas n características. Seme-

125
lhante à análise anterior, o intervalo entre 25 e 30 características parece ser bastante
interessante para propósitos de classicação. Exceto para o grupo de características
sem normalização e sem seleção que obteve os piores resultados. Observando valores
absolutos, os resultados alcançados usando as últimas características foram melhores
do que os encontrados quando as primeiras foram usadas.
A seguir serão detalhados alguns experimentos com as três massas de dados:
características com tempo de pressionamento, características com o tempo de latência
e a combinação das duas anteriores.

6.3.3.2 Características Tempo de Pressionamento Na Figura 6.8, observam-


se as taxas de erro de Falso Negativo (FRR), adotando que o Falso Positivo (FAR)
é zero, usando o classicador baseado em distância e treinando cada um dos classi-
cadores com 40 amostras por classe. Apenas as características que contabilizam o
tempo de pressionamento de cada um das teclas foram utilizadas.
Das quatro congurações de testes usadas, a conguração que representa a massa
de dados sem normalização e sem seleção de características (Teste 1) alcançou os
piores resultados individuais. Já os melhores resultados foram alcançados com as
congurações: Teste2 e Teste4; que tiveram resultados bastante semelhantes.

80

70

60
FRR (quando FAR =0)

50

40

30

20

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (sem normalizar as caracteristicas)

Figura 6.9: FRR após eliminar porcentagem das características sem normalização
(Características: Tempo de Pressionamento).

126
100

Teste1
90
Teste2
Teste3
Teste4
80

70
FRR (quando FAR =0)

60

50

40

30

20

10

0
0 5 10 15 20 25
Classes

Figura 6.8: FRR de quatro congurações de experimentos quando FAR igual a zero
(Características: Tempo de Pressionamento).

Os resultados, em detalhes, da Figura 6.8, podem ser conferidos na Tabela C.2.


Nessa tabela, é possível notar que algumas classes não conseguiram resultados bons,
independente da conguração usada, como, por exemplo, as classes 15 e 22. Por
outro lado, a classe 2 que tinha alcançado 63,68% de erro no Teste1, diminuiu esse
percentual para 4,21% no Teste4.
Nas Figuras 6.9 e 6.10, são mostradas as taxas de erro (FRR), à medida que uma
certa porcentagem do número de características é desprezada, quando a normalização
não é usada e quando ela é usada, respectivamente. Na média, as melhores taxas
de acerto foram encontradas quando 80% das características foram mantidas, sem
normalização (Figura 6.9). Após a normalização das características (Figura 6.10), os
melhores resultados caram em um intervalo que variava da manutençao de 70% a
95% das características. Esses resultados mostram que, para as características que
avaliam apenas o tempo de pressionamento de cada uma das teclas, o classicador

127
80

70

60

FRR (quando FAR =0)


50

40

30

20

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (normalizando as caracteristicas)

Figura 6.10: FRR após eliminar porcentagem das características com normalização
(Características: Tempo de Pressionamento).

discrimina melhor quando grande parte das características são mantidas.


Um resumo contendo os melhores resultados das quatro congurações, usando as
características com o tempo de pressionamento, pode ser observado nas Tabelas 6.2 e 6.3.
A primeira tabela mostra os resulatdos com o classicador Baseado em Distância Eu-
clidiana, já a segunda usa o classicador Vizinho Mais Próximo.

Conguração Normalização Seleção de Características FRR


Teste1 Não Não 42, 38 ± 1, 02
Teste2 Sim Não 12, 56 ± 0, 49
Teste3 Não Sim 14, 94 ± 0, 63
Teste4 Sim Sim 11, 95 ± 0, 54

Tabela 6.2. F RR por conguração de teste quando F AR = 0. Características Tempo de


Pressionamento e Classicador Baseado em Distância.

O classicador Baseado em Distância obteve melhores resultados do que o clas-


sicador Vizinho Mais Próximo em todos os experimentos com esse conjunto de
características, exceto para a conguração sem normalização e sem seleção de carac-
terísticas (Teste1). Nos dois classicadores, os melhores resultados absolutos foram
alcançados com a conguração Teste4; 11,95% de FRR para o classicador Baseado
em Distância e 15,44% para o classicador Vizinho Mais Próximo.

128
Conguração Normalização Seleção de Características FRR
Teste1 Não Não 28, 59 ± 1, 50
Teste2 Sim Não 17, 18 ± 0, 94
Teste3 Não Sim 19, 15 ± 0, 80
Teste4 Sim Sim 15, 44 ± 0, 71

Tabela 6.3. F RR por conguração de teste quando F AR = 0. Características Tempo de


Pressionamento e Classicador Vizinho Mais Próximo.

6.3.3.3 Características Tempo de Latência A seguir seguem os resultados


com o conjunto de características que mede os tempos de latência, isto é, o tempo
em milissegundos entre o pressionamento de duas teclas consecutivas. Na Figura 6.11,
é mostrada a taxa de falsa rejeição (FRR) quando a taxa de falsa aceitação (FAR)
é zero, para cada uma das classes, usando todas as quatro congurações com o
classicador baseado em distância. Mais uma vez, o pior resultado foi obtido com a
conguração Teste1.

50

45

40

35
FRR (quando FAR =0)

30

25

20

15

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (sem normalizar as caracteristicas)

Figura 6.12: FRR após eliminar porcentagem das características sem normalização
(Características: Tempo de Latência).

Assim como foi mostrado nos experimentos realizados com as características


Tempo de Pressionamento, é possível observar, nas Figuras 6.12 e 6.13, o desempenho
do classicador baseado em distância quando o algoritmo de seleção de caracterís-

129
90

Teste1
80
Teste2
Teste3
Teste4
70

60
FRR (quando FAR =0)

50

40

30

20

10

0
0 5 10 15 20 25
Classes

Figura 6.11: FRR de quatro congurações de experimentos quando FAR igual a zero
(características: Tempo de Latência).

ticas é empregado, sem e com a normalização das características, respectivamente.


Valendo-se das características sem normalização, a melhor porcentagem de corte -
cou por volta de 65%, ou seja, quando 35% das características foram mantidas. Após
a normalização, os melhores resultados foram alcançados quando 50% das caracte-
rísticas foram eliminadas.
Um resumo contendo os melhores resultados das quatro congurações, usando as
características com o tempo de latência pode ser observado nas Tabelas 6.4 e 6.5.
A primeira tabela mostra os resultados com o classicador Baseado em Distância
Euclidiana, já a segunda usa o classicador Vizinho Mais Próximo. Os resultados
dos dois classicadores foram bastante próximos para esse conjunto de caracterís-
ticas. Novamente, nos dois classicadores, os melhores resultados absolutos foram
alcançados com a conguração Teste4; 12,20% de FRR para o classicador Baseado
em Distância e 12,55% para o classicador Vizinho Mais Próximo.

130
50

40

FRR (quando FAR =0) 30

20

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (normalizando as caracteristicas)

Figura 6.13: FRR após eliminar porcentagem das características com normalização
(Características: Tempo de Latência).

Conguração Normalização Seleção de Características FRR


Teste1 Não Não 33, 41 ± 1, 17
Teste2 Sim Não 16, 92 ± 1, 03
Teste3 Não Sim 14, 57 ± 0, 55
Teste4 Sim Sim 12, 20 ± 0, 37

Tabela 6.4. F RR por conguração de teste quando F AR = 0. Características Tempo de


Latência e Classicador Baseado em Distância.

As características Tempo de Pressionamento e Tempo de Latência obtiveram


taxas de acerto muito próximas. Destaque deve ser dado ao segundo grupo de
características, pois ele conseguiu taxas de acerto similares ao primeiro, mesmo
quando apenas 35% das foram mantidas (Figura 6.12), contra 80% do primeiro grupo
(Figura 6.9). De maneira geral, independente do conjunto de características - Tempo
de Pressionamento ou Tempo de Latência - os melhores resultados foram alcançados
com o classicador Baseado em Distância.

6.3.3.4 Combinação de Características Os próximos resultados mostram as


taxas de erro após a combinação dos dois conjuntos de características avaliados ante-
riormente - Tempo de Pressionamento e Tempo de Latência. Com base no conceito

131
Conguração Normalização Seleção de Características FRR
Teste1 Não Não 27, 68 ± 0, 80
Teste2 Sim Não 17, 02 ± 0, 70
Teste3 Não Sim 14, 44 ± 0, 78
Teste4 Sim Sim 12, 55 ± 0, 35

Tabela 6.5. F RR por conguração de teste quando F AR = 0. Características Tempo de


Latência e Classicador Vizinho Mais Próximo.

de combinação, espera-se que essa estratégia consiga utilizar as melhores informações


do vetor completo e expurgar informações que não sejam úteis, a m de aumentar a
conabilidade do sistema atingindo taxas de erros menores.
Seguindo o mesmo raciocínio usado nos experimentos anteriores, em primeiro lu-
gar é mostrada uma gura com o erro por classe de cada uma das quatro congurações
de teste usadas - Figura 6.14. Conrmando resultados anteriores, o conjunto de da-
dos sem nenhum tratamento (Teste1) atinge taxas insatisfatórias, mostrando que
para essa massa de dados é indispensável um pré-processamento, como, por exemplo,
o realizado nas outras congurações: normalização e/ou seleção de características.
Classes como as representadas pelos número 3, 11 e 20, que no Teste1 atingiram
patamares de erros no intervalo entre 57 e 77%, no Teste4, que seleciona e normaliza
as características, as taxas de erro foram reduzidas para valores entre 3,5 e 6,5%. Os
resultados detalhados dessa gura, podem ser visualizados na Tabela C.4.

132
80
Teste1
Teste2
70 Teste3
Teste4

60
FRR (quando FAR =0)

50

40

30

20

10

0
0 5 10 15 20 25
Classes

Figura 6.14: FRR de quatro congurações de experimentos quando FAR igual a zero
(Combinação das Características).

50

45

40

35
FRR (quando FAR =0)

30

25

20

15

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (sem normalizar as caracteristicas)

Figura 6.15: FRR após eliminar porcentagem das características sem normalização
(Combinação das Características).

Nas Figuras 6.15 e 6.16, são mostradas as taxas de erro (FRR), à medida que uma
certa porcentagem do número de características é desprezada, quando a normalização

133
50

45

40

35

FRR (quando FAR =0)


30

25

20

15

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (normalizando as caracteristicas)

Figura 6.16: FRR após eliminar porcentagem das características com normalização
(Combinação das Características).

Conguração Normalização Seleção de Características FRR


Teste1 Não Não 30, 99 ± 1, 08
Teste2 Sim Não 11, 20 ± 0, 62
Teste3 Não Sim 6, 82 ± 0, 61
Teste4 Sim Sim 6, 04 ± 0, 55

Tabela 6.6. F RR por conguração de teste quando F AR = 0. Combinação das Caracte-


rísticas e Classicador Baseado em Distância.

não é usada e quando ela é usada, respectivamente. Para as duas guras, na média,
as melhores taxas de acerto foram encontradas quando 50% das características foram
mantidas. Esse é um resultado empiricamente esperado, uma vez que, ca entre os
resultados encontrados quando cada um dos grupos de características foi analisado
isoladamente. Mesmo sabendo que em sistema de vericação, no qual a comparação
é um-para-um, o tempo não é, em geral, um fator de risco, é importante observar
que, para se conseguir os melhores resultados, apenas metade das características são
necessárias, o que favorece a diminuição do tempo de resposta do sistema.
Os melhores resultados das quatro congurações, após a combinação das carac-
terísticas pode ser observado nas Tabelas 6.6 e 6.7. A primeira tabela mostra os
resultados com o classicador Baseado em Distância Euclidiana, já a segunda usa o

134
Conguração Normalização Seleção de Características FRR
Teste1 Não Não 25, 76 ± 0, 88
Teste2 Sim Não 10, 59 ± 0, 47
Teste3 Não Sim 7, 37 ± 0, 63
Teste4 Sim Sim 6, 68 ± 0, 48

Tabela 6.7. F RR por conguração de teste quando F AR = 0. Combinação das Caracte-


rísticas e Classicador Vizinho Mais Próximo.

classicador Vizinho Mais Próximo.


O melhor resultado absoluto do classicador Baseado em Distância foi quando o
conjunto de dados sofreu uma seleção de características e foi normalizado (Teste4),
atingindo uma taxa de erro (FRR) de 6,04%. Com essa mesma conguração, o classi-
cador Vizinho Mais Próximo, conseguiu 6,68% de FRR. Embora os resultados sejam
próximos entre si, são melhores do que os resultados encontrados quando as caracte-
rísticas Tempo de Pressionamento e Tempo de Latência foram usadas isoladamente.

6.4 CONSIDERAÇÕES FINAIS

Em uma das análises realizadas, visava-se vericar se as características (tempo)


do início do nome discriminavam melhor do que as do m. Após alguns experimentos,
cou constatado que, em valores absolutos, as características do m atingiram re-
sultados melhores do que as do início. Isso leva a crer que, ou impostor não está
devidamente treinado para burlar o usuário genuíno ou que as pessoas mantêm um
padrão mais constante quando estão nalizando a digitação.
Das quatro congurações usadas para avaliar o desempenho do sistema, os melho-
res resultados foram conseguidos com a conguração Teste4, na qual as características
foram selecionas e normalizadas. Além disso, pode-se dizer que a seleção de carac-
terísticas foi mais relevante que a normalização. Uma vez que a conguração Teste3
(sem normalização e com seleção de características), na maioria das vezes, alcançou
melhores resultados que a conguração Teste2 (com normalização e sem seleção de

135
características).
Foram realizados, também, experimentos com seleção de características que visa-
vam obter a melhor taxa de acerto a partir da eliminação de uma certa porcentagem
das características. Quando as características Tempo de Pressionamento e Tempo
de Latência foram usadas conjuntamente, o melhor resultado foi encontrado quando
50% das características foram mantidas. Sabendo que, no banco de dados, a média
de características por classe é de ∼
= 60; eliminando 50% dessas, restam 30, número
esse que está de acordo com os resultados empíricos encontrados nos experimentos
apresentados nas Figuras 6.6 e 6.7.
É importante ressaltar que, mesmo quando o erro médio foi de 6,04% (Tabele 6.6),
algumas classes como: 5, 9, 15 e 23; apresentaram erros maiores que 9,00% (Tabela C.4).
Quanto ao grupo de características, os mehores resultados foram encontrados quando
as características referentes ao Tempo de Pressionamento e ao Tempo de Latência
foram combinadas. Quando analisadas individualmente, Tempo de Pressionamento
e Tempo de Latência, suas taxas de acerto foram bastante semelhantes. No que-
sito classicador, os resultados alcançados com o classicador Baseado em Distância
foram melhores do que o classicador Vizinho Mais Próximo.
Sistemas de vericação baseados em dinâmica da digitação podem ser aplica-
dos em qualquer ambiente, no qual se deseja controlar o acesso através de senhas.
Quanto ao mercado, a empresa BioPassword (http://www.biopassword.com) possui
um sistema que pode ser integrado ao Windows.

136
CAPÍTULO 7

COMBINAÇÃO DE BIOMETRIAS

"O verdadeiro saber é essencialmente harmonia."


Alfredo Oanzini

"Não é uma qualidade rara que faz por si só


o encanto de uma pessoa;
é a harmonia entre todas as qualidades."
Condessa Diane

7.1 INTRODUÇÃO

Construir um sistema monomodal de identicação pessoal é, em geral, mais barato


do que construir um multimodal. Todavia, o primeiro pode não atingir o desem-
penho desejado, principalmente, quando o número de usuários cresce. Por outro
lado, a construção de um sistema de identicação multimodal é, essencialmente, um
problema de combinação de sensores que objetiva ser mais tolerante a falhas na
captura da biometria, além de reduzir a incerteza e o ruído.
Para a medição do desempenho do sistema, dois fatores merecem destaque: tempo
de resposta e taxa de acerto. O tempo de resposta diz respeito ao tempo necessário
para que o sistema fornecer uma resposta, ou seja, conceder ou não permissão ao
usuário. Já a obtenção da taxa de acerto é realizada através de um cálculo que de-
pende do número de usuários autênticos rejeitados (FRR) e do número de impostores
aceitos (FAR). Essa última medida (FAR) está, intimamente, ligada a uma questão

137
que exerce papel fundamental na construção de sistemas dessa natureza: a segurança.
Daí surge outro fator positivo para sistemas multimodais. Eles são mais robustos e
mais resistentes a fraudes, pois é mais difícil forjar várias características biométricas
do que forjar apenas uma.
Conforme descrito anteriormente, um sistema de Classicação de Padrões pode
operar em dois modos: Reconhecimento e Vericação. Sabendo que um sistema
biométrico é um sistema de classicação de padrões, deseja-se esclarecer esses dois
modos em um ambiente de integração, os quais são bastante diferentes. Tipica-
mente, no Reconhecimento, um grande número de comparações é necessário para
identicar o indivíduo - lembrando que a comparação é realizada de um-para-muitos
(one-to-many). Assim, esse número de comparações será multiplicado pelo número
de biometrias envolvidas na integração. Nesse caso, o maior desao é melhorar a
velocidade de resposta do sistema. O mesmo não ocorre na Vericação, na qual a in-
tegração visa melhorar a taxa de acerto do sistema, pois a comparação é um-para-um
(one-to-one).
O maior desao do uso de sistemas biométricos em aplicações do mundo real
está atrelado ao melhoramento do seu desempenho. Em um futuro próximo, técnicas
de classicação monomodais tendem a alcançar um limite de saturação do desem-
penho [DBB+ 97]. Alguns trabalhos [BF95, ABB+ 96, UDW97, DBB+ 97, KMJS97,
JLGW97, HJ98, JLK99, JR02, Nak02, SP03c, CF03b] mostraram que a combinação
de mais de uma técnica biométrica tem melhorado o desempenho, em relação à análise
das técnicas individualmente. Tais sistemas são chamados Sistema de Identicação
Pessoal Multibiométricos ou Multimodais.
Este capítulo expõe os benefícios da combinação de três modalidades biométricas:
face, assinatura e dinâmica da digitação. A escolha das duas primeiras modalidades
biométricas foi baseada no fato de serem de fácil aceitação (ao contrário da íris
e da retina que necessitam de aparelhos intrusivos de aquisição), bem como, na
facilidade e no baixo custo de aquisição das mesmas [JHP00]. Já a terceira, dinâmica
da digitação, além de ser bastante barata, pois basta apenas um dispositivo que

138
praticamente todo computador já possui, um teclado, é também transparente para
o usuário.

7.2 BANCO DE DADOS

Os bancos de dados de faces da ORL e da UMIST foram utilizados. O banco


de dados da ORL é formado por imagens de 40 pessoas - total de 400 imagens. Já
o banco de dados da UMIST é formado por imagens de 20 pessoas - total de 564
imagens.
O banco de dados de assinaturas foi usado em trabalhos anteriores [CDAF02,
CDF02]. Ele é constituído de assinaturas de 20 pessoas. Para cada voluntário, foi so-
licitado que assinasse 12 vezes, dentro de uma área que corresponde a 8,0cm x 2,0cm.
Além dessas, foram colhidas 20 assinaturas falsas por usuário (todas de tamanho
médio), sendo metade formada de falsas simples e a outra metade de falsas habili-
dosas. Na produção de assinaturas falsas habilidosas, o voluntário tinha em suas
mãos a assinatura verdadeira, enquanto que na produção das assinaturas falsas sim-
ples, o voluntário assinava sem qualquer informação prévia além do nome completo
da pessoa.
Para a aquisição do ritmo dos usuários através da dinâmica da digitação, foi
pedido que cada um deles digitasse aproximadamente 60 vezes o seu próprio nome,
de forma idêntica ao que ele tinha previamente cadastrado no sistema. Em geral,
essa alimentação do banco de dados foi realizada em três sessões, e em cada uma
delas o usuário digitava aproximadamente 20 vezes. Para a construção do banco de
dados de impostores, foi pedido que alguns usuários digitassem os nomes completos
de outros usuários. Cada impostor digitou aproximadamente 5 vezes o nome de cada
um dos usuários autênticos, gerando aproximadamente 40 falsos por classe.
Mesmo que as assinaturas, as faces e as dinâmicas da digitação não tenham sido
colhidas de uma mesma pessoa, é possível fazer uma correspondência entre essas
características biométricas, pois, para efeito de procedimento experimental, elas são

139
não relacionadas. Não foi encontrado, nos estudos investigados na literatura, nenhum
procedimento que conseguisse prever, a partir da face de uma pessoa, como seria sua
assinatura, ou que a partir do seu ritmo de digitação descrevesse sua face.

7.3 ARQUITETURA DE COMBINAÇÃO

A arquitetura usada para a identicação pessoal multimodal pode ser observada


na Figura 7.1 e, possui os seguintes módulos: Extração de Características, Clas-
sicação, Normalização e Combinação. Os extratores de características foram os
mesmos usados nos experimentos realizados nos capítulos especícos para cada uma
das biometrias, isto é, PCA para faces, Pseudo-dinâmicas, Estruturais e Momentos
para assinaturas e, tempo de Pressionamento e de Latência para a Dinâmica da Digi-
tação. O classicador Baseado em Distância foi o escolhido para preencher o módulo
Classicador. Os procedimentos de normalização serão expostos na Seção 7.3.1 e a
regra de combinação na Seção 7.3.2.

BIOMETRIA 1 EXTRAÇÃO DE
CLASSIFICADOR NORMALIZAÇÃO
CARACTERÍSTICAS
SUPERVISOR

BIOMETRIA 2 EXTRAÇÃO DE DECISÃO


CLASSIFICADOR NORMALIZAÇÃO
CARACTERÍSTICAS (ACEITA/RECUSA)

BIOMETRIA 3 EXTRAÇÃO DE
CLASSIFICADOR NORMALIZAÇÃO
CARACTERÍSTICAS

Figura 7.1: Arquitetura de um Sistema de Identicação Pessoal Multimodal.

7.3.1 Normalização

Um ponto crítico, na construção de um procedimento de integração de técnicas


biométricas, é a normalização [BF95]. Em geral, cada classicador produz uma saída

140
em uma escala diferente. Desta forma, a combinação das respostas dos classicadores
deve ser realizada somente após um procedimento de normalização.
Uma maneira simples de normalizar é restringir as respostas dos classicadores a
valores dentro de um intervalo bem denido, por exemplo [0,1]. Outra forma, igual-
mente simples de normalizar, é transformar toda a distribuição de dados, deixando-a
com média zero e variância um. Entretanto, essas estratégias não são boas no trato
com outliers e podem provocar graves erros na decisão nal do sistema. No tra-
balho aqui proposto, duas técnicas de normalização, previamente utilizadas, serão
analisadas. Elas usam artifícios para tratar outliers e são apresentadas a seguir.
Brunelli
A primeira baseia-se na teoria de robust statistics e normaliza a resposta do
classicador de acordo com a seguinte fórmula:

0 1 (Sij − µtanh )
Sij = [tanh(0.01 ) + 1] ∈ [0, 1], (.)
2 σtanh
Sij representa o conjunto de respostas do classicador j ; i é o número do padrão
no conjunto de treinamento; µtanh e σtanh são a média e desvio-padrão, respecti-
vamente. Maiores detalhes sobre esse método de normalização podem ser encontrados
em [BF95].
Sanderson
A segunda técnica de normalização usada também produz respostas no intervalo
[0,1]. Nesse método, a saída do classicador i, dado por Si , é fornecida como entrada
para uma função sigmóide, como segue:

1
S 0i = , (.)
1 + exp[−τi (Si )]
sendo

Si − (µi − 2σi )
τi (Si ) = , (.)
2σi
µi e σi representam a média e o desvio-padrão do classicador i. Maiores detalhes
sobre esse método de normalização podem ser encontrados em [SP03c].

141
7.3.2 Regra de Combinação

A regra da Soma Ponderada associa a cada modalidade biométrica um peso:

n
X
fj = ωi × oi,j , (.)
i=1

j representa a classe, n o número que identica a modalidade biométrica, oi,j a res-


posta da i-ésima modalidade e ωi o peso correspondente, no intervalo [0,1]. Os pesos
Pn
mostram a importância de cada modalidade através de probabilidades, i=1 ωi = 1 .
Um caso particular acontece quando todos os pesos são iguais, 1/n, nesse caso a
Equação . é reduzida a média aritmética.

7.4 COMBINANDO FACE E ASSINATURA

O banco de dados multibiométrico foi construído da seguinte forma: as vinte


classes de faces do banco de faces da UMIST foram associadas às vinte classes do
banco de dados de assinaturas. Isso gerou um conjunto de 240 (12x20) padrões
autênticos. O classicador usa, para o treinamento, quatro padrões por classe, os
quais foram obtidos a partir da união de quatro assinaturas médias com quatro faces
- total de 80 padrões. O restante, 160 padrões, foi utilizado para testar a falsa rejeição
do sistema - sendo 8 por classe. O banco de dados de faces da ORL cou responsável
pela geração de padrões falsos. Cada assinatura falsa foi associada a uma face do
banco de dados ORL. Esse processo gerou 200 (10x20) padrões falsos simples e 200
(10x20) padrões falsos habilidosos.
Nessa seção serão exibidos os resultados da combinação dos melhores grupos de ca-
racterísticas de assinaturas, que foram: Selecionadas, Estruturais, Pseudo-dinâmicas
e Central, com as eigenbands verticais e horizontais, extraídas das faces. Os resul-
tados apresentados representam a média aritmética obtida de um total de 10 (dez)
combinações observadas. Objetivando padronizar a saída dos classicadores, para
não permitir que uma modalidade consiga vantagens indevidas sobre a outra, dois
métodos de normalização são avaliados: Brunelli e Sanderson. Esses métodos nor-

142
malizam a saída do classicador no intervalo [0,1], levando em consideração prováveis
outliers. Após a normalização, a decisão de cada classicador recebe um peso, cuja
soma deve ser 1 (um). Logo, a combinação é realizada pela Regra da Soma Pon-
derada (Equação .), com isso, deseja-se encontrar qual a melhor porcentagem com
que cada modalidade deve contribuir para melhorar o desempenho do sistema. Os
resultados apresentados mostram as taxas de erros FRR e FAR, adotando que FAR
é igual a zero (0). Assim, o limiar é calculado por classe, de forma que seja igual a
menor distância para um impostor. O classicador usado foi o Baseado em Distância.
Cada classicador fornece como saída um valor que representa a distância entre
o padrão que está sendo avaliado e o centro da classe. Reunindo as respostas dos
classicadores, pode-se formar um vetor de respostas: (b1 , b2 ). b1 e b2 correspondem
às respostas obtidas dos classicadores de face e de assinatura, respectivamente.
As Figuras 7.2, 7.3 e 7.4 foram obtidas através da divisão dos padrões de cada
modalidade biométrica em dois grupos: autênticos e impostores. Elas mostram a
distribuição das respostas do classicador Baseado em Distância, utilizando uma das
10 combinações geradas e a normalização Brunelli. As características das assinaturas
foram extraídas após a normalização por tamanho, e o grupo usado foi o Selecionadas.
O classicador Baseado em Distância foi empregado, também, sobre as eigenbands
horizontais, para determinar a distribuição mostrada na Figura 7.3. A distribuição
da combinação, mostrada na Figura 7.4, foi obtida através da fusão das respostas
dos classicadores usando a regra da Soma Ponderada, atribuindo-se o mesmo peso
para as modalidades assinatura e face.

143
140

120
Padrões Autênticos

100

80
Freqüência

60

40

20
Padrões Falsos

0
0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Resposta do Classificador para a Modalidade Assinatura

Figura 7.2: Distribuição dos padrões autênticos e falsos da modalidade assinatura -


grupo de características Selecionadas extraídas das imagens normalizadas por tama-
nho, usando o classicador Baseado em Distância.

100

90

Padrões Autênticos
80

70

60
Freqüência

50

40

30
Padrões Falsos

20

10

0
0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Resposta do Classificador para a Modalidade Face

Figura 7.3: Distribuição dos padrões autênticos e falsos da modalidade face - eigen-
bands horizontais, usando o classicador Baseado em Distância.

144
1

Padrões Autênticos
Padrões Falsos Simples
0.9 Padrões Falsos Habilidosos

0.8
Resposta Face

0.7

0.6

0.5

0.4
0.4 0.5 0.6 0.7 0.8 0.9 1
Resposta Assinatura

Figura 7.5: Gráco 2D com os padrões autênticos e falsos da combinação das modali-
dades usando a normalização Brunelli.

90

80

Padrões Autênticos
70

60
Freqüência

50

40

30

Padrões Falsos
20

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Resposta do Classificador para a Combinação: Assinatura e Face

Figura 7.4: Distribuição dos padrões autênticos e falsos da combinação das modali-
dades assinatura e face, mostradas nas Figuras 7.2 e 7.3, usando o classicador
Baseado em Distância.

145
A Figura 7.2 mostra que a modalidade assinatura não separou bem os padrões
autênticos dos impostores. A separação é melhor observada quando os padrões da face
foram exibidos - Figura 7.3. Empregando um mecanismo simples, a m de combinar
as respostas dos classicadores de face e de assinatura, uma melhora signicativa foi
observada - Figura 7.4.
Outra análise visual pode ser feita exibindo as respostas dos dois classicadores em
um gráco com duas dimensões (2D), no qual um dos eixos representa a resposta do
classicador assinatura e o outro eixo a resposta do classicador face. A Figura 7.5
mostra um gráco das respostas dos usuários autênticos e dos impostores, após a
aplicação da técnica de normalização usada por Brunelli. Observando o gráco, é
possível vericar que as classes (autêntico e impostor) estão bem separadas. Assim,
a discriminação pode ser feita por um classicador simples.
Os primeiros experimentos foram realizados combinando os melhores resultados
encontrados pela vericação de faces e pela vericação de assinaturas. Desta forma,
os grupos de assinaturas: Pseudo-dinâmicas, Estruturais, Central e Selecionadas,
destacam-se, pois conseguiram os resultados mais expressivos. No que diz respeito à
vericação de faces, as características extraídas das bandas horizontais e das bandas
verticais, através de PCA, são usadas.
Dois métodos de normalização são comparados. O primeiro método foi usado
por Brunelli et al. [BF95]. Outro método foi usado, recentemente, por Sanderson et
al. [SP03c] na construção de um sistema bimodal que usa face e voz para identicação
pessoal. Os sobrenomes dos autores serão usados para intitular essas técnicas de
normalização.

7.4.1 Combinando os melhores grupos de assinaturas com eigenbands verti-


cais

Nessa seção, serão mostrados os resultados da combinação de duas modalidades


biométricas (face e assinatura). Os grupos de características que obtiveram os melho-

146
res desempenhos na execução da tarefa de vericação de assinaturas foram escolhidos,
são eles: Selecionadas, Estruturais, Pseudo-dinâmicas e Central. Esses grupos serão
combinados com as eigenbands verticais extraídas das faces.
As Figuras 7.6 e 7.7 reportam os resultados utilizando a normalização Sanderson
e Brunelli, respectivamente. Sabendo que os melhores resultados encontrados na
vericação de assinaturas de tamanhos diferentes foram conseguidos com o emprego
das técnicas de minimização da variância não-linear de escala, todos os experimentos
usados nessa seção se valem da aplicação da técnica do corte.
O eixo horizontal dos grácos mostrados nas Figuras 7.6 e 7.7 representa o
peso associado à modalidade face (kf ace ) - o peso associado à assinatura é igual
à kassinatura = 1 − kf ace . O erro da face, em ambos os grácos, foi inferior quando
comparado com o erro da assinatura, conforme esperado.

Combinando Face e Assinatura (Normalização Sanderson)


30
PseudoDinâmica e Eigenbands Verticais
Estruturais e Eigenbands Verticais
Central e Eigenbands Verticais
Selecionadas e Eigenbands Verticais
25

20
FRR quando FAR = 0

15

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Face

Figura 7.6: Combinação de Face com Assinatura (Eigenbands Verticais e Normali-


zação Sanderson).

147
Combinando Face e Assinatura (Normalização Brunelli)
30

PseudoDinâmica e Eigenbands Verticais


Estruturais e Eigenbands Verticais
Central e Eigenbands Verticais
25
Selecionadas e Eigenbands Verticais

20
FRR quando FAR = 0

15

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Face

Figura 7.7: Combinação de Face com Assinatura (Eigenbands Verticais e Normali-


zação Brunelli).

Na Figura 7.6, é possível ver a combinação de faces com assinaturas usando a


normalização Sanderson. As taxas de erro quando apenas a biometria assinatura
foi usada (peso da face igual a zero - kf ace = 0), foram maiores do que quando
apenas a face foi usada (kf ace = 1). Os melhores resultados da assinatura podem
ser observados no lado esquerdo do gráco, sendo de F RR = 15, 68 ± 1, 25% com as
características Selecionadas e de F RR = 15, 00±1, 15% com as Estruturais. Sabendo
que apenas um conjunto de características extraído das faces foi utilizado para a
produção desses resultados, sendo as Eigenbands Verticais, o melhor resultados foi
de F RR = 1, 88±0, 61%. Com essa conguração de experimentos, a combinação não
mostrou melhora em relação ao uso apenas da biometria face. Conforme o gráco
mostra, as taxas erro vão diminuindo à medida que a face recebe mais importância
na combinação, até culminar no máximo aproveitamento quando a assinatura não
mais inuencia os resultados.
Os melhores resultados, apresentados na Figura 7.7, estão resumidos na Tabela 7.1.
Esses experimentos diferem do anterior no método de normalização utilizado, sendo

148
Características FRR kf ace

Pseudo-dinâmicas e Eigenbands Verticais 0, 13 ± 0, 2 0,85-1,00


Estruturais e Eigenbands Verticais 0, 00 ± 0, 0 0,55-0,90
Central e Eigenbands Verticais 0, 00 ± 0, 0 0,70-0,95
Selecionadas e Eigenbands Verticais 0, 00 ± 0, 0 0,65-0,90

Tabela 7.1. Resumo contendo os melhores resultados da Figura 7.7.

agora Brunelli a escolhida. Os resultados mostram que a combinação foi válida, uma
vez que, exceto os teste realizados com as características Pseudo-dinâmicas, todas
as outras alcançaram, em algum ponto da combinação, erro mínimo. É importante
notar que a biometria face foi mais relevante do que a assinatura na combinação, pois
as menores taxas de erro foram obtidas quando o peso associado à face era maior
que o peso associado à assinatura. Fazendo um breve comparativo entre os métodos
de normalização, constata-se que Brunelli alcançou resultados mais relevantes que os
atingidos pela normalização Sanderson, tendo em vista as características analisadas.

7.4.2 Combinando os melhores grupos de assinaturas com eigenbands hori-


zontais

Para a combinação das faces com as assinaturas, essa seção utiliza os mesmos
grupos de características extraídas das assinaturas usadas na seção anterior: Sele-
cionadas, Estruturais, Pseudo-dinâmicas e Central. Entretanto, as características
extraídas das faces foram as eigenbands horizontais.
As Figuras 7.8 e 7.9 reportam os resultados, utilizando a normalização Sanderson
e a Brunelli, respectivamente. O eixo horizontal de todos os grácos mostrados nessas
guras representa o peso associado à modalidade face (kf ace ). De forma geral, assim
como nos experimentos realizados na seção anterior, a face foi mais importante para
a combinação, fato destacado pela magnitude do peso kf ace .
Na maioria dos experimentos, a combinação obteve um resultado absoluto melhor

149
Combinando Face e Assinatura (Normalização Sanderson)
30
PseudoDinâmica e Eigenbands Horizontais
Estruturais e Eigenbands Horizontais
Central e Eigenbands Horizontais
Selecionadas e Eigenbands Horizontais
25

20
FRR quando FAR = 0

15

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Face

Figura 7.8: Combinação de Face com Assinatura (Eigenbands Horizontais e Norma-


lização Sanderson).

Combinando Face e Assinatura (Normalização Brunelli)


30

PseudoDinâmica e Eigenbands Horizontais


Estruturais e Eigenbands Horizontais
Central e Eigenbands Horizontais
25 Selecionadas e Eigenbands Horizontais

20
FRR quando FAR = 0

15

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Face

Figura 7.9: Combinação de Face com Assinatura (Eigenbands Horizontais e Norma-


lização Brunelli).

150
do que qualquer uma das modalidades isoladas. Na Tabela 7.2, são mostrados os
melhores resultados obtidos usando a normalização Sanderson e na Tabela 7.3, os
melhores com a normalização Brunelli.

Características FRR kf ace

Pseudo-dinâmicas e Eigenbands Horizontais 1, 13 ± 0, 82 1,00


Estruturais e Eigenbands Horizontais 0, 69 ± 0, 31 0,95
Central e Eigenbands Horizontais 1, 13 ± 0, 82 1,00
Selecionadas e Eigenbands Horizontais 1, 00 ± 0, 42 0,95

Tabela 7.2. Resumo contendo os melhores resultados da Figura 7.8.

Observando a Figura 7.8, nota-se que a biometria assinatura isolada atingiu uma
taxa de falso negativo no patamar de 15%, enquanto que a face cou próxima a 2,13%.
Mais uma vez, ao utilizar a normalização Sanderson, percebe-se que à medida que se
dá proeminência à face, as taxas de erro diminuem. O melhor resultado absoluto foi
conseguido com as características Estruturais F RR = 0, 69 ± 0, 31, quando kf ace =
0, 95.

Características FRR kf ace

Pseudo-dinâmicas e Eigenbands Horizontais 0, 50 ± 0, 41 0,60-0,90


Estruturais e Eigenbands Horizontais 0, 13 ± 0, 20 0,60-0,85
Central e Eigenbands Horizontais 0, 00 ± 0, 00 0,70-0,75
Selecionadas e Eigenbands Horizontais 0, 06 ± 0, 10 0,55-0,60

Tabela 7.3. Resumo contendo os melhores resultados da Figura 7.9.

Comparando os resultados alcançados pelas duas normalizações, percebe-se que,


novamente, a normalização Brunelli teve um desempenho superior. Fato é que, con-
forme a Tabela 7.3, a qual resume os melhores resultados da Figura 7.9, destaque deve
ser dado ao conjunto de características Central que não cometeu nenhum erro, diante
da amostra usada. Além disso, os resultados conseguidos por essa última tabela, se

151
mantinham constantes para alguns pesos (ff ace ), como, por exemplo, a segunda linha
da tabela mostra as características pseudo-dinâmicas, o melhor resultado perdurou
do peso para a face igual a 0,6 até o valor 0,9.

7.5 COMBINANDO ASSINATURA E DINÂMICA DA DIGITAÇÃO

Para realizar os experimentos da combinação de assinatura e dinâmica da digi-


tação, foi necessário construir um banco de dados multibiométrico. Assim, as vinte
classes de assinaturas foram associadas a vinte classes de dinâmica da digitação.
Como o número de padrões são bastante díspares entre essas duas biometrias, os
classicadores especícos foram treinados com quantidades diferentes de padrões, 4
para a assinatura e 40 para a dinâmica da digitação. O restante, 160 padrões, foi
utilizado para testar a falsa rejeição do sistema - sendo 8 por classe. Cada assinatura
falsa foi associada a uma dinâmica da digitação. Esse processo gerou 200 (10x20)
padrões falsos simples e 200 (10x20) padrões falsos habilidosos.
Nessa seção, serão apresentados os experimentos realizados combinando assi-
natura com dinâmica da digitação. Nas Figuras 7.10 e 7.11, são mostrados os resul-
tados utilizando as normalizações Sanderson e Brunelli, respectivamente.
Observando o lado esquerdo da Figura 7.10, nota-se a taxa de acerto conseguida
apenas com a dinâmica da digitação foi de F RR = 3, 88 ± 1, 90%. As características
usadas foram aquelas que obtiveram os melhores resultados reportados no capítulo
sobre dinâmica da digitação. Sendo: tempo de pressionamento e de latência, após
uma seleção das características que eliminou 50% das características com altos Coe-
cientes de Variação; além disso, as características foram normalizadas.
Na Tabela 7.4, podem ser visualizados os melhores resultados após a combinação
com a normalização Sanderson. Destaque especial para as características Estrutu-
rais e Selecionadas que atingiram os menores erros. É importante mencionar, tam-
bém, que a combinação foi melhor, independente dos pesos atribuídos às biometrias,
quando comparada com as modalidades biométricas individualmente. Outro fator

152
Combinando Assinatura e Dinâmica da Digitação (Normalização Sanderson)
30

Pseudo−dinâmicas
Estruturais
Central
25 Selecionadas

20
FRR quando FAR = 0

15

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Assinatura

Figura 7.10: Combinação de Assinatura com Dinâmica da Digitação (Normalização


Sanderson).

relevante, exposto nessa tabela, é que as melhores taxas de acerto foram conseguidas
atribuindo mais importância à dinâmica da digitação do que à assinatura.

Características FRR kassinatura

Pseudo-dinâmicas e TP/TL 2, 31 ± 0, 72 0,15


Estruturais e TP/TL 1, 44 ± 1, 02 0,35
Central e TP/TL 2, 31 ± 1, 02 0,25
Selecionadas e TP/TL 1, 75 ± 1, 13 0,30

Tabela 7.4. Resumo contendo os melhores resultados da Figura 7.10. TP - Tempo de


Pressionamento e TL - Tempo de Latência.

Na Figura 7.11, são apresentados os resultados da combinação de assinatura com


dinâmica da digitação através da normalização das saídas dos classicadores usando a
técnica Brunelli. De maneira geral, a combinação também obteve resultados melhores
do que cada uma das biometrias individuais. Os melhores resultados dessa gura

153
Combinando Assinatura e Dinâmica da Digitação (Normalização Brunelli)
30

Pseudo−dinâmicas
Estruturais
Central
25 Selecionadas

20
FRR quando FAR = 0

15

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Assinatura

Figura 7.11: Combinação de Assinatura com Dinâmica da Digitação (Normalização


Brunelli).

estão expostos na Tabela 7.11.

Características FRR kassinatura

Pseudo-dinâmicas e TP/TL 3, 56 ± 1, 38 0,15


Estruturais e TP/TL 1, 94 ± 1, 30 0,20
Central e TP/TL 1, 69 ± 0, 72 0,10
Selecionadas e TP/TL 1, 50 ± 0, 84 0,20

Tabela 7.5. Resumo contendo os melhores resultados da Figura 7.11. TP - Tempo de


Pressionamento e TL - Tempo de Latência.

Os resultados encontrados com a normalização Sanderson foram, em valores ab-


solutos, melhores que aqueles alcançados com a normalização Brunelli. Observando
a Tabela 7.5, verica-se que o melhor resultado absoluto foi conseguido com as ca-
racterísticas Selecionadas F RR = 1, 50 ± 0, 84%. Voltando a atenção para kassinatura ,
nota-se que a dinâmica da digitação foi mais importante do que a assinatura no pro-

154
cesso de combinação, já que os melhores resultados foram gerados quando kassinatura
foi de aproximadamente 20%.

7.6 COMBINANDO FACE E DINÂMICA DA DIGITAÇÃO

Seguindo o mesmo princípio utilizado anteriormente, o banco de dados multi-


biométrico para essa combinação foi construído da seguinte forma: as vinte classes
de faces do banco de dados da UMIST foram associadas às vinte classes do banco
de dados de dinâmicas da digitação. Assim, foram usados 160 padrões para testar
o falso negativo do sistema, sendo oito padrões por classe. O banco de dados de
faces da ORL cou responsável pela geração de padrões falsos. Cada dinâmica da
digitação impostora foi associada a uma face do banco de dados ORL. Esse processo
gerou 400 (20x20) padrões falsos.

Combinando Face e Dinâmica da Digitação


4

Eigenbands Horizontais (Normalização Sanderson)


Eigenbands Verticais (Normalização Sanderson)
3.5
Eigenbands Horizontais (Normalização Brunelli)
Eigenbands Verticais (Normalização Brunelli)

3
FRR quando FAR = 0

2.5

1.5

0.5

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Face

Figura 7.12: Combinação de Face com Dinâmica da Digitação.

Das combinações anteriores, a face e a dinâmica da digitação foram mais rele-


vantes quando combinadas com a assinatura, fato esse reportado pelos pesos asso-
ciados às biometrias. Nessa seção, a face e a dinâmica da digitação são combinadas,

155
os resultados podem ser visualizados na Figura 7.12.

Características FRR kf ace

Eigenbands Horizontais e TP/TL (Sanderson) 0, 19 ± 0, 42 0,95


Eigenbands Verticais e TP/TL (Sanderson) 0, 44 ± 0, 51 0,95
Eigenbands Horizontais e TP/TL (Brunelli) 0, 06 ± 0, 20 0,60-0,70
Eigenbands Verticais e TP/TL (Brunelli) 0, 00 ± 0, 00 0,75-0,80

Tabela 7.6. Resumo contendo os melhores resultados da Figura 7.12. TP - Tempo de


Pressionamento e TL - Tempo de Latência.

Os melhores resultados da Figura 7.12 são mais claramente apresentados na


Tabela 7.6. Os menores erros foram conseguidos com normalização Brunelli, em
destaque, as características Eigenbands Verticais que quando kf ace era 0,75 ou 0,80
alcançou erro mínimo. Nessa tabela, pode-se observar também que, para todos os
resultados, a face foi mais importante qua a dinâmica da digitação. Mesmo sabendo
que a combinação atingiu melhores resultados do que cada uma das biometrias sozi-
nhas.

7.7 COMBINANDO FACE, ASSINATURA E DINÂMICA DA DIGITAÇÃO

Com o intuito de combinar as decisões de classicadores independentes, sabendo


que cada classicador ca responsável por uma biometria, foi realizado o seguinte par-
ticionamento do banco de dados. Os classicadores de face, assinatura e dinâmica da
digitação foram treinados, respectivamente, com 4, 4 e 40 padrões. Após o treina-
mento, a construção dos padrões de teste cou limitado à menor quantidade de
padrões de uma das biometrias, que, nesse caso, era a assinatura. Desta forma, o
teste de cada classe foi realizado com 8 padrões, para capturar o falso negativo, e com
20 padrões para o falso positivo. Essa organização gerou um total de 160 padrões
autênticos e 400 padrões impostores para testar a combinação.
Essa seção mostrará os resultados obtidos após a combinação das três modali-

156
dades biométricas através da fusão de decisões. Para realizar essa combinação, cada
uma das biometrias terá um peso associado que indicará a importância da mesma
no processo. Todos os pesos adotados, a m de realizar os testes, são rotulados con-
forme exposto na Tabela D.1. É importante notar, também, que nos experimentos
realizados nessa seção, calcula-se a taxa de falsa rejeição (FRR), adotando que a taxa
de falsa aceitação (FAR) é zeros.
Os primeiros experimentos mostram a combinação das eigenbands horizontais
extraídas das faces, com os tempos de pressionamento e de latência, extraídos da
dinâmica da digitação, mais quatro grupos de características extraídos das assina-
turas: Pseudo-dinâmicas, Estruturais, Central e Selecionadas, tanto para a norma-
lização Sanderson (Figura 7.13) quanto para a normalização Brunelli (Figura 7.14).
Os melhores resultados de cada uma dessas congurações são mostrados, respecti-
vamente, nas Tabelas 7.7 e 7.8. A escolha desses grupos de características, por biome-
tria, deveu-se ao bom desempenho das mesmas quando foram realizados experimentos
monomodais.
Combinando Face, Assinatura e Dinâmica da Digitação (Normalização Sanderson)
15

PseudoDinâmica e Eigenbands Horizontais


Estruturais e Eigenbands Horizontais
Central e Eigenbands Horizontais
Selecionadas e Eigenbands Horizontais

10
FRR quando FAR = 0

0
0 5 10 15 20 25 30 35
Pesos

Figura 7.13: Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands


Horizontais e Normalização Sanderson).

157
Características FRR Pesos

Pseudo-dinâmica e Eigenbands Horizontais 0, 19 ± 0, 30 34|36


Estruturais e Eigenbands Horizontais 0, 13 ± 0, 44 28|31|34
Central e Eigenbands Horizontais 0, 25 ± 0, 32 34
Selecionadas e Eigenbands Horizontais 0, 31 ± 0, 44 27|31|34

Tabela 7.7. Resumo contendo os melhores resultados da Figura 7.13.

Combinando Face, Assinatura e Dinâmica da Digitação (Normalização Brunelli)


7

PseudoDinâmica e Eigenbands Horizontais


6
Estruturais e Eigenbands Horizontais
Central e Eigenbands Horizontais
Selecionadas e Eigenbands Horizontais

5
FRR quando FAR = 0

0
0 5 10 15 20 25 30 35
Pesos

Figura 7.14: Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands


Horizontais e Normalização Brunelli).

Características FRR Pesos

Pseudo-dinâmica e Eigenbands Horizontais 0, 00 ± 0, 00 27|28


Estruturais e Eigenbands Horizontais 0, 00 ± 0, 00 24|25|28-32
Central e Eigenbands Horizontais 0, 00 ± 0, 00 31-36
Selecionadas e Eigenbands Horizontais 0, 00 ± 0, 00 24|27-29|31-34

Tabela 7.8. Resumo contendo os melhores resultados da Figura 7.14.

158
As taxas de erros com a normalização Sanderson, para algumas distribuições de
pesos entre as biometrias, atingiram patamares bastante próximos a zero, de acordo
com a Tabela 7.7. O melhor resultado absoluto, que utiliza essa conguração, foi en-
contrado unindo as características Estruturais (assinatura), com as Eigenbands Hori-
zontais (face) e os Tempos de Latência e de Pressionamento (dinâmica da digitação),
e alcançou o erro de 0,13% de FRR. Para este melhor resultado, três possibilidades de
pesos podem ser escolhidos, representados pelos seguintes rótulos: 28, 31 e 34; sendo
que, todas elas atribuiam maior relevância à face que contribuiu com 50, 60 e 70%,
respectivamente. Ainda, no que diz respeito aos melhores resultados, a contribuição
da assinatura foi sempre inferior à da dinâmica da digitação.
Após analisar as tabelas anteriores, nota-se que a combinação após a normali-
zação Brunelli obteve melhores taxas de acerto do que a combinação após usou a
normalização Sanderson. Isto pode ser notado tanto pela observação dos erros ab-
solutos quanto pelos patamares dos valores encontrados nos grácos. Os pontos de
picos, nos quais os erros são os maiores, são justamente aqueles nos quais foi dada
mais importância a assinatura, isto é, o peso da assinatura foi maior que o peso das
outras biometrias, como, por exemplo, nos pontos: 7, 8, 14, 15, 21 e 26 (conforme
Tabela D.1).
Um experimento isolado foi realizado, o qual adotou pesos iguais (1/3) para as
três biometrias. Os resultados mostraram que, para a normalização Sanderson, o erro
médio cou no patamar de 5% de FRR; isso representa um aumento de mais de 4
pontos percentuais quando comparado com o melhor resultado. Para a normalização
Brunelli, a distância foi menor, aproximadamente 1 ponto percentual.
Nas Figuras 7.15 e 7.16, é possível visualizar os resultados utilizando as mesmas
características das guras mostradas anteriormente, com exceção das característi-
cas usadas para as faces que foram permutadas das eigenbands horizontais para as
eigenbands verticais. Os melhores resultados das Figuras 7.15 e 7.16 são mostrados,
respectivamente, nas Tabelas 7.9 e 7.10.

159
Combinando Face, Assinatura e Dinâmica da Digitação (Normalização Sanderson)
15

PseudoDinâmica e Eigenbands Verticais


Estruturais e Eigenbands Verticais
Central e Eigenbands Verticais
Selecionadas e Eigenbands Verticais

10
FRR quando FAR = 0

0
0 5 10 15 20 25 30 35
Pesos

Figura 7.15: Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands


Verticais e Normalização Sanderson).

Características FRR Pesos

Pseudo-dinâmica e Eigenbands Verticais 0, 56 ± 0, 46 27


Estruturais e Eigenbands Verticais 0, 38 ± 0, 44 36
Central e Eigenbands Verticais 0, 50 ± 0, 57 34
Selecionadas e Eigenbands Verticais 0, 38 ± 0, 60 36

Tabela 7.9. Resumo contendo os melhores resultados da Figura 7.15.

A menor taxa de erro mostrada na Figura 7.15 foi atingida pelos seguintes grupos
de características de assinaturas: Estruturais e Selecionadas. Essas congurações
geraram 0,38% de FRR quando o rótulo dos pesos foi 36, ou seja, os seguintes pesos
foram adotados: kface = 0, 8, kassinatura = 0, 1 e kdinâmica da digitação = 0, 1.
Esse resultado corrobora com os experimentos realizados no Capítulo 5, em que
oito grupos de características foram avaliados. Comparando os resultados mostrados
nas Figuras 7.13 e 7.15, observa-se que, após a alteração das eigenbands horizontais

160
para as eigenbands verticais, as taxas de erros foram maiores. Em termos absolutos,
pode-se dizer que as eigenbands verticais atingiram melhores taxas na combinação
do que as eigenbands horizontais, pelo menos quando a normalização Sanderson foi
a adotada.
Combinando Face, Assinatura e Dinâmica da Digitação (Normalização Brunelli)
7

PseudoDinâmica e Eigenbands Verticais


Estruturais e Eigenbands Verticais
6 Central e Eigenbands Verticais
Selecionadas e Eigenbands Verticais

5
FRR quando FAR = 0

0
0 5 10 15 20 25 30 35
Pesos

Figura 7.16: Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands


Verticais e Normalização Brunelli).

Características FRR Pesos

Pseudo-dinâmica e Eigenbands Verticais 0, 00 ± 0, 00 34


Estruturais e Eigenbands Verticais 0, 00 ± 0, 00 29|30|32-36
Central e Eigenbands Verticais 0, 00 ± 0, 00 34-36
Selecionadas e Eigenbands Verticais 0, 00 ± 0, 00 29|32-36

Tabela 7.10. Resumo contendo os melhores resultados da Figura 7.16.

Em pelo menos uma das congurações dos pesos, foi encontrado erro mínimo
quando a normalização Brunelli foi usada. Resultados esses expostos na Tabela 7.10.
Para as combinações que zeram uso das características Estruturais e Selecionadas,

161
várias foram as combinações de pesos que obtiveram erro zero.
De forma geral, a normalização Brunelli alcançou melhores resultados do que
a normalização Sanderson. Qualquer uma das congurações, que fez uso da nor-
malização Brunelli, conseguiu atingir erro mínimo. O diferencial encontra-se nos
pesos associados às biometrias, que, em geral, para essas taxas de acerto máximo,
atribuíram mais relevância à face do que a dinâmica da digitação, sendo a assinatura
a menos relevante.

7.8 ANÁLISE DOS RESULTADOS

Nesse seção, alguns resultados, com e sem combinação, são analisados de forma
conjunta. Assim, objetiva-se mostrar mais claramente o ganho na taxa de acerto
alcançado após a combinação. Para formar os grácos que seguem, foram escolhidos
os seguintes conjuntos de características por biometria: i) Face - eigenbands horizon-
tais e verticais, representadas, respectivamente, por Face1 e Face2; ii) Assinatura - o
grupo de características Selecionadas; e, iii) Dinâmica da digitação - o vetor combi-
nado dos tempos de pressionamento e de latência, após a seleção (50% de perda) e a
normalização das características.
Esses grupos de características foram analisados comparando suas taxas de falso
negativo (FRR), adotando que a taxa de falso positivo (FAR) é zero. Decidiu-
se compor um gráco para cada estratégia de normalização utilizada. Assim, na
Figura 7.17, são expostos os resultados com a normalização Sanderson, enquanto que
na Figura 7.18, mostram-se os resultados após a normalização Brunelli.
Nesses grácos não foi mostrada a taxa de erro da biometria assinatura isolada,
pois, como sua taxa era bem mais elevada do que as outras, a mesma foi retirada com
o objetivo de facilitar a visualização e a interpretação das demais taxas das outras
biometrias. À propósito, quando apenas a assinatura foi usada, a seguinte taxa foi
encontrada: F RR = 15, 69 ± 1, 25.

162
6,00

5,00
FRR (quando FAR = 0)

4,00

3,00

2,00

1,00

0,00
Assinatura Face2 Face1 Face2 Face2
Face1 Face2 Dinâmica Face1 Face1
+ + + + +
+ +
Dinâmica
Assinatura Assinatura Dinâmica Dinâmica Assinatura Assinatura
+ +
Dinâmica Dinâmica

Figura 7.17: Análise dos resultados que usaram a normalização Sanderson. Face1:
Eigenbands Horizontais. Face2: Eigenbands Verticais.

Das três biometrias investigadas, a assinatura foi a que obteve as piores taxas
de acerto. Esse resultado pode ser vericado, também, nas combinações dois-a-dois,
pois, as junções de face com dinâmica obtiveram resultados superiores do que as
fusões que utilizaram a assinatura, seja com a face ou com a dinâmica.
Observando a Figura 7.17, que mostra os resultados com a normalização Sander-
son, nota-se que, após a combinação, o erro foi minimizado, em especial, quando as
três biometrias foram combinadas, pois, o erro se aproximou bastante de zero.
Os resultados da combinação, com a normalização Brunelli, foram melhores do
que os resultados com a combinação Sanderson. Na Figura 7.18, que mostra as taxas
de erro com a normalização Brunelli, pode-se vericar que, exceto a combinação
de assinatura e dinâmica da digitação, todas as outras alcançaram taxas de erros
inferiores a um porcento, chegando algumas delas, como as combinações das três
biometrias, a atingir erro zero.

163
6,00

5,00
FRR (quando FAR = 0)

4,00

3,00

2,00

1,00

0,00
Face1 Face2 Dinâmica Assinatura Face1 Face2 Face1 Face2 Face1 Face2
+ + + + + + +
Dinâmica Assinatura Assinatura Dinâmica Dinâmica Assinatura Assinatura
+ +
Dinâmica Dinâmica

Figura 7.18: Análise dos resultados que usaram a normalização Brunelli. Face1:
Eigenbands Horizontais. Face2: Eigenbands Verticais.

Todos os experimentos mostrados acima utilizaram as melhores características de


cada uma das biometrias, quando analisadas isoladamente, por assim dizer: eigen-
bands para as faces, a combinação dos tempos de pressionamento e de latência (uti-
lizando técnicas de seleção e de normalização das características) para a dinâmica da
digitação e quatro grupos de características para as assinaturas, após a normaliza-
ção das imagens pelo tamanho. Foram realizados, também, a título de comparação,
alguns experimentos que usaram estratégias convencionais de extração de caracterís-
ticas, ou seja, sem nenhum processamento especial.
Quando da combinação das seguintes características: eigenfaces (Faces); Sele-
cionadas (assinatura), sem a normalização por tamanho; e, a combinação dos tem-
pos de latência e de pressionamento, sem seleção e sem normalização; os melhores
resultados foram os seguintes: F RR = 6, 31 ± 1, 67 com a normalização Sanderson
e F RR = 1, 31 ± 0, 56 com a normalização Brunelli. Esses resultados comprovam
que, a combinação, através do uso da normalização Brunelli, foi mais eciente, além
de mostrar que, melhorando os resultados individuais de cada uma das biometrias, é

164
possível aferir erros menores na combinação.
Testes de Hipóteses
Com o intuito de vericar se as diferenças entre os valores médios das taxas de
acerto entre as combinações de biometrias eram estatisticamente signicantes, foi
utilizado o teste desenvolvido por Wilcoxon-Mann-Whitney. Este é um método não
paramétrico baseado na soma do ranks dos escores.
Supondo duas amostras X = [x1 , x2 , . . . , xnx ] e Y = [y1 , y2 , . . . , yny ], de tamanhos
nx e ny , respectivamente, extraídas de duas populações cujas médias são dadas por
µX e µY . O primeiro passo para vericar se as diferenças entre os valores médios de
X e de Y são estatisticamente signicantes é calcular o desvio-padrão conjunto sp :

v
u
u (nx − 1)s2Rx + (ny − 1)s2Ry
sp = t , (.)
nx + ny − 2
dado que s2Rx e s2Ry são as variâncias dos ranks das amostras X e Y , respecti-
vamente.
Em seguida, computam-se as médias dos ranks das amostras X e Y , dadas por
R̄X e R̄Y , respectivamente, e calcula-se o valor de Tr a partir da Equação ..

R̄X − R̄Y
Tr = q
1 1
(.)
sp nx
+ ny

Assim, a regra de decisão depende da hipótese de interesse, partindo do pressu-


posto que a hipótese nula H0 : µX = µY , três são as alternativas:

(a) H1 : µX > µY . Rejeita H0 se Tr > t1−α,nx+ny−2 .

(b) H1 : µX < µY . Rejeita H0 se Tr < −t1−α,nx+ny−2 .

(c) H1 : µX 6= µY . Rejeita H0 se Tr > t1− α2 ,nx+ny−2 ou Tr < −t1− α2 ,nx+ny−2 .

O valor t1−α,nx+ny−2 representa a distribuição t-Student com nx + ny − 2 graus


de liberdade.

165
A principal vantagem deste teste estatístico não-paramétrico é que não se faz
necessário nenhuma suposição sobre a distribuição dos escores, e além disso, esse
teste não é afetado pela presença de outliers.
Os primeiros testes mostraram que os melhores resultados das modalidades face
e dinâmica da digitação são equivalentes. Quanto a assinatura, essa se mostrou
inferior as outras duas biometrias, ou seja, a hipótese nula na qual adotava-se que
a µassinatura = µγ foi rejeitada, sempre que γ representava face ou dinâmica da
digitação. Para todos os experimentos, foi adotado um nível de signicância de 0,05.
Os outros testes de hipóteses serviram para comparar as combinações. Quanto aos
resultados das combinações, as melhores taxas foram alcançadas com a normalização
Brunelli (conforme Figura 7.18). Nessas comparações, os testes de hipóteses não
conseguiram rejeitar a hipótese nula, na qual armava-se que as médias eram iguais,
µcombinao1 = µcombinao2 . Ou seja, dada a distribuição de dados utilizada para realizar
os experimentos, os melhores resultados das combinações foram equivalentes.

7.9 COMENTÁRIOS

Em primeiro lugar, destaca-se que a combinação produziu resultados interes-


santes, pois, na maioria dos experimentos realizados, ela gerou resultados absolutos
melhores do que a face, a dinâmica da digitação ou a assinatura, quando tratadas
de forma isolada. Isso mostra que é possível melhorar o desempenho de um sistema
biométrico, usando duas ou mais biometrias, seja ela física (face) ou comportamen-
tal (dinâmica da digitação e assinatura).
Como muitas das combinações, dependendo dos pesos associados às biometrias,
alcançaram erro mínimo, é difícil armar qual das congurações é a melhor. Destacam-
se, para a assinaturas, os seguintes grupos de características: Selecionadas e Estru-
turais. Já para face, os resultados alcançados com o uso das eigenbands verticais e
horizontais foram similares, é possível atribuir ligeira vantagem para as eigenbands
verticais.

166
As duas técnicas de normalização das respostas dos classicadores atingiram de-
sempenhos satisfatórios. Destaque pode ser atribuído à normalização Brunelli, uma
vez que, esta gerou regiões de separação de melhor qualidade do que a normalização
Sanderson, pois, independente das características usadas, o sistema conseguiu al-
cançar erro absoluto mínimo em pelo menos uma conguração de pesos. Em outras
palavras, a normalização Brunelli conseguiu separar, de forma satisfatória, padrões
autênticos dos impostores.
Avaliando a parcela de contribuição das biometrias na combinação, percebe-se que
as menores taxas de F RR foram alcançadas quando mais importância foi atribuída
à face, em segundo lugar, à dinâmica da digitação, e por m, à assinatura.

167
CAPÍTULO 8

CONCLUSÃO

"A vida é um diário em que devemos


inscrever somente as nossas boas ações."
Antoine Rivarol

"Cem máximas que resumissem a sabedoria universal


tornariam dispensáveis os livros."
Carlos Drummond de Andrade

8.1 RESUMO DAS CONTRIBUIÇÕES DO TRABALHO

Nesse trabalho, foram apresentadas metodologias para aumentar a segurança de


sistemas baseados em biometrias. Atenção especial foi dada às seguintes modalidades
biométricas: face, assinatura e dinâmica da digitação. Após estudo individual de
cada uma dessas modalidades, construiu-se um sistema híbrido que compara o uso
de mais de uma biometria com o intuito de minimizar a possibilidade de fraudes.
Uma das maiores vantagens de se usar uma abordagem híbrida reside no fato de se
ter informação complementar. Isso ajuda a minimizar os erros, em especial, a taxa
de falso positivo.
A escolha das modalidades biométricas estudadas se baseou, em primeiro lugar, na
possibilidade das mesmas serem incorporadas ao dia-a-dia da atual sociedade. Além
de ser de fácil inserção social, desejou-se utilizar técnicas que fossem transparentes ao
usuário. Desta forma, foi utilizado face e assinatura que sabidamente já permeiam o

168
cotidiano das pessoas, seja em carteiras de identidade e de motorista ou em cheques
e em crachás. Por outro lado, a dinâmica da digitação oferece um mecanismo simples
e barato, pois o hardware necessário é apenas um teclado, que já está presente na
maioria dos computadores.
Após a investigação de cada uma das modalidades biométricas de forma indivi-
dual, foi composto um sistema, a m de avaliar o poder de discriminação das biome-
trias integradas. A face obteve as melhores taxas de acerto quando comparada com
as outras biometrias avaliadas. Em segundo lugar, encontrava-se a dinâmica da
digitação e, por m, a assinatura. Mesmo com a diferença de desempenho entre
as biometrias, os resultados mostraram que a combinação oferece uma alternativa
bastante interessante para minimizar os erros de sistemas biométricos monomodais.
Quanto à combinação, também foi avaliada a importância de cada uma das biome-
trias, no que diz respeito ao poder de discriminação. Corroborando com os resultados
encontrados na avaliação dos sistemas monomodais, a face foi mais importante que
a dinâmica da digitação, que, por sua vez, foi mais relevante que a assinatura.
As principais contribuições do trabalho foram as seguintes:

• Modelagem e execução de uma arquitetura para identicação pessoal multi-


modal;

• As três modalidades biométricas usadas para construir o sistema foram: face,


assinatura e dinâmica da digitação. Essas três modalidades foram combinadas
dois-a-dois: face e assinatura [CF03b], assinatura e dinâmica da digitação, e
face e dinâmica da digitação. Em seguida, um sistema com as três modalidades
foi composto. Tomando como base o levantamento bibliográco realizado, essas
combinações foram realizadas pela primeira vez, mostrando que, usando essa
estratégia, consegue-se uma redução dos erros, quando comparado com o uso
isolado das biometrias;

• Comparação de dois métodos de normalização para padronizar repostas de


classicadores diferentes em problemas de identicação pessoal multimodal;

169
• Cálculo do limiar - referente ao critério de decisão c mostrado na Figura 2.3
- através de uma estratégia que leva em consideração apenas as informações
de cada classe. O intervalo de conança foi calculado usando a distribuição
t-Student;

• Desenvolvimento de uma estratégia para reconhecer faces através do particiona-


mento das mesmas em bandas verticais e horizontais e, posterior combinação
das informações mais relevantes de cada banda (eigenbands fusion) [CF03a];

• Investigação do problema de vericação de faces usando PCA e combinação de


bandas verticais e horizontais (eigenbands fusion) [CdSPF04];

• Investigação do problema de vericação o-line de assinaturas de tamanhos


diferentes através de três classicadores: Bayesiano, Cross-correlation e Baseado
em Distância [CDAF02];

• Investigação do poder de discriminação de 7 (sete) grupos de características


para classicação de assinaturas: Estruturais, Pseudo-dinâmicas, Hu, Maitra,
Simon, Flusser e Central;

• Seleção de características para o problema de vericação de assinaturas de


tamanhos diferentes, dentre os 7 (sete) grupos analisados, que mostraram re-
sultados interessantes, são elas: Inclinação N, Inclinação P, Hu 1, Maitra 1,
Simon 2 e Central 3 [CDF02];

• Investigação do problema de identicação pessoal através da mensuração do


ritmo de digitação de cada usuário. Nessa etapa, foram avaliados dois grupos
de características: tempo de pressionamento e tempo de latência;

• Composição de um banco de dados com informações sobre o ritmo de digitação


de vinte e quatro usuários.

170
8.2 TRABALHOS FUTUROS

No que diz respeito à combinação, seria interessante comparar os resultados de


diversos classicadores, em especial SVM (Support Vector Machines ) [CST00], que
têm encontrado bons resultados em várias aplicações. SVM foi introduzida por Vap-
nik [Vap00] com o objetivo de melhorar a generalização através da minimização do
risco estrutural.
A investigação da combinação de outras biometrias, tais como: impressão digital,
assinatura on-line, geometria da mão, íris, voz, entre outras, pode ser desenvolvida
para consolidar a metodologia.
Os experimentos de combinação se basearam em um banco de dados multimodal
contendo vinte indivíduos. Portanto, pode-se vericar a escalabilidade da metodolo-
gia através de um banco de dados maior.
Em todos os experimentos realizados, a saída do sistema era binária: aceita ou
recusa. Poderia-se pensar em um terceiro nível de decisão, no qual o sistema diria
que não consegue discernir entre um usuário autêntico e um impostor. Nesta terceira
decisão, dita "desconhecida", cairiam todos os padrões que estivessem nas proximi-
dades do limiar. Nesses casos, uma intervenção humana poderia representar uma
solução simples.
O módulo responsável pela combinação, chamado algumas vezes de "supervi-
sor", pode ser idealizado como sendo composto de camadas. Nas camadas iniciais,
as falsicações mais grosseiras seriam tratadas. Quando o sistema recebesse uma
falsicação mais habilidosa, essa necessitaria de um esforço maior do sistema em
detectá-la, demandando um maior tempo de processamento que seria representado
por mais camadas visitadas. Essa arquitetura hierárquica pode, ainda, ser modelada
por usuário.
Um fator que deve ser mais explorado diz respeito ao uso de características especí-
cas por usuários. Humanos são, muitas vezes, guiados por informações que possuem
um valor esperado. Faces com alguma deciência física, grandes cicatrizes, grandes

171
orelhas ou ainda narizes proeminentes. Além dessas, outras características podem
ser usadas, como: cor dos olhos, da pele e dos cabelos. Embora, provavelmente,
mais amostras sejam necessárias para capturar tais padrões, uma melhoria pode ser
conseguida incorporando esse tipo de conhecimento a priori.
Há várias possibilidades de ampliar e de estender o trabalho apresentado. Algu-
mas opções foram citadas nesta seção, vale salientar que elas não têm o objetivo de
esgotar todas as alternativas, mas sim de mostrar que é importante denir linhas de
pesquisa a m de contribuir para futuras investigações da comunidade cientíca.

8.3 CONSIDERAÇÕES FINAIS

Tanto a criação de sistemas biométricos monomodais quanto a composição de


biometrias são duas áreas de pesquisa interessantes e que ainda requerem estudos em
maior profundidade. A principal contribuição dessa tese foi a investigação de três
biometrias - propondo alternativas para melhorar seus desempenhos - e sua posterior
integração, a m de minimizar as taxas de erros. Espera-se que esse trabalho possa
servir como uma boa fonte de consulta e estudo para pesquisadores interessados
nesses temas.

172
APÊNDICE A

RÓTULOS DAS
CARACTERÍSTICAS EXTRAÍDAS
DAS ASSINATURAS

173
Rótulo Característica Rótulo Característica

1 Limiar Alta Pressão 21 Flusser 1


2 Pressão Máxima 22 Flusser 2
3 Mínina-Máxima 23 Flusser 3
4 Área Alta Pressão 24 Flusser 4
5 Fator Pressão 25 Flusser 5
6 Inclinação N 26 Flusser 6
7 Inclinação V 27 Simon 1
8 Inclinação P 28 Simon 2
9 Hu 1 29 Simon 3
10 Hu 2 30 Central 1
11 Hu 3 31 Central 2
12 Hu 4 32 Central 3
13 Hu 5 33 Central 4
14 Hu 6 34 Central 5
15 Hu 7 35 Central 6
16 Maitra 1 36 Central 7
17 Maitra 2 37 Razão
18 Maitra 3
19 Maitra 4
20 Maitra 5

Tabela A.1. Rótulo das características extraídas das assinaturas.

174
APÊNDICE B

DETALHAMENTO DOS
RESULTADOS DA VERIFICAÇÃO
DE ASSINATURAS

Para facilitar o entendimento, as tabelas mostram vários erros que são explicados a
seguir:

• Treino - erro de treinamento;

• Validação - erro de validação;

• P - erro das assinaturas de tamanho pequeno;

• M - erro das assinaturas de tamanho médio;

• G - erro das assinaturas de tamanho grande;

• FS - erro das assinaturas falsas simples;

• FH - erro das assinaturas falsas habilidosas;

• R1 - risco que atribui maior importância à taxa de falsa rejeição (λ1 = 2 e


λ2 = 1);

• R2 - risco que atribui importância igual às taxas FRR e FAR (λ1 = 1 e λ2 = 1);

• R3 - risco que atribui maior importância à taxa de falsa aceitação (λ1 = 1 e


λ2 = 2);

175
• M+FS - caso em que a função risco é calculada pela utilizando apenas as
assinaturas autênticas de tamanho médio e as falsas simples;

• M+FS+FH - caso frequentemente encontrado na literatura que a função risco


é calculada pela média dos erros das assinaturas autênticas de tamanho médio,
as assinaturas falsas simples e as assinaturas falsas habilidosas.

Os erros Rn , com n = 1, 2, 3, são conseguidos através da combinação linear dos


erros P, M, G, FS e FH, usando a Equação .. Os dois últimos erros mostram casos
comumente observados na literatura, nos quais apenas assinaturas do mesmo tama-
nho são usadas. O que as difere é que no primeiro caso, M+FS, apenas as assinaturas
de tamanho médio e as assinaturas falsas simples são empregadas, enquanto que no
segundo, M+FS+FH, além dessas, as falsas habilidosas são empregadas, também.

176
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH

Pseudo- x 0,00 0,00 0,00 0,00 0,00 100,00 100,00 33,33 50,00 66,67 50,00 50,00
dinâmicas σ 0,00 0,00 0,00 0,00 0,00 0,00 0,00

Estruturais x 49,00 49,00 49,00 49,00 49,00 51,00 51,00 49,67 50,00 50,33 50,00 50,00
σ 50,12 50,12 50,12 50,12 50,12 50,12 50,12

Hu x 5,26 1,73 10,61 5,09 5,68 77,41 88,36 32,38 45,01 57,63 41,25 43,99
σ 2,89 1,19 3,82 2,98 2,94 1,67 2,38

Maitra x 0,24 0,39 0,91 0,75 2,18 93,16 98,74 32,84 48,61 64,39 46,96 48,35
σ 0,77 0,62 0,91 1,02 1,27 2,54 0,86

Flusser x 15,69 6,70 30,32 13,19 3,54 70,61 71,43 34,13 43,35 52,57 41,90 42,10

177
σ 5,16 3,17 6,26 5,17 2,60 2,91 3,11

Simon x 7,31 2,07 43,64 6,46 1,63 59,42 65,05 32,24 39,74 47,24 32,94 34,35
σ 3,29 1,32 3,87 3,31 0,97 1,66 2,51

Central x 12,10 5,07 44,15 11,51 0,76 86,54 84,60 41,06 52,19 63,31 49,02 48,54
σ 4,26 1,78 4,70 3,67 1,25 3,01 2,30

Selecionadas x 0,02 0,00 0,18 0,03 0,08 97,40 99,79 32,93 49,34 65,76 48,71 49,31
σ 0,20 0,00 0,65 0,22 0,50 2,70 0,37

Tabela B.1. Avaliação dos erros de cada um dos grupos de características usando o classicador Bayesiano sobre as imagens das
assinaturas sem transformação, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH

Pseudo- x 85,50 85,50 85,50 85,50 85,50 14,50 14,50 61,83 50,00 38,17 50,00 50,00
dinâmicas σ 35,30 35,30 35,30 35,30 35,30 35,30 35,30

Estruturais x 100,00 100,00 100,00 100,00 100,00 0,00 0,00 66,67 50,00 33,33 50,00 50,00
σ 0,00 0,00 0,00 0,00 0,00 0,00 0,00

Hu x 1,89 0,92 1,99 2,02 0,66 86,78 93,58 31,10 45,87 60,64 44,40 46,10
σ 2,22 1,05 1,93 1,93 1,22 4,32 5,42

Maitra x 0,00 0,27 0,48 0,29 0,04 99,93 99,91 33,49 50,10 66,70 50,11 50,11
σ 0,00 0,53 0,64 0,64 0,23 0,20 0,19

178
Flusser 14,18 7,02 8,96 12,68 14,07 67,45 67,54 30,43 39,70 48,96 40,06 40,08
σ 4,97 3,05 5,12 4,54 5,23 2,08 3,75

Simon x 5,35 0,83 4,74 4,47 1,98 61,82 56,06 22,13 31,33 40,54 33,14 31,70
σ 3,91 0,96 4,32 3,03 1,54 2,24 1,70

Central x 7,72 2,33 4,34 7,08 7,04 65,13 56,05 24,30 33,37 42,44 36,10 33,83
σ 3,95 1,51 2,98 3,30 4,50 3,32 2,50

Selecionadas x 0,00 0,00 0,00 0,00 0,00 100,00 100,00 33,33 50,00 66,67 50,00 50,00
σ 0,00 0,00 0,00 0,00 0,00 0,00 0,00

Tabela B.2. Avaliação dos erros de cada um dos grupos de características usando o classicador Bayesiano sobre as imagens das
assinaturas normalizadas, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH

Pseudo- x 55,27 52,87 61,94 54,77 54,08 0,00 0,00 37,95 28,46 18,98 27,38 27,38
dinâmicas σ 19,22 7,21 21,56 16,30 22,35 0,00 0,00

Estruturais x 44,04 43,87 45,65 45,27 45,36 54,42 54,16 48,38 49,86 51,33 49,85 49,78
σ 6,35 4,66 5,22 5,62 5,73 16,79 19,57

Hu x 37,29 29,24 25,84 34,10 34,86 76,43 85,26 48,02 56,22 64,43 55,27 57,47
σ 8,40 6,33 6,67 7,28 6,44 2,65 5,19

Maitra x 31,88 29,59 43,91 31,61 32,66 81,72 91,98 52,99 61,46 69,92 56,67 59,23
σ 7,26 4,56 6,76 7,82 4,88 4,22 5,26

Flusser x 28,82 22,21 10,54 26,98 42,51 78,90 76,40 43,67 52,16 60,66 52,94 52,31

179
σ 5,66 4,88 4,68 5,73 5,44 10,26 8,50

Simon x 31,21 24,73 4,86 29,63 60,86 42,64 28,76 33,09 33,74 34,39 36,13 32,67
σ 5,38 3,14 2,81 4,76 3,39 2,52 4,00

Central x 32,94 27,22 11,71 29,99 56,69 68,14 58,14 42,91 47,97 53,03 49,07 46,57
σ 6,26 3,27 4,69 6,47 5,40 11,87 12,73

Selecionadas x 43,41 41,88 28,78 42,98 60,26 32,76 18,06 37,81 34,71 31,61 37,87 34,19
σ 5,90 3,76 15,60 5,97 13,80 9,29 8,21

Tabela B.3. Avaliação dos erros de cada um dos grupos de características usando o classicador Bayesiano sobre as imagens das
assinaturas após aplicação da técnica do corte, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH

Pseudo- x 3,09 0,00 19,48 10,68 12,20 28,67 33,85 19,83 22,69 25,55 19,68 20,97
dinâmicas σ 2,86 0,00 8,02 6,76 7,91 11,50 11,77

Estruturais x 2,03 0,00 26,11 12,05 33,67 13,21 42,05 25,17 25,79 26,40 12,63 19,84
σ 2,30 0,00 6,28 4,77 6,36 2,58 4,54

Hu x 7,36 0,00 19,52 13,07 17,08 54,98 73,83 32,50 40,48 48,45 34,02 38,74
σ 3,17 0,00 4,14 3,96 3,77 5,60 3,69

Maitra x 4,92 0,00 21,27 16,38 17,72 51,13 67,96 32,15 39,00 45,85 33,76 37,96
σ 3,11 0,00 4,08 4,34 3,78 3,85 3,28

Flusser x 2,81 0,00 26,38 12,94 22,28 58,34 67,16 34,60 41,64 48,67 35,64 37,84

180
σ 2,37 0,00 4,56 5,31 6,61 6,16 4,65

Simon x 3,82 0,00 28,51 12,64 10,35 59,01 73,47 33,52 41,70 49,88 35,83 39,44
σ 2,77 0,00 4,84 4,54 3,95 3,33 3,86

Central x 0,78 0,00 23,11 11,83 24,96 28,88 63,82 28,76 33,16 37,55 20,35 29,09
σ 1,24 0,00 4,92 4,46 5,53 5,19 4,50

Selecionadas x 1,54 0,00 36,17 12,08 36,26 7,22 40,81 26,79 26,09 25,40 9,65 18,05
σ 1,95 0,00 6,51 5,10 6,64 2,40 4,61

Tabela B.4. Avaliação dos erros de cada um dos grupos de características usando o classicador cross-correlation sobre as imagens
das assinaturas sem transformação, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH

Pseudo- x 3,46 0,00 3,70 12,06 6,49 13,03 17,42 10,02 11,32 12,62 12,54 13,64
dinâmicas σ 2,75 0,00 2,77 4,20 4,58 4,13 5,00

Estruturais x 3,44 0,00 4,93 12,49 7,27 19,62 29,34 13,65 16,35 19,06 16,06 18,48
σ 3,46 0,00 4,12 5,22 5,17 4,66 6,02

Hu x 7,81 0,00 6,28 13,28 8,93 51,12 56,70 24,30 31,70 39,10 32,20 33,59
σ 3,20 0,00 3,49 4,64 4,10 5,34 5,05

Maitra x 6,17 0,00 7,26 16,78 8,19 51,60 55,14 24,95 32,05 39,16 34,19 35,07
σ 3,31 0,00 4,48 3,28 3,81 3,48 4,39

Flusser x 3,07 0,00 3,40 13,61 8,39 55,27 61,27 25,07 33,37 41,67 34,44 35,94

181
σ 2,53 0,00 3,45 5,10 5,27 6,41 4,64

Simon x 0,76 0,00 3,68 12,20 5,26 21,32 35,79 14,22 17,80 21,39 16,76 20,38
σ 1,23 0,00 3,50 4,45 4,20 4,62 5,10

Central x 0,00 0,46 0,78 4,69 2,56 21,78 34,09 11,09 15,30 19,51 13,23 16,31
σ 0,00 0,70 1,04 2,48 2,16 4,53 4,47

Selecionadas x 1,94 0,00 4,18 12,68 5,68 4,47 12,05 7,76 7,88 8,01 8,57 10,47
σ 2,10 0,00 3,60 5,04 4,78 1,59 3,30

Tabela B.5. Avaliação dos erros de cada um dos grupos de características usando o classicador cross-correlation sobre as imagens
das assinaturas normalizadas, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH

Pseudo- x 3,08 0,00 12,02 10,46 19,37 29,40 34,36 19,93 22,91 25,90 19,93 21,17
dinâmicas σ 2,98 0,00 8,64 8,16 8,81 12,65 13,07

Estruturais x 2,03 0,00 20,52 12,26 22,06 9,17 16,19 16,41 15,48 14,55 10,71 12,47
σ 2,27 0,00 4,31 5,09 5,05 2,85 3,67

Hu x 6,98 0,00 16,58 12,20 18,58 56,80 69,93 31,65 39,58 47,51 34,50 37,78
σ 2,84 0,00 4,70 4,42 3,77 7,98 6,78

Maitra x 5,81 0,00 20,94 15,90 27,25 44,24 54,03 30,62 35,25 39,88 30,07 32,52
σ 3,39 0,00 4,79 4,86 4,06 5,46 7,00

Flusser x 2,68 0,00 10,64 12,76 21,96 39,71 33,14 22,21 25,76 29,32 26,23 24,59

182
σ 2,19 0,00 4,84 3,95 4,11 5,42 5,79

Simon x 4,29 0,00 11,66 13,03 30,61 34,49 39,95 24,69 27,83 30,96 23,76 25,12
σ 2,72 0,00 3,68 4,03 4,25 3,30 4,63

Central x 0,86 0,00 14,95 11,64 24,29 23,36 17,05 18,04 18,58 19,12 17,50 15,92
σ 1,06 0,00 4,25 4,50 4,61 4,13 4,47

Selecionadas x 1,74 0,00 29,48 12,12 37,49 8,67 26,62 23,46 22,01 20,55 10,40 14,88
σ 2,09 0,00 7,02 5,29 6,37 2,66 4,95

Tabela B.6. Avaliação dos erros de cada um dos grupos de características usando o classicador cross-correlation sobre as imagens
das assinaturas após aplicação da técnica do corte, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH

Pseuso- x 0,14 0,69 10,25 4,77 5,00 55,61 62,10 24,07 32,76 41,46 30,19 31,81
dinâmicas σ 0,56 1,93 7,42 6,03 6,55 7,69 7,49

Estruturais x 0,04 0,20 9,95 4,11 19,20 18,36 54,01 19,45 23,63 27,82 11,23 20,14
σ 0,29 0,49 4,08 2,31 4,62 2,47 3,47

Hu x 1,14 6,56 19,74 11,41 15,18 52,23 75,72 31,62 39,71 47,80 31,82 37,69
σ 1,21 2,26 4,26 3,73 2,63 4,78 2,28

Maitra x 0,31 5,33 22,13 12,69 18,13 39,84 64,99 29,24 35,03 40,83 26,27 32,55
σ 0,75 2,09 4,18 3,62 3,78 3,58 3,22

Flusser x 0,68 4,34 34,49 10,41 9,73 59,82 66,33 33,16 40,64 48,12 35,11 36,74

183
σ 0,89 1,93 3,39 4,02 4,61 3,39 2,36

Simon x 0,05 0,43 36,33 4,65 23,74 31,68 68,91 31,15 35,94 40,72 18,17 27,47
σ 0,30 0,72 4,36 2,26 4,73 3,16 2,64

Central x 0,01 0,62 25,88 5,43 13,13 32,85 68,04 26,69 32,63 38,57 19,14 27,94
σ 0,09 0,93 3,99 2,56 4,14 3,79 3,35

Selecionadas x 0,04 0,30 27,87 4,47 22,05 7,95 50,29 21,79 23,62 25,46 6,21 16,79
σ 0,23 0,56 4,99 3,13 5,54 2,53 3,96

Tabela B.7. Avaliação dos erros de cada um dos grupos de características usando o classicador baseado em distância sobre as imagens
das assinaturas sem transformação, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH

Pseuso- x 0,34 1,19 1,56 6,46 4,43 17,75 25,28 9,94 12,83 15,73 12,11 13,99
dinâmicas σ 0,68 1,16 1,74 3,31 3,25 4,41 4,85

Estruturais x 0,21 0,12 1,13 4,31 2,58 27,37 43,10 13,53 18,95 24,38 15,84 19,77
σ 0,68 0,39 1,23 2,58 2,30 4,50 5,46

Hu x 1,43 5,74 5,29 11,58 8,73 42,23 50,70 21,17 27,50 33,82 26,90 29,02
σ 1,49 1,92 2,08 3,48 3,59 4,66 4,67

Maitra x 0,32 6,54 6,52 12,54 6,68 36,79 46,51 19,60 25,11 30,62 24,66 27,09
σ 0,74 1,89 3,16 2,97 3,33 3,89 4,61

Flusser x 0,28 4,08 1,94 11,28 8,87 55,53 56,92 23,65 31,79 39,94 33,40 33,75

184
σ 0,56 2,06 1,61 4,35 4,60 4,92 3,07

Simon x 0,08 0,66 1,38 5,28 2,73 32,74 42,08 14,55 20,27 25,98 19,01 21,35
σ 0,36 0,82 1,67 2,87 2,38 4,89 4,06

Central x 0,00 0,46 0,78 4,69 2,56 21,78 34,09 11,09 15,30 19,51 13,23 16,31
σ 0,00 0,70 1,04 2,48 2,16 4,53 4,47

Selecionadas x 0,08 0,26 1,24 4,86 2,56 6,29 14,26 5,35 6,58 7,81 5,57 7,56
σ 0,35 0,58 1,61 3,11 2,76 2,12 3,35

Tabela B.8. Avaliação dos erros de cada um dos grupos de características usando o classicador baseado em distância sobre as imagens
das assinaturas normalizadas, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH

Pseuso- x 0,16 0,74 5,74 5,14 11,00 55,30 62,07 24,42 32,99 41,55 30,22 31,91
dinâmicas σ 0,61 1,86 6,65 5,83 7,09 8,82 8,53

Estruturais x 0,02 0,24 11,36 4,15 12,46 15,96 28,00 13,54 15,65 17,76 10,05 13,06
σ 0,20 0,55 3,06 2,34 3,30 4,40 4,89

Hu x 1,61 6,31 13,86 10,95 17,72 53,35 73,71 30,63 38,85 47,08 32,15 37,24
σ 1,36 2,21 2,95 4,00 2,37 5,78 5,02

Maitra x 0,32 7,23 17,39 12,88 27,79 29,67 27,12 22,36 23,87 25,38 21,27 20,63
σ 0,72 2,10 3,72 4,10 3,60 3,92 6,36

Flusser x 0,71 7,56 5,02 12,48 30,09 24,90 12,78 16,86 17,35 17,85 18,69 15,66

185
σ 0,89 2,43 2,96 3,27 3,34 2,14 1,81

Simon x 0,09 1,05 19,43 6,13 35,82 18,98 32,98 22,30 23,22 24,14 12,55 16,05
σ 0,35 0,88 4,89 2,47 3,95 2,50 2,44

Central x 0,04 2,03 5,49 6,82 21,41 18,07 11,58 12,43 13,03 13,63 12,44 10,82
σ 0,21 1,31 2,59 2,78 3,39 2,11 2,55

Selecionadas x 0,03 0,80 14,84 5,25 27,29 6,14 15,37 14,11 13,27 12,43 5,69 8,00
σ 0,22 0,89 5,00 2,95 5,60 2,25 2,86

Tabela B.9. Avaliação dos erros de cada um dos grupos de características usando o classicador baseado em distância sobre as imagens
das assinaturas após aplicação da técnica do corte, adotando um intervalo de conança de 99% (α = 0, 01).
APÊNDICE C

BANCO DE DADOS E
DETALHAMENTO DOS
RESULTADOS DA DINÂMICA
DA DIGITAÇÃO

186
Classe Nome # Autênticos # Falsos

1 Eggo Henrique Freire Pinheiro 60 40


2 Rodrigo Sineco Almeida Araujo 59 40
3 Kleber Ribeiro Carneiro 60 44
4 Bruno Silveira de Queiroz Lima 60 39
5 Ítalo César de Souza Belo 57 39
6 Cleber Zanchettin 59 50
7 Renata Cristina Pinho Cavalcanti 60 50
8 George Darmiton da Cunha Cavalcanti 60 47
9 Marcelo Henrique Costa de Melo 70 48
10 Expedito Antonio Ferreira Paz 60 39
11 Andrea Cavalcanti Macedo 78 40
12 Pedro Jorge de Santana Carneiro 60 36
13 Ivan Patriota de Siqueira Junior 61 40
14 Adriana Barbosa da Silva 59 38
15 rodrigo matos gomes 61 40
16 Guilherme Gitahy 58 40
17 Katy Cristina Paulino de Magalhães 60 40
18 Ana Claudia Helmann Vieira 60 40
19 Walberg Caribe Belfort Lustosa 69 41
20 Simith Tupinamba Doliveira Junior 60 35
21 Rodolfo Pagano 59 41
22 edgard carvalho ribeiro neto 60 40
23 Atila Medeiros Bezerra 59 40
24 Ricardo Barreto Gadelha 56 40

Tabela C.1. Número de padrões autênticos e de falsos por classe.

187
Classe Teste1 Teste2 Teste3 Teste4
1 7,50 2,00 1,50 3,00
2 63,68 4,74 5,26 4,21
3 40,50 5,00 3,50 1,50
4 44,00 4,50 1,50 3,50
5 62,35 20,59 8,82 17,65
6 22,63 6,32 17,89 13,16
7 85,50 35,00 26,00 26,50
8 22,00 2,50 0,00 0,00
9 97,33 32,00 21,33 24,00
10 5,00 2,00 1,00 0,00
11 29,74 3,68 6,32 1,58
12 32,50 13,00 3,00 5,50
13 46,19 1,90 0,00 0,00
14 30,53 0,53 0,53 0,00
15 48,10 41,43 50,95 34,29
16 12,78 3,89 33,33 17,22
17 40,00 0,00 3,50 0,50
18 30,00 8,00 11,00 6,00
19 34,48 3,10 3,45 3,45
20 69,50 12,00 29,50 15,00
21 36,84 27,89 23,68 22,11
22 59,00 45,50 76,50 49,00
23 68,95 21,58 27,37 36,84
24 28,13 4,38 2,50 1,88
Média 42,38 12,56 14,94 11,95
Máximo 97,33 45,50 76,50 49,00
Mínimo 5,00 0,00 0,00 0,00

Tabela C.2. F RR por conguração de teste quando F AR = 0. Características: Tempo


de Pressionamento.
188
Classe Teste1 Teste2 Teste3 Teste4
1 17,50 7,00 2,00 2,50
2 21,58 18,42 15,26 18,42
3 57,50 31,00 14,00 19,00
4 34,00 9,00 6,00 6,00
5 49,41 31,76 17,65 15,88
6 61,58 16,32 21,05 15,26
7 47,00 29,50 23,00 20,00
8 0,00 0,00 0,50 1,00
9 19,00 16,67 26,33 17,67
10 9,00 8,00 6,00 8,50
11 83,42 32,89 27,37 22,37
12 13,50 9,50 2,50 4,00
13 24,76 15,24 6,67 12,86
14 36,32 10,00 3,68 4,21
15 32,86 13,33 24,76 8,57
16 3,89 0,00 0,00 0,00
17 3,50 7,00 18,00 9,00
18 35,50 9,00 5,00 2,00
19 37,24 20,00 14,83 16,90
20 74,50 42,00 40,00 33,00
21 21,58 0,53 0,53 1,58
22 31,50 24,50 22,00 16,50
23 60,53 36,32 43,68 28,95
24 26,25 18,13 8,75 8,75
Média 33,41 16,92 14,57 12,20
Máximo 83,42 42,00 43,68 33,00
Mínimo 0,00 0,00 0,00 0,00

Tabela C.3. F RR por conguração de teste quando F AR = 0. Características: Tempo


de Latência.
189
Classe Teste1 Teste2 Teste3 Teste4
1 13,50 5,50 2,00 2,00
2 26,84 8,95 10,00 7,37
3 57,50 11,50 5,00 3,50
4 26,50 10,00 0,00 3,00
5 56,47 25,88 11,18 10,00
6 51,58 15,79 11,58 9,47
7 31,00 19,50 2,50 7,00
8 1,50 0,00 0,00 0,00
9 24,33 15,00 13,33 10,00
10 9,00 8,00 7,50 7,00
11 65,00 25,00 5,00 4,47
12 16,50 8,00 1,00 1,00
13 29,05 8,10 2,86 6,19
14 28,95 4,74 0,00 2,11
15 26,19 9,05 12,38 13,33
16 2,78 0,00 0,00 0,00
17 12,50 0,00 6,00 4,00
18 23,50 7,00 3,00 3,50
19 38,97 12,76 7,24 5,52
20 77,00 28,00 12,00 6,50
21 15,26 2,63 1,58 1,58
22 33,00 8,50 11,50 7,00
23 50,53 26,84 24,21 21,58
24 26,25 8,13 13,75 8,75
Média 30,99 11,20 6,82 6,04
Máximo 77,00 28,00 24,21 21,58
Mínimo 1,50 0,00 0,00 0,00

Tabela C.4. F RR por conguração de teste quando F AR = 0. Combinação das Caracte-


rísticas.
190
APÊNDICE D

RÓTULOS DOS PESOS


UTILIZADOS PARA COMBINAR
AS BIOMETRIAS

Índice Face Assinatura Dinâmica da Digitação


1 0,1 0,1 0,8
2 0,1 0,2 0,7
3 0,1 0,3 0,6
4 0,1 0,4 0,5
5 0,1 0,5 0,4
6 0,1 0,6 0,3
7 0,1 0,7 0,2
8 0,1 0,8 0,1
9 0,2 0,1 0,7
10 0,2 0,2 0,6
11 0,2 0,3 0,5
12 0,2 0,4 0,4
13 0,2 0,5 0,3
14 0,2 0,6 0,2
15 0,2 0,7 0,1

191
Índice Face Assinatura Dinâmica da Digitação
16 0,3 0,1 0,6
17 0,3 0,2 0,5
18 0,3 0,3 0,4
19 0,3 0,4 0,3
20 0,3 0,5 0,2
21 0,3 0,6 0,1
22 0,4 0,1 0,5
23 0,4 0,2 0,4
24 0,4 0,3 0,3
25 0,4 0,4 0,2
26 0,4 0,5 0,1
27 0,5 0,1 0,4
28 0,5 0,2 0,3
29 0,5 0,3 0,2
30 0,5 0,4 0,1
31 0,6 0,1 0,3
32 0,6 0,2 0,2
33 0,6 0,3 0,1
34 0,7 0,1 0,2
35 0,7 0,2 0,1
36 0,8 0,1 0,1

Tabela D.1. Pesos empregados nos experimentos quando da combinação das três biome-
trias: Face, Assinatura e Dinâmica da Digitação.

192
BIBLIOGRAFIA

[ABB+ 96] M. Acheroy, C. Beumier, J. Bigun, G. Chollet, B. Duc, S. Fischer,


D. Genoud, P. Lockwood, G. Maître, S. Pigeon, I. Pitas, K. Sobot-
tka, and L. Vandendorpe. Multi-modal person verication tools us-
ing speech and images. In Proceedings of the European Conference
on Multimedia Applications, Services and Techniques (ECMAST
96), pages 747761, Louvain-la-Neuve, 1996.

[AYF86] M. Ammar, Y. Yoshida, and T. Fukumura. A new eective ap-


proach for o-line verication of signatures by using pressure fea-
tures. 8th International Conference on Pattern Recognition, pages
566569, 1986.

[BB99] Mark Burge and Wilhelm Burger. Ear Bbiometrics. In Anil K.


Jain, R. Bolle, and S. Pamkanti(Eds.), Biometrics: Personal Iden-
tication in Networked Society, pages 273285. Kluwer Academic
Publishers, 1999.

[BBDF97] E. S. Bigun, J. Bigun, B. Duc, and S. Fischer. Expert concili-


ation for multi modal person authentication systems by bayesian
statistics. In J. Bigun, G. Chollet, and G. Borgefors, editors, Audio
and Video based Person Authentication - AVBPA97, pages 311318.
Springer, 1997.

[BC97] R. Bajaj and S. Chaudhury. Signature verication using multiple


neural classiers. Pattern Recognition, 30(1):17, 1997.

193
[BF95] Roberto Brunelli and Daniele Falavigna. Person identication using
multiple cues. IEEE Transactions on Pattern Analysis and Machine
Intelligence, 17(10):955966, 1995.

[BGP02] Francesco Bergadano, Daniele Gunetti, and Claudia Picardi. User


authentication through keystroke dynamics. ACM Transactions on
Information and System Security, 5(4):367397, 2002.

[BHK97] P.N. Belhumeur, J.P. Hespanha, and D.J. Kriegman. Eigenfaces


vs. sherfaces: recognition using class specic linear projection.
IEEE Transactions on Pattern Analysis and Machine Intelligence,
19(7):711720, 1997.

[Bio] BioAPI Consortium. Disponível: site BioAPI Consortium (13 fev.


2003). URL: http://www.bioapi.org/ Consultado em 20 nov. 2003.

[Bis95] Christopher M. Bishop. Neural Network for Pattern Recognition.


Oxford Pres, 1995.

[BMMM02] S. Bengio, C. Marcel, S. Marcel, and J. Mariéthoz. Condence


measures for multimodal identity verication. Information Fusion,
3(04):267276, 2002.

[BP93] Robeto Brunelli and Tomaso Poggio. Face recognition: Features


versus templates. IEEE Transactions on Pattern Analysis and Ma-
chine Intelligence, 15(10):10421052, 1993.

[BP01] H. Baltzakis and N. Papamarkos. A new signature verication tech-


nique based on a two-stage neural network classier. Engineering
Applications of Articial Intelligence, 14:95103, 2001.

[BR93] Marcus Brown and Samuel Joe Rogers. User identication via
keystroke characteristics of typed names using neural networks. In-
ternational Journal of Man-Machine Studies, 39(6):9991014, 1993.

194
[BS98] Marian Stewart Bartlett and H. Martin Lades Terrence J. Se-
jnowski. Independent Component Representations for Face Recog-
nition. In Proceedings of the SPIE, volume 3299, pages 528539,
1998.

[BSH90] Saleh Bleha, Charles Slivinsky, and Bassam Hussien. Computer-


access security systems using keystroke dynamics. IEEE Transac-
tions on Pattern Analysis and Machine Intelligence, 12(12):1217
1222, 1990.

[Cam97] Joseph P. Campbell. Speaker Recognition: A Tutorial. Proceedings


of the IEEE, 85(9):14371462, 1997.

[CB93] Louis Coetzee and Elizabeth C. Botha. Fingerprint Recognition in


Low Quality Images. Pattern Recognition, 26(10):14411460, 1993.

[CBSV03] Kyong Chang, Kevin W. Bowyer, Sudeep Sarkar, and Barnabas


Victor. Comparison and Combination of Ear and Face Images
in Appeatance-Based Biometrics. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 25(9):11601165, 2003.

[CCJA99] T. Choudhury, B. Clarkson, T. Jebara, and A.Pentland. Multi-


modal person recognition using unconstrained audio and video. In
Second International Conference on Audio- and Video-based Bio-
metric Person Authentication, pages 176181, 1999.

[CDAF02] George D. C. Cavalcanti, Rodrigo C. Doria, Paulo J. L. Adeodato,


and Edson C. B. Carvalho Filho. Vericação o-line de assinaturas
de tamanhos diferentes. In VII Brazilian Symposium on Neural
Network, pages 3035, Porto de Galinhas, Recife - Brasil, 2002.

[CDF02] George D. C. Cavalcanti, Rodrigo C. Doria, and Edson C. B. Car-


valho Filho. Feature selection for o-line recognition of dierent size

195
signatures. In IEEE International Workshop on Neural Networks
for Signal Processing, pages 355364, Martigny,Valais - Switzer-
land, 2002.

[CdSPF04] George D. C. Cavalcanti, Cristiano de Santana Pereira, and Ed-


son C. B. Carvalho Filho. Auto-associative neural networks and
eigenbands fusion for frontal face verication. In IEEE Brazilian
Symposium on Articial Neural Networks, pages (cdrom), São Luís
- Brazil, 2004.

[CF02] George D. C. Cavalcanti and Edson C. B. Carvalho Filho. An Archi-


tecture for Document Management. In International Conference on
Image Processing - (ICIP 2002), pages 973976, New York, USA,
2002.

[CF03a] George D. C. Cavalcanti and Edson C. B. Carvalho Filho. Eigen-


bands fusion for frontal face recognition. In IEEE International
Conference on Image Processing (ICIP 2003), pages 665668,
Barcelona - Spain, 2003.

[CF03b] George D. C. Cavalcanti and Edson C. B. Carvalho Filho. Um


sistema multibiométrico para identicação pessoal usando carac-
terísticas físicas e comportamentais. In IV Encontro Nacional de
Inteligência Articial, pages 312, Campinas - Brasil, 2003.

[CHB01] Gemma A. Calvert, Peter C. Hansen, and Susan D. Iversen


Michael J. Brammer. Detection of audio-visual integration sites in
humans by application of electrophysiological criteria to the BOLD
eect. Neuroimage, 14(2):427438, 2001.

[CHK00] S. Cho, C. Han, and H. Kim. Web-based keystroke dynamics iden-


tity verication using neural network. J Organ Comput Electron
Commerce, 4(10):295307, 2000.

196
[CKI99] Y. C. Chim, A. A. Kassim, and Y. Ibrahim. Character recognition
using statistical moments. Image and Vision Computing, 17:299
307, 1999.

[CSKKP02] Conrad Sanderson and Kuldip K. Paliwal. Information Fusion and


Person Verication Using Speech & Face Information. IDIAP-
RR 33, IDIAP, September 2002.

[CSRT02] Ali Can, Charles V. Stewart, Badrinath Roysam, and Howard L.


Tanenbaum. A Feature-Based Technique for Joint, Linear Esti-
mation of High-Order Image-to-Mosaic Transformation: Mosaicing
the Curved Human Retina. IEEE Transactions on Pattern Analysis
and Machine Intelligence, 24(3):412419, 2002.

[CST00] Nello Cristianini and John Shawe-Taylor. An Introduction to Sup-


port Vector Machines: and other kernel-based learning methods.
Cambridge University Press, 2000.

[CW02] J-T Chien and C-C Wu. Discriminant waveletfaces and nearest fea-
ture classiers for face recognition. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 24(12):16441649, 2002.

[CWS95] R. Chellappa, C.L. Wilson, and S. Sirohey. Human and Machine


Recognition of Faces: a Survey. Proceedings of the IEEE, 83(5):705
740, 1995.

[Das97] Belur V. Dasarathy. Sensor Fusion Potential Exploitation  Inno-


vative Architectures and Illustrative Applications. Proceedings of
the IEEE, 85(1):2438, 1997.

[Dau00] John Daugman. Biometric Decision Landscapes. Technical Report


TR482, University of Cambridge Computer Laboratory, 2000.

197
[Dau03] John Daugman. The importance of being random: statistical prin-
ciples of iris recognition. Pattern Recognition, 36(2):279291, 2003.

[DBB+ 97] Benoit Duc, Elizabeth S. Bigun, Josef Bigun, Gilbert Maitre, and
Stefan Fischer. Fusion of audio and video information for multi
modal person authentication. Pattern Recognition Letters, 18:835
843, 1997.

[DeG89] DeGroot, Morris H. Probability and Statistics. Addison-Wesley,


1989.

[DFS01] Rodrigo C. Doria, Edson C. B. Carvalho Filho, and Eduardo F. A.


Silva. How distortions in dierent size signatures inuence moment
based techniques. Conference of Pattern Recognition and Image
Processing, 1:219226, 2001.

[DHS01] Richard O. Duda, Peter E. Hart, and David G. Stork. Pattern


Classication. Wiley-Interscience, 2001.

[DJM02] N. Duta, Anil K. Jain, and Kanti V. Mardia. Matching of Palm-


print. Pattern Recognition Letters, 23(4):477485, 2002.

[dLGALARA03] Rodrigo de Luis-Garcia, Carlos Alberola-Lopez, Otman Aghzout,


and Juan Ruiz-Alzola. Biometric identication systems. Signal
Processing, 83(12):25392557, 2003.

[Dor01] Rodrigo C. Doria. Investigação de técnicas de extração de caracte-


rísticas invariantes a mudança de escala para vericação o-line de
assinaturas. Master's thesis, Centro de Informática - UFPE, 2001.

[FD00] Robert W. Frischholz and Ulrich Dieckmann. BioID: A multimodal


biometric identication system. Computer, 33(2):6468, 2000.

198
[FER] FERET Database. Disponível: site The FERET Database (07 jun.
2001). URL: http://www.itl.nist.gov/iad/humanid/feret/ Consul-
tado em 20 nov. 2003.

[FKVL99] Alessandro Farina, Zsolt M. Kovács-Vajna, and Alberto Leone. Fin-


gerprint minutiae extraction from skeletonized binary images. Pat-
tern Recognition, 32(5):877889, 1999.

[FLT+ 02] B. Fang, C.H. Leung, Y.Y. Tang, P.C.K. Kwok, K.W. Tse, and
Y.K. Wong. Oine signature verication with generated training
samples. IEE Proceedings-Vision, Image and Signal Processing,
149(2):8590, 2002.

[FLT+ 03] B. Fang, C. H. Leung, Y. Y. Tang, K. W. Tse, P. C. K. Kwok,


and Y. K. Wong. O-line signature verication by the tracking
of feature and stroke positions. Pattern Recognition, 36(1):91101,
2003.

[FMA94] Kevin R. Farrell, Richard J. Mammone, and Khaled T. Assaleh.


Speaker Recognition Using Neural Networks and Conventional
Classiers. IEEE Transactions on Speech and Audio Processing,
2(1):194205, 1994.

[FS93] J. Flusser and T. Suk. Pattern recognition by ane moment in-


variants. Pattern Recognition, 26:167174, 1993.

[GAK02] Shlomo Greenberg, Mayer Aladjem, and Daniel Kogan. Finger-


print Image Enhancement using Filtering Techniques. Real-Time
Imaging, 8(3):227236, 2002.

[GLS96] M. Gori, L. Lastrucci, and G. Soda. Autoassociator-based models


for speaker verication. Pattern Recognition Letters, 17(3):241250,
1996.

199
[GMC02] Kátia S. Guimaraes, Jeane C. B. Melo, and George D. C. Caval-
canti. Simple and Ecient Secondary Structure Prediction. In Eu-
ropean Conference on Computational Biology (ECCB 2002), pages
7576, Saarbrucken, Germany, 2002.

[GMC03] Kátia S. Guimaraes, Jeane C. B. Melo, and George D. C. Cav-


alcanti. Combining few Neural Networks for Eective Secondary
Structure Prediction. In Symposium on Bioinformatics and Bio-
engineering (BIBE 2003), pages 415421, Bethesda, MD, 2003.

[GS94] Herbert Gish and Michael Schmidt. Text-Independent Speaker


Identication. IEEE Signal Processing Magazine, 11(4):1832,
1994.

[GS98] Marco Gori and Franco Scarselli. Are Multilayer Perceptrons Ade-
quate for Pattern Recognition and Verication? IEEE Transaction
on Pattern Analysis and Machine Intelligence, 20(11):11211132,
1998.

[GW02] Rafael C. Gonzalez and Richard E. Woods. Digital Image Process-


ing. Prentice Hall, 2002.

[Hay01] Simon Haykin. Redes Neurais: Princípios e Prática. Bookman,


2001.

[HCLF03] Chin-Chuan Han, Hsu-Liang Cheng, Chih-Lung Lin, and Kuo-Chin


Fan. Personal authentication using palm-print features. Pattern
Recognition, 36(2):371381, 2003.

[HJ98] Lin Hong and Anil K. Jain. Integrating faces and ngerprints for
personal identication. IEEE Transactions on Pattern Analysis and
Machine Intelligence, 20(12):12951307, 1998.

200
[HL96] Joseph P. Hobeck and David A. Landgrebe. Covariance Ma-
trix Estimation and Classication With Limited Training Data.
IEEE Transaction on Pattern Analysis and Machine Intelligence,
18(7):763767, 1996.

[HL97] David L. Hall and Hames Llinas. An Introduction to Multisensor


Data Fusion. Proceedings of the IEEE, 86(1):623, 1997.

[HL01] Erik Hjelmas and Boon Kee Low. Face detection: A survey. Com-
puter Vision and Image Understanding, 83(3):236274, 2001.

[HY97] K. Huang and H. Yan. O-line signature verication based on geo-


metric feature extraction and neural network classication. Pattern
Recognition, 30(1):917, 1997.

[HY03] Kai Huang and Hong Yan. Stability and style-variation modeling
for on-line signature verication. Pattern Recognition, 36(10):2253
2270, 2003.

[HYM05] M. Hanmandlu, M.H.M. Yusof, and V.K. Madasu. O-line signa-


ture verication and forgery detection using fuzzy modeling. Pat-
tern Recognition, 38(3):341356, 2005.

[IBG] IBG. Disponível: site International Biometric Group. (2003) URL:


http://www.biometricgroup.com/ Consultado em 20 nov. 2003.

[IPK+ 01] Sang-Kyun Im, Hyoung-Man Park, Young-Woo Kim, Sang-Chan


Han, Soo-Won Kim, Chul-Hee Kang, and Chang-Kyung Jeong. An
biometric identication system by extracting hand vein patterns.
Journal of Korean Physical Society(JKPS), 38:268272, 2001.

[JCM03] Anil K. Jain, Hong Chen, and Silviu Minut. Dental Biometrics:
Human Identication Using Dental Radiographs. In International

201
Conference on Audio- and Video-Based Biometric Person Authen-
tication (AVBPA), Lecture Notes in Computer Science, pages 429
437, Guildford, UK, 2003. Springer.

[JDM00] Anil K. Jain, Robert P. W. Duin, and Jianchang Mao. Statistical


Pattern Recognition: A Review. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 22(1):437, 2000.

[JGC02] Anil K. Jain, Friederike D. Griess, and Scott D. Connell. On-line


signature verication. Pattern Recognition, 35(12):29632972, 2002.

[JHP00] Anil K. Jain, Lin Hong, and Sharath Pankanti. Biometric Identi-
cation. Communications of the ACM, 43(2):9098, 2000.

[JHPB97] Anil K. Jain, Lin Hong, Sharath Pankanti, and R. Bolle. An


identity-authentication system using ngerprints. Proceedings of
the IEEE, 85(9):13651388, 1997.

[JKLM02] K. Jonsson, J. Kittler, Y. P. Li, and J. Matas. Support vector


machines for face authentication. Image and Vision Computing,
20(5-6):369375, 2002.

[JLGW97] Pierre Jourlin, Juergen Luettin, Dominique Genoud, and Hubert


Wassner. Acoustic-labial speaker verication. Pattern Recognition
Letters, 18(9):853858, 1997.

[JLK99] Anil K. Jain, L.Hong, and Y. Kulkarni. A multimodal biometric


system using ngerprints, face and speech. In Second International
Conference on Audio- and Video-based Biometric Person Authen-
tication, pages 182187, 1999.

[JPC99] Anil K. Jain, Salil Prabhakar, and Shaoyun Chen. Combining mul-
tiple matchers for a high security ngerprint verication system.
Pattern Recognition Letters, 20(11):13711379, 1999.

202
[JPP02] Anil K. Jain, Salil Prabhakar, and Sharath Pankanti. On the
Similarity of Identical Twin Fingerprints. Pattern Recognition,
35(11):26532663, 2002.

[JR02] Anil K. Jain and Arun Ross. Learning user-specic parameters


in a multibiometric system. In International Conference on Image
Processing (ICIP), pages 5760, September 2002.

[JR04] Anil Jain and Arun Ross. Multibiometric Systems. Communica-


tions of the ACM, 47(1):3440, 2004.

[JW92] R.A. Johnson and D Wichern. Applied Multivariate Statistical


Analysis. Prentice Hall, 1992.

[JZ97] Anil K. Jain and Douglas Zongker. Feature selection: Evaluation,


application and small sample performance. IEEE Transaction on
Pattern Analysis and Machine Intelligence, 19(2):153158, 1997.

[KC01] Andrew J. King and Gemma A. Calvert. Multisensory integration:


Perceptual grouping by eye and ear. Current Biology, 11:322325,
2001.

[KGWM03] J. Kittler, R. Ghaderi, T. Windeatt, and J. Matas. Face verication


via error correcting output codes. Image and Vision Computing,
21(13-14):11631169, 2003.

[KHDM98] J. Kittler, M. Hatef, R. P.W. Duin, and J. Matas. On combining


classiers. IEEE Transactions on Pattern Analysis and Machine
Intelligence, 20(3):226239, 1998.

[KJ96] Kalle Karu and Anil K. Jain. Fingerprint Classication. Pattern


Recognition, 29(3):389404, 1996.

203
[KMJS97] J. Kittler, G. Matas, K. Jonsson, and M. Sanchez. Combining evi-
dence in personal identity verication systems. Pattern Recognition
Letters, 18:845852, 1997.

[Kra92] M. A. Kramer. Autoassociative Neural Networks. Computers Chem


Engng, 16(4):313328, 1992.

[KS90] M. Kirby and L. Sirovich. Application of the Karhunen-Loève Pro-


cedure for the Characterizationi of Human Faces. IEEE Transac-
tions on Pattern Analysis and Machine Intelligence, 12(1):103108,
1990.

[KWSJ03] Ajay Kumar, David C. M. Wong, Helen C. Shen, and Anil K. Jain.
Personal Verication Using Palmprint and Hand Geometry Bio-
metric. In International Conference on Audio- and Video-Based
Biometric Person Authentication (AVBPA), Lecture Notes in Com-
puter Science, pages 668678, Guildford, UK, 2003. Springer.

[LGTB97] Steve Lawrence, C. Lee Giles, A. C. Tsoi, and A. D. Back. Face


recognition: A convolutional neural network approach. IEEE
Transactions on Neural Networks, 8(1):98113, 1997.

[Li92] Y. Li. Reforming the theory of invariant moments for pattern recog-
nition. Pattern Recognition, 25(7):723730, 1992.

[LKL97] S.H. Lin, S.Y. Kung, and L.J. Lin. Face recognition/detection by
probabilistic decision-based neural network. IEEE Transactions on
Neural Networks, 8(1):114131, 1997.

[LL97] X. S. Liao and Q Lu. A study of moment functions and its use in
chinese character recognition. Fourth International Conference on
Document Analysis and Recognition, pages 572575, 1997.

204
[LWvdM97] N. Kruger L. Wiskott, J-M. Fellous and C. von der Malsburg. Face
recognition by elastic bunch graph matching. IEEE Transactions
on Pattern Analysis and Machine Intelligence, 19(7):775779, 1997.

[M2V] M2VTS Project. Disponível: site M2VTS Project: Multi-


modal Biometric Person Authentication (05 out. 1998). URL:
http://www.tele.ucl.ac.be/PROJECTS/M2VTS/ Consultado em
20 nov. 2003.

[Mac00] Angelo Machado. Neuroanatomia Funcional. Atheneu, 2000.

[Mai79] S. Maitra. Moment invariants. Proceedings of the IEEE, 67(4):697


699, 1979.

[MCG03a] Jeane C. B. Melo, George D. C. Cavalcanti, and Kátia S.


Guimaraes. PCA Feature Extraction for Protein Structure Pre-
diction. In International Joint Conference on Neural Networks
(IJCNN 2003), pages 29522957, Portland, OR, USA, 2003.

[MCG03b] Jeane C. B. Melo, George D. C. Cavalcanti, and Kátia S.


Guimaraes. Protein Secondary Structure Prediction with ICA Fea-
ture Extraction. In Workshop on Neural Networks for Signal Pro-
cessing, pages 1322, Toulouse, France, 2003.

[MCG04] Jeane C. B. Melo, George D. C. Cavalcanti, and Kátia S.


Guimaraes. Protein secondary structure prediction: ecient neu-
ral network and feature extraction approaches. Electronics Letters,
40(21):13581359, 2004.

[MIY03] Hemant Misra, Shajith Ikbal, and B. Yegnanarayana. Speaker-


specic mapping for text-independent speaker recognition. Speech
Communication, 39(3-4):301310, 2003.

205
[MK01] A. M. Martínez and A. C. Kak. PCA versus LDA. IEEE Transac-
tions on Pattern Analysis and Machine Intelligence, 23(2):228233,
2001.

[MP97] B. Moghaddam and A. Pentland. Probabilistic Visual Learning for


Object Representation. IEEE Transactions on Pattern Analysis
and Machine Intelligence, 19(7):696710, 1997.

[MR97] Fabian Monrose and Aviel Rubin. Authentication via keystroke


dynamics. In Proceedings of the 4th ACM Conference on Computer
and Communications Security, pages 4856. ACM Press, 1997.

[MR00] Fabian Monrose and Aviel Rubin. Keystroke dynamics as a bio-


metric for authentication. Future Generation Computer System,
16(4):351359, 2000.

[MTWZ03] Li Ma, Tieniu Tan, Yunhong Wang, and Dexin Zhang. Personal
Identication Based on Iris Texture Abalysis. IEEE Transactions
on Pattern Analysis and Machine Intelligence, 25(12):15191533,
2003.

[Mur96] Robin R. Murphy. Biological and Cognitive Foundations of Intel-


ligent Sensor Fusion. IEEE Transactions on Systems, Man and
Cybernetics - Part A: Systems and Humans, 26(1):4251, 1996.

[Nag01] Khaled Ahmed Nagaty. Fingerprints classication using articial


neural networks: a combined structural and statistical approach.
Neural Networks, 14(9):12931305, 2001.

[Nak02] Satoshi Nakamura. Statistical multimodal integration for audio-


visual speech processing. IEEE Transactions on Neural Networks,
13(4):854866, 2002.

206
[Nal97] Vishvjit S. Nalwa. Automatic On-Line Signature Verication. Pro-
ceedings of the IEEE, 85(2):213239, 1997.

[NIS] NIST - National Institute of Standards and Technology. Disponível:


site NIST (20 nov. 2003). URL: http://www.nist.gov/ Consultado
em 20 nov. 2003.

[ORL] ORL Database. Disponível: site The ORL Face Database (2002).
URL: http://www.uk.research.att.com/facedatabase.html Consul-
tado em 20 nov. 2003.

[PJ02] Salil Prabhakar and Anil K. Jain. Decision-level Fusion in Finger-


print Verication. Pattern Recognition, 35(4):861874, 2002.

[PJP03] Salil Prabhakar, Anil K. Jain, and Sharath Pankanti. Learning


Fingerprint Minutiae Location and Type. Pattern Recognition,
36(8):18471857, 2003.

[PPJ02] Sharath Pankanti, Salil Prabhakar, and Anil K. Jain. On the Indi-
viduality of Fingerprints. IEEE Transactions on Pattern Analysis
and Machine Intelligence, 24(8):10101025, 2002.

[RBK98] Henry A. Rowley, Shumeet Baluja, and Takeo Kanade. Neural


network-based face detection. IEEE Transactions on Pattern Anal-
ysis and Machine Intelligence, 20(1):2338, 1998.

[RJ03] Arun Ross and Anil K. Jain. Information fusion in biometrics.


Pattern Recognition Letters, 24(13):21152125, 2003.

[RJ04] Arun Ross and Anil Jain. Multimodal biometrics: An overview. In


European Signal Processing Conference, pages 12211224, Vienna -
Austria, 2004.

207
[RM99] V. E. Ramesh and M. N. Murty. O-line signature verication
using genetically optimized weighted features. Pattern Recognition,
32(2):217233, 1999.

[Row98] Sam Roweis. Algorithms for PCA and SPCA. In Advances in


Neural Information Processing Systems, volume 10, pages 626632.
Michael I. Jordan and Michael J. Kearns and Sara A. Solla, The
MIT Press, 1998.

[RSB01] Nalini K. Ratha, Andrew Senior, and Ruud M. Bolle. Automated


biometrics. In International Conference on Advances in Pattern
Recognition (ICAPR), volume 2013 of Lecture Notes in Computer
Science, pages 445474, Rio de Janeiro - Brazil, 2001. Springer.

[SAL03] P. Sivakumaran, Aladdin M. Ariyaeeinia, and M. J. Loomes. Sub-


band based text-dependent speaker verication. Speech Communi-
cation, 41(2-3):485509, 2003.

[SFA97] M. Swain, C. Frankel, and V. Athitsos. Webseer: An image search


engine for the world wide web, 1997.

[SH94] F. Samaria and A. C. Harter. Parameterisation of a stochastic


model for human face identication. In 2nd IEEE Workshop on
Applications of Computer Vision, pages 138142, 1994.

[SI92] A. Samal and P. A. Iyengar. Automatic recognition and analysis of


human faces and facial expressions. Pattern Recognition, 25(1):65
77, 1992.

[SK00] Henry Schneiderman and Takeo Kanade. A statistical model for 3D


object detection applied to faces and cars. In IEEE Conference on
Computer Vision and Pattern Recognition, pages 746751, 2000.

208
[SM92] V. S. Srinivasan and N. N. Murthy. Detection of Singular Points in
Fingerprint Images. Pattern Recognition, 25(2):139153, 1992.

[SP03a] Conrad Sanderson and Kuldip K. Paliwal. Fast features for face au-
thentication under illumination direction changes. Pattern Recog-
nition Letters, 24(14):24092419, 2003.

[SP03b] Conrad Sanderson and Kuldip K. Paliwal. Features for robust face-
based identity verication. Signal Processing, 83(5):931940, 2003.

[SP03c] Conrad Sanderson and Kuldip K. Paliwal. Noise compensation in a


person verication system using face and multiple speech features.
Pattern Recognition, 36(2):293302, 2003.

[SPH98] Rajeev Sharma, Vladimir I. Pavlovic, and Thomas S. Huang. To-


ward Multimodal Human-Computer Interface. Proceedings of the
IEEE, 86(5):853869, 1998.

[SRSAGM00] Raul Sanchez-Reillo, Carmen Sanchez-Avila, and Ana Gonzalez-


Marcos. Biometric Identication through Hand Geometry Mea-
surements. IEEE Transactions on Pattern Analysis and Machine
Intelligence, 22(10):11681171, 2000.

[SSK97] Weicheng Shen, Marc Surette, and Rajiv Khanna. Evaluation of


Automated Biometrics-Based Identication and Verication Sys-
tems. Proceedings of the IEEE, 85(9):14631478, 1997.

[SUM+ 05] R. Snelick, U. Uludag, A. Mink, M. Indovina, and Anil Jain. Large
Scale Evaluation of Multimodal Biometric Authentication Using
State-of-the-Art Systems. IEEE Transactions on Pattern Analysis
and Machine Intelligence, 27(3):450455, 2005.

[SVCA98] Eduardo A. Sodré, Germano C. Vasconcelos, George D. C. Caval-


canti, and Paulo J. L. Adeodato. SAPRI: Um sistema integrado

209
baseado em redes neurais para o reconhecimento automático de
alvos. In V Simpósio Brasileiro de Redes Neurais, pages 2732,
Belo Horizonte-MG, Brasil, 1998.

[SW96] D. L. Swets and J. Weng. Using Discriminant Eigenfeatures for


Image Retrieval. IEEE Transactions on Pattern Analysis and Ma-
chine Intelligence, 18(8):831836, 1996.

[TKP02] Anastasios Tefas, Constantine Kotropoulos, and Ioannis Pitas. Face


verication using elastic graph matching based on morphological
signal decomposition. Signal Processing, 82(6):833851, 2002.

[TP91] M. Turk and A. Pentland. Eigenfaces for recognition. Journal of


Cognitive Neuroscience, 3(1):7186, 1991.

[UDW97] P. Plankensteiner U. Dieckmann and T. Wagner. Sesam: A bio-


metric person identication system using sensor fusion. Pattern
Recognition Letters, 18:827833, 1997.

[UMI] UMIST Database. Disponível: site The UMIST Face Database.


URL: http://images.ee.umist.ac.uk/danny/database.html Consul-
tado em 20 nov. 2003.

[VAF+ 99] Germano C. Vasconcelos, Paulo J. L. Adeodato, Edson C. B. Car-


valho Filho, Eduardo A. Sodré, and George D. C. Cavalcanti. Neu-
ral network based automatic target processing and recognition. In
7th IEE International Conference on Image Processing and its Ap-
plications (IPA'99), pages 280284, Manchester - UK, 1999.

[Vap00] Vladimir N. Vapnik. The Nature of Statistical Learning Theory.


Springer, 2000.

210
[VCA00] Patrick Verlinde, Gerard Chollet, and Marc Acheroy. Multi-
modal identity verication using expert fusion. Information Fusion,
1(1):1733, 2000.

[VFB95a] G. C. Vasconcelos, M. C. Fairhurst, and D. L. Bisset. Ecient De-


tection of Spurious Inputs for Improving the Robustness of MLP
Networks in Practical Applications. Neural Computing and Appli-
cations, 3(4):202212, 1995.

[VFB95b] G. C. Vasconcelos, M. C. Fairhurst, and D. L. Bisset. Investigat-


ing feedforward neural networks with respect to the rejection of
spurious patterns. Pattern Recognition Letters, 16:207212, 1995.

[Way99] J. L. Wayman. Error Rate Equations for the General Biometric Sys-
tem. IEEE Robotics and Automation Magazine, 6(1):3548, 1999.

[WM01] A. J. Willis and L. Myers. A cost-eective ngerprint recognition


system for use with low-quality prints and damaged ngertips. Pat-
tern Recognition, 34(2):255270, 2001.

[Woo97] John D. Woodward. Biometrics: Privacy's Foe or Privacy's Friend?


Proceedings of the IEEE, 85(9):14791492, 1997.

[WTJ03] Yunhong Wang, Tieniu Tan, and Anil K. Jain. Combining Face
and Iris Biometrics for Identity Verication. In International Con-
ference on Audio- and Video-Based Biometric Person Authentica-
tion (AVBPA), Lecture Notes in Computer Science, pages 805813,
Guildford, UK, 2003. Springer.

[XO03] Xiongwu Xia and Lawrence O'Gorman. Innovations in Fingerprint


Capture Devices. Pattern Recognition, 36(2):361369, 2003.

211
[YC04] Enzhe Yu and Sungzoon Cho. Keystroke dynamics identity verica-
tion - its problems and practical solutions. Computers and Security,
23(5):428440, 2004.

[YKA02] Ming-Hsuan Yang, David J. Kriegman, and Narendra Ahuja. De-


tecting faces in images: a survey. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 24(1):3458, 2002.

[ZCP99] W. Zhao, R. Chellappa, and P. Phillips. Subspace linear discrim-


inant analysis for face recognition. CAR-TR 914, Center for Au-
tomation Research, University of Maryland, College Park, 1999.

[ZCPR03] W. Zhao, R. Chellappa, P. J. Phillips, and A. Rosenfeld. Face recog-


nition: A literature survey. ACM Computing Surveys, 35(4):399
458, 2003.

212
213

Você também pode gostar