Escolar Documentos
Profissional Documentos
Cultura Documentos
Centro de Informática
TESE DE DOUTORADO
Recife
Maio de 2005
Universidade Federal de Pernambuco
Centro de Informática
a a
Co-orientadora: Prof. Dr. Katia Silva Guimares
Recife
Maio de 2005
RESUMO
3
ABSTRACT
This work presents contributions for the problem of identity verication thought an
architecture that combines face, signature and keystroke dynamics. The rst two
biometrics were chosen based on the fact that they are already integrated in the
society, besides the equipment to capture these modalities are cheap. The third bio-
metrics chosen, keystroke dynamics, is also cheap and transparent to the user. The
main motivation of this thesis is to analyze combination strategies aiming to improve
the performance of personal identication systems. Therefore, it was identied and
investigated the following points: (i) Signature verication of dierent sizes using
seven features groups: pseudo-dynamics, structural, and invariant (moments of Hu,
Maitra, Flusser, Simon and Central); (ii) Face classication through Eigenbands
Fusion (a face image was divided into bands and the best principal components of
each band was assembled to form the feature vector); (iii) Keystroke dynamics veri-
cation through the analyzes of press and latency time of the users; (iv) Architecture
arrangement aiming to combine three biometrics, besides experiments to measure
performance; (v) Local threshold investigation to separate regions of authentic and
impostor users through t-Student distribution. The results showed that the combined
system over performed each one of the biometrics modalities when used separately.
4
CONTEÚDO
Capítulo 1Introdução20
1.1 Biometria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.2 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.4 Estrutura da Tese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Capítulo 2Classicação Biométrica27
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Técnicas Biométricas . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1 Face . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.2 Assinatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.3 Impressão Digital . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.4 Voz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.5 Mão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.6 Íris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.7 Retina . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.8 Radiograa Dental . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.9 Formato da Orelha . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.10 Imagem Térmica do Rosto . . . . . . . . . . . . . . . . . . . . 35
2.2.11 Dinâmica da Digitação . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Sistema Biométrico Monomodal . . . . . . . . . . . . . . . . . . . . . 36
2.3.1 Avaliação de Desempenho . . . . . . . . . . . . . . . . . . . . 37
2.3.2 Encontrando o Critério de Separação . . . . . . . . . . . . . . 40
2.4 Sistema Biométrico Multimodal . . . . . . . . . . . . . . . . . . . . . 42
5
2.4.1 Estado da Arte . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.2 Arquiteturas para Integração de Modalidades Biométricas . . 47
2.4.2.1 Integração de Dados . . . . . . . . . . . . . . . . . . 48
2.4.2.2 Integração de Características . . . . . . . . . . . . . 48
2.4.2.3 Integração de Decisões . . . . . . . . . . . . . . . . . 49
2.4.2.4 Comentários . . . . . . . . . . . . . . . . . . . . . . 50
Capítulo 3Métodos de Extração de Características e de Classicação de Pa-
drões52
3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2 Extração de Características Faciais através da Análise dos Compo-
nentes Principais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3 Extração de Características de Assinaturas . . . . . . . . . . . . . . . 54
3.3.1 Características Pseudo-dinâmicas . . . . . . . . . . . . . . . . 55
3.3.2 Características Estruturais . . . . . . . . . . . . . . . . . . . . 56
3.3.3 Características Invariantes . . . . . . . . . . . . . . . . . . . . 57
3.3.3.1 Momentos Centrais . . . . . . . . . . . . . . . . . . . 57
3.3.3.2 Invariantes de Hu . . . . . . . . . . . . . . . . . . . . 58
3.3.3.3 Invariantes de Maitra . . . . . . . . . . . . . . . . . 59
3.3.3.4 Invariantes de Flusser . . . . . . . . . . . . . . . . . 59
3.3.3.5 Invariantes de Simon . . . . . . . . . . . . . . . . . . 60
3.4 Classicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.4.1 Classicador Bayesiano . . . . . . . . . . . . . . . . . . . . . . 61
3.4.2 Classicador k-Vizinhos Mais Próximos (k − vmp) . . . . . . . 62
3.4.3 Classicador Cross-correlation . . . . . . . . . . . . . . . . . . 63
Capítulo 4Classicação de Faces65
4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.1.1 Trabalhos relacionados . . . . . . . . . . . . . . . . . . . . . . 68
4.1.2 Pré-processando imagens de faces . . . . . . . . . . . . . . . . 69
4.2 Reconhecimento de Faces usando Eigenbands . . . . . . . . . . . . . . 72
6
4.2.1 Resultados Experimentais . . . . . . . . . . . . . . . . . . . . 75
4.2.1.1 Bandas Horizontais . . . . . . . . . . . . . . . . . . . 75
4.2.1.2 Bandas Verticais . . . . . . . . . . . . . . . . . . . . 77
4.3 Vericação de Faces . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3.1 Faces Completas . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.3.2 Eigenbands Fusion . . . . . . . . . . . . . . . . . . . . . . . . 82
4.4 Alguns Experimentos com o Banco de Faces da IIS . . . . . . . . . . 84
4.4.1 Redes Neurais Auto-associativas . . . . . . . . . . . . . . . . . 84
4.4.2 Estudo Experimental . . . . . . . . . . . . . . . . . . . . . . . 85
4.4.2.1 Avaliação do Desempenho . . . . . . . . . . . . . . . 85
Capítulo 5Vericação de Assinaturas90
5.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2 Banco de Dados de Assinaturas . . . . . . . . . . . . . . . . . . . . . 91
5.3 Seleção de Características . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.1 Seleção de Características usando o Classicador k-vmp . . . . 95
5.3.2 Seleção de Características usando o Classicador Bayesiano . . 97
5.3.3 Comentários . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.4 Vericação de Assinaturas . . . . . . . . . . . . . . . . . . . . . . . . 101
5.4.1 Classicador Bayesiano . . . . . . . . . . . . . . . . . . . . . . 103
5.4.2 Classicador Cross-Correlation . . . . . . . . . . . . . . . . . 105
5.4.3 Classicador Baseado em Distância . . . . . . . . . . . . . . . 107
5.5 Comentários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Capítulo 6Vericação da Dinâmica da Digitação112
6.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.2 Trabalhos Relacionados . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.3 Estudo Experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.3.1 Aquisição dos Dados . . . . . . . . . . . . . . . . . . . . . . . 116
6.3.2 Extração de Características e Representação . . . . . . . . . . 118
6.3.3 Vericação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
7
6.3.3.1 Procedimento Experimental . . . . . . . . . . . . . . 121
6.3.3.2 Características Tempo de Pressionamento . . . . . . 126
6.3.3.3 Características Tempo de Latência . . . . . . . . . . 129
6.3.3.4 Combinação de Características . . . . . . . . . . . . 131
6.4 Considerações Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Capítulo 7Combinação de Biometrias137
7.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.2 Banco de Dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
7.3 Arquitetura de Combinação . . . . . . . . . . . . . . . . . . . . . . . 140
7.3.1 Normalização . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
7.3.2 Regra de Combinação . . . . . . . . . . . . . . . . . . . . . . 142
7.4 Combinando Face e Assinatura . . . . . . . . . . . . . . . . . . . . . 142
7.4.1 Combinando os melhores grupos de assinaturas com eigenbands
verticais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
7.4.2 Combinando os melhores grupos de assinaturas com eigenbands
horizontais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.5 Combinando Assinatura e Dinâmica da Digitação . . . . . . . . . . . 152
7.6 Combinando Face e Dinâmica da Digitação . . . . . . . . . . . . . . . 155
7.7 Combinando Face, Assinatura e Dinâmica da Digitação . . . . . . . . 156
7.8 Análise dos Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . 162
7.9 Comentários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Capítulo 8Conclusão168
8.1 Resumo das Contribuições do Trabalho . . . . . . . . . . . . . . . . . 168
8.2 Trabalhos Futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
8.3 Considerações Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
Apêndice ARótulos das Características Extraídas das Assinaturas173 Apêndice B
Detalhamento dos Resultados da Vericação de Assinaturas175 Apêndice CBanco
de Dados e Detalhamento dos Resultados da Dinâmica da Digitação186 Apêndice D
Rótulos dos Pesos Utilizados para Combinar as Biometrias191
8
LISTA DE FIGURAS
9
4.9 Avaliação de cada banda horizontal individualmente usando o classi-
cador Bayesiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.10 Avaliação de cada banda vertical individualmente, usando o classi-
cador Bayesiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.11 Amostra de imagens do banco de faces da IIS. . . . . . . . . . . . . . 86
4.12 Vericação de faces usando Redes Neurais Auto-associativas: análise
do desempenho. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
10
5.17 Classicador Baseado em Distância (sem transformação). . . . . . . . 107
5.18 Classicador Baseado em Distância (normalizadas). . . . . . . . . . . 108
5.19 Classicador Baseado em Distância (imagens cortadas). . . . . . . . . 108
11
6.16 FRR após eliminar porcentagem das características com normalização
(Combinação das Características). . . . . . . . . . . . . . . . . . . . . 133
12
7.14 Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands
Horizontais e Normalização Brunelli). . . . . . . . . . . . . . . . . . . 158
7.15 Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands
Verticais e Normalização Sanderson). . . . . . . . . . . . . . . . . . . 160
7.16 Combinação de Face, Assinatura e Dinâmica da Digitação (Eigenbands
Verticais e Normalização Brunelli). . . . . . . . . . . . . . . . . . . . 161
7.17 Análise dos resultados que usaram a normalização Sanderson. Face1:
Eigenbands Horizontais. Face2: Eigenbands Verticais. . . . . . . . . . 163
7.18 Análise dos resultados que usaram a normalização Brunelli. Face1:
Eigenbands Horizontais. Face2: Eigenbands Verticais. . . . . . . . . . 164
13
LISTA DE TABELAS
14
4.9 Avaliação do desempenho após a combinação das bandas horizontais.
NUI: Número de Unidades Intermediárias. NTrTeVa: Número de
amostras de Treino, Teste e Validação. . . . . . . . . . . . . . . . . . 88
4.10 Estatística do teste-t Emparelhado. . . . . . . . . . . . . . . . . . . . 89
5.1 Resumo dos melhores resultados, em termos da medida R2, das tabelas
do Apêndice B. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
15
7.6 Resumo contendo os melhores resultados da Figura 7.12. TP - Tempo
de Pressionamento e TL - Tempo de Latência. . . . . . . . . . . . . . 156
7.7 Resumo contendo os melhores resultados da Figura 7.13. . . . . . . . 158
7.8 Resumo contendo os melhores resultados da Figura 7.14. . . . . . . . 158
7.9 Resumo contendo os melhores resultados da Figura 7.15. . . . . . . . 160
7.10 Resumo contendo os melhores resultados da Figura 7.16. . . . . . . . 161
16
B.7 Avaliação dos erros de cada um dos grupos de características usando
o classicador baseado em distância sobre as imagens das assinaturas
sem transformação, adotando um intervalo de conança de 99% (α =
0, 01). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
B.8 Avaliação dos erros de cada um dos grupos de características usando
o classicador baseado em distância sobre as imagens das assinaturas
normalizadas, adotando um intervalo de conança de 99% (α = 0, 01). 184
B.9 Avaliação dos erros de cada um dos grupos de características usando
o classicador baseado em distância sobre as imagens das assinaturas
após aplicação da técnica do corte, adotando um intervalo de conança
de 99% (α = 0, 01). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
17
LISTA DE ABREVIATURAS
18
IIS Banco de dados de faces de orientais
Site: http://smart.iis.sinica.edu.tw
k-vmp Classicador k-Vizinhos Mais Próximos
LDA Linear Discriminant Analysis (Análise Discriminante Linear)
M2VTS Multi Modal Verication for Teleservices and Security Applications
Um banco de dados bimodal (face e voz)
Site: http://www.tele.ucl.ac.be/PROJECTS/M2VTS/m2fdb.html
MLP Multi-Layer Perceptron
NIST National Institute of Standards and Technology
Site: http://www.nist.gov/
ORL Banco de dados de faces da Olivetti Research Laboratory
PCA Principal Component Analysis (Análise dos Componentes Principais)
RBF Radial Basis Function
ROC Receiver Operating Characteristic
SOM+CN Self-Organizing Map and Convolutional Networks
SVM Support Vector Machine
THP Threshold of High Pressure
UMIST Banco de dados de faces da University of Manchester Institute of
Science and Technology
VidTIMIT Banco de dados de vídeo útil para sistemas mono ou multimodais de
identicação pessoal e que usam voz e face
Site: http://users.rsise.anu.edu.au/ conrad/vidtimit/
XM2VTS Uma extensão do banco de dados multimodal de faces M2VTS
Site: http://www.ee.surrey.ac.uk/Research/VSSP/xm2vtsdb/
19
CAPÍTULO 1
INTRODUÇÃO
1.1 BIOMETRIA
20
de segurança. Para o comércio, a posse do cartão de crédito pode dar lugar a uma
simples assinatura, que, no ato da compra, autentica a transação. Ou ainda, a
necessidade do uso de cartões e/ou de chas, para a realização de ligações a partir
de telefones públicos seria suprimida, a conta poderia ser enviada para o solicitante
do serviço através do reconhecimento de voz, por exemplo; esse raciocínio se estende
para o uso de celulares. Transações bancárias, comércio eletrônico e serviços de
cartório formam mais um lão para sistemas biométricos.
O maior desao da aplicação de sistemas biométricos em aplicações do mundo
real está atrelado ao melhoramento do seu desempenho. Em um futuro próximo,
técnicas de classicação monomodais, isto é, que utilizam apenas uma biometria,
tendem a alcançar um limite de saturação do desempenho [DBB+ 97]. Alguns tra-
balhos [BF95, ABB+ 96, UDW97, DBB+ 97, KMJS97, JLGW97, HJ98, JLK99, JR02,
Nak02, SP03c, CF03b, JR04, RJ04, SUM+ 05] mostraram que a combinação de mais
de uma técnica biométrica tem melhorado o desempenho, em relação à análise das
técnicas individualmente. Tais sistemas são chamados Sistema de Identicação Pes-
soal Multibiométricos ou Multimodais.
1.2 MOTIVAÇÃO
21
maticamente, sensoriamento remoto, monitoramento de processos industriais, apli-
cações médicas, robótica e identicação pessoal. Uma outra aplicação para a inte-
gração de múltiplos sensores foi estudada por Sharma et al. [SPH98], em um trabalho
cujo objetivo foi o de investigar direções para a Interface Humano-Máquina (HCI)
multimodal.
A interação pressencial de humanos é multimodal por natureza. À medida que um
humano estabelece um diálogo com outro indivíduo, ele olha, gesticula e aponta para
objetos. A pessoa que está passiva, naquele momento do diálogo, presta atenção
não apenas para a voz do outro, ca atenta, também, à entonação da mesma, às
expressões faciais, bem como capta odores. Dito isso, pode-se armar que os humanos
são animais que integram múltiplos sensores. Vale salientar que, não apenas humanos,
outros animais usam, e muito bem, múltiplas informações captadas do ambiente para
estabelecer a própria sobrevivência.
Talvez o maior incentivo para a fusão de diversas modalidades (sensores) seja
a falta de robustez e o baixo desempenho de sistemas monomodais. A seguir são
mostradas razões biológicas e matemáticas para a combinação de sensores.
Os humanos possuem várias formas de interagir com o meio-ambiente. A capaci-
dade do sistema nervoso central de combinar estímulos provenientes de vários sensores
pode facilitar as tarefas de detecção, localização e discriminação dos mesmos [KC01].
Por exemplo, a habilidade humana de compreender a fala é bastante aumentada
quando, não apenas, a voz é escutada, mas também, quando o locutor pode ser visu-
alizado. Além disso, o tempo de resposta a estímulos multimodais é menor quando
comparado com estímulos monomodais [CHB01]. Entretanto, existem casos em que
a pluralidade da percepção pode gerar resultados indesejados, como, por exemplo,
quando os sinais visuais e auditivos são incongruentes, situação que ocorre em um
lme dublado.
As informações provenientes de diversos sensores devem ser processadas conjun-
tamente em alguma região do cérebro. E estudos realizados por Stein e Meredith,
reportados por Murphy [Mur96], armaram que estímulos provenientes de sensores
22
diferentes não interagem entre si antes de atingirem o cérebro. Sendo mais preciso,
sinais perceptivos são enviados para o Colículo Superior e lá processados. O Colículo
Superior é uma estrutura presente no Sistema Nervoso Central, mais precisamente
no tecto do mesencéfalo de mamíferos, e é constituído de camadas superpostas e al-
ternadas de substância branca e cinzenta que estão relacionas à visão [Mac00]. Esses
resultados foram observados em experimentos realizados em cérebros de felinos, em
especial gatos. Sabendo que a estrutura do Colículo Superior é similar na maioria dos
mamíferos, inclusive no homem, o estudo torna-se aceitável para ns de observação
do fenômeno de combinação de sensores.
Além das razões biológicas mostradas acima para a fusão de sensores, é possível
destacar ainda razões matemáticas que encontram origem na análise estatística de
dados. A desvantagem de se usar apenas uma modalidade (sensor) está na inca-
pacidade da mesma de reduzir a incerteza para a tomada de decisão. Essa incerteza
pode ser proveniente de diversas fontes: imprecisão na captura das características,
características ocultas ou oclusas e ambigüidade na observação. Além disso, com-
binar múltiplas informações da mesma fonte pode aumentar o desempenho quando
informações redundantes são usadas [HL97].
1.3 OBJETIVOS
23
iv Se a combinação for feita a partir das respostas dos classicadores, como
normalizar essas respostas para que a decisão nal não seja prejudicada pelas
diferentes escalas dos valores de saída dos classicadores?
As respostas a tais questões serão dadas ao longo da tese que tem como principal
motivação analisar os resultados da combinação de biometrias diferentes, em especial
face, assinatura e dinâmica da digitação. Para tanto, será necessário investigar e
propor melhorias para cada uma das modalidades individualmente e, em seguida,
conceber uma arquitetura que modele a fusão.
As biometrias face e assinatura têm-se destacado como duas técnicas de fácil
aceitação pela sociedade em geral. Isso se deve ao fato de seu uso corriqueiro em
transações comerciais e burocráticas. Carteiras de identidade, habilitação de mo-
torista, título de eleitor, passaporte, entre outros documentos, se valem tanto da face
quanto da assinatura para identicar o indivíduo portador; alguns desses, se utilizam,
também, da impressão digital. A assinatura de cheques, contratos, contra-cheques,
procurações, é fato comum para o comércio, cartórios e empresas. Essas duas biome-
trias se caracterizam, também, pela facilidade de aquisição, pois os equipamentos
necessários (câmera - para face; scanner - para assinatura) são baratos e de fácil
manuseio. Quanto à dinâmica da digitação, o qual captura o ritmo de digitação
do usuário, pode-se armar que a mesma é transparente. Seu uso não causaria
transtorno algum, uma vez que, para a maioria dos computadores, o teclado é parte
complementar.
A integração de biometrias tem o objetivo primordial de combinar o que elas têm
de melhor para aumentar o desempenho do sistema. Tendo como base as questões
realçadas acima, é possível destacar os seguintes objetivos secundários:
24
por exemplo, pedir que um usuário assine trinta, quarenta vezes. Assim, o
classicador selecionado deve ser capaz de encontrar regiões de separação para
as classes, mesmo com poucos exemplos, sendo ao mesmo tempo, rápido e
eciente;
25
classicadores.
No Capítulo 6 são reportados os resultados conseguidos com a biometria dinâmica
da digitação sobre um banco de dados capturados pelos autores. Em especial, dois
grupos de características são avaliados: tempo de pressionamento e tempo de latência.
A combinação das três modalidades biométricas (face, assinatura e dinâmica da
digitação) é exposta no Capítulo 7. Nesse capítulo, em primeiro lugar as biometrias
serão combinadas duas-a-duas e, em seguida, as três biometrias serão unidas. Serão
avaliados o desempenho e a importância da participação de cada uma das biometrias
no sistema combinado.
No Capítulo 8 é mostrado um sumário das contribuições da tese, bem como
possibilidades de atividades futuras da mesma.
No Apêndice A apresenta-se uma tabela contendo o rótulo das características
extraídas das imagens da assinaturas.
No Apêndice B são mostradas tabelas contendo, de forma detalhada, os resulta-
dos encontrados utilizando os oito grupos de características e os três classicadores
empregados na vericação de assinaturas.
No Apêndice C apresentam-se tabelas. A primeira delas contém informações
sobre os usuários utilizados para compor o banco de dados de dinâmica da digitação,
tais como: nome completo, número de padrões autênticos e falsos por classe. Já
nas outras tabelas, são mostrados, de forma detalhada, os resultados da modalidade
biométrica dinâmica da digitação.
No Apêndice D é mostrada uma tabela utilizada para indicar quais os pesos de
cada uma das biometrias no processo de combinação multimodal, que usam três
modalidades: face, assinatura e dinâmica da digitação.
26
CAPÍTULO 2
CLASSIFICAÇÃO BIOMÉTRICA
2.1 INTRODUÇÃO
27
DNA
Íris Retina
Voz
Impressão Digital
Assinatura
Face
Radiografia Dental Dinâmica da Digitação
Mão
Orelha Comportamental
Física
Técnicas Biométricas
28
Escalabilidade: impacto sobre o sistema quando o número de usuários é sensivel-
mente aumentado.
29
pessoais e questões legais, referentes ao mau uso dessas informações. Discussões éticas
a esse respeito, que ponderam os prós e os contras de processos biométricos, podem
ser encontradas no trabalho de Woodward [Woo97].
Esforços com o intuito de padronizar interfaces e métodos de avaliação estão
sendo desenvolvidos. Acredita-se que essa iniciativa possa tornar biometria um termo
mais corriqueiro, integrado no dia-a-dia da atual sociedade. Diversos bancos de
dados de impressões digitais foram projetados pelo NIST [NIS]. FERET [FER] e
M2VTS [M2V] são exemplos de banco de dados de faces e de faces e voz, respecti-
vamente, que possuem processos de avaliação bem denidos para facilitar a com-
paração de métodos. BioAPI [Bio] é uma organização que possui o propósito de criar
uma especicação para padronizar o desenvolvimento de interfaces para aplicações
biométricas.
A seguir, informações sobre algumas técnicas biométricas serão apresentadas.
Além das técnicas citadas abaixo, é possível que, num futuro próximo, aplicações
viáveis de outras técnicas sejam usadas comercialmente: odor, salinidade do corpo e
DNA.
2.2.1 Face
30
digital é suciente. Ainda assim, muitos usuários não se sentem à vontade ao saber
que estão sendo lmados. Porém, sistemas de reconhecimento de faces podem fa-
lhar quando os usuários alteram alguns atributos estéticos, tais como: mudanças de
corte ou cor do cabelo, uso de acessórios como véu, óculos, barba, bigode e chapéu.
Além desses fatores, outros podem inuenciar diretamente no desempenho do sis-
tema: iluminação, rotação e escala. Muito progresso está sendo notado na pesquisa
de reconhecimento de faces em ambientes controlados, nos quais a iluminação, a es-
cala e a posição são, praticamente, xos. Estudos mais consolidados precisam ser
produzidos no trato com imagens com diferentes níveis de iluminação, imagens rota-
cionadas e em diferentes escalas.
2.2.2 Assinatura
31
2.2.3 Impressão Digital
2.2.4 Voz
32
e físico (gripe, rouquidão) do usuário. Além disso, ruídos captados pelo microfone
podem levar o sistema a recusar um usuário legítimo.
2.2.5 Mão
Três grupos de informações biométricas que podem ser extraídas da mão estão em
voga atualmente na literatura: geometria da mão [SRSAGM00, KWSJ03], impressão
da palma [DJM02, HCLF03, KWSJ03] e veias do punho [IPK+ 01].
Comprimento e largura dos dedos, tamanho e área da palma da mão e compri-
mento da mão são características geométricas. Assim como a impressão digital, a
impressão da palma da mão oferece pontos delta e minúcias, além de três linhas
principais, chamadas de: linha do coração, linha da mente e linha da vida. Os pa-
drões das veias do punho são extraídos através de um dispositivo que não requer
contato, apenas uma "fotograa"da amostra é requerida. Esse atributo representa
uma vantagem em relação a outras biometrias.
Alguns trabalhos têm focado nessa área, com o intuito de preencher o espaço
não alcançado por outras tecnologias. Impressão digital é a técnica mais usada atu-
almente. Entretanto, é difícil capturar suas características relevantes em grupos de
pessoas que realizam trabalhos manuais em laboratórios e em pessoas idosas [KWSJ03].
Im et al. [IPK+ 01], implementaram um FPGA(Field Programmable Gate Array), de
baixo custo, que atingiu 99,45% de acerto, gastando apenas 150ms por pessoa para
fornecer a decisão. O banco de dados por eles usado continha informações de 10 mil
pessoas. Uma estratégia que unia características geométricas com a impressão da
palma da mão foi desenvolvida por Kumar et al. [KWSJ03].
2.2.6 Íris
A íris (parte colorida dos olhos) oferece uma imagem complexa que é única
em cada ser humano. Das técnicas biométricas mais difundidas, imagens da íris
encontram-se no grupo das que apresentam melhor precisão [JHP00, RSB01]. A
33
grande desvantagem desse tipo de abordagem reside no tipo de sensor utilizado. Atu-
almente, é necessário se aproximar bastante do dispositivo de captura, isso caracteriza
um método invasivo que se torna um incômodo para o usuário.
Além da necessidade da cooperação do usuário, o sistema de classicação de íris
é muito exigente, no que diz respeito à qualidade da imagem adquirida. Imagens de
baixa qualidade, íris com uma pupila muito grande ou não centralizada, são normal-
mente rejeitadas logo na aquisição [WTJ03].
2.2.7 Retina
34
do indivíduo. As características dentais mudam bastante durante a vida [JCM03].
O sistema vascular da face produz um padrão térmico único que emana através
da pele. Essas características podem ser observadas com uma câmera que capture
luz infravermelha.
A iluminação é uma desvantagem do sistema de reconhecimento de faces, que pode
ser sanada quando a temperatura da face é analisada, pois, uma câmera infravermelha
pode capturar informações mesmo na ausência de luz. Algumas desvantagens são:
dependência do estado emocional, alterações de temperatura devido a doenças, além
de dependência de rotação e de escala.
35
modalidade já está disponível nos computadores atuais, uma vez que apenas um
teclado é requerido.
Uma arquitetura básica de um sistema biométrico pode ser visualizada na Figura 2.2.
Basicamente, ela é composta de uma etapa de treinamento e uma etapa de uso. Na
etapa de treinamento, algumas amostras biométricas dos indivíduos são utilizadas
para criar uma representação que os denote. Na etapa de uso, o sistema treinado
utiliza a representação criada na etapa anterior para atribuir um valor verdade ao
indivíduo que está sob investigação.
Treinamento
Sensor Extração de
Biométrico Características Biométricas BD
Biometria
Uso
Verificação Aceita
Biométrica Recusa
Sensor Extração de
Biométrico Características Biométricas
Reconhecimento Lista de
Biométrico respostas
36
forma possível, os padrões. A Classicação de Padrões pode ser dividida em duas
classes menores: Vericação e Reconhecimento. Na Vericação, o padrão (usuário),
fornecido como entrada, é comparado com sua representação prévia, armazenada no
banco de dados (BD). A saída atesta se o usuário é autêntico ou não, isto é, se ele é
quem diz ser. Já no Reconhecimento, o objetivo é encontrar dentro do BD usuários
que se assemelhem bastante ao padrão de entrada. Uma lista de possíveis candidatos
é fornecida como saída. O trabalho de encontrar o candidato ideal é deixado para
uma fase posterior, que pode requerer intervenção humana ou não.
− Correta Aceitação
critério c − Correta Rejeição
− Falsa Aceitação
− Falsa Rejeição
Autêntico fau
Impostor fim
37
As regiões de decisão geradas por problemas de autenticação biométrica podem ser
visualizadas na Figura 2.3. As duas curvas modelam distribuições de probabilidade
de cada uma das classes, as quais não são completamente separadas. A abcissa
representa alguma métrica de similaridade. As duas curvas geram quatro regiões, que
são nomeadas da seguinte forma: Correta Aceitação (CA), Correta Rejeição (CR),
Falsa Aceitação (FA) e Falsa Rejeição (FR). CA e CR representam usuários autênticos
e impostores corretamente classicados, respectivamente. Os erros podem vir de duas
fontes: usuários impostores classicados como autênticos (FA) e usuários autênticos
classicados como impostores (FR).
A probabilidade de cada uma das quatro possíveis regiões é dada pela área abaixo
das suas distribuições de probabilidade sobre cada um dos lados gerados pelo critério
de decisão, Equações ., ., . e ..
Z c
P (CA) = fau (x) dx (.)
0
Z 1
P (CR) = fim (x) dx (.)
c
Z c
P (F A) = fim (x) dx (.)
0
Z 1
P (F R) = fau (x) dx (.)
c
38
Dependendo do tipo de aplicação, deve-se manipular o critério de decisão para
tornar o sistema mais permissivo a erros provocados por aceitar usuários impostores
ou não. Por exemplo: em um sistema de alta segurança militar, é mais indicado que,
na dúvida, não se conceda acesso a um dado usuário. Já em um sistema de acesso
a um computador pessoal em uma residência, pode ser mais vantajoso aceitar um
possível impostor do que impedir o acesso de um usuário autêntico.
Manipulando o critério de decisão c, mostrado nas Equações ., ., . e .,
é possível atingir 0%(zero) de erro de FA, basta rejeitar todos os usuários. Esse
procedimento gera um erro de 100% de FR. Da mesma forma, 0%(zero) de erro de
FR pode ser obtido, simplesmente, aceitando todos os candidatos. Entretanto, nesse
caso, o erro de FA pode atingir o patamar máximo de 100%.
Em meio discreto, o desempenho de um sistema biométrico é, freqüentemente,
medido por meio de duas taxas, que são expressas pelas seguintes equações:
λ1 × F RR + λ2 × F AR
Risco = , (.)
λ1 + λ2
λ1 e λ2 são constantes que denem a importância das taxas (FAR e FRR). Quando
λ1 e λ2 são iguais, a mesma relevância é dada para cada uma das taxas e a equação
de Risco associada recebe o nome de Half Total Error Rate (HTER). Sistemas que
necessitam de baixas taxas de Falsa Aceitação devem ter λ2 maior do que λ1 . A
39
minimização da FRR foi considerada mais importante, em usos práticos, do que a
minimização da FAR em trabalho realizado por Dieckmann et al. [UDW97], eles
usaram os seguintes valores: λ1 = 2 e λ2 = 1.
Outra medida comumente utilizada é a EER (Equal Error Rate) [Way99, Dau00],
na qual procura-se pelo ponto em que os erros, FRR e FAR, atingem valores iguais
ou bastante próximos. A curva ROC (Receiver Operating Characteristic ) também é
bastante usada para avaliar o desempenho de um sistema biométrico, ela representa
FRR como uma função do FAR [Way99, Dau00].
40
n
1X
limiarmed = (xi ), (.)
n i=1
sendo n o número de padrões de validação e xi é a resposta do classicador para o
i-ésimo padrão no conjunto de validação.
O cálculo do limiar pode ser realizado de duas formas: assumindo o mesmo valor
para todas as classes (limiar global) ou atribuindo limiares independentes para cada
classe (limiar local). A vantagem que pode ser observada na computação do limiar
global é que todo o conjunto de dados de validação é usado para encontrar um limiar
ótimo baseado em algum critério de minimização do erro. Isso é relevante pois, em
aplicações de biometria, o número de exemplos por classe, em geral, é limitado. En-
tretanto, nesse modelo, características inerentes a cada classe são perdidas. Usando
um limiar por classe, ou seja, cada classe é tratada individualmente, resultados melho-
res podem ser alcançados. Esse limiar local, dependente do usuário, torna-se mais
conável à medida que o número de amostras da população cresce.
Nesse trabalho, o limiar será calculado com base na distribuição t-Student [DeG89].
Uma maneira de estimar um parâmetro desconhecido é construir um intervalo de con-
ança que possua uma probabilidade igual a 1 − α (nível de conança) - sendo α o
nível de signicância. Esse valor indica a probabilidade de que o intervalo contenha
o verdadeiro parâmetro.
Para o cálculo do intervalo de conança, no caso em que o valor da variância
populacional é conhecida, supõe-se que a distribuição de dados é regida por uma
Normal. Todavia, se o desvio padrão é desconhecido, o mesmo precisa ser estimado.
Tendo uma amostra aleatória de tamanho n, o estimador para σ 2 é dado por:
n
1 X
S2 = (xi − x)2 , (.)
n − 1 i=1
sendo x a média dos padrões no conjunto de validação, xi o i-ésimo padrão nesse
mesmo conjunto, e S 2 a variância amostral.
Sabendo que S 2 também é uma variável aleatória, não se pode considerar que
tenha distribuição Normal, simplesmente. A distribuição t-Student (Equação .)
41
se adapta a essa circunstância, na qual a variância σ 2 é desconhecida, pois ela depende
do valor n, ou seja, do número de elementos da amostra. Uma amostra de tamanho
n possui n − 1 graus de liberdade. Essa distribuição é semelhante à distribuição
Normal, porém, menos "achatada". Quando n tende para o innito, a distribuição
de t-Student tende para a distribuição Normal. A Figura 2.4 mostra o gráco da
distribuição t-Student.
x−µ
t= q 2 , (.)
S
n
Para a construção de um intervalo de conança para µ com nível de conança
igual a 1 − α, utiliza-se a Equação ..
S S
P (x − t α2 √ < µ ≤ x + t α2 √ ) = 1 − α, (.)
n n
o valor de t α2 mostrado na Equação . e na Figura 2.4, para a distribuição t-Student,
é tabelado.
A Tabela 2.1 mostra quais modalidades biométricas têm sido usadas para compor
sistemas multibiométricos. Duas modalidades, uma física e uma comportamental,
42
têm dominado a maioria dos trabalhos, são elas: face e voz, respectivamente. Alguns
trabalhos usaram apenas características físicas [KMJS97, HJ98, JR02, RJ03, WTJ03,
KWSJ03]. Já trabalhos que combinassem apenas características comportamentais
não foram encontrados.
A motivação de compor técnicas biométricas possui o mesmo objetivo de combi-
nação de classicadores: agrupar as melhores funcionalidades de cada uma das partes.
Técnicas biométricas foram divididas em duas grandes categorias (Seção 2.2): físicas
e comportamentais. A união de uma técnica biométrica física (exemplo: face) com
uma técnica biométrica comportamental (exemplo: assinatura) pode conduzir a um
ganho de desempenho.
Brunelli e Falavigna [BF95] apresentaram um artigo, no qual um sistema de iden-
ticação pessoal multibiométrico foi usado. A resposta do sistema era dada por uma
combinação de cinco classicadores, dos quais dois eram baseados em características
vocais e três baseados em aspectos visuais da face, tais como: olhos, nariz e boca.
Porém, antes de realizar a classicação, as características de cada uma das modali-
dades biométricas foram submetidas a um processo de normalização, fundamentado
nos conceitos de robusts statistical. Para realizar os experimentos, dados de 89 pes-
soas foram colhidos em três seções. A primeira seção foi usada para treinamento, e
as outras duas para validar o sistema. Cada seção consistia de 82 iterações do indiví-
duo com o sistema. A taxa de classicação correta do sistema integrado foi de 98%.
Resultado que representa uma melhora signicativa em relação as taxas individuais
de acerto: 88% para voz e 91% para face.
Na mesma linha do trabalho desenvolvido por Brunelli, em 1996, Acheroy et
al. [ABB+ 96] desenvolveram um sistema de identicação baseado em voz e imagens
de faces. O banco de dados usado foi confeccionado pelos próprios autores e continha
37 classes com 5 imagens por classe. Durante a captura de cada face, o indivíduo
contava de 0 (zero) até 9 (nove), em sua língua nativa. O melhor resultado da
combinação das modalidades atingiu os seguintes erros: 2,0% de FRR e 2,72% de
FAR.
43
Trabalho Face Voz Impressão Digital Mão Movimento dos Lábios Íris Assinatura
N N
Brunelli e Falavigna [BF95]
N N
Acheroy et al. [ABB+ 96]
N N
Duc et al. [DBB+ 97, BBDF97]
N N N
Dieckmann et al. [UDW97]
N N
Jourlin et al. [JLGW97]
N
Kittler et al. [KMJS97]
N N
Kittler et al. [KHDM98]
N N
Hong e Jain [HJ98]
44
N N
Verlinde et al. [VCA00]
N N N
Jain et al. [JLK99]
N N N
Ross e Jain [JR02, RJ03]
N N
Sanderson e Paliwal [SP03c]
N N
Wang et al. [WTJ03]
N
Kumar et al. [KWSJ03]
N N
Cavalcanti e Filho [CF03b]
Tabela 2.1. Técnicas biométricas usadas em trabalhos recentes para a identicação pessoal multimodal em ambientes controlados
(apresentados em ordem cronológica).
Bigun et al. [BBDF97, DBB+ 97] desenvolveram um algoritmo, baseado na teoria
Bayesiana, que tinha por objetivo conciliar a saída de cada um dos classicadores
individuais na direção correta. A validação do framework ocorreu usando dados
reais do banco de dados M2VTS. Usando características da face e da voz, o sistema
melhorou a qualidade de cada classicador individual e atingiu taxa de acerto igual
a 99,5%. Também em 1997, Dieckmann et al. [UDW97] propuseram a combinação
de três características biométricas, duas delas dinâmicas: a voz e o movimento dos
lábios; e uma estática: a imagem da face. O banco de dados foi desenvolvido pelos
próprios autores e continha 15 pessoas. Os melhores resultados foram alcançados
combinando as modalidades pela votação 2-de-3: 0,2% de FRR e 0,3% de FAR.
Jourlin et al. [JLGW97] desenvolveram um sistema de vericação acústico-labial.
Tal sistema era composto de dois classicadores: um que usava características vi-
suais (movimento dos lábios) e outro que usava aspectos sonoros. O banco de dados
audiovisual M2TVS foi usado para a realização dos experimentos. O melhor resultado
foi encontrado após a combinação: 2,8% de FRR e 0,5% de FAR.
Kittler et al. [KMJS97, KHDM98] desenvolveram dois trabalhos sobre identi-
cação pessoal. No primeiro deles, diferentes informações foram extraídas apenas da
face do usuário: face e perl da face. Já no segundo trabalho [KHDM98], eles com-
binaram características da face com a voz, usando diferentes regras de combinação:
Produto, Média, Votação, Máximo e Mínimo. Os experimentos foram realizados so-
bre o banco de dados M2VTS e o melhor resultado encontrado, após a combinação,
foi de 0,7% de ERR. A combinação de duas técnicas biométricas baseadas em ima-
gens foi proposta por Hong e Jain [HJ98] em 1998. O sistema de identicação pessoal
proposto usava impressões digitais e faces. Três bancos de dados de faces foram usa-
dos, resultando num total de 86 pessoas, são eles: o banco de dados da Olivetti
(ORL [ORL]), o banco de dados da Universidade de Bern e o banco de dados do
MIT Media Lab. As impressões digitais provieram do banco de dados da Universi-
dade Estadual de Michigan, contendo 150 pessoas. O melhor resultado encontrado
foi 1,8% de FRR e 0,1% de FAR.
45
Verlinde et al. [VCA00] propuseram uma arquitetura geral, baseada na teoria de
Bayes, para resolver o problema de vericação pessoal multimodal. Duas modalidades
biométricas foram extraídas do banco de dados M2VTS: face e voz. O melhor resul-
tado da arquitetura proposta foi encontrado usando um modelo de regressão logística
e alcançou as seguintes taxas: 2,7% de FRR e 0,0% de FAR. No trabalho de Jain
et al. [JLK99], a composição de duas técnicas biométricas físicas (impressão digital
e face) com uma técnica comportamental (voz) foi implementada. Os experimentos
foram realizados a partir de um banco de dados adquirido no ambiente do labo-
ratório. Os sistemas de vericação pessoais multimodais, na sua maioria, adquirem
informações de ambientes bem controlados. Choudhury et al. [CCJA99] propuseram
uma forma de combinar imagens de vídeo com áudio sem restrições de aquisição. O
sistema admite que a imagem da face esteja rotacionada e que a voz apresente padrões
ruidosos. O sistema atingiu 0% de erro com um banco de dados de 26 pessoas.
Ross e Jain [JR02, RJ03] estudaram mecanismos para extrair parâmetros ine-
rentes a cada usuário com o intuito de compor um sistema multibiométrico usando
três características: impressão digital, face e geometria da mão.
Sanderson e Paliwal [SP03c] utilizam um sistema de vericação bimodal que com-
bina a fala (independente do texto) com a face. Os experimentos foram realizados
sobre o banco de dados VidTIMIT. As características foram extraídas usando PCA
(para a face) e Maximum Auto-Correlation Values (para a voz). Antes de realizar a
combinação das decisões dos classicadores, um processo de normalização foi usado.
A face é uma técnica biométrica "amigável"e não invasiva, enquanto que a íris
é uma das que consegue melhor desempenho. Wang et al. [WTJ03] construíram
um sistema que combina essas duas técnicas, através integração de decisão aplicada
à regra da soma ponderada. PCA é um algoritmo que encontra pontos críticos
de variações locais que foram usados para extrair características da face e da íris,
respectivamente.
A combinação de duas técnicas biométricas extraídas da mesma fonte foi estudada
por Kumar et al. [KWSJ03]. Eles usaram uma câmera digital para coletar 1000
46
imagens da mão de 100 pessoas. A parte central da palma da mão foi dividida em
144 blocos de tamanho 24x24 pontos. De cada um dos blocos, o desvio-padrão das
imagens em tons de cinza foi calculado. Dezessete características geométricas foram
calculadas, sendo elas: comprimento de cada um dos dedos (4 caracerísticas - exceto
o polegar), largura de cada um dos dedos (8 características - duas larguras por dedo,
exceto o polegar), comprimento e largura da palma, além da área e do tamanho da
mão. Os resultados alcançados usando a regra de combinação Máximo [KHDM98],
conseguiram melhores resultados do que o uso das técnicas isoladamente.
A primeira iniciativa de se combinar face com assinatura, diante do nosso conhe-
cimento, foi realizada por Cavalcanti e Carvalho Filho [CF03b]. Essas duas biome-
trias representam as técnicas com maior grau de aceitação social. A assinatura é
amplamente utilizada, em diversos documentos, como validação de autenticidade. Já
a foto do rosto é encontrada nos mais variados documentos de uso diário: identidade,
carteira de motorista e crachás. Características Estruturais e PCA foram usadas,
respectivamente, para capturar informações relevantes das assinaturas e das faces.
As duas modalidades foram submetidas ao mesmo classicador: Baseado em Distân-
cia. Após a classicação, os métodos de normalização propostos por Brunelli [BF95]
e por Sanderson [SP03c], foram utilizados. Os experimentos deram ligeira vantagem
ao segundo método de normalização e mostraram que a combinação melhorou o de-
sempenho do processo de vericação, quando comparado com o uso de apenas uma
modalidade por vez.
47
2.4.2.1 Integração de Dados A Figura 2.5 mostra um esquema para a inte-
gração de dados. Nesse modelo, a integração é realizada através da união das obser-
vações percebidas por diversos sensores, sendo usada apenas quando as observações
são do mesmo tipo.
BIOMETRIA 1
BIOMETRIA n
VETOR DE
DADOS
COMBINADO
48
EXTRAÇÃO DE
BIOMETRIA 1
CARACTERÍSTICAS
EXTRAÇÃO DE
BIOMETRIA 2 CLASSIFICADOR DECISÃO
CARACTERÍSTICAS
EXTRAÇÃO DE
BIOMETRIA n
CARACTERÍSTICAS
VETOR DE
CARACTERÍSTICAS
COMBINADO
49
EXTRAÇÃO DE
BIOMETRIA 1 CLASSIFICADOR
CARACTERÍSTICAS
SUPERVISOR
EXTRAÇÃO DE
BIOMETRIA 2 CLASSIFICADOR DECISÃO
CARACTERÍSTICAS
EXTRAÇÃO DE
BIOMETRIA n CLASSIFICADOR
CARACTERÍSTICAS
50
uma questão não trivial, que deve levar em consideração os recursos computacionais
disponíveis e características inerentes a cada um dos sensores.
As biometrias mostradas nas Figuras 2.5, 2.6 e 2.7 podem ser provenientes de dife-
rentes fontes biométricas (face, assinaturas, impressão digital), ou ainda, diferentes
observações da mesma característica biométrica, como nos trabalhos de Kittler et
al.[KMJS97] e de Kumar et al. [KWSJ03].
Alguns trabalhos mostraram vantagens quando decisões são combinadas. No tra-
balho de Kumar et al. [KWSJ03], a impressão da palma da mão foi combinada com
características geométricas da mão usando duas arquiteturas de combinação: carac-
terísticas e decisão. Os melhores resultados foram encontrados combinando decisões.
Os trabalhos desenvolvidos por Guimarães et al. [GMC02, GMC03] mostraram que
a combinação das respostas de três redes neurais podem melhorar os resultados da
predição de estruturas secundárias de proteínas através de decisão soft.
51
CAPÍTULO 3
MÉTODOS DE EXTRAÇÃO DE
CARACTERÍSTICAS E DE
CLASSIFICAÇÃO DE PADRÕES
3.1 INTRODUÇÃO
52
consigam eliminar apenas informações que possuam pouca importância no conjunto
da imagem.
O processo de extração de características está intimamente ligado à fase de classi-
cação, já que, em geral, um bom conjunto de características irá propiciar uma alta
taxa de classicação correta.
Na Seção 3.2, será apresentado o método de extração de características aplicado
à face: a transformada de Karhunen-Loève, também conhecida como PCA (Análise
dos Componentes Principais - Principal Component Analysis). Os métodos de ex-
tração de características aplicados às assinaturas são mostrados na Seção 3.3, são eles:
Pseudo-dinâmicos, Estruturais e Invariantes. Já os classicadores estão descritos na
Seção 3.4.
53
ampla gama de aplicações: Predição de Estrutura Secundária de Proteínas [MCG03a,
MCG04], Reconhecimento Automático de Alvos [SVCA98, VAF+ 99], Reconhecimento
de Caracteres, Reconhecimento de Faces [KS90, BHK97, ZCP99, MK01, CF03a], Re-
dução de Ruído, Compressão de Dados, Visualização de Dados Multidimensionais.
Um método usado para encontrar os autovetores e os autovalores da matriz de
covariância (Σ), de uma matriz com n vetores e p dimensões, é através da diagona-
lização direta de Σ. Esse método é extremamente custoso, principalmente quando
dados multidimensionais são usados, o número de operações é da ordem de O(n3 ).
Para superar esse problema, Roweis [Row98] apresentou um algoritmo baseado no
algoritmo Expectation-Maximization (EM) para aprender os componentes principais
de dados multivariados. Para esse algoritmo EM, não é necessário o cálculo da ma-
triz de covariância e sua complexidade está limitada a O(knp) operações, sendo k o
número de autovetores. O algoritmo é dividido em duas partes:
• (expectation) − X = (C T C)−1 C T Y
54
alta, foi preciso transformar essas matrizes para alguma outra representação antes de
apresentá-las a um classicador. Essa nova representação tem o objetivo, não só, de
diminuir a dimensão dos dados de entrada, como também, gerar uma representação
que realmente modele os dados originais. Essa tarefa é realizada por métodos de
extração de características.
Para cada uma das assinaturas, foi extraído um conjunto de 37 características que
pertencem a três técnicas diferentes: técnicas pseudo-dinâmicas, técnicas estruturais
e técnicas invariantes.
255, if I(i,j) ≥ THP
Ihp = (.)
0, caso contrário
Na qual I é a imagem original, Ihp é a imagem que contém apenas regiões de
alta pressão e THP (Threshold of High Pressure ) é o limiar de alta pressão. O valor
do THP é denido, adaptativamente, a partir do histograma da assinatura. O THP
será o nível de cinza, cuja quantidade de pixels com tonalidade menor ou igual a ele,
corresponda a 0,7 do número de pixels do nível de cinza com maior quantidade de
pontos na imagem, ou seja, o ponto 0,7 no histograma acumulado normalizado da
55
assinatura [AYF86]. A Figura 3.1 ilustra o ponto correspondente ao THP.
Frequencia
Acumulada
1.0
0.7
O limiar de alta pressão, isto é, o THP foi explicado acima. A pressão máxima
exercida correspondente ao menor tom de cinza encontrado. Quanto mais próximo
de zero, mais escuro o traço, o que representa maior pressão exercida. A faixa
dinâmica da pressão, ou seja, o tom de cinza máximo, menos o tom de cinza mínimo,
representa a característica Mínima-Máxima. A área de alta pressão é dada por um
valor correspondente à área da imagem de HPR, isto é, o número de pixels pretos da
imagem contendo apenas HPRs. Já o fator de pressão corresponde à razão entre a
área da imagem de alta pressão e área da imagem binária completa.
56
P(i-1,j+1) é classicado como negativamente inclinado (NI). O número de pontos
PI, dividido pelo número de pixels da imagem, gera o fator de inclinação positiva
da imagem. Da mesma forma, podem ser obtidos os fatores de inclinação negativa e
inclinação vertical da imagem.
Z +∞ Z +∞
mpq = xp y q f (x, y)dxdy (.)
−∞ −∞
m−1
X n−1
X
mpq = xp y q f (x, y) (.)
x=0 y=0
Para uma imagem digital com apenas dois níveis (0 e 1), os momentos permitem
57
denir algumas propriedades, como, por exemplo: (i) O momento de ordem 0, m00 ,
representa a área total do objeto; (ii) Os momentos de ordem 1, m01 e m10 , são
m10
utilizados para calcular o centro de massa (xg , yg ) da imagem. Sendo: xg = m00
e
m01
yg = m00
. Se o objeto for posicionado de forma que seu centro de massa coincida
com a origem do sistema de coordenadas, então cada valor de momento computado
é chamado de Momento Central ., µpq .
m−1
X n−1
X
µpq = (x − xg )p (y − yg )q f (x, y) (.)
x=0 y=0
c p+q
ηpq = γ , γ = +1 (.)
µ00 2
58
M7 = (η30 − 3η12 )(η30 + η12 )[3(η30 + η12 )2 − (η21 + η03 )2 ] +
√
M2
β1 = (.)
M1
M3 µ00
β2 = (.)
M1 M2
M4
β3 = (.)
M3
√
M5
β4 = (.)
M4
M6
β5 = (.)
M1 M4
A raiz quadrada extraída no cálculo da momento β1 não levará a problemas, já
que M2 será um valor positivo. Entretanto, será usado o valor absoluto do quinto mo-
mento de Hu, M5 , pois provar que seu valor será sempre positivo é não trivial [Dor01].
59
Suk [FS93]. Seis momentos invariantes serão usados nos experimentos desse trabalho,
são eles:
1
F1 = (µ20 µ02 − µ211 ) (.)
µ400
1 2 2
F2 = 10
(µ30 µ03 − 6µ30 µ21 µ12 µ03 + 4µ30 µ312 + 4µ03 µ321 − 3µ321 µ212 ) (.)
µ00
1
F3 = (µ20 (µ21 µ03 − µ212 ) − µ11 (µ30 µ03 − µ21 µ12 ) + µ02 (µ30 µ12 − µ221 ) (.)
µ700
1 2 2
F4 = (µ12 µ12 − 6µ220 µ11 µ12 µ03 − 6µ220 µ02 µ21 µ03 + 9µ220 µ02 µ212 + 12µ211 µ20 µ21 µ03 +
µ11
00
= 6µ20 µ11 µ02 µ30 µ03 − 18µ20 µ11 µ02 µ21 µ12 − 8µ211 µ30 µ03 − 6µ20 µ202 µ30 µ12 +
= 9µ20 µ202 µ221 + 12µ211 µ02 µ30 µ12 − 6µ11 µ202 µ30 µ21 + µ302 µ230 ) (.)
1
F5 = (µ40 µ04 − 4µ31 µ12 + 3µ222 ) (.)
µ600
1
F6 = (µ40 µ04 µ22 + 2µ31 µ22 µ12 − µ40 µ212 − µ04 µ231 − µ322 ) (.)
µ900
q
S1 = (m20 − m01 )2 + 4m211 (.)
60
resultado dos momentos de Legrend não foram satisfatórios, ao contrário dos resulta-
dos obtidos pelas outras técnicas. Sendo assim, os autores sugeriram que os valores
de momento obtidos por diferentes técnicas fossem utilizados em conjunto para a re-
solução de problemas difíceis de reconhecimento de padrão. Esta é uma abordagem
que será investigada e discutida na fase experimental.
3.4 CLASSIFICAÇÃO
Nas seções a seguir, métodos de classicação usados nesse trabalho são descritos.
Maiores detalhes sobre essas técnicas podem ser encontrados em [DHS01, Hay01,
JDM00, Bis95].
P (X|C)P (C)
P (C|X) = (.)
P (X)
A regra de decisão de Bayes pode ser simplicada usando a maximum a posteriori
rule (MAP), que assinala o padrão de entrada x para a classe Ci se
61
mais aplicada é baseada na distribuição normal ou Gaussiana, ela precisa de ape-
nas dois parâmetros: média e matriz de covariância, como pode ser observado na
Equação ..
1 1
yk (x) = − (x − µk )T Σ−1
k (x − µk ) − ln|Σk | + lnP (Ck ) (.)
2 2
A regra de classicação, dada pela Equação ., representa um discriminante
quadrático e assinala o vetor de entrada x para a classe Ci se yi (x) > yj (x) para todo
i 6= j .
Um caso importante ocorre quando se assume que todas as classes possuem co-
variâncias iguais, Sk = S . Essa simplicação transforma o discriminante quadrático
em linear, isto porque o termo quadrático, associado à Equação ., é eliminado. A
função do discriminante linear pode ser escrita como mostrado na Equação ..
sendo
62
Entretanto, é necessário um conjunto de padrões de treinamento para que o método
funcione [DHS01].
Essa distância é, normalmente, calculada por duas medidas: euclidiana e Maha-
lanobis, como mostrado nas Equações . e ., respectivamente.
n
1X
centróide(k) = xi , (.)
n i=1
n representa o número de padrões no conjunto de treinamento, k o índice da classe
e x o conjunto de características que representa um padrão.
O classicador Cross-correlation normalizado (Equação .) faz uso do centróide
para vericar qual classe possui maior grau de similaridade com o padrão desco-
nhecido.
Pm 1
i=1 σ 2 · centróide(k)m · xm
CC = qP Pm 1 , (.)
m 1
i=1 σ 2 · centróide(k)m ·
2 · x2m
i=1 σ 2
63
m representa o número de características do padrão x e, σ 2 é o fator de normaliza-
ção que possui o objetivo de melhorar a performace do classicador, aumentando a
inuência de características mais conáveis.
64
CAPÍTULO 4
CLASSIFICAÇÃO DE FACES
4.1 INTRODUÇÃO
65
Figura 4.1: Exemplos de imagens utilizadas por sistemas fechados de classicação de
faces, extraídas do banco de dados da ORL.
Figura 4.2: Sistemas abertos de classicação de faces tratam com imagens dessa
natureza. Exemplos de detecção de faces extraídos do artigo de Schneiderman e
Kanade [SK00].
66
máquinas bancárias). Basicamente, todas as aplicações que realizam identicação
pessoal são potenciais aplicações de classicação de faces.
Uma arquitetura geral de um sistema de classicação de faces é constituída de
quatro fases: aquisição, detecção, extração de características e classicação. Na fase
de aquisição, uma câmera poderá ser utilizada para digitalizar uma cena do ambiente.
Essa cena poderia conter diversas faces, assim, o esforço seguinte seria o de encontrar
as faces que formam a cena. Essa etapa é denominada detecção de faces. Muitos dos
pontos que formam a face não oferecem informação relevante para os propósitos da
classicação. Dessa forma, encontrar um novo conjunto de variáveis que represente a
face concisamente, sem perder o poder de discriminação, é de essencial importância.
Esse é o serviço da fase de extração de características. Por m, esse novo conjunto de
variáveis será dado como entrada para um classicador, o qual fornecerá a provável
classe da face.
Muitos trabalhos que serão descritos na seção a seguir ignoram a tarefa de de-
tecção e propõem soluções para o problema de classicação de faces frontais ou de
perl, sem se preocuparem com faces rotacionadas e mudança de escala. Esse tam-
bém será o foco dos experimentos realizados nesse trabalho.
Entretanto, vale salientar que detecção de faces pode ser caracterizada como uma
tarefa de encontrar faces (caso exista alguma) em uma imagem de vídeo ou em uma
fotograa digitalizada. Ela representa uma área bastante ativa que possui bastante
espaço para pesquisa, por isso, nos últimos anos muitas pesquisas foram realizadas
a m de obter soluções para esse problema [RBK98]. Tal fato deve-se a uma grande
variedade de aplicações para essa tecnologia. Sistemas de reconhecimento de faces
usam a detecção de faces como uma fase de pré-processamento, objetivando realizar
identicação biométrica. Sistemas de recuperação de imagens (image retrieval) po-
dem se valer dessa tecnologia com o propósito de procurar imagens na Internet,
como exemplo, pode-se citar um engenho de busca (WebSeer [SFA97]) que usa o
sistema de detecção de faces, baseado em redes neurais, desenvolvido por Rowley et
al. [RBK98]. Utilizando esse mesmo princípio, outras aplicações podem ser vislum-
67
bradas, tais como, indexação de imagens e banco de dados de vídeos. Em sistemas de
vídeo conferência, faz-se necessário ajustar a câmera automaticamente a partir dos
movimentos do interlocutor para manter o foco. Essa movimentação automática da
câmera poderá ser aplicada também em sistemas de interfaces inteligentes, a m de
facilitar a iteração humano-máquina. Uma referência interessante sobre o estado da
arte de detecção de faces foi desenvolvida por Hjelmas e Low [HL01]. Dois artigos,
que fazem um apanhado da área de classicação de faces, podem ser tomados como
referência para a obtenção de maiores informações, são eles: Samal et al. [SI92] e
Chellappa et al. [CWS95].
68
transformada de Gabor em partes da imagem [LWvdM97]. Não uniformidade na
iluminação e no fundo da imagem pode levar a imperfeições no processo de extração
de características ao usar essa técnica.
Uma alternativa a esses métodos seria tratar a imagem da face completa, ou seja,
trabalhar com todos os pontos que formam a face. O objetivo desses métodos é
encontrar uma nova representação das faces, em uma dimensão inferior da original,
mas que mantenha as informações relevantes. Algumas alternativas surgem como
solução para esse problema: PCA [KS90, BHK97, MK01, CF03a], LDA [BHK97,
SW96, MK01], ICA [BS98, MCG03b], Redes Neurais [LKL97, LGTB97, RBK98] e
Wavelets [CW02].
z1 z2 z3
z4 z5 z6
z7 z8 z9
−1 −2 −1 −1 0 1
0 0 0 −2 0 2
1 2 1 −1 0 1
69
Sobel. Após inspeção visual, foi vericado que dos três operadores, o de Sobel apre-
sentou resultados interessantes no trato com imagens de faces. Mesmo sabendo que
uma das características do operador laplaciano é ser invariante à rotação, o mesmo
apresenta uma desvantagem: é bastante sensível ao ruído.
(a) (b)
(c) (d)
Figura 4.3: Exemplo de detecção de bordas em uma face usando o operador de Sobel.
(a) Imagem original. (b) Bordas Verticais e Horizontais. (c) Bordas Verticais. (d)
Bordas Horizontais.
70
(a)
30
25
20
15
10
0
0 50 100 150
(b)
Figura 4.4: (a) Figura 4.3(c). (b) Projeção vertical dessa gura.
180
160
140
120
100
80
60
40
20
0
0 10 20 30
(a) (b)
Figura 4.5: (a) Figura 4.3(d). (b) Projeção horizontal dessa gura.
A projeção de uma imagem binária pode ser obtida a partir das somas dos pixels
em uma das seguintes direções: horizontal ou vertical. Na Figura 4.4, observa-se
que, ao utilizar a projeção vertical, é possível encontrar picos referentes aos limites
esquerdo e direito da face. Dessa maneira, podem-se eliminar informações pouco úteis
71
para ns de classicação. Já na Figura 4.5, através dos pontos de máximo da projeção
horizontal, torna-se possível encontrar regiões de bastante interesse, como os olhos e a
boca. Esse tipo de estratégia funciona bem para imagens que estejam centralizadas
e com pouca rotação. Imagens cujos olhos ou a boca não estejam alinhados na
horizontal, faz-se necessário uma correção antes da aplicação desse procedimento.
Conclui-se que essa estratégia simples para encontrar regiões de interesse em faces,
usando detectores de bordas, encontra sucesso em ambientes controlados, nos quais
a iluminação é uniforme e as imagens das faces estão centralizadas e com pouca
rotação.
72
aplicação do extrator de características PCA para o reconhecimento de faces tem
obtido sucesso em muitos trabalhos [SH94, LGTB97].
A Análise dos Componentes Principais (PCA - Principal Component Analysis )
ou transformada de Karhunen-Loève é uma técnica de redução de dimensionalidade
bastante empregada para a análise de dados. Ela é ótima, em termos da minimização
do erro quadrado médio, a m de comprimir um conjunto de dados. Compressão e
descompressão são operações simples de realizar, dados os parâmetros do modelo.
Além disso, as variáveis não são eliminadas. Novas variáveis são calculadas a partir
das variáveis originais, otimizando-as.
PCA pode ser resumida como um método para transformar as variáveis origi-
nais em novas variáveis não-correlacionadas. O primeiro passo é computar a média
dos vetores e, em seguida, subtrair essa média dos dados originais. Após esse pro-
cedimento, a matriz de covariância é calculada e seus autovalores e autovetores são
encontrados. Os autovetores correspondentes aos maiores autovalores são mantidos,
enquanto que e o vetor de entrada é projetado sobre esses autovetores gerando, assim,
as componentes principais [JW92]. Dessa forma, cada componente principal é uma
combinação linear das variáveis originais.
Componentes Principais de cada uma das bandas são agrupados com o objetivo de
formar um vetor de características (eigenband vector ), como mostrado na Figura 4.7.
Esse vetor resultante é calculado para cada padrão e será usado como entrada pelo
classicador tanto para a fase de treinamento, quanto para a fase de teste.
A estratégia de quebrar a imagem em subimagens ajuda o sistema, pois minimiza
o esforço computacional para calcular a transformada PCA. Uma vez que PCA é
aplicado sobre uma banda por vez, a imagem completa não é analisada. Além disso,
sabendo que cada banda está associada a uma característica facial, um algoritmo
para extrair essas partes não é mais necessário. Reunir as melhores informações
(componentes principais) de cada uma das bandas poderá melhorar a taxa de acerto
do sistema de reconhecimento de faces.
O objetivo da extração de características usando PCA é, principalmente, diminuir
73
Vetor de
CARACTERÍSTICAS
Características
EXTRAÇÃO DE
PCA 1
PCA 2
PCA 3
PCA 4
74
4.2.1 Resultados Experimentais
4.2.1.1 Bandas Horizontais Conforme mostrado na Figura 4.6, cada face foi
dividida em quatro bandas horizontais. O primeiro passo foi a análise do poder
de classicação de cada uma das bandas individualmente. Os resultados, usando o
classicador Bayesiano, podem ser observados na Figura 4.9.
É possível atribuir semântica a cada uma das bandas. Observando para cada
banda horizontal individualmente, verica-se que a Banda 1 é responsável pelo ca-
belo e por uma fração da testa do usuário em praticamente todas as faces. Uma
porção abaixo dos olhos e acima da boca, incluindo o nariz, pode ser encontrada na
imagem referente a Banda 3. Devido à pequena variação na posição e na escala, a
Banda 2 é responsável pela região dos olhos, que é notoriamente uma região bas-
75
Avaliaçao do Desempenho das Bandas Horizontais
100
90
80
70
Taxa de Acerto (%)
60
50
40
30
Banda 1
20 Banda 2
Banda 3
10 Banda 4
0
1 2 4 8 16 32 64 128
Numero de Caracteristicas
76
número de componentes removidos de cada banda pode diferir, dando mais relevân-
cia as bandas mais informativas.
# de Componentes (Banda 1) 6 4 3
# de Componentes (Banda 2) 24 17 12
# de Componentes (Banda 3) 29 21 15
# de Componentes (Banda 4) 21 15 11
# Total de Componentes 80 57 41
Taxa de Acerto (Classicador Bayesiano) 96,5% 96,5% 95,0%
4.2.1.2 Bandas Verticais Nessa seção, cada face é dividida em quatro bandas
verticais. Na Figura 4.10, poderá ser vista a avaliação do desempenho de cada
uma das bandas verticais usando o classicador Bayesiano. Na média, os resultados
encontrados com as bandas verticais se mantiveram estáveis, isto é, nenhum resultado
foi substancialmente melhor do que os outros. A Banda 1 obteve 88% de taxa de
acerto usando 32 componentes principais. Nos experimentos realizados, os resultados
das bandas verticais foram superiores aos encontrados com as bandas horizontais.
Devido à simetria da face, esperava-se que as Bandas 1 e 4, e as Bandas 2 e 3,
77
Avaliaçao do Desempenho das Bandas Verticais
100
90
80
70
Taxa de Acerto (%)
60
50
40
30
Banda 1
20 Banda 2
Banda 3
10 Banda 4
0
1 2 4 8 16 32 64 128
Numero de Caracteristicas
# de Componentes (Banda 1) 23 16 12
# de Componentes (Banda 2) 20 14 11
# de Componentes (Banda 3) 18 13 9
# de Componentes (Banda 4) 19 13 10
# Total de Componentes 80 56 42
Taxa de Acerto (Classicador Bayesiano) 95,0% 95,0% 97,5%
78
Classicador Taxa de Erro (%)
HMM [SH94] 13,0
PDBNN [LKL97] 4,0
waveletfaces +NFC [CW02] 3,9
SOM+CN [LGTB97] 3,8
(Eigenbands Fusion ) [CF03a] 2,5
Tabela 4.4. Taxas de erros sobre o conjunto de teste do banco de dados de faces ORL.
que foi encontrado quando 30% da variância foi descartada. Essa conguração obteve
97,5% de classicação correta, isto é, apenas cinco padrões (2,5% de erro) de um uni-
verso de duzentos padrões, foram incorretamente classicados. O número de com-
ponentes principais usado foi de 42. Esse número reside no intervalo entre 32 e 64
componentes principais, o qual obteve os melhores resultados nos experimentos ante-
riores. Além disso, quarenta (40) componentes principais têm sido usados como um
número ideal em outros trabalhos [SH94, BHK97, SP03c]. A estratégia de combinar
características das bandas alcançou resultado melhor do que métodos anteriores so-
bre o mesmo banco de dados (banco de dados de faces da ORL) - ver Tabela 4.4 para
comparação.
79
de cinza e com resolução de 92x112 (10.304 pontos por imagens). Por motivo de
compatibilidade com os experimentos de combinação biométrica, apenas 12 imagens
por pessoa foram selecionadas do banco de dados da UMIST. Os usuários autênticos
foram representados pelo banco de dados da UMIST e os impostores pelo banco da
ORL.
Para facilitar a interpretação dos resultados, a Equação . foi usada com dife-
rentes valores para λ1 e λ2 . As colunas mostradas nas tabelas, com resultados nas
próximas seções, intituladas R1, R2 e R3, usam, respectivamente os seguintes valo-
res para λ1 e λ2 : 2 e 1; 1 e 1; e 1 e 2. R1 condiz com um sistema que está mais
preocupado em reduzir o erro por não permitir o acesso de um usuário autêntico,
enquanto que R3 procura minimizar o erro provocado pela permissão de acesso a
usuários impostores. R2 atribui a mesma importância aos dois tipos de erro: FRR e
FAR.
O classicador usado nos experimentos foi o Baseado em Distância. Na Seção 4.3.1,
serão apresentados os resultados dos experimentos usando PCA sobre a face com-
pleta. Por sua vez, a Seção 4.3.2 trará os resultados obtidos usando as eigenbands
verticais e horizontais.
80
o número de padrões de treinamento por classe é pequeno [MK01]. Isso se aplica
à situação que está sendo tratada aqui, já que, normalmente, no desenvolvimento
de aplicações práticas de sistemas biométricos é comum se terem poucas amostras
por classe para a construção do mesmo. Nos experimentos realizados nessa seção, o
número de componentes principais utilizado foi 40 (baseado em [BHK97]). As eigen-
faces, características extraídas das faces usando PCA, são usadas comercialmente
pela empresa Viisage Technology1 , em seu software de reconhecimento e vericação
de faces.
Tabela 4.5. Vericação das faces completas (eigenfaces) usando o banco de dados da
UMIST para representar usuários autênticos e o banco de dados da ORL para representar
usuários impostores.
81
4.3.2 Eigenbands Fusion
A vericação de faces será apresentada nessa seção com base nos experimentos
realizados por Cavalcanti et al. [CF03a] para o reconhecimento de faces. Neste tra-
balho, mostrou-se que, ao tratar faces frontais com pouca variação na posição, escala
e rotação, dividir a face em bandas horizontais e verticais pode melhorar o desem-
penho do sistema como um todo. Esses experimentos de reconhecimento de faces
estão reportados na Seção 4.2.
O estudo realizado nessa seção mostra que a divisão de faces em bandas e, sua pos-
terior combinação, melhora o desempenho de sistemas de vericação de faces. Para
efeito de comparação, os mesmos bancos de dados que foram usados nos experimentos
anteriores, Seção 4.3.1, são adotados aqui.
Alguns testes iniciais mostraram que, com uma perda de variância de 20%, a soma
dos componentes principais das quatro bandas, sejam elas horizontais ou verticais,
resultava num total aproximado de 40 componentes principais. Esse número parece
ser ideal, tanto é que em vários trabalhos, esse número foi adotado para representar
faces [SH94, BHK97, SP03c].
As Tabelas 4.6 e 4.7 mostram os resultados obtidos pela combinação das bandas
horizontais e verticais, respectivamente. Mais uma vez, o limiar de cada uma das
classes foi calculado pela distribuição t-Student, adotando um intervalo de conança
de 99%(α = 0, 01).
Tabela 4.6. Resultados obtidos com as Bandas Horizontais (o banco de dados da UMIST
para representar usuários autênticos e o banco de dados da ORL para representar usuários
impostores).
82
superiores aos encontrados usando PCA sobre as faces completas. As taxas R2 das
bandas horizontais e verticais foram, respectivamente, iguais a 2,64% e 3,69%. Esses
resultados foram melhores do que o obtido usando as faces completas que foi de
6,99%.
Uma pequena vantagem foi notada para a composição de bandas horizontais de
aproximadamente uma unidade percentual de erro. O número médio de componentes
principais por banda horizontal foi de: Banda 1 - 7,50, Banda 2 - 14,20, Banda 3 -
14,19 a Banda 4 - 10,95. Já o número médio de componentes principais por banda
vertical foi de: Banda 1 - 11,90, Banda 2 - 9,58, Banda 3 - 13,17 a Banda 4 - 13,18.
Tabela 4.7. Resultados obtidos com as Bandas Verticais (o banco de dados da UMIST
para representar usuários autênticos e o banco de dados da ORL para representar usuários
impostores).
83
4.4 ALGUNS EXPERIMENTOS COM O BANCO DE FACES DA IIS
84
dos de forma que os padrões de entrada são copiados na saída. Para cada padrão, o
critério de vericação é baseado na distância Euclidiana entre os padrões de entrada
e as saídas fornecidas pela rede. Para tanto, dado um limiar (threshold ) t, um padrão
x é aceito, se e somente se |f (x) − x| ≤ t. A idéia básica é que apenas os padrões
da classe usados para treinar o auto-associador sejam reproduzidos com precisão su-
ciente na camada de saída. Isso pode ser demonstrado, visto que essa estratégia
sempre constrói regiões fechadas de separação [GLS96].
Há duas maneiras de calcular o limiar: global ou local. Na abordagem global,
existe apenas um limiar t para todas as n classes, ti = t, i = 1, 2, . . . , n. Por outro
lado, na abordagem local, existe um limiar para cada classe. Nos experimentos
mostrados a seguir, a abordagem local foi escolhida, logo, foi calculado um limiar
por classe utilizando a seguinte equação: tmax = Max(x1 , x2 , . . . , xk ), sabendo que xk
são padrões que pertencem ao conjunto de validação.
85
(a) Classe 18.
Para cada pessoa, foram selecionadas 10 imagens como referência, outras 10 ima-
gens foram usadas para testar e o restante, 10 imagens foram utilizadas para vali-
dação. Além da conguração previamente apresentada, outra foi testada, na qual
foi usada a seguinte divisão: 10 imagens para treinar, 15 imagens para testar e 5
imagens para validar. Para cada uma das classes, as faces falsas foram representadas
por todas as outras faces do banco de dados que não pertenciam a classe original.
Desta forma, um total de 2970 (99 classes * 30 imagens por classe) faces foram usa-
das como impostores por classe. O número de amostras de treinamento foi de 1000
nas duas congurações. As imagens para treino, teste e validação foram selecionadas
aleatoriamente do banco de faces da IIS para cada uma das rodadas em que o sistema
foi testado.
Na Tabela 4.8, são mostrados os resultados encontrados, usando a abordagem
86
tradicional de eigenfaces com 5, 7 e 9 neurônios na camada intermediária e duas
congurações diferentes para os números de amostras para treinar, testar e validar o
sistema. Com 40 componentes principais, o melhor resultado encontrado foi 8.86%
de HTER.
Na Tabela 4.9, é possível ver os resultados após a composição dos melhores com-
ponentes (em termos de variância) de cada uma das bandas com 35% de perda de
variância. Na média, o número de componentes principais foi de: 43, sendo 7 da
Banda1, 14 da Banda2, 15 da Banda3 e 7 da Banda4. Sabe-se que regiões como os
olhos, o nariz e a boca fornecem informações interessantes para propósitos de discri-
minação de faces. Na grande maioria das vezes, essas regiões estavam localizadas nas
Bandas 2 e 3. Assim, conforme esperado, as bandas horizontais 1 e 4 foram menos
importantes. Isso mostra que a estratégia das eigenbands atribui mais importância
as regiões mais informativas, pois cada banda pode gerar um número diferente de
componentes principais para compor o vetor de características.
O melhor resultado usando as eigenbands foi encontrado com 7 neurônios na
camada intermediária e um vetor de características com 43 componentes principais:
6.42% de HTER. Na média, essa taxa foi 2.5% melhor do que o melhor resultado
encontrado sem a fusão das eigenbands.
87
NUI NTrTeVa FR FA HTER
Tabela 4.9. Avaliação do desempenho após a combinação das bandas horizontais. NUI:
Número de Unidades Intermediárias. NTrTeVa: Número de amostras de Treino, Teste e
Validação.
88
combinação das eigenbands.
H 0 : µ1 = µ 2
H 1 : µ1 > µ 2
Valor calculado para a variável de teste decisão
2.4381 Rejeita
89
CAPÍTULO 5
VERIFICAÇÃO DE
ASSINATURAS
5.1 INTRODUÇÃO
90
Vericação automática de assinaturas pode ser implementada em sistemas, nos
quais assinaturas já são usadas: cheques, boletos de cartões, contratos, acesso a docu-
mentos, entre outros. À medida que dispositivos digitais de captura de assinatura
(mesa digitalizadora) forem incorporados a pontos-de-venda e outros locais, o uso
dessa biometria terá um crescimento signicativo.
Uma assinatura pode ser considerada um caso particular de um manuscrito que
contém caracteres especiais e desenhos, muitas vezes com signicado apenas para o
autor. Porém, o ato de assinar aglomera informações sucientes para discernir o autor
da assinatura de prováveis fraudadores. Esse processo de identicação pode utilizar,
basicamente, duas fontes de informação: o-line e on-line. Em sistemas de vericação
de assinaturas o-line, a imagem da assinatura é, normalmente, capturada através
de um scanner ou de uma câmera, e apenas as características que formam a estrutura
da assinatura são analisadas. A forma on-line captura informações dinâmicas, tais
como: velocidade, pressão e intervalo de tempo em que a caneta não toca a mesa,
isso torna o processo decisório do sistema uma tarefa mais fácil do que no caso o-
line. Um ganho de desempenho pode ser obtido a partir da utilização tanto das
informações estáticas, quanto das informações dinâmicas.
O banco de dados de assinaturas, desenvolvido por Dória [Dor01], foi usado nesse
trabalho e é descrito a seguir. Para capturar as imagem, foi utilizado um formulário
que comporta vinte espaços para as assinaturas de um usuário. Esses espaços não
são do mesmo tamanho, eles foram divididos da seguinte forma: quatro espaços
pequenos, doze espaços médios e quatro espaços grandes. As áreas de cada espaço
são, respectivamente, Pequeno (7,0cm x 1,0cm), Médio (8,0cm x 2,0cm) e Grande
(9,5cm x 4,0cm). As dimensões dessas áreas foram inspiradas em casos práticos
vividos diariamente por um cidadão brasileiro. Os espaços pequenos representam
a área para um usuário assinar um comprovante de cartão de crédito, os espaços
91
de tamanho médio são alusões à área destinada a assinaturas em um cheque e os
espaços grandes são representações de áreas associadas a assinaturas de contratos.
Foram colhidas assinaturas de vinte voluntários. Cada um deles representa uma
classe, dando um total de 20 classes.
Autênticas
Pequena
Média
Grande
Falsas
Simples Habilidosa
Os formulários foram digitalizados com 150dpi (dots per inch - pontos por pole-
gada) de resolução. Após a digitalização, todas as assinaturas, de cada formulário,
foram segmentadas, tiveram suas características extraídas e armazenadas em um
banco de dados.
Sabendo que, para cada classe, estão disponíveis vinte assinaturas, o conjunto de
dados foi dividido da seguinte maneira: oito assinaturas médias por classe foram usa-
das para o treinamento, o restante, quatro médias, quatro pequenas e quatro grandes,
foram usadas para teste. Este procedimento gerou um total de 160 assinaturas para
treinamento e 240 para teste, sendo 80 pequenas, 80 médias e 80 grandes. O pequeno
número de exemplares por classe para a realização do treinamento é uma realidade
inerente ao problema de classicação de assinaturas.
92
Além das assinaturas genuínas, foram gerados dois conjuntos de assinaturas fal-
sas: simples e habilidosas. Na produção das falsas simples, o falsicador não tinha
acesso às assinaturas verdadeiras, enquanto que, na geração das falsas habilidosas,
foi apresentada para o falsicador a assinatura que se desejava reproduzir. Para cada
classe, foram geradas 10 assinaturas falsas simples e 10 assinaturas falsas habilidosas.
O espaço no formulário, para as assinaturas falsas foi do mesmo tamanho fornecido
para as assinaturas de tamanho médio, tornando o problema mais difícil, pois é a
mesma dimensão usada para treinar os classicadores. Esse procedimento gerou um
total de 200 assinaturas falsas simples e 200 assinaturas falsas habilidosas. Existe
ainda uma alternativa, para a produção de assinaturas falsas, a qual não foi estudada,
que consiste na produção de assinaturas falsicadas por especialistas. A Figura 5.1
mostra três assinaturas de diferentes tamanhos, grande, média e pequena, de um
determinado usuário; além de duas assinaturas falsicadas desse mesmo indivíduo.
93
computacional.
Uma técnica simples para realizar a seleção de características é baseada no cál-
culo do poder de discriminação de cada uma delas individualmente e, após esse
procedimento, as melhores características são reunidas em um grupo. Esse método
é ingênuo e não garante que o melhor conjunto será encontrado, uma vez que no
grupo selecionado podem existir características com alto grau de correlação. Por
outro lado, essa alternativa exige menos esforço computacional do que testar todas
as combinações possíveis e pode dar bons indícios para uma seleção posterior mais
criteriosa.
Cavalcanti et al. [CDF02] utilizaram dois classicadores: k-Vizinhos Mais Pró-
ximos (k-vmp ) e Classicador Bayesiano, para realizar a seleção de características
através do agrupamento das melhores características individuais. Nas seções a seguir,
serão mostrados os resultados desse procedimento aplicados a três conjuntos de da-
dos:
94
Figura 5.2: Processo de normalização de assinaturas pequenas, médias e grandes.
Essa técnica possui algumas questões que devem ser postas em discussão. Muita
informação pode ser desperdiçada quando o oreio é eliminado. Além disso, existem
assinaturas nas quais a técnica do corte praticamente não atua, pois essas não pos-
suem altos e baixos, o traço percorre uma faixa horizontal, praticamente, de forma
constante. Porém, nesse último caso, a técnica não prejudica o resto do processa-
mento, já que a assinatura é basicamente composta apenas de corpo.
95
(Central 1) alcançaram os piores resultados. A taxa de acerto mostrada na Figura 5.4
e nas próximas guras que tratam da seleção de características, corresponde à mé-
dia aritmética das taxas de acerto das assinaturas de tamanho pequeno, médio e
grande. A Tabela A.1 (Anexo A) relaciona os índices mostrados na Figura 5.4 com
suas características correspondentes.
40
Taxa de Acerto (%)
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
Características
Figura 5.4: Avaliação das características usando o classicador 1-vmp (imagens sem
transformação).
40
Taxa de Acerto (%)
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Características
Figura 5.5: Avaliação das características usando o classicador 1-vmp (imagens nor-
malizadas).
96
Avaliação das Características usando 1−vmp
50
40
Taxa de Acerto (%)
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
Características
Figura 5.6: Avaliação das características usando o classicador 1-vmp (imagens após
a aplicação da técncia do corte).
Em todos os experimentos realizados nessa seção, foi assumido que os dados são
regidos por uma distribuição Normal, na qual a matriz de covariância é a mesma
97
para todas as classes. Isso torna o classicador Bayesiano um discriminante linear.
O primeiro experimento aplica o classicador Bayesiano às características ex-
traídas das imagens das assinaturas sem nenhum tipo de pré-processamento. Os
resultados desse procedimento podem ser observados na Figura 5.7. Eles mostram
que algumas características obtiveram resultados interessantes, quando utilizadas iso-
ladamente para o reconhecimento das assinaturas, entre elas é possível destacar as
seguintes: 8 (Inclinação P), 6 (Inclinação N), 16 (Maitra 1), 36 (Central 7), 10 (Hu
2), 32 (Central 3), 9 (Hu 1) e 28 (Simon 2). Já as características a seguir não al-
cançaram bons resultados: 1 (THP-Limiar de Alta Pressão), 2 (Pressão Máxima), 3
(Mínima-Máxima) e 5 (Fator Pressão).
40
Taxa de Acerto (%)
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
Características
40
Taxa de Acerto (%)
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
Características
98
A Figura 5.8 mostra o segundo experimento realizado com o classicador Bayesiano
para a seleção de características, no qual, as características foram extraídas das ima-
gens das assinaturas após a normalização por tamanho. Os resultados foram bastante
inferiores aos encontrados com as características extraídas das imagens sem nenhum
pré-processamento.
40
Taxa de Acerto (%)
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
Características
5.3.3 Comentários
99
reforça resultado encontrado por Dória [Dor01]: quando um usuário assina em espaços
de tamanhos diferentes ele adapta sua assinatura de forma não-linear. Lembrando
que o sistema foi treinado apenas com assinaturas de tamanho médio.
Foi observado, também, que algumas características atingiram bons resultados,
quando aplicadas a classes especícas. Essa análise pode favorecer à construção de
um sistema personalizado, isto é, um sistema que analisa características diferentes
por usuário. Entretanto, encontrar características relevantes, cada vez que um novo
usuário é adicionado ao sistema, é uma tarefa a mais para ser realizada, embora possa
oferecer baixos índices de erro.
Todos os experimentos realizados com o intuito de selecionar características e,
em especial, os que as extraíram das imagens brutas e das imagens após o corte,
destacaram o poder de reconhecimento de algumas características, são elas: 6 (In-
clinação N), 8 (Inclinação P), 9 (Hu 1), 16 (Maitra 1), 28 (Simon 2) e 32 (Central
3). Embora se saiba que a união das melhores características individuais pode não
gerar o melhor grupo de características para ns de classicação, o grupo selecionado
pode produzir boas taxas de classicação, além de servir como ponto de partida para
encontrar um grupo de características ideal.
Características de boa qualidade devem ter baixa variância para as assinaturas
de uma mesma classe e alta variância para assinaturas de classes distintas. Essa
dispersão, dentro da classe, pode ser calculada usado o Coeciente de Variação
(Equação .). Ao realizar essa análise, buscam-se características que tenham baixos
Coecientes de Variação, pois se espera que essas sejam relevantes para propósi-
tos de classicação. Características com altos Coecientes de Variação devem ser
desprezadas.
σ
CV = , (.)
x
sendo, σ o desvio padrão e x a média.
Os Coecientes de Variação médios das características investigadas são mostrados
na Figura 5.10. Através dessa análise, as melhores características, isto é, aquelas que
100
conseguiram os menores Coecientes de Variação foram: 1 (Limiar Alta Pressão),
2 (Pressão Máxima), 3 (Mínima-Máxima), 6 (Inclinação N), 7 (Inclinação V), 8
(Inclinação P), 9 (Hu 1), 16 (Maitra 1), 28 (Simon 2), 32 (Central 3) e 37 (Razão).
As características que conseguiram os maiores Coecientes de Variação foram: 15
(Hu 7), 29 (Simon 3), 14 (Hu 6), 33 (Central 4), 30 (Central 1) e 26 (Flusser 6).
3.5
Coeficiente de Variaçao
2.5
1.5
0.5
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
Caracteristicas
Essa análise vericou que as características selecionadas (6, 8, 9, 16, 28 e 32), isto
é, aquelas que obtiveram os melhores resultados individuais, usando os classicadores
k-vmp e bayesiano, conseguiram, também, bons resultados na análise do coeciente
de correlação. Vale salientar que essas características foram selecionadas, observando
apenas assinaturas autênticas. Em sistemas de vericação, deve-se levar em conside-
ração, também, assinaturas falsas. Sendo assim, a análise realizada deve ser validada
através de outras evidências, como, por exemplo, uma análise de vericação, na qual
o conjunto de características selecionado deve ser testado com exemplos autênticos e
falsos. Essa análise é realizada na seção seguinte.
101
como: autenticações e autorizações legais, operações bancárias e restrição de acesso
em ambientes que necessitam de alta segurança.
Dependendo do método de aquisição das assinaturas, o sistema de vericação
de assinaturas pode ser on-line ou o-line. No método on-line, as assinaturas são
adquiridas em tempo real, esse fator oferece algumas características que facilitam o
processo de decisão, principalmente para a detecção de falsicação, tais como: vari-
ação da velocidade no ato da escrita e pressão. Já no método o-line, as assinaturas
são capturadas por scanners ou câmeras, após a assinatura ter sido escrita. Como
a quantidade de informação nos métodos o-line é menor, pode-se dizer que esse
representa um problema mais complexo.
Na literatura, é comum encontrar trabalhos sobre vericação on-line e o-line de
assinaturas [BC97, HY97, RM99, BP01, CF02, FLT+ 02, HYM05]. Entretanto, em
nenhum deles, o problema de variação do tamanho das assinaturas de um mesmo
usuário é analisado. Dória et el. [DFS01] mostraram que, quando uma pessoa
assina em espaços de tamanhos diferentes, ela varia a escala de sua assinatura de
forma não linear. Dando continuidade ao estudo iniciado por Dória, Cavalcanti et
al. [CDAF02] mostraram alternativas para solucionar o problema de vericação o-
line de assinaturas de diferentes tamanhos, utilizando três grupos de características:
pseudo-dinâmicas, estruturais e momentos.
Nas seções que seguem, será mostrado um estudo sobre vericação o-line de
assinaturas. Três classicadores são usados sobre o banco de dados de assinaturas
descrito na Seção 5.2. Todos os experimentos usam um limiar especíco por classe
que é calculado sobre as assinaturas autênticas do conjunto de validação usando a
distribuição t-Student, com intervalo de conança de 99% (α = 0, 01). Para colher os
resultados apresentados nas próximas seções, um total de duzentas (200) combinações
diferentes dos padrões de treinamento, de teste e de validação foram consideradas.
Além dos grupos de características pseudo-dinâmicas, estruturais e momentos,
um grupo de características selecionadas foi adicionado. Ele é formado pelas caracte-
rísticas que conseguiram os melhores desempenhos individuais na tarefa de reconhe-
102
cimento (Seção 5.3) e apresentaram baixos Coecientes de Variação (Seção 5.3.3),
são elas: 6 (Inclinação N), 8 (Inclinação P), 9 (Hu 1), 16 (Maitra 1), 28 (Simon 2) e
32 (Central 3).
Essa seção expõe a análise dos grupos de características estudados para o problema
de vericação de assinaturas usando o classicador Bayesiano. Os resultados gerados
pelas três massas de dados - assinaturas sem nenhum tipo de transformação, assina-
turas normalizadas por tamanho e assinaturas após a aplicação da técnica do corte
- são apresentados, respectivamente, nas Figuras 5.11, 5.12 e 5.13. Duzentas com-
binações possíveis foram geradas e os valores mostrados nas guras correspondem à
média aritmética.
100
90 Pseudo−dinâmicas
Estruturais
Hu
80 Maitra
Flusser
70 Simon
Central
Taxa de Erro (%)
Selecionadas
60
50
40
30
20
10
0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas
103
100
90 Pseudo−dinâmicas
Estruturais
Hu
80 Maitra
Flusser
70 Simon
Central
Taxa de Erro (%)
Selecionadas
60
50
40
30
20
10
0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas
100
90 Pseudo−dinâmicas
Estruturais
Hu
80 Maitra
Flusser
70 Simon
Central
Taxa de Erro (%)
Selecionadas
60
50
40
30
20
10
0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas
104
erro de treinamento, erro de validação e desvio-padrão, podem ser observados nas
Tabelas B.1, B.2 e B.3.
80
Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)
50 Selecionadas
40
30
20
10
0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas
105
80
Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)
50 Selecionadas
40
30
20
10
0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas
80
Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)
50 Selecionadas
40
30
20
10
0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas
106
todos os grupos. O melhor grupo foi o de características Selecionadas, que conseguiu
erros inferiores, ou bastante próximos, a 10%. Três outros grupos de características
conseguiram resultados interessantes, são eles: Pseudo-dinâmicas, Central e Estrutu-
rais. Dos conjuntos de dados utilizados, esse foi o que gerou a menor distância entre
os erros das assinaturas de tamanhos diferentes.
Quando as imagens são cortadas, eliminando seus traços estilísticos, o grupo
de características Estruturais merece destaque, seguido de perto pelos grupos: Sele-
cionadas, Central e Pseudo-dinâmicas. Vale salientar que, mais uma vez, os erros das
assinaturas pequenas e grandes foram superiores ao erro das assinaturas de tamanho
médio.
Informações mais detalhadas sobre os resultados da vericação das assinaturas,
usando o classicador Cross-Correlation, são mostradas nas Tabelas B.4, B.5 e B.6,
tais como: erro de treinamento, erro de validação e desvio padrão.
80
Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)
50 Selecionadas
40
30
20
10
0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas
107
80
Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)
50 Selecionadas
40
30
20
10
0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas
80
Pseudo−dinâmicas
70 Estruturais
Hu
Maitra
60 Flusser
Simon
Central
Taxa de Erro (%)
50 Selecionadas
40
30
20
10
0
Pequena Media Grande Falsa Simples Falsa Habilidosa
Assinaturas
108
(Equação .), dando a mesma importância ao FRR e ao FAR, isto é, adotando
λ1 = λ2 = 1. Os grupos também obtiveram resultados relevantes, são eles: Pseudo-
dinâmicas, Central e Estruturais. Mais uma vez, quando o processo de normalização
foi empregado o erro das assinaturas de tamanhos pequeno e grande, em geral, foram
menores do que o erro das assinaturas médias.
Os resultados encontrados com a aplicação da técnica do corte foram um pouco
inferiores aos encontrados após a normalização e, superiores quando nenhum pré-
processamento foi adotado. A Figura 5.19 mostra que os melhores grupos foram:
Central, Estruturais e Selecionadas, com taxas de erros semelhantes.
5.5 COMENTÁRIOS
109
Imagens das Assinaturas
Classicador Sem Transformação Normalizada Cortada
Tabela 5.1. Resumo dos melhores resultados, em termos da medida R2, das tabelas do
Apêndice B.
utilizaram um limiar por classe que é calculado usando apenas informações sobre a
referida classe. Nenhuma informação sobre possíveis impostores é levada em consi-
deração no momento do cálculo do limiar. Quando informações sobre prováveis im-
postores são usadas, para esse cálculo, menores taxas de erro podem ser alcançadas.
Porém, essa estratégia pode não representar um experimento real.
Na Tabela 5.1, é possível visualizar um resumo dos melhores resultados obtidos
com a vericação de assinaturas. Esse resumo baseia-se na taxa R2 (atribui im-
portância igual às taxas FRR e FAR - λ1 = 1 e λ2 = 1) e coletou informações das
tabelas do Apêndice B. O grupo de características Selecionadas [6 (Inclinação N), 8
(Inclinação P), 9 (Hu 1), 16 (Maitra 1), 28 (Simon 2) e 32 (Central 3)], aliada à nor-
malização das assinaturas por tamanho, mostrou-se bastante eciente, tanto no trato
com vericação de assinaturas de mesmo tamanho, como no trato com assinaturas
de tamanhos diferentes. Seu melhor resultado foi de 6,58% de erro R2.
A partir desta tabela, é possível vericar a importância do pré-processamento das
imagens, quando se está tratando com assinaturas de tamanhos diferentes. Pois, os
resultados encontrados com as assinaturas sem nenhum tipo de transformação foram
os piores. Dos classicadores analisados, o Baseado em Distância obteve melhores
resultados do que os outros, deixando o classicador Cross-correlation em segundo
110
lugar e o Bayesiano por último.
111
CAPÍTULO 6
VERIFICAÇÃO DA DINÂMICA
DA DIGITAÇÃO
6.1 INTRODUÇÃO
112
E
C
B
tAi tAf tBi tCi tBf tCf tDi tDf tEi tEf
Tempo
Duração Intervalo
dado que t1p = t1f − t1i , t2p = t2f − t2i , . . . , tnp = tnf − tni .
dado que t1l2 = t2i − t1f , t2l3 = t3i − t2f , . . . , t(n−1)ln = tni − t(n−1)f .
vetorcompleto = [t1p , t1l2 , t2p , t2l3 , t3p , . . . , t(n−1)p , t(n−1)ln , tnp ]. (.)
113
pode conter valores negativos; como mostrado no intervalo tCi − tBf da Figura 6.1,
pois tCi é menor do que tBf . Haverá intervalo de tempo negativo, quando o usuário
pressionar uma tecla antes de soltar a anteriormente pressionada. Como em geral, os
bancos de dados construídos para realizar experimentos sobre essa tecnologia utilizam
usuários que já possuem prática no ato de digitar, é bastante comum encontrar valores
negativos na composição do vetor de características de intervalos.
No quesito aplicação, sistemas de identicação pessoal que usam a dinâmica da
digitação podem ser empregados em qualquer ambiente, no qual existe a necessidade
de controlar acesso através de senhas [YC04]. Como vantagens desse tipo de biometria
é possível citar que são sistemas baratos e mais transparentes para o usuário do que
sistemas baseados em impressão digital e em íris, além disso, podem ser usados,
também, pela Internet [CHK00].
Nesse capítulo, serão apresentados, na Seção 6.2, alguns trabalhos anteriores so-
bre o assunto em questão. As estratégias usadas para capturar os padrões, extrair
características e vericar, bem como os resultados dos experimentos serão descritos
na Seção 6.3. Por m, a Seção 6.4 dará vez a algumas discussões.
Existem duas abordagens para se trabalhar com dinâmica da digitação: uma que
utiliza um texto xo e pré-determinado para todos os usuários do sistema e outro
que se vale de textos diferentes por pessoa. Em seu trabalho, Bleha et al. [BSH90]
utilizaram tanto um texto xo (a seguinte frase: University of Missouri Columbia )
quanto a senha de cada um dos usuários como entrada do sistema. O vetor de
características foi formado a partir do intervalo de tempo entre o pressionamento das
teclas. Os resultados nais foram calculados, usando 32 classes (pessoas), sendo 10
autênticas e 22 impostores, e atingiram as seguintes taxas de erro: 3,1% de FRR e
0,5% de FAR.
Em 1993, Brown e Rogers [BR93] estudaram a aplicação de redes neurais para o
114
problema de autenticação de usuários através de informações extraídas da digitação
de seus próprios nomes. Foram usados dois modelos de redes neurais: Kohonen e
Backpropagation. Como características, foram usados o tempo de pressionamento de
cada tecla e o intervalo de tempo entre a soltura da primeira tecla e o pressionamento
da segunda. Esta última característica pode ser negativa, pois o usuário que já possui
certa desenvoltura ao digitar, geralmente, pressiona uma nova tecla antes de soltar a
primeira pressionada. Um total de 25 usuários foram responsáveis pela criação tanto
dos padrões autênticos como dos falsos. Os melhores resultados alcançaram 11,5%
de FRR e 4,2% de FAR.
Monrose e Rubin [MR97, MR00] concentraram seus esforços no problema de
reconhecimento ao invés de vericação e, usaram as mesmas características do tra-
balho realizado por Brown e Rogers [BR93], descrito anteriormente. Foi requisitado
que cada um dos 63 usuários digitassem a seguinte tupla: (x1 , x2 , x3 , x4 ), sendo: x1
o login do usuário, x2 sua senha, x3 seu primeiro nome e x4 seu nome de família. A
taxa de acerto do sistema variou entre 83,22% e 92,14%.
Em Cho et al. [CHK00], uma rede neural auto-associativa foi treinada apenas
com padrões genuínos, sendo uma rede por classe. Essa arquitetura foi usada para
detectar impostores e atingiu 1,0% de FRR e 0% de FAR. Entretanto, os experimentos
apresentavam algumas limitações, tais como: alto custo computacional, além de um
fator que, na prática, não é trivial de se conseguir, muitos padrões autênticos por
classe, que, no caso do artigo foram usados centenas de padrões por pessoa.
A maioria dos sistemas visto até agora utilizava um texto variável por pessoa,
como, por exemplo, seu nome ou uma senha. No sistema proposto por Bergadana et
al. [BGP02], um grande texto com 683 caracteres foi selecionado para que todos os
154 usuários o digitassem. Com esse conguração foi alcançada uma taxa de 4,00%
de FRR e 0,01% de FAR.
Em trabalho recente, Yu e Cho [YC04] construíram um sistema, no qual foi uti-
lizada uma Máquina de Vetor de Suporte (Support Vector Machine - SVM ) como
classicador. As características foram extraídas a partir das senhas de cada um dos
115
usuários utilizando a mesma abordagem implementada por Brown e Rogers [BR93].
Uma pequena diferença reside no fato de Yu levar em consideração a tecla Enter
pressionada ao nal da digitação da senha. Foi desenvolvido, também, um procedi-
mento de seleção de características, baseado em uma arquitetura integrada de seleção-
classicação, usando algoritmos genéticos e SVM. Para um total de 21 usuários, o
sistema estudado apresentou as seguintes taxas de erros: 3,54% de FRR e 0% de
FAR.
Na Tabela 6.1, é apresentado um conjunto de informações relevantes sobre alguns
trabalhos que tratam de dinâmica da digitação.
Essa seção está dividida em três partes: Aquisição de Dados (6.3.1), Extração de
Características (6.3.2) e Vericação (6.3.3). Na primeira parte, será mostrado o pro-
cedimento utilizado para compor o banco de dados a partir da captura de informações
da digitação de diversos usuários. É responsabilidade da etapa de extração de carac-
terísticas encontrar uma boa representação para os tempos capturados dos usuários
de forma que consigam discriminá-los. Na última parte, são validadas, através do
uso de classicadores, todos os conjuntos de dados extraídos na etapa de extração de
características.
116
Artigo Texto Extração de Carac. Seleção de Carac. Classicação # de Usuários FRR FAR
117
[BGP02] Texto - - Distância 154 4,00 0,01
[YC04] Senha TP e TL GA-SVM SVM 21 3,54 0,0
Tabela 6.1. Resumo de alguns trabalhos relevantes sobre dinâmica da digitação. (TP - Tempo de Pressionamento e PL - Tempo de
Latência).
banco de dados foi realizada em três sessões e, em cada uma delas, o usuário digitava
aproximadamente 20 vezes. Para a construção do banco de dados de impostores,
foi pedido que alguns usuários digitassem os nomes completos de outros usuários.
Cada impostor digitou aproximadamente 5 vezes o nome de cada um dos usuários
autênticos.
Na Tabela C.1 (Apêndice), é mostrada a quantidade de padrões autênticos e de
padrões falsos por classe. Um total de 24 pessoas ajudaram a compor um banco de
dados. O número total de padrões autênticos e de padrões falsos foi de 1465 (média de
61,04 padrões por classe) e 987 (média de 41,13 padrões por classe), respectivamente.
Padrões com erro de tipograa ou no qual o usuário tentava fazer correções não
foram inseridos no banco de dados. Mas, ao contrário do trabalho desenvolvido por
Yu e Cho [YC04], foi permitido que o usuário colocasse acento em seus nomes, bem
como zesse uso de letras maiúsculas e minúsculas, além de espaços em branco.
Nas Figuras 6.2 e 6.3, são exibidos grácos que mostram os vetores de tempos
de padrões produzidos por um usuário genuíno e por fraudadores para a classe 16,
respectivamente. É possível observar que os padrões produzidos pelo usuário autên-
tico 16 são bem mais uniformes do que os produzidos pelos impostores da mesma
classe. Vale salientar que os padrões falsos são produzidos por vários usuários, não
apenas por um.
Nessa seção, são mostrados os métodos usados para normalizar e para selecionar
os tempos de pressionamento e de latência dos usuários. Vale salientar que esses
métodos serão realizados por classe. Assim, deseja-se construir um sistema que seja
personalizado por classe (usuário) e que consiga atingir taxas de acerto maiores e
mais robustas.
Normalização das Características
A normalização dos dados tem o objetivo de deixar todas as características em
118
5000
4000
Tempo (ms)
3000
2000
1000
−1000
60
50 35
40 30
25
30 20
Padrões do Usuário 20 15
10 10 Características
5
0 0
· n ¸1/2
1 X
σ= (xi − x)2 , (.)
n − 1 i=1
1 Pn
sabendo que x = n i=1 xi .
A partir do conjunto de treinamento, é calculado o desvio-padrão de cada uma das
características. O vetor gerado é utilizado para normalizar todas as características,
sejam elas do conjunto de treinamento, teste ou validação, conforme mostrado na
Equação ..
Di
Dni = , (.)
σi
Di e Dni representam a i-ésima característica da matriz de dados originais e da matriz
de dados normalizados, respectivamente.
119
5000
4000
3000
Tempo (ms)
2000
1000
−1000
40
30 35
30
20 25
20
Padrões do Usuário 15
10 10 Características
5
0 0
Sabendo que o desvio-padrão é uma medida que expressa a dispersão dos dados em
relação à média e que em problemas de discriminação deseja-se que a variação intra-
classe seja pequena, o desvio-padrão apresenta-se como uma alternativa interessante
pois, quanto menor o desvio-padrão menos variação sofreu a carcaterística analisada.
Seleção de Características
O objetivo da seleção de característica é encontrar um subconjunto a partir do
conjunto original de características que consiga atingir melhores taxas de acerto.
Assim, a estratégia adotada visa escolher as n características que possuem os menores
coecientes de variação (CV), dentre as m totais (n < m). Para tanto, foi construída
uma função que recebe dois parâmetros como entrada: os dados originais e uma
porcentagem p. Os dados originais possuem padrões com m dimensões, assim, m CVs
são calculados. O retorno da função são os índices das características que representam
p% das características originais com menores CVs.
Realizar um procedimento de seleção de características pode gerar algumas van-
120
tagens além da melhoria da taxa de acerto, entre elas, pode-se destacar a diminuição
no tempo necessário para efetuar o processamento, tanto para o treinamento, quanto
para o uso, uma vez que um vetor menor do que o original será avaliado.
6.3.3 Vericação
121
anteriores.
A partir dos procedimentos de normalização e de seleção de características, cada
um dos conjuntos de experimentos foi particionado em quatro baterias. Uma com os
dados brutos, sem normalização e sem seleção de características, outra sem norma-
lização, mas com seleção, a teceira com normalização, porém sem seleção, e por m
uma última com normalização e com seleção; conforme mostrado abaixo:
Cada um dos experimentos foi realizado 10 vezes, os valores que aparecem nas
tabelas e nos grácos representam a média dessas iterações. É mostrado, também, o
desvio-padrão referente a essas repetições.
40
Teste1
Teste2
Teste3
35 Teste4
30
FRR (quando FAR =0)
25
20
15
10
0
0 10 20 30 40 50 60
Número de padrões usados para treinar
122
30
Teste4
25
20
FRR (quando FAR =0)
15
10
0
0 10 20 30 40 50 60
Número de padrões usados para treinar
123
cador consegue criar uma representação da classe de forma mais precisa. Entretanto,
através de uma inspeção visual, um número de padrões de treinamento interessante
é 40. Pois, a partir desse ponto, o ganho de desempenho é pequeno, principalmente,
se for levado em conta a variação mostrada pelo desvio-padrão.
Segundo a análise realizada acima, um bom número de padrões de treinamento
é 40 por classe. Assim, os resultados mostrados nas seções seguintes se valem dessa
prerrogativa.
80
Teste1
70 Teste2
Teste3
Teste4
60
FRR (quando FAR =0)
50
40
30
20
10
0
0 5 10 15 20 25 30 35
Número de Características
124
80
Teste1
70 Teste2
Teste3
Teste4
60
FRR (quando FAR =0)
50
40
30
20
10
0
0 5 10 15 20 25 30 35
Número de Características
pois, para algumas classes, esse era o número próximo do total de características.
O vetor de características original e completo estava organizado da seguinte forma,
para uma palavra com m teclas: [t1p , t1l2 , t2p , . . ., tmp ], isto é, tempo de pressio-
namento da primeira tecla, tempo de latência entre a primeira e a segunda tecla,
tempo de pressionamento da segunda tecla e assim por diante. Os resultados da clas-
sicação, selecionando as primeiras n características, são mostrados na Figura 6.6.
Aumentando o número de características, nota-se um decréscimo na taxa de erro,
esse comportamento permanece até quando 25 características são usadas. A partir
desse ponto, os conjuntos de dados representados por Teste2 e Teste4 não melhoram
a taxa de acerto. Indícios para a seleção de um número ideal de características, entre
25 e 30, podem ser retirados dessa análise.
Na Figura 6.7, é exposta a mesma análise realizada acima, só que em vez de
usar as primeiras n características são utilizadas as últimas n características. Seme-
125
lhante à análise anterior, o intervalo entre 25 e 30 características parece ser bastante
interessante para propósitos de classicação. Exceto para o grupo de características
sem normalização e sem seleção que obteve os piores resultados. Observando valores
absolutos, os resultados alcançados usando as últimas características foram melhores
do que os encontrados quando as primeiras foram usadas.
A seguir serão detalhados alguns experimentos com as três massas de dados:
características com tempo de pressionamento, características com o tempo de latência
e a combinação das duas anteriores.
80
70
60
FRR (quando FAR =0)
50
40
30
20
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (sem normalizar as caracteristicas)
Figura 6.9: FRR após eliminar porcentagem das características sem normalização
(Características: Tempo de Pressionamento).
126
100
Teste1
90
Teste2
Teste3
Teste4
80
70
FRR (quando FAR =0)
60
50
40
30
20
10
0
0 5 10 15 20 25
Classes
Figura 6.8: FRR de quatro congurações de experimentos quando FAR igual a zero
(Características: Tempo de Pressionamento).
127
80
70
60
40
30
20
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (normalizando as caracteristicas)
Figura 6.10: FRR após eliminar porcentagem das características com normalização
(Características: Tempo de Pressionamento).
128
Conguração Normalização Seleção de Características FRR
Teste1 Não Não 28, 59 ± 1, 50
Teste2 Sim Não 17, 18 ± 0, 94
Teste3 Não Sim 19, 15 ± 0, 80
Teste4 Sim Sim 15, 44 ± 0, 71
50
45
40
35
FRR (quando FAR =0)
30
25
20
15
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (sem normalizar as caracteristicas)
Figura 6.12: FRR após eliminar porcentagem das características sem normalização
(Características: Tempo de Latência).
129
90
Teste1
80
Teste2
Teste3
Teste4
70
60
FRR (quando FAR =0)
50
40
30
20
10
0
0 5 10 15 20 25
Classes
Figura 6.11: FRR de quatro congurações de experimentos quando FAR igual a zero
(características: Tempo de Latência).
130
50
40
20
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (normalizando as caracteristicas)
Figura 6.13: FRR após eliminar porcentagem das características com normalização
(Características: Tempo de Latência).
131
Conguração Normalização Seleção de Características FRR
Teste1 Não Não 27, 68 ± 0, 80
Teste2 Sim Não 17, 02 ± 0, 70
Teste3 Não Sim 14, 44 ± 0, 78
Teste4 Sim Sim 12, 55 ± 0, 35
132
80
Teste1
Teste2
70 Teste3
Teste4
60
FRR (quando FAR =0)
50
40
30
20
10
0
0 5 10 15 20 25
Classes
Figura 6.14: FRR de quatro congurações de experimentos quando FAR igual a zero
(Combinação das Características).
50
45
40
35
FRR (quando FAR =0)
30
25
20
15
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (sem normalizar as caracteristicas)
Figura 6.15: FRR após eliminar porcentagem das características sem normalização
(Combinação das Características).
Nas Figuras 6.15 e 6.16, são mostradas as taxas de erro (FRR), à medida que uma
certa porcentagem do número de características é desprezada, quando a normalização
133
50
45
40
35
25
20
15
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Porcentagem de Corte (normalizando as caracteristicas)
Figura 6.16: FRR após eliminar porcentagem das características com normalização
(Combinação das Características).
não é usada e quando ela é usada, respectivamente. Para as duas guras, na média,
as melhores taxas de acerto foram encontradas quando 50% das características foram
mantidas. Esse é um resultado empiricamente esperado, uma vez que, ca entre os
resultados encontrados quando cada um dos grupos de características foi analisado
isoladamente. Mesmo sabendo que em sistema de vericação, no qual a comparação
é um-para-um, o tempo não é, em geral, um fator de risco, é importante observar
que, para se conseguir os melhores resultados, apenas metade das características são
necessárias, o que favorece a diminuição do tempo de resposta do sistema.
Os melhores resultados das quatro congurações, após a combinação das carac-
terísticas pode ser observado nas Tabelas 6.6 e 6.7. A primeira tabela mostra os
resultados com o classicador Baseado em Distância Euclidiana, já a segunda usa o
134
Conguração Normalização Seleção de Características FRR
Teste1 Não Não 25, 76 ± 0, 88
Teste2 Sim Não 10, 59 ± 0, 47
Teste3 Não Sim 7, 37 ± 0, 63
Teste4 Sim Sim 6, 68 ± 0, 48
135
características).
Foram realizados, também, experimentos com seleção de características que visa-
vam obter a melhor taxa de acerto a partir da eliminação de uma certa porcentagem
das características. Quando as características Tempo de Pressionamento e Tempo
de Latência foram usadas conjuntamente, o melhor resultado foi encontrado quando
50% das características foram mantidas. Sabendo que, no banco de dados, a média
de características por classe é de ∼
= 60; eliminando 50% dessas, restam 30, número
esse que está de acordo com os resultados empíricos encontrados nos experimentos
apresentados nas Figuras 6.6 e 6.7.
É importante ressaltar que, mesmo quando o erro médio foi de 6,04% (Tabele 6.6),
algumas classes como: 5, 9, 15 e 23; apresentaram erros maiores que 9,00% (Tabela C.4).
Quanto ao grupo de características, os mehores resultados foram encontrados quando
as características referentes ao Tempo de Pressionamento e ao Tempo de Latência
foram combinadas. Quando analisadas individualmente, Tempo de Pressionamento
e Tempo de Latência, suas taxas de acerto foram bastante semelhantes. No que-
sito classicador, os resultados alcançados com o classicador Baseado em Distância
foram melhores do que o classicador Vizinho Mais Próximo.
Sistemas de vericação baseados em dinâmica da digitação podem ser aplica-
dos em qualquer ambiente, no qual se deseja controlar o acesso através de senhas.
Quanto ao mercado, a empresa BioPassword (http://www.biopassword.com) possui
um sistema que pode ser integrado ao Windows.
136
CAPÍTULO 7
COMBINAÇÃO DE BIOMETRIAS
7.1 INTRODUÇÃO
137
que exerce papel fundamental na construção de sistemas dessa natureza: a segurança.
Daí surge outro fator positivo para sistemas multimodais. Eles são mais robustos e
mais resistentes a fraudes, pois é mais difícil forjar várias características biométricas
do que forjar apenas uma.
Conforme descrito anteriormente, um sistema de Classicação de Padrões pode
operar em dois modos: Reconhecimento e Vericação. Sabendo que um sistema
biométrico é um sistema de classicação de padrões, deseja-se esclarecer esses dois
modos em um ambiente de integração, os quais são bastante diferentes. Tipica-
mente, no Reconhecimento, um grande número de comparações é necessário para
identicar o indivíduo - lembrando que a comparação é realizada de um-para-muitos
(one-to-many). Assim, esse número de comparações será multiplicado pelo número
de biometrias envolvidas na integração. Nesse caso, o maior desao é melhorar a
velocidade de resposta do sistema. O mesmo não ocorre na Vericação, na qual a in-
tegração visa melhorar a taxa de acerto do sistema, pois a comparação é um-para-um
(one-to-one).
O maior desao do uso de sistemas biométricos em aplicações do mundo real
está atrelado ao melhoramento do seu desempenho. Em um futuro próximo, técnicas
de classicação monomodais tendem a alcançar um limite de saturação do desem-
penho [DBB+ 97]. Alguns trabalhos [BF95, ABB+ 96, UDW97, DBB+ 97, KMJS97,
JLGW97, HJ98, JLK99, JR02, Nak02, SP03c, CF03b] mostraram que a combinação
de mais de uma técnica biométrica tem melhorado o desempenho, em relação à análise
das técnicas individualmente. Tais sistemas são chamados Sistema de Identicação
Pessoal Multibiométricos ou Multimodais.
Este capítulo expõe os benefícios da combinação de três modalidades biométricas:
face, assinatura e dinâmica da digitação. A escolha das duas primeiras modalidades
biométricas foi baseada no fato de serem de fácil aceitação (ao contrário da íris
e da retina que necessitam de aparelhos intrusivos de aquisição), bem como, na
facilidade e no baixo custo de aquisição das mesmas [JHP00]. Já a terceira, dinâmica
da digitação, além de ser bastante barata, pois basta apenas um dispositivo que
138
praticamente todo computador já possui, um teclado, é também transparente para
o usuário.
139
não relacionadas. Não foi encontrado, nos estudos investigados na literatura, nenhum
procedimento que conseguisse prever, a partir da face de uma pessoa, como seria sua
assinatura, ou que a partir do seu ritmo de digitação descrevesse sua face.
BIOMETRIA 1 EXTRAÇÃO DE
CLASSIFICADOR NORMALIZAÇÃO
CARACTERÍSTICAS
SUPERVISOR
BIOMETRIA 3 EXTRAÇÃO DE
CLASSIFICADOR NORMALIZAÇÃO
CARACTERÍSTICAS
7.3.1 Normalização
140
em uma escala diferente. Desta forma, a combinação das respostas dos classicadores
deve ser realizada somente após um procedimento de normalização.
Uma maneira simples de normalizar é restringir as respostas dos classicadores a
valores dentro de um intervalo bem denido, por exemplo [0,1]. Outra forma, igual-
mente simples de normalizar, é transformar toda a distribuição de dados, deixando-a
com média zero e variância um. Entretanto, essas estratégias não são boas no trato
com outliers e podem provocar graves erros na decisão nal do sistema. No tra-
balho aqui proposto, duas técnicas de normalização, previamente utilizadas, serão
analisadas. Elas usam artifícios para tratar outliers e são apresentadas a seguir.
Brunelli
A primeira baseia-se na teoria de robust statistics e normaliza a resposta do
classicador de acordo com a seguinte fórmula:
0 1 (Sij − µtanh )
Sij = [tanh(0.01 ) + 1] ∈ [0, 1], (.)
2 σtanh
Sij representa o conjunto de respostas do classicador j ; i é o número do padrão
no conjunto de treinamento; µtanh e σtanh são a média e desvio-padrão, respecti-
vamente. Maiores detalhes sobre esse método de normalização podem ser encontrados
em [BF95].
Sanderson
A segunda técnica de normalização usada também produz respostas no intervalo
[0,1]. Nesse método, a saída do classicador i, dado por Si , é fornecida como entrada
para uma função sigmóide, como segue:
1
S 0i = , (.)
1 + exp[−τi (Si )]
sendo
Si − (µi − 2σi )
τi (Si ) = , (.)
2σi
µi e σi representam a média e o desvio-padrão do classicador i. Maiores detalhes
sobre esse método de normalização podem ser encontrados em [SP03c].
141
7.3.2 Regra de Combinação
n
X
fj = ωi × oi,j , (.)
i=1
142
malizam a saída do classicador no intervalo [0,1], levando em consideração prováveis
outliers. Após a normalização, a decisão de cada classicador recebe um peso, cuja
soma deve ser 1 (um). Logo, a combinação é realizada pela Regra da Soma Pon-
derada (Equação .), com isso, deseja-se encontrar qual a melhor porcentagem com
que cada modalidade deve contribuir para melhorar o desempenho do sistema. Os
resultados apresentados mostram as taxas de erros FRR e FAR, adotando que FAR
é igual a zero (0). Assim, o limiar é calculado por classe, de forma que seja igual a
menor distância para um impostor. O classicador usado foi o Baseado em Distância.
Cada classicador fornece como saída um valor que representa a distância entre
o padrão que está sendo avaliado e o centro da classe. Reunindo as respostas dos
classicadores, pode-se formar um vetor de respostas: (b1 , b2 ). b1 e b2 correspondem
às respostas obtidas dos classicadores de face e de assinatura, respectivamente.
As Figuras 7.2, 7.3 e 7.4 foram obtidas através da divisão dos padrões de cada
modalidade biométrica em dois grupos: autênticos e impostores. Elas mostram a
distribuição das respostas do classicador Baseado em Distância, utilizando uma das
10 combinações geradas e a normalização Brunelli. As características das assinaturas
foram extraídas após a normalização por tamanho, e o grupo usado foi o Selecionadas.
O classicador Baseado em Distância foi empregado, também, sobre as eigenbands
horizontais, para determinar a distribuição mostrada na Figura 7.3. A distribuição
da combinação, mostrada na Figura 7.4, foi obtida através da fusão das respostas
dos classicadores usando a regra da Soma Ponderada, atribuindo-se o mesmo peso
para as modalidades assinatura e face.
143
140
120
Padrões Autênticos
100
80
Freqüência
60
40
20
Padrões Falsos
0
0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Resposta do Classificador para a Modalidade Assinatura
100
90
Padrões Autênticos
80
70
60
Freqüência
50
40
30
Padrões Falsos
20
10
0
0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Resposta do Classificador para a Modalidade Face
Figura 7.3: Distribuição dos padrões autênticos e falsos da modalidade face - eigen-
bands horizontais, usando o classicador Baseado em Distância.
144
1
Padrões Autênticos
Padrões Falsos Simples
0.9 Padrões Falsos Habilidosos
0.8
Resposta Face
0.7
0.6
0.5
0.4
0.4 0.5 0.6 0.7 0.8 0.9 1
Resposta Assinatura
Figura 7.5: Gráco 2D com os padrões autênticos e falsos da combinação das modali-
dades usando a normalização Brunelli.
90
80
Padrões Autênticos
70
60
Freqüência
50
40
30
Padrões Falsos
20
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Resposta do Classificador para a Combinação: Assinatura e Face
Figura 7.4: Distribuição dos padrões autênticos e falsos da combinação das modali-
dades assinatura e face, mostradas nas Figuras 7.2 e 7.3, usando o classicador
Baseado em Distância.
145
A Figura 7.2 mostra que a modalidade assinatura não separou bem os padrões
autênticos dos impostores. A separação é melhor observada quando os padrões da face
foram exibidos - Figura 7.3. Empregando um mecanismo simples, a m de combinar
as respostas dos classicadores de face e de assinatura, uma melhora signicativa foi
observada - Figura 7.4.
Outra análise visual pode ser feita exibindo as respostas dos dois classicadores em
um gráco com duas dimensões (2D), no qual um dos eixos representa a resposta do
classicador assinatura e o outro eixo a resposta do classicador face. A Figura 7.5
mostra um gráco das respostas dos usuários autênticos e dos impostores, após a
aplicação da técnica de normalização usada por Brunelli. Observando o gráco, é
possível vericar que as classes (autêntico e impostor) estão bem separadas. Assim,
a discriminação pode ser feita por um classicador simples.
Os primeiros experimentos foram realizados combinando os melhores resultados
encontrados pela vericação de faces e pela vericação de assinaturas. Desta forma,
os grupos de assinaturas: Pseudo-dinâmicas, Estruturais, Central e Selecionadas,
destacam-se, pois conseguiram os resultados mais expressivos. No que diz respeito à
vericação de faces, as características extraídas das bandas horizontais e das bandas
verticais, através de PCA, são usadas.
Dois métodos de normalização são comparados. O primeiro método foi usado
por Brunelli et al. [BF95]. Outro método foi usado, recentemente, por Sanderson et
al. [SP03c] na construção de um sistema bimodal que usa face e voz para identicação
pessoal. Os sobrenomes dos autores serão usados para intitular essas técnicas de
normalização.
146
res desempenhos na execução da tarefa de vericação de assinaturas foram escolhidos,
são eles: Selecionadas, Estruturais, Pseudo-dinâmicas e Central. Esses grupos serão
combinados com as eigenbands verticais extraídas das faces.
As Figuras 7.6 e 7.7 reportam os resultados utilizando a normalização Sanderson
e Brunelli, respectivamente. Sabendo que os melhores resultados encontrados na
vericação de assinaturas de tamanhos diferentes foram conseguidos com o emprego
das técnicas de minimização da variância não-linear de escala, todos os experimentos
usados nessa seção se valem da aplicação da técnica do corte.
O eixo horizontal dos grácos mostrados nas Figuras 7.6 e 7.7 representa o
peso associado à modalidade face (kf ace ) - o peso associado à assinatura é igual
à kassinatura = 1 − kf ace . O erro da face, em ambos os grácos, foi inferior quando
comparado com o erro da assinatura, conforme esperado.
20
FRR quando FAR = 0
15
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Face
147
Combinando Face e Assinatura (Normalização Brunelli)
30
20
FRR quando FAR = 0
15
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Face
148
Características FRR kf ace
agora Brunelli a escolhida. Os resultados mostram que a combinação foi válida, uma
vez que, exceto os teste realizados com as características Pseudo-dinâmicas, todas
as outras alcançaram, em algum ponto da combinação, erro mínimo. É importante
notar que a biometria face foi mais relevante do que a assinatura na combinação, pois
as menores taxas de erro foram obtidas quando o peso associado à face era maior
que o peso associado à assinatura. Fazendo um breve comparativo entre os métodos
de normalização, constata-se que Brunelli alcançou resultados mais relevantes que os
atingidos pela normalização Sanderson, tendo em vista as características analisadas.
Para a combinação das faces com as assinaturas, essa seção utiliza os mesmos
grupos de características extraídas das assinaturas usadas na seção anterior: Sele-
cionadas, Estruturais, Pseudo-dinâmicas e Central. Entretanto, as características
extraídas das faces foram as eigenbands horizontais.
As Figuras 7.8 e 7.9 reportam os resultados, utilizando a normalização Sanderson
e a Brunelli, respectivamente. O eixo horizontal de todos os grácos mostrados nessas
guras representa o peso associado à modalidade face (kf ace ). De forma geral, assim
como nos experimentos realizados na seção anterior, a face foi mais importante para
a combinação, fato destacado pela magnitude do peso kf ace .
Na maioria dos experimentos, a combinação obteve um resultado absoluto melhor
149
Combinando Face e Assinatura (Normalização Sanderson)
30
PseudoDinâmica e Eigenbands Horizontais
Estruturais e Eigenbands Horizontais
Central e Eigenbands Horizontais
Selecionadas e Eigenbands Horizontais
25
20
FRR quando FAR = 0
15
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Face
20
FRR quando FAR = 0
15
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Face
150
do que qualquer uma das modalidades isoladas. Na Tabela 7.2, são mostrados os
melhores resultados obtidos usando a normalização Sanderson e na Tabela 7.3, os
melhores com a normalização Brunelli.
Observando a Figura 7.8, nota-se que a biometria assinatura isolada atingiu uma
taxa de falso negativo no patamar de 15%, enquanto que a face cou próxima a 2,13%.
Mais uma vez, ao utilizar a normalização Sanderson, percebe-se que à medida que se
dá proeminência à face, as taxas de erro diminuem. O melhor resultado absoluto foi
conseguido com as características Estruturais F RR = 0, 69 ± 0, 31, quando kf ace =
0, 95.
151
mantinham constantes para alguns pesos (ff ace ), como, por exemplo, a segunda linha
da tabela mostra as características pseudo-dinâmicas, o melhor resultado perdurou
do peso para a face igual a 0,6 até o valor 0,9.
152
Combinando Assinatura e Dinâmica da Digitação (Normalização Sanderson)
30
Pseudo−dinâmicas
Estruturais
Central
25 Selecionadas
20
FRR quando FAR = 0
15
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Assinatura
relevante, exposto nessa tabela, é que as melhores taxas de acerto foram conseguidas
atribuindo mais importância à dinâmica da digitação do que à assinatura.
153
Combinando Assinatura e Dinâmica da Digitação (Normalização Brunelli)
30
Pseudo−dinâmicas
Estruturais
Central
25 Selecionadas
20
FRR quando FAR = 0
15
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Assinatura
154
cesso de combinação, já que os melhores resultados foram gerados quando kassinatura
foi de aproximadamente 20%.
3
FRR quando FAR = 0
2.5
1.5
0.5
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Peso da Biometria Face
155
os resultados podem ser visualizados na Figura 7.12.
156
dades biométricas através da fusão de decisões. Para realizar essa combinação, cada
uma das biometrias terá um peso associado que indicará a importância da mesma
no processo. Todos os pesos adotados, a m de realizar os testes, são rotulados con-
forme exposto na Tabela D.1. É importante notar, também, que nos experimentos
realizados nessa seção, calcula-se a taxa de falsa rejeição (FRR), adotando que a taxa
de falsa aceitação (FAR) é zeros.
Os primeiros experimentos mostram a combinação das eigenbands horizontais
extraídas das faces, com os tempos de pressionamento e de latência, extraídos da
dinâmica da digitação, mais quatro grupos de características extraídos das assina-
turas: Pseudo-dinâmicas, Estruturais, Central e Selecionadas, tanto para a norma-
lização Sanderson (Figura 7.13) quanto para a normalização Brunelli (Figura 7.14).
Os melhores resultados de cada uma dessas congurações são mostrados, respecti-
vamente, nas Tabelas 7.7 e 7.8. A escolha desses grupos de características, por biome-
tria, deveu-se ao bom desempenho das mesmas quando foram realizados experimentos
monomodais.
Combinando Face, Assinatura e Dinâmica da Digitação (Normalização Sanderson)
15
10
FRR quando FAR = 0
0
0 5 10 15 20 25 30 35
Pesos
157
Características FRR Pesos
5
FRR quando FAR = 0
0
0 5 10 15 20 25 30 35
Pesos
158
As taxas de erros com a normalização Sanderson, para algumas distribuições de
pesos entre as biometrias, atingiram patamares bastante próximos a zero, de acordo
com a Tabela 7.7. O melhor resultado absoluto, que utiliza essa conguração, foi en-
contrado unindo as características Estruturais (assinatura), com as Eigenbands Hori-
zontais (face) e os Tempos de Latência e de Pressionamento (dinâmica da digitação),
e alcançou o erro de 0,13% de FRR. Para este melhor resultado, três possibilidades de
pesos podem ser escolhidos, representados pelos seguintes rótulos: 28, 31 e 34; sendo
que, todas elas atribuiam maior relevância à face que contribuiu com 50, 60 e 70%,
respectivamente. Ainda, no que diz respeito aos melhores resultados, a contribuição
da assinatura foi sempre inferior à da dinâmica da digitação.
Após analisar as tabelas anteriores, nota-se que a combinação após a normali-
zação Brunelli obteve melhores taxas de acerto do que a combinação após usou a
normalização Sanderson. Isto pode ser notado tanto pela observação dos erros ab-
solutos quanto pelos patamares dos valores encontrados nos grácos. Os pontos de
picos, nos quais os erros são os maiores, são justamente aqueles nos quais foi dada
mais importância a assinatura, isto é, o peso da assinatura foi maior que o peso das
outras biometrias, como, por exemplo, nos pontos: 7, 8, 14, 15, 21 e 26 (conforme
Tabela D.1).
Um experimento isolado foi realizado, o qual adotou pesos iguais (1/3) para as
três biometrias. Os resultados mostraram que, para a normalização Sanderson, o erro
médio cou no patamar de 5% de FRR; isso representa um aumento de mais de 4
pontos percentuais quando comparado com o melhor resultado. Para a normalização
Brunelli, a distância foi menor, aproximadamente 1 ponto percentual.
Nas Figuras 7.15 e 7.16, é possível visualizar os resultados utilizando as mesmas
características das guras mostradas anteriormente, com exceção das característi-
cas usadas para as faces que foram permutadas das eigenbands horizontais para as
eigenbands verticais. Os melhores resultados das Figuras 7.15 e 7.16 são mostrados,
respectivamente, nas Tabelas 7.9 e 7.10.
159
Combinando Face, Assinatura e Dinâmica da Digitação (Normalização Sanderson)
15
10
FRR quando FAR = 0
0
0 5 10 15 20 25 30 35
Pesos
A menor taxa de erro mostrada na Figura 7.15 foi atingida pelos seguintes grupos
de características de assinaturas: Estruturais e Selecionadas. Essas congurações
geraram 0,38% de FRR quando o rótulo dos pesos foi 36, ou seja, os seguintes pesos
foram adotados: kface = 0, 8, kassinatura = 0, 1 e kdinâmica da digitação = 0, 1.
Esse resultado corrobora com os experimentos realizados no Capítulo 5, em que
oito grupos de características foram avaliados. Comparando os resultados mostrados
nas Figuras 7.13 e 7.15, observa-se que, após a alteração das eigenbands horizontais
160
para as eigenbands verticais, as taxas de erros foram maiores. Em termos absolutos,
pode-se dizer que as eigenbands verticais atingiram melhores taxas na combinação
do que as eigenbands horizontais, pelo menos quando a normalização Sanderson foi
a adotada.
Combinando Face, Assinatura e Dinâmica da Digitação (Normalização Brunelli)
7
5
FRR quando FAR = 0
0
0 5 10 15 20 25 30 35
Pesos
Em pelo menos uma das congurações dos pesos, foi encontrado erro mínimo
quando a normalização Brunelli foi usada. Resultados esses expostos na Tabela 7.10.
Para as combinações que zeram uso das características Estruturais e Selecionadas,
161
várias foram as combinações de pesos que obtiveram erro zero.
De forma geral, a normalização Brunelli alcançou melhores resultados do que
a normalização Sanderson. Qualquer uma das congurações, que fez uso da nor-
malização Brunelli, conseguiu atingir erro mínimo. O diferencial encontra-se nos
pesos associados às biometrias, que, em geral, para essas taxas de acerto máximo,
atribuíram mais relevância à face do que a dinâmica da digitação, sendo a assinatura
a menos relevante.
Nesse seção, alguns resultados, com e sem combinação, são analisados de forma
conjunta. Assim, objetiva-se mostrar mais claramente o ganho na taxa de acerto
alcançado após a combinação. Para formar os grácos que seguem, foram escolhidos
os seguintes conjuntos de características por biometria: i) Face - eigenbands horizon-
tais e verticais, representadas, respectivamente, por Face1 e Face2; ii) Assinatura - o
grupo de características Selecionadas; e, iii) Dinâmica da digitação - o vetor combi-
nado dos tempos de pressionamento e de latência, após a seleção (50% de perda) e a
normalização das características.
Esses grupos de características foram analisados comparando suas taxas de falso
negativo (FRR), adotando que a taxa de falso positivo (FAR) é zero. Decidiu-
se compor um gráco para cada estratégia de normalização utilizada. Assim, na
Figura 7.17, são expostos os resultados com a normalização Sanderson, enquanto que
na Figura 7.18, mostram-se os resultados após a normalização Brunelli.
Nesses grácos não foi mostrada a taxa de erro da biometria assinatura isolada,
pois, como sua taxa era bem mais elevada do que as outras, a mesma foi retirada com
o objetivo de facilitar a visualização e a interpretação das demais taxas das outras
biometrias. À propósito, quando apenas a assinatura foi usada, a seguinte taxa foi
encontrada: F RR = 15, 69 ± 1, 25.
162
6,00
5,00
FRR (quando FAR = 0)
4,00
3,00
2,00
1,00
0,00
Assinatura Face2 Face1 Face2 Face2
Face1 Face2 Dinâmica Face1 Face1
+ + + + +
+ +
Dinâmica
Assinatura Assinatura Dinâmica Dinâmica Assinatura Assinatura
+ +
Dinâmica Dinâmica
Figura 7.17: Análise dos resultados que usaram a normalização Sanderson. Face1:
Eigenbands Horizontais. Face2: Eigenbands Verticais.
Das três biometrias investigadas, a assinatura foi a que obteve as piores taxas
de acerto. Esse resultado pode ser vericado, também, nas combinações dois-a-dois,
pois, as junções de face com dinâmica obtiveram resultados superiores do que as
fusões que utilizaram a assinatura, seja com a face ou com a dinâmica.
Observando a Figura 7.17, que mostra os resultados com a normalização Sander-
son, nota-se que, após a combinação, o erro foi minimizado, em especial, quando as
três biometrias foram combinadas, pois, o erro se aproximou bastante de zero.
Os resultados da combinação, com a normalização Brunelli, foram melhores do
que os resultados com a combinação Sanderson. Na Figura 7.18, que mostra as taxas
de erro com a normalização Brunelli, pode-se vericar que, exceto a combinação
de assinatura e dinâmica da digitação, todas as outras alcançaram taxas de erros
inferiores a um porcento, chegando algumas delas, como as combinações das três
biometrias, a atingir erro zero.
163
6,00
5,00
FRR (quando FAR = 0)
4,00
3,00
2,00
1,00
0,00
Face1 Face2 Dinâmica Assinatura Face1 Face2 Face1 Face2 Face1 Face2
+ + + + + + +
Dinâmica Assinatura Assinatura Dinâmica Dinâmica Assinatura Assinatura
+ +
Dinâmica Dinâmica
Figura 7.18: Análise dos resultados que usaram a normalização Brunelli. Face1:
Eigenbands Horizontais. Face2: Eigenbands Verticais.
164
possível aferir erros menores na combinação.
Testes de Hipóteses
Com o intuito de vericar se as diferenças entre os valores médios das taxas de
acerto entre as combinações de biometrias eram estatisticamente signicantes, foi
utilizado o teste desenvolvido por Wilcoxon-Mann-Whitney. Este é um método não
paramétrico baseado na soma do ranks dos escores.
Supondo duas amostras X = [x1 , x2 , . . . , xnx ] e Y = [y1 , y2 , . . . , yny ], de tamanhos
nx e ny , respectivamente, extraídas de duas populações cujas médias são dadas por
µX e µY . O primeiro passo para vericar se as diferenças entre os valores médios de
X e de Y são estatisticamente signicantes é calcular o desvio-padrão conjunto sp :
v
u
u (nx − 1)s2Rx + (ny − 1)s2Ry
sp = t , (.)
nx + ny − 2
dado que s2Rx e s2Ry são as variâncias dos ranks das amostras X e Y , respecti-
vamente.
Em seguida, computam-se as médias dos ranks das amostras X e Y , dadas por
R̄X e R̄Y , respectivamente, e calcula-se o valor de Tr a partir da Equação ..
R̄X − R̄Y
Tr = q
1 1
(.)
sp nx
+ ny
165
A principal vantagem deste teste estatístico não-paramétrico é que não se faz
necessário nenhuma suposição sobre a distribuição dos escores, e além disso, esse
teste não é afetado pela presença de outliers.
Os primeiros testes mostraram que os melhores resultados das modalidades face
e dinâmica da digitação são equivalentes. Quanto a assinatura, essa se mostrou
inferior as outras duas biometrias, ou seja, a hipótese nula na qual adotava-se que
a µassinatura = µγ foi rejeitada, sempre que γ representava face ou dinâmica da
digitação. Para todos os experimentos, foi adotado um nível de signicância de 0,05.
Os outros testes de hipóteses serviram para comparar as combinações. Quanto aos
resultados das combinações, as melhores taxas foram alcançadas com a normalização
Brunelli (conforme Figura 7.18). Nessas comparações, os testes de hipóteses não
conseguiram rejeitar a hipótese nula, na qual armava-se que as médias eram iguais,
µcombinao1 = µcombinao2 . Ou seja, dada a distribuição de dados utilizada para realizar
os experimentos, os melhores resultados das combinações foram equivalentes.
7.9 COMENTÁRIOS
166
As duas técnicas de normalização das respostas dos classicadores atingiram de-
sempenhos satisfatórios. Destaque pode ser atribuído à normalização Brunelli, uma
vez que, esta gerou regiões de separação de melhor qualidade do que a normalização
Sanderson, pois, independente das características usadas, o sistema conseguiu al-
cançar erro absoluto mínimo em pelo menos uma conguração de pesos. Em outras
palavras, a normalização Brunelli conseguiu separar, de forma satisfatória, padrões
autênticos dos impostores.
Avaliando a parcela de contribuição das biometrias na combinação, percebe-se que
as menores taxas de F RR foram alcançadas quando mais importância foi atribuída
à face, em segundo lugar, à dinâmica da digitação, e por m, à assinatura.
167
CAPÍTULO 8
CONCLUSÃO
168
cotidiano das pessoas, seja em carteiras de identidade e de motorista ou em cheques
e em crachás. Por outro lado, a dinâmica da digitação oferece um mecanismo simples
e barato, pois o hardware necessário é apenas um teclado, que já está presente na
maioria dos computadores.
Após a investigação de cada uma das modalidades biométricas de forma indivi-
dual, foi composto um sistema, a m de avaliar o poder de discriminação das biome-
trias integradas. A face obteve as melhores taxas de acerto quando comparada com
as outras biometrias avaliadas. Em segundo lugar, encontrava-se a dinâmica da
digitação e, por m, a assinatura. Mesmo com a diferença de desempenho entre
as biometrias, os resultados mostraram que a combinação oferece uma alternativa
bastante interessante para minimizar os erros de sistemas biométricos monomodais.
Quanto à combinação, também foi avaliada a importância de cada uma das biome-
trias, no que diz respeito ao poder de discriminação. Corroborando com os resultados
encontrados na avaliação dos sistemas monomodais, a face foi mais importante que
a dinâmica da digitação, que, por sua vez, foi mais relevante que a assinatura.
As principais contribuições do trabalho foram as seguintes:
169
• Cálculo do limiar - referente ao critério de decisão c mostrado na Figura 2.3
- através de uma estratégia que leva em consideração apenas as informações
de cada classe. O intervalo de conança foi calculado usando a distribuição
t-Student;
170
8.2 TRABALHOS FUTUROS
171
orelhas ou ainda narizes proeminentes. Além dessas, outras características podem
ser usadas, como: cor dos olhos, da pele e dos cabelos. Embora, provavelmente,
mais amostras sejam necessárias para capturar tais padrões, uma melhoria pode ser
conseguida incorporando esse tipo de conhecimento a priori.
Há várias possibilidades de ampliar e de estender o trabalho apresentado. Algu-
mas opções foram citadas nesta seção, vale salientar que elas não têm o objetivo de
esgotar todas as alternativas, mas sim de mostrar que é importante denir linhas de
pesquisa a m de contribuir para futuras investigações da comunidade cientíca.
172
APÊNDICE A
RÓTULOS DAS
CARACTERÍSTICAS EXTRAÍDAS
DAS ASSINATURAS
173
Rótulo Característica Rótulo Característica
174
APÊNDICE B
DETALHAMENTO DOS
RESULTADOS DA VERIFICAÇÃO
DE ASSINATURAS
Para facilitar o entendimento, as tabelas mostram vários erros que são explicados a
seguir:
• R2 - risco que atribui importância igual às taxas FRR e FAR (λ1 = 1 e λ2 = 1);
175
• M+FS - caso em que a função risco é calculada pela utilizando apenas as
assinaturas autênticas de tamanho médio e as falsas simples;
176
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH
Pseudo- x 0,00 0,00 0,00 0,00 0,00 100,00 100,00 33,33 50,00 66,67 50,00 50,00
dinâmicas σ 0,00 0,00 0,00 0,00 0,00 0,00 0,00
Estruturais x 49,00 49,00 49,00 49,00 49,00 51,00 51,00 49,67 50,00 50,33 50,00 50,00
σ 50,12 50,12 50,12 50,12 50,12 50,12 50,12
Hu x 5,26 1,73 10,61 5,09 5,68 77,41 88,36 32,38 45,01 57,63 41,25 43,99
σ 2,89 1,19 3,82 2,98 2,94 1,67 2,38
Maitra x 0,24 0,39 0,91 0,75 2,18 93,16 98,74 32,84 48,61 64,39 46,96 48,35
σ 0,77 0,62 0,91 1,02 1,27 2,54 0,86
Flusser x 15,69 6,70 30,32 13,19 3,54 70,61 71,43 34,13 43,35 52,57 41,90 42,10
177
σ 5,16 3,17 6,26 5,17 2,60 2,91 3,11
Simon x 7,31 2,07 43,64 6,46 1,63 59,42 65,05 32,24 39,74 47,24 32,94 34,35
σ 3,29 1,32 3,87 3,31 0,97 1,66 2,51
Central x 12,10 5,07 44,15 11,51 0,76 86,54 84,60 41,06 52,19 63,31 49,02 48,54
σ 4,26 1,78 4,70 3,67 1,25 3,01 2,30
Selecionadas x 0,02 0,00 0,18 0,03 0,08 97,40 99,79 32,93 49,34 65,76 48,71 49,31
σ 0,20 0,00 0,65 0,22 0,50 2,70 0,37
Tabela B.1. Avaliação dos erros de cada um dos grupos de características usando o classicador Bayesiano sobre as imagens das
assinaturas sem transformação, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH
Pseudo- x 85,50 85,50 85,50 85,50 85,50 14,50 14,50 61,83 50,00 38,17 50,00 50,00
dinâmicas σ 35,30 35,30 35,30 35,30 35,30 35,30 35,30
Estruturais x 100,00 100,00 100,00 100,00 100,00 0,00 0,00 66,67 50,00 33,33 50,00 50,00
σ 0,00 0,00 0,00 0,00 0,00 0,00 0,00
Hu x 1,89 0,92 1,99 2,02 0,66 86,78 93,58 31,10 45,87 60,64 44,40 46,10
σ 2,22 1,05 1,93 1,93 1,22 4,32 5,42
Maitra x 0,00 0,27 0,48 0,29 0,04 99,93 99,91 33,49 50,10 66,70 50,11 50,11
σ 0,00 0,53 0,64 0,64 0,23 0,20 0,19
178
Flusser 14,18 7,02 8,96 12,68 14,07 67,45 67,54 30,43 39,70 48,96 40,06 40,08
σ 4,97 3,05 5,12 4,54 5,23 2,08 3,75
Simon x 5,35 0,83 4,74 4,47 1,98 61,82 56,06 22,13 31,33 40,54 33,14 31,70
σ 3,91 0,96 4,32 3,03 1,54 2,24 1,70
Central x 7,72 2,33 4,34 7,08 7,04 65,13 56,05 24,30 33,37 42,44 36,10 33,83
σ 3,95 1,51 2,98 3,30 4,50 3,32 2,50
Selecionadas x 0,00 0,00 0,00 0,00 0,00 100,00 100,00 33,33 50,00 66,67 50,00 50,00
σ 0,00 0,00 0,00 0,00 0,00 0,00 0,00
Tabela B.2. Avaliação dos erros de cada um dos grupos de características usando o classicador Bayesiano sobre as imagens das
assinaturas normalizadas, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH
Pseudo- x 55,27 52,87 61,94 54,77 54,08 0,00 0,00 37,95 28,46 18,98 27,38 27,38
dinâmicas σ 19,22 7,21 21,56 16,30 22,35 0,00 0,00
Estruturais x 44,04 43,87 45,65 45,27 45,36 54,42 54,16 48,38 49,86 51,33 49,85 49,78
σ 6,35 4,66 5,22 5,62 5,73 16,79 19,57
Hu x 37,29 29,24 25,84 34,10 34,86 76,43 85,26 48,02 56,22 64,43 55,27 57,47
σ 8,40 6,33 6,67 7,28 6,44 2,65 5,19
Maitra x 31,88 29,59 43,91 31,61 32,66 81,72 91,98 52,99 61,46 69,92 56,67 59,23
σ 7,26 4,56 6,76 7,82 4,88 4,22 5,26
Flusser x 28,82 22,21 10,54 26,98 42,51 78,90 76,40 43,67 52,16 60,66 52,94 52,31
179
σ 5,66 4,88 4,68 5,73 5,44 10,26 8,50
Simon x 31,21 24,73 4,86 29,63 60,86 42,64 28,76 33,09 33,74 34,39 36,13 32,67
σ 5,38 3,14 2,81 4,76 3,39 2,52 4,00
Central x 32,94 27,22 11,71 29,99 56,69 68,14 58,14 42,91 47,97 53,03 49,07 46,57
σ 6,26 3,27 4,69 6,47 5,40 11,87 12,73
Selecionadas x 43,41 41,88 28,78 42,98 60,26 32,76 18,06 37,81 34,71 31,61 37,87 34,19
σ 5,90 3,76 15,60 5,97 13,80 9,29 8,21
Tabela B.3. Avaliação dos erros de cada um dos grupos de características usando o classicador Bayesiano sobre as imagens das
assinaturas após aplicação da técnica do corte, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH
Pseudo- x 3,09 0,00 19,48 10,68 12,20 28,67 33,85 19,83 22,69 25,55 19,68 20,97
dinâmicas σ 2,86 0,00 8,02 6,76 7,91 11,50 11,77
Estruturais x 2,03 0,00 26,11 12,05 33,67 13,21 42,05 25,17 25,79 26,40 12,63 19,84
σ 2,30 0,00 6,28 4,77 6,36 2,58 4,54
Hu x 7,36 0,00 19,52 13,07 17,08 54,98 73,83 32,50 40,48 48,45 34,02 38,74
σ 3,17 0,00 4,14 3,96 3,77 5,60 3,69
Maitra x 4,92 0,00 21,27 16,38 17,72 51,13 67,96 32,15 39,00 45,85 33,76 37,96
σ 3,11 0,00 4,08 4,34 3,78 3,85 3,28
Flusser x 2,81 0,00 26,38 12,94 22,28 58,34 67,16 34,60 41,64 48,67 35,64 37,84
180
σ 2,37 0,00 4,56 5,31 6,61 6,16 4,65
Simon x 3,82 0,00 28,51 12,64 10,35 59,01 73,47 33,52 41,70 49,88 35,83 39,44
σ 2,77 0,00 4,84 4,54 3,95 3,33 3,86
Central x 0,78 0,00 23,11 11,83 24,96 28,88 63,82 28,76 33,16 37,55 20,35 29,09
σ 1,24 0,00 4,92 4,46 5,53 5,19 4,50
Selecionadas x 1,54 0,00 36,17 12,08 36,26 7,22 40,81 26,79 26,09 25,40 9,65 18,05
σ 1,95 0,00 6,51 5,10 6,64 2,40 4,61
Tabela B.4. Avaliação dos erros de cada um dos grupos de características usando o classicador cross-correlation sobre as imagens
das assinaturas sem transformação, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH
Pseudo- x 3,46 0,00 3,70 12,06 6,49 13,03 17,42 10,02 11,32 12,62 12,54 13,64
dinâmicas σ 2,75 0,00 2,77 4,20 4,58 4,13 5,00
Estruturais x 3,44 0,00 4,93 12,49 7,27 19,62 29,34 13,65 16,35 19,06 16,06 18,48
σ 3,46 0,00 4,12 5,22 5,17 4,66 6,02
Hu x 7,81 0,00 6,28 13,28 8,93 51,12 56,70 24,30 31,70 39,10 32,20 33,59
σ 3,20 0,00 3,49 4,64 4,10 5,34 5,05
Maitra x 6,17 0,00 7,26 16,78 8,19 51,60 55,14 24,95 32,05 39,16 34,19 35,07
σ 3,31 0,00 4,48 3,28 3,81 3,48 4,39
Flusser x 3,07 0,00 3,40 13,61 8,39 55,27 61,27 25,07 33,37 41,67 34,44 35,94
181
σ 2,53 0,00 3,45 5,10 5,27 6,41 4,64
Simon x 0,76 0,00 3,68 12,20 5,26 21,32 35,79 14,22 17,80 21,39 16,76 20,38
σ 1,23 0,00 3,50 4,45 4,20 4,62 5,10
Central x 0,00 0,46 0,78 4,69 2,56 21,78 34,09 11,09 15,30 19,51 13,23 16,31
σ 0,00 0,70 1,04 2,48 2,16 4,53 4,47
Selecionadas x 1,94 0,00 4,18 12,68 5,68 4,47 12,05 7,76 7,88 8,01 8,57 10,47
σ 2,10 0,00 3,60 5,04 4,78 1,59 3,30
Tabela B.5. Avaliação dos erros de cada um dos grupos de características usando o classicador cross-correlation sobre as imagens
das assinaturas normalizadas, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH
Pseudo- x 3,08 0,00 12,02 10,46 19,37 29,40 34,36 19,93 22,91 25,90 19,93 21,17
dinâmicas σ 2,98 0,00 8,64 8,16 8,81 12,65 13,07
Estruturais x 2,03 0,00 20,52 12,26 22,06 9,17 16,19 16,41 15,48 14,55 10,71 12,47
σ 2,27 0,00 4,31 5,09 5,05 2,85 3,67
Hu x 6,98 0,00 16,58 12,20 18,58 56,80 69,93 31,65 39,58 47,51 34,50 37,78
σ 2,84 0,00 4,70 4,42 3,77 7,98 6,78
Maitra x 5,81 0,00 20,94 15,90 27,25 44,24 54,03 30,62 35,25 39,88 30,07 32,52
σ 3,39 0,00 4,79 4,86 4,06 5,46 7,00
Flusser x 2,68 0,00 10,64 12,76 21,96 39,71 33,14 22,21 25,76 29,32 26,23 24,59
182
σ 2,19 0,00 4,84 3,95 4,11 5,42 5,79
Simon x 4,29 0,00 11,66 13,03 30,61 34,49 39,95 24,69 27,83 30,96 23,76 25,12
σ 2,72 0,00 3,68 4,03 4,25 3,30 4,63
Central x 0,86 0,00 14,95 11,64 24,29 23,36 17,05 18,04 18,58 19,12 17,50 15,92
σ 1,06 0,00 4,25 4,50 4,61 4,13 4,47
Selecionadas x 1,74 0,00 29,48 12,12 37,49 8,67 26,62 23,46 22,01 20,55 10,40 14,88
σ 2,09 0,00 7,02 5,29 6,37 2,66 4,95
Tabela B.6. Avaliação dos erros de cada um dos grupos de características usando o classicador cross-correlation sobre as imagens
das assinaturas após aplicação da técnica do corte, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH
Pseuso- x 0,14 0,69 10,25 4,77 5,00 55,61 62,10 24,07 32,76 41,46 30,19 31,81
dinâmicas σ 0,56 1,93 7,42 6,03 6,55 7,69 7,49
Estruturais x 0,04 0,20 9,95 4,11 19,20 18,36 54,01 19,45 23,63 27,82 11,23 20,14
σ 0,29 0,49 4,08 2,31 4,62 2,47 3,47
Hu x 1,14 6,56 19,74 11,41 15,18 52,23 75,72 31,62 39,71 47,80 31,82 37,69
σ 1,21 2,26 4,26 3,73 2,63 4,78 2,28
Maitra x 0,31 5,33 22,13 12,69 18,13 39,84 64,99 29,24 35,03 40,83 26,27 32,55
σ 0,75 2,09 4,18 3,62 3,78 3,58 3,22
Flusser x 0,68 4,34 34,49 10,41 9,73 59,82 66,33 33,16 40,64 48,12 35,11 36,74
183
σ 0,89 1,93 3,39 4,02 4,61 3,39 2,36
Simon x 0,05 0,43 36,33 4,65 23,74 31,68 68,91 31,15 35,94 40,72 18,17 27,47
σ 0,30 0,72 4,36 2,26 4,73 3,16 2,64
Central x 0,01 0,62 25,88 5,43 13,13 32,85 68,04 26,69 32,63 38,57 19,14 27,94
σ 0,09 0,93 3,99 2,56 4,14 3,79 3,35
Selecionadas x 0,04 0,30 27,87 4,47 22,05 7,95 50,29 21,79 23,62 25,46 6,21 16,79
σ 0,23 0,56 4,99 3,13 5,54 2,53 3,96
Tabela B.7. Avaliação dos erros de cada um dos grupos de características usando o classicador baseado em distância sobre as imagens
das assinaturas sem transformação, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH
Pseuso- x 0,34 1,19 1,56 6,46 4,43 17,75 25,28 9,94 12,83 15,73 12,11 13,99
dinâmicas σ 0,68 1,16 1,74 3,31 3,25 4,41 4,85
Estruturais x 0,21 0,12 1,13 4,31 2,58 27,37 43,10 13,53 18,95 24,38 15,84 19,77
σ 0,68 0,39 1,23 2,58 2,30 4,50 5,46
Hu x 1,43 5,74 5,29 11,58 8,73 42,23 50,70 21,17 27,50 33,82 26,90 29,02
σ 1,49 1,92 2,08 3,48 3,59 4,66 4,67
Maitra x 0,32 6,54 6,52 12,54 6,68 36,79 46,51 19,60 25,11 30,62 24,66 27,09
σ 0,74 1,89 3,16 2,97 3,33 3,89 4,61
Flusser x 0,28 4,08 1,94 11,28 8,87 55,53 56,92 23,65 31,79 39,94 33,40 33,75
184
σ 0,56 2,06 1,61 4,35 4,60 4,92 3,07
Simon x 0,08 0,66 1,38 5,28 2,73 32,74 42,08 14,55 20,27 25,98 19,01 21,35
σ 0,36 0,82 1,67 2,87 2,38 4,89 4,06
Central x 0,00 0,46 0,78 4,69 2,56 21,78 34,09 11,09 15,30 19,51 13,23 16,31
σ 0,00 0,70 1,04 2,48 2,16 4,53 4,47
Selecionadas x 0,08 0,26 1,24 4,86 2,56 6,29 14,26 5,35 6,58 7,81 5,57 7,56
σ 0,35 0,58 1,61 3,11 2,76 2,12 3,35
Tabela B.8. Avaliação dos erros de cada um dos grupos de características usando o classicador baseado em distância sobre as imagens
das assinaturas normalizadas, adotando um intervalo de conança de 99% (α = 0, 01).
Grupo Treino Valid. P M G FS FH R1 R2 R3 M+FS M+FS+FH
Pseuso- x 0,16 0,74 5,74 5,14 11,00 55,30 62,07 24,42 32,99 41,55 30,22 31,91
dinâmicas σ 0,61 1,86 6,65 5,83 7,09 8,82 8,53
Estruturais x 0,02 0,24 11,36 4,15 12,46 15,96 28,00 13,54 15,65 17,76 10,05 13,06
σ 0,20 0,55 3,06 2,34 3,30 4,40 4,89
Hu x 1,61 6,31 13,86 10,95 17,72 53,35 73,71 30,63 38,85 47,08 32,15 37,24
σ 1,36 2,21 2,95 4,00 2,37 5,78 5,02
Maitra x 0,32 7,23 17,39 12,88 27,79 29,67 27,12 22,36 23,87 25,38 21,27 20,63
σ 0,72 2,10 3,72 4,10 3,60 3,92 6,36
Flusser x 0,71 7,56 5,02 12,48 30,09 24,90 12,78 16,86 17,35 17,85 18,69 15,66
185
σ 0,89 2,43 2,96 3,27 3,34 2,14 1,81
Simon x 0,09 1,05 19,43 6,13 35,82 18,98 32,98 22,30 23,22 24,14 12,55 16,05
σ 0,35 0,88 4,89 2,47 3,95 2,50 2,44
Central x 0,04 2,03 5,49 6,82 21,41 18,07 11,58 12,43 13,03 13,63 12,44 10,82
σ 0,21 1,31 2,59 2,78 3,39 2,11 2,55
Selecionadas x 0,03 0,80 14,84 5,25 27,29 6,14 15,37 14,11 13,27 12,43 5,69 8,00
σ 0,22 0,89 5,00 2,95 5,60 2,25 2,86
Tabela B.9. Avaliação dos erros de cada um dos grupos de características usando o classicador baseado em distância sobre as imagens
das assinaturas após aplicação da técnica do corte, adotando um intervalo de conança de 99% (α = 0, 01).
APÊNDICE C
BANCO DE DADOS E
DETALHAMENTO DOS
RESULTADOS DA DINÂMICA
DA DIGITAÇÃO
186
Classe Nome # Autênticos # Falsos
187
Classe Teste1 Teste2 Teste3 Teste4
1 7,50 2,00 1,50 3,00
2 63,68 4,74 5,26 4,21
3 40,50 5,00 3,50 1,50
4 44,00 4,50 1,50 3,50
5 62,35 20,59 8,82 17,65
6 22,63 6,32 17,89 13,16
7 85,50 35,00 26,00 26,50
8 22,00 2,50 0,00 0,00
9 97,33 32,00 21,33 24,00
10 5,00 2,00 1,00 0,00
11 29,74 3,68 6,32 1,58
12 32,50 13,00 3,00 5,50
13 46,19 1,90 0,00 0,00
14 30,53 0,53 0,53 0,00
15 48,10 41,43 50,95 34,29
16 12,78 3,89 33,33 17,22
17 40,00 0,00 3,50 0,50
18 30,00 8,00 11,00 6,00
19 34,48 3,10 3,45 3,45
20 69,50 12,00 29,50 15,00
21 36,84 27,89 23,68 22,11
22 59,00 45,50 76,50 49,00
23 68,95 21,58 27,37 36,84
24 28,13 4,38 2,50 1,88
Média 42,38 12,56 14,94 11,95
Máximo 97,33 45,50 76,50 49,00
Mínimo 5,00 0,00 0,00 0,00
191
Índice Face Assinatura Dinâmica da Digitação
16 0,3 0,1 0,6
17 0,3 0,2 0,5
18 0,3 0,3 0,4
19 0,3 0,4 0,3
20 0,3 0,5 0,2
21 0,3 0,6 0,1
22 0,4 0,1 0,5
23 0,4 0,2 0,4
24 0,4 0,3 0,3
25 0,4 0,4 0,2
26 0,4 0,5 0,1
27 0,5 0,1 0,4
28 0,5 0,2 0,3
29 0,5 0,3 0,2
30 0,5 0,4 0,1
31 0,6 0,1 0,3
32 0,6 0,2 0,2
33 0,6 0,3 0,1
34 0,7 0,1 0,2
35 0,7 0,2 0,1
36 0,8 0,1 0,1
Tabela D.1. Pesos empregados nos experimentos quando da combinação das três biome-
trias: Face, Assinatura e Dinâmica da Digitação.
192
BIBLIOGRAFIA
193
[BF95] Roberto Brunelli and Daniele Falavigna. Person identication using
multiple cues. IEEE Transactions on Pattern Analysis and Machine
Intelligence, 17(10):955966, 1995.
[BR93] Marcus Brown and Samuel Joe Rogers. User identication via
keystroke characteristics of typed names using neural networks. In-
ternational Journal of Man-Machine Studies, 39(6):9991014, 1993.
194
[BS98] Marian Stewart Bartlett and H. Martin Lades Terrence J. Se-
jnowski. Independent Component Representations for Face Recog-
nition. In Proceedings of the SPIE, volume 3299, pages 528539,
1998.
195
signatures. In IEEE International Workshop on Neural Networks
for Signal Processing, pages 355364, Martigny,Valais - Switzer-
land, 2002.
196
[CKI99] Y. C. Chim, A. A. Kassim, and Y. Ibrahim. Character recognition
using statistical moments. Image and Vision Computing, 17:299
307, 1999.
[CW02] J-T Chien and C-C Wu. Discriminant waveletfaces and nearest fea-
ture classiers for face recognition. IEEE Transactions on Pattern
Analysis and Machine Intelligence, 24(12):16441649, 2002.
197
[Dau03] John Daugman. The importance of being random: statistical prin-
ciples of iris recognition. Pattern Recognition, 36(2):279291, 2003.
[DBB+ 97] Benoit Duc, Elizabeth S. Bigun, Josef Bigun, Gilbert Maitre, and
Stefan Fischer. Fusion of audio and video information for multi
modal person authentication. Pattern Recognition Letters, 18:835
843, 1997.
198
[FER] FERET Database. Disponível: site The FERET Database (07 jun.
2001). URL: http://www.itl.nist.gov/iad/humanid/feret/ Consul-
tado em 20 nov. 2003.
[FLT+ 02] B. Fang, C.H. Leung, Y.Y. Tang, P.C.K. Kwok, K.W. Tse, and
Y.K. Wong. Oine signature verication with generated training
samples. IEE Proceedings-Vision, Image and Signal Processing,
149(2):8590, 2002.
199
[GMC02] Kátia S. Guimaraes, Jeane C. B. Melo, and George D. C. Caval-
canti. Simple and Ecient Secondary Structure Prediction. In Eu-
ropean Conference on Computational Biology (ECCB 2002), pages
7576, Saarbrucken, Germany, 2002.
[GS98] Marco Gori and Franco Scarselli. Are Multilayer Perceptrons Ade-
quate for Pattern Recognition and Verication? IEEE Transaction
on Pattern Analysis and Machine Intelligence, 20(11):11211132,
1998.
[HJ98] Lin Hong and Anil K. Jain. Integrating faces and ngerprints for
personal identication. IEEE Transactions on Pattern Analysis and
Machine Intelligence, 20(12):12951307, 1998.
200
[HL96] Joseph P. Hobeck and David A. Landgrebe. Covariance Ma-
trix Estimation and Classication With Limited Training Data.
IEEE Transaction on Pattern Analysis and Machine Intelligence,
18(7):763767, 1996.
[HL01] Erik Hjelmas and Boon Kee Low. Face detection: A survey. Com-
puter Vision and Image Understanding, 83(3):236274, 2001.
[HY03] Kai Huang and Hong Yan. Stability and style-variation modeling
for on-line signature verication. Pattern Recognition, 36(10):2253
2270, 2003.
[JCM03] Anil K. Jain, Hong Chen, and Silviu Minut. Dental Biometrics:
Human Identication Using Dental Radiographs. In International
201
Conference on Audio- and Video-Based Biometric Person Authen-
tication (AVBPA), Lecture Notes in Computer Science, pages 429
437, Guildford, UK, 2003. Springer.
[JHP00] Anil K. Jain, Lin Hong, and Sharath Pankanti. Biometric Identi-
cation. Communications of the ACM, 43(2):9098, 2000.
[JPC99] Anil K. Jain, Salil Prabhakar, and Shaoyun Chen. Combining mul-
tiple matchers for a high security ngerprint verication system.
Pattern Recognition Letters, 20(11):13711379, 1999.
202
[JPP02] Anil K. Jain, Salil Prabhakar, and Sharath Pankanti. On the
Similarity of Identical Twin Fingerprints. Pattern Recognition,
35(11):26532663, 2002.
203
[KMJS97] J. Kittler, G. Matas, K. Jonsson, and M. Sanchez. Combining evi-
dence in personal identity verication systems. Pattern Recognition
Letters, 18:845852, 1997.
[KWSJ03] Ajay Kumar, David C. M. Wong, Helen C. Shen, and Anil K. Jain.
Personal Verication Using Palmprint and Hand Geometry Bio-
metric. In International Conference on Audio- and Video-Based
Biometric Person Authentication (AVBPA), Lecture Notes in Com-
puter Science, pages 668678, Guildford, UK, 2003. Springer.
[Li92] Y. Li. Reforming the theory of invariant moments for pattern recog-
nition. Pattern Recognition, 25(7):723730, 1992.
[LKL97] S.H. Lin, S.Y. Kung, and L.J. Lin. Face recognition/detection by
probabilistic decision-based neural network. IEEE Transactions on
Neural Networks, 8(1):114131, 1997.
[LL97] X. S. Liao and Q Lu. A study of moment functions and its use in
chinese character recognition. Fourth International Conference on
Document Analysis and Recognition, pages 572575, 1997.
204
[LWvdM97] N. Kruger L. Wiskott, J-M. Fellous and C. von der Malsburg. Face
recognition by elastic bunch graph matching. IEEE Transactions
on Pattern Analysis and Machine Intelligence, 19(7):775779, 1997.
205
[MK01] A. M. Martínez and A. C. Kak. PCA versus LDA. IEEE Transac-
tions on Pattern Analysis and Machine Intelligence, 23(2):228233,
2001.
[MTWZ03] Li Ma, Tieniu Tan, Yunhong Wang, and Dexin Zhang. Personal
Identication Based on Iris Texture Abalysis. IEEE Transactions
on Pattern Analysis and Machine Intelligence, 25(12):15191533,
2003.
206
[Nal97] Vishvjit S. Nalwa. Automatic On-Line Signature Verication. Pro-
ceedings of the IEEE, 85(2):213239, 1997.
[ORL] ORL Database. Disponível: site The ORL Face Database (2002).
URL: http://www.uk.research.att.com/facedatabase.html Consul-
tado em 20 nov. 2003.
[PPJ02] Sharath Pankanti, Salil Prabhakar, and Anil K. Jain. On the Indi-
viduality of Fingerprints. IEEE Transactions on Pattern Analysis
and Machine Intelligence, 24(8):10101025, 2002.
207
[RM99] V. E. Ramesh and M. N. Murty. O-line signature verication
using genetically optimized weighted features. Pattern Recognition,
32(2):217233, 1999.
208
[SM92] V. S. Srinivasan and N. N. Murthy. Detection of Singular Points in
Fingerprint Images. Pattern Recognition, 25(2):139153, 1992.
[SP03a] Conrad Sanderson and Kuldip K. Paliwal. Fast features for face au-
thentication under illumination direction changes. Pattern Recog-
nition Letters, 24(14):24092419, 2003.
[SP03b] Conrad Sanderson and Kuldip K. Paliwal. Features for robust face-
based identity verication. Signal Processing, 83(5):931940, 2003.
[SUM+ 05] R. Snelick, U. Uludag, A. Mink, M. Indovina, and Anil Jain. Large
Scale Evaluation of Multimodal Biometric Authentication Using
State-of-the-Art Systems. IEEE Transactions on Pattern Analysis
and Machine Intelligence, 27(3):450455, 2005.
209
baseado em redes neurais para o reconhecimento automático de
alvos. In V Simpósio Brasileiro de Redes Neurais, pages 2732,
Belo Horizonte-MG, Brasil, 1998.
210
[VCA00] Patrick Verlinde, Gerard Chollet, and Marc Acheroy. Multi-
modal identity verication using expert fusion. Information Fusion,
1(1):1733, 2000.
[Way99] J. L. Wayman. Error Rate Equations for the General Biometric Sys-
tem. IEEE Robotics and Automation Magazine, 6(1):3548, 1999.
[WTJ03] Yunhong Wang, Tieniu Tan, and Anil K. Jain. Combining Face
and Iris Biometrics for Identity Verication. In International Con-
ference on Audio- and Video-Based Biometric Person Authentica-
tion (AVBPA), Lecture Notes in Computer Science, pages 805813,
Guildford, UK, 2003. Springer.
211
[YC04] Enzhe Yu and Sungzoon Cho. Keystroke dynamics identity verica-
tion - its problems and practical solutions. Computers and Security,
23(5):428440, 2004.
212
213