Escolar Documentos
Profissional Documentos
Cultura Documentos
Santo André - SP
2021
Daniel Gonçalves da Silva
Santo André - SP
2021
Sistema de Bibliotecas da Universidade Federal do ABC
Elaborada pelo Sistema de Geração de Ficha Catalográfica da UFABC
com os dados fornecidos pelo(a) autor(a).
81 fls.
FOLHA DE ASSINATURAS
Assinaturas dos membros da Banca Examinadora que avaliou e aprovou a Defesa de Dissertação
de Mestrado do candidato, DANIEL GONÇALVES DA SILVA realizada em 15 de Dezembro de
2021:
_________________________________
Prof.(a) CARLOS DA SILVA DOS SANTOS
UNIVERSIDADE FEDERAL DO ABC
_________________________________
Prof.(a) EDSON PINHEIRO PIMENTEL
UNIVERSIDADE FEDERAL DO ABC
_________________________________
Prof.(a) JOSE ARTUR QUILICI GONZALEZ
UNIVERSIDADE FEDERAL DO ABC
_________________________________
Prof.(a) JULIANA CRISTINA BRAGA
UNIVERSIDADE FEDERAL DO ABC
_________________________________
Prof.(a) FRANCISCO DE ASSIS ZAMPIROLLI
UNIVERSIDADE FEDERAL DO ABC - Presidente
* Por ausência do membro titular, foi substituído pelo membro suplente descrito acima: nome completo, instituição e assinatura
Agradecimentos
À Deus, por me permitir realizar mais um sonho, por não me deixar desistir
nos momentos mais desgastantes e difíceis deste trabalho. Sou eternamente grato
por Sua graça, bondade e infinito amor.
Ao meu orientador Prof. Dr. Francisco de Assis Zampirolli pelo profissiona-
lismo, dedicação, competência e orientação. Sem dúvidas, sua confiança, paciência e
incentivo foram essenciais, tanto para as as publicações realizadas em congressos e
desenvolvimento técnico deste trabalho, como para meu desenvolvimento acadêmico,
profissional e pessoal.
Aos professores do curso de Ciência da Computação da UFABC, por todo
o conteúdo ensinado com excelência e profissionalismo, e que de alguma forma me
auxiliou no desenvolvimento acadêmico e obtenção do conhecimento, em especial os
professores doutores: Paulo Henrique Pisani, Fabrício Olivetti de França, Carlos da
Silva dos Santos, Carla Negri Lintzmayer, Jesús Mena-Chalco e Edson Pimentel.
À minha mãe, Valcir Camilo, por todo apoio e sempre me incentivar a progredir
seja onde eu esteja. E a minha avó, Francisca Marinho, por seus ensinamentos em
minha vida.
À minha amada, Camila Pal, pelo seu incrível apoio e incentivo. Além de
palavras, você demonstrava que estava do meu lado seja revisando meu texto, seja
assistindo minhas apresentações.
Ao meu amigo Silas Justiniano pelas ajudas e explicações técnicas. Você sem-
pre foi bastante solícito em ajudar ou pesquisar sobre qualquer tema de computação.
Aos amigos e colegas de trabalho que de alguma forma opinaram, incentivaram
e auxiliaram para que este trabalho fosse realizado.
O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoa-
mento de Pessoal de Nível Superior - Brasil (CAPES) - Código de Financiamento
001.
“Não há maior obstáculo ao conhecimento do que o orgulho, e nenhuma condição
mais essencial do que a humildade.”
(John Stott)
Resumo
Avaliações online estão cada vez mais presentes. Isso é ainda mais evidente com
a grande demanda resultante da pandemia de 2020. No entanto, verificar a au-
tenticidade do avaliado é uma tarefa que ainda precisa de novas soluções. Neste
sentido, este trabalho apresenta dois plugins para o Moodle, um Sistema de Gestão
da Aprendizagem amplamente utilizado nos diversos níveis do ensino. O primeiro,
chamado Face Verification Quiz, é para o registro e verificação facial do usuário
no Moodle, em uma atividade de questionário com esse recurso habilitado. O segundo,
chamado Face Verification Report, é para mostrar um relatório de acessos
nesta atividade. Redes Neurais Convolucionais Profunda treinadas foram usadas
para detectar rapidamente o contorno da face através de pixels dos olhos, nariz e
boca. Outra rede foi utilizada para a verificação facial, extraindo um vetor de 128
dimensões de cada face por meio da arquitetura de rede neural ResNet-34. Esses
plugins foram testados com 31 usuários. Os resultados apresentam a viabilidade
de uso, com aprovação média de 75% através de um questionário aplicado em 16
usuários em atividades opcionais online realizadas no Moodle no final de 2020 e início
de 2021. Apesar dos desafios apresentados pela pandemia COVID-19, as soluções
apresentadas poderão ser úteis após esse período de isolamento.
∝ Proporcionalidade
√
Raiz
P
Somatório
Sumário
1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Problematização . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Definições: Autenticação, Autorização, Identificação, Verifica-
ção e Reconhecimento Facial . . . . . . . . . . . . . . . . . . . . 1
1.3 Contextualização . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4 Objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.5 Justificativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.6 Organização do Texto . . . . . . . . . . . . . . . . . . . . . . . . 4
2 FUNDAMENTOS TEÓRICOS . . . . . . . . . . . . . . . . . . 5
2.1 Imagens Digitais . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Redes Neurais Artificiais (RNA) . . . . . . . . . . . . . . . . . . 6
2.2.1 Neurônio Biológico . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.2 Neurônio Artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.3 O Perceptron . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.4 Funções de Ativação . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.5 Problema XOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.6 Perceptron de Múltiplas Camadas . . . . . . . . . . . . . . . . . . . 12
2.2.7 Redes Neurais Convolucionais . . . . . . . . . . . . . . . . . . . . . 13
2.2.8 Extração de Características . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.8.1 Operação de Pooling . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Aprendizagem Profunda para Visão Computacional . . . . . . . 18
2.4 Métodos de Detecção de Objetos . . . . . . . . . . . . . . . . . 19
2.4.1 Algoritmo Viola-Jones . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.2 MTCNN (Multi-Task Cascaded Convolutional Neural Network) . . . . 20
2.5 Método de Classificação de Imagem . . . . . . . . . . . . . . . . 21
2.5.1 Residual Network (ResNet) . . . . . . . . . . . . . . . . . . . . . . . 22
2.6 Aprendizado Profundo de Métricas . . . . . . . . . . . . . . . . 24
2.7 Biblioteca Face-api.js . . . . . . . . . . . . . . . . . . . . . . . . 24
2.8 A Plataforma Moodle . . . . . . . . . . . . . . . . . . . . . . . . 25
2.8.1 Módulo Questionário (Quiz) . . . . . . . . . . . . . . . . . . . . . . 26
2.8.2 Componente quiz access rule . . . . . . . . . . . . . . . . . . . . . . 26
2.8.3 Componente quiz report . . . . . . . . . . . . . . . . . . . . . . . . 27
3 TRABALHOS RELACIONADOS . . . . . . . . . . . . . . . . . 29
4 DESENVOLVIMENTO DO PROTÓTIPO . . . . . . . . . . . . 33
4.1 Engenharia de Software . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.1 Requisitos Funcionais . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.2 Modelagem da Solução . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.2.1 Diagrama de Casos de Uso . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.2.2 Diagrama de Classe . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.2.3 Diagrama Entidade Relacionamento (DER) . . . . . . . . . . . . . . . . 34
4.1.2.4 Diagrama de Pacotes . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.3 Requisitos Não-Funcionais . . . . . . . . . . . . . . . . . . . . . . . 36
4.1.4 Fluxograma da Solução Proposta . . . . . . . . . . . . . . . . . . . . 37
4.1.5 Arquitetura do Sistema . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Apresentação da Solução . . . . . . . . . . . . . . . . . . . . . . 38
4.2.1 Cadastro Facial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.2 Verificação Facial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.3 Funcionalidade de Relatório do Plugin . . . . . . . . . . . . . . . . . 41
4.2.4 Repositório do Projeto . . . . . . . . . . . . . . . . . . . . . . . . . 42
5 EXPERIMENTOS E DISCUSSÕES . . . . . . . . . . . . . . . 45
5.1 Comitê de Ética . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.2 Contexto dos Experimentos . . . . . . . . . . . . . . . . . . . . . 45
5.2.1 Primeiro Experimento . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.2.2 Segundo Experimento . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.3 Avaliação da Eficácia . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3.1 Representação Tridimensional dos Dados Faciais . . . . . . . . . . . . 48
5.3.2 Acurácia do Método . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.4 Avaliação da Usabilidade do FVQ . . . . . . . . . . . . . . . . . 50
5.5 Discussões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.6 Limitações do Trabalho . . . . . . . . . . . . . . . . . . . . . . . 52
REFERÊNCIAS . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1
1 Introdução
1.1 Problematização
O cenário atual da pandemia intensificou o problema de autentificação de
usuário (tarefa de verificar a identidade deste). Com isso, avaliações e exames estão
sendo aplicados de forma online de modo que nem sempre é possível garantir que
o aluno não se passou por outro no momento da resolução. Dessa forma, realizar
a verificação da identidade do aluno pode minimizar que uma pessoa se passe por
outra.
1.3 Contextualização
A pandemia do Covid-19 veio deixar ainda mais desafiadora essa importante
atividade, tendo agora que ser realizada de forma remota (RAHIM, 2020), pelas
exigências do distanciamento social. Sabemos também que a falta de motivação é um
dos principais fatores de desistência em atividades de ensino a distância (KUOSA
et al., 2016). Além disso, temos que lidar com problemas sócio-econômicos, na qual
estudantes de baixa renda têm dificuldades de acesso ao computador e/ou à internet.
Novas Tecnologias da Informação e Comunicação (TIC) estão sendo criadas
ou aprimoradas, principalmente em avaliações remotas, situação em que o avaliador
e o avaliado estão distantes fisicamente, possibilitando que o avaliado se passe por
outra pessoa. Neste sentido, Sistemas de Gestão da Aprendizagem (SGA), como o
Moodle (<moodle.org>) estão sendo utilizados intensamente, em todos os níveis da
educação. O Moodle é um popular ambiente para auxiliar os professores e estudantes
a manterem contato de forma virtual, disponibilizando material didático, meios de
comunicação e atividades avaliativas (PRESEDO et al., 2015). O Moodle, por ser
de código aberto, permite que várias pessoas possam fazer contribuições no sistema,
como a criação de plugins para melhorar ainda mais os recursos disponíveis.
Atualmente, métodos de verificação de identidade são bastantes comuns no
contexto de aplicação de exames ou provas de seleção no modo presencial. Muitos dos
métodos de verificação, baseiam-se em uma checagem manual da face do indivíduo
com a foto do documento de identificação apresentada por ele. Assim, o objetivo
principal desta verificação é certificar-se que o indivíduo é quem ele diz ser. Desta
forma, temos apenas duas opções para responder a cada verificação: (1) verdade, é
a pessoa quem ela diz ser, ou (2) falso, não é pessoa quem ela diz ser pois não há
similaridade entre o indivíduo e a foto apresentada. Vale lembrar, que o objetivo dos
métodos de verificação de identidade não é identificar o indivíduo mas unicamente
verificar a identidade apresentada. Como exemplo de implementação de um sistema de
verificação online, a verificação facial poderia ser associada a uma consulta ao banco
de dados para recuperar a foto do indivíduo cadastrado previamente, e compará-la
com o indivíduo apresentado de modo que verifique se a pessoa é a mesma ou não.
Já a identificação facial, poderia ser associado a uma consulta as fotos de todos
indivíduos cadastrados previamente de modo que a identidade do indivíduo seja
1.4. Objetivo 3
1.4 Objetivo
Além de identificar na literatura o estado da arte em verificação facial, o
objetivo principal desta pesquisa é desenvolver uma ferramenta para autentificação
de usuário por meio de verificação facial para o Sistema de Gestão de Aprendizagem
Moodle. Como complemento, a ferramenta deve gerar informações sobre inconsistência
na autenticação de modo que os acessos possam ser analisados.
Objetivos Específicos
• Validar o método de verificação facial tanto para detecção facial, como para
extração de características faciais.
1.5 Justificativa
A verificação facial online é importante em avaliações em geral principalmente
no contexto da pandemia do Covid-19. Este trabalho apresenta uma solução inovadora
para o Sistema de Gestão de Aprendizagem (SGA) do Moodle de forma gratuita,
utilizando o estado da arte no reconhecimento e verificação facial. Este recurso
pode ser utilizado em diferentes instituições que tem como objetivo final avaliar
as competências e habilidades do estudante através de uma plataforma de ensino
digital.
2 Fundamentos Teóricos
Filtragem Espacial
A filtragem espacial é uma ferramenta na área de processamento de imagem
que realiza transformações em uma imagem por meio de um filtro (GONZALEZ;
WOODS, 2009). Os filtros mais conhecidos são de: suavização (blur), nitidez (sharpen)
e detecção de bordas (edge detection). A Figura 2 exemplifica a operação de convolução
por meio de um filtro em uma imagem de entrada.
Basicamente, os filtros (ou kernels ou máscaras) de detecção de bordas
baseiam-se nas variações abruptas de intensidade de pixels locais fazendo com que
eles se realcem caso encontre uma borda na imagem (GONZALEZ; WOODS, 2009).
A Figura 3 mostra a operação de convolução na imagem a fim de detectar bordas
verticais (quadrante 2), detectar bordas horizontais (quadrante 3), e por fim, a
6 Capítulo 2. Fundamentos Teóricos
(a) (b)
Figura 1 – A Figura (a) exemplifica uma imagem 2D com um canal de cor (escala
cinza).
2.2.3 O Perceptron
Em 1958, Rosenblatt propôs um modelo melhorado do neurônio artificial, o
perceptron. Este novo modelo foi melhorado adicionando pesos sinápticos ajustáveis e
o bias. O termo bias tende a evitar que a saída do perceptron seja nula na ausência de
entradas (GOODFELLOW; BENGIO; COURVILLE, 2016). Este novo melhoramento
possibilitou a classificação de padrões onde as classes são linearmente separáveis
(HAYKIN, 2009). O perceptron é também conhecido como Threshold Logic Unit
(TLU) ou linear threshold unit onde as entradas e saídas pode ser números ao invés
de valores binários (como no modelo do neurônio artificial). Basicamente, é calculada
a soma das entradas x multiplicada pelo seu respectivo peso w, e então aplicada a
função de ativação (definida na Seção 2.2.4) no valor total somado, resultando na
saída do y (GRON, 2017).
Figura 5 – Perceptron.
Fonte: baseado em Rauber (2005)
z = w1 x1 + w2 + x2 + ... + wn xn = xT w (2.1)
1
Se z ≥ θ
y= (2.2)
0 caso contrário
De modo que a rede neural resolva problemas não lineares, como exemplicado
na Seção 2.2.5 (Problema XOR), o limiar θ é substituído por uma função de ativação
não linear ϕ. Desta forma, podemos representar um neurônio matematicamente pela
Equação 2.3.
n
X
yk = ϕ( x i w i + bk ) (2.3)
i=1
Função Sigmóide
1
f (x) = (2.4)
1 + e−x
1 y
0.8
0.6
0.4
0.2
x
−10 −5 5 10
função.
ex − e−x
f (x) = (2.5)
ex + e−x
1 y
0.5
x
−10 −5 5 10
−0.5
−1
x,
se x > 0
f (x) = (2.6)
0, caso contrário.
5 y
1
x
−6 −4 −2 2 4 6
Figura 11 – Campos receptivos locais na qual o córtex analisa uma imagem mais
profundamente. Como visto na imagem, para reconhecer cada tipo de
característica (bordas, linhas, triângulos, quadrados etc) é necessário
um conjunto de neurônios que seja responsável na identificação de cada
um desses padrões.
Fonte: Gron (2017, p. 433)
∞
X
h(x) = (f ∗ g)(x) = f (u)g(x − u) (2.7)
u=0
16 Capítulo 2. Fundamentos Teóricos
Figura 13 – Operação de Convolução em uma matriz 5x5 (azul claro) e kernel 3x3
(azul escuro), resultando numa matriz 3x3 (verde claro) chamada feature
map.
Fonte: Dumoulin e Visin (2018)
Padding
Stride
Características de Haar são filtros que são aplicados na imagem pelo algo-
ritmo do Viola-Jones para detecção de padrões de bordas e linhas, como mostrado,
respectivamente, nas Figuras 18 e 19. Esse nome foi dado devido sua similaridade
com as wavelets de Haar o qual foi proposta originalmente por Alfréd Haar. Para
fazer a detecção, é selecionada uma área da imagem e feita operação de convolução
com os filtros para ver se existe uma característica de borda ou de linha presente
na parte selecionada. Essa etapa é seguida até que todas as áreas da imagem sejam
selecionadas. A Figura 18 exemplifica uma detecção de características de linha e
borda em uma face.
20 Capítulo 2. Fundamentos Teóricos
Imagem Integral
Figura 24 – Função de perda Triplet (ou do inglês, Triplet loss). O objetivo desta
função de perda é garantir que a imagem âncora esteja próxima de todas
as imagens de mesma classe (positivas) e longe de todas as imagens de
classes diferentes (negativas). Matematicamente, é utilizada a distância
euclidiana para calcular a distância entre os vetores de características.
Fonte: Autor
distância euclidiana entre os dois vetores. Este modelo alcança acurácia de 99.38% no
banco de imagem Labelled Faces in the Wild para reconhecimento facial (VILLÁN,
2019).
Este trabalho utilizou a biblioteca Face-api.js para detectar e gerar o vetor
da face na plataforma Moodle descrita a seguir.
3 Trabalhos relacionados
Nesta seção, são apresentados alguns trabalhos que possuem relação com
verificação e reconhecimento facial de usuários aplicados no contexto de educação a
distância.
Diniz et al. (2013) apresentou um sistema para reconhecimento facial utili-
zando o classificador K-Nearest Neighbors (K-NN), Análise de Componentes Princi-
pais (do inglês, Principal component analysis – PCA) e Eigenfaces no Moodle. A
acurácia do método foi de 92% com imagens de 12×9, com 20 características resultan-
tes do PCA. No entanto, Machidon, Machidon e Ogrutan (2019) mostrou que quando
comparada a acurácia utilizando datasets maiores, como o Labelled Faces in the Wild
(aproximadamente 5700 identidades, totalizando 13 mil imagens), o resultado piorou
significamente, no método Eigenfaces e PCA, performando aproximadamente 77%
de acurácia (MACHIDON; MACHIDON; OGRUTAN, 2019).
Labayen et al. (2014) apresenta o sistema SMOWL1 , para autenticação
contínua na Web por reconhecimento facial. Este trabalho apresentou um resultado
empírico integrado ao Moodle, com 67 estudantes do mestrado em Educação e Novas
Tecnologias da Universidade Aberta de Madri. O Moodle envia a foto e identidade
do estudante para um servidor no registro e, aleatoriamente, durante uma avaliação.
O SMOWL processa esses dados, gerando um relatório que pode ser acessado pela
instituição. Esse serviço é pago e os algoritmos usados no trabalho não estão descritos
no artigo supracitado.
Wagh et al. (2015) desenvolveu um sistema próprio para reconhecimento
facial utilizando técnicas como invariante de iluminação, algoritmo de Viola e Jones,
Análise de Componentes Principais (PCA) para problemas relacionados a intensidade
de luz e postura do rosto. Basicamente, as principais etapas neste sistema são detectar
os rostos e reconhecê-los em seguida. Logo após, a comparação dos rostos detectados
é feita por meio de uma verificação cruzada com o banco de dados de rostos dos
alunos. Este trabalho compara diversos métodos de reconhecimento e a taxa de
acerto de cada método, são eles: Principal Component Analysis (PCA) 79.65%,
Principal Component Analysis + Relevant Component Analysis 92.34%, Independent
Component Analysis 81.35%, Support Vector Machines 85-92.1%, Neural Networks
93.7%, Eigenfaces Method 92%, Eigenfaces with PCA Method 92.30%.
1
<https://smowl.net>.
30 Capítulo 3. Trabalhos relacionados
2
<https://moodle.org/plugins/quizaccess_fullface>.
3
<https://www.videofront.com.br/en/face-authentic>.
31
4 Desenvolvimento do Protótipo
Este capítulo tem por objetivo apresentar a solução proposta por meio do
desenvolvimento de dois protótipos do tipo plugin instalável no Moodle. O primeiro
chamado Face Verification Quiz que irá cadastrar e validar o rosto por meio de
imagem digital antes de iniciar o Quiz, e o segundo chamado Face Verification
Report que irá fornecer ao professor o log de acesso da verificação facial de cada
tentativa.
• Certificado digital: pelo fato que o plugin capta imagens da webcam do usuário,
é necessário que um certificado digital esteja configurado no servidor do Moodle
pois os browsers atuais exigem este requisito para o acesso a câmera ou webcam
do usuário;
e realiza a comunicação, por padrão JSON (JavaScript Object Notation), via web
services API para efetivar as consultas, inserções e atualizações no banco de dados
da plataforma Moodle.
na imagem (para detalhes dos cálculos realizados em cada camada, consultar (Zhang
et al., 2016b)). Ao término do processamento, a ResNet-34 devolve a representação
vetorial da face em 128 dimensões, ou seja, um vetor de 128 valores.
A Figura 31 resume o processo completo de cadastro facial o qual gera um
vetor de 128 posições da face captada. Após a geração, este vetor é gravado no banco
de dados para futuras comparações de similaridades no processo de verificação facial.
0.99 é mostrado ao redor da face e, representa o quanto aquilo se parece com uma
face. Assim quanto maior o número, melhor a posição e iluminação da face. Feito
o registro facial, o vetor de 128 valores será inserido no banco de dados, dentro da
tabela fvquiz_registered. A Figura 33 mostra o processo de registro da face.
(a) (b)
Figura 33 – Recortes de telas no Moodle antes da realização de um Quiz: (a) se o
estudante ainda não tem um registro de sua face, deve aguardar aparecer
o retângulo azul (o número 0.98 representa a acurácia de ser uma face,
com valor máximo igual a 1); (b) após o estudante clicar em Registrar
Face, deve aparecer no lado direito inferior da tela um recorte da face,
representando que a face esta registrada, com alteração automática da
imagem do cadastro do estudante.
Fonte: Autor
distância euclidiana normalizada, desejável ser menor que 0.6 para liberar o acesso
ao questionário. Finalmente, a última coluna mostra a data e a hora da verificação
realizada.
5 Experimentos e Discussões
(i.e. dada uma face e a identificação do usuário, retornar se o usuário é quem ele
diz ser, utilizando o limiar padrão 0.6 o qual é recomendado pelo autor do modelo
<https://github.com/davisking/dlib-models>), 434 tentativas acessariam o quiz
indevidamente.
Assim, foi gerada a matriz da Figura 42 com limiar um pouco mais rigoroso,
igual a 0.55, com o objetivo de diminuir os valores de FP. Desta forma, foi alcançada
a acurácia de 98.96% de acertos e reduzido os valores de FP igual a 66. Ou seja, 66
representaria o número de usuários que iriam acessar o quiz indevidamente.
50 Capítulo 5. Experimentos e Discussões
Para gerar um processo de acesso mais rigoroso, bastaria diminuir ainda mais
esse limiar.
Esses valores de acurácia apresentados nestes experimentos para a verifica-
ção facial, igual a 99%, seguem o estado da arte (SCHROFF; KALENICHENKO;
PHILBIN, 2015).
Nas três Figuras 44, 45 e 46, a nota 1 representa: “não reconheceu em mais
5.4. Avaliação da Usabilidade do FVQ 51
Figura 44 – Estatísticas sobre tempo para habilitar a webcam. Quanto maior a nota,
menor o tempo para habilitar a webcam.
Fonte: Autor
5.5 Discussões
A Tabela 3 resume as respostas dos questionário para as 3 questões obrigató-
rias, relacionadas ao tempo de resposta para acessar a webcam, cadastro/verificação
e quiz, respectivamente. Para os usuários 15 e 16, que responderam 1 para as três
questões: o primeiro não tinha webcam e o segundo realizou o experimento utilizando
o Android, relatando: “O sistema não me deixou iniciar o quiz, o primeiro passo de
verificação em relação a primeira foto dava erro de similaridade”. O primeiro caso,
realmente não é possível utilizar o FVQ sem uma webcam. O segundo caso, o usuário
não especificou qual foi o celular utilizado, não sendo possível afirmar que foi um
problema do FVQ ou do usuário utilizar um celular muito antigo. O usuário 14,
relatou “O plugin apresentou inconsistências ao abrir no navegador do meu notebook,
além que teve dificuldades em reconhecer meu rosto eu outras posições da câmera
(diferentes cenários)”, utilizando um notebook antigo (HP-g42-321br).
Publicações
Silva, Daniel Gonçalves da; Zampirolli, Francisco de Assis. Reconhe-
cimento facial para validação de usuário durante um questionário no Moodle. Menção
Honrosa. In: IX CONGRESSO BRASILEIRO DE INFORMÁTICA NA
EDUCAÇÃO (WCBIE), 9. , 2020, Online. Porto Alegre: Sociedade Brasileira de
Computação, 2020. p. 124-131 (SILVA; ZAMPIROLLI, 2020).
Silva, Daniel Gonçalves da; Zampirolli, Francisco de Assis. Face
Verification Experiments on Moodle Quiz. In: 2021 XVI Latin American Con-
56 Capítulo 6. Conclusões e Trabalhos Futuros
Referências
BELI, I. L. K.; GUO, C. Enhancing face identification using local binary patterns
and k-nearest neighbors. Journal of Imaging, Multidisciplinary Digital Publishing
Institute, v. 3, n. 3, p. 37, 2017. Citado na página 31.
GULLI, A.; PAL, S. Deep learning with Keras. [S.l.]: Packt Publishing Ltd, 2017.
Citado na página 24.
Guo, T. et al. Simple convolutional neural network on image classification. In: 2017
IEEE 2nd International Conference on Big Data Analysis (ICBDA). [S.l.: s.n.], 2017.
p. 721–724. Citado na página 3.
HAYKIN, S. Neural Networks and Learning Machines. Prentice Hall, 2009. (Neural
networks and learning machines, v. 10). ISBN 9780131471399. Disponível em:
<https://books.google.com.br/books?id=K7P36lKzI\_QC>. Citado 2 vezes nas
páginas 6 e 9.
He, K. et al. Deep residual learning for image recognition. In: 2016 IEEE Conference
on Computer Vision and Pattern Recognition (CVPR). [S.l.: s.n.], 2016. p. 770–778.
Citado 3 vezes nas páginas 9, 22 e 23.
HJELMÅS, E.; LOW, B. K. Face detection: A survey. Computer vision and image
understanding, Elsevier, v. 83, n. 3, p. 236–274, 2001. Citado na página 2.
HONGYU, K.; AL. et. Análise de componentes principais: resumo teórico, aplicação
e interpretação. E&S Engineering and science, v. 5, n. 1, p. 83–90, 2016. Citado na
página 48.
Referências 59
HUANG, C.; LOY, C. C.; TANG, X. Local similarity-aware deep feature embedding.
arXiv preprint arXiv:1610.08904, 2016. Citado na página 24.
HUBEL, D.; WIESEL, T. Receptive fields of single neurones in the cat’s striate
cortex. The Journal of physiology, v. 148, p. 574—591, October 1959. ISSN
0022-3751. Disponível em: <https://www.ncbi.nlm.nih.gov/pmc/articles/pmid/
14403679/?tool=EBI>. Citado na página 14.
KAYA, M.; BİLGE, H. Deep metric learning: A survey. Symmetry, v. 11, n. 9, 2019.
ISSN 2073-8994. Disponível em: <https://www.mdpi.com/2073-8994/11/9/1066>.
Citado na página 24.
KHAN, S. A.; USMAN, M.; RIAZ, N. Face recognition via optimized features fusion.
Journal of Intelligent & Fuzzy Systems, IOS Press, v. 28, n. 4, p. 1819–1828, 2015.
Citado na página 31.
LABAYEN, M. et al. Smowl: a tool for continuous student validation based on face
recognition for online learning. Edulearn14 Proceedings, p. 5354–5359, 2014. Citado
2 vezes nas páginas 29 e 31.
60 Referências
LAW, M. T.; URTASUN, R.; ZEMEL, R. S. Deep spectral clustering learning. In:
PMLR. International conference on machine learning. [S.l.], 2017. p. 1985–1994.
Citado na página 24.
NI, J. et al. Fine-grained patient similarity measuring using deep metric learning.
In: Proceedings of the 2017 ACM on Conference on Information and Knowledge
Management. [S.l.: s.n.], 2017. p. 1189–1198. Citado na página 24.
Wagh, P. et al. Attendance system based on face recognition using eigen face and
PCA algorithms. In: 2015 International Conference on Green Computing and
Internet of Things (ICGCIoT). [S.l.: s.n.], 2015. p. 303–308. Citado na página 29.
WANG, J. et al. Deep metric learning with angular loss. In: Proceedings of the
IEEE International Conference on Computer Vision. [S.l.: s.n.], 2017. p. 2593–2601.
Citado na página 24.
WU, Z.; SHEN, C.; HENGEL, A. V. D. Wider or deeper: Revisiting the resnet
model for visual recognition. Pattern Recognition, Elsevier, v. 90, p. 119–133, 2019.
Citado na página 22.
ZHANG, A. et al. Dive into Deep Learning. [S.l.: s.n.], 2019. <http://www.d2l.ai>.
Citado na página 17.
Zhang, K. et al. Joint face detection and alignment using multitask cascaded
convolutional networks. IEEE Signal Processing Letters, v. 23, n. 10, p. 1499–1503,
2016. Citado na página 21.
Zhang, K. et al. Joint face detection and alignment using multitask cascaded
convolutional networks. IEEE Signal Processing Letters, v. 23, n. 10, p. 1499–1503,
2016. Citado na página 39.