Escolar Documentos
Profissional Documentos
Cultura Documentos
Congresso Acadêmico de
Tecnologia e Informática
(CATI 2019)
Anais do 11º Congresso Acadêmico de Tecnologia e
Informática (CATI 2019)
21 a 25 de outubro de 2019
Curso de Ciência da Computação - FACET
UNEMAT - Barra do Bugres
Anais do 11º Congresso Acadêmico de Tecnologia e
Informática (CATI 2019)
Realização:
Apoio:
ISSN 2448-119X
(Online: http://www.caccunemat.com.br/cati)
21 a 25 de outubro de 2019
Barra do Bugres - MT
© 2019. Curso de Ciência da Computação – UNEMAT – Barra do Bugres e
Centro Acadêmico de Ciência da Computação (CACC).
Publicação elaborada com fins educativos. ACESSO GRATUITO. Permissão para fazer
cópias impressas ou digitais de todo ou parte desta publicação para uso pessoal ou
acadêmico sem taxas, desde que as cópias não sejam feitas ou distribuídas para renda ou
vantagem comercial e que as cópias contenham referência a esta publicação.
___________________________________________
Contato
Coordenação
Karan Luciano Silva Di Pernis
Diógenes Antonio Marques José
Datas Importantes
As submissões ao CATI podem ser por meio de minicursos, artigos completos ou artigos
resumidos, que devem ser submetidos em formato exclusivamente digital (arquivo PDF),
através do sistema JEMS (https://jems.sbc.org.br). Todas as submissões devem
obrigatoriamente seguir o modelo para publicação de artigos da SBC
(http://goo.gl/Q9yglP).
Tópicos de Interesse
• Algoritmos e Otimização;
• Aplicações Móveis;
• Aplicações para o Agronegócio;
• Arquitetura de Computadores;
• Avaliação de Desempenho;
• Banco de Dados;
• Big Data e Análise de Dados;
• Bioinformática;
• Computação Aplicada à Saúde;
• Computação Gráfica e Processamento de Imagens;
• Computação Ubíqua e Pervasiva;
• Design Thinking;
• Engenharia de Software;
• Geoprocessamento;
• Gestão do Conhecimento;
• Governança e Empreendedorismo;
• Informática na Educação;
• Inteligência Computacional;
• Interação Humano-Computador;
• Internet das Coisas (Internet of Things - IoT);
• Jogos e Entretenimento Digital;
• Linguagens de Programação;
• Matemática e Física Computacional;
• Realidade Virtual e Realidade Aumentada;
• Redes de Computadores e Sistemas Distribuídos;
• Redes Sociais;
• Robótica e Sistemas Digitais;
• Segurança da Informação;
• Sistemas de Autoria;
• Sistemas de Informação;
• Sistemas Embarcados;
• Sistemas Multimídia e Web;
• Tecnologias Assistivas;
• Telecomunicações.
Apresentação
Artigos Completos
Artigos Resumidos
Open Door uma Proposta de Distribuição Linux (From Beginners to Pentesters) .... 61
Karan Luciano Silva di Pernis e Diógenes Antonio Marques José
(UNEMAT/Barra do Bugres)
Teste de Intrusão: um Estudo de Caso Aplicado ao PFSense .................................... 65
Leonardo de Santana Nascimento e Diógenes Antônio Marques José
(UNEMAT/Barra do Bugres)
Abstract. The Port Scans are programs that aim to identify which computers/services are active and
thereby exploit their vulnerabilities. As a result, crackers uses these applications to hack computational
systems. Besides that, these programs can be used to perform pentests and therefore help network admi-
nistrators to strengthen the security of their services available on the network. Thus, the purpose of this
article is to develop software capable of scanning TCP/UDP ports. The application, ArchScan (GitHub),
was developed in Python and evaluated on a testbed. The evaluation took into account the following cha-
racteristics regarding the state of the ports: closed, open and filtered, and as a reference parameter Nmap
was used. The results showed that ArchScan detects closed, open and filtered TCP/UDP ports. Also, in
some cases, ArchScan scans were faster than Nmap scans.
Resumo. Port Scans são programas cujo objetivo é identificar quais computadores/serviços estão ati-
vos e, dessa forma, explorar suas vulnerabilidades. Muitos Crackers utilizam estas aplicações para invadir
sistemas computacionais. Todavia, este tipo de programa pode ser usado para realizar pentests e, portanto,
ajudar administradores de redes a reforçar a segurança dos serviços disponibilizados na rede. Assim, o
objetivo deste artigo é desenvolver um software capaz de escanear portas TCP/UDP. O aplicativo, ArchS-
can (GitHub), foi desenvolvido em Python e avaliado em um testbed. A avaliação levou em consideração
as seguintes caracterı́sticas, no que se refere ao estado das portas: fechadas, abertas e filtradas. Como
parâmetro de referência foi utilizado o Nmap. Os resultados mostraram que o ArchScan detecta por-
tas TCP/UDP fechadas, abertas e filtradas. Além disso, em alguns casos, as varreduras realizadas pelo
ArchScan foram mais rápidas que as do Nmap.
1. Introdução
Port Scan é um processo de varredura de portas de serviços de redes ativos, que usa os
principais protocolos da camada de transporte Transmission Control Protocol (TCP) e
User Datagram Protocol (UDP). Segundo o Centro de Estudos, Respostas e Tratamento
de Incidentes de Segurança no Brasil (CERT) [1], os Port Scans são notificações de var-
reduras em redes de computadores, com o intuito de identificar quais computadores estão
ativos e quais serviços estão sendo disponibilizados por eles. Este tipo de software é am-
plamente utilizado por atacantes para identificar potenciais alvos, pois permite associar
possı́veis vulnerabilidades dos serviços habilitados em um computador. Estes serviços
de redes são disponibilizados pelas aplicações através de sockets, o socket é um conceito
de programação de redes (API) desenvolvido em 1983 pela universidade de Berkeley
e ele possibilita que aplicações se comuniquem com a rede através da tupla ((’IP’,
Porta)) (ex., ((’192.168.118.2’, 80))). Muitos serviços (ex., portas) conhecidos
são: HTTP 80, HTTPS 443, DNS 53, SSH 22, Telnet 23, FTP 21, DHCP 67, DHCPv6
547, etc1 .
A principal motivação para o desenvolvimento deste trabalho consiste no fato de
que a maioria dos incidentes de segurança reportados pelo CERT, entre janeiro e dezem-
bro de 2018 eram Port Scan (ex., mais de 57% deles), em função desta técnica ser um
1 Para maiores detalhes sobre serviços consulte o arquivo /etc/services em sistemas Linux.
1
prelúdio dos ataques virtuais [1]. Há na literatura muitas ferramentas capazes de realizar
o Port Scan, por exemplo, Nmap/Zenmap, knocker 2 , Nast 3 , entre outros. Todavia, para
testar falhas especı́ficas em serviços de redes e, ao mesmo tempo, evitar os módulos de
detecção de Port Scan de alguns Firewalls, por exemplo, PFsense, é necessário desen-
volver Port Scans especı́ficos. Portanto, o propósito deste trabalho foi desenvolver um
software capaz de escanear portas abertas e fechadas na rede. O aplicativo foi desen-
volvido em Python e avaliado em um testbed. Os resultados mostraram que a aplicação
consegue detectar serviços TCP e UDP abertos à conexão com precisão e confiabilidade
em plataformas Linux/Windows.
O restante deste trabalho foi organizado como segue: a Seção 2 apresenta os tra-
balhos relacionados; a Seção 3 descreve, em detalhes, a proposta de Port Scan e a meto-
dologia; na Seção 4 são apresentados os resultados e discussão; e finalmente na Seção 5
são apresentadas a conclusão e as possibilidades de trabalhos futuros.
2. Trabalhos Relacionados
Nesta seção são apresentados alguns programas que abrangem o tema Port Scan. Tais
softwares são de suma importância na área cientı́fica e computacional em geral, e servem
para exemplificar as funcionalidades do Port Scan.
* Nmap4 : segundo Gordon Lyon 5 , o Nmap é um utilitário de código aberto (licen-
ciado) gratuito para descoberta de rede e auditoria de segurança. O Nmap foi planejado
para varrer grandes redes, mas opera bem em hosts únicos. Além disso, o mesmo foi
nomeado Produto de Segurança do Ano pelo Linux Journal, Info World, LinuxQuesti-
ons.Org e Codetalker Digest. Ele foi apresentado em doze filmes, incluindo The Matrix
Reloaded, Die Hard 4 , Girl With the Dragon Tattoo e The Bourne Ultimatum.
* Pscan: é um escaneador de portas TCP com funcionalidade parecida à do Nmap,
ele, também, é capaz de descobrir o endereço MAC do destino e o Sistema Operacio-
nal. Dentre várias caracterı́sticas, o Pscan é desenvolvido pelo grupo hacker Blue Collar
Union e foi projetado inicialmente para Windows. Porém uma versão beta para Linux
pode ser baixada no site da SourceForge sob a licença GPLv2 [2].
* Wireshark: é o analisador de protocolo de rede mais utilizado no mundo. Ele
permite ver o que está acontecendo na rede em um nı́vel microscópico e é o padrão de fato
(e muitas vezes de jure) em muitas empresas comerciais e sem fins lucrativos, agências
governamentais e instituições educacionais [3]. Portanto, o Wireshark é uma das ferra-
mentas mais completas para captura e análise de tráfego de rede.
3. Descrição da Proposta
3.1. Materiais e Métodos
As técnicas de pesquisas utilizadas neste trabalho foram a revisão bibliográfica e a pes-
quisa experimental, que tiveram como base referenciais teóricos que tratam de sockets
[4]. Assim, para o desenvolvimento do aplicativo e execução dos testes, a metodolo-
gia foi dada por: Softwares Utilizados: Linguagem de programação Python2.7, Nmap,
2 http://knocker.sourceforge.net/about.php.
3 https://www.berlios.de/software/nast/.
4O Nmap, também, possui uma GUI chamada Zenmap.
5 http://nmap.org.
2
Wireshark, Sistema Operacional Arch Linux x86 64/Ubuntu 18.04 LTS x86 64 e Socket
TCP/UDP; Hardware para desenvolvimento: Intel i7 Q 740 (8) @ 1.734GHz, Ge-
Force GT 425M, RAM 8GB DDR3 e SSD 128GB + HD 500GB; e Testes: rede local com
dois computadores (cliente/servidor) que foi configurada como classe C 192.168.0.0/24,
e para comparar os resultados foram utilizados os softwares Nmap/Wireshark.
O aplicativo foi desenvolvido na linguagem Python usando sockets variados, com
e sem conexão. Sua arquitetura é composta de uma classe ICMP e treze funções, dentre
elas a tcp scan() (Figura 1(a)) e udp scan() (Figura 1(b)) que são as duas principais, já que
são as responsáveis por usar os sockets: SOCK STREAM(TCP), SOCK DGRAM(UDP).
Além disso, a aplicação faz uso de várias bibliotecas, por exemplo, socket e Tkinter. A
biblioteca Tkinter foi usada para desenvolver a GUI do sistema. A função tcp scan() é
a responsável por varrer as portas TCP na rede, ela usa o AF INET, que vai usar o IP
do alvo a ser escaneado. Também usa o socket SOCK STREAM (de fluxo), este por sua
vez faz a conexão entre as entidades cliente-servidor, e usa o socket SOL SOCKET com
a opção SO LINGER que quando ativo, caso ocorra um fechamento ou desligamento da
conexão, não retornará erro até que todas as mensagens enfileiradas para o socket sejam
enviadas com sucesso ou atinja o timeout.
3
(a) Scan TCP Open (b) Resultado da pesquisa na porta 22
TCP aberta
(c) Resultado das mensagens de controle TCP mostrados pelo Wireshark na porta 23 fechada.
4
varredura que usa a ausência de uma resposta para inferir se uma porta está aberta. To-
davia, se uma porta for bloqueada por um Firewall, esse método informará falsamente
que a porta está aberta. Assim, se a mensagem de porta inacessı́vel estiver bloqueada,
todas as portas aparecerão abertas [6]. A Figura 1(b) apresenta o funcionamento do Port
Scan proposto com o protocolo UDP. Todavia, a varredura UDP funciona enviando um
pacote UDP para cada porta de destino, para algumas portas comuns, como 53 e 161,
uma carga útil especı́fica do protocolo é enviada para aumentar a taxa de resposta, um
serviço responderá com um pacote UDP, provando que está aberto. Se nenhuma resposta
for recebida após as retransmissões, a porta será classificada como aberta—filtrada. Isso
significa que a porta pode estar aberta ou talvez os filtros de pacotes estejam bloqueando
a comunicação [5], conforme Figura 4(a). Por exemplo, a Figura 4(c) mostra a máquina
fonte (192.168.0.98) enviando à máquina destino (192.168.0.7) um pacote UDP na porta
140, com Len de 8 Bytes ”ArchScan”. Assim, a máquina destino retorna outro pacote com
Len de 63 Bytes, isso significa que a porta está aberta. As Figuras 4(b) e 4(c) mostram
a varredura em uma porta UDP 140, varredura feita pelo Port Scan proposto e verificada
pelo Wireshark. A porta UDP usada (ex., 140) não é uma porta de serviços conhecida,
portanto, para testá-la foi usado um socket server programado em C++, conforme Fi-
gura 4(d).
(c) Resultado Wireshark na porta 140 UDP (d) Socket Servidor UDP
aberta.
5
(a) Scan UDP Closed (b) Resultado da pesquisa na porta 141
UDP fechada.
não consegue retransmitir os pacotes na frequência adequada. Portanto, este pacote ICMP
indica que a porta 141 está fechada.
4. Resultados e Discussão
Para propósitos de simplificação, é apresentada a varredura apenas no nó 192.168.0.7.
Neste contexto, o primeiro passo constituiu em executar o aplicativo, para isso foi ne-
cessário a instalação do Python2.7 e a execução do aplicativo como root. Além disso,
serviços de redes podem retornar à varredura três resultados (default): Aberto: significa
que uma aplicação está ativamente aceitando conexões TCP ou pacotes UDP nesta porta.
Encontrar esse estado é frequentemente o objetivo principal de um escaneamento de por-
tas; Fechado: a porta está acessı́vel, mas não há nenhuma aplicação ouvindo nela. Este
estado pode ser útil para mostrar que um host está ativo em um determinado endereço IP
(descoberta de hosts, ou scan usando ping) e como parte de uma detecção de SO. Pelo
fato de portas fechadas serem alcançáveis, pode valer a pena escanear mais tarde no caso
de alguma delas abrir; e Filtrado: não consegue determinar se a porta está aberta por-
que uma filtragem de pacotes impede que as sondagens alcancem a porta. A filtragem
poderia ser de um dispositivo Firewall dedicado, regras de roteador, ou um software de
Firewall baseado em host. Essas portas frustram os atacantes, pois elas fornecem poucas
informações. Assim, foi observado, com a primeira varredura TCP (ex., IP: 192.167.0.7
e portas 22, 139, 145), que o software acertou com precisão as portas escaneadas na rede,
levando em consideração o Nmap como ferramenta de precisão (Figuras 6(a), 6(b), 6(c)
e 6(d)). Quanto ao tempo de execução o software desenvolvido neste artigo, ArchScan,
obteve um resultado melhor do que o esperado, superando o tempo de scan do próprio
Nmap, por exemplo, o ArchScan executa a varredura na porta 22 em 1s (Figura 6(a))
enquanto que o Nmap faz a mesma tarefa em 13.43s (Figura 6(b)).
Embora o Nmap tente produzir resultados precisos, todas as deduções são basea-
das em pacotes devolvidos pelas máquinas-alvo ou Firewalls, que tem por objetivo aplicar
6
uma polı́tica de segurança a um determinado ponto da rede. O Firewall pode ser do tipo
filtro de pacotes ou proxy de aplicações. Tais hosts podem ser não confiáveis e enviar res-
postas com o propósito de confundir ou enganar os Port Scan’s. Quanto ao scan de todas
as portas TCP na rede, o ArchScan obteve um resultado de tempo aceitável se comparado
ao Nmap, 26s, Figura 6(c). Já o Nmap fez a mesma tarefa em 20.58s, Figura 6(d). Já,
com relação às portas UDP, foram realizados scan’s na faixa de portas 100-200. Neste
contexto, o ArchScan levou 5.031s e apresentou a porta 140 aberta (Figuras 7(a) e 7(b)).
Já o Nmap, na mesma tarefa, gastou 2.65s (Figura 7(c)).
(c) Resultado do ArchScan, portas 0-65024 TCP (d) Resultado do Nmap, portas 0-65024 TCP.
(a) Resultado do ArchScan, portas 100- (b) Tempo de execução do ArchScan, portas 100-200
200 UDP. UDP.
7
do Nmap (scan TPC/UDP). Em alguns casos especı́ficos o ArchScan supera o Nmap em
velocidade de execução.
5. Conclusão
Este trabalho apresentou um aplicativo, Port Scan, baseado no conceito de sockets e de-
nominado ArchScan. Para avaliar a proposta foi utilizado o Port Scan Nmap, que serviu
como ferramenta de comparação de varredura de portas permitindo, dessa forma, verifi-
car a eficiência do ArchScan. O aplicativo proposto foi avaliado em um testbed com dois
computadores e detectou com sucesso portas TCP/UDP abertas e fechadas. Além disso,
o ArchScan, em algumas situações, conseguiu examinar uma faixa de portas mais rápido
que o Nmap que é uma ferramenta de análise de redes consolidada.
Entre as principais contribuições deste trabalho está o fato do ArchScan ser to-
talmente desenvolvido utilizando Software Livre. Além disso, o desenvolvimento do
mesmo permitiu a execução de uma atividade prática e de laboratório como um exercı́cio
didático da disciplina de sistemas distribuı́dos. Como trabalhos futuros, pode-se melhorar
a eficiência do ArchScan na velocidade [7] dos scans, e também aplicar técnicas de envio
de pacotes como TCP NULL SCAN 7 e TCP FIN SCAN 8
Referências
[1] CERT.br, “Incidentes reportados ao cert.br, janeiro a dezembro de 2018.” Disponı́vel
em: https://www.cert.br/stats/incidentes/2018-jan-dec/
tipos-ataque.html, September 2019. Acessado em Setembro de 2019.
[2] V. Vieira, “Pscan: Uma alternativa ao nmap..” Disponı́vel em: https://sejalivre.
org/pscan-uma-alternativa-ao-nmap/, July 2011. Acessado em Setem-
bro de 2019.
[3] G. Combs, “Wireshark.” Disponı́vel em http://www.wireshark.org, March
2019. Acessado em Setembro de 2019.
[4] W. R. Stevens, Programação de Rede UNIX: API para soquetes de rede. Bookman Edi-
tora, 2009.
[5] R. Chandel, “Understanding nmap scan with wireshark..” Dis-
ponı́vel em: https://www.hackingarticles.in/
understanding-nmap-scan-wireshark/, March 2017. Acessado em
Setembro de 2019.
[6] J. Messer, Segredos da cartografia de rede: Um guia completo para o nmap. Professor
Messer, 2007.
[7] J. Jung, V. Paxson, A. W. Berger, and H. Balakrishnan, “Fast portscan detection using se-
quential hypothesis testing,” in Security and Privacy, 2004. Proceedings. 2004 IEEE
Symposium on, pp. 211–225, IEEE, 2004.
7 Estetipo de scan ativa os flags TCP para zero. Dessa forma, se um flag RST é recebido, indica que a porta está fechada.
8 Estetipo de scan envia um pacote com o flag FIN ativado para terminar uma conexão TCP. Portanto, o emissor do FIN espera
elegantemente pelo término da conexão. Assim, se um flag RST é recebido, indica que a porta está fechada.
8
O Impacto da Anti-Forense na Investigação Digital, um
Estudo de Caso
Marcos Lucas Pereira1, Diógenes Antônio Marques José1
Faculdade de Ciências Exatas e Tecnológicas FACET
1
Coordenação de Ciência da Computação – CCC
Universidade do Estado de Mato Grosso (UNEMAT)
Caixa Postal 92, 78390–000 – Barra do Bugres – MT – Brasil
{marcoslucaspereira1@gmail.com,dioxfile@unemat.br}
1. Introdução
A segurança da informação em si é de suma importância para a preservação dos dados
na Internet. Dessa forma, quando os objetivos da segurança não são alcançados diversos
cyber crimes podem ser executados no ambiente virtual, por exemplo: análise de
tráfego, snooping, furto de senhas, IP spoofing, negação de serviço (DoS e DDoS),
compartilhamento de pornografia infantil, furto de informação digital, entre outros.
9
Além disso, os avanços tecnológicos em áreas como inteligência artificial podem trazer
sérios riscos à segurança da informação, por possibilitar a criação de algoritmos mais
inteligentes que podem ajudar os cyber criminosos. Diante do exposto, com propósito
de mitigar estes crimes digitais, surge a computação forense, recurso utilizado por
cientistas forenses em todo o mundo, especialmente em forças policiais como FBI,
Interpol, Polícia Federal Brasileira [8], entre outras. Entretanto, com o objetivo de
dificultar o trabalho dos investigadores forenses, os cyber criminosos aplicam a anti-
forense digital que é responsável por camuflar os rastros que levariam à conclusão dos
crimes digitais.
Dessa forma, o objetivo deste artigo é apresentar o impacto da anti-forense na
investigação digital por meio de um estudo de caso: Intrusão em um sistema
computacional com o objetivo de furtar informações, segredos industriais. Os
resultados mostraram que a anti-forense, mesmo uma técnica simples, pode invalidar a
conclusão do caso crime.
O restante deste trabalho foi organizado como segue: na seção 2 são
apresentados os trabalhos relacionados. A seção 3 apresenta a descrição da proposta e a
metodologia. Na seção 4 são apresentados os resultados e discussão do estudo de caso
proposto. E, conseguinte, são apresentadas as conclusões e as possibilidades de
trabalhos futuros.
2. Trabalhos Relacionados
São crimes digitais o roubo de serviços de computadores; acesso não autorizado a
documentos eletrônicos; pirataria de software; alteração ou roubo de informaçaões
eletronicamente armazenada; estelionato cometido com o uso de computadores; acesso
não autorizado a registros bancários via rede de computadores (ex. cópia de cartões de
créditos, tráfico de senhas.); transmissão de vírus, spywares, worms e/ou comandos
destrutivos [1]. Neste contexto, o arcabouço responsável por investigar os crimes
digitais é a computação forense, disciplina que combina elementos do direito e da
computação com o intuito de obter e analisar vestígios de crimes em meios digitais
[2,3].
Na contra mão, a anti-forense é responsável por camuflar os rastros dos cybers
criminosos no meio digital. Assim, as técnicas anti-forense têm como objetivo burlar a
segurança digital e agir de forma ilícita escondendo a ação do cyber criminoso. Todavia,
esta definição pode ser entendida de outra maneira, por exemplo, as mesmas técnicas
que são usadas para o crime, também podem ajudar a melhorar os métodos da
computação forense [4].
Em [5] é apresentado um estudo de caso de crime de pedofilia. Neste contexto,
diversas técnicas e ferramentas forenses foram utilizadas para levar os criminosos à
justiça (ex. NuDetective). Todavia, apesar do trabalho não mencionar a anti-forense, a
técnica de esteganografia foi usada para atrapalhar a investigação.
Em [6] é examinado um servidor Linux para identificar rastros digitais, para
isso são utilizadas algumas ferramentas do Linux BackTrack 5 como Metasploit, Nessus,
Whatweb, Nmap, entre outras. Nessa proposta são realizados ataques em um servidor
Linux, em que os peritos analisam os arquivos de logs do servidor com o intuito de
encontrar algum rastro digital. Todavia, nenhuma técnica anti-forense foi empregada.
10
Em [7] os autores buscam provar através de testes empíricos se é possível
recuperar dados de um Solid-State Drives (SSD) formatado, mesmo este contendo
algorimos que executam uma formatação segura. Os experimentos realizados foram
divididos em duas etapas, que são: 1 - geraçãoção de imagens para análise posterior em
que foram utilizadas ferramentas como, FTK Imager 3.2.0 (ex. Windows 64 bits),
dcfldd, dc3dd 7.1.614 (ex. Kali Linux 32 bits); e 2 - recuperação dos dados, na qual
ferrramentas como Foremost, Scalpel, Magic Rescue, Photorec e Recoverjpeg foram
aplicadas. Assim, foram recuerados muitos arquivos, mesmo após a formatação segura,
por exemplo: *.jpg, *.bmp, *.gif, *.png, *.avi, *.mpg, *.pdf, *.doc, *.java, *.sys e
*.dll. Entretanto, não foram usadas técnicas anti-forense.
3. Descrição da Proposta
Este estudo de caso parte do pressuposto em que um criminoso consegue acesso não
autorizado a um computador de uma empresa, para roubar segredos industriais.
Portanto, com acesso garantido, o mesmo inseriu um pendrive e copiou arquivos
secretos. Diante do exposto, o intruso busca apagar seus rastros modificando o(s)
arquivo(s) de log. Entretanto, se os logs não forem apagados os peritos computacionais
poderão verificar no syslog todas as UUID’s de todos os dispositivos inseridos no
sistema no dia da intrusão. Assim, caso os peritos encontrem nesses logs uma UUID
correspondente eles poderão: a) solicitar um mandado de busca e apreensão dos
equipamentos envolvidos no ataque e de equipamentos adicionais; b) periciar os
equipamentos envolvidos; c) transformar as evidências em provas periciais e, com isso,
redigir o laudo pericial [8].
Todavia, diante do exposto, o que aconteceria se técnicas anti-foresense fossem
utilizadas? Para responder essa pergunta este estudo de caso será composto por três
partes : 1) Delito Virtual → acesso não autorizado; 2) Técnica forense aplicada →
análise de log de sistema, syslog; e 3) Técnica anti-forense aplicada → registry
wiping (ex. limpeza e/ou alteração de registros de logs.).
11
arquivos sigilosos. Portanto, com o propósito de apagar os vestígios da
invasão, o criminoso deletará os registros de log responsáveis por gravar as
informações do dispositivo de armazenamento utilizado para copiar os
arquivos. As etapas do estudo de caso abrangem:
1. Invasão do sistema;
2. Realização das operações de cópia e edição/exclusão de log;
3. Análise de log do sistema;
4. Comparação de UUID do dispositivo;
5. Análise e discussão dos resultados obtidos.
Este experimento foi embasado no manual POP n°3.3 informática forense [8], o
qual descreve os procedimentos padrões utilizados pela polícia criminal brasileira, cujo
objetivo é padronizar os métodos e procedimentos utilizados em exames periciais de
local de informática, pela perícia durante a investigação de um caso. O manual possui
para cada investigação um método diferente para direcionar a perícia à resolução precisa
e com o mínimo de perda possível.
4. Resultados e Discussão
12
Figura 1: Análise do log.
13
Figura 4. Pendrive 3, Kingston 32GB.
14
4.2.2 Considerações finais do estudo de caso
Este estudo de caso foi direcionado de maneira específica e com a alteração de logs
somente nas informações relacionadas aos dispositivos conectados, ignorando quaisquer
outras informações de log presentes no sistema.
Os resultados obtidos sem a utilização da anti-forense, foram satisfatórios, visto
que foi possível identificar as informações geradas pelo syslog, e, portanto, identificar o
dispositivo conectado. Entretanto, na segunda etapa, após a aplicação da anti-forense,
embora seja possível identificar que um pendrive foi conectado, não é possível
identificar a UUID do mesmo. Dessa forma, por mais simples que seja a técnica anti-
forense aplicada, por exemplo, apagar um arquivo de log, ela pode impedir a
identificação de operações realizadas dentro do servidor/sistema.
Referências
[1] E. Casey. Digital Evidence and Computer Crime: Conducting Digital Investigations, Meryland.
USA: Elsevier, 3th ed., 2011.
[2] BROOKS, Charles L. CHFI Computer Hacking Forensic Investigator Certification Allin-One
Exam Guide, 2014.
[3] R. McKemmish. “What is forensic computing,” pp. 1–6, 1999. Australian Institute of
Criminology, trend & issues in crime and criminal justice.
[4] BARRETO, L. Utilização de técnicas anti-forenses para garantir a confidencialidade.
Universidade do Rio Grande do Sul. Porto alegre. 2009. Disponível em: <https://bit.ly/32kuDFO>.
Acesso em: 28 nov. 2017.
[5] Almeida J. S., Nascimento L. S., José D. A. M. Computer Forensics: A Linux Case Study
Applied to Pedophilia Crime Investigation in Brazil. International Journal of Cyber-Security and
Digital Forensics (IJCSDF) 8(1): 31-42, 2019 ISSN: 2305-0012.
[6] Andrade, Jhonattan Javier Barriga and Gan, Diane. (2012) A forensics investigation into attacks
on Linux servers. In: Issues in cybercrime, security and digital forensics. University of Strathclyde
Continuing Education Centre, Glasgow, UK, pp. 73-80. ISBN 9780947649852.
15
[7] Marcos A. C. Corrêa Júnior, Ruy J. Guerra B. de Queiroz. Após um processo de formatação, é
possı́vel recuperar dados em um SSD? Simpósio Brasileiro em Segurança da Informação e de
Sistemas Computacionais (SBSeG) 2015.
[8] JUSTIÇA, Ministério da; SEGURANÇA PUBLICA, Secretaria Nacional de. Procedimento
Operacional Padrão: Perícia Crimina. 2013.
16
Aplicação de um método para promoção da interação no
ensino de algoritmos
Rui Ogawa1
1
Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso (IFMT)
Campus Barra do Garças
rui.ogawa@bag.ifmt.edu.br
Abstract. This paper aim to verify the adoption of a model to promote interac-
tion as a way to achieving advances in the practice of teaching and learning
algorithms, based on the mediation of the student’s errors. The importance of
the interaction amid teacher and students is discussed as a form of reconside-
ration about these errors. The need to evaluate tools for errors mediation is
brought to the discussion. The essential activities that a teacher should develop
when using a tool to assist in the practice of algorithm teaching are listed, and
based on them, a model that aims to increase the interaction between teachers
and students as a means of enhancing the effectiveness of the error remediation
is applied and analyzed.
1. Introdução
Aumentar a interação entre professores e alunos é uma das estratégias propostas por
[Chickering and Ehrmann 1996] quando se trata da utilização de recursos computacio-
nais na educação. Diante de uma situação de erro do aluno, a interação do professor,
por meio de comentários, pode contribuir com a elucidação de problemas comuns e as-
sim, facilitar sua compreensão e resolução. Alinhado com uma abordagem interacio-
nista, [Kutzke and Direne 2014] propõem na FARMA-ALG, a possibilidade de analisar a
interação de cada aprendiz, principalmente no que concerne aos erros cometidos por eles,
em exercı́cios de algoritmos.
Ainda que a FARMA-ALG promova a interação entre professores e alunos, ela
carece de estudos que nos permitam afirmar de que forma o resultado dessa interação
contribui para ambos. O trabalho de [Moura 2015] descreve sua avaliação da ferramenta
17
FARMA, – uma ferramenta para mediação de erros em exercı́cios de matemática – envol-
vendo mais de 900 alunos dos ensino Básico. O objetivo da pesquisa da autora consistiu
em analisar a utilização do mecanismo de retroação de erros e acertos por meio de encami-
nhamentos metodológicos. Os resultados demonstram que a ferramenta cria um ambiente
favorável para que alunos questionem, expressem e colaborem.
A FARMA-ALG é efetiva enquanto ferramenta que promove a remediação do
erro, entretanto, a quantidade de interações entre professores e alunos tem sido extre-
mamente baixa [Ogawa et al. ]. Tal fato se deve em decorrência da ausência de uma
documentação concisa e de um método especı́fico que oriente docentes e discentes acerca
dos recursos disponı́veis na ferramenta. Dentre os recursos, destaca-se a possibilidade de
interação do professor com o aluno em situações em que os discentes incorrem em erro
durante a resolução de um exercı́cio. Com o intuito de proporcionar o melhor aprovei-
tamento possı́vel dos recursos baseados no socio-interacionismo proposto pela FARMA-
ALG, este trabalho realiza um estudo sobre a sistematização das atividades do professor
ao utilizar a plataforma, com o uso de um modelo que promova a interação.
2. Métodos
O modelo consiste em um conjunto estruturado de ações que possa ser replicado. Uma
atenção especial foi dedicada às atividades de correção, identificação de alunos com difi-
culdades, interação e acompanhamento dos mesmos. A seguir, são descritos os processos
necessários para contemplar as necessidades de orientar o professor na implementação
bem sucedida do modelo interacionista proposto pela plataforma FARMA-ALG.
As atividades são distribuı́das entre quatro fases lógicas, conforme segue:
1. Planejamento;
2. Elaboração e disponibilização das atividades;
3. Avaliação;
4. Interação e mediação.
Nesse modelo, as atividades de cada fase precisam ser completadas para que se
avance para a próxima, de acordo com a descrição a seguir. A estrutura proporciona um
mecanismo iterativo, de modo que o professor pode voltar as fases anteriores e utilizar as
informações para melhorar as atividades e atingir os objetivos propostos.
Os objetivos de cada uma das fases e os produtos que devem ser entregues estão
relacionados na Figura 2 e são detalhados em passos a seguir.
18
Figura 2. Objetivos e produtos
Fase 1: Planejamento
A fase de planejamento tem como principal meta definir quais são os objetivos de
aprendizagem que a disciplina deve oferecer. Tais objetivos descrevem quais conceitos
e habilidades os alunos devem ter conhecimento e compreensão para que estejam habi-
litados a analisar problemas, propor soluções e implementá-las. Essa fase é subdividida
em três etapas, nas quais o professor identificará as necessidades e requisitos, definirá
quais serão os objetivos de aprendizagem e analisará como deve ser o uso da estrutura
informatizada disponı́vel.
Etapa 1 da Fase 1: Identificação das necessidades e requisitos
As competências que os alunos devem adquirir ao concluir as atividades propostas
devem ser identificadas. Uma boa base para as escolhas é a ementa da disciplina, normal-
mente disponibilizada pela coordenação do curso, bem como seu projeto pedagógico. As
linguagens de programação que serão utilizadas devem ser as mesmas as quais a FARMA-
ALG oferece suporte. Com base nessa informação, o professor deverá indicar aos alunos
um guia de referência da linguagem adotada, com o intuito de dirimir eventuais erros
básicos de sintaxe. Por se tratar de disciplina que exige bastante das habilidades de
abstração e cognição de aspectos sobre lógica, é interessante efetuar uma pré-avaliação
no sentido de diagnosticar eventuais discrepâncias de conhecimentos. Ao realizar esse
procedimento, esta avaliação prévia permite saber qual é o nı́vel de conhecimento do
aluno.
Etapa 2 da Fase 1: Definição dos objetivos de aprendizagem
A partir dos resultados observados na avaliação de diagnóstico, na etapa ante-
rior, o nı́vel de conhecimento do aluno estará devidamente identificado. Com base nessa
informação, os seguintes passos devem ser realizados:
Tomando a lista de competências obtidas na Etapa 1, identifica-se quais as perı́cias
que o aluno deve adquirir ao final da avaliação. De acordo com as perı́cias identificadas no
passo anterior, define-se os conteúdos que devem estar contidos nos Objetos de Apren-
dizagem. Redigir, com base nos passos anteriores, uma lista formal dos objetivos de
aprendizagem.
Etapa 3 da Fase 1: Análise da viabilidade em alcançar os objetivos de aprendi-
zagem utilizando a FARMA-ALG
19
Avaliar todos os objetivos de aprendizagem e identificar, de acordo com o nı́vel de
complexidade de cada um, quais podem ser transformados em Objetos de Aprendizagem
para que possam ser disponibilizados na FARMA-ALG. Os objetivos que não se encaixam
na possibilidade acima devem ser tratados com abordagem alternativa a plataforma.
Fase 2: Elaboração e disponibilização das atividades
Nessa fase o professor irá, com base na ementa da disciplina, elaborar Objetos
de Aprendizagem que serão disponibilizados como atividades na FARMA-ALG. Essas
atividades são compostas por questões de algoritmos, organizadas em listas de exercı́cios
cujo nı́vel de dificuldade aumenta gradualmente. Nas três etapas que compõem essa fase,
o professor irá elaborar as atividades, verificar a aderência das atividades à proposta e
recursos ofertados pela FARMA-ALG e definir o plano de trabalho com o cronograma de
sessões.
Etapa 1 da Fase 2: Escolha dos exercı́cios
De acordo com o que foi obtido na definição dos objetivos de aprendizagem, na
Etapa 2 da Fase anterior, selecionar o conteúdo que será trabalhado. Estabelecer quantos
exercı́cios serão necessários para alcançar o objetivo, de acordo com os resultados da pre-
avaliação. Definir quais exercı́cios devem compor a primeira lista, com base ainda na
pré-avaliação, que permitiu sabermos qual é o nı́vel de conhecimento do aluno. Definir
em quantas listas os demais exercı́cios serão divididos e como será a distribuição entre
as listas, conforme a dificuldade dos exercı́cios. Cada lista deve conter exercı́cios cuja
dificuldade permita que os alunos atinjam seu potencial nı́vel de desenvolvimento.
Etapa 2 da Fase 2: Elaboração dos Objetos de Aprendizagem
Transformar cada exercı́cio em um Objeto de Aprendizagem compatı́vel com os
pré-requisitos da FARMA-ALG. Distribuir os exercı́cios em listas, de acordo com a quan-
tidade de nı́veis que o professor definiu ser necessária para que o aluno conclua com
sucesso uma lista e esteja preparado para a próxima.
Etapa 3 da Fase 2: Elaboração do cronograma das atividades
Elaborar cronograma de disponibilização online de cada lista de exercı́cios, con-
forme andamento da disciplina em sala de aula. Definir a realização das atividades de
acordo com a ordem das listas de exercı́cios, sua duração e a data em que deverão ser res-
pondidas. Para tanto, é necessário revisar disponibilidade de tempo do professor, monito-
res da disciplina e dos alunos. Estipular prazos para resolução dos exercı́cios propostos.
Indicar quem serão os monitores das disciplinas e informar a turma.
Fase 3: Avaliação
Na fase de avaliação, o professor, em conjunto com o monitor da disciplina, efe-
tuará a correção das respostas dos exercı́cios submetidas pelos alunos na FARMA-ALG.
Durante a correção, é fundamental que sejam identificadas as principais dificuldades en-
frentadas pelos alunos. Ao final dessa fase, devera ser gerado um relatório que indi-
que quais foram os aspectos que se apresentaram como dificuldades na resolução dos
exercı́cios.
Etapa 1 da Fase 3: Preparação da sessão
20
Compor um manual de instruções de uso da FARMA-ALG e disponibilizá-lo na
própria plataforma, preferencialmente na tela inicial. Deverá constar quais são os requisi-
tos técnicos de hardware, de software e de rede para que os usuários tenham acesso. Pu-
blicar os perı́odos em que cada lista de exercı́cios estará disponı́vel. Informar aos alunos
e ao monitor, via e-mail, o endereço para acessar a plataforma, bem como os procedimen-
tos necessários para efetuar o cadastro e matrı́cula na disciplina. Definir como os alunos
obterão suporte em caso de problemas com a plataforma. Disponibilizar os Objetos de
Aprendizagem para que os alunos matriculados possam acessar as listas de exercı́cios e
resolver as questões propostas.
Etapa 2 da Fase 3: Desenvolvimento da sessão
Antes de efetivamente liberar a plataforma para uso, efetuar testes de conexão para
diagnosticar eventuais problemas em tempo hábil para solucioná-los. Liberar o acesso a
FARMA-ALG aos alunos, somente para a lista de exercı́cios cujo conteúdo foi previa-
mente desenvolvido em sala de aula. Periodicamente, monitorar a participação dos alu-
nos, verificando se estão conseguindo acessar as questões e submetendo suas repostas sem
nenhum tipo de problema.
Etapa 3 da Fase 3: Avaliação das respostas durante o prazo de submissão
No painel principal da FARMA-ALG, verificar os seguintes itens: Anotar a quan-
tidade de respostas incorretas. Verificar se há comentários e mensagens enviadas pelos
alunos, direcionados ao professor ou monitor. No Menu ’Grafo de Manipulação’, com
o uso adequado dos filtros disponı́veis, efetuar as seguintes ações: Configurar os filtros
para que a busca seja efetuada para uma questão, de uma turma e que esteja em uma
determinada categoria de erro. Identificar as respostas incorretas com o maior grau de
similaridade entre elas. Usando o Menu ’Linha do Tempo’, efetuar procedimento similar
ao do passo anterior, com o objetivo de identificar respostas com o maior grau de simila-
ridade possı́vel. Adicionalmente, utilizar os recursos de ’Busca’ para encontrar padrões
de erros. Utilizar, caso necessário o recurso de ’Tags’, que permite selecionar as respostas
com determinados tipos de erros.
Fase 4: interação e mediação
Na quarta e última fase, ocorre a interação entre alunos, monitores e professores.
Conforme as questões vão sendo respondidas, professores e monitores devem identifi-
car os alunos que enfrentaram dificuldades. A observação da similaridade em respostas
incorretas, efetuada na fase anterior, deve ser utilizada para subsidiar essa tarefa. Em se-
guida, o professor e o monitor devem promover a interação com os alunos, por meio do
envio de comentários especı́ficos sobre os erros mais comuns, cometidos nas tentativas
de resolução dos exercı́cios. Caso necessário, além de conversar com o aluno, para que
seja possı́vel compreender sua dificuldade e auxiliá-lo, pode ser necessária a adequação
do exercı́cio.
Etapa 1 da Fase 4: Identificação dos alunos que necessitam de apoio
21
Quanto menor for a barra de progresso, maior a possibilidade de que o
aluno esteja enfrentando dificuldades e necessitando de ajuda.
(b) Número de tentativas por Objeto de Aprendizagem. Listas de exercı́cios
com grande quantidade de tentativas podem indicar que os alunos não
estão seguros de que suas respostas estão corretas.
(c) Alunos que cometeram erros muito similares com os de outros colegas. Os
dados obtidos na Etapa 3 da Fase anterior são utilizados para este fim.
Etapa 2 da Fase 4: Identificação das questões que os alunos tiveram mais difi-
culdade em solucionar
3. Resultados e discussão
Para a realização do experimento, foi ofertado um curso de Introdução à Lógica de
Programação para 19 alunos do primeiro e segundo ano do Ensino Médio. O curso foi
ministrado por apenas um professor, com aulas três vezes por semana, no perı́odo no-
turno. Uma vez tendo conhecimento sobre o método proposto, o professor iniciou os
procedimentos descritos nas fases.
A Fase 1, de Planejamento, foi efetuada com antecedência, ainda no plano de
ensino, seguindo o modelo proposto. A escolha da linguagem de programação C se
deu em face da futura oferta de um curso de introdução à robótica educacional, utili-
zando Arduino, que já estava prevista. Como pré-avaliação, foi solicitado aos alunos que
construı́ssem algoritmos para solução de problemas do cotidiano, tais como trocar uma
lâmpada ou fazer um bolo.
As perı́cias desejadas para esse grupo de alunos, era que ao final do curso eles
fosse capazes de construir algoritmos simples usando a linguagem C, tais como efetuar
operações aritméticas e trabalhar com cadeias de caracteres. Com base nas perı́cias de-
sejadas, o professor definiu os conteúdos que foram ministrados. Considerando que a
complexidade das problemas propostos eram baixas, todos foram eleitos para serem con-
vertidos em Objetos de Aprendizagem.
Após as aulas teóricas, foram disponibilizadas na plataforma, duas listas de
exercı́cios, cada uma com quatro questões básicas de programação em linguagem C, con-
templando o proposto na Fase 2, de Elaboração e disponibilização das atividades.
22
A Fase 3, de Avaliação, correção e identificação das dificuldades dos alunos, en-
volveu primeiramente uma explicação no laboratório de informática, com uso de projetor
multimı́dia, sobre o funcionamento da FARMA-ALG aos alunos. Conforme os alunos
efetuavam as submissões de suas respostas às questões, o professor fazia a leitura de cada
resposta e a identificação dos erros cometidos. Nessa fase, foi possı́vel verificar que a
maioria dos erros foram de sintaxe, o que deu ao professor os subsı́dios necessários para
uma intervenção assertiva. Para as oito questões, os alunos submeteram um total de 409
respostas, com 352 tentativas incorretas, correspondendo a 86,06% e 57 tentativas corre-
tas, correspondendo a 13,94%.
Passando para a Fase 4, de Interação e mediação com os alunos, o professor enviou
um total de 28 mensagens via plataforma,, como meio de promover o aprendizado pela
interação. Todas as mensagens foram sobre erros básicos cometidos pelos alunos, princi-
palmente de sintaxe. Os erros mais comuns envolviam desde ausência de ponto e vı́rgula
no fechamento de um comando, passando por variáveis acentuadas ou com espaços, até
uso de variáveis não declaradas. Outro erro recorrente foi a falta de atenção para que
a saı́da do programa fosse idêntica à saı́da esperada pelo caso de teste de cada questão,
mesmo com essa instrução bem destacada no enunciado de cada questão.
Das 28 mensagens enviadas aos alunos, foi possı́vel verificar que 26 questões fo-
ram solucionadas logo após a intervenção do professor, de modo que apenas 2 questões
permaneceram com a resposta incorreta, o que representa uma eficácia de 92,86%. Em to-
das as mensagens, o professor teve o cuidado em apenas orientar o aluno sobre a possı́vel
causa do erro, evitando responder pelo aluno e incentivando-o a raciocinar de forma lógica
para compreender o erro e buscar a solução para o problema.
Em várias situações, as mensagens foram enviadas pelo professor no ambiente do
laboratório de informática, na presença dos alunos, enquanto eles estavam tentando re-
solver as questões. Nesse contexto, ao receber uma mensagem do professor, foi possı́vel
verificar reações de diversas, como auto-reprovação ou surpresa ao constatar que, ao ler
a intervenção do professor, os alunos perceberam qual seria o melhor caminho a ser tri-
lhado.
4. Conclusões
Ainda que a quantidade de alunos e questões tenha sido reduzida, verifica-se que o método
é eficaz no que tange auxiliar o professor na sistematização do seu fazer pedagógico e,
principalmente, no auxı́lio ao aprendizado de algoritmos pelos alunos, que, ao receber a
mediação do professor, encontram o apoio necessário que permite que eles busquem novas
abordagens, estimulando sua auto-confiança em resolver problemas com apoio, porém, de
forma autônoma.
Faz-se necessário, entretanto, novos experimentos em escala ampliada, com
múltiplas turmas, de instituições e nı́veis diversos, para avaliar se o uso do método é
replicável e escalável. Por se tratar de plataforma online e aberta, é possı́vel e necessário
que mais estudos do uso da FARMA-ALG e do método de promoção da interação no
ensino de algoritmos sejam realizados.
23
Referências
aaaa.
Chickering, A. W. and Ehrmann, S. C. (1996). Implementing the seven principles: Tech-
nology as lever. AAHE bulletin, 49:3–6.
Kutzke, A. R. and Direne, A. (2014). Mediaçao do erro na educaçao: um arcabouço de
sistema para a instrumentalizaçao de professores e alunos. In Brazilian Symposium
on Computers in Education (Simpósio Brasileiro de Informática na Educação-SBIE),
volume 25, page 737.
Moura, V. A. B. (2015). Avaliação do impacto da retroação na aprendizagem apoiada por
uma ferramenta educacional.
Ogawa, R., Peres, L. M., Kutzke, A. R., and Silva, F. Promoting mediation in learning
error on teaching algorithms.
24
Ensino de Algoritmos: Dificuldades, Ferramentas de
Auxílio e Proposta de uma Nova Abordagem – o Design
Thinking
Carlinho V. de Sousa1, Dárley D. de Almeida1, André F. Pereira1
1
Bacharelado em Ciência da Computação
Universidade do Estado de Mato Grosso (UNEMAT) – Alto Araguaia, MT – Brasil
profcarlinho@unemat.br, darleydalmeida@gmail.com,
flederico.pereira@unemat.br
Abstract. It proposes the use of the Design Thinking approach with students of
the Computer Science Bachelor Degree - UNEMAT / Alto Araguaia Campus.
The project has the participation of three teachers and ten students, who
intend, through the Design Thinking approach, to plan and develop
technological artifacts for the teaching and learning of algorithms and
programming. The project is in its early stages - understanding the problem -
through stakeholder insights and also organizing and applying an online
questionnaire for students enrolled in the first and second semesters of the
course.
1. Introdução
O ensino de algoritmos e lógica de programação é assunto sempre debatido na literatura
nacional e internacional na área em questão. Há quem defenda no Brasil que o tema seja
incluído na Educação Básica, como já ocorre em outros países desenvolvidos. O fato é
que os conteúdos de algoritmos e lógica de programação são vistos nos cursos de exatas
das universidades, mais comumente nos cursos das áreas de Engenharia e Computação.
Alunos oriundos da Educação Básica, ao ingressarem nas universidades e
entrarem em contato com as disciplinas que introduzem o tema algoritmos e lógica de
programação, sentem muita dificuldade em assimilar os conteúdos, em resolver
problemas, em abstrair, em pensar logicamente. Tal fato eleva os índices de reprovação
e evasão nas disciplinas que tratam do tema [Oliveira et al. 2017].
Para amenizar as dificuldades de aprendizagem e os índices de evasão e
reprovação, são propostas metodologias e tecnologias diferenciadas para o ensino de
25
algoritmos e lógica de programação, dentre elas podemos mencionar: a Peer Instruction
– Instrução em Pares [Oliveira et al. 2017]; Problem Based Learning (PBL) –
Aprendizagem Baseada em Problemas [Ambrósio and Costa 2010]; Ambiente Virtual
de Ensino de Programação – AVEP [Pereira Júnior and Rapkiewicz 2005]; entre outros.
Corroborando com os autores, propomos também uma metodologia diferenciada
para o ensino e aprendizagem de algoritmos, o Design Thinking (DT) – Pensamento de
Design. Uma abordagem totalmente centrada no ser humano (Human Centered Design –
Design Centrado no Humano), pautada em três princípios básicos: HCD – Hear (Ouvir),
Create (Criar) e Deliver (Entregar).
O Design Thinking é uma abordagem que utiliza a empatia e as técnicas dos
designers para agregar as necessidades das pessoas com o que é tecnologicamente
executável, objetivando transformar oportunidades que agregam valor em soluções para
um ambiente específico (Cavalcanti and Filatro 2016).
Acreditamos haver uma necessidade por parte dos alunos que estudam
algoritmos e lógica de programação em experimentar metodologias diferenciadas para
amenizar as dificuldades encontradas no estudo do tema. Por outro lado, acreditamos
que o DT pode gerar produtos tecnológicos para suprir tais necessidades.
Nesse sentido o objetivo do projeto é envolver os alunos do I semestre do curso
de Bacharelado em Ciência da Computação – UNEMAT/Campus de Alto Araguaia em
um processo de DT, capacitando-os a desenvolver produtos tecnológicos que possam ser
aplicados na disciplina de Algoritmos e Laboratório de Programação I.
Acreditamos que o DT pode ser uma abordagem muito útil para o ensino e
aprendizagem de algoritmos, visto que seus processos, desde a ideação até a entrega do
produto ou serviço final, são muito semelhantes aos processos estudados em
programação.
26
no curso de Bacharelado em Ciência da Computação, nos municípios de Alto Araguaia-
MT e Rondonópolis-MT. Vale salientar que pelo oferecimento do curso no município
de Rondonópolis, o Projeto Pedagógico de Curso passou por atualizações e as
disciplinas Algoritmos I e Laboratório de Programação I, ambas de 30 horas, se
fundiram em uma única disciplina de 60 horas intitulada Algoritmos e Laboratório de
Programação I, a partir do semestre 2017/2.
Tabela 1. Dados referentes às disciplinas: Algoritmos I e Laboratório de
Programação I
Reprovados Reprovados
Matriculados Aprovados
por Nota por Falta
2017/1 54 20 9 25
(Algoritmos I) (100,00%) (37,00%) (16,70%) (46,30%)
2017/1
54 16 26 12
(Laboratório de
(100,00%) (29,63%) (48,15%) (22,22%)
Programação I)
Tabela 2. Dados referentes à disciplina de Algoritmos e Laboratório de
Programação I
Reprovados Reprovados
Matriculados Aprovados
por Nota por Falta
41 20 11 10
2017/2
(100%) (48,78%) (26,83%) (24,39%)
47 21 14 12
2018/1
(100,00%) (44,70%) (29,80%) (25,50%)
38 19 7 12
2018/2
(100,00%) (50,00%) (18,42%) (31,58%)
Analisando os dados das tabelas 1 e 2, somando-se os índices de reprovados por
nota (anos de 2017 e 2018), calculando a média teremos um índice de 27,98% de
reprovações. Realizando o mesmo cálculo para os reprovados por falta, chegaremos a
um índice de aproximadamente 30% de reprovações. Se analisarmos de forma isolada
parece que os índices estão dentro do parâmetro nacional e internacional como
apresentado por Ramos et al. (2015), o qual apresenta uma comparação da taxa de
reprovação em disciplinas de introdução à programação (intituladas internacionalmente
como Computer Science 1 – CS1) de outros países em relação ao Brasil. Os estudos
revelaram que os índices de reprovação em outros países são em média de 33%. Após o
uso de metodologias, intervenções pedagógicas, utilização de produtos tecnológicos,
entre outros, a taxa de reprovação em CS1 caiu para 25,6%. Ainda segundo o autor, no
Brasil, depois de realizada uma revisão sistemática em 49 artigos publicados em eventos
reconhecidos na área de Computação, em que foram usadas metodologias diferenciadas
e produtos tecnológicos, a taxa de reprovação em CS1, reduziu em média de 45,6% para
32,6%.
27
Analisando novamente as tabelas 1 e 2, ao somarmos os índices dos dois
motivos de reprovações (notas e faltas), teremos um índice elevado de reprovações
(aproximadamente 58%). Tal índice é o que precisamos mudar. Esse cenário é reflexo
da dificuldade no entendimento aliado ao desenvolvimento do raciocínio lógico, o que
acaba acarretando evasão nos cursos e reprovação dos alunos na disciplina [Oliveira et
al. 2017].
Para diminuir os índices de reprovações e evasões nas disciplinas iniciais de
lógica de programação, são propostas várias metodologias e produtos tecnológicos para
facilitar o entendimento e construção de algoritmos. Citamos o trabalho de Ferreira
(2005), que por meio de entrevista realizada com alunos e professores da Universidade
do Planalto Catarinense (UNIPLAC), com o objetivo de levantar informações sobre as
dificuldades enfrentadas por alunos e professores nas disciplinas de introdução à
programação, propôs uma metodologia diferenciada para o ensino de algoritmos, onde o
professor tem que deixar claro o objetivo da disciplina, ser coerente na avaliação do
conteúdo, enfatizar que o aluno no primeiro momento tem que focar na solução do
problema (problema, solução e passos) e não na programação em si. A autora enfatiza,
ainda, que o professor deve ensinar o aluno a montar o pré-algoritmo, um mapa
conceitual (etapas de resolução do problema), organizando o problema em forma de
fluxograma com as entradas, processamentos e saídas do algoritmo.
O método Peer Instruction (Instrução em Pares) é proposto por Oliveira et al.
(2017). Tal método consiste em oito momentos. Nos dois primeiros momentos são
apresentados os conteúdos e lançada uma questão conceitual (de múltipla escolha). No
terceiro momento os alunos respondem à questão conceitual, escolhendo uma das
alternativas (tipo uma votação). No quarto momento são verificados os percentuais de
acertos. Se o percentual de acertos for menor que 30%, o professor retoma os conceitos
iniciais (momento cinco), caso contrário ele passa pra o sexto momento (discussão em
pequenos grupos), momento mais importante do método, pois é aí que ocorre a
discussão em pares (grupos de 2 a 5 integrantes). No sétimo momento pode ser realizada
uma nova votação, a tendência é que o percentual seja maior que 70%, caso o percentual
da votação seja menor que 30%, o professor poderá voltar ao momento cinco. No
momento oito é feita uma explanação, surgindo uma nova questão com retorno ao
primeiro momento. O método foi utilizado para medir o desempenho e a motivação de
estudantes tanto novatos quanto experientes em programação em um curso Técnico de
Informática integrado ao Ensino Médio. Os resultados mostraram um crescimento no
desempenho dos estudantes e indicaram que os alunos novatos em programação têm
uma pré-disposição em trabalhar em grupo comparado aos alunos mais experientes.
O método PBL (Problem Based Learning) – Aprendizagem Baseada em
Problemas associado a ferramentas visuais de programação, foi utilizado por Ambrósio
and Costa (2010) para amenizar o baixo desempenho dos alunos do Instituto de
Informática da Universidade Federal de Goiás nas disciplinas de introdução à
programação. O PBL tem como foco o aprendizado por meio da solução de problemas,
sendo o aluno o principal responsável pelo seu aprendizado, pois ao se confrontar com
um problema, o aluno deve buscar a solução dele, sem aulas teóricas ou conhecimento
prévio da solução fornecida pelo professor. O papel do professor é de tutor/orientador. O
método também é colaborativo, pois, os alunos são separados em grupos de, no
máximo, seis alunos. O PBL envolve sete etapas: i) exame do caso – familiarização com
28
o problema (descrição); ii) identificação do problema – dar título ao problema e definir
as questões principais; iii) brainstorming (chuva de ideias) – conectar as ideias, verificar
seus conhecimentos prévios a respeito do problema; iv) definição de um modelo
explanatório (esquema) – estruturação das ideias, avaliação crítica das ideias (o papel do
tutor é fundamental nessa fase); v) definição dos objetivos do aprendizado – foco nos
erros e inconsistências na compreensão do problema; vi) estudo independente –
pesquisa e estudo para resolver o problema (conceitos/materiais); e, vii) elaboração da
solução – reunião para discutir, refletir e apresentar a solução do problema. Para colocar
o método PBL em prática os autores utilizaram os ambientes de programação visual:
Alice (https://www.alice.org) e Scratch (https://scratch.mit.edu/). Os resultados se
apresentaram satisfatórios, os alunos tiveram boa compreensão dos conceitos sobre
algoritmos, o aprendizado se tornou uma tarefa mais fácil na opinião dos alunos, de
maneira geral os alunos afirmaram que o método PBL integrado aos produtos
tecnológicos contribuíram para o desenvolvimento do aprendizado.
O Ambiente Virtual de Ensino de Programação (AVEP) é um produto
tecnológico proposto por Pereira Júnior and Rapkiewicz (2005). Os autores enfatizam
que a união de estratégias com as ferramentas computacionais parecem ser a melhor
solução para o ensino e aprendizagem de algoritmos, assim é proposto um ambiente
virtual que integre essas duas vertentes. O AVEP foi composto de: Componentes de
Aprendizagem (Fase 1 – questionário de problemas e jogos computacionais; Fase 2 –
problemas propostos por meio do fórum; e, Fase 3 – codificação dos algoritmos na
linguagem de programação Pascal); Componente de Comunicação (chat, fórum e e-
mail); Componente de Armazenagem; e, Atores (aluno, tutor e administrador). A
aprendizagem flui normalmente, nos problemas propostos e resolvidos nas fases 1, 2 e
3. O componente de comunição está presente em todas as fases para que o processo se
torne colaborativo e os envolvidos compartilhem dúvidas e soluções.
29
As três vertentes explanadas acima, também se resumem a: i) Ouvir (Hear) –
definir um desafio estratégico e ouvir o que as partes interessadas pensam sobre o
problema; ii) Criar (Create) – recuperar os insights que tenham surgido na fase anterior
para definir o problema central do projeto, a partir disso é possível criar protótipos
rápidos que podem ser testados pelas partes interessadas; e, iii) Entregar (Deliver) – as
soluções são testadas de maneira mais estruturada e profunda, são propostas soluções-
piloto, planos de implementação e de aprendizado [Cavalcanti and Filatro 2016].
Além da Ideo, a Universidade de Stanford, mais precisamente a d.school utiliza
o DT sob uma perspectiva de cinco vertentes, são elas: i) Entender/observar (empatia) –
ouvir o que as partes interessadas têm a dizer sobre o problema em questão; ii) Definir –
etapa em que deve ser sintetizado os dados coletados durante o processo de empatia;
definir um ponto de vista para elaboração do projeto; iii) Idear – etapa do brainstorming
– geração de muitas ideias que serão analisadas e filtradas para auxiliar na resolução do
problema; iv) Prototipar – criar protótipos que possam ser testados pela equipe de
pensadores de design e pelas partes interessadas; e, v) Testar – refinamento dos
protótipos, realização de alterações e melhoria no projeto [Cavalcanti and Filatro 2016].
O DT utilizado pela Ideo (1) vai ao encontro do utilizado pela d.school (2), pois
podemos fundir todas as etapas do seguinte modo: Ouvir (1) Entender e Observar
(2); Criar (1) Definir e idear (2); e, Entregar (1) Prototipar e testar (2).
Acreditamos que aplicar o DT nos conteúdos de algoritmos vai ser importante,
pois o conceito de algoritmos é bem parecido com os do DT, uma vez que um algoritmo
parte de um problema inicial, em seguida é pensada uma solução para o problema, na
sequência é iniciada a etapa de implementação, depois são realizados os testes, por
último é entregue o produto final.
30
Figura 1. Informações dos stakeholders
31
Referências
Ambrósio, A. P. and COSTA, F. M (2010) “O Uso de PBL para o Ensino de Algoritmos
e Programação de Computadores”,
http://each.uspnet.usp.br/pbl2010/trabs/trabalhos/TC0547-1.pdf, Fevereiro.
Brown, T. (2010), Design Thinking: uma Metodologia Poderosa para Decretar o Fim
das Velhas Ideias, Elsevier.
Cavalcanti, C. C. and Filatro, A. (2016), Design Thinking na Educação Presencial, a
Distância e Corporativa, Saraiva, 1st edition.
Ferreira, M. A. dos S. et al. (2005) “Proposta de uma Metodologia para Ensino-
Aprendizagem de Algoritmos”, Revista Universidade do Planalto Catarinense:
Brasil, Editora da UNIPLAC, p. 1-88.
Manzano, J. A. N. G. and Oliveira, J. F. de. (2016), Estudo Dirigido de Algoritmos,
Érica, 14th edition.
Oliveira, M. A. F. et al. (2017) “Aplicação do Método Peer Instruction no Ensino de
Algoritmos e Programação de Computadores”, Revista Novas Tecnologias na
Educação: CINTED-UFRGS, Brasil, Editora da UFRGS, p. 1-11.
Pereira Júnior, J. C. R. and Rapkiewicz, C. E. (2005) “Um Ambiente Virtual para
Apoio a uma Metodologia para Ensino de Algoritmos e Programação”, Revista
Novas Tecnologias na Educação: CINTED-UFRGS, Brasil, Editora da UFRGS, p. 1-
7.
Ramos, V. et al. (2015) “A Comparação da Realidade Mundial do Ensino de
Programação para Iniciantes com a Realidade Nacional: Revisão Sistemática da
Literatura em Eventos Brasileiros”, https://www.br-
ie.org/pub/index.php/sbie/article/view/5178.
32
Caracteríticas multimodais de um Guia desenvolvido para
a produção de Cartoons: Uma análise parcial
1. Introdução
As tecnologias digitais permitem combinar diferentes modos de comunicações e
representações, o texto escrito pode ser combinado com imagens, sons e movimentos
podem ser adicionados às imagens (KRESS, 1998).
Essas combinações e diferentes modos de representações podem ser
denominadas de multimodalidade. A multimodalidade está vinculada à uma abordagem
da semiótica social que é caracterizada por Paiva (2018, p. 110) podendo ser “uma
ciência que tem como foco o processo de significação enquanto construção social”, ou
seja, busca entender como as pessoas produzem e comunicam suas mensagens (BINI;
SOUTO, 2019).
33
Neste sentido, o objetivo deste trabalho é discutir parte inicial da estrutura
multimodal do guia orientativo para a produção de cartoons que foi elaborado com o
intuito de contribuir para com a problemática do uso e inserção das tecnologias digitais
no ambiente escolar, conforme é apontado por Souto (2014).
O referido guia oferece um passo a passo para a produção ou edição de cartoons
matemáticos com dicas de uso de softwares gratuitos que possam ser utilizadas
(acessadas) nas escolas públicas de Educação Básica. Nessa pesquisa, os vídeos do tipo
cartoons devem ser entendidos como “produções audiovisuais - desenhos, colagens ou
modelagens - animadas por meios digitais (softwares, aplicativos etc.) que visem à
comunicação de ideias matemáticas” (manuscrito SOUTO, 2016, p. 2).
O texto multimodal pode ser entendido como “uma unidade de significação em
que os produtores de texto fazem escolhas de forma a construírem um produto com um
propósito comunicativo pelo uso desse sistema” (VIEIRA; SILVESTRE, 2015, p. 131).
A esse respeito entendemos que o significado do guia foi anunciado por meio de uma
sincronização de modos sendo eles: vídeos, imagens, áudios ou texto escrito.
Optamos metodologicamente pela abordagem qualitativa de Bogdan e Biklen
(1994), visto que, não visamos quantificar a dimensão de dados e sim analisar a
qualidade. Sendo os instrumentos de produção de dados imagens (prints) do guia.
Este texto está sistematizado da seguinte forma: inicialmente apresentamos as
etapas utilizadas para a produção do guia. Na sequência apresentamos os resultados da
pesquisa acerca da primeira etapa do guia. As considerações e por fim as referências.
2. Sistematização
O guia foi elaborado em cinco etapas, sendo que a primeira etapa apresenta a produção
do roteiro que é fundamental para o processo de produção de cartoons. A mesma
consiste em três fases sendo elas: roteiro, enredo e virada. Estas fases foram exibidas de
maneiras diferentes sendo com imagens, escrita e vídeos.
A segunda etapa equivale a apresentação do software gratuito OpenToonz. Nessa
etapa exibimos alguns comandos do software com escritas e vídeos do tipo screencasts
(vídeos que gravam o que se passa na tela do computador).
Na terceira etapa produzimos desenhos com o software OpenToonz e capturamos
a ecrã do computador utilizando vídeos do tipo screencasts. Esses vídeos possuem
duração de 3 a 6 minutos. Neles foram apresentados momentos da produção do cartoon
proposto no roteiro disponibilizado no guia.
A quarta etapa foi o momento em que apresentamos um passo a passo para a
construção de frames (desenho quadro a quadro). Para isso, também utilizamos vídeos
do tipo screencasts.
Na quinta e última etapa foi apresentada a edição final do cartoon produzido no
OpenToonz. E também foi disponibilizado o próprio cartoon para que os usuários do
guia possam o assistir. Por fim nessa etapa ainda, foi apresentada as considerações finais
os agradecimentos e as referências.
34
4. Resultados e discussões
À estrutura do guia foi planejada visando fazer combinações de modos, ou seja,
utilizando a multimodalidade. Vieira e Silvestre (2015, pg. 71) salientam que “nenhum
modo semiótico deve ser visto isoladamente, pois eles complementam-se no momento em
que o sentido é composto”.
Assim, passamos à apresentar a parte inicial da estrutura do guia de forma
imagética, inciando com a capa do mesmo que ilustra o nome atribuido a ele “Gui@toon:
Guia para a produção de Cartoons” e logo de representação que foi construida com
símbolos e imagens, conforme ilustra a figura a seguir,
35
Figura 2. Característica do vídeo introdutório
Fazendo uma breve análise com base nas quatro modalidades levantadas por
Kress e van Leeuwen (2006 [1996]), a figura 3 apresenta à sua esquerda a palavra
conhecida “roteiro” que constitui uma informação dada. No centro da imagem está a
saliência que ocupa o lugar das perguntas orientativas. Na parte superior da imagem
encontra-se o ideal que é um boneco duvidoso com uma luz direcionada à ele, o que
significa que as perguntas que se encontram na imagem irão orientar para a produção do
roteiro.
36
Na figura 4 podemos obervar duas imagens dentro de formas geométricas com
algumas orientações a respeito do que é um enredo e também a informação de que
haveria um exemplo de roteiro em seguida.
Figura 4. Enredo
Também podemos analisar o vídeo que traz uma explicação sobre a virada em
um cartoon. O vídeo possui um som agradável, e imagens contendo explicações escritas
referente ao momento da virada. A virada em um cartoon é o momento em que a
matemática aparece solucionando o problema ou questão levantada por algum dos
personagens.
37
Figura 6. Imagem estática do video que explica a virada
5. Considerações
Acreditamos que o presente trabalho alcançou o seu objetivo principal: discutir parte
inícial da estrutura multimodal do guia orientativo para a produção de cartoons. E, com
base na análise dos dados foi possível perceber que o guia vai ao encontro das
concepções multimodais apresentadas por Kress e van Leeuwen (2006 [1996]), Vieira e
Silvestre (2015).
Podemos considerar que quando o guia multimodal estiver disponível para o
público, poderá trazer contribuições para à aprendizagem de professores e alunos que o
utilizarem e, também, contribuir para à inserção e uso pedagógico das tecnologias no
ambiente escolar.
Agradecimentos
À Fundação de Amparo à Pesquisa do Estado de Mato Grosso (FAPEMAT) por
disponibilizar bolsa, financiar (processo n.0206965/2017) e possibilitar que está
pesquisa seja realizada. E também, ao Grupo de Estudos e Pesquisas em Ensino com
Tecnologias Digitais (GEPETD).
38
Referências
BINI, I. C.; SOUTO, D. L. P. (2019) Educação Matemática e multimodalidade: o processo
de construção de um guia multimodal. XIII ENEM - Encontro Nacional de Educação
Matemática.
BOGDAN, R. C.; BIKLEN, S. K. K. (1994) Investigação qualitativa em educação. Porto:
Porto Editora.
SOUTO, D. L. P. (2016) Projeto M@ttoon. Universidade do Estado de Mato Grosso,
UNEMAT, Barra do Bugres. Manuscrito.
SOUTO, D. L. P. (2014) Transformações expansivas na produção matemática on-line. São
Paulo. Editora Cultura Acadêmica.
PAIVA, F. J. O. (2018) Multimodalidade e a construção de identidades no livro didático de
inglês. Form@re. Revista do Plano Nacional de Formação de Professores da
Educação Básica. Universidade Federal do Piauí, v.6, n. 2, dez.
KRESS, G.; VAN LEEUWEN, T. (2006 [1996]) Reading images: the grammar of visual
design. London and New York: Routledge, 2. Ed.
39
Descoberta do perfil de evasão dos alunos de graduação de
uma universidade pública aplicando técnica de mineração de
dados educacionais.
Felipe Dias da Silveira1, Reinaldo Lourenso2
1
Pós-Graduação Lato Sensu em Gestão de Sistemas de Informação
Instituto Federal de São Paulo - Campus Guarulhos (IFSP) – Guarulhos – SP – Brazil
2
Instituto Federal de São Paulo - Campus Guarulhos (IFSP) – Guarulhos – SP – Brazil
silveira.felipe@alunos.ifsp.edu.br, rslourenso@ifsp.edu.br
Abstract. Recent studies make use of data mining techniques for knowledge
discovery in educational databases. Part of these studies has focused on
student dropout in higher education institutions and the discovery of profiles
with higher dropout potential. Based on the above, I intend to use educational
data mining techniques to obtain data and use them as decision support tools
in a public university located in the municipality of Diadema in the state of
São Paulo.
Resumo. Estudos recentes fazem uso de técnicas de Mineração de Dados para
a Descoberta de Conhecimento em Bases de dados educacionais. Parte desses
estudos tem focado na evasão de alunos em instituições de ensino superior e a
descoberta de perfis com maior potencial de evasão. Partindo do exposto,
pretendo fazer uso de técnicas de mineração de dados educacionais para
obtenção de dados e utilizá-los como ferramentas de apoio à decisão em uma
universidade pública localizada no município de Diadema no estado de São
Paulo.
1. Introdução
Conforme apresentado em Silva (2012), o governo brasileiro realizou um enorme
esforço para aumentar a quantidade de Universidades Públicas Federais através de
programas educacionais como o Programa de Apoio a Planos de Reestruturação e
Expansão das Universidade Federais (REUNI) .
Entretanto Silva (2012) assevera que existe uma ineficiência no processo
permanência e conclusão dos alunos nas universidades federais, culminando em dois
fatores principais: as taxas de desistência ou término do curso com tempo mais
prolongado que o esperado.
Como resultado desse fenômeno apenas 67% dos alunos se graduam no tempo
previsto, apontando que um a cada três estudantes pode, ou evadir do curso ou ser retido
por mais tempo sendo que segundo fenômeno pode evoluir para uma evasão tardia
(SILVA, 2012).
Com o atual estado da arte das Tecnologias da Informação (TI) vem sendo
criados estudos que fazem uso de técnicas de Mineração de Dados para a Descoberta de
40
Conhecimento em Bases de dados educacionais. Parte desses estudos tem focado na
evasão de alunos em instituições de ensino superior e a descoberta de perfis com maior
potencial de evasão.
Conforme Silva (2017), assim como nas demais áreas afetadas pelo Big Data, o
campo educacional vem incorporando cenários dessas tecnologias, em virtude das
diversas abordagens educacionais gerarem cada vez mais dados e também demandam
análises detalhadas e voltadas para um melhor planejamento e execução de ações na
área da educação.
Segundo Baker (2011), a Mineração de Dados Educacionais (MDE) surgiu
como uma área de pesquisa que possui grande potencial para contribuir com a melhor
compreensão dos processos de ensino, de aprendizagem e de motivação dos alunos
tanto em ambientes individuais quanto em ambientes colaborativos de ensino.
As principais motivações para o uso da MDE vem exatamente do fato das
tecnologias da informação utilizadas nas instituições e universidades fornecerem todo o
material necessário para análise e processamento de dados para esse contexto.
A Mineração de dados é entendida como uma etapa do processo do Knowledge
Discovery in Database (KDD), com a finalidade de descobrir padrões relevantes que
ocorrem nos dados. E a partir dos padrões descobertos têm-se condições de gerar
conhecimento útil para o processo de tomada de decisões. (DA SILVA et al., 2017)
Esta é uma forma ótima de obter mais informação dos dados brutos de uma base
de dados ou base de conhecimento. Essas tarefas preditivas tem como principal
característica encontrar valores em um atributo apontado, permitindo prever que dados
com um certo nível mínimo de similaridade, apontem informações relevantes para um
determinado contexto, ou seja geração de conhecimento e predição de resultado futuro
(COSTA et al., 2012).
Figura 01: O processo de KDD (DA SILVA, 2017)
Em sua sistemática, a mineração de dados segue os passos que podem ser
observados na Figura 01. Os dados devem ser coletados (obtenção de dados) e
organizados em uma fase de pré-processamento. Como resultado imediato a saída do
pré-processamento é uma entrada para o que se denomina de fato a mineração de dados
e que como produto resultará em um conjunto definido de pós-processamento. Esse
complexo de procedimento pode ser revisto e reiniciado até se chegar a resultado útil e
que atenda a uma demanda (COSTA, 2012).
41
Para Da Silva et al. (2017), o processo do KDD, consiste em um processo
analitico, sistemático e, até onde possível, automatizado. Segundo Amaral (2016), a
mineração de dados serve para explorar e analisar grandes volumes de dados em busca
de padrões, previsões, erros, associações entre outros.
Santos (2016) lembra ainda que podemos verificar que existem diversos
trabalhos que utilizam-se da mineração de dados educacionais para análise de dados em
ambientes escolares, porém cerca de 57% dos trabalhos identificados utilizam-se de
dados coletados a partir de ambientes virtuais de aprendizagem (AVAs), e somente 16%
destes estudos utilizam técnicas de mineração de dados em Sistemas de Gerenciamento
Acadêmico (SGA).
Estudos sobre evasão escolar em universidades, tanto públicas quanto
particulares, têm apresentado altos índices e seus efeitos têm relações entre questões
financeiras e no números de alunos formados, causando problemas em toda a cadeia
produtiva no país (RIGO, 2012).
2. Justificativa
Tendo em vista o baixo número de estudos que utilizam técnicas de mineração de dados
em Sistemas de Gerenciamento Acadêmico (SANTOS, 2016), a necessidade de
identificação de um perfil dos alunos evasores (SANTOS e ARABI, 2015) e a
possibilidade de trabalhos futuros relacionados ao tema, no presente trabalho pretendo
fazer uso de técnicas de mineração de dados educacionais para obtenção de informações
sobre o perfil de evasão e utilizá-los como ferramentas de apoio à decisão em uma
universidade pública localizada no município de Diadema no estado de São Paulo.
4. Revisão da literatura
Em Silva (2017) são abordados aspectos conceituais entre as áreas de Mineração de
Dados Educacionais (Educational Data Mining) , Aprendizagem Analítica (Learning
Analytics) e Analíticas Acadêmicas (Academic Analytics) afim de suas fronteiras e
correlações entre essas áreas.
Rigo (2012) apresenta uma análise de melhorias possíveis na aplicação de
Mineração de Dados Educacionais, para que seus resultados possam apoiar
efetivamente processos de detecção de comportamentos ligados à evasão escolar.
Paz (2017) faz um estudo de caso para identificação de perfis de evasão em uma
42
universidade comunitária através da descoberta de conhecimento em base de dados
(DCBD). Em suas considerações finais, afirma como limitação do referido trabalho a
análise de apenas um semestre da IES e que para trabalhos futuros destaca-se a
ampliação da base de dados para mais semestres, a inclusão de novos atributos para
novas análises como: renda per capita, se o aluno trabalha e frequência na biblioteca.
Costa (2013) introduz os principais conceitos, técnicas e algoritmos de
mineração de dados com aplicações a conjuntos de dados educacionais, discutindo
métodos sobre classificação e regressão, agrupamento de dados e mineração de regras
de associação.
Baker (2011) são discutidas as condições que viabilizam a pesquisa da EDM no
cenário internacional e quais os desafios para consolidar a área no Brasil. Além disso,
também aborda o potencial de impacto da EDM na melhora da qualidade dos cursos na
modalidade educação a distância (EAD).
Santos (2016) aponta e apresenta o que está sendo pesquisado na área de
predição de desempenho acadêmico. Conta com a análise e classificação de publicações
na área de Mineração de Dados Educacionais publicados por pesquisadores brasileiros
em eventos e periódicos na América Latina entre os anos de 2012 e 2015.
Em Santos e Arabi (2015) afirmam que a evasão escolar é algo muito
preocupante e que deve ser devidamente analisada em qualquer nível de ensino. No
nível superior, a evasão pode representar a perda de qualificação do jovem brasileiro e,
no caso das universidades públicas, um desperdício de recursos.
5. Métodos e técnicas
O embasamento teórico realizado engloba pesquisas em artigos e livros que tratam do
tema de mineração de dados, mineração de dados educacionais, algoritmos e
ferramentas que podem ser utilizadas para aplicar as técnicas aprendidas a fim de
viabilizar a execução deste trabalho. Sendo a busca realizada através da ferramenta
Google Scholar.
Adoção da Ferramenta WEKA, que possui uma coleção de algoritmos voltados
para machine learning e data mining. Dentre as ferramentas computacionais mais
utilizadas o Weka foi a de maior utilização (presente em aproximadamente 77% dos
trabalhos) segundo levantamento efetuado por Santos et al. (2016) .
Utilização de algoritmos de Árvore de Decisão. Segundo Santos et al. (2016)
este fato se deve a indução de árvores de decisão ser uma das formas mais simples, e
ainda assim mais bem-sucedidas de Algoritmos de Aprendizagem.
Será aplicado como método de pesquisa o estudo de caso em uma universidade
pública localizada no município de Diadema em São Paulo onde serão utilizados dados
sobre a vida acadêmica dos estudantes de diferentes cursos de graduação entre os anos
de 2007 e 2018, sendo que estes serão disponibilizados pela equipe de TI da respectiva
universidade. Salienta-se que os dados pessoais dos alunos não serão utilizados e nem
publicitados.
43
6. O processo de descoberta de conhecimento em bases de dados
Para iniciar o processo de descoberta de conhecimento em bases de dados foram
selecionados os dados de sete cursos de graduação que possuem registros entre os anos
de 2007 e 2018.
6.1. Processo de seleção e extração dos dados
Foram extraídos um total de 4131 registros de alunos matriculados entre os anos de
2007 a 2018, contendo dados dos alunos da graduação nos cursos de: Ciências
Ambientais, Ciências Biológicas, Engenharia Química, Farmácia, Química, Química
Industrial e Licenciatura em Ciências. E que cursaram pelo menos os dois primeiros
semestres. Estes cursos são oferecidos em diferentes turnos: vespertino, integral e
noturno. Os dados foram solicitados para a universidade por meio de canal de acesso à
informação no formato de dados abertos. Os dados foram disponibilizados em arquivo
de texto de forma anônima, não sendo possível identificar os alunos.
6.2. Pré-processamento
Dentre os 19 (dezenove) atributos disponibilizados nove foram considerados no
processo de mineração de dados, que seguem: Idade; Sexo; Etnia, Necessidade Especial
(Sim/Não), Tipo de Vaga (Ampla concorrência / Cotista), Coeficiente de rendimento
(CR), Ano letivo, Tipo de Ensino médio (Público/Privado) e a Situação acadêmica
atual. Alguns atributos precisaram passar por um processo de discretização sendo
distribuídos um pequeno número de intervalos distintos.
6.3. Processo de mineração de dados
Para o processo de mineração de dados foi adotado a ferramenta WEKA, que possui
uma coleção de algoritmos voltados para machine learning e data mining. Dentre eles,
foi utilizado o algoritmo de Árvore de Decisão J48 (C4.5). Sendo realizado um conjunto
de treinamentos pelo método cross-validation, utilizando o valor de 10 folds, como
conferece vector o valor 0.05 e com poda (unpruned = False) visando o aumento da
acurácia na classificação dos dados.
6.4. Pós-processamento
Após o processamento do dados temos a etapa de análise dos dados. Com um total de
4131 instâncias utilizadas no processo de treinamento. Obteve-se a classificação correta
de 87.146% dos dados, sendo 12.854% classificados de maneira incorreta. Conforme
podemos observar na figura 02 a matriz de confusão gerada classificou erroneamente
531 registros, sendo 3600 classificados corretamente.
44
Figura 02: Treinamento utilizando o algoritmo J48 na ferramenta WEKA
A árvore de decisão gerada a partir do treinamento, tem como primeiro nodo o
Coeficiente de Rendimento (CR) acumulado. Com isso é possível perceber que alunos
com o CR menor ou igual a 4 (quatro) nos dois primeiros semestre evadiram do curso.
A figura 03 exibe a árvore de decisão gerada. Também podemos notar um grande
número de evasões para alunos com CR maior que 4 (quatro) e menor que 6 (seis). Já
para alunos com CR maior do que 6 (seis) o número de evasões cai consideravelmente e
outros fatores como idade, etnia e tipo de ensino médio começam a aparecer como
delimitadores ou não da evasão.
Figura 03: Árvore de decisão gerada pelo algoritmo J48 na ferramenta WEKA
45
7. Conclusão e trabalhos futuros
Neste artigo foi realizado o estudo de caso de uma universidade pública,
localizada no município de Diadema - SP, onde foram selecionados os dados dos alunos
de graduação, de sete cursos distintos, para aplicar técnicas de mineração de dados
educacionais para identificação inicial do perfil de evasão quando relacionado ao
rendimento acadêmico nos dois semestres iniciais do curso. Sendo obtidos após o
treinamento realizado com o algoritmo de árvores de decisão J48 (C4.5) a confirmação
de que alunos com menor rendimento tem maior tendência a abandonar o curso.
Apesar deste estudo mostrar uma tendência do aluno com baixo rendimento à
evadir, tem-se a limitação do treinamento ser realizado somente com os dados de um
dos campi da referida universidade.
Como trabalhos futuros, serão incluídos outros fatores, tais como: dados
socioeconômicos e demográficos, a execução do treinamento para os cursos distintos
visando identificar, além do perfil de evasão dos campi, o perfil por curso. Além da
oportunidade deste estudo ser realizado nos demais campi espalhados pelo estado de
São Paulo/BR.
Referências
AMARAL, Fernando. Aprenda Mineração de dados: teoria e prática. Alta Books
Editora, 2016.
BAKER, Ryan; ISOTANI, Seiji; CARVALHO, Adriana. Mineração de dados
educacionais: Oportunidades para o brasil. Brazilian Journal of Computers in
Education, v. 19, n. 02, p. 03, 2011. Link
http://br-ie.org/pub/index.php/rbie/article/view/1301/1172
BRAVIN, Guilherme Ferrari; Lee, Luciana; Rissino, Silvia das Dores - Mineração de
Dados Educacionais na base de dados do ENEM 2015 - Brazilian Journal of
Production Engineering, Universidade Federal do Espírito Santo, Editora
UFES/CEUNES/DETEC, 2019
COSTA, Evandro et al. Mineração de dados educacionais: conceitos, técnicas,
ferramentas e aplicações. Jornada de Atualização em Informática na Educação, v. 1,
n. 1, p. 1-29, 2013. Link http://br-ie.org/pub/index.php/pie/article/view/2341/2096
DA SILVA, Leandro Augusto; PERES, Sarajane Marques; BOSCARIOLI, Clodis.
Introdução à mineração de dados: com aplicações em R. Elsevier Brasil, 2017.
DOS SANTOS, Ramon Nóbrega; DE ALBURQUEQUE SIEBRA, Clauirton;
OLIVEIRA, Estêvão Domingos Soares. Uma Abordagem Temporal para
46
Identificação Precoce de Estudantes de Graduação a Distância com Risco de Evasão
em um AVA utilizando Árvores de Decisão. In: Anais dos Workshops do Congresso
Brasileiro de Informática na Educação. 2014. p. 262. Link:
http://br-ie.org/pub/index.php/wcbie/article/view/3224/2786
GOLDSCHMIDT, Ronaldo; PASSOS, Emmanuel ; BEZERRA, Eduardo. Data Mining
2ED. Elsevier Brasil, 2015.
PAZ, Fábio; CAZELLA, Sílvio. Identificando o perfil de evasão de alunos de graduação
através da Mineração de dados Educacionais: um estudo de caso de uma
Universidade Comunitária. In: Anais dos Workshops do Congresso Brasileiro de
Informática na Educação. 2017. p. 624.Link
http://www.br-ie.org/pub/index.php/wcbie/article/view/7448/5244
RIGO, Sandro J.; CAZELLA, Silvio C.; CAMBRUZZI, Wagner. Minerando Dados
Educacionais com foco na evasão escolar: oportunidades, desafios e necessidades.
In: Anais do Workshop de Desafios da Computação Aplicada à Educação. 2012. p.
168-177. Link: http://www.br-ie.org/pub/index.php/desafie/article/view/2787
SANTOS, Maíze Aparecida dos; ARABI, Thamyres Rollemberg Aboud. Evasão nos
campi da UNIFESP. In: Graduação em números. 2015. Link:
http://www.unifesp.br/reitoria/prograd/pro-reitoria-de-graduacao/informacoes-institu
cionais/graduacao-em-numeros?download=534:estudo-evasao-unifesp
SANTOS, Rodrigo et al. Análise de Trabalhos Sobre a Aplicação de Técnicas de
Mineração de Dados Educacionais na Previsão de Desempenho Acadêmico. In:
Anais dos Workshops do Congresso Brasileiro de Informática na Educação. 2016. p.
960. Link http://www.br-ie.org/pub/index.php/wcbie/article/view/7021
SILVA, Hadautho Roberto Barros da; Adeodato, Paulo Jorge Leitão; A Data Mining
Approach for Preventing Undergraduate Students Retention - WCCI 2012 IEEE
World Congress on Computational Intelligence June, 10-15, 2012 - Brisbane,
Australia
SILVA, Leandro Augusto et al. Ciência de Dados Educacionais: definições e
convergências entre as áreas de pesquisa. In: Anais dos Workshops do Congresso
Brasileiro de Informática na Educação. 2017. p. 764. Link
http://www.br-ie.org/pub/index.php/wcbie/article/view/7462/5258
47
Uma abordagem sobre Internet of Things na região urbana do
município de Tangará da Serra-MT
Lauren A. Sznitowski1, Davi Gabriel L. Silva1, Ricardo M. S. Cardoso1,
Wilian G. Fiirst2
1
Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso campus avançado
Tangará da Serra (IFMT) - CEP – 78.300-000 – Tangará da Serra – MT – Brasil
2
Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso campus avançado
Tangará da Serra (IFMT) - CEP – 78.300-000 – Tangará da Serra – MT – Brasil
laurenminetto5@gmail.com, davilopesifmt@gmail.com.br,
ricardo.m3deiros@gmail.com.br, wilian.fiirst@tga.ifmt.edu.br
1. Introdução
Internet of Things (IoT), ou Internet das Coisas tem como propósito interligar objetos
por meio de conexões. Sabe-se que a internet proporciona conexão que une pessoas e
permite a troca de informações a nível mundial. A IoT é uma evolução, conecta os
objetos utilizados por pessoas e tangenciam por meio de uma conexão esses
componentes com o mundo.
As primeiras ideias a respeito surgiram pós internet, no final da década de 90. E
em 1999, essa percepção tornou-se concreta quando estruturado pesquisador do MIT
(Massachusetts Institute of Technology) Kevin Ashton, nos EUA, esse conceito compôs
o pensamento de que futuramente “não usaríamos o computador, mas sim ele se usaria”,
autônomo da interferência humana, caracterizado por um avançado e promissor
desenvolvimento tecnológico.
48
A conexão de todos os objetos físicos a Internet proporciona o cruzamento de
dados, e sua associação direta ou indireta viabiliza de maneira inteligente as relações
humanas, em tempo e dinheiro. Nesse contexto, a IoT surge com importância mundial e
se faz presente em diversas áreas, ainda que com pouca representatividade, como,
manufatura, varejo, operações de prateleiras inteligentes, estoque, e principalmente
questões relacionadas à assistência social, como supervisionamento médico (saúde) que
pode ser aplicado a hospitais e instituições afins, também como monitoramento e
controle de tráfego, adaptando o fluxo de carros.
Diante da sua importância, cabe então, questionar-se quão importante esses
mecanismos são para o futuro, como será a reação quanto essa evolução, em que locais
poderão auxiliar, ou até, levar a analisar se o futuro tecnológico está tão distante do
agora que represente uma história fictícia e inexistente.
2. Metodologia
Com o objetivo de entender as funcionalidades de IoT e a forma como está sendo usada
no âmbito social e econômico, buscou-se abordar sua utilização, bem como mencionar a
importância que terá no futuro sendo para tanto, feita uma pesquisa no contexto local.
A pesquisa de cunho quantitativo teve embasamento bibliográfico, que permitiu
entender conceitos da IoT, assim como uma pesquisa de campo com amostragem de 60
tangaraenses acerca das diversas aplicações da IoT, da evolução das tecnologias
inteligentes e das presenças destas futuramente. Para tanto, foram aplicados
questionários na área urbana do município de Tangará da Serra – MT, de forma
aleatória foram selecionados os respondentes com faixa etária entre 17 a 70 anos. A
pesquisa foi realizada entre os meses de abril a maio de 2019.
3. Resultados e Discussões
3.1 Aplicações de IoT
Por ser uma tecnologia flexível e como tal pode ser inserida em várias áreas, é
perceptível que a IoT terá marcante presença no futuro por se tratar de uma ferramenta
facilitadora e adaptável aos diversos perfis, seja no pessoal conectando objetos
individuais, no âmbito empresarial com maior número de equipamentos ou ainda
atendendo a necessidades de gestão pública.
A IoT permite que a coleta, o armazenamento e a transmissão de informações
estejam disponíveis aos itens equipados com tags ou sensores, que como citam Bi et al.
(2014), é por meio destes sensores que se permite caracterizar unicamente o
equipamento, estabilizando uma conexão entre os objetos.
49
A nível externo é possível otimizar recursos e facilitar o processamento de
informações como a troca eletrônica de dados (EDI), realizada principalmente no
âmbito de transporte e logística de empresa para empresa (B2B), auxiliando na tomada
de decisão, controle de qualidade, e ainda, na implementação do sistema de
gerenciamento de cadeia de suprimentos (Supply Chain, SCM) trabalhando como um
sistema que interliga todas as empresas presentes na confecção de um produto, desde a
matéria prima até a chegada ao consumidor final.
3.1.2 Aplicações na saúde
A saúde é uma importante área de aplicação. Nela a adoção da IoT pode melhorar a
qualidade do serviço e reduzir custos, realizado por meio de sensores ou dispositivos
utilizados para monitorar parâmetros médicos. Segundo Li et al.(2014) avanço em
tecnologia de sensor, comunicação sem fio e processamento de dados são a força motriz
para a crescente implementação IoT em sistemas de saúde.
As redes emergentes de sensores corporais vestíveis (WBSNs) também
conhecidas como Wearables devices foram desenvolvidas para monitorar
continuamente as atividades do paciente ou parâmetros médicos, permitindo a
integração de aparelhos heterogêneos e garantindo o compartilhamento mais
detalhando, por meio de tecnologias, capazes de informar dados médicos tanto de uso
pessoal gerando dados estatísticos para auto análise quanto para fins médico externos.
Têm-se como exemplo destes dispositivos vestíveis relógios inteligentes, ou mesmo
roupas como moletons.
A IoT pode fornecer aos sistemas de saúde a interconexão de diferentes
dispositivos para obter uma visão médica abrangente, esses sensores podem ser usados
para coletar informações sobre o quadro de saúde do paciente e transmiti-las para
centros médicos remotamente.
Esse tipo de implementação tecnológica a melhora a qualidade de vida, bem
como além do monitoramento da saúde, auxiliando na prevenção de problemas pela
entrega de dados detalhados e completos a respeito do estado paciente ou mesmo de
uma doença crônica em específico. O rápido desenvolvimento de dispositivos móveis e
aplicativos de saúde criam um vasto mercado para o emprego da IoT, num contexto no
qual, a aplicação individual de saúde móvel foi desenvolvida para atender a pequenas
demandas de saúde.
Devido a essas especialidades dentro do ambiente médico, para Li, Xu, Zhao et
al. (2014), nesse contexto criou-se um conceito chamado de 'Internet das Coisas da
Saúde' (HIoT) proposto para explorar tecnologias de sensores e rede wireless quanto ao
monitoramento de condições médicas.
3.1.3 Infraestrutura
50
beneficia por proporcionar uma administração adequada de recursos, gerando e
provocando impactos positivos na saúde financeira das cidades.
Um exemplo desta implementação é a efetivação de lixeiras inteligentes, que
com seu uso permitiria economia de tempo e dinheiro, graças aos sensores acoplados as
lixeiras que transmitiriam informações individuais, informações essas como a
quantidade de dejetos existentes. Desta forma seriam recolhidas apenas as lixeiras
cheias, direcionando e dinamizando a coleta de lixo por reduzir o tempo médio gasto.
Este pequeno modelo de aplicação IoT em infraestrutura deixa claro a
viabilidade que proporciona, melhora considerável na logística e limpeza bem como na
redução de custos e melhora do planejamento urbano.
51
Com intuito de saber se haveria relação entre Sistemas Inteligentes e o conceito
IoT nas respostas sobre o uso diário dos Sistemas Inteligentes, percebe-se que 80% dos
entrevistados afirmam conhecer o termo e utilizam cotidianamente Sistemas
Inteligentes, porém apenas ⅙ (um sexto) responderam coerentemente a real definição,
ao dizer que SIs são sistemas capazes de entender, aprender e interagir com as
necessidades do usuário, e não como “tudo quanto é tecnologia pode ser considerada um
SI”, evidenciando dessa forma as tecnologias tradicionais que não interagem com o
usuário.
Internet como se sabe é uma rede universal de computadores que permite a
trocam informações, onde interagem diversas pessoas de várias partes do mundo.
Internet das Coisas, se aproxima dessa definição, como o nome diz, refere-se a
interconexão dos objetos cotidianos, das coisas (geladeira, termostato) em uma rede, a
internet, tal facilidade de compreender foi verificada quando 52% responderam sim,
reconhecendo o termo. Porém, em linguagem técnica percebeu-se maior dificuldade,
para assimilar “IoT” com “Internet das Coisas”. Tal resposta pode ser atribuída ao fato
de que, por ser um termo em inglês, muitos o desconhecem, e assim, 82% afirmaram
não saber e jamais ter ouvido falar. É válido lembrar que se apresentasse Internet das
Coisas como Internet of Things o idioma tanto do acrônimo quanto da real origem da
palavra (inglês), dificultam o entendimento, explicando o desconhecer do público.
Nas perguntas de múltipla escolha observou-se que conseguiam responder de
forma intuitiva sobre o assunto, todavia nos questionamentos discursivos em mais de
70% dos casos afirmaram pouco ou quase nada quanto ao entendimento do conceito
IoT. Após as respostas dos entrevistados lhes foram explicados os referidos termos, e
assim conseguiam exemplificar alguns objetos inteligentes que sejam uma aplicação IoT
como geladeira inteligente, aplicações no trânsito, E-casa, mostrando seu
desconhecimento por parte dos conceitos técnicos, mas suas utilidades práticas.
Quando perguntados sobre a presença da IoT em seu cotidiano, 54% negaram
fazer uso desta tecnologia em suas rotinas, o que para muitas pessoas pode-se
relacionar-se com a distância de realidade de um mundo tecnológico e avançado na
legítima situação brasileira. Quanto aos demais, 46% que afirmaram utilizarem, de certa
forma continuam não utilizando-a, apenas pensam que desfrutam desta tecnologia. Por
tem um conhecimento equivocado, dizem utilizar, pois acreditam que o monitoramento
de câmeras por meio de aplicativos, ou babá eletrônica venham a ser IoT.
4. Conclusão
Destarte, determina-se que a tecnologia está cada vez mais onipresente e capacitada a
auxiliar e pensar pelos seres humanos. Nesse sentido, a IoT revela-se como uma
evolução da internet, capaz de proporcionar ainda mais conectividade, por meio de uma
vinculação interativa entre objetos, surgindo como facilitadora das ligações
interpessoais.
Fica evidente que a contínua ascensão das tecnologias inteligentes terá
fundamental participação na vida cotidiana, pois claramente contribuirá de forma
expressiva na execução de tarefas aplicadas em diversas áreas, tanto empregadas ao
meio público, como contribuir com execução de tarefas de logística e mobilidade
urbana, quanto pessoais, desde a preparação antecipada de um café, a configuração do
termostato, ou com maior abrangência, promovendo assistência e monitoramento
médico.
As aplicabilidades da IoT, como visto são de grande relevância, todavia, tanto se
conjuga os verbos no tempo futuro que fica difícil relacionar tamanha evolução a atual
realidade, que por consequência, acaba caracterizando a revolução tecnológica como
longínqua. É evidente que tais informações acerca do progresso tecnológico não são
condizentes, quando se busca fontes provenientes de dentro da tecnologia, como
empresas de TI, fica visível o nível de conhecimento sobre a temática e principalmente
quais as perspectivas para o futuro.
Diferentemente, a população (no caso, tangaraense), que tem pouco
conhecimento específico da área, e como tal não é capaz de definir ou diferenciar
conceitos tecnológicos, como siglas, tecnologias inteligentes ou internet das coisas, ao
passo de considerarem alguns tipos de tecnologia como um sistema inteligente,
desconsiderando por completo a adequação às necessidades do usuário.
Por fim, o presente estudo buscou analisar por meio de pesquisa bibliográfica e
de campo o que a Internet das Coisas trás de inovador, evidenciando suas inúmeras
aplicabilidades em diversos âmbitos relacionais, e ainda fazer uma ponte entre seu
aproveitamento e qual o conhecimento e a importância dada pela população, quando
fala-se em tecnologias inteligentes capazes de se aperfeiçoarem.
53
5. Referências
54
Implementação do Método do Ponto Material para Simulação
de Viscoelasticidade utilizando Partı́cula Afim em Célula
Danilo P. Ferreira1 , Heitor T. L. de Paula1 , Marcelo V. C. Aragão1
1
Instituto Nacional de Telecomunicações (Inatel)
Av. João de Camargo, 510 – 37.540-000 – Santa Rita do Sapucaı́ – MG – Brazil
{danilopeixoto,heitortoledo}@gec.inatel.br, marcelovca90@inatel.br
1. Introdução
Com a demanda da indústria do entretenimento e marketing em produção de conteúdos
digitais, efeitos comuns com caracterı́sticas bem definidas tornaram-se um problema para
serem reproduzidos devido a complexidade de simulação combinada com as exigências
de aspecto visual vinculadas ao realismo.
O método do ponto material (MPM, do inglês Material Point Method) é um exem-
plo de método de simulação para resolver o comportamento de objetos deformáveis e flui-
dos viscosos [Ram et al. 2015]. Intuitivamente, o método busca representar o domı́nio do
objeto simulado por partı́culas com propriedades, ou como nomeado, pontos materiais.
Em contraste com outros métodos, como método de elementos finitos, o MPM é indepen-
dente da representação geométrica do objeto simulado e permite maiores deformações
[Jiang et al. 2016].
55
Neste artigo será abordado e discutido o processo de discretização de geo-
metria, seguindo pela implementação da simulação, utilizando um integrador base-
ado em otimização e o método de transferência para grade, partı́cula afim em célula
[Jiang et al. 2015]. A implementação proposta destina-se aos fluxos de trabalho de
simulação offline e permite escalabilidade no número de partı́culas devido a aceleração
por GPU (do inglês Graphics Processing Unit).
2. Trabalhos Relacionados
A simulação de corpos deformáveis e fluidos na animação baseada em fı́sica é um pro-
blema popular na computação gráfica. O objetivo é encontrar o equilı́brio entre realismo
e eficiência no tempo de simulação. Muitas vezes a precisão da simulação é deixada de
lado para diminuir o tempo de simulação.
O método dos elementos finitos é normalmente utilizado para simular objetos com
poucas deformações (como a formulação linear), sendo necessário realizar ajustes na ge-
ometria para grandes deformações (remeshing) [Parker e O’Brien 2009].
Isto torna as soluções baseadas no método do ponto material perfeitas para simu-
lar objetos ou efeitos que apresentam grande variações de deformação na geometria, tal
como, materiais em mudança de fase [Stomakhin et al. 2014].
A descrição material das partı́culas é flexı́vel e a implementação da Disney para
simulação de neve demonstra como o tradicional modelo hiperelástico neo-Hookeano
pode ser incrementado com novas formulações pra descrever o comportamento de mate-
riais especı́ficos [Stomakhin et al. 2013].
56
5. Atualizar gradiente de deformação das partı́culas: o gradiente de deformação
de cada partı́cula é atualizado. O gradiente de deformação inicial das partı́culas
é a matriz identidade, e indica que não há qualquer variação na forma atual em
relação ao estado original.
6. Transferir grade para partı́culas: as quantidades da grade são interpoladas para
as partı́culas utilizando o mesmo método de transferência da Etapa 1.
7. Atualizar posição das partı́culas: nesta última etapa é realizado a advecção das
partı́culas utilizando os novos vetores de velocidade.
3.1. Discretização
A discretização da geometria define um passo de preprocessamento obrigatório para o
MPM. A implementação utiliza a biblioteca OpenVDB [Museth et al. 2013] para gerar
as partı́culas a partir da amostragem do volume representado pelo objeto geométrico.
A primeira etapa consiste em converter a geometria em representação de volume, uma
grade escalar SDF (do inglês Signed Distance Field). Em seguida, o algoritmo de es-
palhamento de pontos uniformemente denso, permite a amostragem da grade em função
dos parâmetros de tamanho da célula (voxel size), densidade e espalhamento. Devido a
etapa de conversão volumétrica, OpenVDB torna flexı́vel a simulação de um conjunto
de geometria, permitindo objetos compostos com interseção e outras degenerações como
parâmetro de entrada.
E
µ= (1)
2(1 + ν)
Eν
λ= (2)
(1 + ν)(1 − 2ν)
3.3. Simulação
O método do ponto material baseado em otimização utiliza a definição de energia po-
tencial da equação de movimento para integrar o sistema. Integrar as forças da grade é
equivalente a minimizar a função objetivo na Equação (3), onde mi , v i e xi são massa,
velocidade e posição das células na grade, respectivamente [Jiang et al. 2016].
X1
E(v i ) = mi kv i − v ni k2 + Φ(xni − ∆tv i ) (3)
i
2
57
O problema de otimização é resolvido na implementação utilizando uma
solução BFGS (do inglês Broyden–Fletcher–Goldfarb–Shanno) de memória limitada
[Nocedal e Wright 2000]. Este algoritmo requer o cálculo do gradiente de deformação
das partı́culas como dependência da densidade de energia em Φ na Equação (3).
A formulação co-rotacional requer a decomposição do gradiente de deformação
para calcular a tensão. A tensão de Piola-Kirchoff se expressa melhor no espaço material e
requer um gradiente de deformação livre de rotação rı́gida [Jiang et al. 2016]. O método
de decomposição SVD (do inglês Singular Value Decomposition) é bem conhecido na
literatura de simulação para computação gráfica. Este método permite fatorar o gradiente
de deformação F no termo U ΣV T . A transformação de rotação R próxima de F pode
ser reconstruı́da enquanto R = U V T . O algoritmo implementado é baseado no método
QR com deslocamento implı́cito 3 × 3 [Gast et al. 2016].
O método de transferência para grade denominado partı́cula afim em célula ou
APIC (do inglês Affine Particle-In-Cell) preserva o momento angular das partı́culas na
grade e conduz uma simulação mais estável que outros métodos disponı́veis, tal como
FLIP, FLIP 0.99 e PIC. Ele também exibe melhor aspecto visual e resultados impactantes
para artistas [Jiang et al. 2015]. Para o método APIC, a nova posição das partı́culas no
processo de advecção é definido apenas como xn+1
p = xnp + ∆tv n+1
p .
O kernel de interpolação utilizado foi o quadrático na Equação (4). Ele é mais
eficiente para ser calculado, no entanto, é mais sensitivo a erros numéricos do que o
kernel cúbico.
3 2 1
4 − |x|
0 ≤ |x| < 2
N (x) = 12 ( 32 − |x|)2 1
2
≤ |x| < 3
2
(4)
3
0 ≤ |x|
2
58
Figura 1. Resultado da simulação do objeto Bunny em diferentes quadros t
4. Discussão e Resultados
A Figura 1 foi obtida a partir da simulação do objeto Bunny, inicialmente definido por
2174 primitivos triangulares e discretizado por 4370 partı́culas, em um processador In-
tel Core i7-4500U acelerado por uma GPU NVIDIA GeForce GT 740M. A simulação
consiste na colisão do objeto com os limites da grade de resolução 500 × 500 × 500,
com células de tamanho 0.5. As caracterı́sticas do material foram definidas por ρ = 103 ,
E = 105 e ν = 0.25, onde ρ denota a densidade do objeto simulado.
O tempo médio de simulação dos quadros para esta configuração foi 1, 25 minutos,
com o passo de simulação ∆t = 10−3 . Para fluxo de trabalho voltado para simulação
offline, no qual o modelo de implementação foi proposto, o resultado é aceitável.
A colisão entre objetos dinâmicos simulados é resolvida automaticamente pelo
método do ponto material com resultados visuais satisfatórios. No entanto, para integrar
objetos passivos genéricos, tanto estáticos quanto animados, requer uma heurı́stica de
detecção e colisão robusta [Jiang et al. 2016].
5. Considerações Finais
Este artigo apresentou o método do ponto material baseado em otimização implementado
em uma arquitetura paralela utilizando o CUDA.
Embora a implementação tenha dado resultados satisfatórios, alguns pontos pode-
riam ser melhorados em trabalhos futuros. Primeiramente, a detecção de colisão é com-
putada apenas com os limites da grade, podendo, ao invés disto, ser utilizado o método
baseado em SDF [Jiang et al. 2016].
Outra sugestão seria a inclusão da energia potencial da gravidade no integrador
baseado em otimização para evitar a adição da aceleração de forma explı́cita dependente
do passo de tempo.
59
Finalmente, um passo de reconstrução de superfı́cie utilizando OpenVDB ou outro
algoritmo, como cubos marchantes [Lorensen e Cline 1987], poderia ser utilizado para
auxiliar a visualização da simulação.
Referências
Gast, T., Fu, C., Jiang, C., e Teran, J. (2016). Implicit-shifted Symmetric QR Singular
Value Decomposition of 3x3 Matrices. UCLA Mathematics Department Technical
Report (CAM16-19).
Gast, T. F. e Schroeder, C. (2014). Optimization integrator for large time steps. Em SCA
2014 - Proceedings of the ACM SIGGRAPH/Eurographics Symposium on Computer
Animation, páginas 31–40.
Jiang, C., Schroeder, C., Selle, A., Teran, J., e Stomakhin, A. (2015). The affine particle-
in-cell method. ACM Transactions on Graphics.
Jiang, C., Schroeder, C., Teran, J., Stomakhin, A., e Selle, A. (2016). The material point
method for simulating continuum materials. Em ACM SIGGRAPH 2016 Courses,
SIGGRAPH 2016.
Lorensen, W. E. e Cline, H. E. (1987). Marching cubes: A high resolution 3D surface
construction algorithm. Em Proceedings of the 14th Annual Conference on Computer
Graphics and Interactive Techniques, SIGGRAPH 1987, volume 21, páginas 163–169.
ACM.
Museth, K., Lait, J., Johanson, J., Budsberg, J., Henderson, R., Alden, M., Cucka, P.,
Hill, D., e Pearce, A. (2013). OpenVDB: an open-source data structure and toolkit for
high-resolution volumes. Em ACM SIGGRAPH Courses, páginas 19:1—-19:1. ACM.
Nickolls, J., Buck, I., e Garland, M. (2008). Scalable parallel programming. Em 2008
IEEE Hot Chips 20 Symposium (HCS), páginas 40–53, Stanford, CA, USA. IEEE.
Nocedal, J. e Wright, S. J. (2000). Numerical Optimization. Springer-Verlag, New York,
NY, USA.
Parker, E. G. e O’Brien, J. F. (2009). Real-time deformation and fracture in a game
environment. Em Computer Animation, Conference Proceedings, páginas 165–175.
Ram, D., Gast, T., Jiang, C., Schroeder, C., Stomakhin, A., Teran, J., e Kavehpour, P.
(2015). A material point method for viscoelastic fluids, foams and sponges. Em Pro-
ceedings - SCA 2015: 14th ACM SIGGRAPH / Eurographics Symposium on Computer
Animation, páginas 157–163.
Shreiner, D., Sellers, G., Kessenich, J. M., e Licea-Kane, B. (2013). OpenGL Program-
ming Guide: The Official Guide to Learning OpenGL, Version 4.3. Addison-Wesley
Longman Publishing Co., Inc.
Stomakhin, A., Schroeder, C., Chai, L., Teran, J., e Selle, A. (2013). A material point
method for snow simulation. ACM Transactions on Graphics, 32(4).
Stomakhin, A., Schroeder, C., Jiang, C., Chai, L., Teran, J., e Selle, A. (2014). Augmented
MPM for phase-change and varied materials. ACM Transactions on Graphics, 33(4).
60
Open Door uma Proposta de Distribuição Linux (From
Beginners to Pentesters)
Karan Luciano Silva di Pernis1 , Diógenes Antonio Marques José1
1
Universidade do Estado de Mato Grosso - UNEMAT
Faculdade de Ciências Exatas e Tecnológicas - FACET
Coordenação de Ciência da Computação - CCC
Caixa Postal 92 - 78.390-000 - Barra do Bugres - MT - Brasil
{karan.luciano, dioxfile}@unemat.br
1. Introdução
Todo computador necessita de um sistema operacional para funcionar. O sistema opera-
cional é o responsável por utilizar e controlar os recursos fornecidos pela máquina, como
memória, processador e disco. O GNU/Linux é um sistema operacional consolidado no
mundo, a sua flexibilidade, estabilidade e versatilidade o torna ideal para o uso no es-
critório, em escolas, em casa, nas redes de computadores, provedores de Internet, entre
outros [1].
O Linux vem sendo mais utilizado em servidores que o Windows, tornando-se
lı́der incondicional em supercomputação1 . O Android 2 em 2017 se tornou o sistema
1 https://www.top500.org/lists/2019/06/.
2 Sistema operacional baseado em Linux que opera principalmente em celulares.
61
operacional mais utilizado no mundo, também baseado no Linux, ultrapassando - pela
primeira vez na história - a plataforma da Microsoft. E essa vistoria do Android é um
triunfo do Linux [2]. Contudo, nos escritórios e casas, a história é outra. Até mesmo Linus
Torvalds - criador do Linux - vê o desktop como seu fracasso pessoal. Ironicamente a área
em que o Linux não domina é exatamente a qual Torvalds o criou para ser a principal [3].
Portanto, o objetivo deste trabalho é desenvolver uma distribuição Linux que possa ser
simples de usar, leve, eficiente e que, ao mesmo tempo, possa ser usada em computação
pessoal (ex. desktop) e, também, por profissionais de áreas técnicas como segurança.
O restante deste trabalho é organizado como segue: na Seção 2 são apresentados
os Trabalhos Relacionados; a Seção 3 apresenta a Descrição da Proposta; na Seção 4
é apresentada a metodologia; e, finalmente, na Seção 5 são apresentados os Resultados
Esperados.
2. Trabalhos Relacionados
O Kali Linux[4] é um projeto de código aberto que é mantido e financiado pela Offen-
sive Security, uma provedora de serviços de treinamento e teste de penetração de classe
mundial, em segurança da informação. Baseado no Debian, o Kali Linux tem um grande
diferencial, o seu repertório. São mais de 300 ferramentas nativas para executar testes di-
versos, sendo assim, com ele instalado é possı́vel aperfeiçoar os mecanismos de segurança
de TI e testes de invasão.
O BlackArch[5], também, é uma distribuição de teste de penetração baseada no
Arch Linux que fornece uma grande quantidade de ferramentas de segurança cibernética.
É uma distribuição de código aberto criada especialmente para pentesters e pesquisadores
de segurança. O repositório contém mais de 2345 ferramentas que podem ser instaladas
individualmente ou em grupos. Além disso, o BlackArch Linux é compatı́vel com as
instalações existentes do Arch Linux.
Distribuições são, na verdade, uma junção do kernel Linux com um conjunto
de programas, que atendem a um determinado tipo de usuário. Há muitas outras
distribuições, por exemplo: Ubuntu, Arch, Fedora, Debian, Red Hat, Suse, entre ou-
tras. Todavia não é escopo deste trabalho falar de cada uma delas, para maiores detalhes
consulte: https://en.wikipedia.org/wiki/List of Linux distributions.
3. Descrição da Proposta
Este artigo tem como principal objetivo propor o desenvolvimento de uma distribuição
GNU/Linux que possa ser usada tanto por pessoas comuns quanto por pentesters. Seu
nome será OpenDoor Linux3 . Assim, este artigo enfatiza a criação de uma distribuição
acrescentando recursos úteis que possam ser usados com facilidade para tarefas tais como:
navegar na Internet, escrever textos, entre outras. Isto é, ela deve atender tanto usuários
experientes como àqueles que nunca usaram Linux. Por exemplo, para pentesters ela ofe-
recerá aplicações como: Firewall, port scan, NS2, Wireshark, aircrack-ng, entre outras. E
para usuários inexperientes ela terá java pré-configurado, editores de texto, codecs, apli-
cativos de música/vı́deo, jogos, tudo aquilo que um usuário comum espera de um com-
putador. Portanto, será criado um sistema operacional, do zero, baseado em GNU/Linux
com suas próprias peculiaridades, levando seus pacotes e ferramentas já pré instalados
3 Why Skip the Window if the Door is Open?
62
e configurados, facilitando o uso para iniciantes e agilizando tarefas para experts. Um
protótipo já foi criado e está em fases de teste, conforme Figura 1(a).
4. Metodologia
A métodologia de desenvolvimento do OpenDoor Linux será baseada no livro Linux From
Scratch (LFS) [6], nele é explicado como montar um sistema Linux, instalando pacotes
um a um. O objetivo do LFS, conforme Figura 2(a), é construir um sistema em nı́vel
63
de base completo e funcional. Isso inclui todos os pacotes necessários para replicá-lo ao
mesmo tempo que disponibiliza uma base relativamente pequena sobre a qual o usuário
pode customizar um sistema mais completo baseado em suas próprias escolhas.
5. Resultados Esperados
Os resultados esperados consistem na criação/manutenção de uma nova distribuição Linux
denominada OpenDoor Linux. Ela atenderá usuários de computação pessoal (ex. desktop)
e, também, especialistas em segurança, Pentesters. Assim, espera-se que a mesma seja
capaz de fornecer funcionalidades básicas e adaptáveis aos seus futuros usuários.
Nesse contexto, uma vantagem de uma distribuição com essas caracterı́sticas
é proporcionar um Linux amigável, com funcionalidades comuns que são usadas por
usuários convencionais e, ao mesmo tempo, permitir que usuários especialistas pos-
sam usufruir de boas ferramentas de auditoria em redes. Além disso, de forma ousada,
pretende-se preencher a lacuna deixada pela distribuição Kurumin Linux, que foi desen-
volvida pelo Carlos E. Morimoto4 .
Referências
[1] J. E. Mota, “Descobrindo o linux-3ª edição: Entenda o sistema operacional gnu/linux.”
Disponı́vel em: http://www.encurtador.com.br/zFL69, 2012. Acessado
em Setembro de 2019.
[2] R. R. Da Silva, “Android supera windows como sistema operacional mais usado do
mundo.” Disponı́vel em: https://encurtador.com.br/pKN39, 2017. Aces-
sado em Setembro de 2019.
[3] R. O. Digital, “Por que o linux nunca se popularizou nos pcs de casa? seu criador res-
ponde.” Disponı́vel em: https://encurtador.com.br/PQSU1, 2019. Aces-
sado em Setembro de 2019.
[4] J. Broad and A. Bindner, “Hacking com kali linux: Técnicas práticas para testes de in-
vasão.” Disponı́vel em: https://www.encurtador.com.br/rwV36, 2014.
Acessado em Setembro de 2019.
[5] L. Kayan, “Blackarch linux.” Disponı́vel em: https://blackarch.org/index.
html, 2019. Acessado em Setembro de 2019.
[6] G. Beekmans et al., “Linux from scratch.” Disponı́vel em: http://www.fr.
linuxfromscratch.org/archives/LFS-6.5/LFS-6.5-fr.pdf,
2000. Acessado em Setembro de 2019.
4 https://pt.wikipedia.org/wiki/Kurumin
64
Teste de intrusão: Um estudo de Caso aplicado ao PFSense
Leonardo de Santana Nascimento1 e Diógenes Antônio Marques José1
1
Faculdade de Ciências Exatas e Tecnológicas-FACET
Universidade do Estado de Mato Grosso-UNEMAT
Caixa Postal 92 - CEP - 78390-000 - Barra do Bugres, MT - Brasil
{leonardo.nascimento,dioxfile}@unemat.br
Abstract. A firewall is a defense mechanism used by many companies to protect their assets.
However, checking that all rules and services are working properly is hard work. Therefore, the
paper aims to apply a Pentest, penetration testing, to the rules/services implemented in Firewall
PFSense at the MicroHard company. For this task, the Pentest White-Box method with the Open
Source Security Testing Methodology Manual (OSSTMM) will be used. As a result, it is expected
to discover vulnerabilities/Security fails that could be exploited by a cracker and consequently
mitigate them.
Resumo. O Firewall é um mecanismo de defesa utilizado por várias empresas com o intuito
de proteger os seus ativos. Todavia, verificar se todas as regras e serviços estão funcionando
como deveriam é uma tarefa difı́cil. Portanto, diante do exposto, o objetivo deste trabalho con-
siste em aplicar um Pentest, teste de penetração, nas regras/serviços implementados no Firewall
PFSense na empresa MicroHard. Para tal tarefa será utilizado o método de Pentest White-Box
com a metodologia Open Source Security Testing Methodology Manual (OSSTMM). Como re-
sultado espera-se descobrir vulnerabilidades/falhas que possam ser exploradas por um cracker
e consequentemente mitigá-las.
1. Introdução
A palavra Pentest é uma junção das palavras Penetration Testing (ex., Teste de
Penetração), seu significado consiste em um conjunto de testes metodológicos normal-
mente aplicados em redes de computadores cabeadas e em sistemas operacionais mas,
podem ser direcionados também à web-sites, redes sem fio, banco de dados, aplicativos
e programas, tendo como objetivo descobrir, mapear e expor todas as vulnerabilidades
de segurança do sistema tecnológico. No contexto de Cyber Security o Pentest faz-se
necessário em todos os serviços de redes, especialmente na implementação de regras de
Firewalls. Isso é imperativo para que todas as falhas existentes no serviço implementado
sejam descobertas e, assim, anular qualquer ameaça indesejada [1]. Dentre os métodos
utilizados na aplicação do Pentest para descobrir a(s) falha(s) ou vulnerabilidade(s) de um
sistema de informação destacam-se:
• Black Box: na técnica Black-Box ou (caixa preta), o auditor procurará alguma
falha na infraestrutura de rede sem ter conhecimento prévio do funcionamento da
mesma, por exemplo, quais são as máquinas, os sistemas operacionais, o mapea-
mento da infraestrutura, servidores, processos rodando, entre outros;
• White-Box: o cenário White-Box, (teste da caixa branca), o auditor de segurança,
diferentemente da metodologia anterior, tem total conhecimento da infraestrutura
de rede a ser testada, por exemplo, diagrama de rede, endereços usados, Firewalls,
código-fonte das aplicações, entre outras. Esse teste é ideal para relatar a(s) vul-
nerabilidade(s) existente(s) internamente em um ambiente empresarial, institucio-
nal, governamental, entre outras, que pode(m) ser explorada(s) por alguma pessoa
maliciosa;
65
• Gray-Box: ou teste da caixa cinza, o auditor terá conhecimento parcial da rede
testada. Nesse método acontece uma junção entre o Black-Box e White-Box.
Há diversas metodologias que podem ser aplicadas na realização de um Pentest
entretanto, neste trabalho são abordadas duas metodologias por serem as mais usualmente
utilizadas, por exemplo:
1. Open Source Security Testing Methodology Manual (OSSTMM): é um projeto
de segurança mantido pelo Institute for Security and Open Methodologies (ISE-
COM), a mesma foi desenvolvida em uma comunidade aberta, sendo uma meto-
dologia aberta e livre de influência polı́tica e comercial. Portanto, a mesma per-
mite que qualquer indivı́duo contribua para o aperfeiçoamento desse projeto. Essa
metodologia é utilizada para testar a segurança de locações fı́sicas, interações hu-
manas e todas as formas de comunicações como redes wireless/cabeada, analógica
e digital [2];
2. Web Application Security Project (OWASP): é uma comunidade aberta, dedi-
cada à capacitar as organizações para desenvolver, adquirir e manter aplicações
confiáveis, essa metodologia possui um conjunto de testes direcionados para ser-
vidores e aplicações. O intuito da OWASP top ten é alertar sobre as vulnerabilida-
des existentes que podem comprometer o desempenho de um sistema e, com isso,
a mesma fornece métodos básicos para combater estes problemas cibernéticos [3].
Diante do exposto, o presente trabalho tem por objetivo testar a eficiência das
configurações do Firewall PFSense, em um ambiente de produção real, por meio de um
Pentest. Para a realização dos testes será utilizado um ambiente real com 16 computadores
configurados com sistema Linux, um servidor Linux com máquina virtual VirtualBox 6.0
rodando PFSense, neste contexto, será aplicado o teste White-Box com a metodologia
OSSTMM.
O restante deste trabalho foi organizado da seguinte forma: a Seção 2 apresenta
os trabalhos relacionados. Na Seção 3 são apresentados a descrição da proposta e a me-
todologia. E, finalmente, na Seção 4 são apresentados os resultados esperados, pois este
trabalho consiste em uma proposta de pesquisa.
2. Trabalhos Relacionados
A segurança digital, é uma questão que sempre causa preocupação, por esse motivo, várias
pesquisas são feitas com a finalidade de abordar possı́veis vulnerabilidades/falhas em sis-
temas. Portanto, nesta seção são apresentados alguns trabalhos relacionados à segurança
cibernética.
Em [4] é apresentado um Sistema de Detecção de Intrusão (IDS) que além de
detectar anomalias com base no IP de origem, também utiliza o endereço Media Access
Control (MAC) como forma de barrar o tráfego malicioso e, em função disso, a proposta
melhora a acurácia do IDS.
O trabalho descrito em [5], relata um Pentest realizado em uma rede wireless com
segurança WEP, WPA e WPA2. Esta proposta tem como objetivo quebrar a criptografia
existente na rede. Assim, com os testes realizados foi possı́vel notar que a WEP é uma
técnica obsoleta e que a mesma pode ser quebrada com facilidade, todavia, o WPA e
WPA2 mostraram-se técnicas de segurança mais sofisticadas, mas não sendo impossı́vel
de serem quebradas.
66
A pesquisa feita em [6], apresenta uma arquitetura de teste de penetração utili-
zando um Raspberry Pi para encontrar vulnerabilidades existentes em serviços de redes.
O Raspberry Pi é conectado à rede, em que será efetuado o Pentest. A rede em questão
é protegida por um Firewall. Assim, por meio de softwares instalados no dispositivo tes-
tador é realizado um scan da rede que objetiva verificar quais serviços estão disponı́veis.
Após isso, o auditor acessa o Raspberry Pi de fora da rede auditada, por meio de uma
técnica de acesso SSH callback e, então, analisa os resultados obtidos do scanner. Dessa
forma, é possı́vel avaliar quais serviços estão disponı́veis e suas vulnerabilidades.
Em [7] é proposta uma ferramenta chamada Penetration Testing Tool for Internet
of Thing Devices (PENTOS), para realizar testes de penetração em dispositivos IoT. Esta
ferramenta fornece instruções detalhadas, com base na metodologia OWASP top 10 Inter-
net of Things, de como fazer um Pentest. Essas instruções auxiliam o auditor durante a
execução do Pentest e, portanto, há uma melhora significativa do Pentest, consequente-
mente são obtidos resultados mais precisos.
3. Descrição da Proposta
A presente seção tem por objetivo descrever o teste de segurança que será realizado no
Firewall PFSense. A empresa onde o Pentest será realizado é a “MicroHard”1 , que está
preocupada com a segurança tecnológica do seu ambiente de trabalho. A empresa contrata
para realizar o Pentest é a “Mitnick’S”. Ambas as partes assinam um contrato, em que
a contratante permite à contratada realizar os testes de segurança/intrusão necessários. A
infraestrutura da rede em que o Pentest será realizado é como mostra a Figura 1.
67
4. Verificar o controle de acesso à rede (LAN/WAN);
5. Realizar teste de segurança na rede wireless (ex., testar a senha WPA/WPA2);
6. Ferramentas para Pentest serão as mais usadas pela comunidade, por exemplo,
Kali Linux −→ (Nmap), Social Engineering Toolkit, DNSenum, Nessus, Wi-
reshark, THC Hydra, Radare2, Aircrack-ng, Metasploit, Dradis, DumpZilla, etc.
Além disso, podem ser desenvolvidas ferramentas especı́ficas para o Pentest, pois
segundo TJ O’ Connor [8], o que difere um Script kiddie de um Hacker é a capacidade
que o Hacker tem de criar suas próprias ferramentas.
4. Resultados Esperados
Os resultados esperados com este trabalho consistem em avaliar as regras de Firewall,
descobrir possı́veis falhas de configuração no servidor e nos sistemas utilizados pelos
usuários da empresa e, consequentemente, mitigar as mesmas. Além disso, pretende-se
relatar os processos necessários para a realização de um Pentest e ressaltar a importância
da segurança da informação no mundo atual.
Referências
[1] D. Moreno, Introdução ao Pentest. No. 15 in Série do livro, São Paulo, Brasil: Novatec
Editora Ltda, 2015. Bibliografia: p. 131–132.
[2] ISECOM, “Osstmm 3 the open source security testing methodology manual: Contempo-
rary security testing and analysis..” Disponı́vel em: http://www.isecom.org/
research/, August 2019. Acessado em Setembro de 2019.
[3] OWASP, “Open web application security project (owasp): Top ten.” Dis-
ponı́vel em: https://www.owasp.org/index.php/Category:
OWASP_Top_Ten_Project, June 2019. Acessado em Setembro de 2019.
[4] C. A. M. da Silva, J. A. Goncalves, V. da Silva Faria, G. de Britto Vieira, and
D. M. Mascarenhas, “Iremac: Um ips para ataques internos,” XXXIV SIMPOSIO
BRASILEIRO DE TELECOMUNICACOES (SBrT2016), pp. 954–958, August 2016.
https://biblioteca.sbrt.org.br/articles/1177.
[5] A. T. Q. Rocha, B. N. L. Costa, K. V. L. Giuzeppe, and H. P. Mar-
tins, “Pentest para quebra de criptografia wireless,” vol. 6, no. 1, 2019.
http://www.fatecbauru.edu.br/ojs/index.php/CET/article/view/203.
[6] L. Epling, B. Hinkel, and Y. Hu, “Penetration testing in box,” In-
formation Security Curriculum Development Conference, October.
https://dl.acm.org/citation.cfm?doid=2885990.2885996.
[7] V. Visoottiviseth, P. Akarasiriwong, S. Chaiyasart, and S. Chotivatunyu, “Pen-
tos: Penetration testing tool for internet of thing devices,” in TENCON
2017 - 2017 IEEE Region 10 Conference, pp. 2279–2284, Nov 2017.
https://ieeexplore.ieee.org/abstract/document/8228241.
[8] T. O’Connor, Violent Python: A Cookbook for Hackers, Forensic Analysts, Penetration
Testers and Security Engineers. Syngress, November 2012.
68
A influência dos jogos digitais no tratamento e na melhoria
da qualidade de vida de pacientes diagnosticados com TDAH
Roniere S. Carvalho¹, Potira M. Morais¹, Rebeca C. Moreira², Lívia C. S. S. Carvalho³
1
Acadêmicos de Bacharelado em Ciência da Computação – Universidade do Estado de
Mato Grosso (UNEMAT).Cáceres-MT-Brasil.
2
Docente do Curso de Bacharelado em Ciência da Computação – Universidade do Estado
de Mato Grosso (UNEMAT).Cáceres-MT-Brasil.
3
Departamento de Acadêmica de Bacharelado em Medicina – Universidade do Estado de
Mato Grosso (UNEMAT).Cáceres-MT-Brasil
{roniere.carvalho,potira.manoela}@unemat.br,
{rebecamoreiras,liviacsscarvalho}@gmail.com
Abstract. Digital games are often indicated as generating undesirable behavior in
their users, however there is research that has demonstrated the benefits of digital
games.The present work chose to address positive aspects of games related to a
specific group, ADHD (Attention Deficit Hyperactivity Disorder) patients.A
review of the scientific literature was conducted at Google Scholar and Bireme
with the descriptors “digital games” and “ADHD”, selecting articles published
between 2011-2019.From the results obtained in the research, it can be concluded
that educational games created for specific purposes can contribute significantly
in improving the quality of life of people with ADHD.
Resumo. Os jogos digitais são frequentemente indicados como geradores de
comportamentos indesejáveis em seus usuários, no entanto existem pesquisas que
demonstraram os benefícios dos mesmos. O presente trabalho optou por abordar
aspectos positivos dos jogos relacionados a um grupo específico, os portadores
de TDAH (Transtorno de Déficit de Atenção e Hiperatividade). Realizou-se uma
revisão na literatura científica no Google Acadêmico e na Bireme com os
descritores “jogos digitais”e“TDAH”, selecionando artigos publicados entre os
anos de 2011 a 2019. A partir dos resultados obtidos nas pesquisas, conclui-se,
que os jogos educativos criados com propósitos específicos podem contribuir
significativamente na melhoria da qualidade de vida dos portadores de TDAH.
1. Introdução
Os jogos digitais têm exercido grande influência no cotidiano principalmente de jovens e
crianças. Um estudo realizado por Freire et al. (2018) mostra que esse grupo aproveita
grande parcela de seu tempo livre se dedicando a jogos em seus computadores e
smartphone.
Tem-se atribuído a esses jogos uma má reputação como causadores de
comportamentos anti sociais, agressivos e de vícios. Mas, também existem pesquisas que
apontam para aspectos positivos deles sobre o cérebro e o comportamento. Existem tipos
diferentes de jogos e faz-se necessário mais estudos para destacar aspectos positivos e
negativos das diferentes tendências (ALVES e CARVALHO, 2011).
69
Segundo Bavelier e Davidson (2013), há evidências crescentes de que jogar pode
tem efeitos benéficos no cérebro. [...] como por exemplo, ao procurar um objeto específico
em um mar de formas, as pessoas que jogaram nos videogames mostraram regularmente
menos ativação das regiões do cérebro ligadas à atenção, um sinal de que seus cérebros
estavam realizando a tarefa com mais eficiência.
2. Justificativa
O presente trabalho objetivou abordar os aspectos positivos dos jogos relacionados a um
grupo específico, os portadores de TDAH (Transtorno de Déficit de Atenção e
Hiperatividade), que apresentam transtorno neurológico, com forte influência genética, que
se inicia na infância e pode persistir até a vida adulta. É caracterizado por graus variáveis
de desatenção, hiperatividade e impulsividade.
3. Metodologia
Realizou-se uma revisão na literatura científica no Google Acadêmico e na Bireme com os
descritores “jogos digitais”e“TDAH”, selecionando artigos publicados entre os anos de
2011 a 2019. Foram selecionados 9 artigos por melhor corresponderem aos objetivos da
pesquisa.
4. Referencial Teórico
4.1. TDAH
O TDAH é um transtorno relativamente comum – a Associação Brasileira do Déficit de
Atenção afirma que ele atinge entre 3% e 5% das crianças do mundo. Seus sintomas são
desatenção, hiperatividade e impulsividade, principalmente. Ele prejudica o desempenho de
crianças em idade escolar e, se não for devidamente tratada, pode permanecer na vida
adulta, atrapalhando até mesmo o desempenho profissional (JUNQUEIRA, 2016).
As pessoas que sofrem de TDAH não conseguem filtrar os acontecimentos ao redor.
Um barulho longe, algo caindo, pode tirar o foco facilmente, todas as informações que
acontecem ao redor dessa pessoa estão trabalhando ao mesmo tempo em seu cérebro, assim
não conseguindo se concentrar na sua principal tarefa, por exemplo, nos estudos. Qualquer
coisa pode o distrair, dificuldade em gerenciar o tempo (JUNQUEIRA, 2016).
70
Assim, como destaca Pereira (2019), amplia-se a dificuldade com alunos especiais e
tem-se dificuldade de lidar com alunos que apresentam síndrome de TDAH. Desse modo, é
preciso buscar outras alternativas para auxiliar o professor.
A Akili Interactive*, acredita que um remédio eficaz para doenças graves também
pode ser divertido e envolvente. Nesse contexto ela está criando uma nova classe de
medicamentos digitais para pessoas que sofrem de comprometimento cognitivo, entregues
por meio de experiências cativantes de videogame.
A empresa já investiu em várias pesquisas para ajudar pessoas com TDAH, como
“Treinamento em videogame melhora o controle cognitivo em idosos”, foi explorado se os
adultos mais velhos treinados ao jogar o NeuroRacer no modo multitarefa teriam melhorias
em seu desempenho multitarefa no jogo, e também como esse treinamento foi transferido
para aprimoramentos em suas habilidades de controle cognitivo, além daqueles alcançados
pelos participantes que treinaram nas tarefas componentes isoladamente, o resultado foi que
a capacidade de multitarefa foi aprimorada, mas uma função do aprendizado da resolução
de interferências geradas pelas tarefas quando executadas simultaneamente(ANGUERA et
al., 2013).
Outra pesquisa feita por Davis (2018) sobre um Estudo de prova de conceito de uma
intervenção digital caseira e envolvente para o TDAH pediátrico, revelou melhorias
significativas em uma tarefa de atenção computadorizada para um grupo com TDAH e um
subgrupo de alta severidade e com alta gravidade de TDAH.
O jogos “As Aventuras de Ifinho” foi desenvolvido para pessoas com TDAH, ele
traz uma série de 4 jogos para realizar a alfabetização e para fazer com que elas possam
direcionar a atenção. Segundo Freire et al. (2018), esses jogos foram baseados em Digital
Game Based Learning como apoio a tratamentos e ferramenta de ensino. Além disso, é
importante observar que a maioria dos jogadores preferem os dispositivos móveis, como
mostrar numa pesquisa realizada pelo sítio eletrônico.
________________
*
Akili Interactive é uma empresa de tecnologia voltada para criação de soluções “medicamentos digitais”
para pessoas que têm problemas cognitivos.
71
5. Conclusão
A partir dos resultados obtidos nas pesquisas, conclui-se , que os jogos digitais educativos,
criados com propósitos específicos podem contribuir significamente na melhoria da
qualidade de vida de paciente tanto crianças quanto adolescente, pois eles são mais
propícios às novas tecnologias e também podem auxiliar os profissionais no tratamento do
TDAH.
6. Referências
ALVES, L.; CARVALHO, A. Videogame: é do bem ou do mal? Como orientar pais.Psicol.
estud., Maringá , v. 16,n. 2,p. 251-258, June 2011 .
ANGUERA , J. et al "O treinamento em videogame melhora o controle cognitivo em
idosos" . Nature Publishing Group. Nature v. 501, p. 97–101. 2013.
BAVELIER, D. ; DAVIDSON, R. J. Brain training: Games to do you good. Nature. Fev.
2013.Vol.494. Disponivel
em<http://www.investigatinghealthyminds.org/ScientificPublications/2013/BavelierGa
mesNature.pdf> .Acesso 31/05/2014.
CAVALCANTI, M.; CHAMPANGNATTE, D. Cibercultura– perspectivas conceituais,
abordagens alternativas de comunicação e movimentos sociais. Curitiba.Rev. Estud.
Comun, v. 16, n. 41, p. 312-326, set. /dez. 2015.
DAVIS, N. O. Estudo de prova de conceito de uma intervenção digital caseira e envolvente
para o TDAH pediátrico. 2018. Disponível em <https://www.ncbi.nlm.nih.gov/pmc/
articles/PMC5764249/> acesso em 30/09/2019.
FREIRE, J. V. S.; et al. Digital Game Based Learning e transtornos que afetam o
aprendizado. XVII SBGames. Foz do Iguaçu - PR, 2018.
GUIMARÃES, M. Avaliação do potencial de utilização de um Ambiente Virtual 3D para a
prática de exercícios de matemática por crianças com transtorno de déficit de atenção
e/ou hiperatividade, Tese D.Sc., Coppe Sistemas de Computação – UFRJ, Rio de
Janeiro. 2006
JUNQUEIRA, D. Um jogo para smartphones e tablets promete ajudar no tratamento do
déficit de atenção. Publicado em 22 de janeiro de 2016. Disponível em
<https://gizmodo.uol.com.br/um-jogo-para-smartphones-e-tablets-promete-ajudar-no-
tratamento-do-deficit-de-atencao/>. Acessado em 30/09/2019.
PEREIRA, R. A criança com TDAH e a escola. Publicado pela Associação Brasileira do
Déficit de atenção. Disponível em <https://tdah.org.br/a-crianca-
chttps://gizmodo.uol.com.br/um-jogo-para-smartphones-e-tablets-promete-ajudar-no-
tratamento-do-deficit-de-atencao/> acesso em 06/10/2019.
72
Website e vlogs matemáticos: uma proposta de pesquisa
Isabela Silveira Rocha1, Daise Lago Pereira Souto2
1
Bacharelanda em ciência da computação – Universidade do Estado de Mato Grosso
(UNEMAT) – Barra do Bugres – MT – Brasil
2
Doutora em Educação Matemática – Universidade do Estado de Mato Grosso
(UNEMAT) – Barra do Bugres – MT - Brasil
isabelarochas00@gmail.com, daise@unemat.br
1. Introdução
A proposta de pesquisa apresentada neste artigo é dar sequência ao subprojeto
“Webm@ttoon” que antes era coordenado por Bini (2017) e têm como objetivo
alimentar o website1 com cartoons, notícias, tutorias, outros materiais multimodais.
Nesse contexto, inclui-se este subprojeto intitulado: Webm@ttoon II: incluindo vlogs. A
ideia é expandir o acesso com o desenvolvimento e publicação de vlogs discutindo
elementos do ensino e da aprendizagem da matemática com tecnologias digitais que
aproximem professores e alunos, e é desejável que os conteúdos desses vlogs tenham
coerência com as ideias debatidas no projeto M@ttoon. O projeto faz parte do projeto
M@ttoon: Matemática e Cartoons na Educação Básica e Superior de Mato Grosso que
propõe compreender a forma como os cartoons matemáticos digitais (animações de
desenhos, colagens ou modelagens) estão sendo produzidos e utilizados [Souto, 2016].
De acordo com Valênia e Amorim (2018) o vlog é uma junção de vídeo e blog,
na qual os criadores, vloggers ou vlogueiros, publicam vídeos em sites, blogs, ou em
plataformas como YouTube e o IGTV do Instagram. Segundo Valênia e Amorim
(Ibidem) nos vlogs há uma influência de multissemioses em que vloggers, além de
utilizar a linguagem oral, utilizam outros recursos em seus vídeos, sendo eles sonoros,
imagens, gráficos, etc.
As tecnologias atualmente fazem parte do cotidiano das pessoas, seja no
contexto social como escolar. De acordo com Bini, Krapon e Souto (2018), “algumas
1
www.webmttoon.com.br
73
escolas e professores começam a experimentar alternativas convenientes com o mundo
em que vivemos hoje, que é um mundo de imagens, sons e palavras, ou seja, um mundo
multimodal”.
Segundo Cunha (2018), a multimodalidade pode contribuir com a aprendizagem
dos discentes de forma contemplar os mais distintos estilos de aprendizagem, sendo
eles, às preferências e tendências da atualidade de cada indivíduo. Conforme
argumentado por Cunha (Ibidem), os alunos exercitam a multimodalidade ao fazer uso
de tecnologias, por intermédio da exploração de objetos virtuais de aprendizagem,
applets, Perfomance Matemáticas Digitais (PMD), vídeos disponíveis no Youtube,
pesquisas no Google, entre outros.
Dessa forma com a inclusão de vlogs no website espera-se tornar o ambiente
menos informal, em uma linguagem que aproxime professores e alunos, além de
contribuir com o ensino de matemática por meio de cartoons e outros materiais
multimodais.
2. Procedimentos metodológicos
A abordagem metodológica desta pesquisa é amparada nas ideias da pesquisa qualitativa
[Lincoln; Guba, 1985; Araújo; Borba, 2012], pois pretende-se disponibilizar
informações pela World Wide Web, popularmente conhecida como WWW.
O desenvolvimento desta pesquisa acontecerá em duas etapas que ocorrerão
simultaneamente: a primeira diz respeito à manutenção do website em que serão
adotadas as normas de conduta da Health on the Net Foundation (2002) que refere-se a
autoria, confidencialidade, complementaridade, atribuição, justificativas, transparências
na propriedade, transparência do patrimônio e honestidade de publicidade e da política
editorial.
Nessa fase, que ocorrerá durante todo o período de desenvolvimento desta
pesquisa, será necessário selecionar cartoons e outros materiais multimodais produzidos
por alunos e professores para publicação no site e propor aos pesquisadores do Projeto
M@ttoon a colaboração para análise do conteúdo dos cartoons (erros conceituais,
direitos autorais, e outros elementos que serão definidos). Ademais, haverá a cada
quinze dias postagem no site de notícias atualizadas sobre Educação Matemática;
Tecnologias Digitais; cartoons; vídeos, entre outras.
A segunda fase, se refere à construção dos vlogs. Nela, serão adotados os
procedimentos propostos por Vidmonsters (2019) e Youtubecreators (2019) que
sugerem os seguintes passos: planeje o conteúdo; crie um cronograma de gravações;
valorize a qualidade em detrimento à quantidade; estude sobre o assunto que irá abordar
para evitar erros conceituais; contemple sugestões indicadas pelos usuários e outros
parceiros; use humor para comunicar suas ideias.
Nessa fase, será necessário estreitar o canal de comunicação com os usuários para
receber seus feedbacks com sugestões de temáticas a serem abordadas nos vlogs. Antes
dos vlogs serem publicados deverão ser apresentados a um grupo de pesquisadores peer
review, isto é, revisão por pares, para análise, sugestões e contribuições tendo-se em
mente que o website com os vlogs deve-se constituir um local agradável de discussão,
74
reflexão, críticas e sugestões a questões relativas ao ensino e à aprendizagem na
matemática com tecnologias digitais.
3. Resultados esperados
Esta pesquisa iniciou-se dia 01 de outubro de 2019, então esperamos com o avanço
desta pesquisa, que as informações contidas no site www.webmttoon.com.br contribua
para os processos de ensino e aprendizagem com tecnologias digitais, ao divulgar e
desenvolver atividades como a produção de cartoons e vlogs.
Souto (2014) alerta que há uma grande discordância entre a maneira que os
alunos desejam aprender e a forma como as escolas persistem em educar. Portanto,
queremos estreitar os laços entre professores e alunos, assim contribuindo com o ensino
de matemática por meio de tecnologias digitais.
4. Considerações
Por fim, é importante ressaltar que o foco dessa pesquisa está em contribuir com o
ensino de matemática utilizando tecnologias digitais por meio de um website nomeado
Webm@ttoon.
Destaca-se que a pesquisa tem sintonia com a 5a competência geral da proposta
BNCC (2017, 2018); com as metas 15 e 16 do Plano Nacional de Educação [Brasil
2014]; e com a meta 5 do Plano Estadual da Educação [Mato Grosso 2014] e essas
metas estão em consonância com os objetivos para ciências e tecnologias sociais no
documento do MCTIC – Estratégia Nacional de Tecnologia e Inovação 2016 – 2022.
Referências
ARAÚJO, J. L.; BORBA, M.C. (2012). Construindo pesquisas coletivamente em
Educação Matemática. In: BORBA, M.C; ARAÚJO, J.L. (Org.). Pesquisa
qualitativa em educação matemática. Belo Horizonte, autêntica.
BINI, I. C; KAPRON, G. R; SOUTO, D. L. P. (2018) Educação matemática e
multimodalidade: uma proposta de pesquisa. Anais do 10° Congresso
Acadêmico de Tecnologia e Informática (CATI 2018). Universidade do Estado
de Mato Grosso – UNEMAT. Barra do Bugres – MT.
BINI, M. C. C. (2017). Webm@ttoon: limites e possibilidades de um repositório on-line
de Cartoons para o ensino de Matemática. Relatório final. Barra do Bugres:
Sigfapemat.
BRASIL. Base Nacional Comum Curricular: Educação Infantil e Ensino Fundamental.
(2017). Brasília: MEC/Secretaria de Educação Básica.
BRASIL. Base Nacional Comum Curricular: Ensino Médio. (2018) Brasília:
MEC/Secretaria de Educação Básica.
BRASIL. Estratégia Nacional de Ciência, Tecnologia e Inovação. (2016). Ministério da
Ciência, Tecnologia, Inovações e Comunicações – MCTIC. Brasília, DF.
BRASIL. Plano Nacional de Educação – PNE. (2014) Ministério da
Educação/Secretaria de Articulação com os Sistemas de Ensino –MEC/SASE.
Brasília, DF.
75
CUNHA, J. F. T. (2018). Blended learning e multimodalidade a formação continuada de
professores para o ensino de matemática. (Dissertação de mestrado).
Universidade do Estado de Mato Grosso – UNEMAT. Programa de Pós-
Graduação Stricto Sensu em Ensino de Ciências e Matemática – PPGECM.
Barra do Bugres – MT.
HEALTH on the Net Foundation. (2002). Código de conduta (HON) para Websites.
Disponível em: <http://www.hon.ch/HONcode/portuguese>. Acesso em: 18 de
set. de 2019.
LINCOLN, Y; GUBA, E. (1985) Naturalistic Inquiry. Londres: Sage Publications.
Lisboa - Portugal, Edições 70.
MATO GROSSO. Plano Estadual de Educação. (2014) Secretaria de Educação do
Estado de Mato Grosso. Cuiabá, MT.
SOUTO, D. L. P. (2016). Projeto M@ttoon. Manuscrito. Universidade do Estado de
Mato Grosso – UNEMAT. Barra do Bugres: Sigfapemat.
SOUTO, D. L. P. (2014). Transformações expansivas na Produção Matemática. On-line.
São Paulo: Cultura acadêmica.
VALÊNIA, A.; AMORIM, Y. P. (2018). Interação e participação significativa:
características e estruturação do gênero vlog. Miguilim - Revista Eletrônica do
Netlli.
VIDMONSTERS. Você sabe o que é vlog? Conheça esse formato de vídeo aprenda a
fazer sucesso. Disponível em: <https://vidmonsters.com/blog/vlog>. Acesso em:
18 de set. de 2019.
YOUTUBECREATORS. Aprenda formas de dominar o ofício de fazer vlogs.
Disponível em:
<http://creatoracademy.youtube.com/page/lesson/vlogging/hl=pt-br>. Acesso
em: 18 de set. de 2019.
76
Automatização da solução do jogo ‘Resta Um’ com uso de
Braço Robótico controlado por Arduino
Diego P. de Amorim, André F. Pereira, Wesley B. Thereza, Dárley D. de Almeida
2. Desenvolvimento
Com o grande crescimento das indústrias e a demanda por seus produtos que antes eram
feitos em processos manuais e repetitivos, hoje temos a automação industrial que implica
77
na criação de máquinas, esteiras e várias formas de automatizar esses processos
repetitivos, sejam eles minimalistas ou de grande porte, abrangendo de algum modo todo
o mercado. Afim de experiênciar academicamente um processo de automação, pretende-
se realizar a automatização de uma solução do jogo ‘Resta Um’ com uso de um braço
robótico controlado por arduíno através de algoritmo desenvolvido.
O ‘Resta Um’ é um jogo de tabuleiro conhecido no mundo todo, onde peças,
geralmente pinos, feijões, bolas de gude ou outros elementos são utilizados para marcar
posições ocupadas no tabuleiro que pode possuir diversos formatos, sendo os mais
populares a cruz, a pirâmide e o quadrado. O desafio é deixar apenas uma peça sobre o
tabuleiro, seguindo as regras do jogo que consistem em realizar apenas movimentos
verticais e horizontais, saltando uma peça sobre a outra se a posição seguinte estiver vazia,
retirando a que foi saltada, movimento análogo ao jogo de damas, e essas operações são
realizadas até que reste apenas uma peça no tabuleiro ou o jogador fique sem movimentos
permitidos. Apesar de bastante simples, é um exercício cognitivo bastante interessante
pois para uma mesma configuração de início de jogo, inúmeras são as soluções possíveis,
Superinteressante(2019).
O Arduino, por sua vez, foi criado em 2005 como resultado da busca pela
elaboração de um dispositivo que fosse ao mesmo tempo barato, funcional e fácil de
programar, sendo dessa forma acessível a estudantes e projetistas amadores, para além
disso, foi adotado o conceito de hardware livre, o que significa que qualquer um pode
montar, modificar, melhorar e personalizar o Arduino, partindo do mesmo hardware
básico e assim foi desenvolvida uma placa composta por microcontrolador Atmel,
circuitos de entrada/saída, que pode ser facilmente conectada à um computador e
programada via IDE, utilizando uma linguagem baseada em C/C++ (Thomsen, 2014). Em
termos práticos, um Arduino é um pequeno computador em um chip, pois o mesmo conta
com processador, memória e portas de entrada e saída. Pode ser programado para
processar entradas e saídas entre o dispositivo e os componentes externos conectados a
ele. O Arduino é o que chamamos de plataforma de computação física ou embarcada, ou
seja, um sistema que pode interagir com seu ambiente por meio de hardware e software
(Fonseca, 2010). O Arduino tem sido utilizado no desenvolvimento de objetos ou
ambientes interativos, e também no controle de sistemas automatizados de iluminação,
refrigeração, controle de níveis de reservatórios entre outros, sendo considerado de ampla
aplicabilidade graças a variedade de dispositivos que podem ser controlados por tal
dispositivo (McRoberts, 2011).
O Arduino UNO é a versão mais utilizada da plataforma Arduino, conta com uma
placa baseada no microcontrolador ATMEGA 328, que possui 14 pinos de entrada/saída
digital (dos quais 6 podem ser usados como saídas PWM), 6 entradas analógicas, um
cristal oscilador (clock) de 16 MHz. Internamente, ele possui um oscilador de 32 kHz que
pode ser usado, por exemplo, em situações de baixo consumo, possui uma conexão USB,
a qual é utilizada como porta serial, ou também pode ser utilizada para alimentar o circuito
eletrônico, que pode ser feita por USB ou por fonte externa, preferencialmente entre 7 e
12 V contínua (Stevan, 2015). Para o desenvolvimento deste trabalho optamos por utilizar
o arduino UNO, pois ele conta com portas analógicas e digitais, pode ser utilizado sem a
necessariamente precisar de uma protoboard ou placas de circuito impressos, ele conta
com varias portas analógicas e seriais, conexão USB, entrada para fonte de alimentação
e saídas 3V, e por ser de baixo custo.
78
Segundo Monk (2014), muitas linguagens são usadas para programar os
microcontroladores, desde a linguagem Assembly, voltada ao hardware, até as linguagens
gráficas de programação, como Flowcode. O Arduino localiza-se em algum lugar entre
esses dois extremos e usa a linguagem de programação C++ com algumas pequenas
modificações.
Existem alguns modelos de Braço Robótico (Robotic Arm - RA) para Arduino
disponíveis na internet, para aquisição e montagem a partir de diferentes materiais como
acrílico e MDF (placa de fibra de média densidade), e também modelos para construção
a partir de impressão 3D com uso de filamento plástico ABS (acrilonitrila butadieno
estireno) ou PLA (ácido polilático). Após a realização de testes com um modelo de MDF,
verificou-se que o mesmo não apresentava alcance e precisão razoáveis para a execução
dos movimentos necessários para a solução do jogo, pois conseguiria cobrir um tabuleiro
com área de cinco centímetros apenas. Em seguida foram realizados testes com um
modelo obtido por impressão 3D a partir de filamento plástico PLA, que foi adotado por
apresentar maior resistência, maior precisão e alcance de aproximadamente dez
centímetros, o que possibilita cobrir um tabuleiro com maior número de peças.
Por atender melhor as demandas de projeto e cumprir melhor o objetivo de
representar um processo de automação industrial com mais iterações, foi escolhido o
modelo mark2 do projeto aberto denominado EEZY BOOT ARM (Franciscone, 2015), e
adquirido através de plataforma de e-commerce com todas as peças impressas, pronto
para a montagem. Este braço robótico tem seus movimentos realizados a partir do
trabalho de quatro servo-motores de 9G, dispostos em suas articulações principais, sendo
um na base responsável por controlar a rotação de 180°, um do lado direito que
proporciona o movimento de levantar e abaixar o braço, um do lado esquerdo responsável
pelo alcance e um na garra responsável pelo movimento de agarrar e largar.
A partir do testes de alcance, velocidade, estabilidade e precisão do braço
robótico, determinou-se o uso de um tabuleiro triangular para o jogo. Foi instalada uma
fonte de bancada para alimentar os servo-motores com a voltagem ideal, sendo, num
primeiro momento, o controle dos movimentos do braço robótico realizados através de
potenciomentros de 10K, com o objetivo de mapear as posições das peças no tabuleiro
capturando suas coordenadas a partir do monitor serial do Arduino.
Assim que mapeadas as coordenadas de todas as peças do tabuleiro adotado, serão
realizados testes para verificação do algoritmo de solução elaborado.
3. Considerações finais
Este projeto está sendo desenvolvido como trabalho de conclusão de curso de
Bacharelado em Ciência da Computação na UNEMAT, campus universitário de Alto
Araguaia, e proporciona uma experiência de problema real na área de automação
industrial, permitindo o estudo e elaboração de um projeto que envolve areas importantes
da computação como algoritmos e programação, microeletrônica e sistemas embarcados.
Como atividades futuras, primeiramente serão realizados testes acerca da exatidão
do algoritmo de soução elaborado, e em seguida, pretende-se aplicar estratégias de
otimização para a construção dos algoritmos de solução a serem adotados, com vistas a
executar sempre a solução ótima na busca por maior eficiência e menor consumo de
recursos.
79
Referências
Fonseca, E. G. P. (2010). Introdução ao kit de desenvolvimento Arduino. Rio de janeiro.
Universidade Federal Fluminense.
Franciscone, C. EEZY BOOT ARM. Disponível em: < https://www.thingiverse.com
/thing:1015238 >. Acesso em: 24 set. 2019.
JUNIOR, S.; SILVA, R. Automação e instrumentação industrial com Arduino: Teoria e
Projetos. São Paulo: 2015.
Lamb, F. (2015). Automação Industrial na Prática - Série Tekne. Porto Alegre. Editora
AMGH.
McRoberts, M. (2011) Arduino Básico. São Paulo. Editora Novatec.
Monk, S. 30 Projetos com Arduino. 2 ed. Porto Alegre: bookman, 2014.
Rosário, J. M. (2009). Automação Industrial. São Paulo. Editora Baraúna.
Spong, M. W., Hutchinson, S. and Vidyasagar, M., (2005) Robot Modeling and Control.
USA: John Wiley & Sons.
STEVAN JR, S. L.; SILVA, R. A. Automação e instrumentação industrial com Arduino:
Teoria e Projetos. São Paulo: 2015.
Superinteressante. Jogo – Resta-Um Disponível em: <https://super.abril.com.br/
comportamento/jogo-resta-um/>. Acesso em: 25 set. 2019.
Thomsen, A. O que é Arduino: conceito, benefícios e como utilizar. Disponível em:
<https://www.filipeflop.com/blog/o-que-e-arduino/>. Acesso em: 25 set. 2019.
Wood, R. J. (2008). Robotic Manipulation Using an Open-Architecture Industrial Arm:
A Pedagogical Overview. IEEE Robot. Autom. Mag., pp. 17– 18.
80
Proposta de Sistema de Rastreabilidade nos Laticínios
Jonas N. Veda1, Diógenes A. M. José1
1. Introdução
Nas últimas décadas a atividade leiteira brasileira evoluiu de forma contínua, resultando
no crescimento consistente da produção, que colocou o país como um dos principais do
setor no mundo. Nesse período a produção brasileira quase quadruplicou, passando de
7,1 bilhões para mais de 35,1 bilhões de litros de leite. Atualmente, a produção de leite
no estado de Mato Grosso produz aproximadamente 624 milhões de litros ao ano, 2% da
produção do país [9]. Diante disso, a rastreabilidade do leite tem-se tornando
fundamental para as indústrias alimentícias que buscam um controle de qualidade
eficaz, além das exigências estabelecidas pela Instrução Normativa 77 (IN 77) do
Ministério da Agricultura e Abastecimento (MAPA).
Diante do exposto, o objetivo deste trabalho consiste em propor o
desenvolvimento de uma aplicação móvel para controlar a coleta de leite, tendo como
referência a rastreabilidade nos laticínios, e dessa forma, automatizar o processo de
coleta para um melhor controle das informações de rastreabilidade. Com relação à
metodologia, este estudo consiste em uma pesquisa aplicada, uma vez que utilizou o
conhecimento da própria pesquisa para o desenvolvimento do projeto [7]. Quanto à
análise, a metodologia aplicada também pode ser classificada como pesquisa
exploratória e explicativa, uma vez que a mesma fará uso de materiais já elaborados, por
exemplo: livros, sites, artigos, revista eletrônica, entre outros [8]. A aplicação proposta,
foi desenvolvida utilizando o Android em função da predominância deste sistema, mais
81
de 85% do mercado de dispositivos móveis [2]. Tal aplicação foi implementada na IDE
Android Studio, Software Livre de código aberto, usando a linguagem de programação
Java e o Sistema Gerenciador de Banco de Dados (SGBD) SQLite.
O restante deste trabalho foi dividido como segue: a Seção 2 apresenta os
trabalhos relacionados. A Seção 3 descreve a proposta de aplicação. E, finalmente, na
Seção 4 são apresentados os resultados esperados.
2. Trabalhos Relacionados
Nesta seção é apresentada uma revisão das literaturas sobre rastreabilidade e
desenvolvimento de software para dispositivos móveis, com foco na utilização de gestão
da qualidade e rastreabilidade do leite.
Em Rambo e Maciel [5], a aplicação móvel como solução para a rastreabilidade
no processo de coleta e transporte do leite, apresenta um sistema para acompanhar e
gerenciar a rotina de coleta e transporte do leite desde a propriedade rural até a indústria,
armazenando dados, com o objetivo de inibir possíveis fraudes e elevar o nível de
confiabilidade deste processo. Payne e Thompson [4], propõem uma solução para a
rastreabilidade no processo de coleta e transporte do leite, o sistema gerencia a
segurança no transporte de leite fornecendo garantia de que o leite, suas amostras e
dados relacionados sejam transportados de forma segura entre a fazenda leiteira e a
indústria de laticínios. Magistech [3], apresenta uma aplicação mobile como solução
para a rastreabilidade no processo de coleta e transporte do leite. Além do benefício à
indústria láctea, ela também possibilita o processo de captação de leite mais eficiente e
assertivo. Segundo Santos, Pedrozo e Souza [6], a rastreabilidade na produção de leite é
uma estratégia importante, que procura atender às necessidades das empresas,
fornecedores e clientes.
Como bem nos assegura Chapaval [1], a rastreabilidade na produção de leite é a
forma de fazer com que a localização do problema fique mais simples, assim, é possível
seguir o processo inverso e descobrir qual a matéria-prima ou componente utilizado na
produção do produto e em quais outros produtos aquele mesmo material foi utilizado.
Logo, é importante compreender que é fundamental para as indústrias alimentícias ter
um controle de qualidade eficaz, além de atender as exigências estabelecidas pelo
Ministério da Agricultura e Abastecimento (MAPA).
3. Descrição da Proposta
A presente seção tem por objetivo descrever a proposta e mostrar parte do
sistema desenvolvido. O App é uma planilha eletrônica e nela utilizam-se as mais novas
ferramentas Android: Persistência de dados com Sqlite, designer de telas modernas,
câmera do celular, android APIs, entre outras. A Figura 1 apresenta o funcionamento
básico do sistema.
82
Figura 1 - Funcionamento da aplicação, coleta informações através do QRCode e
armazena na aplicação para futura conferência.
83
4. Resultados Esperados
Com o desenvolvimento do presente estudo espera-se automatizar o processo de coleta
de leite in natura e a rastreabilidade do leite. Vale destacar que a presente aplicação não
dependerá de conexão com a Internet para o funcionamento. Também, objetiva-se suprir
uma lacuna neste quesito, pois em muitos municípios brasileiros a coleta de leite ainda é
realizada de forma manual.
Refêrencias
[1] CHAPAVAL, L., & ALVES, F. A. (2008). Rastreabilidade na Produção de Leite
de Cabra: Diferencial para um Agronegócio Sustentável. Disponível em:
<https://ainfo.cnptia.embrapa.br/digital/bitstream/item/92886/1/Midia-Rastreabilidade-
na-Producao-de-Leite-de-Cabra.pdf>. Acesso em: 25 abr. 2019.
[2] CIRIACO, D. (18 de 07 de 2017). Androir cresce, iOS diminui e Windows Phone
quase some, aponta relatório. Disponível em Tecmundo:
<http://www.in.gov.br/materia/-/asset_publisher/Kujrw0TZC2Mb/content/id/52750141/
do1-2018-11-30-instrucao-normativa-n-77-de-26-de-novembro-de-2018-52749887>.
Acesso em 05 set. 2019.
[3] MAGISTECH, S. I. (s.d.). App Magis Coleta - Sistema de coleta de leite. Disponível
em 2019: <https://www.magistech.com.br/solucoes/app-magis-coleta-sistema-de-coleta-
de-leite>. Acesso em 05 de ago de 2019.
[4] PAYNE, F., & THOMPSON, C. (2015). Milk Transport Security and Traceability
System. Disponível em: <http://www.icef11.org/content/papers/mfs/MFS868.pdf>.
Acesso em 21 jan. 2019.
[5] RAMBO, F., & MACIEL, J. M. (s.d.). Uma solução para a rastreabilidade no
processo de coleta e transporte do leite. Disponível em <http://eventos.uepg.br/sbiagro/
2015/anais/SBIAgro2015/pdf_resumos/17/17_fernando_rambo_199.pdf>. Acesso em
25 de nov de 2018.
[6] SILVÉRIO, A. G., SANTOS, M. S., SOUZA, M. V., & PEDROSO, V. S. (2019).
Viabilidade da implantação de sistemas de informação na produção de leite UHT/
Viability of implantation of information systems in UHT milk production. Disponível
em: <http://www.brjd.com.br/index.php/BRJD/article/view/1420>. Acesso em 06 Set.
2019.
[7] TYBEL, D. (2014). TCC, uma ESCRITA EM BLOCOS. São Mateus: Douglas Tybel.
[8] VIANELLO, L. P. (2013). MÉTODOS E TÉCNICAS DE PESQUISA: Elementos
para o delineamento da pesquisa: método estruturado e sistematizado. Belo Horizonte:
Ead - Educação a distancia. Disponível em: < https://docplayer.com.br/1584163-
Metodos-e-tecnicas-de-pesquisa-luciana-peixoto-vianello.html>. Acesso em 06 Set.
2019
[9] ZOCCAL, R. (2018). Produção de 2017 cresce e reverte tendência de queda.
Disponível em Anuário Leite 2018:
<https://www.embrapa.br/busca-de-publicacoes/-/publicacao/1094149/anuario-leite-
2018-indicadores-tendencias-e-oportunidades-para-quem-vive-no-setor-leiteiro>.
Acesso em 12 de jul de 2019.
84
Proposta de Aplicação para Obtenção da Reputação de Marca
ou Produto utilizando o Twitter como Fonte de Análise
Wanderson S. Araújo1, Diógenes Antônio M. José1, Raquel da Silva V. Coelho
Faculdade de Ciências Exatas FACET
Universidade do Estado de Mato Grosso-UNEMAT Caixa Postal 92 - CEP - 78390-
000 – Barra do Bugres, MT – Brasil
wsa.juinaarujo@gmail.com, {dioxfile, raquelcoelho}@unemat.br
Abstract. Twitter is a social network with millions of users around the world, about 20%
of published Tweets express their users' feelings about some kind of product/brand.
Therefore, the purpose of this article is to propose an application for extracting
information from Twitter regarding users' consumer tastes. Thus, to perform this task
techniques such as natural language processing and machine learning will be used. In
addition, it will be implemented in Python with Tweepy and Pandas. As a result, the App
is expected to mine information in two languages, Portuguese/English.
Resumo. O Twitter é uma rede social com milhões de usuários espalhados pelo mundo,
cerca de 20% dos Tweets publicados expressam os sentimentos de seus usuários com
relação a algum tipo de produto/marca. Portanto, o objetivo deste artigo consiste em
propor uma aplicação para extração de informações do Twitter relativas aos gostos de
consumo dos usuários. Dessa forma, para realizar tal tarefa serão utilizadas técnicas
como processamento de linguagem natural e aprendizado de máquina. Além disso, a
mesma será implementada em Python com Tweepy e Pandas. Como resultado, espera-se
que a App minere informações em dois idiomas, português/Inglês.
1. Introdução
Os brasileiros são líderes no tempo gasto em redes sociais, segundo a pesquisa quantitativa
divulgada pela consultoria ComScore, a media é 60% a mais que em outros países [1].
Comumente os usuários compartilham mensagens (Tweets) sobre seu cotidiano, tornando essas
mensagens extremamente relevantes para uma análise de sentimento. Segundo Li, R. e Li, J.
[2], aproximadamente 20% dos Tweets publicados estão relacionados à uma marca e expressam
a opinião do usuário. Em 2012 Stelzner [3] apontou que 83% dos profissionais do marketing
faziam uso de informações levantadas nas redes sociais para avaliar o desempenho de
empresas. Diante do exposto o objetivo deste trabalho consiste em propor o desenvolvimento
de uma ferramenta para extração das informações da rede social Twitter. A ferramenta (app)
fará uso de técnicas como: descoberta de conhecimento em banco de dados, processamento de
linguagem natural e aprendizado de máquina. Dessa forma, será possível analisar os
sentimentos dos Tweets referente a alguma marca específica. O desenvolvimento será feito em
Python por esta ser uma linguagem muito usada para análise de dados, por possuir uma
quantidade enorme de forums de discussão/documentação e, também, por ser a terceira
linguagem mais usada no mundo, fonte: https://www.tiobe.com/tiobe-index/.
85
O restante deste artigo foi organizado como segue: a Seção 2 apresenta os trabalhos
relacionados. Na Seção 3 é apresentada a descrição da proposta. E, finalmente, na Seção 4 são
apresentados os resultados esperados.
2. Trabalhos Relacionados
As redes sociais são formadas a partir da interação entre entidades (usuários, grupos, empresas
ou organizações) em que a interação pode ser unilateral ou bilateral, sendo dada de acordo com
interesses ou objetivos em comuns [4]. Acredita-se que atualmente dois terços da população
mundial tem acesso às redes sociais [5].
De acordo com Costa [6], as cinco redes sociais mais utilizadas atualmente no Brasil
são Youtube, Facebook, Whatsapp, Instagram, Messenger e o Twitter. Dentre as redes sociais
destaca-se o Twitter, ele pode ser descrito como um serviço de Micro-blogging altamente social
e em tempo real, a comunicação ocorre por curtos textos de até 280 caracteres, chamados de
Tweets que aparecem em uma linha de tempo [7]. O Tweet pode conter uma ou mais entidades
que é dada por Hashtags e referenciar um ou mais lugares do mundo real [8].
Fayyad, Piatetsky-Shapiro e Smyth [9] definem a descoberta de conhecimento como o
processo não trivial de extração de informações implícitas, previamente desconhecidas e
potencialmente úteis, a partir dos dados armazenados em um banco de dados. Quando se refere
a não trivial, refere-se à necessidade de se utilizar alguma técnica de busca ou inferência. A
informação que se procura tem de ser potencialmente útil e deve trazer algum benefício para o
usuário. Este processo é amplo como mostra a Figura 1.
86
página e a baixa relevância para o trabalho não será mencionado os tipos de aprendizagem e
algoritmos utilizados.
3. Descrição da Proposta
A presente seção tem por objetivo descrever o funcionamento da ferramenta de análise de
sentimento, que será desenvolvida utilizando Python. Os dados utilizados serão extraídos via
API do Twitter usando a biblioteca Tweepy, posterior a extração dos dados, estes serão
armazenados utilizando a biblioteca Pandas. Posterior a extração e armazenamento dos
dados, poderá ser feito um polimento dos dados obtidos, eliminando eventuais ruídos ou
Tweets sem muita informação. Em sequência fazer a análise de sentimento nos dados já
polidos, e assim exibir o resultado em gráfico contendo positivo, neutro e negativo. A Figura
2 mostra o diagrama de funcionamento da ferramenta.
3.2 Metodologia
Os materiais e métodos para desenvolver esta proposta são organizados em etapas: 1 - Seleção:
nesta etapa é selecionada as características ou atributo dentre o conjunto de dados e casos ou
observações que farão parte da análise; 2 - Pré-processamento: esta é a etapa mais trabalhosa
dentre as demais, pois é necessário realizar diversos passos para que os dados estejam o mais
refinados possível, removendo e corrigindo quaisquer redundâncias nos dados e tratando
eventuais dados ausentes, a finalidade desta etapa é preparar os dados para o processo de
mineração; 3 - Transformação: consiste em armazenar e formatar os dados de maneira que o
algoritmo de aprendizagem possa ser aplicado com eficiência, mantendo ou destacando os
dados de maior importância; 4 - Mineração de dados: a etapa de mineração de dados é
responsável por explorar os dados transformados com o objetivo de identificar seus padrões,
para a utilização na classificação e previsão de novos dados; 5 - Interpretação: aqui é feito a
análise dos padrões identificados para atribuir contexto e semântica a eles. Posterior à análise, a
informação resultante pode ser aplicada em atividades de tomada de decisão relacionadas ao
objetivo inicial. A ferramenta proposta nesta pesquisa utilizar-se-á de Interface de
87
Programação de Aplicação (API), por exemplo, o Twython/Tweepy, que são um conjunto de
rotinas e padrões estabelecidos por um software para a utilização de funcionalidades
específicas (Dicionário online) 1.
4. Resultados Esperados
Os resultados esperados com este trabalho consistem em criar uma aplicação para extração das
informações do Twitter usando Python e a API Tweepy. Além disso, a aplicação fará uso de
técnicas de mineração de dados e inteligência artificial, por exemplo, processamento de
linguagem natural e aprendizado de máquina. Neste contexto, a aplicação terá como referência
uma base de dados em português/Inglês de forma a atender hashtags nos dois idiomas.
Referências
[1] OTONI, C. Ana. Brasileiros gastam 650 horas por mês em redes sociais. 2015. Disponível
em: https://blogs.oglobo.globo.com/nas-redes/post/brasileiros-gastam-650-horas-por-mes-em
redes-sociais-567026.html Acesso em: 05 de Outubro de 2019
[2] LI, Y.-M.; LI, T.-Y. Deriving marketing intelligence over micro blogs. 2011. In: Proceedings
of 44th Hawaii International Conference on System Sciences (HICSS), p. 1 –10.
[3] STELZNER, M. A., Social media marketing industry report. 2012. Disponível em:
https://www.socialmediaexaminer.com/social-media-marketing-industry-report-2012/. Acesso
em: 05 de Outubro de 2019.
[4] GONÇALVES, P.; DORES, W. J. D.; BENEVENUTO, F. 2015. Medindo Sentimentos no
Twitter por Meio de uma Escala Psicométrica. Revista Eletrônica de Sistemas de Informação,
v. 14, n. 2, p. 1-19.
[5] BENEVENUTO, F., Almeida, J. and Silva, A. (2011). Coleta e análise de grandes bases de
dados de redes sociais online. In Jornadas de Atualização em Informática (JAI).
[6] COSTA, T. Quais são as redes sociais mais usadas no Brasil em 2019?. Disponível em:
https://rockcontent.com/blog/redes-sociais-mais-usadas-no-brasil/. Acesso em: 05 de Outubro de
2019.
[7] RUSSELL, Stuart J.; NORVIG, Peter. Inteligência artificial. Rio de Janeiro: Elsevier, 2004.
[8] LAMONT, I. Twitter in 30 minutes: How to connect with interesting people, write great tweets,
and find information that's relevant to you. Amazon, 2016.
[9] FAYYAD, U. PIATETSKY-SHAPIRO, G. SMYTH, P. From Data Mining to Knowledge
Discovery na Overview In Advances in Knowledge Discovery and Data Mining. 1996.
[10] AMO, S. "Técnicas de mineração de dados." Jornada de Atualização em Informática (2004).
[11] CHOPRA, D. JOSHI, N. MATHUR .I. Matering Natural Language Processing with Python.
Amazon Digital Services LLC, 2016.
[12] MARTINS, D.; KATAOKA, K.; TRINDADE, L. Processamento de Linguagem Natural. 2010.
Universidade Federal da Bahia. Disponível em https://document.onl/documents/processamento-
de-linguagem-natural-homesdccufbabrleotavoindexhtml-.html. Acesso em 05 de Outubro de
2019.
[13] REZENDE, D. A.. Planejamento de Sistemas de Informação e Informática 4ª ed. São
Paulo: Atlas, 2011.
1
http://foldoc.org/Application+Program+Interface.
88
Aprendizado de máquina aplicado para previsão e
classificação de resultados do Cartola FC
Jefferson Maciel de Sales Bispo1, Leo Manoel Lopes da Silva Garcia1, Raquel da
Silva Vieira Coelho1
1
Universidade do Estado de Mato Grosso (UNEMAT)
Caixa Postal 92 – CEP 78390-000 – Barra do Bugres, MT – Brasil
jeffersonmaciel15@gmail.com, {leoneto, raquelcoelho}@unemat.br
1. Introdução
O jogo eletrônico Cartola FC é um jogo que tenta passar aos seus jogadores a sensação
de ser um técnico de futebol, podendo escolher seus atletas a cada rodada para
conseguir o máximo de pontuação, cada participante escala os jogadores de acordo com
seus preços e suas posições dentro de campo, podendo escalar qualquer jogador de
qualquer time do campeonato brasileiro série A. Conforme as regras cada jogador terá
uma pontuação do seu desempenho na partida [Lopes, 2018].
O aprendizado de máquina vem ganhando muita importância no cenário mundial
nos últimos anos, com os avanços tecnológicos e com a grande quantidade de dados
gerados, é necessário que haja aplicações para analisá-los, tomar decisões para os
problemas encontrados, predizer tendências futuras, entre várias outras funcionalidades
que o aprendizado de máquina possa ser útil [Junior, Gomes e Costa, 2018].
Como hoje em dia é fácil encontrar o uso de aprendizado de máquina para
solucionar problemas, sejam eles do mais simples ao mais complexo, os algoritmos de
aprendizagem podem ser aplicados de diversas formas dependendo da situação onde
seja necessário.
Dessa maneira, este presente trabalho tem por objetivo utilizar técnicas de
aprendizado de máquina para prever e classificar desempenho futuro de jogadores, em
89
partidas válidas pelo Campeonato Brasileiro de futebol do ano de 2018, a partir de dados
fornecidos pelo jogo eletrônico Cartola FC.
No decorrer do trabalho serão apresentadas seções acerca do tema gerador,
expostos da seguinte forma: a Seção 2 apresenta os trabalhos relacionados. Na Seção 3 é
apresentada a descrição da proposta e metodologia e por fim na Seção 4 são
apresentados os resultados esperados.
2. Trabalhos Relacionados.
Aprendizado de Máquina é um subcampo da Inteligência Artificial que compreende o
campo da Ciência da Computação onde estuda o reconhecimento de padrões baseados
em análise de dados para o aprendizado computacional de Inteligências Artificiais e
resolução de problemas [Costa, 2018].
Com a crescente evolução do uso da tecnologia, novas ferramentas e soluções
foram surgindo no intuito de facilitar a resolução dos problemas computacionais de
pessoas e empresas. Se durante um longo período os computadores apenas eram capazes
de processar e efetuar o que lhes era instruído a fazer, novas técnicas possibilitaram que
os computadores pudessem aprender a se auto programar que é a principal característica
do campo de aprendizado de máquina [Junior, Gomes e Costa, 2018].
O aprendizado de máquina pode ser comparado ao dos seres humanos no sentido
de que, ambos adquirem conhecimento através de experiências, a máquina experimenta
copiosamente o problema e cria seu próprio modelo de solução, ou seja, reconhece os
padrões dos dados e calibrando assim as tomadas de decisões, baseadas nas experiências
que foram exposta. [Araújo, 2015].
O aprendizado de máquina abrange três métodos de aprendizagem são eles:
Aprendizado Supervisionado, Aprendizado não supervisionado e Aprendizado por
reforço.
• Aprendizado supervisionado: é utilizado para fazer previsões com base em
conjunto de exemplos pré-definidos para buscar padrões, ou seja, dados
anteriores são levados em consideração para novas predições, tanto os dados de
entrada como de saídas são de conhecimento prévio [Junior, Gomes e Costa,
2018];
• Aprendizado não supervisionado: no aprendizado não supervisionado a
máquina também trabalha com a detecção de padrões, só que neste modelo não
tem um feedbak com base na saída para ter a resposta, os dados são inseridos ao
algoritmo e a máquina deve categorizar cada dado e criando um modelo
Clustering, em outras palavras agrupar os dados com características em comum
[Barros, 2016];
• Aprendizado por reforço: Aprendizagem por reforço se baseia fortemente na
ideia intuitiva de aprendizagem, num problema de aprendizagem por reforço não
há um vetor de erro, ou seja, não há instrução guiando o agente rumo à resposta
correta. Um sinal de reforço negativo apenas indica que o resultado da ação
tomada foi ruim, e não qual a correção a tomar [Azzolini, 2011].
O Cartola FC é um jogo de futebol online no estilo Fantasy game, vinculado a
emissora de televisão Rede Globo, onde os participantes criam equipes virtuais
90
baseando no Campeonato brasileiro de futebol, em que, devem selecionar onze
jogadores e um técnico, em suas devidas posições do time real, o desempenho dos
atletas dentro campo é usada para calcular a pontuação de cada jogador no Fantasy
game [Lopes, 2018].
2.1 Framework Weka
Weka é um framework de fácil aprendizado muito “poderosa” para o aprendizado de
máquina. Desenvolvida na Universidade de Waikato na Nova Zelândia, utilizando a
linguagem de programação Java, fornece um grande número de algoritmo de
aprendizado de máquina, métodos de seleção de recursos, mineração de regras de
associação e visualização dos dados. Neste contexto os objetivos do Weka é auxiliar os
pesquisadores e cientistas no desenvolvimento de aplicações de aprendizado de
máquina, por ser um framework de fácil entendimento, utilizar para o
ensino/aprendizado nas escolas e universidades [Eibe, Mark e Ian, 2016].
3. Descrição da proposta
Este presente trabalho tem por objetivo mostrar o funcionamento de aprendizado de
máquina descrevendo suas técnicas e modelos, realizando testes de previsão dos
resultados e classificação do jogo eletrônico Cartola FC. Através dos modelos de
aprendizado de máquina classificar os jogadores como ruim, bom ou excelente para as
rodadas seguinte.
Os materiais e métodos utilizados para os testes são:
1. Utilizar o framework Weka para treinar a base de dados do Cartola FC, no qual
19 rodadas das 38 serão de treinamento e as outras 19 como teste;
2. Realizar teste utilizando o algoritmo Naive Bayes para a classificação dos
resultados;
3. Verificar a plausibilidade da classificação dos resultados.
4. Resultados esperado
Há muitas variáveis que influenciam no desempenho do jogador de futebol em uma
partida: faltas cometidas, gol feito, assistência, defesas difíceis, gol sofrido, entre várias
outras possibilidades que podem ocorrer durante uma partida de futebol. O jogo
eletrônico Cartola FC oferece uma grande quantidade de dados de cada jogador a cada
rodada de jogos válidos pelo Campeonato Brasileiro. A partir destes dados e com o uso
de técnicas de aprendizado de máquina, é possível analisar o desempenho anterior dos
jogadores para poder classificá-los e dar uma indicação de candidatos selecionáveis pelo
sistema para compor um time da próxima rodada, objetivando assim um time mais
assertivo.
5. Referências
ARAÚJO, Kelvin Martins. Utilização do algoritmo de máquina de vetores de suporte
(SVM) para predição de dados climáticos. 2015. Disponível em:
<shttps//webcache.googleuserc
ontent.com/search?q=cache:vE4J8i9csQMJ:https://ulbrato.br/bibliotecadigital/upload
91
s/document57ff7226dff60.pdf+&cd=2&hl=pt-BR&ct=clnk&gl=br>. Acesso em: 07
maio. 2019.
AZZOLINI. Alisson. Aprendizado por reforço em modelos probabilísticos de rede
imunológicas para robótica autônoma. 2011. Disponível em:
<ftp://ftp.dca.fee.unicamp.br/pub/docs/vonzuben/theses/tese_Azzolini.pdf>. Acesso
em: 20 maio de 2019.
BARROS, Pedro. Aprendizagem de Máquina: Supervisionada ou Não Supervisionada?.
2016. Disponível em: https://medium.com/opensanca/aprendizagem-de-maquina-
supervisionada-ou-n%C3%A3o-supervisionada-7d01f78cd80a>. Acesso em: 07
maio. 2019.
COSTA, Antonio. Luiz. “Entenda o que é o conceito de “Aprendizado de Máquina””.
2018. Disponível em: <https://www.showmetech.com.br/entenda-o-que-e-o-
conceito-de-aprendizado-de-maquina/>. Acesso em: 06 maio. 2019.
EIBE Frank, MARK A. Hall, and IAN H. Witten (2016). “Data Mining: Practical
Machine Learning Tools and Techniques”. Disponível em:<
https://www.cs.waikato.ac.nz/ml/weka/index.html>. Acesso em: 21 out. 2019.
JUNIOR, Jose. P. A; GOMES, André.; COSTA, Gustavo. “A. Uma Abordagem de
Aprendizado de Máquina para a Previsão do Desempenho Escolar de Alunos do
Ensino Médio”. 2018. Disponível em:
https://www.researchgate.net/publication/325571356_Uma_A
bordagem_de_prendizado_de_Maquina_para_a_Previsao_do_Desempenho_Escolar_
de_Alunos_do_Ensino_Medio. Acesso em: 5 jun. 2019.
LOPES. Henrique. “Aprendizado de máquina aplicada a desempenho de jogadores de
futebol”. 2018. Disponível em:
http://www.tcc.sc.usp.br/tce/disponiveis/18/180450/tce-26072018-121351/. Acesso
em: 30 maio. 2019.
92
Proposta de Gerenciamento de Dados Meteorológicos para
Uso de Energia Solar Off-Grid com Software Assistente em
Python e IoT
Érico Piantkoski1, Diógenes Antonio Marques José1
1. Introdução
Visando um contexto sustentável, Belúcio et al. [1] elucidam o intento da humanidade
em buscar meios de se prover energia de forma eficiente. Assim, a intensidade com que
os raios solares incidem sobre a Terra tornam a utilização de energia fotovoltaica viável.
Neste âmbito, a observação de fatores meteorológicos como radiação solar global e
difusa são intrínsecas. Apesar de uma opção factível e uma realidade em diversos
países, no entanto, temos ainda caminhado a passos curtos em direção a esse objetivo
93
promissor, dado o fato de a obtenção de energia solar estar sujeita a alguns fatores
essenciais, como a quantidade e qualidade de equipamentos utilizados para captação de
radiação, clima e alto custo de implementação, por exemplo [2].
Neste contexto, modelos de energia solar independentes (Off-Grid), em que a
base de obtenção de energia é exclusivamente fotovoltaica, podem ser instáveis quando
custo e quantidade de equipamento são levados em consideração. Nesses casos, a falta
de energia pode ser uma realidade [1]. Diante do exposto, o objetivo desta proposta de
pesquisa evidencia-se da iniciativa de se desenvolver um sistema embarcado capaz de
abstrair informações da energia adquirida pelo sistema Off-Grid e, dessa forma,
compará-las com dados devidamente tratados das bases de dados meteorológicas para
assim gerar conhecimento ao usuário de eventuais momentos em que se faça necessária
a economia de energia.
As informações foram organizadas como segue: a Seção 2 apresenta a descrição
da proposta e a metodologia de desenvolvimento. E, finalmente, na Seção 3 são
apresentados os resultados esperados.
2. Descrição da Proposta
A descrição da proposta tem por finalidade elucidar os passos a serem tomados com
relação ao projeto. Com a finalidade de se mensurar a quantidade de energia adquirida
em um modelo específico. Assim, utilizar-se-á o módulo ESP 8266-12F (Figura 1), por
possuir a possibilidade de comunicação com a rede, através dos protocolos IEEE
802.11 b/g/n. O algoritmo para gerenciar o controle de energia será desenvolvido em
Python e implementado no firmware do ESP 8266-12F. Assim, o mesmo deve ser
capaz de comparar a energia adquirida pelo modelo Off-Grid com a expectativa de
aquisição para determinado dia no ano (ex. de um a sete dias sequentes à comparação)
e, portanto, retornar ao servidor quando o usuário precisará economizar energia.
94
forma, dados de consumo serão sempre comparados com bases de dados para oferecer
convicções sobre economia de energia. Além disso, é proposto ainda que o usuário
possa ter informações sobre seu próprio consumo diário.
Figura 2. Estrutura de um Sistema Off-Grid equipado com o ESP 8266 12-F para tratamento e exibição
de informações acerca de economia de energia.
3. Resultados Esperados
Apesar de experimentais, por conta das bases de dados com teor de pesquisa e não
comercial, espera-se primeiramente que este tipo de modelo, como descrito na Figura 2,
chegue às pessoas comuns, notando que modelos Off-Grid possuem um potencial
elevado em regiões como o interior do norte e nordeste brasileiro, que possuem altos
índices de radiação direta (ex. radiação vinda diretamente dos fótons do feixe solar
como parte da radiação extraterrestre). Assim, será possível colaborar em projetos como
95
escolas rurais e postos de saúde autônomos, por exemplo, como observado por Boso,
Gabriel e filho [2][4].
Ademais, espera-se também que o brasileiro comum possa ter uma opção
autossuficiente no âmbito metropolitano, como alternativa à geração de energia
hidrelétrica, sem correr o risco da ausência de energia. Por conseguinte, alavancar a
ideia de produção de modelos assim nos meios comercial e científico, dado que ao se
voltar ao mercado, novas metodologias deverão ser aplicadas ao algoritmo, devido a
ausência dos bancos de dados utilizados no projeto para fins comerciais.
Referências
[1] BELÚCIO, L.P.; SILVA, A. P.N.; SOUZA, L. R.; MOURA, G. B. A. (2018)
“Radiação Solar Global Estimada a Partir da Insolação para Macapá”, Revista
Brasileira de Meteorologia, 2014, http://www.scielo.br/pdf/rbmet/v29n4/03.pdf,
v.29, n.4, p.494 – 504.
[2] BOSO, A.C.M.R.; GABRIEL, C.P.C.; FILHO, L. R. A. G. (2015) “Análise de
Custos dos Sistemas Fotovoltaicos On-grid e Off-grid no Brasil”, ANAP Brasil,
https://www.amigosdanatureza.org.br/publicacoes/index.php/anap_brasil/article/
view/1138/1161, Abril, 1904-3240, v.8, n.12, p.57-66.
[3] INPE – INSTITUTO NACIONAL DE PESQUISAS ESPACIAIS (2019) “Atlas
Brasileiro de Energia Solar – 2ª Edição”, http://labren.ccst.inpe.br/atlas_2017.html,
Agosto.
[4] MOOJEN, Thomaz M. B.; CAVALCANTE, Rosane B. L.; MENDES, Carlos A. B.
(2012) “Avaliação da Radiação Solar com Base em Dados de Nebulosidade”,
Geografia, http://www.uel.br/revistas/uel/index.php/geografia/article/view/10346,
Setembro v.21, n. 3.p.41-55.
[5] VIEIRA, H. J., et. al. (2011) “Comparação Da Disponibilidade De Radiação Solar
Global E Fotoperíodo Entre As Regiões Vinícolas De Campo Belo Do Sul-Sc, Brasil
E Pech Rouge, França”, Rev. Bras. Frutic., Jaboticabal - SP,
http://www.scielo.br/scielo.php?script=sci_arttext&pid=S010029452011000400003,
v. 33, n. 4, p.1055-1065.
96
Proposta de análise do uso de filtros em imagens Landsat-8
na classificação de uso e cobertura da terra
Gustavo A. Silva, Leo M. L. da S. Garcia
1. Introdução
O estudo sobre a cobertura e uso da terra contribui, de forma significativa, para o
entendimento dos processos sociais, ambientais e econômicos nos variados momentos
históricos em determinada área de estudo [Brasil 2013]. O estudo sobre cobertura e uso
da terra se caracteriza por uma coleção de operações que apontam, por meio de padrões
da cobertura terrestre, a organização geográfica da tipologia de uso [Brasil 2013; Rosa
2013].
Técnicas de geoprocessamento podem ser empregadas para análise deste estudo
[Rosa 2013]. O sensoriamento remoto, sendo este uma técnica de geoprocessamento, em
conjunto com a utilização de técnicas de classificação permite reconhecer e quantificar o
uso antrópico, bem como a sua inexistência [Novo 2010; Rosa 2013].
Considerando a precisão dos resultados das técnicas de classificação de imagens
digitais, a ciência de processamento digital de imagens, utilizando-se de técnicas de
filtragem, permite aprimorar a qualidade da imagem [Conci, Azevedo e Leta 2008]. Desta
forma, podendo resultar em uma classificação mais precisa da realidade.
97
Todavia, há dificuldade em encontrar análises que reúnem diferentes filtros em
diferentes condições, como por exemplo o uso de diferentes tipos de composições de
bandas e/ou classificadores. Neste sentido, Cao et al. (2017) aproximam dessa ideia, no
qual é avaliado o desempenho de dez filtros diferentes na classificação de imagens
hiperespectrais, porém utiliza apenas máquina de vetores de suporte como algoritmo
classificador pixel a pixel e não apresentam composições de banda específicas utilizadas.
Contudo, o presente estudo se justifica por contribuir com a literatura visando
apresentar, em um único trabalho, o efeito de diferentes filtros na classificação, por meio
de aprendizado de máquina, de cobertura e uso da terra utilizando imagens
multiespectrais.
2. Materiais e métodos
A área de estudo consiste da Bacia Hidrográfica Paraguai/Jauquara (BHPJ), representada
na figura 1, e será utilizado como base de conhecimento a classificação de Costa et al.
(2018) realizada nesta região. Esta bacia, com extensão territorial de 16482,006 km2, tem
como bioma o Cerrado, clima tropical com uma estação chuvosa, de outubro a abril, e
outra seca, de maio a novembro [Fenner et al. 2014].
98
Nesse sentindo, na análise serão aplicados diferentes filtros de passa-baixa, passa-
alta, realce de contraste. Os filtros de passa-baixa consistem em mediana, gaussiano e
passa-baixa ideal (domínio de Fourier) e os de passa-alta são: sobel, laplaciano e de passa-
alta (domínio de Fourier). Por fim, os filtros de correção gama e equalização de
histograma são aplicados para realçar o contraste.
A etapa seguinte consistirá em classificar as imagens, tanto a original quanto as
filtradas. Para isto, primeiramente será construída, para cada imagem, uma base de
conhecimento e testes utilizando-se da técnica Local Binary Pattern (LBP). Este, consiste
em um método extração de característica de textura, podendo ser invariante a rotação, que
contabiliza padrões binários da região próxima a cada pixel da imagem [Ojala, Pietikäinen
e Mäenpää 2002; Pedrini e Schwartz 2008].
Ainda neste contexto, será aplicada a abordagem “por região”, que, segundo
Meneses e Almeida (2012), consiste no processo de extrair características e rotular de
forma unificada um grupo de pixels próximos.
Em seguida, será empregado dois classificadores: Multilayer Perceptron e
Máquina de Vetores de Suporte (do inglês Support Vector Machine, SVM). Ambos
consistem em técnicas de aprendizado de máquina de aprendizado supervisionado. O
primeiro se define como um modelo matemático baseado no processo de aprendizado do
cérebro humano e o segundo visa encontrar um hiperplano que melhor separa as classes
[Solomon e Breckon 2013; Muller e Guido 2016].
Após o treinamento de ambos algoritmos, será utilizado técnicas de avaliação da
qualidade da previsibilidade correta da rotulação das classes para cada região. Poderão
ser utilizadas técnicas de acurácia, precisão, matriz de confusão, entre outros. Estes serão
alvos das análises para compreender a influência dos filtros no processo de classificação
de uso e da terra.
Por fim, relata-se que para a aplicação das técnicas apresentadas será utilizada a
linguagem de programação Python (python.org). Onde será utilizada as bibliotecas:
Scikit-image (scikit-image.org) para os processos de filtragem e extração de
características, Pandas (pandas.pydata.org) na organização de dados tabulados e na etapa
de classificação foi empregada as bibliotecas TensorFlow (tensorflow.org) e Scikit-learn
(scikit-learn.org).
3. Resultados Esperados
Em vista que o uso de filtros é utilizado para melhoria na análise, seja humana ou
computacional, de imagens digitais [Conci, Azevedo e Leta 2008], espera-se que sua
aplicação em imagens de sensoriamento remoto possa melhorar o desempenho da
rotulação dos classificadores utilizados.
Além disso, contribuir com a literatura sobre o entendimento destes filtros
aplicados na classificação do uso antrópico e cobertura da terra, como encontrar padrões
ou filtros que realçam melhores certas classes para determinadas análises, bem como a
melhoria da qualidade dos resultados de cada modelo aplicado como um todo.
99
Referências
Brasil, Instituto Brasileiro de Geografia e Estatística (2013). Manual Técnico de uso da
Terra, Coordenação dos Recursos Naturais e Estudos Ambientes, 3 ed.
https://biblioteca.ibge.gov.br/visualizacao/livros/liv81615.pdf, outubro 2019.
CAO, Xianghai et al (2017). Hyperspectral image classification based on filtering: a
comparative study. In Journal Of Applied Remote Sensing, [s.l.], v. 11, n. 3, p.035007.
https://www.spiedigitallibrary.org/journals/Journal-of-Applied-Remote-
Sensing/volume-11/issue-3/035007/Hyperspectral-image-classification-based-on-
filtering-a-comparative-study/10.1117/1.JRS.11.035007.short, outubro de 2019.
Conci, A.; Azevedo, E. e Leta, F. R. (2008). Computação Gráfica: Teoria e Prática,
Elsevier, 2. ed.
Costa, Angélica Aparecida Dourada et al. (2018). Modelo linear misto para análise
temporal do uso da terra e cobertura vegetal na Bacia Hidrográfica Paraguai/Jauquara,
Mato Grosso, Brasil. In Simpósio de Geotecnologias no Pantanal, 7., 2018, Jardim,
MS. Anais… São José dos Campos: INPE. p. 799-807.
https://www.geopantanal.cnptia.embrapa.br/Anais-Geopantanal/pdfs/p63.pdf,
outubro de 2019.
Fenner, William et al. (2014). Análise do balanço hídrico mensal para regiões de transição
de Cerrado-Floresta e Pantanal. In Acta Iguazu, Cascavel, v. 3, n. 1, p.72-85.
http://saber.unioeste.br/index.php/actaiguazu/article/view/9649, outubro de 2019.
Gonzalez, R. C. e Woods, R. C. (2010). Processamento Digital de Imagens, tradução de:
Cristina Yamagami e Leonardo Piamonte, Pearson Prentice Hall, 3. ed.
Kapur, S. (2017). Computer Vision with Python 3, Packt Publishing.
Meneses, P. R.; Almeida, T. (2012). Introdução ao Processamento de Imagens de
Sensoriamento Remoto, UNB.
Muller, A. e Guido, S. (2016). Introduction to Machine Learning With Python, O’Reilly
Media.
Novo, E. M. L. de M. (2010). Sensoriamento Remoto: Princípios e Aplicações, Blucher,
4 ed. ver.
Ojala, T., Pietikäinen, M. e Mäenpää, T. (2002). Multiresolution gray-scale and rotation
invariant texture classification with local binary patterns. In Ieee Transactions On
Pattern Analysis and Machine Intelligence, [s.l.], v. 24, n. 7, p.971-987.
http://www.ee.oulu.fi/mvg/files/pdf/pdf_94.pdf, setembro de 2019.
Pedrini, H. e Schwartz, W. R. (2008). Análise de Imagens Digitais: Princípios,
Algoritmos e Aplicações, Thomson Learning.
Rosa, R. (2013). Introdução ao Geoprocessamento, UFU. 142p.
Solomon, C. e Breckon, T. (2013). Fundamentos de Processamento Digital de Imagens:
uma abordagem prática com exemplos em Matlab, LTC.
United States Geological Survey – USGS (2013). Landsat 8. In Fact Sheet 2013-3060,
Reston - VA, v. [S.I], n. [S.I], p.4. https://pubs.er.usgs.gov/publication/fs20133060,
abril de 2019.
100
Desenvolvimento de Aplicativo Móvel para localização de
Farmácias Populares, em regime de plantão e Pontos de
Distribuição de Remédios de Alto Custo
Vitor R. F. Nunes, Elton R. F. Rezende, Juvenal S. Neto, Dárley D. de Almeida
Departamento de Computação
Universidade do Estado de Mato Grosso (UNEMAT) – Alto Araguaia, MT – Brasil
{ vitor.nunes@unemat.br, eltonricelli@gmail.com,
juvenalneto@unemat.br, darleydalmeida@gmail.com
Abstract. Information Technology has advanced and its study also,
facilitating the population the understanding and the effective use of the
technological tools to optimize the activities and daily necessities. This paper
aims to present the beginning of the development of a mobile application with
project based on hybrid development through the Ionic framework for the
location of Popular Pharmacies, pharmacies on duty and high cost medicine
distribution points. Given the difficulty that people have in locating some
establishments that are in service outside normal working hours, this project
will seek to solve this problem.
Resumo. As Tecnologias da Informação têm avançado e seu estudo também,
facilitando à população a compreensão e o uso eficaz das ferramentas
tecnológicas para otimização das atividades e necessidades cotidianas. Este
trabalho tem como objetivo apresentar o início do desenvolvimento de um
aplicativo móvel com projeto baseado em desenvolvimento híbrido por meio
do framework Ionic para a localização de Farmácias Populares, farmácias
que estejam em regime de plantão e pontos de distribuição de remédio de alto
custo. Tendo em vista a dificuldade que as pessoas têm para localizarem
alguns estabelecimentos que estejam em atendimento fora do horário de
expediente normal, com isso esse projeto buscará solucionar este problema.
1. Introdução
A utilização de dispositivos móveis hoje não é mais vista como uma escolha, e sim uma
necessidade. A cada dia cresce o índice do uso de dispositivos móveis seja para qual for
o tipo de situação. Jovens e adultos passam diariamente a alavancar o índice de uso de
dispositivos móveis tanto para o uso doméstico, acadêmico e até para o seu próprio lazer
(LEE, 2005; TELECO, 2019).
Mesmo em um município de pequeno porte como Alto Araguaia - MT, pode não
ser uma tarefa fácil encontrar Farmácias Populares, farmácias que estejam em regime de
plantão e pontos de distribuição de remédio de alto custo, eventualmente temos que
procurá-la em redes sociais, entrar em contato com conhecidos ou, em última instância,
fazer a busca física visitando os pontos comerciais conhecidos para verificar uma placa
indicativa de qual está de plantão naquele momento. Em geral, há uma escala para indicar
as datas em que determinada farmácia estará de plantão, porém, esse cronograma não é
divulgado à comunidade, gerando o transtorno supracitado na busca dessa simples
101
informação, e a relação de farmácias populares e pontos de distribuição de remédios de
alto custo geralmente ficam disponível na Secretaria de Saúde do município.
Assim, na busca de uma solução para este problema, o objetivo deste trabalho é
apresentar parte do desenvolvimento de um aplicativo para plataformas móveis, cuja
finalidade é reunir informações acerca de Farmácias Populares, farmácias que estejam em
regime de plantão e pontos de distribuição de remédio de alto custo, com informações
seguras e confiáveis, além, de informações como localização e, posteriormente,
promoções e ranking de preços e avaliações de usuários.
2. Desenvolvimento
Nos dias atuais a utilização de smartphones no Brasil vem tendo um grande crescimento
e já se tornou algo rotineiro na vida das pessoas. De acordo com a EBC o Brasil é 5° pais
no ranking de uso diário de celulares no mundo. Os brasileiros passam 3 horas por dia
usando celular, segundo dados de 2018. Outros dados que também foram levantados pela
revista EXAME e que em 2015 o número de smartphones conectados à internet já eram
maiores que o número de computadores, com o total de 306 milhões de dispositivos
conectados, dos quais 154 milhões eram smartphones (EBC, 2018).
O desenvolvimento de softwares para dispositivos móveis se tornou muito
importante no mundo da tecnologia, abrindo portas para o mercado de desenvolvedores
e para muitas empresas que trabalham no ramo de desenvolvimento, levando em conta o
grande crescimento no uso de smartphones no mercado atual. Também é crescente a
busca de aplicações para suprir as necessidades que os usuários tenham.
Várias plataformas de sistemas operacionais (SO) para smartphones estão em uso
pelo mundo, embora neste trabalho citaremos somente as duas mais utilizadas atualmente
(PCWORLD 2013): o SO Android que é o um sistema operacional desenvolvido pela
gigante de tecnologia Google, tem utilização de grande parte do mercado com
aproximadamente 72.35%. O que explica a grande utilização do sistema operacional
Android são os mais variados, utilizado em aparelhos de marcas distintas com vários
recursos aos modelos bem básicos ou até mesmo simples. Já o SO IOS, sistema
desenvolvido pela Apple, tem como característica a utilização exclusiva em produtos
somente de sua própria marca (iPhones, iPods, iPads, entre outros), e, por ser de uso
exclusivo de sua própria fabricante, o iOS é desenvolvido para modelos específicos de
hardware, permitindo assim que suas potencialidades sejam exploradas ao máximo pelos
dispositivos desenvolvidos pela Apple. De janeiro de 2018 a janeiro de 2019 os
dispositivos que usam IOS correspondem a 22,85% do total de dispositivos utilizados.
Existem duas estratégias principais para desenvolvimento de aplicações móveis,
o desenvolvimento nativo e o desenvolvimento hibrido. Aplicações Nativas, são aquelas
cujo desenvolvimento é todo realizado baseando-se no SO em que o aplicativo irá ser
executado, como Andoid ou IOS por exemplo, o que tem potencial de favorecer o
desempenho, a usabilidade e a experiência de usuário, uma vez que pode ser aproveitado
todo o potencial de recursos de hardware e de software nativos dos dispositivos. Sua
principal desvantagem é a necessidade da dependência da linguagem de programação
atrelada ao SO e o desenvolvimento ser todo específico por plataforma
(COMPUTERWORLD, 2018).
Aplicações hibridas são desenvolvidas com uso de frameworks que utilizam
diferentes linguagens de programação. Um aplicativo hibrido tem um custo de
102
desenvolvimento menor que um nativo, pois, seu desenvolvimento é, geralmente, rápido
e um mesmo processo de desenvolvimento pode dar origem a aplicativos para diferentes
plataformas operacionais. Graças aos avanços evolutivos dos frameworks, aplicativos
desenvolvidos com abordagem híbrida tem potencial para apresentarem desempenho e
experiência de usuário (UX) análoga ao de aplicativos desenvolvidos com abordagem
nativa.
Para este projeto foi escolhido framework Ionic, por sua simplicidade, robustez e
pela familiaridade por parte da equipe de desenvolvimento. Esse framework foi criado no
final de 2013 buscando visar a criação de aplicações hibridas mobile. Atualmente
encontra-se na versão 4. (TABLELESS, 2015). Serão exploradas tecnologias presentes e
disponíveis em smarphones como por exemplo o sistema de GPS. Atualmente o projeto
encontra-se na fase de levantamento e análise de requisitos, para posterior modelagem,
desenvolvimento e teste.
3. Considerações Finais
O presente trabalho tem sido desenvolvido em caráter multidisciplinar, no âmbito
das disciplinas de Desenvolvimento de Aplicativos para Dispositivos Móveis e
Engenharia de Software no curso de Bacharelado em Ciência da Computação da
UNEMAT, campus de Alto Araguaia-MT, com objetivo primeiro de consolidar o
conhecimento dessas disciplinas através da combinação da teoria e da prática, e, por
conseguinte, promover um bem social através da disponibilização futura da aplicação
desenvolvida para a comunidade.
Como atividades futuras serão realizadas a modelagem do projeto e sua
implementação, baseando-se nos resultados da análise de requisitos que está em
andamento.
Referências
COMPUTER WORLD. (2018) “Aplicativos híbridos e nativos: entenda as principais
diferenças”. <https://computerworld.com.br/2018/09/28/aplicativos-hibridos-e-
nativos-entenda-as-principais-diferencas/>, Setembro.
EBC. (2019) “Brasil é o 5° país em ranking de uso diário de celulares no mundo”.
<http://agenciabrasil.ebc.com.br/geral/noticia/2019-01/brasil-foi-5o-pais-em-
ranking-de-uso-diario-de-celulares-no-mundo/>, Setembro.
LEE, Valentino et al. (2005) “Aplicações Móveis: arquitetura, projetos e
desenvolvimento”. São Paulo: Pearson.
TABLELESS. (2015) “Introdução ao Ionic Framework”.
<https://tableless.com.br/introducao-ao-ionic-framework/>, Setembro.
TELECO. (2019) “Seção: Telefonia Celular”. <http://www.teleco.com.br/ncel.asp/>,
Setembro.
103
Sistema de Gestão Empresarial desenvolvido como Serviço
Web, com utilização do Método Kanban e Desenvolvimento
Guiado por Testes
Gustavo O. F. Valeiro, Juvenal S. Neto, Dárley D. de Almeida
Departamento de Computação
Universidade do Estado do Mato Grosso (UNEMAT) – Alto Araguaia, MT – Brasil
{gustavovaleiro.cc@gmail.com, juvenalneto@unemat.br,
darleydalmeida@gmail.com
1. Introdução
Na atualidade a nossa sociedade tornou-se completamente dependente da
tecnologia, a computação é usada para aumentar a produtividade em diversas áreas, e isso
trouxe resultados impressionantes. No ambiente corporativo, que por natureza já é
altamente competitivo, não poderia ser diferente, e hoje se tornou comum que empresas
tenham algum sistema informatizado para gerir seus dados e processos. Contudo um tipo
de sistema tem se destacado, o chamado Sistema Integrado de Gestão Empresarial (SIGE)
ou como são mundialmente conhecidos Enterprise Resource Planning (ERP). ERP é um
sistema de informação modular que permite a integração entre os dados de diferentes
áreas de negócio de uma organização (JUNIOR, 2011). Esse tipo de sistema traz diversos
benefícios para as empresas, como a eliminação de redundância, maior integridade para
os dados, aumenta a segurança sobre os processos do negócio, permite a rastreabilidade
de transações, aquisição modular e diversos outros benefícios que aumentam a
produtividade da empresa (JUNIOR, 2011). Apesar de ser comum que empresas de médio
e grande porte usem Sistemas Integrados, apenas 31% das empresas de pequeno porte
utilizam pacotes de software ERP (CGI.br - TIC EMPRESA, 2017). Esse número de
adesão baixo muitas vezes está relacionado com a falta de conhecimento dos
104
empreendedores sobre os benefícios que um software do tipo pode trazer para o seu
negócio, como também, um outro fator muito importante é o custo.
O objetivo deste trabalho é apresentar parte do desenvolvimento de um SIGE, no
âmbito da disciplina de Engenharia de Software, como atividade de Trabalho de
Conclusão de Curso para o curso de Bacharelado em Ciência da Computação da
UNEMAT, Campus de Alto Araguaia-MT. Tal sistema deverá permitir que o pequeno
empreender consiga ter um sistema de gerenciamento sem precisar investir em uma
infraestrutura de TI mais elaborada e ao mesmo tempo consiga acessar as informações de
qualquer lugar, bastando ter um navegador web e conexão com a Internet. O sistema deve
possuir um baixo custo operacional e de desenvolvimento, devendo possuir uma estrutura
de projeto e emprego de técnicas e padrões que permitam reaproveitamento de código e
um rápido desenvolvimento de novas funcionalidades.
2. Metodologias Adotadas
Para conseguir atender ao objetivo geral, é crucial que o sistema ERP funcione
como um serviço Web, seguindo o conceito de SaaS (Software as a Service), que consiste
em transformar o software em um serviço fornecido através de WEB (FABIANO, 2019).
2.1. API REST
O serviço Web será fornecido por uma API (interface de programação de
aplicativos), uma API é uma interface para que sistemas diferentes possam se comunicar
e integrar, sem que se conheça detalhes de suas implementações (FERNANDES, 2019).
O uso de uma WEB API no modelo cliente/servidor, além de outros benefícios, permite
um maior desacoplamento da aplicação, o que permite que uma mesma implementação
no servidor consiga responder a diversos clientes, como uma página Web, um aplicativo
em um dispositivo móvel, e até mesmo um programa executado em um computador
pessoal. A implementação da API seguirá o padrão REST (Transferência de Estado
Representacional), nesta implementação, os dados e funcionalidades são recursos que
podem ser acessados através de um URI (identificador de recurso uniforme) utilizando o
protocolo HTTP (protocolo de transferência baseado em hipertexto) (MATRAKAS, 2016).
2.2. Interface de Interação com Usuário
A interface gráfica para interação com o usuário escolhida é uma página Web,
construída utilizando técnicas de design responsivo, que como diz Zemel (2012): “Web
Design Responsivo é pensar em páginas que se adaptem a todo tipo de dispositivo e
contexto”. O que garantirá que o site poderá ser acessado tanto por computadores pessoais
como por dispositivos móveis, visando reduzir custos para acessar o sistema, já que o
mesmo poderá ser acessado por qualquer dispositivo em qualquer lugar do planeta, desde
que haja suporte a um navegador e acesso à Internet, sem necessidade de fazer instalações
ou configurações locais.
2.3.Técnicas de Desenvolvimento
Para conseguir desenvolver o sistema apresentado e atender aos objetivos de baixo custo
de desenvolvimento, está sendo adotada uma metodologia ágil, para obter um
desenvolvimento incremental, conseguindo organizar o trabalho e garantir uma entrega
contínua de funcionalidades, o método ágil escolhido foi o Kanban (PRESSMAN, 2006;
SOMMERVILLE, 2007). Além disso, pelo menos no lado do servidor, o desenvolvimento
guiado por teste, foi adotado. Ele consiste em escrever testes automatizados para a
105
aplicação antes mesmo de desenvolver uma funcionalidade, garantindo que haja testes,
para conseguir minimizar os erros e detectá-los rapidamente. Foi desenvolvido métodos
reutilizáveis para testes integrados da API. O desenvolvimento também conta com adoção
de frameworks modernos e reaproveitamento de código.
O desenvolvimento de um sistema desse tipo, é divido em duas partes, o servidor,
que consiste na API REST, e a interface de interação, que consiste em uma página WEB.
O servidor encontra-se desenvolvido e testado, contendo módulo pessoal com cadastros
de fornecedores, clientes e funcionários, o modulo de estoque que possui cadastro de
produtos, serviços e movimentações de entrada e saída dos produtos no estoque, e também
um modulo de segurança, que gerencia usuários e as permissões. Já foram realizados o
levantamento de requisitos, a modelagem e desenvolvimento do servidor. Atualmente,
página Web está em fase de modelagem.
3. Considerações Finais
O desenvolvimento de sistemas SIGE a um custo acessível para empresários de
pequeno e médio porte pode contribuir para o melhor desempenho dessas empresas.
Favorecendo igualmente todo o comércio local onde estiverem instaladas. Como citado,
o presente trabalho está sendo realizado no âmbito da disciplina de Engenharia de
Software, como atividade de Trabalho de Conclusão de Curso para o curso de
Bacharelado em Ciência da Computação da UNEMAT, Campus de Alto Araguaia-MT,
com objetivo primeiro de consolidar o conhecimento associado ao desenvolvimento de
sistemas por meio da combinação da teoria e da prática. As próximas etapas de projeto
consistem em finalizar outros módulos, como o comercial, que conterá vendas, ordem de
serviço, avaliação do serviço pelo cliente, e também o modulo financeiro, para
acompanhar as contas que empresa tem a pagar e a receber, e por último o módulo fiscal.
Referências
Junior, C. C.. Sistemas Integrados de Gestão - ERP. 4a, revisa ed. [S.l: s.n.], 2011.
Fabiano, C.. O que é saas. Disponível em: <https://blog.deskmanager.com.br/o-que-e-saas/>.
Acesso em: 6 jun. 2019.
Fernandes, A. O que é uma api entenda de maneira simples. Disponível em:
<https://blog.vertigo.com.br/o-que-e-api-entenda-de-uma-maneira-simples/>. Acesso em: 11 jun.
2019.
Matrakas, M. Web Services REStfull. Disponível em: <https://www.devmedia.com.br/
introducao-a-web-services-restful/37387>. Acesso em: 6 jun. 2019.
Pressman, R. S.. Engenharia de Software. 6a ed., São Paulo, McGraw-Hill, 2006.
Sommerville, I. Engenharia de Software. 8a ed., São Paulo, Addison-Wesley, 2007.
MXM Sistemas. Quanto Custa um ERP? Conheça os 7 principais custos. Disponível em:
<mxm.com.br/blog/quanto-custa-um-erp-conheca-7-principais-custos/>. Acesso em: 28 ago.
2019.
TIC EMPRESA 2017. Versão ver. ed. [S.l.]: COMITÊ GESTOR DA INTERNET NO BRASIL
– CGI.br, 2017.
Zemel, T. Web Design Responsivo. [S.l.]: Casa do Código, 2012. Disponível em:
<https://books.google.com.br/books?hl=pt-BR&lr=&id=82SCCwAAQBAJ&oi=fnd&pg=
PA1&dq=web+responsiva&ots=tlwk3Cu28T&sig=VM6ZfEqItdawZTIt6l_MSqR0_-
w#v=onepage&q=web responsiva&f=false>.
106