Você está na página 1de 123

Anais do 11º

Congresso Acadêmico de
Tecnologia e Informática
(CATI 2019)
Anais do 11º Congresso Acadêmico de Tecnologia e
Informática (CATI 2019)

21 a 25 de outubro de 2019
Curso de Ciência da Computação - FACET
UNEMAT - Barra do Bugres
Anais do 11º Congresso Acadêmico de Tecnologia e
Informática (CATI 2019)

Realização:

Curso de Ciência da Computação / FACET / UNEMAT – Barra do Bugres


Centro Acadêmico de Ciência da Computação (CACC)

Apoio:

Núcleo de Inovação Tecnológica (NIT/UNEMAT)


Programa de Pós-Graduação em Ensino de Ciências e Matemática (PPGECM)
Pró-Reitoria de Extensão e Cultura (PROEC/UNEMAT)
Comunidade de Desenvolvedores de Mato Grosso (DevMT)
Comunidade de Startups de Mato Grosso (StartupMT)
OWASP Cuiabá Chapter
Parque Tecnológico de Mato Grosso
Fundação de Amparo à Pesquisa do Estado de Mato Grosso (FAPEMAT)
Secretaria de Estado de Ciência, Tecnologia e Inovação (SECITEC/MT)
Sociedade Brasileira de Computação (SBC)

ISSN 2448-119X

(Online: http://www.caccunemat.com.br/cati)

21 a 25 de outubro de 2019
Barra do Bugres - MT
© 2019. Curso de Ciência da Computação – UNEMAT – Barra do Bugres e
Centro Acadêmico de Ciência da Computação (CACC).

Os autores são responsáveis pela escolha e a apresentação das informações contidas


nesta publicação, bem como pelas opiniões nela expressas, as quais não são
necessariamente as dos organizadores, da UNEMAT, do CACC e de seus apoiadores,
nem tampouco os comprometem.

Publicação elaborada com fins educativos. ACESSO GRATUITO. Permissão para fazer
cópias impressas ou digitais de todo ou parte desta publicação para uso pessoal ou
acadêmico sem taxas, desde que as cópias não sejam feitas ou distribuídas para renda ou
vantagem comercial e que as cópias contenham referência a esta publicação.
___________________________________________

Editor: Fernando Selleri Silva

Organização: Fernando Selleri Silva, Karan Luciano Silva Di Pernis,


Diógenes Antonio Marques José, Lucas Arruda Ramalho

Projeto Gráfico e Diagramação: Adriano Serafini Garcez e


PEEP (PROEC/UNEMAT)
___________________________________________

Contato

Congresso Acadêmico de Tecnologia e Informática (CATI)


Centro Acadêmico de Ciência da Computação (CACC)
Curso de Ciência da Computação (CCC)
Universidade do Estado de Mato Grosso (UNEMAT)
Campus Universitário Rene Barbour
Rua A, SN, Bairro São Raimundo
78.390-000, Barra do Bugres, MT
Fone/Fax: 65-3361-1413
E-mail: cati@unemat.br
Site: http://caccunemat.com.br/cati
Facebook: http://www.facebook.com/catiunemat
Twitter: http://twitter.com/catiunemat
Anais: http://www.caccunemat.com.br/cati
Governo do Estado de Mato Grosso
Mauro Mendes Ferreira
Governador
Otaviano Olavo Pivetta
Vice-Governador
Nilton Borges Borgato
Secretário de Estado de Ciência, Tecnologia e Inovação
Lecticia Auxiliadora de Figueiredo Oliveira
Superintendente de Desenvolvimento Científico, Tecnológico e de Inovação
Adriano Aparecido Silva
Presidente da Fundação de Amparo à Pesquisa do Estado de Mato Grosso
Flávio Teles Carvalho da Silva
Diretor Técnico-Científico da Fundação de Amparo à Pesquisa de Mato Grosso
Rogerio Alexandre Nunes dos Santos
Gestor do Parque Tecnológico de Mato Grosso

Universidade do Estado de Mato Grosso (UNEMAT)


Rodrigo Bruno Zanin
Reitor
Nilce Maria da Silva
Vice-Reitora
Leonarda Grillo Neves
Pró-Reitora de Extensão e Cultura
Antonia Alves Pereira
Pró-Reitora de Assuntos Estudantis
Alexandre Gonçalves Porto
Pró-Reitor de Ensino de Graduação
Anderson Fernandes de Miranda
Pró-Reitor de Pesquisa e Pós-Graduação
Ricardo Keichi Umetsu
Pró-Reitor de Gestão Financeira
Luiz Fernando Caldeira Ribeiro
Pró-Reitor de Planejamento e Tecnologia da Informação
Tony Hirota Tanaka
Pró-Reitor de Administração
Jussara de Araújo Gonçalves
Diretora do Núcleo de Inovação Tecnológica
Dhyego Silva Domingos Brandão
Diretor de Tecnologia da Informação
Fernando Selleri Silva
Diretor Político-Pedagógico e Financeiro do Campus de Barra do Bugres
Eder Geraldo de Oliveira
Diretor Administrativo do Campus de Barra do Bugres
Anderson Dias Lima
Diretor da Faculdade de Ciências Exatas e Tecnológicas
Alexandre Berndt
Coordenador do Curso de Ciência da Computação
Karan Luciano Silva Di Pernis
Presidente do Centro Acadêmico de Ciência da Computação

Sociedade Brasileira de Computação (SBC)


Raimundo José de Araújo Macêdo
Presidente
Eunice Pereira dos Santos Nunes
Secretária Regional em Mato Grosso
Pedro Clarindo da Silva Neto
Secretário Adjunto Regional em Mato Grosso

Comunidade de Desenvolvedores de Mato Grosso (DevMT)


Alvaro Viebrantz
Organizador do DevMT

Comunidade de Startups de Mato Grosso (StartupMT)


Vitoriano Ferrero Martin Junior
Organizador do StartupMT

OWASP Cuiabá Chapter


Kembolle Amilkar
OWASP Leader
11º Congresso Acadêmico de Tecnologia e Informática (CATI 2019) e
12ª Semana Acadêmica de Computação (SEACOMP 2019)

Coordenação
Karan Luciano Silva Di Pernis
Diógenes Antonio Marques José

Comissão Organizadora do CATI e SEACOMP


Adriana Estéfany Conceição da Silva
Ana Paula Souza Arruda
Bruno de Oliveira Silva
Carlos Daniel Nascimento da Conceição
Fabiano da Silva Oliveira
Fernando Selleri Silva
Gabriel Luiz Nascente Martins da Costa
Gabrielly Héber Azevedo da Cruz
Harley Marques de Brito
Heber Wurmstich Nardes
Isabela Silveira Rocha
Jackson Aparecido Durães Junior
João Vitor dos Santos Gomes
Karoline Silva Ferreira
Lianderson Webert de Morais Lôbo
Luan Kleber Santana Delgado
Lucas Arruda Ramalho
Marlon Rodrigues
Mayk Sandro Costa Santos
Michael Douglas Costa da Silva
Reyllan Raphael dos Santos
Uanderson Coelho Rodrigues
Victor Bitencourt de Oliveira
Vítor Hugo Ritt Zanchin
Welder Ferreira Coutinho

Apoio Técnico e Logístico


Adenir Rodrigues
Adriano Serafini Garcez
Airton José Christ
Carlos Barbosa de Andrade
Djalma Dias Bispo
Frank Willian Rodrigues da Silva
Gabriel Francisco Duarte Simões
Gabrielle Rocha Vunjão
Gleidis Bel Barbosa
João Milani Junior
Luiz Carlos Miranda Cebalho
Marcelo Pereira Justino
Marcos Antonio Guerra
Maria de Lourdes
Mauro Aparecido Ferreira
Monika Alcantara Terluk
Rivelino Fulvio Linhares
Comitê de Programa

Acelmo de Jesus Brito (UNEMAT/Barra do Bugres)


Adriana de Oliveira Dias (UNEMAT/Alto Araguaia)
Alberto César Cavalcanti França (UFRPE/Recife)
Alexandre Berndt (UNEMAT/Barra do Bugres)
Alvaro Fellipe Petry Mendes Viebrantz (DevMT – GDG/Cuiabá)
Ana Paula Carvalho Cavalcanti Furtado (UFRPE/Recife)
Ana Paula Lins Ferreira de Vasconcelos (UNEMAT/Barra do Bugres)
André Luís Sanson Gomes (UNEMAT/Barra do Bugres)
Angela Lima Peres (UNCISAL/Maceió)
Armando da Silva Filho (UNEMAT/Barra do Bugres)
Carlos Alex Juvêncio Gulo (UNEMAT/Alto Araguaia)
Cláudia Landin Negreiros (UNEMAT/Barra do Bugres)
Cristiano Maciel (UFMT/Cuiabá)
Daiany Francisca Lara (UNEMAT/Barra do Bugres)
Daise Lago Pereira Souto (UNEMAT/Barra do Bugres)
Darley Domingos de Almeida (UNEMAT/Alto Araguaia)
Dener Didoné (UNIC/Sorriso)
Diego Piasson (UNEMAT/Barra do Bugres)
Diógenes Antonio Marques José (UNEMAT/Barra do Bugres)
Eduardo Oenning (UNEMAT/Barra do Bugres)
Elyda Laisa Soares Xavier Freitas (UPE/Caruaru)
Everton Ricardo do Nascimento (UNEMAT/Barra do Bugres)
Fabiano Ferreira Luz (USP/São Paulo)
Felipe Santana Furtado Soares (CESAR/Recife)
Fernando Kenji Kamei (IFAL/Maceió)
Fernando Selleri Silva (UNEMAT/Barra do Bugres)
Fernando Yoiti Obana (UNEMAT/Alto Araguaia)
Francisco Airton Pereira Silva (UFPI/Teresina)
Francisco Sanches Banhos Filho (UNEMAT/Sinop)
Ivan Luiz Pires (UNEMAT/Sinop)
Ivanildo Monteiro de Azevedo (UNEMAT/Barra do Bugres)
Jean Caminha (UFMT/Cuiabá)
Jessica Karoline França de Lira (UNEMAT/Barra do Bugres)
José Fernandes Torres da Cunha (UNEMAT/Barra do Bugres)
Josiel Maimone de Figueiredo (UFMT/Cuiabá)
Juliana Maria de Paula (UNEMAT/Barra do Bugres)
Juliana Saragiotto Silva (IFMT/Cuiabá)
Leandro Santos Passos (UNEMAT/Barra do Bugres)
Lenin Ernesto Abadié Otero (Accenture – Fac. Joaquim Nabuco/Recife)
Léo Manoel Lopes da Silva Garcia (UNEMAT/Barra do Bugres)
Lucas Arruda Ramalho (UNEMAT/Barra do Bugres)
Luciano Zamperetti Wolski (UNEMAT/Barra do Bugres)
Maicon Aparecido Sartin (UNEMAT/Sinop)
Marcelo Leandro Holzschuh (UNEMAT/Sinop)
Mauro Francisco dos Santos Junior (UNEMAT/Sinop)
Minéia Cappellari Fagundes (UNEMAT/Barra do Bugres)
Nielsen Cassiano Simões (UFMT/Cuiabá)
Patricia Cristiane de Souza (UFMT/Cuiabá)
Pedro Clarindo da Silva Neto (IFMT/Cuiabá)
Pietro Pereira Pinto (IFPE/Caruaru)
Priscila da Silva Antunes dos Santos (UNEMAT/Barra do Bugres)
Raquel da Silva Vieira Coelho (UNEMAT - FACCAMP/C. L. Paulista)
Rodrigo Fernando Shimazu (UNEMAT/Barra do Bugres)
Rui Ogawa (IFMT/Canarana)
Tales Nereu Bogoni (UNEMAT/Sinop)
Thalita Medeiros Dolce (LR Marketing/Tangará da Serra)
William Vieira Gonçalves (UNEMAT/Barra do Bugres)
Willyan Alves da Silva (UNEMAT/Barra do Bugres)
Normas para Publicação

Datas Importantes

O CATI 2019 foi realizado no período de 21 a 25 de outubro de 2019. O cronograma


incluiu as seguintes datas importantes:
• Submissão de minicursos, artigos completos e resumidos: até 09/10/2019;
• Notificação dos autores: até 14/10/2019;
• Envio da versão final dos artigos aprovados: até 25/10/2019;
• Apresentação dos trabalhos: 24 e 25/10/2019;
• Disponibilização dos anais: a partir de 01/11/2019.

Formato de Submissões e Processo de Avaliação

As submissões ao CATI podem ser por meio de minicursos, artigos completos ou artigos
resumidos, que devem ser submetidos em formato exclusivamente digital (arquivo PDF),
através do sistema JEMS (https://jems.sbc.org.br). Todas as submissões devem
obrigatoriamente seguir o modelo para publicação de artigos da SBC
(http://goo.gl/Q9yglP).

Aspectos a serem observados para artigos:

• Os artigos completos devem ter de 6 (seis) a 8 (oito) páginas incluindo tabelas,


figuras e referências, correspondendo a trabalhos finalizados ou em processo de
finalização, contendo resultados significativos em termos de contribuição para a
pesquisa e/ou prática.
• Os artigos resumidos devem ter de 2 (duas) a 4 (quatro) páginas incluindo tabelas,
figuras e referências, correspondendo a trabalhos em andamento, com resultados
preliminares, ou propostas de pesquisa.
• Os trabalhos submetidos não devem ter sido publicados anteriormente e nem
estarem em processo de avaliação ou edição para publicação em outro local.
• Cada trabalho deve ser submetido para apenas uma modalidade (artigo completo
ou resumido). Os trabalhos submetidos a mais de uma modalidade são rejeitados.
Após a revisão, o Comitê de Programa do CATI pode sugerir a aprovação com
mudança de modalidade.
• É importante que os trabalhos descrevam a motivação (justificativa),
fundamentação teórica (trabalhos relacionados), metodologia empregada e os
resultados obtidos (ou esperados, no caso de artigos resumidos), ressaltando as
contribuições tecnológicas e para a área abordada. Relatos de experiência,
oriundos da prática, também são bem-vindos.
• Com relação ao idioma, os trabalhos devem estar em Português ou Inglês.
• As submissões devem ser finalizadas (com os dados solicitados pelo ambiente de
submissão e o arquivo correspondente devidamente postado segundo as regras
estabelecidas) para serem consideradas.
• No arquivo da submissão, não deve constar nenhum tipo de identificação dos
autores. A seleção dos trabalhos é realizada pela revisão por membros do Comitê
de Programa do CATI. O processo de revisão é conduzido de forma anônima
(blind review) por pelo menos dois revisores, com a arbitragem de um terceiro
revisor em caso de necessidade.
• As submissões são revisadas de acordo com os seguintes critérios: adequação ao
escopo do evento, revisão bibliográfica, metodologia, contribuição para a área de
Tecnologia, Informática e/ou Computação, originalidade e clareza.
• Após notificação aos autores, caso o artigo (completo ou resumido) seja aceito, os
autores deverão adequar seus trabalhos conforme os pareceres dos avaliadores e
efetuar nova submissão (versão final revisada) do trabalho no sistema JEMS.
• Os autores devem incluir na versão final revisada seus dados (nomes, filiações e
e-mails, bem como outras informações necessárias ao artigo, como citações a
outros trabalhos dos autores).
• Ao encaminhar a versão final revisada, os autores concordam em ceder ao evento
os direitos de publicação. Da mesma forma, os autores assumem que os textos
submetidos à publicação nos Anais do evento são de sua criação original,
responsabilizando-se inteiramente por seu conteúdo em caso de eventual
impugnação por parte de terceiros.
• Os artigos que forem aprovados são publicados nos anais do CATI, em formato
digital. Para tal, ao menos um autor de cada trabalho aprovado deve efetivar sua
inscrição no evento.
• No decorrer do evento, os artigos completos aprovados são apresentados em
sessões técnicas, com duração de 20min para cada trabalho, e os artigos resumidos
são apresentados em formato de pôster no tamanho A1. As datas e horários das
apresentações serão divulgados na programação do evento.
• As submissões ao CATI implicam por parte dos autores na aceitação das normas
contidas nesta chamada, bem como na observação das normas sobre direitos
autorais. No caso de autoria conjunta, o responsável pela submissão deve ter
autorização dos demais coautores.
• Outras informações podem ser obtidas via e-mail cati@unemat.br.

Aspectos a serem observados para minicursos:

• Os minicursos necessitam ter apenas o resumo submetido inicialmente, via


sistema JEMS, para serem analisados pelo Comitê de Programa.
• É importante que o resumo do minicurso contemple as seguintes informações:
natureza do minicurso; carga horária; público-alvo; pré-requisitos (se houver);
justificativa do minicurso para atrair a atenção do público alvo; conteúdo
abordado; e recursos materiais necessários para a realização.
• Os minicursos deverão ter carga horária de 4 horas e podem ser teóricos ou
práticos, com o desenvolvimento em laboratório de informática.
• Os minicursos aceitos devem ser descritos em forma de artigo, conforme template
da SBC, respeitando o limite entre 6 e 15 páginas incluindo tabelas, figuras e
referências, com envio do arquivo fonte (.doc ou .odt) em complemento aos dados
inicialmente cadastrados no sistema JEMS.
• Ao menos um dos autores deve ter o compromisso de apresentação do minicurso
conforme a programação do evento, que irá isentar a inscrição de até dois
apresentadores por minicurso.
• Os minicursos serão publicados nos Anais do CATI em uma seção específica.

Tópicos de Interesse

Os principais tópicos que norteiam as submissões ao CATI estão sintetizados da seguinte


forma, não se restringindo a eles:

• Algoritmos e Otimização;
• Aplicações Móveis;
• Aplicações para o Agronegócio;
• Arquitetura de Computadores;
• Avaliação de Desempenho;
• Banco de Dados;
• Big Data e Análise de Dados;
• Bioinformática;
• Computação Aplicada à Saúde;
• Computação Gráfica e Processamento de Imagens;
• Computação Ubíqua e Pervasiva;
• Design Thinking;
• Engenharia de Software;
• Geoprocessamento;
• Gestão do Conhecimento;
• Governança e Empreendedorismo;
• Informática na Educação;
• Inteligência Computacional;
• Interação Humano-Computador;
• Internet das Coisas (Internet of Things - IoT);
• Jogos e Entretenimento Digital;
• Linguagens de Programação;
• Matemática e Física Computacional;
• Realidade Virtual e Realidade Aumentada;
• Redes de Computadores e Sistemas Distribuídos;
• Redes Sociais;
• Robótica e Sistemas Digitais;
• Segurança da Informação;
• Sistemas de Autoria;
• Sistemas de Informação;
• Sistemas Embarcados;
• Sistemas Multimídia e Web;
• Tecnologias Assistivas;
• Telecomunicações.
Apresentação

O Congresso Acadêmico de Tecnologia e Informática (CATI) é um dos principais


congressos de Tecnologia da Informação (TI) no Estado de Mato Grosso. O evento reúne
estudantes, professores, pesquisadores e outros profissionais na discussão de temas da
área de TI e Ciência da Computação, fomentando a Ciência, Tecnologia e Inovação, por
meio de palestras, mesas redondas, sessões de apresentações de trabalhos, minicursos,
maratonas de programação, maratonas de jogos (e-sports), relatos de experiência e
apresentações culturais.
O 11º Congresso Acadêmico de Tecnologia e Informática (CATI 2019) foi
realizado pelo Centro Acadêmico de Ciência da Computação (CACC) e o Curso de
Ciência da Computação, da Faculdade de Ciências Exatas e Tecnológicas (FACET),
Universidade do Estado de Mato Grosso (UNEMAT), Campus Universitário Rene
Barbour, no período de 21 a 25 de outubro de 2019, em Barra do Bugres/MT. A temática
central do evento foi “Redes de Computadores, Cyber Segurança e Forense
Computacional”. Esta edição, em especial, também incluiu a realização em conjunto da
12ª Semana Acadêmica da Computação (SEACOMP 2019).
O evento recebeu congressistas que atuam em instituições locais e de outros
estados como Polícia Federal (Campo Grande/MS), 4Linux (Palmas/TO), OWASP
Cuiabá Chapter (Cuiabá/MT), TDS Informática (Cuiabá/MT), Casa Civil do Estado de
Mato Grosso (Cuiabá/MT), Fundação de Amparo à Pesquisa do Estado de Mato Grosso
– FAPEMAT (Cuiabá/MT), Universidade Federal de Mato Grosso – UFMT (Cuiabá/MT)
e Instituto Federal de Mato Grosso – IFMT (Cuiabá/MT).
Os participantes vieram de Alto Araguaia, Arenápolis, Barra do Bugres, Barra do
Garças, Cáceres, Colíder, Cuiabá, Denise, Diamantino, Nortelândia, Nova Olímpia,
Pontes e Lacerda, Porto Estrela, Sinop, Tangará da Serra e Guarulhos/SP, totalizando um
público de aproximadamente 300 pessoas. Houve a participação de estudantes dos cursos
de Bacharelado em Ciência da Computação, Bacharelado em Sistemas de Informação e
de Ensino Médio – Técnico em Informática. Também participaram estudantes de
Mestrado do Programa de Pós-Graduação em Ensino de Ciências e Matemática
(PPGECM) de Barra do Bugres.
Os Anais do CATI 2019, disponíveis na presente publicação, contêm 20 trabalhos,
sendo 8 Artigos Completos e 12 Artigos Resumidos. Os trabalhos foram avaliados pelo
Comitê de Programa, que contou com a composição de membros das instituições
Accenture, CESAR, DevMT, FACCAMP, IFAL, IFMT, IFPE, UÉBI Digital, UFMT,
UFPI, UFRPE, UNCISAL, UNEMAT, UNIC, UPE e USP. O processo de revisão foi
conduzido em pares e de forma anônima, buscando atribuir, para cada submissão, um
avaliador interno (UNEMAT) e um avaliador externo (outra instituição). Em caso de
necessidade, um terceiro avaliador foi atribuído.
Os trabalhos aprovados foram apresentados durante o evento por meio de Sessões
Orais ou Sessão de Poster, momento em que houve interação com os participantes por
meio de perguntas e respostas. Ao todo os trabalhos aprovados envolveram instituições,
localizadas nos seguintes locais: Alto Araguaia/MT, Barra do Bugres/MT, Barra do
Garças/MT, Cáceres/MT, Guarulhos/SP, Santa Rita do Sapucaí/MG e Tangará da
Serra/MT. Diferentes tópicos são abordados pelos trabalhos, entre eles: Segurança da
Informação; Internet das Coisas; Aplicações Móveis; Aplicações para o Agronegócio;
Redes de Computadores e Sistemas Distribuídos; Big Data e Análise de Dados;
Algoritmos e Otimização; Engenharia de Software; Inteligência Computacional; Jogos e
Entretenimento Digital; Sistemas Embarcados; Robótica e Sistemas Digitais; e
Informática na Educação.
O CATI 2019 e a SEACOMP 2019 contaram com o apoio do Núcleo de Inovação
Tecnológica (NIT/UNEMAT), Programa de Pós-Graduação em Ensino de Ciências e
Matemática (PPGECM), Pró-Reitoria de Extensão e Cultura (PROEC/UNEMAT),
Comunidade de Desenvolvedores de Mato Grosso (DevMT), Comunidade de Startups de
Mato Grosso (StartupMT), OWASP Cuiabá Chapter, Parque Tecnológico de Mato
Grosso, Fundação de Amparo à Pesquisa do Estado de Mato Grosso (FAPEMAT),
Secretaria de Estado de Ciência, Tecnologia e Inovação (SECITEC/MT) e Sociedade
Brasileira de Computação (SBC). E com o patrocínio de Zeus Sistemas de Segurança,
RV NET, CNA Inglês Definitivo, Regional Supermercado, Barbearia Barba Feita, TDS
Cursos, Viva Cell, Top Burguer, Dr. Paulo Renato, Fofokas Lanche, Blog Diolinux,
Terminal Root, Delta Fix, Hipermercado Hiperpão, Restaurante Anita, Restaurante
Kaique, Academia Corpo Imagem, Connect Informática, entre outros. Registramos os
agradecimentos aos apoiadores, patrocinadores, estudantes, professores e outros
profissionais que estiveram envolvidos na realização do evento. A todos os participantes
também o nosso muito obrigado!
Esperamos que os leitores apreciem o conteúdo dos trabalhos aqui publicados e
que estes trabalhos possam contribuir com o desenvolvimento e avanço de ações na área
de Ciência da Computação e de Tecnologia da Informação (TI). Boa leitura!

Organização do CATI / SEACOMP 2019


Sumário

Artigos Completos

ArchScan: uma Proposta de Port Scan TCP/UDP ..................................................... 1


Karan Luciano Silva, Douglas Teles de Oliveira e
Diógenes Antonio Marques José (UNEMAT/Barra do Bugres)

O Impacto da Anti-Forense na Investigação Digital, um Estudo de Caso ................. 9


Marcos Lucas Pereira e Diógenes Antônio Marques José
(UNEMAT/Barra do Bugres)

Aplicação de um Método para Promoção da Interação no Ensino de algoritmos ..... 17


Rui Ogawa (IFMT/Barra do Garças)

Ensino de Algoritmos: Dificuldades, Ferramentas de Auxílio e Proposta de uma


Nova Abordagem – o Design Thinking ..................................................................... 25
Carlinho V. de Sousa, Dárley D. de Almeida e André F. Pereira
(UNEMAT/Alto Araguaia)

Características Multimodais de um Guia Desenvolvido para a Produção de


Cartoons: uma Análise Parcial ................................................................................... 33
Izamara Cirqueira Bini e Daise Lago Pereira Souto (UNEMAT/Barra do Bugres)

Descoberta do Perfil de Evasão dos Alunos de Graduação de uma Universidade


Pública Aplicando Técnica de Mineração de Dados Educacionais ........................... 40
Felipe Dias da Silveira e Reinaldo Lourenso (IFSP/Guarulhos)

Uma Abordagem sobre Internet of Things na Região Urbana do Município de


Tangará da Serra - MT ............................................................................................... 48
Lauren A. Sznitowski, Davi Gabriel L. Silva, Ricardo M. S. Cardoso e
Wilian G. Fiirst (IFMT/Tangará da Serra)

Implementação do Método do Ponto Material para Simulação de Viscoelasticidade


Utilizando Partícula Afim em Célula ......................................................................... 55
Danilo P. Ferreira, Heitor T. L. de Paula e Marcelo V. C. Aragão
(INATEL/Santa Rita do Sapucaí)

Artigos Resumidos

Open Door uma Proposta de Distribuição Linux (From Beginners to Pentesters) .... 61
Karan Luciano Silva di Pernis e Diógenes Antonio Marques José
(UNEMAT/Barra do Bugres)
Teste de Intrusão: um Estudo de Caso Aplicado ao PFSense .................................... 65
Leonardo de Santana Nascimento e Diógenes Antônio Marques José
(UNEMAT/Barra do Bugres)

A Influência dos Jogos Digitais no Tratamento e na Melhoria da Qualidade de


Vida de Pacientes Diagnosticados com TDAH .......................................................... 69
Roniere S. Carvalho, Potira M. Morais, Rebeca C. Moreira e
Lívia C. S. S. Carvalho (UNEMAT/Cáceres)

Website e Vlogs Matemáticos: uma Proposta de Pesquisa ........................................ 73


Isabela Silveira Rocha e Daise Lago Pereira Souto (UNEMAT/Barra do Bugres)

Automatização da Solução do Jogo ‘Resta Um’ com Uso de Braço Robótico


Controlado por Arduino ............................................................................................. 77
Diego P. de Amorim, André F. Pereira, Wesley B. Thereza e Dárley D. de Almeida
(UNEMAT/Alto Araguaia)

Proposta de Sistema de Rastreabilidade nos Laticínios ............................................. 81


Jonas N. Veda e Diógenes A. M. José (UNEMAT/Barra do Bugres)

Proposta de Aplicação para Obtenção da Reputação de Marca ou Produto


utilizando o Twitter como Fonte de Análise .............................................................. 85
Wanderson S. Araújo, Diógenes Antônio M. José e Raquel da Silva V. Coelho
(UNEMAT/Barra do Bugres)

Aprendizado de Máquina Aplicado para Previsão e Classificação de Resultados


do Cartola FC ............................................................................................................. 89
Jefferson Maciel de Sales Bispo, Leo Manoel Lopes da Silva Garcia e
Raquel da Silva Vieira Coelho (UNEMAT/Barra do Bugres)

Proposta de Gerenciamento de Dados Meteorológicos para Uso de Energia Solar


Off-Grid com Software Assistente em Python e IoT ................................................. 93
Érico Piantkoski e Diógenes Antonio Marques José (UNEMAT/Barra do Bugres)

Proposta de Análise do Uso de Filtros em Imagens Landsat-8 na Classificação


de Uso e Cobertura da Terra ....................................................................................... 97
Gustavo A. Silva e Leo M. L. da S. Garcia (UNEMAT/Barra do Bugres)

Desenvolvimento de Aplicativo Móvel para Localização de Farmácias Populares,


em Regime de Plantão e Pontos de Distribuição de Remédios de Alto Custo ........... 101
Vitor R. F. Nunes, Elton R. F. Rezende, Juvenal S. Neto e Dárley D. de Almeida
(UNEMAT/Alto Araguaia)

Sistema de Gestão Empresarial Desenvolvido como Serviço Web, com Utilização


do Método Kanban e Desenvolvimento Guiado por Testes ....................................... 104
Gustavo O. F. Valeiro, Juvenal S. Neto e Dárley D. de Almeida
(UNEMAT/Alto Araguaia)
ArchScan: Uma Proposta de Port Scan TCP/UDP
Karan Luciano Silva1 , Douglas Teles de Oliveira1
Diógenes Antonio Marques José1
1
Faculdade de Ciências Exatas e Tecnológicas (FACET)
Universidade do Estado de Mato Grosso (UNEMAT)
Caixa Postal 92 – CEP 78390-000 – Barra do Bugres, MT – Brazil
{karanluciano1, douglastelesoliveira}@gmail.com, dioxfile@unemat.br

Abstract. The Port Scans are programs that aim to identify which computers/services are active and
thereby exploit their vulnerabilities. As a result, crackers uses these applications to hack computational
systems. Besides that, these programs can be used to perform pentests and therefore help network admi-
nistrators to strengthen the security of their services available on the network. Thus, the purpose of this
article is to develop software capable of scanning TCP/UDP ports. The application, ArchScan (GitHub),
was developed in Python and evaluated on a testbed. The evaluation took into account the following cha-
racteristics regarding the state of the ports: closed, open and filtered, and as a reference parameter Nmap
was used. The results showed that ArchScan detects closed, open and filtered TCP/UDP ports. Also, in
some cases, ArchScan scans were faster than Nmap scans.

Resumo. Port Scans são programas cujo objetivo é identificar quais computadores/serviços estão ati-
vos e, dessa forma, explorar suas vulnerabilidades. Muitos Crackers utilizam estas aplicações para invadir
sistemas computacionais. Todavia, este tipo de programa pode ser usado para realizar pentests e, portanto,
ajudar administradores de redes a reforçar a segurança dos serviços disponibilizados na rede. Assim, o
objetivo deste artigo é desenvolver um software capaz de escanear portas TCP/UDP. O aplicativo, ArchS-
can (GitHub), foi desenvolvido em Python e avaliado em um testbed. A avaliação levou em consideração
as seguintes caracterı́sticas, no que se refere ao estado das portas: fechadas, abertas e filtradas. Como
parâmetro de referência foi utilizado o Nmap. Os resultados mostraram que o ArchScan detecta por-
tas TCP/UDP fechadas, abertas e filtradas. Além disso, em alguns casos, as varreduras realizadas pelo
ArchScan foram mais rápidas que as do Nmap.

1. Introdução
Port Scan é um processo de varredura de portas de serviços de redes ativos, que usa os
principais protocolos da camada de transporte Transmission Control Protocol (TCP) e
User Datagram Protocol (UDP). Segundo o Centro de Estudos, Respostas e Tratamento
de Incidentes de Segurança no Brasil (CERT) [1], os Port Scans são notificações de var-
reduras em redes de computadores, com o intuito de identificar quais computadores estão
ativos e quais serviços estão sendo disponibilizados por eles. Este tipo de software é am-
plamente utilizado por atacantes para identificar potenciais alvos, pois permite associar
possı́veis vulnerabilidades dos serviços habilitados em um computador. Estes serviços
de redes são disponibilizados pelas aplicações através de sockets, o socket é um conceito
de programação de redes (API) desenvolvido em 1983 pela universidade de Berkeley
e ele possibilita que aplicações se comuniquem com a rede através da tupla ((’IP’,
Porta)) (ex., ((’192.168.118.2’, 80))). Muitos serviços (ex., portas) conhecidos
são: HTTP 80, HTTPS 443, DNS 53, SSH 22, Telnet 23, FTP 21, DHCP 67, DHCPv6
547, etc1 .
A principal motivação para o desenvolvimento deste trabalho consiste no fato de
que a maioria dos incidentes de segurança reportados pelo CERT, entre janeiro e dezem-
bro de 2018 eram Port Scan (ex., mais de 57% deles), em função desta técnica ser um
1 Para maiores detalhes sobre serviços consulte o arquivo /etc/services em sistemas Linux.

1
prelúdio dos ataques virtuais [1]. Há na literatura muitas ferramentas capazes de realizar
o Port Scan, por exemplo, Nmap/Zenmap, knocker 2 , Nast 3 , entre outros. Todavia, para
testar falhas especı́ficas em serviços de redes e, ao mesmo tempo, evitar os módulos de
detecção de Port Scan de alguns Firewalls, por exemplo, PFsense, é necessário desen-
volver Port Scans especı́ficos. Portanto, o propósito deste trabalho foi desenvolver um
software capaz de escanear portas abertas e fechadas na rede. O aplicativo foi desen-
volvido em Python e avaliado em um testbed. Os resultados mostraram que a aplicação
consegue detectar serviços TCP e UDP abertos à conexão com precisão e confiabilidade
em plataformas Linux/Windows.
O restante deste trabalho foi organizado como segue: a Seção 2 apresenta os tra-
balhos relacionados; a Seção 3 descreve, em detalhes, a proposta de Port Scan e a meto-
dologia; na Seção 4 são apresentados os resultados e discussão; e finalmente na Seção 5
são apresentadas a conclusão e as possibilidades de trabalhos futuros.

2. Trabalhos Relacionados
Nesta seção são apresentados alguns programas que abrangem o tema Port Scan. Tais
softwares são de suma importância na área cientı́fica e computacional em geral, e servem
para exemplificar as funcionalidades do Port Scan.
* Nmap4 : segundo Gordon Lyon 5 , o Nmap é um utilitário de código aberto (licen-
ciado) gratuito para descoberta de rede e auditoria de segurança. O Nmap foi planejado
para varrer grandes redes, mas opera bem em hosts únicos. Além disso, o mesmo foi
nomeado Produto de Segurança do Ano pelo Linux Journal, Info World, LinuxQuesti-
ons.Org e Codetalker Digest. Ele foi apresentado em doze filmes, incluindo The Matrix
Reloaded, Die Hard 4 , Girl With the Dragon Tattoo e The Bourne Ultimatum.
* Pscan: é um escaneador de portas TCP com funcionalidade parecida à do Nmap,
ele, também, é capaz de descobrir o endereço MAC do destino e o Sistema Operacio-
nal. Dentre várias caracterı́sticas, o Pscan é desenvolvido pelo grupo hacker Blue Collar
Union e foi projetado inicialmente para Windows. Porém uma versão beta para Linux
pode ser baixada no site da SourceForge sob a licença GPLv2 [2].
* Wireshark: é o analisador de protocolo de rede mais utilizado no mundo. Ele
permite ver o que está acontecendo na rede em um nı́vel microscópico e é o padrão de fato
(e muitas vezes de jure) em muitas empresas comerciais e sem fins lucrativos, agências
governamentais e instituições educacionais [3]. Portanto, o Wireshark é uma das ferra-
mentas mais completas para captura e análise de tráfego de rede.

3. Descrição da Proposta
3.1. Materiais e Métodos
As técnicas de pesquisas utilizadas neste trabalho foram a revisão bibliográfica e a pes-
quisa experimental, que tiveram como base referenciais teóricos que tratam de sockets
[4]. Assim, para o desenvolvimento do aplicativo e execução dos testes, a metodolo-
gia foi dada por: Softwares Utilizados: Linguagem de programação Python2.7, Nmap,
2 http://knocker.sourceforge.net/about.php.
3 https://www.berlios.de/software/nast/.
4O Nmap, também, possui uma GUI chamada Zenmap.
5 http://nmap.org.

2
Wireshark, Sistema Operacional Arch Linux x86 64/Ubuntu 18.04 LTS x86 64 e Socket
TCP/UDP; Hardware para desenvolvimento: Intel i7 Q 740 (8) @ 1.734GHz, Ge-
Force GT 425M, RAM 8GB DDR3 e SSD 128GB + HD 500GB; e Testes: rede local com
dois computadores (cliente/servidor) que foi configurada como classe C 192.168.0.0/24,
e para comparar os resultados foram utilizados os softwares Nmap/Wireshark.
O aplicativo foi desenvolvido na linguagem Python usando sockets variados, com
e sem conexão. Sua arquitetura é composta de uma classe ICMP e treze funções, dentre
elas a tcp scan() (Figura 1(a)) e udp scan() (Figura 1(b)) que são as duas principais, já que
são as responsáveis por usar os sockets: SOCK STREAM(TCP), SOCK DGRAM(UDP).
Além disso, a aplicação faz uso de várias bibliotecas, por exemplo, socket e Tkinter. A
biblioteca Tkinter foi usada para desenvolver a GUI do sistema. A função tcp scan() é

(a) Algoritmo TCP Socket. (b) Algoritmo UDP Socket.

Figura 1. Algoritmos dos Códigos de Sockets TCP/UDP.

a responsável por varrer as portas TCP na rede, ela usa o AF INET, que vai usar o IP
do alvo a ser escaneado. Também usa o socket SOCK STREAM (de fluxo), este por sua
vez faz a conexão entre as entidades cliente-servidor, e usa o socket SOL SOCKET com
a opção SO LINGER que quando ativo, caso ocorra um fechamento ou desligamento da
conexão, não retornará erro até que todas as mensagens enfileiradas para o socket sejam
enviadas com sucesso ou atinja o timeout.

3.2. Scan com a Porta Aberta (TCP)


O Scan TCP procurará por portas TCP (ex., 22, 21, 23, 445) e verificará se a porta de
escuta está aberta através do 3-handshake entre a porta de origem e de destino. Assim,
se a fonte enviar um pacote com o flag SYN ativo, então a porta de destino deve retornar
um pacote com os flags SYN+ACK ativos. Se isso acontecer então o serviço está aberto.
Além disso, a origem enviará mais dois pacotes um com ACK ativo e outro com os flags
RST+ACK [5], conforme Figura 2(a). Por exemplo, executando a nossa proposta e anali-
sando o resultado com Wireshark é possı́vel observar a troca de mensagens, entre fonte e
destino, na porta TCP 22 (SSH), conforme supramencionado (Figuras 2(b) e 2(c)).

3.3. Scan com a Porta Fechada (TCP)


Com relação às mensagens TCP, quando a porta está fechada, as Figuras 3(a), 3(b) e 3(c)
apresentam os flags do 3-handshake, com o uso do Port Scan proposto e Wireshark, neste
caso para a porta TCP 23 (Telnet). Por exemplo, na Figura 3(a), a fonte envia um pacote
SYN e o destino retorna os flags RST+ACK.

3
(a) Scan TCP Open (b) Resultado da pesquisa na porta 22
TCP aberta

(c) Resultado Wireshark na porta 22 TCP aberta

Figura 2. Scan TCP para portas abertas.

(a) Scan TCP Closed (b) Resultado da pesquisa na porta 23


TCP fechada, usando o Port Scan pro-
posto.

(c) Resultado das mensagens de controle TCP mostrados pelo Wireshark na porta 23 fechada.

Figura 3. Scan TCP para portas fechadas.

3.4. Scan com a Porta Aberta (UDP)


O protocolo UDP possibilita às aplicações acesso direto ao serviço de entrega de da-
tagramas, como o serviço de entrega que o IP faz. Este protocolo é pouco confiável,
sendo um protocolo não orientado à conexão. Não existem técnicas, sem a intervenção
da programação6 , neste protocolo para confirmar se os dados chegaram ao destino corre-
tamente. O UDP, assim como o TCP usa número de porta de origem e de destino de 16
bits (ex., 0-65535). A varredura UDP também é possı́vel, embora haja desafios técnicos,
pois não há equivalente a um pacote TCP SYN nele. No entanto, se um pacote UDP for
enviado para uma porta que não esteja aberta, o sistema responderá com uma mensagem
inacessı́vel da porta ICMP. A maioria dos scanners de porta UDP usa esse método de
6 Em implementações de sockets C++ é possı́vel ativar a confirmação de pacotes no UDP por meio do flag MSG CONFIRM da

função sendto(). Fonte: https://linux.die.net/man/2/sendto

4
varredura que usa a ausência de uma resposta para inferir se uma porta está aberta. To-
davia, se uma porta for bloqueada por um Firewall, esse método informará falsamente
que a porta está aberta. Assim, se a mensagem de porta inacessı́vel estiver bloqueada,
todas as portas aparecerão abertas [6]. A Figura 1(b) apresenta o funcionamento do Port
Scan proposto com o protocolo UDP. Todavia, a varredura UDP funciona enviando um
pacote UDP para cada porta de destino, para algumas portas comuns, como 53 e 161,
uma carga útil especı́fica do protocolo é enviada para aumentar a taxa de resposta, um
serviço responderá com um pacote UDP, provando que está aberto. Se nenhuma resposta
for recebida após as retransmissões, a porta será classificada como aberta—filtrada. Isso
significa que a porta pode estar aberta ou talvez os filtros de pacotes estejam bloqueando
a comunicação [5], conforme Figura 4(a). Por exemplo, a Figura 4(c) mostra a máquina
fonte (192.168.0.98) enviando à máquina destino (192.168.0.7) um pacote UDP na porta
140, com Len de 8 Bytes ”ArchScan”. Assim, a máquina destino retorna outro pacote com
Len de 63 Bytes, isso significa que a porta está aberta. As Figuras 4(b) e 4(c) mostram
a varredura em uma porta UDP 140, varredura feita pelo Port Scan proposto e verificada
pelo Wireshark. A porta UDP usada (ex., 140) não é uma porta de serviços conhecida,
portanto, para testá-la foi usado um socket server programado em C++, conforme Fi-
gura 4(d).

(a) Scan UDP Open (b) Resultado da pesquisa na porta 140


UDP aberta.

(c) Resultado Wireshark na porta 140 UDP (d) Socket Servidor UDP
aberta.

Figura 4. UDP Scan para portas abertas.

3.5. Scan com a Porta Fechada (UDP)


O próximo passo consiste em testar uma porta UDP fechada. Assim, a mesma técnica
empregada com a porta UDP 140 é utilizada na porta 141 (Figuras 5(a), 5(b) e 5(c)).
Agora, como mostra a Figura 5(c), é enviado o mesmo tipo de pacote, porém, na
porta 141, que está fechada. Quando a porta está fechada é recebido pela origem uma res-
posta Internet Control Message Protocol (ICMP). Esse tipo de mensagem é, geralmente,
enviada quando um pacote IP não consegue chegar ao seu destino ou quando o gateway

5
(a) Scan UDP Closed (b) Resultado da pesquisa na porta 141
UDP fechada.

(c) Resultado Wireshark na porta 141 UDP fechada.

Figura 5. UDP Scan para portas fechadas.

não consegue retransmitir os pacotes na frequência adequada. Portanto, este pacote ICMP
indica que a porta 141 está fechada.

4. Resultados e Discussão
Para propósitos de simplificação, é apresentada a varredura apenas no nó 192.168.0.7.
Neste contexto, o primeiro passo constituiu em executar o aplicativo, para isso foi ne-
cessário a instalação do Python2.7 e a execução do aplicativo como root. Além disso,
serviços de redes podem retornar à varredura três resultados (default): Aberto: significa
que uma aplicação está ativamente aceitando conexões TCP ou pacotes UDP nesta porta.
Encontrar esse estado é frequentemente o objetivo principal de um escaneamento de por-
tas; Fechado: a porta está acessı́vel, mas não há nenhuma aplicação ouvindo nela. Este
estado pode ser útil para mostrar que um host está ativo em um determinado endereço IP
(descoberta de hosts, ou scan usando ping) e como parte de uma detecção de SO. Pelo
fato de portas fechadas serem alcançáveis, pode valer a pena escanear mais tarde no caso
de alguma delas abrir; e Filtrado: não consegue determinar se a porta está aberta por-
que uma filtragem de pacotes impede que as sondagens alcancem a porta. A filtragem
poderia ser de um dispositivo Firewall dedicado, regras de roteador, ou um software de
Firewall baseado em host. Essas portas frustram os atacantes, pois elas fornecem poucas
informações. Assim, foi observado, com a primeira varredura TCP (ex., IP: 192.167.0.7
e portas 22, 139, 145), que o software acertou com precisão as portas escaneadas na rede,
levando em consideração o Nmap como ferramenta de precisão (Figuras 6(a), 6(b), 6(c)
e 6(d)). Quanto ao tempo de execução o software desenvolvido neste artigo, ArchScan,
obteve um resultado melhor do que o esperado, superando o tempo de scan do próprio
Nmap, por exemplo, o ArchScan executa a varredura na porta 22 em 1s (Figura 6(a))
enquanto que o Nmap faz a mesma tarefa em 13.43s (Figura 6(b)).
Embora o Nmap tente produzir resultados precisos, todas as deduções são basea-
das em pacotes devolvidos pelas máquinas-alvo ou Firewalls, que tem por objetivo aplicar

6
uma polı́tica de segurança a um determinado ponto da rede. O Firewall pode ser do tipo
filtro de pacotes ou proxy de aplicações. Tais hosts podem ser não confiáveis e enviar res-
postas com o propósito de confundir ou enganar os Port Scan’s. Quanto ao scan de todas
as portas TCP na rede, o ArchScan obteve um resultado de tempo aceitável se comparado
ao Nmap, 26s, Figura 6(c). Já o Nmap fez a mesma tarefa em 20.58s, Figura 6(d). Já,
com relação às portas UDP, foram realizados scan’s na faixa de portas 100-200. Neste
contexto, o ArchScan levou 5.031s e apresentou a porta 140 aberta (Figuras 7(a) e 7(b)).
Já o Nmap, na mesma tarefa, gastou 2.65s (Figura 7(c)).

(a) ArchScan porta TCP 22 (b) Resultado do Nmap, porta 22 TCP.

(c) Resultado do ArchScan, portas 0-65024 TCP (d) Resultado do Nmap, portas 0-65024 TCP.

Figura 6. Comparação Scan TCP em faixa de portas 0-65024, ArchScan/Nmap.

(a) Resultado do ArchScan, portas 100- (b) Tempo de execução do ArchScan, portas 100-200
200 UDP. UDP.

(c) Resultado do Nmap, portas 100-200 TCP.

Figura 7. Comparação Scan UDP ArchScan/Nmap.

Conforme demonstrado, o ArchScan consegue realizar as mesmas funções básicas

7
do Nmap (scan TPC/UDP). Em alguns casos especı́ficos o ArchScan supera o Nmap em
velocidade de execução.

5. Conclusão
Este trabalho apresentou um aplicativo, Port Scan, baseado no conceito de sockets e de-
nominado ArchScan. Para avaliar a proposta foi utilizado o Port Scan Nmap, que serviu
como ferramenta de comparação de varredura de portas permitindo, dessa forma, verifi-
car a eficiência do ArchScan. O aplicativo proposto foi avaliado em um testbed com dois
computadores e detectou com sucesso portas TCP/UDP abertas e fechadas. Além disso,
o ArchScan, em algumas situações, conseguiu examinar uma faixa de portas mais rápido
que o Nmap que é uma ferramenta de análise de redes consolidada.
Entre as principais contribuições deste trabalho está o fato do ArchScan ser to-
talmente desenvolvido utilizando Software Livre. Além disso, o desenvolvimento do
mesmo permitiu a execução de uma atividade prática e de laboratório como um exercı́cio
didático da disciplina de sistemas distribuı́dos. Como trabalhos futuros, pode-se melhorar
a eficiência do ArchScan na velocidade [7] dos scans, e também aplicar técnicas de envio
de pacotes como TCP NULL SCAN 7 e TCP FIN SCAN 8

Referências
[1] CERT.br, “Incidentes reportados ao cert.br, janeiro a dezembro de 2018.” Disponı́vel
em: https://www.cert.br/stats/incidentes/2018-jan-dec/
tipos-ataque.html, September 2019. Acessado em Setembro de 2019.
[2] V. Vieira, “Pscan: Uma alternativa ao nmap..” Disponı́vel em: https://sejalivre.
org/pscan-uma-alternativa-ao-nmap/, July 2011. Acessado em Setem-
bro de 2019.
[3] G. Combs, “Wireshark.” Disponı́vel em http://www.wireshark.org, March
2019. Acessado em Setembro de 2019.
[4] W. R. Stevens, Programação de Rede UNIX: API para soquetes de rede. Bookman Edi-
tora, 2009.
[5] R. Chandel, “Understanding nmap scan with wireshark..” Dis-
ponı́vel em: https://www.hackingarticles.in/
understanding-nmap-scan-wireshark/, March 2017. Acessado em
Setembro de 2019.
[6] J. Messer, Segredos da cartografia de rede: Um guia completo para o nmap. Professor
Messer, 2007.
[7] J. Jung, V. Paxson, A. W. Berger, and H. Balakrishnan, “Fast portscan detection using se-
quential hypothesis testing,” in Security and Privacy, 2004. Proceedings. 2004 IEEE
Symposium on, pp. 211–225, IEEE, 2004.

7 Estetipo de scan ativa os flags TCP para zero. Dessa forma, se um flag RST é recebido, indica que a porta está fechada.
8 Estetipo de scan envia um pacote com o flag FIN ativado para terminar uma conexão TCP. Portanto, o emissor do FIN espera
elegantemente pelo término da conexão. Assim, se um flag RST é recebido, indica que a porta está fechada.

8
O Impacto da Anti-Forense na Investigação Digital, um
Estudo de Caso
Marcos Lucas Pereira1, Diógenes Antônio Marques José1
Faculdade de Ciências Exatas e Tecnológicas FACET
1
Coordenação de Ciência da Computação – CCC
Universidade do Estado de Mato Grosso (UNEMAT)
Caixa Postal 92, 78390–000 – Barra do Bugres – MT – Brasil
{marcoslucaspereira1@gmail.com,dioxfile@unemat.br}

Abstract. Anti-forensics consists of a set of techniques, procedures, and tools


aimed at clearing the digital traces left by cyber criminals. Therefore, the
purpose of this paper is to verify its impact on the investigation of cybercrime.
Thus, a case study was developed, based on POP no. 3.3 manual (Ministry of
Justice of Brazil), in which a cybercriminal accesses inside information
without authorization. The purpose of this was to apply digital investigation
techniques in a scenario with and without the use of anti-forensics. The results
showed that the application of anti-forensics can invalidate the acquisition of
evidence and leave the malicious agent unpunished, so understanding this
framework is used by cybercriminals is necessary so that cybercrime is not
left unresolved.
Resumo. A anti-forense consiste em um conjunto de técnicas, procedimentos e
ferramentas cujo objetivo é limpar os rastros digitais deixados pelos cyber
criminosos. Portanto, o objetivo deste trabalho consiste em verificar o
impacto da mesma na investigação de um cyber crime. Assim, foi
desenvolvido um estudo de caso, embasado no manual POP n°3.3 (Ministério
de Justiça do Brasil), em que um cyber criminoso acessa informações
privilegiadas sem autorização. O objetivo disso consistiu em aplicar as
técnicas de investigação digital em um cenário com e sem a utilização da
anti-forense. Os resultados mostraram que a aplicação da anti-forense pode
invalidar a aquisição de provas e deixar o agente malicioso impune, sendo
assim, compreender esse arcabouço, usado pelos cyber criminosos, se faz
necessário de forma que os crimes virtuais não fiquem sem solução.

1. Introdução
A segurança da informação em si é de suma importância para a preservação dos dados
na Internet. Dessa forma, quando os objetivos da segurança não são alcançados diversos
cyber crimes podem ser executados no ambiente virtual, por exemplo: análise de
tráfego, snooping, furto de senhas, IP spoofing, negação de serviço (DoS e DDoS),
compartilhamento de pornografia infantil, furto de informação digital, entre outros.

9
Além disso, os avanços tecnológicos em áreas como inteligência artificial podem trazer
sérios riscos à segurança da informação, por possibilitar a criação de algoritmos mais
inteligentes que podem ajudar os cyber criminosos. Diante do exposto, com propósito
de mitigar estes crimes digitais, surge a computação forense, recurso utilizado por
cientistas forenses em todo o mundo, especialmente em forças policiais como FBI,
Interpol, Polícia Federal Brasileira [8], entre outras. Entretanto, com o objetivo de
dificultar o trabalho dos investigadores forenses, os cyber criminosos aplicam a anti-
forense digital que é responsável por camuflar os rastros que levariam à conclusão dos
crimes digitais.
Dessa forma, o objetivo deste artigo é apresentar o impacto da anti-forense na
investigação digital por meio de um estudo de caso: Intrusão em um sistema
computacional com o objetivo de furtar informações, segredos industriais. Os
resultados mostraram que a anti-forense, mesmo uma técnica simples, pode invalidar a
conclusão do caso crime.
O restante deste trabalho foi organizado como segue: na seção 2 são
apresentados os trabalhos relacionados. A seção 3 apresenta a descrição da proposta e a
metodologia. Na seção 4 são apresentados os resultados e discussão do estudo de caso
proposto. E, conseguinte, são apresentadas as conclusões e as possibilidades de
trabalhos futuros.

2. Trabalhos Relacionados
São crimes digitais o roubo de serviços de computadores; acesso não autorizado a
documentos eletrônicos; pirataria de software; alteração ou roubo de informaçaões
eletronicamente armazenada; estelionato cometido com o uso de computadores; acesso
não autorizado a registros bancários via rede de computadores (ex. cópia de cartões de
créditos, tráfico de senhas.); transmissão de vírus, spywares, worms e/ou comandos
destrutivos [1]. Neste contexto, o arcabouço responsável por investigar os crimes
digitais é a computação forense, disciplina que combina elementos do direito e da
computação com o intuito de obter e analisar vestígios de crimes em meios digitais
[2,3].
Na contra mão, a anti-forense é responsável por camuflar os rastros dos cybers
criminosos no meio digital. Assim, as técnicas anti-forense têm como objetivo burlar a
segurança digital e agir de forma ilícita escondendo a ação do cyber criminoso. Todavia,
esta definição pode ser entendida de outra maneira, por exemplo, as mesmas técnicas
que são usadas para o crime, também podem ajudar a melhorar os métodos da
computação forense [4].
Em [5] é apresentado um estudo de caso de crime de pedofilia. Neste contexto,
diversas técnicas e ferramentas forenses foram utilizadas para levar os criminosos à
justiça (ex. NuDetective). Todavia, apesar do trabalho não mencionar a anti-forense, a
técnica de esteganografia foi usada para atrapalhar a investigação.
Em [6] é examinado um servidor Linux para identificar rastros digitais, para
isso são utilizadas algumas ferramentas do Linux BackTrack 5 como Metasploit, Nessus,
Whatweb, Nmap, entre outras. Nessa proposta são realizados ataques em um servidor
Linux, em que os peritos analisam os arquivos de logs do servidor com o intuito de
encontrar algum rastro digital. Todavia, nenhuma técnica anti-forense foi empregada.

10
Em [7] os autores buscam provar através de testes empíricos se é possível
recuperar dados de um Solid-State Drives (SSD) formatado, mesmo este contendo
algorimos que executam uma formatação segura. Os experimentos realizados foram
divididos em duas etapas, que são: 1 - geraçãoção de imagens para análise posterior em
que foram utilizadas ferramentas como, FTK Imager 3.2.0 (ex. Windows 64 bits),
dcfldd, dc3dd 7.1.614 (ex. Kali Linux 32 bits); e 2 - recuperação dos dados, na qual
ferrramentas como Foremost, Scalpel, Magic Rescue, Photorec e Recoverjpeg foram
aplicadas. Assim, foram recuerados muitos arquivos, mesmo após a formatação segura,
por exemplo: *.jpg, *.bmp, *.gif, *.png, *.avi, *.mpg, *.pdf, *.doc, *.java, *.sys e
*.dll. Entretanto, não foram usadas técnicas anti-forense.

3. Descrição da Proposta
Este estudo de caso parte do pressuposto em que um criminoso consegue acesso não
autorizado a um computador de uma empresa, para roubar segredos industriais.
Portanto, com acesso garantido, o mesmo inseriu um pendrive e copiou arquivos
secretos. Diante do exposto, o intruso busca apagar seus rastros modificando o(s)
arquivo(s) de log. Entretanto, se os logs não forem apagados os peritos computacionais
poderão verificar no syslog todas as UUID’s de todos os dispositivos inseridos no
sistema no dia da intrusão. Assim, caso os peritos encontrem nesses logs uma UUID
correspondente eles poderão: a) solicitar um mandado de busca e apreensão dos
equipamentos envolvidos no ataque e de equipamentos adicionais; b) periciar os
equipamentos envolvidos; c) transformar as evidências em provas periciais e, com isso,
redigir o laudo pericial [8].
Todavia, diante do exposto, o que aconteceria se técnicas anti-foresense fossem
utilizadas? Para responder essa pergunta este estudo de caso será composto por três
partes : 1) Delito Virtual → acesso não autorizado; 2) Técnica forense aplicada →
análise de log de sistema, syslog; e 3) Técnica anti-forense aplicada → registry
wiping (ex. limpeza e/ou alteração de registros de logs.).

3.1 Materiais e Métodos


De modo a conduzir este estudo de caso os materiais e métodos foram organizados
como segue:
 Hardwares utilizados → Descrição do computador atacado: notebook
Samsung, core i3, Disco Rígido 300 GB Maxtor; e Descrição dos dispositivos
removíveis utilizados: Kingston DataTraveler 2.0 32GB, SanDisk Cruzer
Blade 8GB e Kingston DataTraveler 2.0 2GB.
 Softwares Utilizados → Análise de logs: Ferramenta glogg versão 0.9.2-1;
Edição de logs do sistema: leafpad versão 7.4.52; e Sistema Operacional: Linux
Mint 17.1 (ex. em ambos os computadores, atacante e atacado.);
 Descrição do experimento:
◦ Este experimento consiste em descrever as fases de uma intrusão, com base
na metodologia live Forensics. Assim, o cyber criminoso realizará uma
invasão a um sistema em que o mesmo obterá privilégios de root para copiar

11
arquivos sigilosos. Portanto, com o propósito de apagar os vestígios da
invasão, o criminoso deletará os registros de log responsáveis por gravar as
informações do dispositivo de armazenamento utilizado para copiar os
arquivos. As etapas do estudo de caso abrangem:
 1. Invasão do sistema;
 2. Realização das operações de cópia e edição/exclusão de log;
 3. Análise de log do sistema;
 4. Comparação de UUID do dispositivo;
 5. Análise e discussão dos resultados obtidos.

Este experimento foi embasado no manual POP n°3.3 informática forense [8], o
qual descreve os procedimentos padrões utilizados pela polícia criminal brasileira, cujo
objetivo é padronizar os métodos e procedimentos utilizados em exames periciais de
local de informática, pela perícia durante a investigação de um caso. O manual possui
para cada investigação um método diferente para direcionar a perícia à resolução precisa
e com o mínimo de perda possível.

4. Resultados e Discussão

4.1 Cenário Sem o Uso da Anti-Forense


Esta primeira etapa do experimento tem como objetivo demostrar como um usuário mal
intencionado pode prejudicar um sistema, visto que este ao obter privilégios de root,
pode realizar inúmeras operações no servidor, tornando tais operações um risco aos
utilizadores de tal serviço. As operações realizadas neste primeiro passo são feitas sem o
auxílio de ferramentas ou técnicas que permitem conceder vantagem ao criminoso.

4.1.1 Intrusão do sistema


Uma empresa possui quatro administradores de sistemas, sendo um deles, supervisor
geral, e os demais apenas auxiliam nas operações diárias dentro da empresa. Um dos
administradores auxiliares foi contratado a pouco tempo, e ele é na verdade um cracker,
que foi pago para roubar informações da empresa. Este aproveitando-se de uma falha
humana, em que a sessão do sistema estava aberta, já logada e com privilégios de root,
fez uma busca na raiz do sistema ‘/‘ até encontrar a pasta contendo arquivos sigilosos.
Neste contexto, o invasor conectou um pendrive para “roubar” os arquivos com
segredos comerciais. Assim, logo após a operação de cópia, o criminoso removeu o
dispositivo do servidor e se retirou do local.

4.1.2 Análise de log do sistema e comparação de IDs


Ao realizar uma verificação no log do servidor, o administrador supervisor percebeu
que haviam sido feitas operações, as quais ele desconhecia, e essas operações
consistiam na inserção de um dispositivo de armazenamento no servidor com a id:
00241D8CE459EF40292B961C, Figura 1.

12
Figura 1: Análise do log.

Suspeitando de tal operação, o administrador comunicou o incidente e uma


investigação foi instaurada. Assim, foram contatados peritos digitais. Dessa forma,
sabendo que existem apenas três administradores auxiliares que possuem acesso ao
sistema, os peritos realizaram uma busca no local de trabalho de cada um dos suspeitos.
Nos locais de busca foram localizados três pendrives, que foram aprendidos e periciados
com o uso da ferramenta USBView, Figuras 2, 3 e 4.

Figura 2: pendrive 1, Kingston 2GB.

Figura 3. Pendrive 2, SanDisk 8GB.

13
Figura 4. Pendrive 3, Kingston 32GB.

Ao comparar a ID encontrada no log do sistema, com a ID de cada dispositivo,


constatou-se que o pendrive 3 (Figura 4) foi conectado ao servidor. A partir deste ponto,
foi decretada a prisão preventiva do indivíduo, bem como a perícia no pendrive 3.

4.2 Cenário Com o Uso da Anti-Forense


Este segundo cenário seguirá as mesmas etapas descritas na seção anterior, todavia,
neste cenário, o arquivo de log é editado, como técnica anti-forense, com o auxílio da
ferramenta leafpad. Assim, é possível excluir as informações do syslog relacionadas ao
dispositivo, pendrive 3, que foi conectado ao servidor.
Dessa forma, ao realizar a cópia da pasta em que estavam contidos os arquivos,
o cyber criminoso abre o arquivo do syslog com o auxílio da ferramenta leafpad, por
exemplo: #leafpad /var/log/syslog. Portanto, após a operação de cópia e
exclusão das informações do log, o criminoso removeu o dispositivo do servidor e se
retirou do local.

4.2.1 Análise de log do sistema


Conforme descrito previamente, o administrador realizou a verificação do syslog,
entretanto, como o invasor havia excluído as informações geradas pelo pendrive, os
rastros do acesso não puderam ser localizados, em função da técnica anti-forense
aplicada, Figura 5.

Figura 5: Log editado.

14
4.2.2 Considerações finais do estudo de caso
Este estudo de caso foi direcionado de maneira específica e com a alteração de logs
somente nas informações relacionadas aos dispositivos conectados, ignorando quaisquer
outras informações de log presentes no sistema.
Os resultados obtidos sem a utilização da anti-forense, foram satisfatórios, visto
que foi possível identificar as informações geradas pelo syslog, e, portanto, identificar o
dispositivo conectado. Entretanto, na segunda etapa, após a aplicação da anti-forense,
embora seja possível identificar que um pendrive foi conectado, não é possível
identificar a UUID do mesmo. Dessa forma, por mais simples que seja a técnica anti-
forense aplicada, por exemplo, apagar um arquivo de log, ela pode impedir a
identificação de operações realizadas dentro do servidor/sistema.

5 Conclusões e Trabalhos Futuros


Neste trabalho foi apresentado, em detalhes, um estudo de caso: Intrusão em um
sistema computacional com o objetivo de furtar informações, segredos industriais. O
estudo de caso em questão foi dividido em duas partes, com e sem a aplicação da anti-
forense. Em ambas as situações, observou-se que a investigação no cenário sem a
aplicação da anti-forense, é possível identificar o crime e, consequentemente, gerar
provas válidas em um tribunal. Entretanto, com a aplicação da mesma o trabalho do
perito pode ser mitigado. Dentre as princiais contribuições deste trabalho destacam-se: a
utilização das ferramentas glogg (busca rápida e inteligente em arquivos de log),
leafpad (edição de log) e, além disso, foi mostrado que uma simples técnica, como
apagar o log, pode prejudicar a resolução de crimes digitais. Dessa forma, foi possível
observar, na prática, como a anti-forense pode ser prejudicial à investigação digital.
Como trabalhos futuros pretende-se pesquisar e descrever como a anti-anti-
forense pode ajudar a resolver/suavisar os impactos da anti-forense na resolução de
crimes no ambiente virtual.

Referências
[1] E. Casey. Digital Evidence and Computer Crime: Conducting Digital Investigations, Meryland.
USA: Elsevier, 3th ed., 2011.
[2] BROOKS, Charles L. CHFI Computer Hacking Forensic Investigator Certification Allin-One
Exam Guide, 2014.
[3] R. McKemmish. “What is forensic computing,” pp. 1–6, 1999. Australian Institute of
Criminology, trend & issues in crime and criminal justice.
[4] BARRETO, L. Utilização de técnicas anti-forenses para garantir a confidencialidade.
Universidade do Rio Grande do Sul. Porto alegre. 2009. Disponível em: <https://bit.ly/32kuDFO>.
Acesso em: 28 nov. 2017.
[5] Almeida J. S., Nascimento L. S., José D. A. M. Computer Forensics: A Linux Case Study
Applied to Pedophilia Crime Investigation in Brazil. International Journal of Cyber-Security and
Digital Forensics (IJCSDF) 8(1): 31-42, 2019 ISSN: 2305-0012.
[6] Andrade, Jhonattan Javier Barriga and Gan, Diane. (2012) A forensics investigation into attacks
on Linux servers. In: Issues in cybercrime, security and digital forensics. University of Strathclyde
Continuing Education Centre, Glasgow, UK, pp. 73-80. ISBN 9780947649852.

15
[7] Marcos A. C. Corrêa Júnior, Ruy J. Guerra B. de Queiroz. Após um processo de formatação, é
possı́vel recuperar dados em um SSD? Simpósio Brasileiro em Segurança da Informação e de
Sistemas Computacionais (SBSeG) 2015.
[8] JUSTIÇA, Ministério da; SEGURANÇA PUBLICA, Secretaria Nacional de. Procedimento
Operacional Padrão: Perícia Crimina. 2013.

16
Aplicação de um método para promoção da interação no
ensino de algoritmos
Rui Ogawa1
1
Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso (IFMT)
Campus Barra do Garças

rui.ogawa@bag.ifmt.edu.br

Abstract. This paper aim to verify the adoption of a model to promote interac-
tion as a way to achieving advances in the practice of teaching and learning
algorithms, based on the mediation of the student’s errors. The importance of
the interaction amid teacher and students is discussed as a form of reconside-
ration about these errors. The need to evaluate tools for errors mediation is
brought to the discussion. The essential activities that a teacher should develop
when using a tool to assist in the practice of algorithm teaching are listed, and
based on them, a model that aims to increase the interaction between teachers
and students as a means of enhancing the effectiveness of the error remediation
is applied and analyzed.

Resumo. Este artigo tem como proposta a verificação da adoção de um modelo


para promover a interação como meio de conseguir avanços na prática do en-
sino e aprendizado de algoritmos, tendo como base a mediação do erro escolar.
A importância da interação entre professor e aluno é discutida como forma de
reconsideração sobre o erro escolar. A necessidade de avaliação de ferramen-
tas para mediação de erros é trazida à discussão. São elencadas as atividades
essenciais que um professor deve desenvolver ao utilizar uma ferramenta que o
auxilie na prática do ensino de algoritmos e, com base nelas, é aplicado e ana-
lisado um modelo que visa o aumento da interação entre docentes e discentes
como meio de potencializar a efetividade da remediação do erro.

1. Introdução
Aumentar a interação entre professores e alunos é uma das estratégias propostas por
[Chickering and Ehrmann 1996] quando se trata da utilização de recursos computacio-
nais na educação. Diante de uma situação de erro do aluno, a interação do professor,
por meio de comentários, pode contribuir com a elucidação de problemas comuns e as-
sim, facilitar sua compreensão e resolução. Alinhado com uma abordagem interacio-
nista, [Kutzke and Direne 2014] propõem na FARMA-ALG, a possibilidade de analisar a
interação de cada aprendiz, principalmente no que concerne aos erros cometidos por eles,
em exercı́cios de algoritmos.
Ainda que a FARMA-ALG promova a interação entre professores e alunos, ela
carece de estudos que nos permitam afirmar de que forma o resultado dessa interação
contribui para ambos. O trabalho de [Moura 2015] descreve sua avaliação da ferramenta

17
FARMA, – uma ferramenta para mediação de erros em exercı́cios de matemática – envol-
vendo mais de 900 alunos dos ensino Básico. O objetivo da pesquisa da autora consistiu
em analisar a utilização do mecanismo de retroação de erros e acertos por meio de encami-
nhamentos metodológicos. Os resultados demonstram que a ferramenta cria um ambiente
favorável para que alunos questionem, expressem e colaborem.
A FARMA-ALG é efetiva enquanto ferramenta que promove a remediação do
erro, entretanto, a quantidade de interações entre professores e alunos tem sido extre-
mamente baixa [Ogawa et al. ]. Tal fato se deve em decorrência da ausência de uma
documentação concisa e de um método especı́fico que oriente docentes e discentes acerca
dos recursos disponı́veis na ferramenta. Dentre os recursos, destaca-se a possibilidade de
interação do professor com o aluno em situações em que os discentes incorrem em erro
durante a resolução de um exercı́cio. Com o intuito de proporcionar o melhor aprovei-
tamento possı́vel dos recursos baseados no socio-interacionismo proposto pela FARMA-
ALG, este trabalho realiza um estudo sobre a sistematização das atividades do professor
ao utilizar a plataforma, com o uso de um modelo que promova a interação.

2. Métodos
O modelo consiste em um conjunto estruturado de ações que possa ser replicado. Uma
atenção especial foi dedicada às atividades de correção, identificação de alunos com difi-
culdades, interação e acompanhamento dos mesmos. A seguir, são descritos os processos
necessários para contemplar as necessidades de orientar o professor na implementação
bem sucedida do modelo interacionista proposto pela plataforma FARMA-ALG.
As atividades são distribuı́das entre quatro fases lógicas, conforme segue:
1. Planejamento;
2. Elaboração e disponibilização das atividades;
3. Avaliação;
4. Interação e mediação.
Nesse modelo, as atividades de cada fase precisam ser completadas para que se
avance para a próxima, de acordo com a descrição a seguir. A estrutura proporciona um
mecanismo iterativo, de modo que o professor pode voltar as fases anteriores e utilizar as
informações para melhorar as atividades e atingir os objetivos propostos.

Figura 1. Fases do modelo

Os objetivos de cada uma das fases e os produtos que devem ser entregues estão
relacionados na Figura 2 e são detalhados em passos a seguir.

18
Figura 2. Objetivos e produtos

Fase 1: Planejamento
A fase de planejamento tem como principal meta definir quais são os objetivos de
aprendizagem que a disciplina deve oferecer. Tais objetivos descrevem quais conceitos
e habilidades os alunos devem ter conhecimento e compreensão para que estejam habi-
litados a analisar problemas, propor soluções e implementá-las. Essa fase é subdividida
em três etapas, nas quais o professor identificará as necessidades e requisitos, definirá
quais serão os objetivos de aprendizagem e analisará como deve ser o uso da estrutura
informatizada disponı́vel.
Etapa 1 da Fase 1: Identificação das necessidades e requisitos
As competências que os alunos devem adquirir ao concluir as atividades propostas
devem ser identificadas. Uma boa base para as escolhas é a ementa da disciplina, normal-
mente disponibilizada pela coordenação do curso, bem como seu projeto pedagógico. As
linguagens de programação que serão utilizadas devem ser as mesmas as quais a FARMA-
ALG oferece suporte. Com base nessa informação, o professor deverá indicar aos alunos
um guia de referência da linguagem adotada, com o intuito de dirimir eventuais erros
básicos de sintaxe. Por se tratar de disciplina que exige bastante das habilidades de
abstração e cognição de aspectos sobre lógica, é interessante efetuar uma pré-avaliação
no sentido de diagnosticar eventuais discrepâncias de conhecimentos. Ao realizar esse
procedimento, esta avaliação prévia permite saber qual é o nı́vel de conhecimento do
aluno.
Etapa 2 da Fase 1: Definição dos objetivos de aprendizagem
A partir dos resultados observados na avaliação de diagnóstico, na etapa ante-
rior, o nı́vel de conhecimento do aluno estará devidamente identificado. Com base nessa
informação, os seguintes passos devem ser realizados:
Tomando a lista de competências obtidas na Etapa 1, identifica-se quais as perı́cias
que o aluno deve adquirir ao final da avaliação. De acordo com as perı́cias identificadas no
passo anterior, define-se os conteúdos que devem estar contidos nos Objetos de Apren-
dizagem. Redigir, com base nos passos anteriores, uma lista formal dos objetivos de
aprendizagem.
Etapa 3 da Fase 1: Análise da viabilidade em alcançar os objetivos de aprendi-
zagem utilizando a FARMA-ALG

19
Avaliar todos os objetivos de aprendizagem e identificar, de acordo com o nı́vel de
complexidade de cada um, quais podem ser transformados em Objetos de Aprendizagem
para que possam ser disponibilizados na FARMA-ALG. Os objetivos que não se encaixam
na possibilidade acima devem ser tratados com abordagem alternativa a plataforma.
Fase 2: Elaboração e disponibilização das atividades
Nessa fase o professor irá, com base na ementa da disciplina, elaborar Objetos
de Aprendizagem que serão disponibilizados como atividades na FARMA-ALG. Essas
atividades são compostas por questões de algoritmos, organizadas em listas de exercı́cios
cujo nı́vel de dificuldade aumenta gradualmente. Nas três etapas que compõem essa fase,
o professor irá elaborar as atividades, verificar a aderência das atividades à proposta e
recursos ofertados pela FARMA-ALG e definir o plano de trabalho com o cronograma de
sessões.
Etapa 1 da Fase 2: Escolha dos exercı́cios
De acordo com o que foi obtido na definição dos objetivos de aprendizagem, na
Etapa 2 da Fase anterior, selecionar o conteúdo que será trabalhado. Estabelecer quantos
exercı́cios serão necessários para alcançar o objetivo, de acordo com os resultados da pre-
avaliação. Definir quais exercı́cios devem compor a primeira lista, com base ainda na
pré-avaliação, que permitiu sabermos qual é o nı́vel de conhecimento do aluno. Definir
em quantas listas os demais exercı́cios serão divididos e como será a distribuição entre
as listas, conforme a dificuldade dos exercı́cios. Cada lista deve conter exercı́cios cuja
dificuldade permita que os alunos atinjam seu potencial nı́vel de desenvolvimento.
Etapa 2 da Fase 2: Elaboração dos Objetos de Aprendizagem
Transformar cada exercı́cio em um Objeto de Aprendizagem compatı́vel com os
pré-requisitos da FARMA-ALG. Distribuir os exercı́cios em listas, de acordo com a quan-
tidade de nı́veis que o professor definiu ser necessária para que o aluno conclua com
sucesso uma lista e esteja preparado para a próxima.
Etapa 3 da Fase 2: Elaboração do cronograma das atividades
Elaborar cronograma de disponibilização online de cada lista de exercı́cios, con-
forme andamento da disciplina em sala de aula. Definir a realização das atividades de
acordo com a ordem das listas de exercı́cios, sua duração e a data em que deverão ser res-
pondidas. Para tanto, é necessário revisar disponibilidade de tempo do professor, monito-
res da disciplina e dos alunos. Estipular prazos para resolução dos exercı́cios propostos.
Indicar quem serão os monitores das disciplinas e informar a turma.
Fase 3: Avaliação
Na fase de avaliação, o professor, em conjunto com o monitor da disciplina, efe-
tuará a correção das respostas dos exercı́cios submetidas pelos alunos na FARMA-ALG.
Durante a correção, é fundamental que sejam identificadas as principais dificuldades en-
frentadas pelos alunos. Ao final dessa fase, devera ser gerado um relatório que indi-
que quais foram os aspectos que se apresentaram como dificuldades na resolução dos
exercı́cios.
Etapa 1 da Fase 3: Preparação da sessão

20
Compor um manual de instruções de uso da FARMA-ALG e disponibilizá-lo na
própria plataforma, preferencialmente na tela inicial. Deverá constar quais são os requisi-
tos técnicos de hardware, de software e de rede para que os usuários tenham acesso. Pu-
blicar os perı́odos em que cada lista de exercı́cios estará disponı́vel. Informar aos alunos
e ao monitor, via e-mail, o endereço para acessar a plataforma, bem como os procedimen-
tos necessários para efetuar o cadastro e matrı́cula na disciplina. Definir como os alunos
obterão suporte em caso de problemas com a plataforma. Disponibilizar os Objetos de
Aprendizagem para que os alunos matriculados possam acessar as listas de exercı́cios e
resolver as questões propostas.
Etapa 2 da Fase 3: Desenvolvimento da sessão
Antes de efetivamente liberar a plataforma para uso, efetuar testes de conexão para
diagnosticar eventuais problemas em tempo hábil para solucioná-los. Liberar o acesso a
FARMA-ALG aos alunos, somente para a lista de exercı́cios cujo conteúdo foi previa-
mente desenvolvido em sala de aula. Periodicamente, monitorar a participação dos alu-
nos, verificando se estão conseguindo acessar as questões e submetendo suas repostas sem
nenhum tipo de problema.
Etapa 3 da Fase 3: Avaliação das respostas durante o prazo de submissão
No painel principal da FARMA-ALG, verificar os seguintes itens: Anotar a quan-
tidade de respostas incorretas. Verificar se há comentários e mensagens enviadas pelos
alunos, direcionados ao professor ou monitor. No Menu ’Grafo de Manipulação’, com
o uso adequado dos filtros disponı́veis, efetuar as seguintes ações: Configurar os filtros
para que a busca seja efetuada para uma questão, de uma turma e que esteja em uma
determinada categoria de erro. Identificar as respostas incorretas com o maior grau de
similaridade entre elas. Usando o Menu ’Linha do Tempo’, efetuar procedimento similar
ao do passo anterior, com o objetivo de identificar respostas com o maior grau de simila-
ridade possı́vel. Adicionalmente, utilizar os recursos de ’Busca’ para encontrar padrões
de erros. Utilizar, caso necessário o recurso de ’Tags’, que permite selecionar as respostas
com determinados tipos de erros.
Fase 4: interação e mediação
Na quarta e última fase, ocorre a interação entre alunos, monitores e professores.
Conforme as questões vão sendo respondidas, professores e monitores devem identifi-
car os alunos que enfrentaram dificuldades. A observação da similaridade em respostas
incorretas, efetuada na fase anterior, deve ser utilizada para subsidiar essa tarefa. Em se-
guida, o professor e o monitor devem promover a interação com os alunos, por meio do
envio de comentários especı́ficos sobre os erros mais comuns, cometidos nas tentativas
de resolução dos exercı́cios. Caso necessário, além de conversar com o aluno, para que
seja possı́vel compreender sua dificuldade e auxiliá-lo, pode ser necessária a adequação
do exercı́cio.
Etapa 1 da Fase 4: Identificação dos alunos que necessitam de apoio

1. Ler as mensagens e comentários enviados pelos alunos. Se eles as enviaram antes


do professor, significa que estão solicitando esclarecimentos.
2. Identificar os alunos que cometeram erros, de acordo com os seguintes critérios:
(a) Nı́vel de progresso na resolução das questões da lista de exercı́cios vigente.

21
Quanto menor for a barra de progresso, maior a possibilidade de que o
aluno esteja enfrentando dificuldades e necessitando de ajuda.
(b) Número de tentativas por Objeto de Aprendizagem. Listas de exercı́cios
com grande quantidade de tentativas podem indicar que os alunos não
estão seguros de que suas respostas estão corretas.
(c) Alunos que cometeram erros muito similares com os de outros colegas. Os
dados obtidos na Etapa 3 da Fase anterior são utilizados para este fim.

Etapa 2 da Fase 4: Identificação das questões que os alunos tiveram mais difi-
culdade em solucionar

1. Identificar as questões que obtiveram maiores quantidade de respostas incorretas.


2. Categorizar as questões incorretas pelos tipos de erros.

Etapa 3 da Fase 4: Intervenção com os alunos

1. Responder mensagens e comentários dos alunos que já as enviaram.


2. Enviar mensagens ou comentários aos grupos de alunos com dificuldades simila-
res em determinadas questões.
3. Enviar mensagens ou comentários individuais aos alunos que estiverem com al-
guma dificuldade especı́fica.
4. Acompanhar o desempenho dos alunos após a intervenção.
5. Complementar a intervenção com mensagens e comentários adicionais, caso seja
necessário.

3. Resultados e discussão
Para a realização do experimento, foi ofertado um curso de Introdução à Lógica de
Programação para 19 alunos do primeiro e segundo ano do Ensino Médio. O curso foi
ministrado por apenas um professor, com aulas três vezes por semana, no perı́odo no-
turno. Uma vez tendo conhecimento sobre o método proposto, o professor iniciou os
procedimentos descritos nas fases.
A Fase 1, de Planejamento, foi efetuada com antecedência, ainda no plano de
ensino, seguindo o modelo proposto. A escolha da linguagem de programação C se
deu em face da futura oferta de um curso de introdução à robótica educacional, utili-
zando Arduino, que já estava prevista. Como pré-avaliação, foi solicitado aos alunos que
construı́ssem algoritmos para solução de problemas do cotidiano, tais como trocar uma
lâmpada ou fazer um bolo.
As perı́cias desejadas para esse grupo de alunos, era que ao final do curso eles
fosse capazes de construir algoritmos simples usando a linguagem C, tais como efetuar
operações aritméticas e trabalhar com cadeias de caracteres. Com base nas perı́cias de-
sejadas, o professor definiu os conteúdos que foram ministrados. Considerando que a
complexidade das problemas propostos eram baixas, todos foram eleitos para serem con-
vertidos em Objetos de Aprendizagem.
Após as aulas teóricas, foram disponibilizadas na plataforma, duas listas de
exercı́cios, cada uma com quatro questões básicas de programação em linguagem C, con-
templando o proposto na Fase 2, de Elaboração e disponibilização das atividades.

22
A Fase 3, de Avaliação, correção e identificação das dificuldades dos alunos, en-
volveu primeiramente uma explicação no laboratório de informática, com uso de projetor
multimı́dia, sobre o funcionamento da FARMA-ALG aos alunos. Conforme os alunos
efetuavam as submissões de suas respostas às questões, o professor fazia a leitura de cada
resposta e a identificação dos erros cometidos. Nessa fase, foi possı́vel verificar que a
maioria dos erros foram de sintaxe, o que deu ao professor os subsı́dios necessários para
uma intervenção assertiva. Para as oito questões, os alunos submeteram um total de 409
respostas, com 352 tentativas incorretas, correspondendo a 86,06% e 57 tentativas corre-
tas, correspondendo a 13,94%.
Passando para a Fase 4, de Interação e mediação com os alunos, o professor enviou
um total de 28 mensagens via plataforma,, como meio de promover o aprendizado pela
interação. Todas as mensagens foram sobre erros básicos cometidos pelos alunos, princi-
palmente de sintaxe. Os erros mais comuns envolviam desde ausência de ponto e vı́rgula
no fechamento de um comando, passando por variáveis acentuadas ou com espaços, até
uso de variáveis não declaradas. Outro erro recorrente foi a falta de atenção para que
a saı́da do programa fosse idêntica à saı́da esperada pelo caso de teste de cada questão,
mesmo com essa instrução bem destacada no enunciado de cada questão.
Das 28 mensagens enviadas aos alunos, foi possı́vel verificar que 26 questões fo-
ram solucionadas logo após a intervenção do professor, de modo que apenas 2 questões
permaneceram com a resposta incorreta, o que representa uma eficácia de 92,86%. Em to-
das as mensagens, o professor teve o cuidado em apenas orientar o aluno sobre a possı́vel
causa do erro, evitando responder pelo aluno e incentivando-o a raciocinar de forma lógica
para compreender o erro e buscar a solução para o problema.
Em várias situações, as mensagens foram enviadas pelo professor no ambiente do
laboratório de informática, na presença dos alunos, enquanto eles estavam tentando re-
solver as questões. Nesse contexto, ao receber uma mensagem do professor, foi possı́vel
verificar reações de diversas, como auto-reprovação ou surpresa ao constatar que, ao ler
a intervenção do professor, os alunos perceberam qual seria o melhor caminho a ser tri-
lhado.

4. Conclusões
Ainda que a quantidade de alunos e questões tenha sido reduzida, verifica-se que o método
é eficaz no que tange auxiliar o professor na sistematização do seu fazer pedagógico e,
principalmente, no auxı́lio ao aprendizado de algoritmos pelos alunos, que, ao receber a
mediação do professor, encontram o apoio necessário que permite que eles busquem novas
abordagens, estimulando sua auto-confiança em resolver problemas com apoio, porém, de
forma autônoma.
Faz-se necessário, entretanto, novos experimentos em escala ampliada, com
múltiplas turmas, de instituições e nı́veis diversos, para avaliar se o uso do método é
replicável e escalável. Por se tratar de plataforma online e aberta, é possı́vel e necessário
que mais estudos do uso da FARMA-ALG e do método de promoção da interação no
ensino de algoritmos sejam realizados.

23
Referências
aaaa.
Chickering, A. W. and Ehrmann, S. C. (1996). Implementing the seven principles: Tech-
nology as lever. AAHE bulletin, 49:3–6.
Kutzke, A. R. and Direne, A. (2014). Mediaçao do erro na educaçao: um arcabouço de
sistema para a instrumentalizaçao de professores e alunos. In Brazilian Symposium
on Computers in Education (Simpósio Brasileiro de Informática na Educação-SBIE),
volume 25, page 737.
Moura, V. A. B. (2015). Avaliação do impacto da retroação na aprendizagem apoiada por
uma ferramenta educacional.
Ogawa, R., Peres, L. M., Kutzke, A. R., and Silva, F. Promoting mediation in learning
error on teaching algorithms.

24
Ensino de Algoritmos: Dificuldades, Ferramentas de
Auxílio e Proposta de uma Nova Abordagem – o Design
Thinking
Carlinho V. de Sousa1, Dárley D. de Almeida1, André F. Pereira1
1
Bacharelado em Ciência da Computação
Universidade do Estado de Mato Grosso (UNEMAT) – Alto Araguaia, MT – Brasil
profcarlinho@unemat.br, darleydalmeida@gmail.com,
flederico.pereira@unemat.br

Abstract. It proposes the use of the Design Thinking approach with students of
the Computer Science Bachelor Degree - UNEMAT / Alto Araguaia Campus.
The project has the participation of three teachers and ten students, who
intend, through the Design Thinking approach, to plan and develop
technological artifacts for the teaching and learning of algorithms and
programming. The project is in its early stages - understanding the problem -
through stakeholder insights and also organizing and applying an online
questionnaire for students enrolled in the first and second semesters of the
course.

Resumo. Propõe a utilização da abordagem de Design Thinking com alunos


do curso de Bacharelado em Ciência da Computação – UNEMAT/Campus de
Alto Araguaia. O projeto conta com a participação de três professores e dez
alunos, que pretendem por meio da abordagem Design Thinking planejar e
desenvolver artefatos tecnológicos para o ensino e aprendizagem de
algoritmos e programação. O projeto está em sua fase inicial – compreender
o problema – por meio de insights com as partes interessadas e também com a
organização e futura aplicação de questionário on-line para os alunos
matriculados no primeiro e segundo semestres do curso.

1. Introdução
O ensino de algoritmos e lógica de programação é assunto sempre debatido na literatura
nacional e internacional na área em questão. Há quem defenda no Brasil que o tema seja
incluído na Educação Básica, como já ocorre em outros países desenvolvidos. O fato é
que os conteúdos de algoritmos e lógica de programação são vistos nos cursos de exatas
das universidades, mais comumente nos cursos das áreas de Engenharia e Computação.
Alunos oriundos da Educação Básica, ao ingressarem nas universidades e
entrarem em contato com as disciplinas que introduzem o tema algoritmos e lógica de
programação, sentem muita dificuldade em assimilar os conteúdos, em resolver
problemas, em abstrair, em pensar logicamente. Tal fato eleva os índices de reprovação
e evasão nas disciplinas que tratam do tema [Oliveira et al. 2017].
Para amenizar as dificuldades de aprendizagem e os índices de evasão e
reprovação, são propostas metodologias e tecnologias diferenciadas para o ensino de

25
algoritmos e lógica de programação, dentre elas podemos mencionar: a Peer Instruction
– Instrução em Pares [Oliveira et al. 2017]; Problem Based Learning (PBL) –
Aprendizagem Baseada em Problemas [Ambrósio and Costa 2010]; Ambiente Virtual
de Ensino de Programação – AVEP [Pereira Júnior and Rapkiewicz 2005]; entre outros.
Corroborando com os autores, propomos também uma metodologia diferenciada
para o ensino e aprendizagem de algoritmos, o Design Thinking (DT) – Pensamento de
Design. Uma abordagem totalmente centrada no ser humano (Human Centered Design –
Design Centrado no Humano), pautada em três princípios básicos: HCD – Hear (Ouvir),
Create (Criar) e Deliver (Entregar).
O Design Thinking é uma abordagem que utiliza a empatia e as técnicas dos
designers para agregar as necessidades das pessoas com o que é tecnologicamente
executável, objetivando transformar oportunidades que agregam valor em soluções para
um ambiente específico (Cavalcanti and Filatro 2016).
Acreditamos haver uma necessidade por parte dos alunos que estudam
algoritmos e lógica de programação em experimentar metodologias diferenciadas para
amenizar as dificuldades encontradas no estudo do tema. Por outro lado, acreditamos
que o DT pode gerar produtos tecnológicos para suprir tais necessidades.
Nesse sentido o objetivo do projeto é envolver os alunos do I semestre do curso
de Bacharelado em Ciência da Computação – UNEMAT/Campus de Alto Araguaia em
um processo de DT, capacitando-os a desenvolver produtos tecnológicos que possam ser
aplicados na disciplina de Algoritmos e Laboratório de Programação I.
Acreditamos que o DT pode ser uma abordagem muito útil para o ensino e
aprendizagem de algoritmos, visto que seus processos, desde a ideação até a entrega do
produto ou serviço final, são muito semelhantes aos processos estudados em
programação.

2. Dificuldades no Aprendizado de Algoritmos e Ferramentas Tecnológicas


para Amenizar tais Dificuldades
Algoritmos são conjuntos de passos bem definidos, seguindo uma sequência lógica, com
o objetivo de resolver um problema. Do ponto de vista computacional, algoritmo pode
ser definido como um conjunto de regras formais, sequenciais e bem definidas em
relação à compreensão lógica de um problema a ser solucionado por um programador,
objetivando transformar o problema em um programa que possa ser interpretado e
executado em uma máquina [Manzano and Oliveira 2011].
Em cursos da área de Computação, algoritmos são conteúdos estudados, em
geral, no I semestre ou primeiro ano do curso. O tema em questão é abordado em
disciplinas que tratam sobre lógica de programação. Alunos oriundos da Educação
Básica que ingressam em cursos de Computação sentem bastante dificuldade em
assimilar conteúdos sobre algoritmos e lógica de programação, tal fato eleva os índices
de evasão e reprovação nas disciplinas relacionadas ao assunto em questão.
Sobre o acima exposto, apresentamos, nas tabelas 1 e 2, dados relacionados às
disciplinas: Algoritmos I e Laboratório de Programação I (ambas ofertadas no
ano/semestre 2017/1) e à disciplina de Algoritmos e Laboratório de Programação I
(ofertada nos anos/semestres: 2017/2; 2018/1; e, 2018/2). Tais disciplinas são ofertadas

26
no curso de Bacharelado em Ciência da Computação, nos municípios de Alto Araguaia-
MT e Rondonópolis-MT. Vale salientar que pelo oferecimento do curso no município
de Rondonópolis, o Projeto Pedagógico de Curso passou por atualizações e as
disciplinas Algoritmos I e Laboratório de Programação I, ambas de 30 horas, se
fundiram em uma única disciplina de 60 horas intitulada Algoritmos e Laboratório de
Programação I, a partir do semestre 2017/2.
Tabela 1. Dados referentes às disciplinas: Algoritmos I e Laboratório de
Programação I

Reprovados Reprovados
Matriculados Aprovados
por Nota por Falta
2017/1 54 20 9 25
(Algoritmos I) (100,00%) (37,00%) (16,70%) (46,30%)
2017/1
54 16 26 12
(Laboratório de
(100,00%) (29,63%) (48,15%) (22,22%)
Programação I)
Tabela 2. Dados referentes à disciplina de Algoritmos e Laboratório de
Programação I

Reprovados Reprovados
Matriculados Aprovados
por Nota por Falta
41 20 11 10
2017/2
(100%) (48,78%) (26,83%) (24,39%)
47 21 14 12
2018/1
(100,00%) (44,70%) (29,80%) (25,50%)
38 19 7 12
2018/2
(100,00%) (50,00%) (18,42%) (31,58%)
Analisando os dados das tabelas 1 e 2, somando-se os índices de reprovados por
nota (anos de 2017 e 2018), calculando a média teremos um índice de 27,98% de
reprovações. Realizando o mesmo cálculo para os reprovados por falta, chegaremos a
um índice de aproximadamente 30% de reprovações. Se analisarmos de forma isolada
parece que os índices estão dentro do parâmetro nacional e internacional como
apresentado por Ramos et al. (2015), o qual apresenta uma comparação da taxa de
reprovação em disciplinas de introdução à programação (intituladas internacionalmente
como Computer Science 1 – CS1) de outros países em relação ao Brasil. Os estudos
revelaram que os índices de reprovação em outros países são em média de 33%. Após o
uso de metodologias, intervenções pedagógicas, utilização de produtos tecnológicos,
entre outros, a taxa de reprovação em CS1 caiu para 25,6%. Ainda segundo o autor, no
Brasil, depois de realizada uma revisão sistemática em 49 artigos publicados em eventos
reconhecidos na área de Computação, em que foram usadas metodologias diferenciadas
e produtos tecnológicos, a taxa de reprovação em CS1, reduziu em média de 45,6% para
32,6%.

27
Analisando novamente as tabelas 1 e 2, ao somarmos os índices dos dois
motivos de reprovações (notas e faltas), teremos um índice elevado de reprovações
(aproximadamente 58%). Tal índice é o que precisamos mudar. Esse cenário é reflexo
da dificuldade no entendimento aliado ao desenvolvimento do raciocínio lógico, o que
acaba acarretando evasão nos cursos e reprovação dos alunos na disciplina [Oliveira et
al. 2017].
Para diminuir os índices de reprovações e evasões nas disciplinas iniciais de
lógica de programação, são propostas várias metodologias e produtos tecnológicos para
facilitar o entendimento e construção de algoritmos. Citamos o trabalho de Ferreira
(2005), que por meio de entrevista realizada com alunos e professores da Universidade
do Planalto Catarinense (UNIPLAC), com o objetivo de levantar informações sobre as
dificuldades enfrentadas por alunos e professores nas disciplinas de introdução à
programação, propôs uma metodologia diferenciada para o ensino de algoritmos, onde o
professor tem que deixar claro o objetivo da disciplina, ser coerente na avaliação do
conteúdo, enfatizar que o aluno no primeiro momento tem que focar na solução do
problema (problema, solução e passos) e não na programação em si. A autora enfatiza,
ainda, que o professor deve ensinar o aluno a montar o pré-algoritmo, um mapa
conceitual (etapas de resolução do problema), organizando o problema em forma de
fluxograma com as entradas, processamentos e saídas do algoritmo.
O método Peer Instruction (Instrução em Pares) é proposto por Oliveira et al.
(2017). Tal método consiste em oito momentos. Nos dois primeiros momentos são
apresentados os conteúdos e lançada uma questão conceitual (de múltipla escolha). No
terceiro momento os alunos respondem à questão conceitual, escolhendo uma das
alternativas (tipo uma votação). No quarto momento são verificados os percentuais de
acertos. Se o percentual de acertos for menor que 30%, o professor retoma os conceitos
iniciais (momento cinco), caso contrário ele passa pra o sexto momento (discussão em
pequenos grupos), momento mais importante do método, pois é aí que ocorre a
discussão em pares (grupos de 2 a 5 integrantes). No sétimo momento pode ser realizada
uma nova votação, a tendência é que o percentual seja maior que 70%, caso o percentual
da votação seja menor que 30%, o professor poderá voltar ao momento cinco. No
momento oito é feita uma explanação, surgindo uma nova questão com retorno ao
primeiro momento. O método foi utilizado para medir o desempenho e a motivação de
estudantes tanto novatos quanto experientes em programação em um curso Técnico de
Informática integrado ao Ensino Médio. Os resultados mostraram um crescimento no
desempenho dos estudantes e indicaram que os alunos novatos em programação têm
uma pré-disposição em trabalhar em grupo comparado aos alunos mais experientes.
O método PBL (Problem Based Learning) – Aprendizagem Baseada em
Problemas associado a ferramentas visuais de programação, foi utilizado por Ambrósio
and Costa (2010) para amenizar o baixo desempenho dos alunos do Instituto de
Informática da Universidade Federal de Goiás nas disciplinas de introdução à
programação. O PBL tem como foco o aprendizado por meio da solução de problemas,
sendo o aluno o principal responsável pelo seu aprendizado, pois ao se confrontar com
um problema, o aluno deve buscar a solução dele, sem aulas teóricas ou conhecimento
prévio da solução fornecida pelo professor. O papel do professor é de tutor/orientador. O
método também é colaborativo, pois, os alunos são separados em grupos de, no
máximo, seis alunos. O PBL envolve sete etapas: i) exame do caso – familiarização com

28
o problema (descrição); ii) identificação do problema – dar título ao problema e definir
as questões principais; iii) brainstorming (chuva de ideias) – conectar as ideias, verificar
seus conhecimentos prévios a respeito do problema; iv) definição de um modelo
explanatório (esquema) – estruturação das ideias, avaliação crítica das ideias (o papel do
tutor é fundamental nessa fase); v) definição dos objetivos do aprendizado – foco nos
erros e inconsistências na compreensão do problema; vi) estudo independente –
pesquisa e estudo para resolver o problema (conceitos/materiais); e, vii) elaboração da
solução – reunião para discutir, refletir e apresentar a solução do problema. Para colocar
o método PBL em prática os autores utilizaram os ambientes de programação visual:
Alice (https://www.alice.org) e Scratch (https://scratch.mit.edu/). Os resultados se
apresentaram satisfatórios, os alunos tiveram boa compreensão dos conceitos sobre
algoritmos, o aprendizado se tornou uma tarefa mais fácil na opinião dos alunos, de
maneira geral os alunos afirmaram que o método PBL integrado aos produtos
tecnológicos contribuíram para o desenvolvimento do aprendizado.
O Ambiente Virtual de Ensino de Programação (AVEP) é um produto
tecnológico proposto por Pereira Júnior and Rapkiewicz (2005). Os autores enfatizam
que a união de estratégias com as ferramentas computacionais parecem ser a melhor
solução para o ensino e aprendizagem de algoritmos, assim é proposto um ambiente
virtual que integre essas duas vertentes. O AVEP foi composto de: Componentes de
Aprendizagem (Fase 1 – questionário de problemas e jogos computacionais; Fase 2 –
problemas propostos por meio do fórum; e, Fase 3 – codificação dos algoritmos na
linguagem de programação Pascal); Componente de Comunicação (chat, fórum e e-
mail); Componente de Armazenagem; e, Atores (aluno, tutor e administrador). A
aprendizagem flui normalmente, nos problemas propostos e resolvidos nas fases 1, 2 e
3. O componente de comunição está presente em todas as fases para que o processo se
torne colaborativo e os envolvidos compartilhem dúvidas e soluções.

3. Abordagem Design Thinking


Ante o exposto, propomos uma metodologia diferenciada para o ensino de algoritmos, o
Design Thinking (Pensamento de Design), onde o fator humano é preponderante para o
sucesso de qualquer serviço ou produto que se deseja produzir. O DT, além de
considerar o pensamento dedutivo, indutivo, dá ênfase ao pensamento abdutivo
(criativo/produtivo), ou seja, abre caminho para a inovação. Dessa forma, uma definição
mais apropriada para o DT seria um ‘maneira de pensar’, tendo como principal foco a
produção criativa de soluções inovadoras [Cavalcanti and Filatro 2016]. Essa
abordagem descentraliza a prática de design das mãos dos profissionais dessa área, pois
permite que o pensamento de design seja utilizado por pessoas de variadas áreas.
O DT foi proposto e utilizado por Tim Brown (2010), designer que é presidente
da empresa norte-americana de inovação e criatividade – Ideo. A empresa segue o
princípio HCD – Human Centered Design (Design Centrado no Humano). O HCD
trabalha sob três vertentes, são elas: i) o desejo – aquilo que é esperado e faz sentido
para as pessoas; ii) a praticabilidade – operacionalização do desejo em um futuro
próximo; e, iii) a viabilidade - o que é possível financeiramente, levando-se em conta o
desenvolvimento sustentável [Brown 2010].

29
As três vertentes explanadas acima, também se resumem a: i) Ouvir (Hear) –
definir um desafio estratégico e ouvir o que as partes interessadas pensam sobre o
problema; ii) Criar (Create) – recuperar os insights que tenham surgido na fase anterior
para definir o problema central do projeto, a partir disso é possível criar protótipos
rápidos que podem ser testados pelas partes interessadas; e, iii) Entregar (Deliver) – as
soluções são testadas de maneira mais estruturada e profunda, são propostas soluções-
piloto, planos de implementação e de aprendizado [Cavalcanti and Filatro 2016].
Além da Ideo, a Universidade de Stanford, mais precisamente a d.school utiliza
o DT sob uma perspectiva de cinco vertentes, são elas: i) Entender/observar (empatia) –
ouvir o que as partes interessadas têm a dizer sobre o problema em questão; ii) Definir –
etapa em que deve ser sintetizado os dados coletados durante o processo de empatia;
definir um ponto de vista para elaboração do projeto; iii) Idear – etapa do brainstorming
– geração de muitas ideias que serão analisadas e filtradas para auxiliar na resolução do
problema; iv) Prototipar – criar protótipos que possam ser testados pela equipe de
pensadores de design e pelas partes interessadas; e, v) Testar – refinamento dos
protótipos, realização de alterações e melhoria no projeto [Cavalcanti and Filatro 2016].
O DT utilizado pela Ideo (1) vai ao encontro do utilizado pela d.school (2), pois
podemos fundir todas as etapas do seguinte modo: Ouvir (1)  Entender e Observar
(2); Criar (1)  Definir e idear (2); e, Entregar (1)  Prototipar e testar (2).
Acreditamos que aplicar o DT nos conteúdos de algoritmos vai ser importante,
pois o conceito de algoritmos é bem parecido com os do DT, uma vez que um algoritmo
parte de um problema inicial, em seguida é pensada uma solução para o problema, na
sequência é iniciada a etapa de implementação, depois são realizados os testes, por
último é entregue o produto final.

4. Resultados Parciais e Considerações Finais


O projeto está em sua fase inicial, ou seja, sendo executado na primeira fase do DT:
Compreender o Problema. Para compreendê-lo, os alunos (design thinkers),
orientados pelos membros do projeto e, a partir de suas experiências em sala de aula
definiram o desafio estratégico, o qual é: - Ouvir e criar artefatos para o ensino e
aprendizagem de algoritmos.
Definido o desafio estratégico, os design thinkers reuniram-se para planejar a
abordagem com os stakeholders (as partes interessadas), objetivando colher insights que
se mostraram ocultos no desafio estratégico.
Dez alunos foram convidados para a reunião com os design thinkers. Apenas três
alunos (stakeholders) apareceram no dia da reunião. Apesar da quantidade mínima de
alunos, o momento foi muito rico, pois os alunos que trabalham no projeto ouviram e
registraram as dificuldades de seus colegas que já estudaram a disciplina de Algoritmos
e Laboratório de Programação I. As informações dos stakeholders foram registradas por
eles mesmos, em post-its, conforme mostrado na figura 1 abaixo. Depois de colhidas as
informações foi montada uma matriz de feedback, por meio dela foi possível categorizar
as informações, sintetizando as ideias mais relevantes.

30
Figura 1. Informações dos stakeholders

Na atual fase do projeto, depois de várias reuniões e discussões, os design


thinkers estão elaborando um questionário com três categorias de perguntas:
informações pessoais, dificuldades no ensino e aprendizagem de algoritmos e
ferramentas tecnológicas para o ensino de algoritmos. O questionário será refinado pelos
professores coordenadores do projeto. Depois será testado pelos alunos envolvidos no
projeto e também pelos alunos que participaram da reunião realizada pelos design
thinkers. Depois de testado e melhorado, o questionário será aplicado de forma on-line
aos alunos do curso de Bacharelado em Ciência da Computação (alunos do 1º e 2º
semestres).
As informações colhidas com o questionário on-line serão analisadas e
categorizadas, objetivando saber quais dificuldades os alunos têm para aprender
algoritmos e quais ferramentas tecnológicas eles gostariam de ter para estudar os
conteúdos de algoritmos.
Como metas futuras, os design thinkers, juntamente com os professores
coordenadores do projeto farão a seleção e estudo de algumas ferramentas gratuitas on-
line para a construção dos artefatos tecnológicos para o ensino e aprendizagem de
algoritmos e programação.

31
Referências
Ambrósio, A. P. and COSTA, F. M (2010) “O Uso de PBL para o Ensino de Algoritmos
e Programação de Computadores”,
http://each.uspnet.usp.br/pbl2010/trabs/trabalhos/TC0547-1.pdf, Fevereiro.
Brown, T. (2010), Design Thinking: uma Metodologia Poderosa para Decretar o Fim
das Velhas Ideias, Elsevier.
Cavalcanti, C. C. and Filatro, A. (2016), Design Thinking na Educação Presencial, a
Distância e Corporativa, Saraiva, 1st edition.
Ferreira, M. A. dos S. et al. (2005) “Proposta de uma Metodologia para Ensino-
Aprendizagem de Algoritmos”, Revista Universidade do Planalto Catarinense:
Brasil, Editora da UNIPLAC, p. 1-88.
Manzano, J. A. N. G. and Oliveira, J. F. de. (2016), Estudo Dirigido de Algoritmos,
Érica, 14th edition.
Oliveira, M. A. F. et al. (2017) “Aplicação do Método Peer Instruction no Ensino de
Algoritmos e Programação de Computadores”, Revista Novas Tecnologias na
Educação: CINTED-UFRGS, Brasil, Editora da UFRGS, p. 1-11.
Pereira Júnior, J. C. R. and Rapkiewicz, C. E. (2005) “Um Ambiente Virtual para
Apoio a uma Metodologia para Ensino de Algoritmos e Programação”, Revista
Novas Tecnologias na Educação: CINTED-UFRGS, Brasil, Editora da UFRGS, p. 1-
7.
Ramos, V. et al. (2015) “A Comparação da Realidade Mundial do Ensino de
Programação para Iniciantes com a Realidade Nacional: Revisão Sistemática da
Literatura em Eventos Brasileiros”, https://www.br-
ie.org/pub/index.php/sbie/article/view/5178.

32
Caracteríticas multimodais de um Guia desenvolvido para
a produção de Cartoons: Uma análise parcial

Izamara Cirqueira Bini¹, Daise Lago Pereira Souto²


¹Licenciatura em matemática - Universidade do Estado de Mato Grosso (UNEMAT)
Barra do Bugres – MT – Brasil

²Professora Dra. em Educação Matemática - Universidade do Estado de Mato Grosso


(UNEMAT)
Barra do Bugres – MT – Brasil
izamarabinny@gm@il.com,Daise@unemat.br

Abstract. This paper presentes results of a research that aimed to elaborate a


multimodal text, specifically, a guide for the production of catoons. Our goal
is to discuss the initial part of the multimodal structure of this guide.
Therefore, we are based on theoretical perspectives of multimodality as well
as social semiotics. Methodologically we rely on the qualitative paradm, being
the instruments of data production images (printes) of the guide. The results
indicate that combinations of images, vídeos and written text can be good
allies for those who want to diversifu the ways of communicating their ideas
and teachings.

Resumo. Este trabalho apresenta resultados de uma pesquisa que visou


elaborar um texto multimodal, especificamente, um guia para a produção de
cartoons. Nosso objetivo é discutir a parte inical da estrutura multimodal do
referido guia. Para tanto, nos fundamentamos em perspectivas teóricas da
multimodalidade bem como a semiótica social. Metodologicamente nos
apoiamos no paradigma qualitativo, sendo os instrumentos de produção de
dados imagens (prints) do guia. Os resultados indicam que as combinações de
imagens, vídeos e texto escrito podem ser bons aliados para quem deseja
diversificar as formas de comunicar suas ideias e ensinamentos.

1. Introdução
As tecnologias digitais permitem combinar diferentes modos de comunicações e
representações, o texto escrito pode ser combinado com imagens, sons e movimentos
podem ser adicionados às imagens (KRESS, 1998).
Essas combinações e diferentes modos de representações podem ser
denominadas de multimodalidade. A multimodalidade está vinculada à uma abordagem
da semiótica social que é caracterizada por Paiva (2018, p. 110) podendo ser “uma
ciência que tem como foco o processo de significação enquanto construção social”, ou
seja, busca entender como as pessoas produzem e comunicam suas mensagens (BINI;
SOUTO, 2019).

33
Neste sentido, o objetivo deste trabalho é discutir parte inicial da estrutura
multimodal do guia orientativo para a produção de cartoons que foi elaborado com o
intuito de contribuir para com a problemática do uso e inserção das tecnologias digitais
no ambiente escolar, conforme é apontado por Souto (2014).
O referido guia oferece um passo a passo para a produção ou edição de cartoons
matemáticos com dicas de uso de softwares gratuitos que possam ser utilizadas
(acessadas) nas escolas públicas de Educação Básica. Nessa pesquisa, os vídeos do tipo
cartoons devem ser entendidos como “produções audiovisuais - desenhos, colagens ou
modelagens - animadas por meios digitais (softwares, aplicativos etc.) que visem à
comunicação de ideias matemáticas” (manuscrito SOUTO, 2016, p. 2).
O texto multimodal pode ser entendido como “uma unidade de significação em
que os produtores de texto fazem escolhas de forma a construírem um produto com um
propósito comunicativo pelo uso desse sistema” (VIEIRA; SILVESTRE, 2015, p. 131).
A esse respeito entendemos que o significado do guia foi anunciado por meio de uma
sincronização de modos sendo eles: vídeos, imagens, áudios ou texto escrito.
Optamos metodologicamente pela abordagem qualitativa de Bogdan e Biklen
(1994), visto que, não visamos quantificar a dimensão de dados e sim analisar a
qualidade. Sendo os instrumentos de produção de dados imagens (prints) do guia.
Este texto está sistematizado da seguinte forma: inicialmente apresentamos as
etapas utilizadas para a produção do guia. Na sequência apresentamos os resultados da
pesquisa acerca da primeira etapa do guia. As considerações e por fim as referências.

2. Sistematização
O guia foi elaborado em cinco etapas, sendo que a primeira etapa apresenta a produção
do roteiro que é fundamental para o processo de produção de cartoons. A mesma
consiste em três fases sendo elas: roteiro, enredo e virada. Estas fases foram exibidas de
maneiras diferentes sendo com imagens, escrita e vídeos.
A segunda etapa equivale a apresentação do software gratuito OpenToonz. Nessa
etapa exibimos alguns comandos do software com escritas e vídeos do tipo screencasts
(vídeos que gravam o que se passa na tela do computador).
Na terceira etapa produzimos desenhos com o software OpenToonz e capturamos
a ecrã do computador utilizando vídeos do tipo screencasts. Esses vídeos possuem
duração de 3 a 6 minutos. Neles foram apresentados momentos da produção do cartoon
proposto no roteiro disponibilizado no guia.
A quarta etapa foi o momento em que apresentamos um passo a passo para a
construção de frames (desenho quadro a quadro). Para isso, também utilizamos vídeos
do tipo screencasts.
Na quinta e última etapa foi apresentada a edição final do cartoon produzido no
OpenToonz. E também foi disponibilizado o próprio cartoon para que os usuários do
guia possam o assistir. Por fim nessa etapa ainda, foi apresentada as considerações finais
os agradecimentos e as referências.

34
4. Resultados e discussões
À estrutura do guia foi planejada visando fazer combinações de modos, ou seja,
utilizando a multimodalidade. Vieira e Silvestre (2015, pg. 71) salientam que “nenhum
modo semiótico deve ser visto isoladamente, pois eles complementam-se no momento em
que o sentido é composto”.
Assim, passamos à apresentar a parte inicial da estrutura do guia de forma
imagética, inciando com a capa do mesmo que ilustra o nome atribuido a ele “Gui@toon:
Guia para a produção de Cartoons” e logo de representação que foi construida com
símbolos e imagens, conforme ilustra a figura a seguir,

Figura 1. Capa do Guia


Analisando a tipografia da capa pela perspectiva ideacional, é possivel dizer que
as fontes e imagem escolhidas trazem o potencial do texto que sera lido. “A imagem,
como parte integrante do texto escrito, contribui para o observador compreender a
semiótica da composição textual e a ideologia do produtor do texto” (FONTE;
CAIADO, 2014, p. 479). Pela leitura metafórica da imagem, o usuário do texto poderá
ter noção que encontrará no guia caminhos para produzir vídeos do tipo cartoons
matemáticos.
Também é apresentado no guia um vídeo introdutório, que foi produzido com o
software VideoScrib que possui como principal característica uma “mão desenhando”.

35
Figura 2. Característica do vídeo introdutório

Compreendemos que esse vídeo, possui característica multimodal, pois, apresenta


um determinado conteúdo, constrói uma atitude orientacional relativa a esse conteúdo
apresentado e satisfaz o objetivo que é atender o público alvo com quem se deseja
compartilhar a sua mensagem ou informação.
No que se refere a primeira etapa do guia escolhemos analisar uma imagem
orientativa para à escrita do roteiro,

Figura 3. Orientação para escrita de um roteiro

Fazendo uma breve análise com base nas quatro modalidades levantadas por
Kress e van Leeuwen (2006 [1996]), a figura 3 apresenta à sua esquerda a palavra
conhecida “roteiro” que constitui uma informação dada. No centro da imagem está a
saliência que ocupa o lugar das perguntas orientativas. Na parte superior da imagem
encontra-se o ideal que é um boneco duvidoso com uma luz direcionada à ele, o que
significa que as perguntas que se encontram na imagem irão orientar para a produção do
roteiro.

36
Na figura 4 podemos obervar duas imagens dentro de formas geométricas com
algumas orientações a respeito do que é um enredo e também a informação de que
haveria um exemplo de roteiro em seguida.

Figura 4. Enredo

Essas duas imagens da figura 4 se caracterizam multimodais por possuirem cores


claras e escuras, sombreamento e informações que fazem sentido ao leitor do guia.
Em seguida, foi apresentada no guia um exemplo de roteiro escrito, que traz uma
história envolvendo o número pi. Na parte do roteiro exposto na figura 5, pode-se
observar partes do texto grifadas nas cores verde, azul e amarela o que representa que
essas partes do texto requerem atenção do leitor ou produtor do cartoon.

Figura 5. Parte do roteiro escrito

Também podemos analisar o vídeo que traz uma explicação sobre a virada em
um cartoon. O vídeo possui um som agradável, e imagens contendo explicações escritas
referente ao momento da virada. A virada em um cartoon é o momento em que a
matemática aparece solucionando o problema ou questão levantada por algum dos
personagens.

37
Figura 6. Imagem estática do video que explica a virada

O vídeo em sua estrutura apresenta quadros com explicações sobre virada de um


cartoon, movimentos de personagens e explicação de um conteúdo matemático, sua
característica multimodal se revela a partir das multiplas semioses construida pela
combinação das palavras, som e movimento.
Os resultados sugerem que as combinações de imagens, vídeos e texto escrito
podem ser bons aliados para quem deseja diversificar as formas de comunicar suas
ideias e ensinamentos.

5. Considerações

Acreditamos que o presente trabalho alcançou o seu objetivo principal: discutir parte
inícial da estrutura multimodal do guia orientativo para a produção de cartoons. E, com
base na análise dos dados foi possível perceber que o guia vai ao encontro das
concepções multimodais apresentadas por Kress e van Leeuwen (2006 [1996]), Vieira e
Silvestre (2015).
Podemos considerar que quando o guia multimodal estiver disponível para o
público, poderá trazer contribuições para à aprendizagem de professores e alunos que o
utilizarem e, também, contribuir para à inserção e uso pedagógico das tecnologias no
ambiente escolar.

Agradecimentos
À Fundação de Amparo à Pesquisa do Estado de Mato Grosso (FAPEMAT) por
disponibilizar bolsa, financiar (processo n.0206965/2017) e possibilitar que está
pesquisa seja realizada. E também, ao Grupo de Estudos e Pesquisas em Ensino com
Tecnologias Digitais (GEPETD).

38
Referências
BINI, I. C.; SOUTO, D. L. P. (2019) Educação Matemática e multimodalidade: o processo
de construção de um guia multimodal. XIII ENEM - Encontro Nacional de Educação
Matemática.
BOGDAN, R. C.; BIKLEN, S. K. K. (1994) Investigação qualitativa em educação. Porto:
Porto Editora.
SOUTO, D. L. P. (2016) Projeto M@ttoon. Universidade do Estado de Mato Grosso,
UNEMAT, Barra do Bugres. Manuscrito.
SOUTO, D. L. P. (2014) Transformações expansivas na produção matemática on-line. São
Paulo. Editora Cultura Acadêmica.
PAIVA, F. J. O. (2018) Multimodalidade e a construção de identidades no livro didático de
inglês. Form@re. Revista do Plano Nacional de Formação de Professores da
Educação Básica. Universidade Federal do Piauí, v.6, n. 2, dez.

VIEIRA, J.; SILVESTRE. C. (2015) Introdução à multimodalidade Contribuições da


Gramática Sistêmico-Funcional Análise de Discurso Crítica Semiótica Social. Brasília,
DF: J. Antunes Vieira.

KRESS, G.; VAN LEEUWEN, T. (2006 [1996]) Reading images: the grammar of visual
design. London and New York: Routledge, 2. Ed.

FONTE, R. da; CAIADO, R. (2014) Práticas discursivas multimodais no WhatsApp: uma


análise verbo-visual. Revista Desenredo, v. 10, n. 2.

39
Descoberta do perfil de evasão dos alunos de graduação de 
uma universidade pública aplicando técnica de mineração de 
dados educacionais. 
Felipe Dias da Silveira​1​, Reinaldo Lourenso​2  
1​
Pós-Graduação Lato Sensu em Gestão de Sistemas de Informação 
Instituto Federal de São Paulo - Campus Guarulhos (IFSP) – Guarulhos – SP – Brazil 
2​
Instituto Federal de São Paulo - Campus Guarulhos (IFSP) – Guarulhos – SP – Brazil 
silveira.felipe@alunos.ifsp.edu.br, rslourenso@ifsp.edu.br 

Abstract.  Recent  studies  make  use  of  data  mining  techniques  for  knowledge 
discovery  in  educational  databases.  Part  of  these  studies  has  focused  on 
student  dropout  in  higher  education  institutions  and  the  discovery  of  profiles 
with  higher  dropout  potential.  Based  on  the above, I intend to use educational 
data  mining  techniques  to  obtain  data  and  use  them  as  decision  support  tools 
in  a  public  university  located  in  the  municipality  of  Diadema  in  the  state  of 
São Paulo. 
Resumo.  Estudos  recentes fazem uso de técnicas de Mineração de Dados para 
a  Descoberta  de  Conhecimento em Bases de dados educacionais. Parte desses 
estudos  tem  focado  na  evasão de alunos em instituições de ensino superior e a 
descoberta  de  perfis  com  maior  potencial  de  evasão.  Partindo  do  exposto, 
pretendo  fazer  uso  de  técnicas  de  mineração  de  dados  educacionais  para 
obtenção  de  dados  e  utilizá-los  como  ferramentas  de  apoio  à decisão em uma 
universidade  pública  localizada  no  município  de  Diadema  no  estado  de  São 
Paulo. 

1. Introdução 
Conforme  apresentado  em  Silva  (2012),  o  governo  brasileiro  realizou  um  enorme 
esforço  para  aumentar  a  quantidade  de  Universidades  Públicas  Federais  através  de 
programas  educacionais  como  o  Programa  de  Apoio  a  Planos  de  Reestruturação  e 
Expansão das Universidade Federais (REUNI) . 
Entretanto  Silva  (2012)  assevera  que  existe  uma  ineficiência  no  processo 
permanência  e  conclusão  dos  alunos  nas  universidades  federais,  culminando  em  dois 
fatores  principais:  as  taxas  de  desistência  ou  término  do  curso  com  tempo  mais 
prolongado que o esperado.  
Como  resultado  desse  fenômeno  apenas  67%  dos  alunos  se  graduam  no  tempo 
previsto,  apontando que um a cada três estudantes pode, ou evadir do curso ou ser retido 
por  mais  tempo  sendo  que  segundo  fenômeno  pode  evoluir  para  uma  evasão  tardia 
(SILVA, 2012). 
Com  o  atual  estado  da  arte  das  Tecnologias  da  Informação  (TI)  vem  sendo 
criados estudos que fazem uso de técnicas de Mineração de Dados para a  Descoberta de 

40
Conhecimento  em  Bases  de  dados  educacionais.  Parte  desses  estudos  tem  focado  na 
evasão  de  alunos  em  instituições  de  ensino  superior  e  a descoberta de perfis com maior 
potencial de evasão.  
Conforme  Silva  (2017),  assim  como  nas  demais  áreas  afetadas  pelo Big Data, o 
campo  educacional  vem  incorporando  cenários  dessas  tecnologias,  em  virtude  das 
diversas  abordagens  educacionais  gerarem  cada  vez  mais  dados  e  também  demandam 
análises  detalhadas  e  voltadas  para  um  melhor  planejamento  e  execução  de  ações  na 
área da educação.  
Segundo  Baker  (2011),  a  Mineração  de  Dados  Educacionais  (MDE)  surgiu 
como  uma  área  de  pesquisa  que  possui  grande  potencial  para  contribuir  com  a  melhor 
compreensão  dos  processos  de  ensino,  de  aprendizagem  e  de  motivação  dos  alunos 
tanto em ambientes individuais quanto em ambientes colaborativos de ensino.  
As  principais  motivações  para  o  uso  da  MDE  vem  exatamente  do  fato  das 
tecnologias  da  informação  utilizadas  nas  instituições  e universidades fornecerem todo o 
material necessário para análise e processamento de dados para esse contexto. 
A  Mineração  de  dados  é  entendida  como  uma  etapa  do  processo  do  ​Knowledge 
Discovery  in  Database  (KDD),  com  a  finalidade  de  descobrir  padrões  relevantes  que 
ocorrem  nos  dados.  E  a  partir  dos  padrões  descobertos  têm-se  condições  de  gerar 
conhecimento útil para o processo de tomada de decisões. (DA SILVA et al., 2017) 
Esta  é  uma  forma  ótima de obter mais informação dos dados brutos de uma base 
de  dados  ou  base  de  conhecimento.  Essas  tarefas  preditivas  tem  como  principal 
característica  encontrar  valores  em  um  atributo  apontado,  permitindo  prever  que  dados 
com  um  certo  nível  mínimo  de  similaridade,  apontem  informações  relevantes  para  um 
determinado  contexto,  ou  seja  geração  de  conhecimento  e  predição  de  resultado  futuro 
(COSTA et al., 2012). 

 
Figura 01: O processo de KDD (DA SILVA, 2017) 

Em  sua  sistemática,  a  mineração  de  dados  segue  os  passos  que  podem  ser 
observados  na  Figura  01.  Os  dados  devem  ser  coletados  (obtenção  de  dados)  e 
organizados  em  uma  fase  de  pré-processamento.  Como  resultado  imediato  a  saída  do 
pré-processamento  é  uma  entrada  para  o  que  se denomina de fato a mineração de dados 
e  que  como  produto  resultará  em  um  conjunto  definido  de  pós-processamento.  Esse 
complexo  de  procedimento  pode  ser  revisto  e  reiniciado  até  se  chegar  a resultado útil e 
que atenda a uma demanda (COSTA, 2012). 
   

41
Para  Da  Silva  et  al.  (2017),  o  ​processo  do  KDD,  consiste  em  um  processo 
analitico,  sistemático  e,  até  onde  possível,  automatizado.  Segundo  Amaral  (2016),  a 
mineração  de  dados  serve  para  explorar  e  analisar  grandes  volumes  de  dados  em busca 
de padrões, previsões, erros, associações entre outros.  
Santos  (2016)  lembra  ainda  que  podemos  verificar  que  existem  diversos 
trabalhos  que  utilizam-se  da  mineração  de dados educacionais para análise de dados em 
ambientes  escolares,  porém  cerca  de  57%  dos  trabalhos  identificados  utilizam-se  de 
dados  coletados a partir de ambientes virtuais de aprendizagem (AVAs), e somente 16% 
destes  estudos  utilizam  técnicas  de  mineração  de  dados  em Sistemas de Gerenciamento 
Acadêmico (SGA).  
Estudos  sobre  evasão  escolar  em  universidades,  tanto  públicas  quanto 
particulares,  têm  apresentado  altos  índices  e  seus  efeitos  têm  relações  entre  questões 
financeiras  e  no  números  de  alunos  formados,  causando  problemas  em  toda  a  cadeia 
produtiva no país (RIGO, 2012). 

2. Justificativa 
Tendo  em  vista  o baixo número de estudos que utilizam técnicas de mineração de dados 
em  Sistemas  de  Gerenciamento  Acadêmico  (SANTOS,  2016),  a  necessidade  de 
identificação  de  um  perfil  dos  alunos  evasores  (SANTOS  e  ARABI,  2015)  e  a 
possibilidade  de  trabalhos  futuros  relacionados  ao  tema,  no  presente  trabalho  pretendo 
fazer  uso  de técnicas de mineração de dados educacionais para obtenção de informações 
sobre  o  perfil  de  evasão  e  utilizá-los  como  ferramentas  de  apoio  à  decisão  em  uma 
universidade pública localizada no município de Diadema no estado de São Paulo. 

3. Objetivo e pergunta de pesquisa 


Avaliar  o  perfil  dos  estudantes  de  graduação de uma universidade pública no município 
de  Diadema  por  meio  de  técnicas  de  mineração  de  dados  educacionais  em  sistemas  de 
gerenciamento  acadêmico  (SGA).  Será  analisado  as  variáveis:  Idade;  Sexo;  Etnia, 
Necessidade  Especial  (Sim/Não),  Tipo  de  Vaga  (Ampla  concorrência  /  Cotista), 
Coeficiente  de  rendimento (CR),  Ano letivo, Tipo de Ensino médio (Público/Privado) e 
a Situação acadêmica atual. 
A  pergunta  tem  por  base  a  seguinte  hipótese  inicial:  Alunos  com  baixo 
desempenho nos semestres iniciais possuem maior tendência à evasão.  

4. Revisão da literatura 
Em  Silva  (2017)  são  abordados  aspectos  conceituais  entre  as  áreas  de  Mineração  de 
Dados  Educacionais  (Educational  Data  Mining)  ,  Aprendizagem  Analítica  (Learning 
Analytics)  e  Analíticas  Acadêmicas  (Academic  Analytics)  afim  de  suas  fronteiras  e 
correlações entre essas áreas. 
Rigo  (2012)  apresenta  uma  análise  de  melhorias  possíveis  na  aplicação  de 
Mineração  de  Dados  Educacionais,  para  que  seus  resultados  possam  apoiar 
efetivamente processos de detecção de comportamentos ligados à evasão escolar. 
Paz  (2017)  faz  um  estudo de caso para identificação de perfis de evasão em uma 

42
universidade  comunitária  através  da  descoberta  de  conhecimento  em  base  de  dados 
(DCBD).  Em  suas  considerações  finais,  afirma  como  limitação  do  referido  trabalho  a 
análise  de  apenas  um  semestre  da  IES  e  que  para  trabalhos  futuros  destaca-se  a 
ampliação  da  base  de  dados  para  mais  semestres,  a  inclusão  de  novos  atributos  para 
novas análises como: renda per capita, se o aluno trabalha e frequência na biblioteca. 
Costa  (2013)  introduz  os  principais  conceitos,  técnicas  e  algoritmos  de 
mineração  de  dados  com  aplicações  a  conjuntos  de  dados  educacionais,  discutindo 
métodos  sobre  classificação  e  regressão,  agrupamento  de  dados  e  mineração  de  regras 
de associação. 
Baker  (2011)  são  discutidas  as  condições  que  viabilizam  a pesquisa da EDM no 
cenário  internacional  e  quais  os  desafios  para  consolidar  a  área  no  Brasil.  Além  disso, 
também  aborda  o  potencial  de  impacto  da  EDM  na  melhora da qualidade dos cursos na 
modalidade educação a distância (EAD). 
Santos  (2016)  aponta  e  apresenta  o  que  está  sendo  pesquisado  na  área  de 
predição  de  desempenho  acadêmico. Conta com a análise e classificação de publicações 
na  área  de  Mineração  de  Dados  Educacionais  publicados  por  pesquisadores  brasileiros 
em eventos e periódicos na América Latina entre os anos de 2012 e 2015.  
Em  Santos  e  Arabi  (2015)  afirmam  que  a  evasão  escolar  é  algo  muito 
preocupante  e  que  deve  ser  devidamente  analisada  em  qualquer  nível  de  ensino.  No 
nível  superior,  a  evasão  pode  representar  a  perda  de  qualificação  do jovem brasileiro e, 
no caso das universidades públicas, um desperdício de recursos. 

5. Métodos e técnicas 
O  embasamento  teórico  realizado  engloba  pesquisas  em  artigos  e  livros  que  tratam  do 
tema  de  mineração  de  dados,  mineração  de  dados  educacionais,  algoritmos  e 
ferramentas  que  podem  ser  utilizadas  para  aplicar  as  técnicas  aprendidas  a  fim  de 
viabilizar  a  execução  deste  trabalho.  Sendo  a  busca  realizada  através  da  ferramenta 
Google Scholar. 

Adoção  da  Ferramenta  WEKA,  que  possui  uma  coleção  de  algoritmos  voltados 
para  ​machine  learning  e  ​data  mining.​   Dentre  as  ferramentas  computacionais  mais 
utilizadas  o  Weka  foi  a  de  maior  utilização  (presente  em  aproximadamente  77%  dos 
trabalhos) segundo levantamento efetuado por Santos et al. (2016) . 

Utilização  de  algoritmos  de  Árvore  de  Decisão.  Segundo  Santos  et  al.  (2016) 
este  fato  se  deve  a  indução  de  árvores  de  decisão  ser  uma  das  formas  mais  simples,  e 
ainda assim mais bem-sucedidas de Algoritmos de Aprendizagem. 
Será  aplicado  como  método  de  pesquisa  o  estudo  de  caso  em  uma  universidade 
pública  localizada  no  município  de  Diadema  em  São  Paulo  onde serão utilizados dados 
sobre  a  vida  acadêmica  dos  estudantes  de  diferentes  cursos  de  graduação  entre  os  anos 
de  2007  e  2018,  sendo  que  estes  serão  disponibilizados  pela  equipe  de TI da respectiva 
universidade.  Salienta-se  que  os  dados  pessoais  dos  alunos  não  serão  utilizados  e  nem 
publicitados. 

43
6. O processo de descoberta de conhecimento em bases de dados 
Para  iniciar  o  processo  de  descoberta  de  conhecimento  em  bases  de  dados  foram 
selecionados  os  dados  de  sete  cursos  de  graduação  que  possuem  registros entre os anos 
de 2007 e 2018.  
6.1. Processo de seleção e extração dos dados 
Foram  extraídos  um  total  de  4131  registros  de  alunos  matriculados  entre  os  anos  de 
2007  a  2018,  contendo  dados  dos  alunos  da  graduação  nos  cursos  de:  Ciências 
Ambientais,  Ciências  Biológicas,  Engenharia  Química,  Farmácia,  Química,  Química 
Industrial  e  Licenciatura  em  Ciências.  E  que  cursaram  pelo  menos  os  dois  primeiros 
semestres.  Estes  cursos  são  oferecidos  em  diferentes  turnos:  vespertino,  integral  e 
noturno.  Os  dados  foram  solicitados  para  a  universidade  por  meio  de  canal  de  acesso à 
informação  no  formato  de  dados  abertos.  Os  dados  foram  disponibilizados  em  arquivo 
de texto de forma anônima, não sendo possível identificar os alunos.  
6.2. Pré-processamento 
Dentre  os  19  (dezenove)  atributos  disponibilizados  nove  foram  considerados  no 
processo  de  mineração  de  dados, que seguem: Idade; Sexo; Etnia, Necessidade Especial 
(Sim/Não),  Tipo  de  Vaga  (Ampla  concorrência  /  Cotista),  Coeficiente  de  rendimento 
(CR),  Ano  letivo,  Tipo  de  Ensino  médio  (Público/Privado)  e  a  Situação  acadêmica 
atual.  Alguns  atributos  precisaram  passar  por  um  processo  de  discretização  sendo 
distribuídos um pequeno número de intervalos distintos.  
6.3. Processo de mineração de dados  
Para  o  processo  de  mineração  de  dados  foi  adotado  a  ferramenta  WEKA,  que  possui 
uma  coleção  de  algoritmos  voltados  para  ​machine  learning  e  ​data  mining​.  Dentre  eles, 
foi  utilizado o algoritmo de Árvore de Decisão J48 (C4.5). Sendo realizado um conjunto 
de  treinamentos  pelo  método  cross-validation,  utilizando  o  valor  de  10  ​folds,  ​como 
conferece  vector    o  valor  0.05  e  com  poda  (​unpruned  =  False​)  visando  o  aumento  da 
acurácia na classificação dos dados. 

6.4. Pós-processamento 

Após  o  processamento  do  dados  temos  a  etapa  de  análise  dos  dados.  Com  um  total  de 
4131  instâncias  utilizadas  no  processo  de treinamento. Obteve-se a classificação correta 
de  87.146%  dos  dados,  sendo  12.854%  classificados  de  maneira  incorreta.  Conforme 
podemos  observar  na  figura  02  a  matriz  de  confusão  gerada  classificou  erroneamente 
531 registros, sendo 3600 classificados corretamente. 
 

44
 
Figura 02: Treinamento utilizando o algoritmo J48 na ferramenta WEKA 

A  árvore  de  decisão  gerada  a  partir  do  treinamento,  tem  como  primeiro  nodo  o 
Coeficiente  de  Rendimento  (CR)  acumulado.  Com  isso  é  possível  perceber  que  alunos 
com  o  CR  menor  ou  igual  a  4  (quatro)  nos  dois  primeiros  semestre  evadiram  do curso. 
A  figura  03  exibe  a  árvore  de  decisão  gerada.  Também  podemos  notar  um  grande 
número  de  evasões  para  alunos  com  CR  maior  que  4  (quatro)  e  menor  que  6  (seis).  Já 
para  alunos  com CR maior do que 6 (seis) o número de evasões cai consideravelmente e 
outros  fatores  como  idade,  etnia  e  tipo  de  ensino  médio  começam  a  aparecer  como 
delimitadores ou não da evasão. 

 
Figura 03: Árvore de decisão gerada pelo algoritmo J48 na ferramenta WEKA 

45
7. Conclusão e trabalhos futuros 

A  evasão  é  um  problema  muito  preocupante  para  as  universidades  e  a  identificação 


dessas  causas  se  torna  estratégico  para  os  gestores.  Nas  universidades  públicas,  o 
impacto  é  ainda  maior,  tendo  em  vista  que  este  fator  prejudica  no  cálculo  de  aluno 
equivalente.  O  aluno  equivalente  é  o  principal  indicador  utilizado  para  fins  de  análise 
dos custos de manutenção das Instituições Federais de Educação Superior - IFES. 

Neste  artigo  foi  realizado  o  estudo  de  caso  de  uma  universidade  pública, 
localizada  no  município de Diadema - SP, onde foram selecionados os dados dos alunos 
de  graduação,  de  sete  cursos  distintos,  para  aplicar  técnicas  de  mineração  de  dados 
educacionais  para  identificação  inicial  do  perfil  de  evasão  quando  relacionado  ao 
rendimento  acadêmico  nos  dois  semestres  iniciais  do  curso.  Sendo  obtidos  após  o 
treinamento  realizado  com  o  algoritmo  de  árvores  de  decisão  J48  (C4.5) a confirmação 
de que alunos com menor rendimento tem maior tendência a abandonar o curso. 

Apesar  deste  estudo  mostrar  uma  tendência  do  aluno  com  baixo  rendimento  à 
evadir,  tem-se  a  limitação  do  treinamento  ser  realizado  somente  com  os  dados  de  um 
dos campi da referida universidade.  

Como  trabalhos  futuros,  serão  incluídos  outros  fatores,  tais  como:  dados 
socioeconômicos  e  demográficos,  a  execução  do  treinamento  para  os  cursos  distintos 
visando  identificar,  além  do  perfil  de  evasão  dos  campi,  o  perfil  por  curso.  Além  da 
oportunidade  deste  estudo  ser  realizado  nos  demais  campi  espalhados  pelo  estado  de 
São Paulo/BR.  

Referências 
AMARAL,  Fernando.  Aprenda  Mineração  de  dados:  teoria  e  prática.  Alta  Books 
Editora, 2016. 
BAKER,  Ryan;  ISOTANI,  Seiji;  CARVALHO,  Adriana.  Mineração  de  dados 
educacionais:  Oportunidades  para  o  brasil.  Brazilian  Journal  of  Computers  in 
Education,  v.  19,  n.  02,  p.  03,  2011.  Link 
http://br-ie.org/pub/index.php/rbie/article/view/1301/1172 
BRAVIN,  Guilherme  Ferrari;  Lee,  Luciana;  Rissino,  Silvia  das  Dores  -  Mineração  de 
Dados  Educacionais  na  base  de  dados  do  ENEM  2015  -  Brazilian  Journal  of 
Production  Engineering,  Universidade  Federal  do  Espírito  Santo,  Editora 
UFES/CEUNES/DETEC, 2019 
COSTA,  Evandro  et  al.  Mineração  de  dados  educacionais:  conceitos,  técnicas, 
ferramentas  e  aplicações.  Jornada  de  Atualização  em  Informática  na  Educação,  v. 1, 
n. 1, p. 1-29, 2013. Link http://br-ie.org/pub/index.php/pie/article/view/2341/2096 
DA  SILVA,  Leandro  Augusto;  PERES,  Sarajane  Marques;  BOSCARIOLI,  Clodis. 
Introdução à mineração de dados: com aplicações em R. Elsevier Brasil, 2017. 
DOS  SANTOS,  Ramon  Nóbrega;  DE  ALBURQUEQUE  SIEBRA,  Clauirton; 
OLIVEIRA,  Estêvão  Domingos  Soares.  Uma  Abordagem  Temporal  para 

46
Identificação  Precoce  de  Estudantes  de  Graduação  a  Distância  com Risco de Evasão 
em  um  AVA  utilizando  Árvores  de Decisão. In: Anais dos Workshops do Congresso 
Brasileiro  de  Informática  na  Educação.  2014.  p.  262.  Link: 
http://br-ie.org/pub/index.php/wcbie/article/view/3224/2786 
GOLDSCHMIDT,  Ronaldo;  PASSOS,  Emmanuel  ;  BEZERRA,  Eduardo.  Data Mining 
2ED. Elsevier Brasil, 2015. 
PAZ, Fábio; CAZELLA, Sílvio. Identificando o perfil de evasão de alunos de graduação 
através  da  Mineração  de  dados  Educacionais:  um  estudo  de  caso  de  uma 
Universidade  Comunitária.  In:  Anais  dos  Workshops  do  Congresso  Brasileiro  de 
Informática  na  Educação.  2017.  p.  624.Link 
http://www.br-ie.org/pub/index.php/wcbie/article/view/7448/5244 
RIGO,  Sandro  J.;  CAZELLA,  Silvio  C.;  CAMBRUZZI,  Wagner.  Minerando  Dados 
Educacionais  com  foco  na  evasão  escolar:  oportunidades,  desafios  e  necessidades. 
In:  Anais  do  Workshop  de  Desafios  da  Computação  Aplicada  à  Educação.  2012.  p. 
168-177. Link: http://www.br-ie.org/pub/index.php/desafie/article/view/2787 
SANTOS,  Maíze  Aparecida  dos;  ARABI,  Thamyres  Rollemberg  Aboud.  Evasão  nos 
campi  da  UNIFESP.  In:  Graduação  em  números.  2015.  Link: 
http://www.unifesp.br/reitoria/prograd/pro-reitoria-de-graduacao/informacoes-institu
cionais/graduacao-em-numeros?download=534:estudo-evasao-unifesp 
SANTOS,  Rodrigo  et  al.  Análise  de  Trabalhos  Sobre  a  Aplicação  de  Técnicas  de 
Mineração  de  Dados  Educacionais  na  Previsão  de  Desempenho  Acadêmico.  In: 
Anais  dos  Workshops  do  Congresso  Brasileiro  de Informática na Educação. 2016. p. 
960. Link http://www.br-ie.org/pub/index.php/wcbie/article/view/7021 
SILVA,  Hadautho  Roberto  Barros  da;  Adeodato,  Paulo  Jorge  Leitão;  A  Data  Mining 
Approach  for  Preventing  Undergraduate  Students  Retention  -  WCCI  2012  IEEE 
World  Congress  on  Computational  Intelligence  June,  10-15,  2012  -  Brisbane, 
Australia 
SILVA,  Leandro  Augusto  et  al.  Ciência  de  Dados  Educacionais:  definições  e 
convergências  entre  as  áreas  de  pesquisa.  In:  Anais  dos  Workshops  do  Congresso 
Brasileiro  de  Informática  na  Educação.  2017.  p.  764.  Link 
http://www.br-ie.org/pub/index.php/wcbie/article/view/7462/5258 

47
Uma abordagem sobre Internet of Things na região urbana do
município de Tangará da Serra-MT
Lauren A. Sznitowski1, Davi Gabriel L. Silva1, Ricardo M. S. Cardoso1,
Wilian G. Fiirst2
1
Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso campus avançado
Tangará da Serra (IFMT) - CEP – 78.300-000 – Tangará da Serra – MT – Brasil
2
Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso campus avançado
Tangará da Serra (IFMT) - CEP – 78.300-000 – Tangará da Serra – MT – Brasil
laurenminetto5@gmail.com, davilopesifmt@gmail.com.br,
ricardo.m3deiros@gmail.com.br, wilian.fiirst@tga.ifmt.edu.br

Abstract. Technological evolution over time has generated a new connectable


environment in which not only people are interconnected but also objects. The
Internet of Things (IoT) is a human extension that facilitates activities and
processes as well as benefits personal, business and public. The study based
on bibliographic research makes it possible to know the usefulness and
application of IoT in several areas, besides, it presents the understanding of a
tangaraense sample about the functionality, application and importance given
to smart technologies, in view of the rapid development today.

Resumo. A evolução tecnológica no decorrer do tempo gerou um novo


ambiente conectável no qual não somente pessoas estão interligadas, mas
também objetos. A Internet das Coisas (IoT) é uma extensão humana que
facilita atividades e processos bem como traz benefícios no âmbito pessoal,
empresarial e público. O estudo baseado em pesquisa bibliográfica possibilita
conhecer a utilidade e aplicação da IoT em diversas áreas, além disso,
apresenta o entendimento de uma amostra tangaraense sobre a
funcionalidade, aplicação e importância dada as tecnologias inteligentes,
tendo em vista o rápido desenvolvimento na atualidade.

1. Introdução

Internet of Things (IoT), ou Internet das Coisas tem como propósito interligar objetos
por meio de conexões. Sabe-se que a internet proporciona conexão que une pessoas e
permite a troca de informações a nível mundial. A IoT é uma evolução, conecta os
objetos utilizados por pessoas e tangenciam por meio de uma conexão esses
componentes com o mundo.
As primeiras ideias a respeito surgiram pós internet, no final da década de 90. E
em 1999, essa percepção tornou-se concreta quando estruturado pesquisador do MIT
(Massachusetts Institute of Technology) Kevin Ashton, nos EUA, esse conceito compôs
o pensamento de que futuramente “não usaríamos o computador, mas sim ele se usaria”,
autônomo da interferência humana, caracterizado por um avançado e promissor
desenvolvimento tecnológico.

48
A conexão de todos os objetos físicos a Internet proporciona o cruzamento de
dados, e sua associação direta ou indireta viabiliza de maneira inteligente as relações
humanas, em tempo e dinheiro. Nesse contexto, a IoT surge com importância mundial e
se faz presente em diversas áreas, ainda que com pouca representatividade, como,
manufatura, varejo, operações de prateleiras inteligentes, estoque, e principalmente
questões relacionadas à assistência social, como supervisionamento médico (saúde) que
pode ser aplicado a hospitais e instituições afins, também como monitoramento e
controle de tráfego, adaptando o fluxo de carros.
Diante da sua importância, cabe então, questionar-se quão importante esses
mecanismos são para o futuro, como será a reação quanto essa evolução, em que locais
poderão auxiliar, ou até, levar a analisar se o futuro tecnológico está tão distante do
agora que represente uma história fictícia e inexistente.

2. Metodologia
Com o objetivo de entender as funcionalidades de IoT e a forma como está sendo usada
no âmbito social e econômico, buscou-se abordar sua utilização, bem como mencionar a
importância que terá no futuro sendo para tanto, feita uma pesquisa no contexto local.
A pesquisa de cunho quantitativo teve embasamento bibliográfico, que permitiu
entender conceitos da IoT, assim como uma pesquisa de campo com amostragem de 60
tangaraenses acerca das diversas aplicações da IoT, da evolução das tecnologias
inteligentes e das presenças destas futuramente. Para tanto, foram aplicados
questionários na área urbana do município de Tangará da Serra – MT, de forma
aleatória foram selecionados os respondentes com faixa etária entre 17 a 70 anos. A
pesquisa foi realizada entre os meses de abril a maio de 2019.

3. Resultados e Discussões
3.1 Aplicações de IoT

Por ser uma tecnologia flexível e como tal pode ser inserida em várias áreas, é
perceptível que a IoT terá marcante presença no futuro por se tratar de uma ferramenta
facilitadora e adaptável aos diversos perfis, seja no pessoal conectando objetos
individuais, no âmbito empresarial com maior número de equipamentos ou ainda
atendendo a necessidades de gestão pública.
A IoT permite que a coleta, o armazenamento e a transmissão de informações
estejam disponíveis aos itens equipados com tags ou sensores, que como citam Bi et al.
(2014), é por meio destes sensores que se permite caracterizar unicamente o
equipamento, estabilizando uma conexão entre os objetos.

3.1.1 Aplicações Industriais

É possível melhorar as transações comerciais com serviços inteligentes, o que aumenta


significativamente a eficiência do processamento de informações em tempo real e o
gerenciamento numa totalidade.
No âmbito empresarial, os benefícios podem ser nos níveis, interno e externo de
relacionamento. Internamente gozando de um maquinário mais avançado, colaboradores
mais preparados, produtos mais competitivos, modelo de negócio mais atrativo pela sua
eficiência e inovação, e por consequência mais lucrativo.

49
A nível externo é possível otimizar recursos e facilitar o processamento de
informações como a troca eletrônica de dados (EDI), realizada principalmente no
âmbito de transporte e logística de empresa para empresa (B2B), auxiliando na tomada
de decisão, controle de qualidade, e ainda, na implementação do sistema de
gerenciamento de cadeia de suprimentos (Supply Chain, SCM) trabalhando como um
sistema que interliga todas as empresas presentes na confecção de um produto, desde a
matéria prima até a chegada ao consumidor final.
3.1.2 Aplicações na saúde

A saúde é uma importante área de aplicação. Nela a adoção da IoT pode melhorar a
qualidade do serviço e reduzir custos, realizado por meio de sensores ou dispositivos
utilizados para monitorar parâmetros médicos. Segundo Li et al.(2014) avanço em
tecnologia de sensor, comunicação sem fio e processamento de dados são a força motriz
para a crescente implementação IoT em sistemas de saúde.
As redes emergentes de sensores corporais vestíveis (WBSNs) também
conhecidas como Wearables devices foram desenvolvidas para monitorar
continuamente as atividades do paciente ou parâmetros médicos, permitindo a
integração de aparelhos heterogêneos e garantindo o compartilhamento mais
detalhando, por meio de tecnologias, capazes de informar dados médicos tanto de uso
pessoal gerando dados estatísticos para auto análise quanto para fins médico externos.
Têm-se como exemplo destes dispositivos vestíveis relógios inteligentes, ou mesmo
roupas como moletons.
A IoT pode fornecer aos sistemas de saúde a interconexão de diferentes
dispositivos para obter uma visão médica abrangente, esses sensores podem ser usados
para coletar informações sobre o quadro de saúde do paciente e transmiti-las para
centros médicos remotamente.
Esse tipo de implementação tecnológica a melhora a qualidade de vida, bem
como além do monitoramento da saúde, auxiliando na prevenção de problemas pela
entrega de dados detalhados e completos a respeito do estado paciente ou mesmo de
uma doença crônica em específico. O rápido desenvolvimento de dispositivos móveis e
aplicativos de saúde criam um vasto mercado para o emprego da IoT, num contexto no
qual, a aplicação individual de saúde móvel foi desenvolvida para atender a pequenas
demandas de saúde.
Devido a essas especialidades dentro do ambiente médico, para Li, Xu, Zhao et
al. (2014), nesse contexto criou-se um conceito chamado de 'Internet das Coisas da
Saúde' (HIoT) proposto para explorar tecnologias de sensores e rede wireless quanto ao
monitoramento de condições médicas.

3.1.3 Infraestrutura

A IoT se faz presente também em áreas relacionadas a infraestrutura, cidades


inteligentes, monitoramento ambiental, residências e prédios inteligentes são alguns
exemplos. O termo 'Cidades Inteligentes' (Smart Cities), foi proposto como um
ecossistema com sensores inteligentes e novos serviços em toda a cidade, de pontos com
conexão sem fio totalmente conectado tanto para uso dos cidadãos, a citar os
dispositivos de saúde inteligentes, quanto auxiliar na logística, planejamento urbano e
gestão pública destas cidades. Como ressalta Motta (2015), o aumento da conectividade

50
beneficia por proporcionar uma administração adequada de recursos, gerando e
provocando impactos positivos na saúde financeira das cidades.
Um exemplo desta implementação é a efetivação de lixeiras inteligentes, que
com seu uso permitiria economia de tempo e dinheiro, graças aos sensores acoplados as
lixeiras que transmitiriam informações individuais, informações essas como a
quantidade de dejetos existentes. Desta forma seriam recolhidas apenas as lixeiras
cheias, direcionando e dinamizando a coleta de lixo por reduzir o tempo médio gasto.
Este pequeno modelo de aplicação IoT em infraestrutura deixa claro a
viabilidade que proporciona, melhora considerável na logística e limpeza bem como na
redução de custos e melhora do planejamento urbano.

3.1.4 Segurança e Vigilância

Mesmo citadas diversas funções da implementação da IoT em múltiplas áreas, é


importante destacar, as interconexões entre objetos podem trazer problemas de
segurança deixando o usuário exposto a ameaças de segurança devido ao grande fluxo
de dados que se faz necessário.
Em redes tradicionais, como a Internet, os protocolos de segurança e a garantia
de privacidade são amplamente utilizados para proteger a privacidade e a comunicação,
assim como na IoT, mas, para Roman e Lopez (2009) as técnicas de segurança aplicadas
nestas redes convencionais são insuficientes para a IoT uma vez que faz uso de conexão
mais abrangente e, portanto mais compartilhada.
Devido à dinâmica, incertezas e complexidade da IoT, proteger objetos
inteligentes é uma tarefa difícil, contrapesar esse fluxo e assegurar a segurança e
integridade dos usuários requer um aprimoramento nos protocolos de segurança para
que não haja vazamentos de dados e invasões externas.
A privacidade das informações é um dos assuntos mais pertinente a ser debatido,
pois pode ser caracterizado como um ponto fraco para implementação IoT, uma vez que
a necessidade de fácil acesso aos dados traz o desafio de equacionar o
compartilhamento de informações com garantia de segurança e integridade dos
usuários.

3.2 Análise Local


Os dados coletados foram agrupados e então analisados como no quadro 1 e no gráfico
1, desta forma os dados apresentados podem ser discutidos e comparados entre si. O
quadro 1 apresenta as respostas obtidas quanto ao questionário fechado.
Quadro 1. Uso e conhecimento sobre a IoT.

Itens Sim Não


Uso de Sistemas Inteligentes 80% 20%
Sabe o que é Internet das Coisas 52% 48%
Sabe o que é IoT 18% 82%
Utiliza algum sistema IoT diariamente 46% 54%

51
Com intuito de saber se haveria relação entre Sistemas Inteligentes e o conceito
IoT nas respostas sobre o uso diário dos Sistemas Inteligentes, percebe-se que 80% dos
entrevistados afirmam conhecer o termo e utilizam cotidianamente Sistemas
Inteligentes, porém apenas ⅙ (um sexto) responderam coerentemente a real definição,
ao dizer que SIs são sistemas capazes de entender, aprender e interagir com as
necessidades do usuário, e não como “tudo quanto é tecnologia pode ser considerada um
SI”, evidenciando dessa forma as tecnologias tradicionais que não interagem com o
usuário.
Internet como se sabe é uma rede universal de computadores que permite a
trocam informações, onde interagem diversas pessoas de várias partes do mundo.
Internet das Coisas, se aproxima dessa definição, como o nome diz, refere-se a
interconexão dos objetos cotidianos, das coisas (geladeira, termostato) em uma rede, a
internet, tal facilidade de compreender foi verificada quando 52% responderam sim,
reconhecendo o termo. Porém, em linguagem técnica percebeu-se maior dificuldade,
para assimilar “IoT” com “Internet das Coisas”. Tal resposta pode ser atribuída ao fato
de que, por ser um termo em inglês, muitos o desconhecem, e assim, 82% afirmaram
não saber e jamais ter ouvido falar. É válido lembrar que se apresentasse Internet das
Coisas como Internet of Things o idioma tanto do acrônimo quanto da real origem da
palavra (inglês), dificultam o entendimento, explicando o desconhecer do público.
Nas perguntas de múltipla escolha observou-se que conseguiam responder de
forma intuitiva sobre o assunto, todavia nos questionamentos discursivos em mais de
70% dos casos afirmaram pouco ou quase nada quanto ao entendimento do conceito
IoT. Após as respostas dos entrevistados lhes foram explicados os referidos termos, e
assim conseguiam exemplificar alguns objetos inteligentes que sejam uma aplicação IoT
como geladeira inteligente, aplicações no trânsito, E-casa, mostrando seu
desconhecimento por parte dos conceitos técnicos, mas suas utilidades práticas.
Quando perguntados sobre a presença da IoT em seu cotidiano, 54% negaram
fazer uso desta tecnologia em suas rotinas, o que para muitas pessoas pode-se
relacionar-se com a distância de realidade de um mundo tecnológico e avançado na
legítima situação brasileira. Quanto aos demais, 46% que afirmaram utilizarem, de certa
forma continuam não utilizando-a, apenas pensam que desfrutam desta tecnologia. Por
tem um conhecimento equivocado, dizem utilizar, pois acreditam que o monitoramento
de câmeras por meio de aplicativos, ou babá eletrônica venham a ser IoT.

Em uma escala de O a 5 quanto IoT estará presente no futuro.

Gráfico 1 – Presença de IoT


52
Conhecendo ou não, os termos anteriormente citados é fato que a evolução
tecnológica como capacidade de memória, carros e a própria internet ocorre
rapidamente e leva a subestimar a capacidade humana da invenção. Por isso, cabe
interpretar a relevância para o futuro mesmo ainda que demorem a acontecer, no gráfico
1 está legendado de 0 a 5 números que simbolizam o grau de importância em uma
escala crescente da presença e contribuição da IoT no futuro.
Ao todo, 89% (somando as legendas 3, 4 e 5) afirmaram que as tecnologias IoT
terão algum grau de influência para o futuro significando uma importância dada pela
população para a evolução tecnológica.
Outro ponto a ser destacado na observação do gráfico1 é a falsa sensação de
uma evolução longínqua da realidade e improvável de acontecer. Somente 7% dos
entrevistados (legenda 0) disseram ser totalmente irrelevante a presença da IoT e que
não fará diferença no futuro. Desconsiderar as novas tecnologias é não enxergar para
onde a humanidade caminha, um mundo cada vez mais tecnológico e cada vez mais
globalizado onde tudo e todos se inter-relacionam.

4. Conclusão

Destarte, determina-se que a tecnologia está cada vez mais onipresente e capacitada a
auxiliar e pensar pelos seres humanos. Nesse sentido, a IoT revela-se como uma
evolução da internet, capaz de proporcionar ainda mais conectividade, por meio de uma
vinculação interativa entre objetos, surgindo como facilitadora das ligações
interpessoais.
Fica evidente que a contínua ascensão das tecnologias inteligentes terá
fundamental participação na vida cotidiana, pois claramente contribuirá de forma
expressiva na execução de tarefas aplicadas em diversas áreas, tanto empregadas ao
meio público, como contribuir com execução de tarefas de logística e mobilidade
urbana, quanto pessoais, desde a preparação antecipada de um café, a configuração do
termostato, ou com maior abrangência, promovendo assistência e monitoramento
médico.
As aplicabilidades da IoT, como visto são de grande relevância, todavia, tanto se
conjuga os verbos no tempo futuro que fica difícil relacionar tamanha evolução a atual
realidade, que por consequência, acaba caracterizando a revolução tecnológica como
longínqua. É evidente que tais informações acerca do progresso tecnológico não são
condizentes, quando se busca fontes provenientes de dentro da tecnologia, como
empresas de TI, fica visível o nível de conhecimento sobre a temática e principalmente
quais as perspectivas para o futuro.
Diferentemente, a população (no caso, tangaraense), que tem pouco
conhecimento específico da área, e como tal não é capaz de definir ou diferenciar
conceitos tecnológicos, como siglas, tecnologias inteligentes ou internet das coisas, ao
passo de considerarem alguns tipos de tecnologia como um sistema inteligente,
desconsiderando por completo a adequação às necessidades do usuário.
Por fim, o presente estudo buscou analisar por meio de pesquisa bibliográfica e
de campo o que a Internet das Coisas trás de inovador, evidenciando suas inúmeras
aplicabilidades em diversos âmbitos relacionais, e ainda fazer uma ponte entre seu
aproveitamento e qual o conhecimento e a importância dada pela população, quando
fala-se em tecnologias inteligentes capazes de se aperfeiçoarem.

53
5. Referências

[1] F. Lacerda e M. Lima-Marques, “Da necessidade de princípios de Arquitetura da


Informação para a Internet das Coisas. Perspectivas em Ciência da Informação,”
SciELO, vol. 20, nº 2, pp. 158-171, 2015.
[2] K. Ashton, Interviewee, Entrevista exclusiva com o criador do termp "Internet
das Coisas". [Entrevista]. 13 Janeiro 2015.
[3] L. Atzori, A. Iera, G. Morabito e M. Nitti, “The Social Internet of Things (SIoT)
- When social networks meet the Internet of Things: Concept, architecture and
networks characterization,” Computer Networks, vol. 56, nº 16, pp. 3594-3608,
2012.
[4] L. Egidio e T. Ukei, “Internet das Coisas (IoT): Uma análise de aplicabilidade,”
WSEE- Workshop de Sistemas Embargados da ES670, vol. si, nº 1, p. si, 2015.
[5] L. Santella, A. Gala, C. Policarpo e R. Gazoni, “Desvelando a Internet das
Coisas,” GEMInIS, vol. 4, nº 2, pp. 19-32, 2013.
[6] M. S. Erthal, “Uma proposta para a interação de contexto em ambientes
inteligentes,” Dissertação (Mestrado), vol. si, nº si, p. si, 2014.
[7] N. Gershienfeld, R. Krikorian e D. Cohen, “The Internet of Things: The
principles that gave rise to the Internet are now leading to a new kind of network
of everyday devices, an “Internet-0,” Scientific American, pp. 76-81, 2004.
[8] “O Futuro da IoT,” 2015. [Online]. Available:
https://castrosilvamargarida.wordpress.com/o-futuro-de-iot/. [Acesso em 14
Junho 2019].
[9] R. Roman e J. Lopez, “Integrating wireless sensor networks and the internet: a
security analysis,” Internet Research, vol. 19, nº 2, pp. 246-259, 2009.
[10] S. Li, L. d. Xu e S. Zhao, “The internet of things: a survey. Information Systems
Frontiers,” Springer Science and Business Media LLC, vol. 17, nº 2, pp. 243-259,
2014.
[11] Z. Bi, L. d. Xu e C. Wang, “Internet of Things for Enterprise Systems of Modern
Manufacturing,” IEEE Transactions On Industrial Informatics, vol. 10, nº 2, pp.
1537-1546, 2014.

54
Implementação do Método do Ponto Material para Simulação
de Viscoelasticidade utilizando Partı́cula Afim em Célula
Danilo P. Ferreira1 , Heitor T. L. de Paula1 , Marcelo V. C. Aragão1
1
Instituto Nacional de Telecomunicações (Inatel)
Av. João de Camargo, 510 – 37.540-000 – Santa Rita do Sapucaı́ – MG – Brazil
{danilopeixoto,heitortoledo}@gec.inatel.br, marcelovca90@inatel.br

Abstract. This paper describes an implementation of the optimization based


material point method for deformable body simulation. In the optimization
method, the resolution of the equation of motion is replaced by an optimiza-
tion problem linked to the description of the potential energy of the system. The
implementation uses the grid transfer method called affine particle-in-cell that
preserves the angular momentum of the particles allowing stable and natural
motions in simulation. The code is GPU accelerated, contributing for parti-
cle scalability in offline simulations. Finally, the simulation of a triangle mesh
discretized on material points was demonstrated subject to the effects of a gra-
vitational force to collide with the grid boundaries.

Resumo. Este artigo descreve a implementação do método do ponto material


baseado em otimização para simulação de corpos deformáveis. Na formulação
de otimização, a resolução da equação de movimento é substituı́da por um pro-
blema de otimização vinculado a descrição da energia potencial do sistema.
A implementação utiliza o método de transferência para grade denominado
partı́cula afim em célula que preserva o momento angular das partı́culas per-
mitindo simulações estáveis e com movimentos naturais. O código é acelerado
por GPU, contribuindo com a escalabilidade de partı́culas nas simulações of-
fline. Finalmente, foi demonstrada a simulação de uma geometria triangulada
discretizada em pontos materiais, sobre a ação da gravidade ocorrendo colisão
com os limites da grade.

1. Introdução
Com a demanda da indústria do entretenimento e marketing em produção de conteúdos
digitais, efeitos comuns com caracterı́sticas bem definidas tornaram-se um problema para
serem reproduzidos devido a complexidade de simulação combinada com as exigências
de aspecto visual vinculadas ao realismo.
O método do ponto material (MPM, do inglês Material Point Method) é um exem-
plo de método de simulação para resolver o comportamento de objetos deformáveis e flui-
dos viscosos [Ram et al. 2015]. Intuitivamente, o método busca representar o domı́nio do
objeto simulado por partı́culas com propriedades, ou como nomeado, pontos materiais.
Em contraste com outros métodos, como método de elementos finitos, o MPM é indepen-
dente da representação geométrica do objeto simulado e permite maiores deformações
[Jiang et al. 2016].

55
Neste artigo será abordado e discutido o processo de discretização de geo-
metria, seguindo pela implementação da simulação, utilizando um integrador base-
ado em otimização e o método de transferência para grade, partı́cula afim em célula
[Jiang et al. 2015]. A implementação proposta destina-se aos fluxos de trabalho de
simulação offline e permite escalabilidade no número de partı́culas devido a aceleração
por GPU (do inglês Graphics Processing Unit).

2. Trabalhos Relacionados
A simulação de corpos deformáveis e fluidos na animação baseada em fı́sica é um pro-
blema popular na computação gráfica. O objetivo é encontrar o equilı́brio entre realismo
e eficiência no tempo de simulação. Muitas vezes a precisão da simulação é deixada de
lado para diminuir o tempo de simulação.
O método dos elementos finitos é normalmente utilizado para simular objetos com
poucas deformações (como a formulação linear), sendo necessário realizar ajustes na ge-
ometria para grandes deformações (remeshing) [Parker e O’Brien 2009].
Isto torna as soluções baseadas no método do ponto material perfeitas para simu-
lar objetos ou efeitos que apresentam grande variações de deformação na geometria, tal
como, materiais em mudança de fase [Stomakhin et al. 2014].
A descrição material das partı́culas é flexı́vel e a implementação da Disney para
simulação de neve demonstra como o tradicional modelo hiperelástico neo-Hookeano
pode ser incrementado com novas formulações pra descrever o comportamento de mate-
riais especı́ficos [Stomakhin et al. 2013].

3. Implementação do Método do Ponto Material


O método do ponto material consiste em calcular as equações de movimento das partı́culas
utilizando a abordagem euleriana, através de uma estrutura de grade. O domı́nio do objeto
simulado é inicialmente representado na abordagem lagrangeana e precisa ser interpolado
para a grade euleriana, utilizando uma função de transferência [Jiang et al. 2016].
As etapas de simulação do método podem ser descritas pragmaticamente como:

1. Transferir partı́culas para grade: as quantidades das partı́culas são transferidas


para grade utilizando uma função de transferência.
2. Calcular volume das partı́culas: o integrador requer uma noção de volume das
partı́culas, então, apenas durante o primeiro passo da simulação, a massa das
partı́culas são extrapoladas para grade para estimar densidade e volume punti-
forme.
3. Calcular velocidade e forças da grade: A velocidade e as forças explı́citas da
grade são calculadas a partir das quantidades interpoladas para células. Nesta
etapa, as células podem ser marcadas como estáticas com base na anulabilidade
da massa, assim, diminuindo a carga de simulação.
4. Atualizar velocidade da grade: após integrar as forças, as velocidades da grade
são atualizadas. Nesta etapa pode ser resolvido colisões entre objetos arbitrários
passivos na simulação. Se a integração for explı́cita, as velocidades podem ser
configuradas de forma independente a nı́vel nodal.

56
5. Atualizar gradiente de deformação das partı́culas: o gradiente de deformação
de cada partı́cula é atualizado. O gradiente de deformação inicial das partı́culas
é a matriz identidade, e indica que não há qualquer variação na forma atual em
relação ao estado original.
6. Transferir grade para partı́culas: as quantidades da grade são interpoladas para
as partı́culas utilizando o mesmo método de transferência da Etapa 1.
7. Atualizar posição das partı́culas: nesta última etapa é realizado a advecção das
partı́culas utilizando os novos vetores de velocidade.

3.1. Discretização
A discretização da geometria define um passo de preprocessamento obrigatório para o
MPM. A implementação utiliza a biblioteca OpenVDB [Museth et al. 2013] para gerar
as partı́culas a partir da amostragem do volume representado pelo objeto geométrico.
A primeira etapa consiste em converter a geometria em representação de volume, uma
grade escalar SDF (do inglês Signed Distance Field). Em seguida, o algoritmo de es-
palhamento de pontos uniformemente denso, permite a amostragem da grade em função
dos parâmetros de tamanho da célula (voxel size), densidade e espalhamento. Devido a
etapa de conversão volumétrica, OpenVDB torna flexı́vel a simulação de um conjunto
de geometria, permitindo objetos compostos com interseção e outras degenerações como
parâmetro de entrada.

3.2. Modelo Hiperelástico


As partı́culas são descritas de acordo com o modelo hiperelástico neo-Hookeano. Cada
partı́cula é definida pelos parâmetros de Lamé (µ e λ), no entanto, o material do objeto
simulado é descrito por E e ν.
Materiais modelados com valores de módulo de Young (E) altos são mais rı́gidos.
O coeficiente de Poisson (ν) define a taxa de conservação de volume em resposta a
deformação.
Os parâmetros de Lamé são calculados seguindo as Equações (1) e (2).

E
µ= (1)
2(1 + ν)


λ= (2)
(1 + ν)(1 − 2ν)

3.3. Simulação
O método do ponto material baseado em otimização utiliza a definição de energia po-
tencial da equação de movimento para integrar o sistema. Integrar as forças da grade é
equivalente a minimizar a função objetivo na Equação (3), onde mi , v i e xi são massa,
velocidade e posição das células na grade, respectivamente [Jiang et al. 2016].

X1
E(v i ) = mi kv i − v ni k2 + Φ(xni − ∆tv i ) (3)
i
2

57
O problema de otimização é resolvido na implementação utilizando uma
solução BFGS (do inglês Broyden–Fletcher–Goldfarb–Shanno) de memória limitada
[Nocedal e Wright 2000]. Este algoritmo requer o cálculo do gradiente de deformação
das partı́culas como dependência da densidade de energia em Φ na Equação (3).
A formulação co-rotacional requer a decomposição do gradiente de deformação
para calcular a tensão. A tensão de Piola-Kirchoff se expressa melhor no espaço material e
requer um gradiente de deformação livre de rotação rı́gida [Jiang et al. 2016]. O método
de decomposição SVD (do inglês Singular Value Decomposition) é bem conhecido na
literatura de simulação para computação gráfica. Este método permite fatorar o gradiente
de deformação F no termo U ΣV T . A transformação de rotação R próxima de F pode
ser reconstruı́da enquanto R = U V T . O algoritmo implementado é baseado no método
QR com deslocamento implı́cito 3 × 3 [Gast et al. 2016].
O método de transferência para grade denominado partı́cula afim em célula ou
APIC (do inglês Affine Particle-In-Cell) preserva o momento angular das partı́culas na
grade e conduz uma simulação mais estável que outros métodos disponı́veis, tal como
FLIP, FLIP 0.99 e PIC. Ele também exibe melhor aspecto visual e resultados impactantes
para artistas [Jiang et al. 2015]. Para o método APIC, a nova posição das partı́culas no
processo de advecção é definido apenas como xn+1
p = xnp + ∆tv n+1
p .
O kernel de interpolação utilizado foi o quadrático na Equação (4). Ele é mais
eficiente para ser calculado, no entanto, é mais sensitivo a erros numéricos do que o
kernel cúbico.


3 2 1
 4 − |x|
 0 ≤ |x| < 2
N (x) = 12 ( 32 − |x|)2 1
2
≤ |x| < 3
2
(4)
 3
0 ≤ |x|

2

Devido ao método de integração baseado em otimização, a força externa


gravitacional é aplicada explicitamente após a integração. No entanto, também é
possı́vel incluir a gravidade no modelo de otimização através da sua energia potencial
[Gast e Schroeder 2014].
Até o momento, a biblioteca gráfica OpenGL [Shreiner et al. 2013] permite vi-
sualizar as partı́culas simuladas como uma aplicação simples, com funcionalidades de
execução e pausa. Não há visualização de superfı́cie geométrica ou reconstrução a partir
das partı́culas, descrevendo o processo inverso de discretização. No entanto, a aplicação
permite facilmente a implementação de um novo passo de renderização.
Para acelerar a simulação na GPU, algumas etapas como advecção de
partı́culas são implementadas por kernel utilizando a biblioteca concorrente Thrust, dis-
ponı́vel com CUDA (anteriormente do inglês Compute Unified Device Architecture)
[Nickolls et al. 2008]. A maioria das iterações de partı́culas ou células são aceleradas pela
biblioteca de forma funcional, no entanto, certos enlaces requerem operações atômicas,
sendo parcialmente concorrentes. Um exemplo é o cálculo do gradiente da função obje-
tivo que requer a redução da energia total, tanto na iteração de partı́culas quanto células
ativas. Neste caso, a performance do enlace concorrente é compensado com o alto custo
da região paralelizável e o baixo custo da região crı́tica.

58
Figura 1. Resultado da simulação do objeto Bunny em diferentes quadros t

3.4. Detecção e Resposta de Colisão


Detecção e resposta de colisão em um sistema de simulação mecânico é fundamental para
atribuir flexibilidade aos artistas de computação gráfica e também, para atingir nı́veis sa-
tisfatórios de realismo com cenas mais complexas, já que na maioria das vezes, as cenas
desejadas requerem múltiplos objetos interagindo entre si. O método do ponto mate-
rial oferece a resolução de colisão entre objetos simulados de forma automática. Nesta
implementação foi tratado apenas a colisão entre as partı́culas simuladas e o limite da
grade de simulação. A colisão com a grade é resolvida configurando a velocidade inter-
polada para as células como zero, caso ela esteja fora dos limites da grade de simulação.

4. Discussão e Resultados
A Figura 1 foi obtida a partir da simulação do objeto Bunny, inicialmente definido por
2174 primitivos triangulares e discretizado por 4370 partı́culas, em um processador In-
tel Core i7-4500U acelerado por uma GPU NVIDIA GeForce GT 740M. A simulação
consiste na colisão do objeto com os limites da grade de resolução 500 × 500 × 500,
com células de tamanho 0.5. As caracterı́sticas do material foram definidas por ρ = 103 ,
E = 105 e ν = 0.25, onde ρ denota a densidade do objeto simulado.
O tempo médio de simulação dos quadros para esta configuração foi 1, 25 minutos,
com o passo de simulação ∆t = 10−3 . Para fluxo de trabalho voltado para simulação
offline, no qual o modelo de implementação foi proposto, o resultado é aceitável.
A colisão entre objetos dinâmicos simulados é resolvida automaticamente pelo
método do ponto material com resultados visuais satisfatórios. No entanto, para integrar
objetos passivos genéricos, tanto estáticos quanto animados, requer uma heurı́stica de
detecção e colisão robusta [Jiang et al. 2016].

5. Considerações Finais
Este artigo apresentou o método do ponto material baseado em otimização implementado
em uma arquitetura paralela utilizando o CUDA.
Embora a implementação tenha dado resultados satisfatórios, alguns pontos pode-
riam ser melhorados em trabalhos futuros. Primeiramente, a detecção de colisão é com-
putada apenas com os limites da grade, podendo, ao invés disto, ser utilizado o método
baseado em SDF [Jiang et al. 2016].
Outra sugestão seria a inclusão da energia potencial da gravidade no integrador
baseado em otimização para evitar a adição da aceleração de forma explı́cita dependente
do passo de tempo.

59
Finalmente, um passo de reconstrução de superfı́cie utilizando OpenVDB ou outro
algoritmo, como cubos marchantes [Lorensen e Cline 1987], poderia ser utilizado para
auxiliar a visualização da simulação.

Referências
Gast, T., Fu, C., Jiang, C., e Teran, J. (2016). Implicit-shifted Symmetric QR Singular
Value Decomposition of 3x3 Matrices. UCLA Mathematics Department Technical
Report (CAM16-19).
Gast, T. F. e Schroeder, C. (2014). Optimization integrator for large time steps. Em SCA
2014 - Proceedings of the ACM SIGGRAPH/Eurographics Symposium on Computer
Animation, páginas 31–40.
Jiang, C., Schroeder, C., Selle, A., Teran, J., e Stomakhin, A. (2015). The affine particle-
in-cell method. ACM Transactions on Graphics.
Jiang, C., Schroeder, C., Teran, J., Stomakhin, A., e Selle, A. (2016). The material point
method for simulating continuum materials. Em ACM SIGGRAPH 2016 Courses,
SIGGRAPH 2016.
Lorensen, W. E. e Cline, H. E. (1987). Marching cubes: A high resolution 3D surface
construction algorithm. Em Proceedings of the 14th Annual Conference on Computer
Graphics and Interactive Techniques, SIGGRAPH 1987, volume 21, páginas 163–169.
ACM.
Museth, K., Lait, J., Johanson, J., Budsberg, J., Henderson, R., Alden, M., Cucka, P.,
Hill, D., e Pearce, A. (2013). OpenVDB: an open-source data structure and toolkit for
high-resolution volumes. Em ACM SIGGRAPH Courses, páginas 19:1—-19:1. ACM.
Nickolls, J., Buck, I., e Garland, M. (2008). Scalable parallel programming. Em 2008
IEEE Hot Chips 20 Symposium (HCS), páginas 40–53, Stanford, CA, USA. IEEE.
Nocedal, J. e Wright, S. J. (2000). Numerical Optimization. Springer-Verlag, New York,
NY, USA.
Parker, E. G. e O’Brien, J. F. (2009). Real-time deformation and fracture in a game
environment. Em Computer Animation, Conference Proceedings, páginas 165–175.
Ram, D., Gast, T., Jiang, C., Schroeder, C., Stomakhin, A., Teran, J., e Kavehpour, P.
(2015). A material point method for viscoelastic fluids, foams and sponges. Em Pro-
ceedings - SCA 2015: 14th ACM SIGGRAPH / Eurographics Symposium on Computer
Animation, páginas 157–163.
Shreiner, D., Sellers, G., Kessenich, J. M., e Licea-Kane, B. (2013). OpenGL Program-
ming Guide: The Official Guide to Learning OpenGL, Version 4.3. Addison-Wesley
Longman Publishing Co., Inc.
Stomakhin, A., Schroeder, C., Chai, L., Teran, J., e Selle, A. (2013). A material point
method for snow simulation. ACM Transactions on Graphics, 32(4).
Stomakhin, A., Schroeder, C., Jiang, C., Chai, L., Teran, J., e Selle, A. (2014). Augmented
MPM for phase-change and varied materials. ACM Transactions on Graphics, 33(4).

60
Open Door uma Proposta de Distribuição Linux (From
Beginners to Pentesters)
Karan Luciano Silva di Pernis1 , Diógenes Antonio Marques José1
1
Universidade do Estado de Mato Grosso - UNEMAT
Faculdade de Ciências Exatas e Tecnológicas - FACET
Coordenação de Ciência da Computação - CCC
Caixa Postal 92 - 78.390-000 - Barra do Bugres - MT - Brasil
{karan.luciano, dioxfile}@unemat.br

Abstract. This paper aims to propose a GNU/LINUX distribution, OpenDoor.


This distribution will provide only the essentials, i.e., desktop computing soft-
ware and pentest software, any other program will be installed in the system
as required or user desire. Therefore, during installation, the system will be
setup with a generic base, which will support the main hardware from the mar-
ket. Thus, once installed, the user will have an option to remove support for
this hardware, which their machine does not have. Consequently, this will make
their system as adapted to the machine as possible. All development will be
based on the Linux From Scratch (LFS) framework. Thus, it is expected that
OpenDoor Linux will be able to provide basic and adaptable functionality to its
future users.
Resumo. Este artigo tem por objetivo propor uma distribuição GNU/LINUX de-
nominada OpenDoor. Essa distro fornecerá apenas o essencial, isto é, softwares
para computação pessoal (desktop) e softwares voltados à área da segurança
de redes (pentest), qualquer outro programa será acrescentado ao sistema con-
forme a necessidade ou vontade do usuário. Durante a instalação o sistema será
instalado com uma base genérica que oferece suporte aos principais hardwa-
res no mercado, após instalado, o usuário terá uma opção de tirar o suporte
para esses hardwares, que sua máquina não tem, para deixar seu sistema mais
adaptado possı́vel à máquina. Todo o desenvolvimento será baseado no fra-
mework Linux From Scratch (LFS). Dessa forma, espera-se que o OpenDoor
Linux seja capaz de fornecer funcionalidades básicas e adaptáveis aos seus fu-
turos usuários.

1. Introdução
Todo computador necessita de um sistema operacional para funcionar. O sistema opera-
cional é o responsável por utilizar e controlar os recursos fornecidos pela máquina, como
memória, processador e disco. O GNU/Linux é um sistema operacional consolidado no
mundo, a sua flexibilidade, estabilidade e versatilidade o torna ideal para o uso no es-
critório, em escolas, em casa, nas redes de computadores, provedores de Internet, entre
outros [1].
O Linux vem sendo mais utilizado em servidores que o Windows, tornando-se
lı́der incondicional em supercomputação1 . O Android 2 em 2017 se tornou o sistema
1 https://www.top500.org/lists/2019/06/.
2 Sistema operacional baseado em Linux que opera principalmente em celulares.

61
operacional mais utilizado no mundo, também baseado no Linux, ultrapassando - pela
primeira vez na história - a plataforma da Microsoft. E essa vistoria do Android é um
triunfo do Linux [2]. Contudo, nos escritórios e casas, a história é outra. Até mesmo Linus
Torvalds - criador do Linux - vê o desktop como seu fracasso pessoal. Ironicamente a área
em que o Linux não domina é exatamente a qual Torvalds o criou para ser a principal [3].
Portanto, o objetivo deste trabalho é desenvolver uma distribuição Linux que possa ser
simples de usar, leve, eficiente e que, ao mesmo tempo, possa ser usada em computação
pessoal (ex. desktop) e, também, por profissionais de áreas técnicas como segurança.
O restante deste trabalho é organizado como segue: na Seção 2 são apresentados
os Trabalhos Relacionados; a Seção 3 apresenta a Descrição da Proposta; na Seção 4
é apresentada a metodologia; e, finalmente, na Seção 5 são apresentados os Resultados
Esperados.

2. Trabalhos Relacionados
O Kali Linux[4] é um projeto de código aberto que é mantido e financiado pela Offen-
sive Security, uma provedora de serviços de treinamento e teste de penetração de classe
mundial, em segurança da informação. Baseado no Debian, o Kali Linux tem um grande
diferencial, o seu repertório. São mais de 300 ferramentas nativas para executar testes di-
versos, sendo assim, com ele instalado é possı́vel aperfeiçoar os mecanismos de segurança
de TI e testes de invasão.
O BlackArch[5], também, é uma distribuição de teste de penetração baseada no
Arch Linux que fornece uma grande quantidade de ferramentas de segurança cibernética.
É uma distribuição de código aberto criada especialmente para pentesters e pesquisadores
de segurança. O repositório contém mais de 2345 ferramentas que podem ser instaladas
individualmente ou em grupos. Além disso, o BlackArch Linux é compatı́vel com as
instalações existentes do Arch Linux.
Distribuições são, na verdade, uma junção do kernel Linux com um conjunto
de programas, que atendem a um determinado tipo de usuário. Há muitas outras
distribuições, por exemplo: Ubuntu, Arch, Fedora, Debian, Red Hat, Suse, entre ou-
tras. Todavia não é escopo deste trabalho falar de cada uma delas, para maiores detalhes
consulte: https://en.wikipedia.org/wiki/List of Linux distributions.

3. Descrição da Proposta
Este artigo tem como principal objetivo propor o desenvolvimento de uma distribuição
GNU/Linux que possa ser usada tanto por pessoas comuns quanto por pentesters. Seu
nome será OpenDoor Linux3 . Assim, este artigo enfatiza a criação de uma distribuição
acrescentando recursos úteis que possam ser usados com facilidade para tarefas tais como:
navegar na Internet, escrever textos, entre outras. Isto é, ela deve atender tanto usuários
experientes como àqueles que nunca usaram Linux. Por exemplo, para pentesters ela ofe-
recerá aplicações como: Firewall, port scan, NS2, Wireshark, aircrack-ng, entre outras. E
para usuários inexperientes ela terá java pré-configurado, editores de texto, codecs, apli-
cativos de música/vı́deo, jogos, tudo aquilo que um usuário comum espera de um com-
putador. Portanto, será criado um sistema operacional, do zero, baseado em GNU/Linux
com suas próprias peculiaridades, levando seus pacotes e ferramentas já pré instalados
3 Why Skip the Window if the Door is Open?

62
e configurados, facilitando o uso para iniciantes e agilizando tarefas para experts. Um
protótipo já foi criado e está em fases de teste, conforme Figura 1(a).

(a) Neofetch do sistema

(b) Arquivos de configuração no Gitlab

Figura 1. Screenshot fetch do protótipo.

Outro objetivo é a criação do software ’Ponto Inicial’ conforme Figura 1(b), o


ponto inicial tem como objetivo fornecer de forma fácil, a instalação de programas básicos
no sistema operacional. Programas que modele o sistema e o ambiente de trabalho com
o perfil do usuário. Note que o Ponto Inicial não tem como objetivo fornecer todos os
programas do mercado, mas sim, fornecer os programas básicos e necessários para que o
ambiente do SO consiga atender ao menos o mı́nimo das necessidades de seus usuários.

4. Metodologia
A métodologia de desenvolvimento do OpenDoor Linux será baseada no livro Linux From
Scratch (LFS) [6], nele é explicado como montar um sistema Linux, instalando pacotes
um a um. O objetivo do LFS, conforme Figura 2(a), é construir um sistema em nı́vel

63
de base completo e funcional. Isso inclui todos os pacotes necessários para replicá-lo ao
mesmo tempo que disponibiliza uma base relativamente pequena sobre a qual o usuário
pode customizar um sistema mais completo baseado em suas próprias escolhas.

Figura 2. Linux From Scratch E-Book.

5. Resultados Esperados
Os resultados esperados consistem na criação/manutenção de uma nova distribuição Linux
denominada OpenDoor Linux. Ela atenderá usuários de computação pessoal (ex. desktop)
e, também, especialistas em segurança, Pentesters. Assim, espera-se que a mesma seja
capaz de fornecer funcionalidades básicas e adaptáveis aos seus futuros usuários.
Nesse contexto, uma vantagem de uma distribuição com essas caracterı́sticas
é proporcionar um Linux amigável, com funcionalidades comuns que são usadas por
usuários convencionais e, ao mesmo tempo, permitir que usuários especialistas pos-
sam usufruir de boas ferramentas de auditoria em redes. Além disso, de forma ousada,
pretende-se preencher a lacuna deixada pela distribuição Kurumin Linux, que foi desen-
volvida pelo Carlos E. Morimoto4 .

Referências
[1] J. E. Mota, “Descobrindo o linux-3ª edição: Entenda o sistema operacional gnu/linux.”
Disponı́vel em: http://www.encurtador.com.br/zFL69, 2012. Acessado
em Setembro de 2019.
[2] R. R. Da Silva, “Android supera windows como sistema operacional mais usado do
mundo.” Disponı́vel em: https://encurtador.com.br/pKN39, 2017. Aces-
sado em Setembro de 2019.
[3] R. O. Digital, “Por que o linux nunca se popularizou nos pcs de casa? seu criador res-
ponde.” Disponı́vel em: https://encurtador.com.br/PQSU1, 2019. Aces-
sado em Setembro de 2019.
[4] J. Broad and A. Bindner, “Hacking com kali linux: Técnicas práticas para testes de in-
vasão.” Disponı́vel em: https://www.encurtador.com.br/rwV36, 2014.
Acessado em Setembro de 2019.
[5] L. Kayan, “Blackarch linux.” Disponı́vel em: https://blackarch.org/index.
html, 2019. Acessado em Setembro de 2019.
[6] G. Beekmans et al., “Linux from scratch.” Disponı́vel em: http://www.fr.
linuxfromscratch.org/archives/LFS-6.5/LFS-6.5-fr.pdf,
2000. Acessado em Setembro de 2019.

4 https://pt.wikipedia.org/wiki/Kurumin

64
Teste de intrusão: Um estudo de Caso aplicado ao PFSense
Leonardo de Santana Nascimento1 e Diógenes Antônio Marques José1
1
Faculdade de Ciências Exatas e Tecnológicas-FACET
Universidade do Estado de Mato Grosso-UNEMAT
Caixa Postal 92 - CEP - 78390-000 - Barra do Bugres, MT - Brasil
{leonardo.nascimento,dioxfile}@unemat.br

Abstract. A firewall is a defense mechanism used by many companies to protect their assets.
However, checking that all rules and services are working properly is hard work. Therefore, the
paper aims to apply a Pentest, penetration testing, to the rules/services implemented in Firewall
PFSense at the MicroHard company. For this task, the Pentest White-Box method with the Open
Source Security Testing Methodology Manual (OSSTMM) will be used. As a result, it is expected
to discover vulnerabilities/Security fails that could be exploited by a cracker and consequently
mitigate them.

Resumo. O Firewall é um mecanismo de defesa utilizado por várias empresas com o intuito
de proteger os seus ativos. Todavia, verificar se todas as regras e serviços estão funcionando
como deveriam é uma tarefa difı́cil. Portanto, diante do exposto, o objetivo deste trabalho con-
siste em aplicar um Pentest, teste de penetração, nas regras/serviços implementados no Firewall
PFSense na empresa MicroHard. Para tal tarefa será utilizado o método de Pentest White-Box
com a metodologia Open Source Security Testing Methodology Manual (OSSTMM). Como re-
sultado espera-se descobrir vulnerabilidades/falhas que possam ser exploradas por um cracker
e consequentemente mitigá-las.

1. Introdução
A palavra Pentest é uma junção das palavras Penetration Testing (ex., Teste de
Penetração), seu significado consiste em um conjunto de testes metodológicos normal-
mente aplicados em redes de computadores cabeadas e em sistemas operacionais mas,
podem ser direcionados também à web-sites, redes sem fio, banco de dados, aplicativos
e programas, tendo como objetivo descobrir, mapear e expor todas as vulnerabilidades
de segurança do sistema tecnológico. No contexto de Cyber Security o Pentest faz-se
necessário em todos os serviços de redes, especialmente na implementação de regras de
Firewalls. Isso é imperativo para que todas as falhas existentes no serviço implementado
sejam descobertas e, assim, anular qualquer ameaça indesejada [1]. Dentre os métodos
utilizados na aplicação do Pentest para descobrir a(s) falha(s) ou vulnerabilidade(s) de um
sistema de informação destacam-se:
• Black Box: na técnica Black-Box ou (caixa preta), o auditor procurará alguma
falha na infraestrutura de rede sem ter conhecimento prévio do funcionamento da
mesma, por exemplo, quais são as máquinas, os sistemas operacionais, o mapea-
mento da infraestrutura, servidores, processos rodando, entre outros;
• White-Box: o cenário White-Box, (teste da caixa branca), o auditor de segurança,
diferentemente da metodologia anterior, tem total conhecimento da infraestrutura
de rede a ser testada, por exemplo, diagrama de rede, endereços usados, Firewalls,
código-fonte das aplicações, entre outras. Esse teste é ideal para relatar a(s) vul-
nerabilidade(s) existente(s) internamente em um ambiente empresarial, institucio-
nal, governamental, entre outras, que pode(m) ser explorada(s) por alguma pessoa
maliciosa;

65
• Gray-Box: ou teste da caixa cinza, o auditor terá conhecimento parcial da rede
testada. Nesse método acontece uma junção entre o Black-Box e White-Box.
Há diversas metodologias que podem ser aplicadas na realização de um Pentest
entretanto, neste trabalho são abordadas duas metodologias por serem as mais usualmente
utilizadas, por exemplo:
1. Open Source Security Testing Methodology Manual (OSSTMM): é um projeto
de segurança mantido pelo Institute for Security and Open Methodologies (ISE-
COM), a mesma foi desenvolvida em uma comunidade aberta, sendo uma meto-
dologia aberta e livre de influência polı́tica e comercial. Portanto, a mesma per-
mite que qualquer indivı́duo contribua para o aperfeiçoamento desse projeto. Essa
metodologia é utilizada para testar a segurança de locações fı́sicas, interações hu-
manas e todas as formas de comunicações como redes wireless/cabeada, analógica
e digital [2];
2. Web Application Security Project (OWASP): é uma comunidade aberta, dedi-
cada à capacitar as organizações para desenvolver, adquirir e manter aplicações
confiáveis, essa metodologia possui um conjunto de testes direcionados para ser-
vidores e aplicações. O intuito da OWASP top ten é alertar sobre as vulnerabilida-
des existentes que podem comprometer o desempenho de um sistema e, com isso,
a mesma fornece métodos básicos para combater estes problemas cibernéticos [3].
Diante do exposto, o presente trabalho tem por objetivo testar a eficiência das
configurações do Firewall PFSense, em um ambiente de produção real, por meio de um
Pentest. Para a realização dos testes será utilizado um ambiente real com 16 computadores
configurados com sistema Linux, um servidor Linux com máquina virtual VirtualBox 6.0
rodando PFSense, neste contexto, será aplicado o teste White-Box com a metodologia
OSSTMM.
O restante deste trabalho foi organizado da seguinte forma: a Seção 2 apresenta
os trabalhos relacionados. Na Seção 3 são apresentados a descrição da proposta e a me-
todologia. E, finalmente, na Seção 4 são apresentados os resultados esperados, pois este
trabalho consiste em uma proposta de pesquisa.

2. Trabalhos Relacionados
A segurança digital, é uma questão que sempre causa preocupação, por esse motivo, várias
pesquisas são feitas com a finalidade de abordar possı́veis vulnerabilidades/falhas em sis-
temas. Portanto, nesta seção são apresentados alguns trabalhos relacionados à segurança
cibernética.
Em [4] é apresentado um Sistema de Detecção de Intrusão (IDS) que além de
detectar anomalias com base no IP de origem, também utiliza o endereço Media Access
Control (MAC) como forma de barrar o tráfego malicioso e, em função disso, a proposta
melhora a acurácia do IDS.
O trabalho descrito em [5], relata um Pentest realizado em uma rede wireless com
segurança WEP, WPA e WPA2. Esta proposta tem como objetivo quebrar a criptografia
existente na rede. Assim, com os testes realizados foi possı́vel notar que a WEP é uma
técnica obsoleta e que a mesma pode ser quebrada com facilidade, todavia, o WPA e
WPA2 mostraram-se técnicas de segurança mais sofisticadas, mas não sendo impossı́vel
de serem quebradas.

66
A pesquisa feita em [6], apresenta uma arquitetura de teste de penetração utili-
zando um Raspberry Pi para encontrar vulnerabilidades existentes em serviços de redes.
O Raspberry Pi é conectado à rede, em que será efetuado o Pentest. A rede em questão
é protegida por um Firewall. Assim, por meio de softwares instalados no dispositivo tes-
tador é realizado um scan da rede que objetiva verificar quais serviços estão disponı́veis.
Após isso, o auditor acessa o Raspberry Pi de fora da rede auditada, por meio de uma
técnica de acesso SSH callback e, então, analisa os resultados obtidos do scanner. Dessa
forma, é possı́vel avaliar quais serviços estão disponı́veis e suas vulnerabilidades.
Em [7] é proposta uma ferramenta chamada Penetration Testing Tool for Internet
of Thing Devices (PENTOS), para realizar testes de penetração em dispositivos IoT. Esta
ferramenta fornece instruções detalhadas, com base na metodologia OWASP top 10 Inter-
net of Things, de como fazer um Pentest. Essas instruções auxiliam o auditor durante a
execução do Pentest e, portanto, há uma melhora significativa do Pentest, consequente-
mente são obtidos resultados mais precisos.

3. Descrição da Proposta
A presente seção tem por objetivo descrever o teste de segurança que será realizado no
Firewall PFSense. A empresa onde o Pentest será realizado é a “MicroHard”1 , que está
preocupada com a segurança tecnológica do seu ambiente de trabalho. A empresa contrata
para realizar o Pentest é a “Mitnick’S”. Ambas as partes assinam um contrato, em que
a contratante permite à contratada realizar os testes de segurança/intrusão necessários. A
infraestrutura da rede em que o Pentest será realizado é como mostra a Figura 1.

Figura 1. Infraestrutura na qual o Pentest será realizado.

Os materiais e métodos para realizar o Pentest são como segue:


1. Testar vulnerabilidades em serviços configurados no PFSense como regras de Fi-
rewall (ex., NAT, FORWARD, LAN to WAN, WAN to LAN, LAN to LAN, etc), DNS,
DHCP, IDS Snort;
2. Verificar a consistência da Polı́tica de senha;
3. Testar a segurança de escala de privilégios de acesso, por exemplo: a Mi-
croHard criará um usuário ‘Pentest’, sem privilégios administrativos, em uma das
máquinas da empresa e, dessa forma, o auditor tentará obter privilégios de root;
1
O nome é fictı́cio, e foi usado para não divulgar dados sigilosos da empresa.

67
4. Verificar o controle de acesso à rede (LAN/WAN);
5. Realizar teste de segurança na rede wireless (ex., testar a senha WPA/WPA2);
6. Ferramentas para Pentest serão as mais usadas pela comunidade, por exemplo,
Kali Linux −→ (Nmap), Social Engineering Toolkit, DNSenum, Nessus, Wi-
reshark, THC Hydra, Radare2, Aircrack-ng, Metasploit, Dradis, DumpZilla, etc.
Além disso, podem ser desenvolvidas ferramentas especı́ficas para o Pentest, pois
segundo TJ O’ Connor [8], o que difere um Script kiddie de um Hacker é a capacidade
que o Hacker tem de criar suas próprias ferramentas.

4. Resultados Esperados
Os resultados esperados com este trabalho consistem em avaliar as regras de Firewall,
descobrir possı́veis falhas de configuração no servidor e nos sistemas utilizados pelos
usuários da empresa e, consequentemente, mitigar as mesmas. Além disso, pretende-se
relatar os processos necessários para a realização de um Pentest e ressaltar a importância
da segurança da informação no mundo atual.

Referências
[1] D. Moreno, Introdução ao Pentest. No. 15 in Série do livro, São Paulo, Brasil: Novatec
Editora Ltda, 2015. Bibliografia: p. 131–132.
[2] ISECOM, “Osstmm 3 the open source security testing methodology manual: Contempo-
rary security testing and analysis..” Disponı́vel em: http://www.isecom.org/
research/, August 2019. Acessado em Setembro de 2019.
[3] OWASP, “Open web application security project (owasp): Top ten.” Dis-
ponı́vel em: https://www.owasp.org/index.php/Category:
OWASP_Top_Ten_Project, June 2019. Acessado em Setembro de 2019.
[4] C. A. M. da Silva, J. A. Goncalves, V. da Silva Faria, G. de Britto Vieira, and
D. M. Mascarenhas, “Iremac: Um ips para ataques internos,” XXXIV SIMPOSIO
BRASILEIRO DE TELECOMUNICACOES (SBrT2016), pp. 954–958, August 2016.
https://biblioteca.sbrt.org.br/articles/1177.
[5] A. T. Q. Rocha, B. N. L. Costa, K. V. L. Giuzeppe, and H. P. Mar-
tins, “Pentest para quebra de criptografia wireless,” vol. 6, no. 1, 2019.
http://www.fatecbauru.edu.br/ojs/index.php/CET/article/view/203.
[6] L. Epling, B. Hinkel, and Y. Hu, “Penetration testing in box,” In-
formation Security Curriculum Development Conference, October.
https://dl.acm.org/citation.cfm?doid=2885990.2885996.
[7] V. Visoottiviseth, P. Akarasiriwong, S. Chaiyasart, and S. Chotivatunyu, “Pen-
tos: Penetration testing tool for internet of thing devices,” in TENCON
2017 - 2017 IEEE Region 10 Conference, pp. 2279–2284, Nov 2017.
https://ieeexplore.ieee.org/abstract/document/8228241.
[8] T. O’Connor, Violent Python: A Cookbook for Hackers, Forensic Analysts, Penetration
Testers and Security Engineers. Syngress, November 2012.

68
A influência dos jogos digitais no tratamento e na melhoria
da qualidade de vida de pacientes diagnosticados com TDAH
Roniere S. Carvalho¹, Potira M. Morais¹, Rebeca C. Moreira², Lívia C. S. S. Carvalho³
1
Acadêmicos de Bacharelado em Ciência da Computação – Universidade do Estado de
Mato Grosso (UNEMAT).Cáceres-MT-Brasil.
2
Docente do Curso de Bacharelado em Ciência da Computação – Universidade do Estado
de Mato Grosso (UNEMAT).Cáceres-MT-Brasil.
3
Departamento de Acadêmica de Bacharelado em Medicina – Universidade do Estado de
Mato Grosso (UNEMAT).Cáceres-MT-Brasil
{roniere.carvalho,potira.manoela}@unemat.br,
{rebecamoreiras,liviacsscarvalho}@gmail.com
Abstract. Digital games are often indicated as generating undesirable behavior in
their users, however there is research that has demonstrated the benefits of digital
games.The present work chose to address positive aspects of games related to a
specific group, ADHD (Attention Deficit Hyperactivity Disorder) patients.A
review of the scientific literature was conducted at Google Scholar and Bireme
with the descriptors “digital games” and “ADHD”, selecting articles published
between 2011-2019.From the results obtained in the research, it can be concluded
that educational games created for specific purposes can contribute significantly
in improving the quality of life of people with ADHD.
Resumo. Os jogos digitais são frequentemente indicados como geradores de
comportamentos indesejáveis em seus usuários, no entanto existem pesquisas que
demonstraram os benefícios dos mesmos. O presente trabalho optou por abordar
aspectos positivos dos jogos relacionados a um grupo específico, os portadores
de TDAH (Transtorno de Déficit de Atenção e Hiperatividade). Realizou-se uma
revisão na literatura científica no Google Acadêmico e na Bireme com os
descritores “jogos digitais”e“TDAH”, selecionando artigos publicados entre os
anos de 2011 a 2019. A partir dos resultados obtidos nas pesquisas, conclui-se,
que os jogos educativos criados com propósitos específicos podem contribuir
significativamente na melhoria da qualidade de vida dos portadores de TDAH.

1. Introdução
Os jogos digitais têm exercido grande influência no cotidiano principalmente de jovens e
crianças. Um estudo realizado por Freire et al. (2018) mostra que esse grupo aproveita
grande parcela de seu tempo livre se dedicando a jogos em seus computadores e
smartphone.
Tem-se atribuído a esses jogos uma má reputação como causadores de
comportamentos anti sociais, agressivos e de vícios. Mas, também existem pesquisas que
apontam para aspectos positivos deles sobre o cérebro e o comportamento. Existem tipos
diferentes de jogos e faz-se necessário mais estudos para destacar aspectos positivos e
negativos das diferentes tendências (ALVES e CARVALHO, 2011).

69
Segundo Bavelier e Davidson (2013), há evidências crescentes de que jogar pode
tem efeitos benéficos no cérebro. [...] como por exemplo, ao procurar um objeto específico
em um mar de formas, as pessoas que jogaram nos videogames mostraram regularmente
menos ativação das regiões do cérebro ligadas à atenção, um sinal de que seus cérebros
estavam realizando a tarefa com mais eficiência.

2. Justificativa
O presente trabalho objetivou abordar os aspectos positivos dos jogos relacionados a um
grupo específico, os portadores de TDAH (Transtorno de Déficit de Atenção e
Hiperatividade), que apresentam transtorno neurológico, com forte influência genética, que
se inicia na infância e pode persistir até a vida adulta. É caracterizado por graus variáveis
de desatenção, hiperatividade e impulsividade.
3. Metodologia
Realizou-se uma revisão na literatura científica no Google Acadêmico e na Bireme com os
descritores “jogos digitais”e“TDAH”, selecionando artigos publicados entre os anos de
2011 a 2019. Foram selecionados 9 artigos por melhor corresponderem aos objetivos da
pesquisa.
4. Referencial Teórico
4.1. TDAH
O TDAH é um transtorno relativamente comum – a Associação Brasileira do Déficit de
Atenção afirma que ele atinge entre 3% e 5% das crianças do mundo. Seus sintomas são
desatenção, hiperatividade e impulsividade, principalmente. Ele prejudica o desempenho de
crianças em idade escolar e, se não for devidamente tratada, pode permanecer na vida
adulta, atrapalhando até mesmo o desempenho profissional (JUNQUEIRA, 2016).
As pessoas que sofrem de TDAH não conseguem filtrar os acontecimentos ao redor.
Um barulho longe, algo caindo, pode tirar o foco facilmente, todas as informações que
acontecem ao redor dessa pessoa estão trabalhando ao mesmo tempo em seu cérebro, assim
não conseguindo se concentrar na sua principal tarefa, por exemplo, nos estudos. Qualquer
coisa pode o distrair, dificuldade em gerenciar o tempo (JUNQUEIRA, 2016).

4.2. Ambiente escolar e o TDAH


O século XXI é rodeado de tecnologia, o que tem levado a mudanças no processo de
comunicação e aprendizagem. O adolescente da nova era é acostumado, desde cedo, com:
diferentes mídias, uma ampla interpretação de sons e imagens simultâneas e a falar ao
telefone enquanto assiste música e vê TV.
No geral, as crianças apresentam poucas habilidades de concentração. Essa
realidade é ainda mais evidente nos portadores de TDAH, que manifestam dificuldades de
obedecerem a um código disciplinar rígido necessário na sala de aula, diante dos métodos
mais usuais de aprendizagem. Infelizmente, a escola incorporou ainda muito pouco do
potencial atrativo das tecnologia, dentro de um contexto que promova reflexões,
construções e contribua significativamente para aprofundar o conhecimento.

70
Assim, como destaca Pereira (2019), amplia-se a dificuldade com alunos especiais e
tem-se dificuldade de lidar com alunos que apresentam síndrome de TDAH. Desse modo, é
preciso buscar outras alternativas para auxiliar o professor.

4.3. Jogos Digitais Educativos e TDAH


De acordo com Cavalcanti (2015), observou-se que ambientes altamente interativos e
cooperativos são desenvolvidos através da internet [...], isto leva a produção de algo que
podem contribuir para melhoria de pacientes com esse transtorno, como por exemplo,
jogos digitais online que podem facilitar o diálogo entre diversas pessoas com TDAH e
podem contribuir para a socialização desses indivíduos.
Diversos estudos com os jogos digitais tem contribuído para melhoria de vida dos
paciente, no trabalho de Guimarães (2007), por exemplo, que avaliou a utilização dos
jogos em atividades escolares com pacientes diagnosticados com TDAH, observou que os
jogos 3d em ambiente de realidade virtual tiveram o resultado muito superior em
comparação com jogos 2d.

A Akili Interactive*, acredita que um remédio eficaz para doenças graves também
pode ser divertido e envolvente. Nesse contexto ela está criando uma nova classe de
medicamentos digitais para pessoas que sofrem de comprometimento cognitivo, entregues
por meio de experiências cativantes de videogame.
A empresa já investiu em várias pesquisas para ajudar pessoas com TDAH, como
“Treinamento em videogame melhora o controle cognitivo em idosos”, foi explorado se os
adultos mais velhos treinados ao jogar o NeuroRacer no modo multitarefa teriam melhorias
em seu desempenho multitarefa no jogo, e também como esse treinamento foi transferido
para aprimoramentos em suas habilidades de controle cognitivo, além daqueles alcançados
pelos participantes que treinaram nas tarefas componentes isoladamente, o resultado foi que
a capacidade de multitarefa foi aprimorada, mas uma função do aprendizado da resolução
de interferências geradas pelas tarefas quando executadas simultaneamente(ANGUERA et
al., 2013).

Outra pesquisa feita por Davis (2018) sobre um Estudo de prova de conceito de uma
intervenção digital caseira e envolvente para o TDAH pediátrico, revelou melhorias
significativas em uma tarefa de atenção computadorizada para um grupo com TDAH e um
subgrupo de alta severidade e com alta gravidade de TDAH.

O jogos “As Aventuras de Ifinho” foi desenvolvido para pessoas com TDAH, ele
traz uma série de 4 jogos para realizar a alfabetização e para fazer com que elas possam
direcionar a atenção. Segundo Freire et al. (2018), esses jogos foram baseados em Digital
Game Based Learning como apoio a tratamentos e ferramenta de ensino. Além disso, é
importante observar que a maioria dos jogadores preferem os dispositivos móveis, como
mostrar numa pesquisa realizada pelo sítio eletrônico.

________________
*
Akili Interactive é uma empresa de tecnologia voltada para criação de soluções “medicamentos digitais”
para pessoas que têm problemas cognitivos.

71
5. Conclusão
A partir dos resultados obtidos nas pesquisas, conclui-se , que os jogos digitais educativos,
criados com propósitos específicos podem contribuir significamente na melhoria da
qualidade de vida de paciente tanto crianças quanto adolescente, pois eles são mais
propícios às novas tecnologias e também podem auxiliar os profissionais no tratamento do
TDAH.

6. Referências
ALVES, L.; CARVALHO, A. Videogame: é do bem ou do mal? Como orientar pais.Psicol.
estud., Maringá , v. 16,n. 2,p. 251-258, June 2011 .
ANGUERA , J. et al "O treinamento em videogame melhora o controle cognitivo em
idosos" . Nature Publishing Group. Nature v. 501, p. 97–101. 2013.
BAVELIER, D. ; DAVIDSON, R. J. Brain training: Games to do you good. Nature. Fev.
2013.Vol.494. Disponivel
em<http://www.investigatinghealthyminds.org/ScientificPublications/2013/BavelierGa
mesNature.pdf> .Acesso 31/05/2014.
CAVALCANTI, M.; CHAMPANGNATTE, D. Cibercultura– perspectivas conceituais,
abordagens alternativas de comunicação e movimentos sociais. Curitiba.Rev. Estud.
Comun, v. 16, n. 41, p. 312-326, set. /dez. 2015.
DAVIS, N. O. Estudo de prova de conceito de uma intervenção digital caseira e envolvente
para o TDAH pediátrico. 2018. Disponível em <https://www.ncbi.nlm.nih.gov/pmc/
articles/PMC5764249/> acesso em 30/09/2019.
FREIRE, J. V. S.; et al. Digital Game Based Learning e transtornos que afetam o
aprendizado. XVII SBGames. Foz do Iguaçu - PR, 2018.
GUIMARÃES, M. Avaliação do potencial de utilização de um Ambiente Virtual 3D para a
prática de exercícios de matemática por crianças com transtorno de déficit de atenção
e/ou hiperatividade, Tese D.Sc., Coppe Sistemas de Computação – UFRJ, Rio de
Janeiro. 2006
JUNQUEIRA, D. Um jogo para smartphones e tablets promete ajudar no tratamento do
déficit de atenção. Publicado em 22 de janeiro de 2016. Disponível em
<https://gizmodo.uol.com.br/um-jogo-para-smartphones-e-tablets-promete-ajudar-no-
tratamento-do-deficit-de-atencao/>. Acessado em 30/09/2019.
PEREIRA, R. A criança com TDAH e a escola. Publicado pela Associação Brasileira do
Déficit de atenção. Disponível em <https://tdah.org.br/a-crianca-
chttps://gizmodo.uol.com.br/um-jogo-para-smartphones-e-tablets-promete-ajudar-no-
tratamento-do-deficit-de-atencao/> acesso em 06/10/2019.

72
Website e vlogs matemáticos: uma proposta de pesquisa
Isabela Silveira Rocha1, Daise Lago Pereira Souto2
1
Bacharelanda em ciência da computação – Universidade do Estado de Mato Grosso
(UNEMAT) – Barra do Bugres – MT – Brasil
2
Doutora em Educação Matemática – Universidade do Estado de Mato Grosso
(UNEMAT) – Barra do Bugres – MT - Brasil
isabelarochas00@gmail.com, daise@unemat.br

Abstract. In this paper we presente a research proposal at the Scientific


Initiation level goal to develop mathematical vlogs and continue to feed the
website with news, tutorials, new cartoons and other multimodal materials.
We hope this research will contribute teachers and students to math learning.

Resumo. Neste trabalho apresentamos uma proposta de pesquisa em nível de


Iniciação Científica que tem por objetivo desenvolver vlogs matemáticos e
continuar alimentando o website com notícias, tutoriais, novos cartoons e
outros materiais multimodais. Esperamos que esta pesquisa contribua com
professores e alunos na aprendizagem de matemática.

1. Introdução
A proposta de pesquisa apresentada neste artigo é dar sequência ao subprojeto
“Webm@ttoon” que antes era coordenado por Bini (2017) e têm como objetivo
alimentar o website1 com cartoons, notícias, tutorias, outros materiais multimodais.
Nesse contexto, inclui-se este subprojeto intitulado: Webm@ttoon II: incluindo vlogs. A
ideia é expandir o acesso com o desenvolvimento e publicação de vlogs discutindo
elementos do ensino e da aprendizagem da matemática com tecnologias digitais que
aproximem professores e alunos, e é desejável que os conteúdos desses vlogs tenham
coerência com as ideias debatidas no projeto M@ttoon. O projeto faz parte do projeto
M@ttoon: Matemática e Cartoons na Educação Básica e Superior de Mato Grosso que
propõe compreender a forma como os cartoons matemáticos digitais (animações de
desenhos, colagens ou modelagens) estão sendo produzidos e utilizados [Souto, 2016].
De acordo com Valênia e Amorim (2018) o vlog é uma junção de vídeo e blog,
na qual os criadores, vloggers ou vlogueiros, publicam vídeos em sites, blogs, ou em
plataformas como YouTube e o IGTV do Instagram. Segundo Valênia e Amorim
(Ibidem) nos vlogs há uma influência de multissemioses em que vloggers, além de
utilizar a linguagem oral, utilizam outros recursos em seus vídeos, sendo eles sonoros,
imagens, gráficos, etc.
As tecnologias atualmente fazem parte do cotidiano das pessoas, seja no
contexto social como escolar. De acordo com Bini, Krapon e Souto (2018), “algumas

1
www.webmttoon.com.br

73
escolas e professores começam a experimentar alternativas convenientes com o mundo
em que vivemos hoje, que é um mundo de imagens, sons e palavras, ou seja, um mundo
multimodal”.
Segundo Cunha (2018), a multimodalidade pode contribuir com a aprendizagem
dos discentes de forma contemplar os mais distintos estilos de aprendizagem, sendo
eles, às preferências e tendências da atualidade de cada indivíduo. Conforme
argumentado por Cunha (Ibidem), os alunos exercitam a multimodalidade ao fazer uso
de tecnologias, por intermédio da exploração de objetos virtuais de aprendizagem,
applets, Perfomance Matemáticas Digitais (PMD), vídeos disponíveis no Youtube,
pesquisas no Google, entre outros.
Dessa forma com a inclusão de vlogs no website espera-se tornar o ambiente
menos informal, em uma linguagem que aproxime professores e alunos, além de
contribuir com o ensino de matemática por meio de cartoons e outros materiais
multimodais.

2. Procedimentos metodológicos
A abordagem metodológica desta pesquisa é amparada nas ideias da pesquisa qualitativa
[Lincoln; Guba, 1985; Araújo; Borba, 2012], pois pretende-se disponibilizar
informações pela World Wide Web, popularmente conhecida como WWW.
O desenvolvimento desta pesquisa acontecerá em duas etapas que ocorrerão
simultaneamente: a primeira diz respeito à manutenção do website em que serão
adotadas as normas de conduta da Health on the Net Foundation (2002) que refere-se a
autoria, confidencialidade, complementaridade, atribuição, justificativas, transparências
na propriedade, transparência do patrimônio e honestidade de publicidade e da política
editorial.
Nessa fase, que ocorrerá durante todo o período de desenvolvimento desta
pesquisa, será necessário selecionar cartoons e outros materiais multimodais produzidos
por alunos e professores para publicação no site e propor aos pesquisadores do Projeto
M@ttoon a colaboração para análise do conteúdo dos cartoons (erros conceituais,
direitos autorais, e outros elementos que serão definidos). Ademais, haverá a cada
quinze dias postagem no site de notícias atualizadas sobre Educação Matemática;
Tecnologias Digitais; cartoons; vídeos, entre outras.
A segunda fase, se refere à construção dos vlogs. Nela, serão adotados os
procedimentos propostos por Vidmonsters (2019) e Youtubecreators (2019) que
sugerem os seguintes passos: planeje o conteúdo; crie um cronograma de gravações;
valorize a qualidade em detrimento à quantidade; estude sobre o assunto que irá abordar
para evitar erros conceituais; contemple sugestões indicadas pelos usuários e outros
parceiros; use humor para comunicar suas ideias.
Nessa fase, será necessário estreitar o canal de comunicação com os usuários para
receber seus feedbacks com sugestões de temáticas a serem abordadas nos vlogs. Antes
dos vlogs serem publicados deverão ser apresentados a um grupo de pesquisadores peer
review, isto é, revisão por pares, para análise, sugestões e contribuições tendo-se em
mente que o website com os vlogs deve-se constituir um local agradável de discussão,

74
reflexão, críticas e sugestões a questões relativas ao ensino e à aprendizagem na
matemática com tecnologias digitais.

3. Resultados esperados
Esta pesquisa iniciou-se dia 01 de outubro de 2019, então esperamos com o avanço
desta pesquisa, que as informações contidas no site www.webmttoon.com.br contribua
para os processos de ensino e aprendizagem com tecnologias digitais, ao divulgar e
desenvolver atividades como a produção de cartoons e vlogs.
Souto (2014) alerta que há uma grande discordância entre a maneira que os
alunos desejam aprender e a forma como as escolas persistem em educar. Portanto,
queremos estreitar os laços entre professores e alunos, assim contribuindo com o ensino
de matemática por meio de tecnologias digitais.

4. Considerações
Por fim, é importante ressaltar que o foco dessa pesquisa está em contribuir com o
ensino de matemática utilizando tecnologias digitais por meio de um website nomeado
Webm@ttoon.
Destaca-se que a pesquisa tem sintonia com a 5a competência geral da proposta
BNCC (2017, 2018); com as metas 15 e 16 do Plano Nacional de Educação [Brasil
2014]; e com a meta 5 do Plano Estadual da Educação [Mato Grosso 2014] e essas
metas estão em consonância com os objetivos para ciências e tecnologias sociais no
documento do MCTIC – Estratégia Nacional de Tecnologia e Inovação 2016 – 2022.

Referências
ARAÚJO, J. L.; BORBA, M.C. (2012). Construindo pesquisas coletivamente em
Educação Matemática. In: BORBA, M.C; ARAÚJO, J.L. (Org.). Pesquisa
qualitativa em educação matemática. Belo Horizonte, autêntica.
BINI, I. C; KAPRON, G. R; SOUTO, D. L. P. (2018) Educação matemática e
multimodalidade: uma proposta de pesquisa. Anais do 10° Congresso
Acadêmico de Tecnologia e Informática (CATI 2018). Universidade do Estado
de Mato Grosso – UNEMAT. Barra do Bugres – MT.
BINI, M. C. C. (2017). Webm@ttoon: limites e possibilidades de um repositório on-line
de Cartoons para o ensino de Matemática. Relatório final. Barra do Bugres:
Sigfapemat.
BRASIL. Base Nacional Comum Curricular: Educação Infantil e Ensino Fundamental.
(2017). Brasília: MEC/Secretaria de Educação Básica.
BRASIL. Base Nacional Comum Curricular: Ensino Médio. (2018) Brasília:
MEC/Secretaria de Educação Básica.
BRASIL. Estratégia Nacional de Ciência, Tecnologia e Inovação. (2016). Ministério da
Ciência, Tecnologia, Inovações e Comunicações – MCTIC. Brasília, DF.
BRASIL. Plano Nacional de Educação – PNE. (2014) Ministério da
Educação/Secretaria de Articulação com os Sistemas de Ensino –MEC/SASE.
Brasília, DF.

75
CUNHA, J. F. T. (2018). Blended learning e multimodalidade a formação continuada de
professores para o ensino de matemática. (Dissertação de mestrado).
Universidade do Estado de Mato Grosso – UNEMAT. Programa de Pós-
Graduação Stricto Sensu em Ensino de Ciências e Matemática – PPGECM.
Barra do Bugres – MT.
HEALTH on the Net Foundation. (2002). Código de conduta (HON) para Websites.
Disponível em: <http://www.hon.ch/HONcode/portuguese>. Acesso em: 18 de
set. de 2019.
LINCOLN, Y; GUBA, E. (1985) Naturalistic Inquiry. Londres: Sage Publications.
Lisboa - Portugal, Edições 70.
MATO GROSSO. Plano Estadual de Educação. (2014) Secretaria de Educação do
Estado de Mato Grosso. Cuiabá, MT.
SOUTO, D. L. P. (2016). Projeto M@ttoon. Manuscrito. Universidade do Estado de
Mato Grosso – UNEMAT. Barra do Bugres: Sigfapemat.
SOUTO, D. L. P. (2014). Transformações expansivas na Produção Matemática. On-line.
São Paulo: Cultura acadêmica.
VALÊNIA, A.; AMORIM, Y. P. (2018). Interação e participação significativa:
características e estruturação do gênero vlog. Miguilim - Revista Eletrônica do
Netlli.
VIDMONSTERS. Você sabe o que é vlog? Conheça esse formato de vídeo aprenda a
fazer sucesso. Disponível em: <https://vidmonsters.com/blog/vlog>. Acesso em:
18 de set. de 2019.
YOUTUBECREATORS. Aprenda formas de dominar o ofício de fazer vlogs.
Disponível em:
<http://creatoracademy.youtube.com/page/lesson/vlogging/hl=pt-br>. Acesso
em: 18 de set. de 2019.

76
Automatização da solução do jogo ‘Resta Um’ com uso de
Braço Robótico controlado por Arduino
Diego P. de Amorim, André F. Pereira, Wesley B. Thereza, Dárley D. de Almeida

Departamento de Ciência da Computação


Universidade do Estado do Mato Grosso (UNEMAT) – Alto Araguaia, MT – Brasil
{ diego.aiafx@gmail.com, andr3zao@gmail.com,
wesley@unemat.br, darleydalmeida@gmail.com
Abstract. The age of Industry 4.0 increasingly demands that production
processes be efficient at appropriate costs, in this scenario industrial
automation is a crucial factor in the search for quality and competitive
production. The aim of this paper is to present part of the automation process
of a Resta One game solution, using a robotic arm, controlled by Arduino
through a developed algorithm and transcribed in C ++ programming
language.
Resumo. A era da Indústria 4.0 exige cada vez mais que os processos de
produção sejam eficientes a custos adequados, nesse cenário a automação
industrial é fator crucial na busca por produção com qualidade e
competitividade. O objetivo deste trabalho é apresentar parte do processo de
automação de uma solução do jogo Resta Um, com uso de um braço robótico,
controlado por Arduíno através de algoritmo desenvolvido e transcrito em
linguagem de programação C++.
1. Introdução
O termo automação foi criado na década de 1940 por um engenheiro da Ford Motors
Company, que descreveu sistemas nos quais as ações e controles automáticos substituíam
o esforço e a inteligência dos seres humanos, assim a automação consiste no uso de
comandos lógicos programaveis e equipamentos mecanicos para incrementar ou
substituir as atividades manuais (Lamb, 2015). Para Rosário (2009), pode-se dizer que a
automação tem a finalidade de facilitar processos, implicando na construção de sistemas
otimizados capazes de produzir bens com menor custo, em maior quantidade, em menor
tempo e com maior qualidade. De acordo com Spong et al. (2005), a robótica é um campo
multidisciplinar que envolve o estudo da engenharia elétrica, mecânica, eletrônica,
ciência da computação e matematica. O que torna essas matérias mais acessíveis e
motivadoras atraves de experimentos tangíveis e uma associação efetiva por meio da
aplicação de materiais de robótica e trabalhos de laboratório (Wood, 2008).
Neste trabalho pretende-se apresentar parte do processo de automação da solução
do jogo ‘Resta Um’ com uso de um braço robótico controlado por Arduíno UNO através
de algoritmo elaborado e transcrito em linguagem de programação C++.

2. Desenvolvimento
Com o grande crescimento das indústrias e a demanda por seus produtos que antes eram
feitos em processos manuais e repetitivos, hoje temos a automação industrial que implica

77
na criação de máquinas, esteiras e várias formas de automatizar esses processos
repetitivos, sejam eles minimalistas ou de grande porte, abrangendo de algum modo todo
o mercado. Afim de experiênciar academicamente um processo de automação, pretende-
se realizar a automatização de uma solução do jogo ‘Resta Um’ com uso de um braço
robótico controlado por arduíno através de algoritmo desenvolvido.
O ‘Resta Um’ é um jogo de tabuleiro conhecido no mundo todo, onde peças,
geralmente pinos, feijões, bolas de gude ou outros elementos são utilizados para marcar
posições ocupadas no tabuleiro que pode possuir diversos formatos, sendo os mais
populares a cruz, a pirâmide e o quadrado. O desafio é deixar apenas uma peça sobre o
tabuleiro, seguindo as regras do jogo que consistem em realizar apenas movimentos
verticais e horizontais, saltando uma peça sobre a outra se a posição seguinte estiver vazia,
retirando a que foi saltada, movimento análogo ao jogo de damas, e essas operações são
realizadas até que reste apenas uma peça no tabuleiro ou o jogador fique sem movimentos
permitidos. Apesar de bastante simples, é um exercício cognitivo bastante interessante
pois para uma mesma configuração de início de jogo, inúmeras são as soluções possíveis,
Superinteressante(2019).
O Arduino, por sua vez, foi criado em 2005 como resultado da busca pela
elaboração de um dispositivo que fosse ao mesmo tempo barato, funcional e fácil de
programar, sendo dessa forma acessível a estudantes e projetistas amadores, para além
disso, foi adotado o conceito de hardware livre, o que significa que qualquer um pode
montar, modificar, melhorar e personalizar o Arduino, partindo do mesmo hardware
básico e assim foi desenvolvida uma placa composta por microcontrolador Atmel,
circuitos de entrada/saída, que pode ser facilmente conectada à um computador e
programada via IDE, utilizando uma linguagem baseada em C/C++ (Thomsen, 2014). Em
termos práticos, um Arduino é um pequeno computador em um chip, pois o mesmo conta
com processador, memória e portas de entrada e saída. Pode ser programado para
processar entradas e saídas entre o dispositivo e os componentes externos conectados a
ele. O Arduino é o que chamamos de plataforma de computação física ou embarcada, ou
seja, um sistema que pode interagir com seu ambiente por meio de hardware e software
(Fonseca, 2010). O Arduino tem sido utilizado no desenvolvimento de objetos ou
ambientes interativos, e também no controle de sistemas automatizados de iluminação,
refrigeração, controle de níveis de reservatórios entre outros, sendo considerado de ampla
aplicabilidade graças a variedade de dispositivos que podem ser controlados por tal
dispositivo (McRoberts, 2011).
O Arduino UNO é a versão mais utilizada da plataforma Arduino, conta com uma
placa baseada no microcontrolador ATMEGA 328, que possui 14 pinos de entrada/saída
digital (dos quais 6 podem ser usados como saídas PWM), 6 entradas analógicas, um
cristal oscilador (clock) de 16 MHz. Internamente, ele possui um oscilador de 32 kHz que
pode ser usado, por exemplo, em situações de baixo consumo, possui uma conexão USB,
a qual é utilizada como porta serial, ou também pode ser utilizada para alimentar o circuito
eletrônico, que pode ser feita por USB ou por fonte externa, preferencialmente entre 7 e
12 V contínua (Stevan, 2015). Para o desenvolvimento deste trabalho optamos por utilizar
o arduino UNO, pois ele conta com portas analógicas e digitais, pode ser utilizado sem a
necessariamente precisar de uma protoboard ou placas de circuito impressos, ele conta
com varias portas analógicas e seriais, conexão USB, entrada para fonte de alimentação
e saídas 3V, e por ser de baixo custo.

78
Segundo Monk (2014), muitas linguagens são usadas para programar os
microcontroladores, desde a linguagem Assembly, voltada ao hardware, até as linguagens
gráficas de programação, como Flowcode. O Arduino localiza-se em algum lugar entre
esses dois extremos e usa a linguagem de programação C++ com algumas pequenas
modificações.
Existem alguns modelos de Braço Robótico (Robotic Arm - RA) para Arduino
disponíveis na internet, para aquisição e montagem a partir de diferentes materiais como
acrílico e MDF (placa de fibra de média densidade), e também modelos para construção
a partir de impressão 3D com uso de filamento plástico ABS (acrilonitrila butadieno
estireno) ou PLA (ácido polilático). Após a realização de testes com um modelo de MDF,
verificou-se que o mesmo não apresentava alcance e precisão razoáveis para a execução
dos movimentos necessários para a solução do jogo, pois conseguiria cobrir um tabuleiro
com área de cinco centímetros apenas. Em seguida foram realizados testes com um
modelo obtido por impressão 3D a partir de filamento plástico PLA, que foi adotado por
apresentar maior resistência, maior precisão e alcance de aproximadamente dez
centímetros, o que possibilita cobrir um tabuleiro com maior número de peças.
Por atender melhor as demandas de projeto e cumprir melhor o objetivo de
representar um processo de automação industrial com mais iterações, foi escolhido o
modelo mark2 do projeto aberto denominado EEZY BOOT ARM (Franciscone, 2015), e
adquirido através de plataforma de e-commerce com todas as peças impressas, pronto
para a montagem. Este braço robótico tem seus movimentos realizados a partir do
trabalho de quatro servo-motores de 9G, dispostos em suas articulações principais, sendo
um na base responsável por controlar a rotação de 180°, um do lado direito que
proporciona o movimento de levantar e abaixar o braço, um do lado esquerdo responsável
pelo alcance e um na garra responsável pelo movimento de agarrar e largar.
A partir do testes de alcance, velocidade, estabilidade e precisão do braço
robótico, determinou-se o uso de um tabuleiro triangular para o jogo. Foi instalada uma
fonte de bancada para alimentar os servo-motores com a voltagem ideal, sendo, num
primeiro momento, o controle dos movimentos do braço robótico realizados através de
potenciomentros de 10K, com o objetivo de mapear as posições das peças no tabuleiro
capturando suas coordenadas a partir do monitor serial do Arduino.
Assim que mapeadas as coordenadas de todas as peças do tabuleiro adotado, serão
realizados testes para verificação do algoritmo de solução elaborado.

3. Considerações finais
Este projeto está sendo desenvolvido como trabalho de conclusão de curso de
Bacharelado em Ciência da Computação na UNEMAT, campus universitário de Alto
Araguaia, e proporciona uma experiência de problema real na área de automação
industrial, permitindo o estudo e elaboração de um projeto que envolve areas importantes
da computação como algoritmos e programação, microeletrônica e sistemas embarcados.
Como atividades futuras, primeiramente serão realizados testes acerca da exatidão
do algoritmo de soução elaborado, e em seguida, pretende-se aplicar estratégias de
otimização para a construção dos algoritmos de solução a serem adotados, com vistas a
executar sempre a solução ótima na busca por maior eficiência e menor consumo de
recursos.

79
Referências
Fonseca, E. G. P. (2010). Introdução ao kit de desenvolvimento Arduino. Rio de janeiro.
Universidade Federal Fluminense.
Franciscone, C. EEZY BOOT ARM. Disponível em: < https://www.thingiverse.com
/thing:1015238 >. Acesso em: 24 set. 2019.
JUNIOR, S.; SILVA, R. Automação e instrumentação industrial com Arduino: Teoria e
Projetos. São Paulo: 2015.
Lamb, F. (2015). Automação Industrial na Prática - Série Tekne. Porto Alegre. Editora
AMGH.
McRoberts, M. (2011) Arduino Básico. São Paulo. Editora Novatec.
Monk, S. 30 Projetos com Arduino. 2 ed. Porto Alegre: bookman, 2014.
Rosário, J. M. (2009). Automação Industrial. São Paulo. Editora Baraúna.
Spong, M. W., Hutchinson, S. and Vidyasagar, M., (2005) Robot Modeling and Control.
USA: John Wiley & Sons.
STEVAN JR, S. L.; SILVA, R. A. Automação e instrumentação industrial com Arduino:
Teoria e Projetos. São Paulo: 2015.
Superinteressante. Jogo – Resta-Um Disponível em: <https://super.abril.com.br/
comportamento/jogo-resta-um/>. Acesso em: 25 set. 2019.
Thomsen, A. O que é Arduino: conceito, benefícios e como utilizar. Disponível em:
<https://www.filipeflop.com/blog/o-que-e-arduino/>. Acesso em: 25 set. 2019.
Wood, R. J. (2008). Robotic Manipulation Using an Open-Architecture Industrial Arm:
A Pedagogical Overview. IEEE Robot. Autom. Mag., pp. 17– 18.

80
Proposta de Sistema de Rastreabilidade nos Laticínios
Jonas N. Veda1, Diógenes A. M. José1

Faculdade de Ciências Exatas e Tecnológicas FACET


1
Coordenação de Ciência da Computação – CCC
Universidade do Estado de Mato Grosso (UNEMAT)
Caixa Postal 92, 78390–000 – Barra do Bugres – MT – Brasil
{jnveda, dioxfile}@gmail.com
Abstract. This paper presents an application proposal to manage the fresh collection
of milk and to trace it from the producer to the dairy. Thus, bibliographic research
was used as a method for data collection, through studies on milk traceability and
the development of mobile technologies. Moreover, the App will be developed in
Java for the Android platform. Therefore, the purpose of this proposal is to fill a gap
regarding milk traceability because this process is still completely manual in many
places.
Resumo. Este artigo apresenta uma proposta de aplicação para gerenciar a coleta
in natura de leite e rastrear o mesmo desde o produtor até o laticíneo. Foi utilizado
como método para coleta de dados a pesquisa bibliográfica, através de estudos
levantados sobre rastreabilidade do leite e desenvolvimento de tecnologias móveis.
A aplicação será desenvolvida em Java para a plataforma Android. Com esta
proposta objetiva-se suprir uma lacuna, no que se refere à rastreabilidade do leite,
em função deste processo ainda, em muitas localidades, ser completamente manual.

1. Introdução
Nas últimas décadas a atividade leiteira brasileira evoluiu de forma contínua, resultando
no crescimento consistente da produção, que colocou o país como um dos principais do
setor no mundo. Nesse período a produção brasileira quase quadruplicou, passando de
7,1 bilhões para mais de 35,1 bilhões de litros de leite. Atualmente, a produção de leite
no estado de Mato Grosso produz aproximadamente 624 milhões de litros ao ano, 2% da
produção do país [9]. Diante disso, a rastreabilidade do leite tem-se tornando
fundamental para as indústrias alimentícias que buscam um controle de qualidade
eficaz, além das exigências estabelecidas pela Instrução Normativa 77 (IN 77) do
Ministério da Agricultura e Abastecimento (MAPA).
Diante do exposto, o objetivo deste trabalho consiste em propor o
desenvolvimento de uma aplicação móvel para controlar a coleta de leite, tendo como
referência a rastreabilidade nos laticínios, e dessa forma, automatizar o processo de
coleta para um melhor controle das informações de rastreabilidade. Com relação à
metodologia, este estudo consiste em uma pesquisa aplicada, uma vez que utilizou o
conhecimento da própria pesquisa para o desenvolvimento do projeto [7]. Quanto à
análise, a metodologia aplicada também pode ser classificada como pesquisa
exploratória e explicativa, uma vez que a mesma fará uso de materiais já elaborados, por
exemplo: livros, sites, artigos, revista eletrônica, entre outros [8]. A aplicação proposta,
foi desenvolvida utilizando o Android em função da predominância deste sistema, mais

81
de 85% do mercado de dispositivos móveis [2]. Tal aplicação foi implementada na IDE
Android Studio, Software Livre de código aberto, usando a linguagem de programação
Java e o Sistema Gerenciador de Banco de Dados (SGBD) SQLite.
O restante deste trabalho foi dividido como segue: a Seção 2 apresenta os
trabalhos relacionados. A Seção 3 descreve a proposta de aplicação. E, finalmente, na
Seção 4 são apresentados os resultados esperados.

2. Trabalhos Relacionados
Nesta seção é apresentada uma revisão das literaturas sobre rastreabilidade e
desenvolvimento de software para dispositivos móveis, com foco na utilização de gestão
da qualidade e rastreabilidade do leite.
Em Rambo e Maciel [5], a aplicação móvel como solução para a rastreabilidade
no processo de coleta e transporte do leite, apresenta um sistema para acompanhar e
gerenciar a rotina de coleta e transporte do leite desde a propriedade rural até a indústria,
armazenando dados, com o objetivo de inibir possíveis fraudes e elevar o nível de
confiabilidade deste processo. Payne e Thompson [4], propõem uma solução para a
rastreabilidade no processo de coleta e transporte do leite, o sistema gerencia a
segurança no transporte de leite fornecendo garantia de que o leite, suas amostras e
dados relacionados sejam transportados de forma segura entre a fazenda leiteira e a
indústria de laticínios. Magistech [3], apresenta uma aplicação mobile como solução
para a rastreabilidade no processo de coleta e transporte do leite. Além do benefício à
indústria láctea, ela também possibilita o processo de captação de leite mais eficiente e
assertivo. Segundo Santos, Pedrozo e Souza [6], a rastreabilidade na produção de leite é
uma estratégia importante, que procura atender às necessidades das empresas,
fornecedores e clientes.
Como bem nos assegura Chapaval [1], a rastreabilidade na produção de leite é a
forma de fazer com que a localização do problema fique mais simples, assim, é possível
seguir o processo inverso e descobrir qual a matéria-prima ou componente utilizado na
produção do produto e em quais outros produtos aquele mesmo material foi utilizado.
Logo, é importante compreender que é fundamental para as indústrias alimentícias ter
um controle de qualidade eficaz, além de atender as exigências estabelecidas pelo
Ministério da Agricultura e Abastecimento (MAPA).

3. Descrição da Proposta
A presente seção tem por objetivo descrever a proposta e mostrar parte do
sistema desenvolvido. O App é uma planilha eletrônica e nela utilizam-se as mais novas
ferramentas Android: Persistência de dados com Sqlite, designer de telas modernas,
câmera do celular, android APIs, entre outras. A Figura 1 apresenta o funcionamento
básico do sistema.

82
Figura 1 - Funcionamento da aplicação, coleta informações através do QRCode e
armazena na aplicação para futura conferência.

O motorista de transporte do leite in natura utilizará este aplicativo para coletar


informações antes e durante a coleta de leite, por exemplo, ao chegar à propriedade para
a coleta do leite, encontra-se uma etiqueta fixada no tanque de resfriamento de leite,
com o QRCode, referente ao número da matrícula do fornecedor (pecuarísta). Dentre os
campos da primeira tela, o campo matrícula capturará o número da matrícula através de
uma leitura de QRCode como medida de segurança, a partir daí, o restante do formulário
é preenchido via input (ex., entrada do teclado do telefone) como mostra a Figura 2.
(a) (b) (c) (d)

Figura 2. Apresentações das Telas do App proposto.


Descrição das funcionalidade das telas do aplicativo: 2a) é a tela principal em
que o usuário pode escolher: lançar coleta, gerar relatório ou compartilhar o relatório;
2b) apresenta a tela, mais importante, lançar coleta; 2c) editar coleta lançada e acesso à
ela através da tela relatório; 2d) tela de relatório, nesta tela é possível salvar o relatório
em extensão .csv e se selecionado uma coleta específica e possível abrir a tela 2c.
Portanto, esta aplicação armazenará os dados do leite coletado, substituindo as
planilhas de papel e trazendo mais segurança e eficiência ao processo de coleta para a
rastreabilidade, uma vez que a planilha poderia ser perdida e/ou rasurada (ex. molhar,
perder ao vento, etc.). Assim, a aplicação trará um controle eficaz para a rastreabilidade
do produto, de forma automatizada, no armazenamento dos dados do leite coletado do
produtor ao laticínio.

83
4. Resultados Esperados
Com o desenvolvimento do presente estudo espera-se automatizar o processo de coleta
de leite in natura e a rastreabilidade do leite. Vale destacar que a presente aplicação não
dependerá de conexão com a Internet para o funcionamento. Também, objetiva-se suprir
uma lacuna neste quesito, pois em muitos municípios brasileiros a coleta de leite ainda é
realizada de forma manual.

Refêrencias
[1] CHAPAVAL, L., & ALVES, F. A. (2008). Rastreabilidade na Produção de Leite
de Cabra: Diferencial para um Agronegócio Sustentável. Disponível em:
<https://ainfo.cnptia.embrapa.br/digital/bitstream/item/92886/1/Midia-Rastreabilidade-
na-Producao-de-Leite-de-Cabra.pdf>. Acesso em: 25 abr. 2019.
[2] CIRIACO, D. (18 de 07 de 2017). Androir cresce, iOS diminui e Windows Phone
quase some, aponta relatório. Disponível em Tecmundo:
<http://www.in.gov.br/materia/-/asset_publisher/Kujrw0TZC2Mb/content/id/52750141/
do1-2018-11-30-instrucao-normativa-n-77-de-26-de-novembro-de-2018-52749887>.
Acesso em 05 set. 2019.
[3] MAGISTECH, S. I. (s.d.). App Magis Coleta - Sistema de coleta de leite. Disponível
em 2019: <https://www.magistech.com.br/solucoes/app-magis-coleta-sistema-de-coleta-
de-leite>. Acesso em 05 de ago de 2019.
[4] PAYNE, F., & THOMPSON, C. (2015). Milk Transport Security and Traceability
System. Disponível em: <http://www.icef11.org/content/papers/mfs/MFS868.pdf>.
Acesso em 21 jan. 2019.
[5] RAMBO, F., & MACIEL, J. M. (s.d.). Uma solução para a rastreabilidade no
processo de coleta e transporte do leite. Disponível em <http://eventos.uepg.br/sbiagro/
2015/anais/SBIAgro2015/pdf_resumos/17/17_fernando_rambo_199.pdf>. Acesso em
25 de nov de 2018.
[6] SILVÉRIO, A. G., SANTOS, M. S., SOUZA, M. V., & PEDROSO, V. S. (2019).
Viabilidade da implantação de sistemas de informação na produção de leite UHT/
Viability of implantation of information systems in UHT milk production. Disponível
em: <http://www.brjd.com.br/index.php/BRJD/article/view/1420>. Acesso em 06 Set.
2019.
[7] TYBEL, D. (2014). TCC, uma ESCRITA EM BLOCOS. São Mateus: Douglas Tybel.
[8] VIANELLO, L. P. (2013). MÉTODOS E TÉCNICAS DE PESQUISA: Elementos
para o delineamento da pesquisa: método estruturado e sistematizado. Belo Horizonte:
Ead - Educação a distancia. Disponível em: < https://docplayer.com.br/1584163-
Metodos-e-tecnicas-de-pesquisa-luciana-peixoto-vianello.html>. Acesso em 06 Set.
2019
[9] ZOCCAL, R. (2018). Produção de 2017 cresce e reverte tendência de queda.
Disponível em Anuário Leite 2018:
<https://www.embrapa.br/busca-de-publicacoes/-/publicacao/1094149/anuario-leite-
2018-indicadores-tendencias-e-oportunidades-para-quem-vive-no-setor-leiteiro>.
Acesso em 12 de jul de 2019.

84
Proposta de Aplicação para Obtenção da Reputação de Marca
ou Produto utilizando o Twitter como Fonte de Análise
Wanderson S. Araújo1, Diógenes Antônio M. José1, Raquel da Silva V. Coelho
Faculdade de Ciências Exatas FACET
Universidade do Estado de Mato Grosso-UNEMAT Caixa Postal 92 - CEP - 78390-
000 – Barra do Bugres, MT – Brasil
wsa.juinaarujo@gmail.com, {dioxfile, raquelcoelho}@unemat.br

Abstract. Twitter is a social network with millions of users around the world, about 20%
of published Tweets express their users' feelings about some kind of product/brand.
Therefore, the purpose of this article is to propose an application for extracting
information from Twitter regarding users' consumer tastes. Thus, to perform this task
techniques such as natural language processing and machine learning will be used. In
addition, it will be implemented in Python with Tweepy and Pandas. As a result, the App
is expected to mine information in two languages, Portuguese/English.

Resumo. O Twitter é uma rede social com milhões de usuários espalhados pelo mundo,
cerca de 20% dos Tweets publicados expressam os sentimentos de seus usuários com
relação a algum tipo de produto/marca. Portanto, o objetivo deste artigo consiste em
propor uma aplicação para extração de informações do Twitter relativas aos gostos de
consumo dos usuários. Dessa forma, para realizar tal tarefa serão utilizadas técnicas
como processamento de linguagem natural e aprendizado de máquina. Além disso, a
mesma será implementada em Python com Tweepy e Pandas. Como resultado, espera-se
que a App minere informações em dois idiomas, português/Inglês.

1. Introdução
Os brasileiros são líderes no tempo gasto em redes sociais, segundo a pesquisa quantitativa
divulgada pela consultoria ComScore, a media é 60% a mais que em outros países [1].
Comumente os usuários compartilham mensagens (Tweets) sobre seu cotidiano, tornando essas
mensagens extremamente relevantes para uma análise de sentimento. Segundo Li, R. e Li, J.
[2], aproximadamente 20% dos Tweets publicados estão relacionados à uma marca e expressam
a opinião do usuário. Em 2012 Stelzner [3] apontou que 83% dos profissionais do marketing
faziam uso de informações levantadas nas redes sociais para avaliar o desempenho de
empresas. Diante do exposto o objetivo deste trabalho consiste em propor o desenvolvimento
de uma ferramenta para extração das informações da rede social Twitter. A ferramenta (app)
fará uso de técnicas como: descoberta de conhecimento em banco de dados, processamento de
linguagem natural e aprendizado de máquina. Dessa forma, será possível analisar os
sentimentos dos Tweets referente a alguma marca específica. O desenvolvimento será feito em
Python por esta ser uma linguagem muito usada para análise de dados, por possuir uma
quantidade enorme de forums de discussão/documentação e, também, por ser a terceira
linguagem mais usada no mundo, fonte: https://www.tiobe.com/tiobe-index/.

85
O restante deste artigo foi organizado como segue: a Seção 2 apresenta os trabalhos
relacionados. Na Seção 3 é apresentada a descrição da proposta. E, finalmente, na Seção 4 são
apresentados os resultados esperados.

2. Trabalhos Relacionados
As redes sociais são formadas a partir da interação entre entidades (usuários, grupos, empresas
ou organizações) em que a interação pode ser unilateral ou bilateral, sendo dada de acordo com
interesses ou objetivos em comuns [4]. Acredita-se que atualmente dois terços da população
mundial tem acesso às redes sociais [5].
De acordo com Costa [6], as cinco redes sociais mais utilizadas atualmente no Brasil
são Youtube, Facebook, Whatsapp, Instagram, Messenger e o Twitter. Dentre as redes sociais
destaca-se o Twitter, ele pode ser descrito como um serviço de Micro-blogging altamente social
e em tempo real, a comunicação ocorre por curtos textos de até 280 caracteres, chamados de
Tweets que aparecem em uma linha de tempo [7]. O Tweet pode conter uma ou mais entidades
que é dada por Hashtags e referenciar um ou mais lugares do mundo real [8].
Fayyad, Piatetsky-Shapiro e Smyth [9] definem a descoberta de conhecimento como o
processo não trivial de extração de informações implícitas, previamente desconhecidas e
potencialmente úteis, a partir dos dados armazenados em um banco de dados. Quando se refere
a não trivial, refere-se à necessidade de se utilizar alguma técnica de busca ou inferência. A
informação que se procura tem de ser potencialmente útil e deve trazer algum benefício para o
usuário. Este processo é amplo como mostra a Figura 1.

Figura 1. Etapas da descoberta de conhecimento .

Segundo Chopra, Joshi, Mathur [11] o processamento de linguagem natural PNL é um


dos principais componentes da inteligência artificial e linguística computacional, no qual tem
como objetivo a interação entre linguagem natural e o computador. Ele possibilita que o
computador seja capaz de compreender a comunicação humana. Martins, Kataoka, Trindade
[12], destacam que a maior dificuldade do PNL é que uma simples frase pode conter
ambiguidades e interpretações que dependem do contexto, do conhecimento de mundo, de
regras gramaticais, cultura e de conceitos abstratos. Por exemplo, os níveis de entendimento da
linguagem natural podem ser: fonético, relacionamento das palavras com os sons do idioma;
morfológico, a construção das palavras a partir de unidades de significado primitivas;
semâmtico, relacionamento das palavras com seus significados e de como eles são compostos
para que a frase tenha sentido; e pragmático, uso de frases e sentenças em diferentes contextos,
afetando o significado. Portanto, o PNL possui algumas etapas que compõe o sistema para o
processo de compreensão de textos que são: Análise Léxica, Análise Morfológica, Análise
Sintática, Análise semântica e integração do discurso. Já o aprendizado de máquina é uma
subárea da inteligência artificial, em que existem diversos algoritmos com diferentes
desempenhos para todos os problemas específicos, normalmente cada algoritmo possui suas
limitações dependendo da forma que for aplicado [13]. Devido à limitação do número de

86
página e a baixa relevância para o trabalho não será mencionado os tipos de aprendizagem e
algoritmos utilizados.

3. Descrição da Proposta
A presente seção tem por objetivo descrever o funcionamento da ferramenta de análise de
sentimento, que será desenvolvida utilizando Python. Os dados utilizados serão extraídos via
API do Twitter usando a biblioteca Tweepy, posterior a extração dos dados, estes serão
armazenados utilizando a biblioteca Pandas. Posterior a extração e armazenamento dos
dados, poderá ser feito um polimento dos dados obtidos, eliminando eventuais ruídos ou
Tweets sem muita informação. Em sequência fazer a análise de sentimento nos dados já
polidos, e assim exibir o resultado em gráfico contendo positivo, neutro e negativo. A Figura
2 mostra o diagrama de funcionamento da ferramenta.

Figura 2. Diagrama do funcionamento da Aplicação.

Sequência de ações da Aplicação: a) A extração dos Tweets utilizando a biblioteca


Tweepy; b) O armazenamento dos dados serão obtidos utilizando a biblioteca Pandas; c)
Executar o polimento dos dados obtidos e armazenados eliminando quaisquer ruídos; d)
Executar a análise de sentimento sobre os dados obtidos para extrair o resultado dos Tweets; e)
f) Apresentação do resultado em forma de gráfico pizza, exibindo a porcentagem positiva
negativa e neutra da palavra pesquisada.

3.2 Metodologia
Os materiais e métodos para desenvolver esta proposta são organizados em etapas: 1 - Seleção:
nesta etapa é selecionada as características ou atributo dentre o conjunto de dados e casos ou
observações que farão parte da análise; 2 - Pré-processamento: esta é a etapa mais trabalhosa
dentre as demais, pois é necessário realizar diversos passos para que os dados estejam o mais
refinados possível, removendo e corrigindo quaisquer redundâncias nos dados e tratando
eventuais dados ausentes, a finalidade desta etapa é preparar os dados para o processo de
mineração; 3 - Transformação: consiste em armazenar e formatar os dados de maneira que o
algoritmo de aprendizagem possa ser aplicado com eficiência, mantendo ou destacando os
dados de maior importância; 4 - Mineração de dados: a etapa de mineração de dados é
responsável por explorar os dados transformados com o objetivo de identificar seus padrões,
para a utilização na classificação e previsão de novos dados; 5 - Interpretação: aqui é feito a
análise dos padrões identificados para atribuir contexto e semântica a eles. Posterior à análise, a
informação resultante pode ser aplicada em atividades de tomada de decisão relacionadas ao
objetivo inicial. A ferramenta proposta nesta pesquisa utilizar-se-á de Interface de

87
Programação de Aplicação (API), por exemplo, o Twython/Tweepy, que são um conjunto de
rotinas e padrões estabelecidos por um software para a utilização de funcionalidades
específicas (Dicionário online) 1.

4. Resultados Esperados
Os resultados esperados com este trabalho consistem em criar uma aplicação para extração das
informações do Twitter usando Python e a API Tweepy. Além disso, a aplicação fará uso de
técnicas de mineração de dados e inteligência artificial, por exemplo, processamento de
linguagem natural e aprendizado de máquina. Neste contexto, a aplicação terá como referência
uma base de dados em português/Inglês de forma a atender hashtags nos dois idiomas.

Referências
[1] OTONI, C. Ana. Brasileiros gastam 650 horas por mês em redes sociais. 2015. Disponível
em: https://blogs.oglobo.globo.com/nas-redes/post/brasileiros-gastam-650-horas-por-mes-em
redes-sociais-567026.html Acesso em: 05 de Outubro de 2019
[2] LI, Y.-M.; LI, T.-Y. Deriving marketing intelligence over micro blogs. 2011. In: Proceedings
of 44th Hawaii International Conference on System Sciences (HICSS), p. 1 –10.
[3] STELZNER, M. A., Social media marketing industry report. 2012. Disponível em:
https://www.socialmediaexaminer.com/social-media-marketing-industry-report-2012/. Acesso
em: 05 de Outubro de 2019.
[4] GONÇALVES, P.; DORES, W. J. D.; BENEVENUTO, F. 2015. Medindo Sentimentos no
Twitter por Meio de uma Escala Psicométrica. Revista Eletrônica de Sistemas de Informação,
v. 14, n. 2, p. 1-19.
[5] BENEVENUTO, F., Almeida, J. and Silva, A. (2011). Coleta e análise de grandes bases de
dados de redes sociais online. In Jornadas de Atualização em Informática (JAI).
[6] COSTA, T. Quais são as redes sociais mais usadas no Brasil em 2019?. Disponível em:
https://rockcontent.com/blog/redes-sociais-mais-usadas-no-brasil/. Acesso em: 05 de Outubro de
2019.
[7] RUSSELL, Stuart J.; NORVIG, Peter. Inteligência artificial. Rio de Janeiro: Elsevier, 2004.
[8] LAMONT, I. Twitter in 30 minutes: How to connect with interesting people, write great tweets,
and find information that's relevant to you. Amazon, 2016.
[9] FAYYAD, U. PIATETSKY-SHAPIRO, G. SMYTH, P. From Data Mining to Knowledge
Discovery na Overview In Advances in Knowledge Discovery and Data Mining. 1996.
[10] AMO, S. "Técnicas de mineração de dados." Jornada de Atualização em Informática (2004).
[11] CHOPRA, D. JOSHI, N. MATHUR .I. Matering Natural Language Processing with Python.
Amazon Digital Services LLC, 2016.
[12] MARTINS, D.; KATAOKA, K.; TRINDADE, L. Processamento de Linguagem Natural. 2010.
Universidade Federal da Bahia. Disponível em https://document.onl/documents/processamento-
de-linguagem-natural-homesdccufbabrleotavoindexhtml-.html. Acesso em 05 de Outubro de
2019.
[13] REZENDE, D. A.. Planejamento de Sistemas de Informação e Informática 4ª ed. São
Paulo: Atlas, 2011.

1
http://foldoc.org/Application+Program+Interface.

88
Aprendizado de máquina aplicado para previsão e
classificação de resultados do Cartola FC
Jefferson Maciel de Sales Bispo1, Leo Manoel Lopes da Silva Garcia1, Raquel da
Silva Vieira Coelho1
1
Universidade do Estado de Mato Grosso (UNEMAT)
Caixa Postal 92 – CEP 78390-000 – Barra do Bugres, MT – Brasil
jeffersonmaciel15@gmail.com, {leoneto, raquelcoelho}@unemat.br

Abstract. Cartola FC is an online prediction and hit game in which


participants try to predict who will be the best players of the round and it is
precisely this feature that fits a plausible problem for applying machine
learning techniques. The present work is to use supervised machine learning
techniques to process possible round history data and to support an assertive
prediction for subsequent rounds.

Resumo. Cartola FC é um jogo online baseado em previsões e acertos, na


qual o os participantes tentam prever quais serão os melhores jogadores da
rodada, sendo justamente esta característica que se adequa a um problema
plausível para aplicar técnicas de aprendizagem de máquina. O presente
trabalho consiste em utilizar técnicas de aprendizado de máquina
supervisionado, para processar os dados possíveis do histórico de rodadas e
amparar uma previsão assertiva para as rodadas seguintes.

1. Introdução

O jogo eletrônico Cartola FC é um jogo que tenta passar aos seus jogadores a sensação
de ser um técnico de futebol, podendo escolher seus atletas a cada rodada para
conseguir o máximo de pontuação, cada participante escala os jogadores de acordo com
seus preços e suas posições dentro de campo, podendo escalar qualquer jogador de
qualquer time do campeonato brasileiro série A. Conforme as regras cada jogador terá
uma pontuação do seu desempenho na partida [Lopes, 2018].
O aprendizado de máquina vem ganhando muita importância no cenário mundial
nos últimos anos, com os avanços tecnológicos e com a grande quantidade de dados
gerados, é necessário que haja aplicações para analisá-los, tomar decisões para os
problemas encontrados, predizer tendências futuras, entre várias outras funcionalidades
que o aprendizado de máquina possa ser útil [Junior, Gomes e Costa, 2018].
Como hoje em dia é fácil encontrar o uso de aprendizado de máquina para
solucionar problemas, sejam eles do mais simples ao mais complexo, os algoritmos de
aprendizagem podem ser aplicados de diversas formas dependendo da situação onde
seja necessário.
Dessa maneira, este presente trabalho tem por objetivo utilizar técnicas de
aprendizado de máquina para prever e classificar desempenho futuro de jogadores, em

89
partidas válidas pelo Campeonato Brasileiro de futebol do ano de 2018, a partir de dados
fornecidos pelo jogo eletrônico Cartola FC.
No decorrer do trabalho serão apresentadas seções acerca do tema gerador,
expostos da seguinte forma: a Seção 2 apresenta os trabalhos relacionados. Na Seção 3 é
apresentada a descrição da proposta e metodologia e por fim na Seção 4 são
apresentados os resultados esperados.

2. Trabalhos Relacionados.
Aprendizado de Máquina é um subcampo da Inteligência Artificial que compreende o
campo da Ciência da Computação onde estuda o reconhecimento de padrões baseados
em análise de dados para o aprendizado computacional de Inteligências Artificiais e
resolução de problemas [Costa, 2018].
Com a crescente evolução do uso da tecnologia, novas ferramentas e soluções
foram surgindo no intuito de facilitar a resolução dos problemas computacionais de
pessoas e empresas. Se durante um longo período os computadores apenas eram capazes
de processar e efetuar o que lhes era instruído a fazer, novas técnicas possibilitaram que
os computadores pudessem aprender a se auto programar que é a principal característica
do campo de aprendizado de máquina [Junior, Gomes e Costa, 2018].
O aprendizado de máquina pode ser comparado ao dos seres humanos no sentido
de que, ambos adquirem conhecimento através de experiências, a máquina experimenta
copiosamente o problema e cria seu próprio modelo de solução, ou seja, reconhece os
padrões dos dados e calibrando assim as tomadas de decisões, baseadas nas experiências
que foram exposta. [Araújo, 2015].
O aprendizado de máquina abrange três métodos de aprendizagem são eles:
Aprendizado Supervisionado, Aprendizado não supervisionado e Aprendizado por
reforço.
• Aprendizado supervisionado: é utilizado para fazer previsões com base em
conjunto de exemplos pré-definidos para buscar padrões, ou seja, dados
anteriores são levados em consideração para novas predições, tanto os dados de
entrada como de saídas são de conhecimento prévio [Junior, Gomes e Costa,
2018];
• Aprendizado não supervisionado: no aprendizado não supervisionado a
máquina também trabalha com a detecção de padrões, só que neste modelo não
tem um feedbak com base na saída para ter a resposta, os dados são inseridos ao
algoritmo e a máquina deve categorizar cada dado e criando um modelo
Clustering, em outras palavras agrupar os dados com características em comum
[Barros, 2016];
• Aprendizado por reforço: Aprendizagem por reforço se baseia fortemente na
ideia intuitiva de aprendizagem, num problema de aprendizagem por reforço não
há um vetor de erro, ou seja, não há instrução guiando o agente rumo à resposta
correta. Um sinal de reforço negativo apenas indica que o resultado da ação
tomada foi ruim, e não qual a correção a tomar [Azzolini, 2011].
O Cartola FC é um jogo de futebol online no estilo Fantasy game, vinculado a
emissora de televisão Rede Globo, onde os participantes criam equipes virtuais

90
baseando no Campeonato brasileiro de futebol, em que, devem selecionar onze
jogadores e um técnico, em suas devidas posições do time real, o desempenho dos
atletas dentro campo é usada para calcular a pontuação de cada jogador no Fantasy
game [Lopes, 2018].
2.1 Framework Weka
Weka é um framework de fácil aprendizado muito “poderosa” para o aprendizado de
máquina. Desenvolvida na Universidade de Waikato na Nova Zelândia, utilizando a
linguagem de programação Java, fornece um grande número de algoritmo de
aprendizado de máquina, métodos de seleção de recursos, mineração de regras de
associação e visualização dos dados. Neste contexto os objetivos do Weka é auxiliar os
pesquisadores e cientistas no desenvolvimento de aplicações de aprendizado de
máquina, por ser um framework de fácil entendimento, utilizar para o
ensino/aprendizado nas escolas e universidades [Eibe, Mark e Ian, 2016].

3. Descrição da proposta
Este presente trabalho tem por objetivo mostrar o funcionamento de aprendizado de
máquina descrevendo suas técnicas e modelos, realizando testes de previsão dos
resultados e classificação do jogo eletrônico Cartola FC. Através dos modelos de
aprendizado de máquina classificar os jogadores como ruim, bom ou excelente para as
rodadas seguinte.
Os materiais e métodos utilizados para os testes são:
1. Utilizar o framework Weka para treinar a base de dados do Cartola FC, no qual
19 rodadas das 38 serão de treinamento e as outras 19 como teste;
2. Realizar teste utilizando o algoritmo Naive Bayes para a classificação dos
resultados;
3. Verificar a plausibilidade da classificação dos resultados.

4. Resultados esperado
Há muitas variáveis que influenciam no desempenho do jogador de futebol em uma
partida: faltas cometidas, gol feito, assistência, defesas difíceis, gol sofrido, entre várias
outras possibilidades que podem ocorrer durante uma partida de futebol. O jogo
eletrônico Cartola FC oferece uma grande quantidade de dados de cada jogador a cada
rodada de jogos válidos pelo Campeonato Brasileiro. A partir destes dados e com o uso
de técnicas de aprendizado de máquina, é possível analisar o desempenho anterior dos
jogadores para poder classificá-los e dar uma indicação de candidatos selecionáveis pelo
sistema para compor um time da próxima rodada, objetivando assim um time mais
assertivo.

5. Referências
ARAÚJO, Kelvin Martins. Utilização do algoritmo de máquina de vetores de suporte
(SVM) para predição de dados climáticos. 2015. Disponível em:
<shttps//webcache.googleuserc
ontent.com/search?q=cache:vE4J8i9csQMJ:https://ulbrato.br/bibliotecadigital/upload

91
s/document57ff7226dff60.pdf+&cd=2&hl=pt-BR&ct=clnk&gl=br>. Acesso em: 07
maio. 2019.
AZZOLINI. Alisson. Aprendizado por reforço em modelos probabilísticos de rede
imunológicas para robótica autônoma. 2011. Disponível em:
<ftp://ftp.dca.fee.unicamp.br/pub/docs/vonzuben/theses/tese_Azzolini.pdf>. Acesso
em: 20 maio de 2019.
BARROS, Pedro. Aprendizagem de Máquina: Supervisionada ou Não Supervisionada?.
2016. Disponível em: https://medium.com/opensanca/aprendizagem-de-maquina-
supervisionada-ou-n%C3%A3o-supervisionada-7d01f78cd80a>. Acesso em: 07
maio. 2019.
COSTA, Antonio. Luiz. “Entenda o que é o conceito de “Aprendizado de Máquina””.
2018. Disponível em: <https://www.showmetech.com.br/entenda-o-que-e-o-
conceito-de-aprendizado-de-maquina/>. Acesso em: 06 maio. 2019.
EIBE Frank, MARK A. Hall, and IAN H. Witten (2016). “Data Mining: Practical
Machine Learning Tools and Techniques”. Disponível em:<
https://www.cs.waikato.ac.nz/ml/weka/index.html>. Acesso em: 21 out. 2019.
JUNIOR, Jose. P. A; GOMES, André.; COSTA, Gustavo. “A. Uma Abordagem de
Aprendizado de Máquina para a Previsão do Desempenho Escolar de Alunos do
Ensino Médio”. 2018. Disponível em:
https://www.researchgate.net/publication/325571356_Uma_A
bordagem_de_prendizado_de_Maquina_para_a_Previsao_do_Desempenho_Escolar_
de_Alunos_do_Ensino_Medio. Acesso em: 5 jun. 2019.
LOPES. Henrique. “Aprendizado de máquina aplicada a desempenho de jogadores de
futebol”. 2018. Disponível em:
http://www.tcc.sc.usp.br/tce/disponiveis/18/180450/tce-26072018-121351/. Acesso
em: 30 maio. 2019.

92
Proposta de Gerenciamento de Dados Meteorológicos para
Uso de Energia Solar Off-Grid com Software Assistente em
Python e IoT
Érico Piantkoski1, Diógenes Antonio Marques José1

Faculdade de Ciências Exatas e Tecnológicas FACET


1
Coordenação de Ciência da Computação – CCC
Universidade do Estado de Mato Grosso (UNEMAT)
Caixa Postal 92, 78390–000 – Barra do Bugres – MT – Brasil
{erico.piantkoski, dioxfile}@unemat.br

Abstract. Solar radiation can be used in countless applications and provide


many benefits to mankind. However, it can be a problem in off-grid energy
models that are totally dependent on solar energy, because of the potential
power outages on days with lower radiation. Thus, this study highlights a
proposal for the Internet of Things (IoT) radiation prediction, and an App
developed in Python, able to inform the user when energy saving is required.
Therefore, it is expected that users of this type of model can have a greater
awareness of their own consumption, as well as stimulates the Off-Grid solar
energy market.
Resumo. A radiação solar pode ser utilizada em inúmeras aplicações e
prover diversos benefícios à humanidade. Entretanto, pode ser um problema
em modelos de energia Off-Grid, totalmente dependentes da energia solar,
por conta da potencial falta de energia em dias cuja radiação seja menor. A
partir disso, este estudo evidencia uma proposta para previsão da radiação
com auxílio de Internet das Coisas (IoT) e uma App desenvolvida em Python,
capaz de informar ao usuário momentos em que seja necessária a economia
de energia. Espera-se, dessa forma, que usuários deste tipo de modelo possam
possuir maior conscientização a respeito de seu próprio consumo, bem como
estimular o mercado de energia solar Off-Grid.

1. Introdução
Visando um contexto sustentável, Belúcio et al. [1] elucidam o intento da humanidade
em buscar meios de se prover energia de forma eficiente. Assim, a intensidade com que
os raios solares incidem sobre a Terra tornam a utilização de energia fotovoltaica viável.
Neste âmbito, a observação de fatores meteorológicos como radiação solar global e
difusa são intrínsecas. Apesar de uma opção factível e uma realidade em diversos
países, no entanto, temos ainda caminhado a passos curtos em direção a esse objetivo

93
promissor, dado o fato de a obtenção de energia solar estar sujeita a alguns fatores
essenciais, como a quantidade e qualidade de equipamentos utilizados para captação de
radiação, clima e alto custo de implementação, por exemplo [2].
Neste contexto, modelos de energia solar independentes (Off-Grid), em que a
base de obtenção de energia é exclusivamente fotovoltaica, podem ser instáveis quando
custo e quantidade de equipamento são levados em consideração. Nesses casos, a falta
de energia pode ser uma realidade [1]. Diante do exposto, o objetivo desta proposta de
pesquisa evidencia-se da iniciativa de se desenvolver um sistema embarcado capaz de
abstrair informações da energia adquirida pelo sistema Off-Grid e, dessa forma,
compará-las com dados devidamente tratados das bases de dados meteorológicas para
assim gerar conhecimento ao usuário de eventuais momentos em que se faça necessária
a economia de energia.
As informações foram organizadas como segue: a Seção 2 apresenta a descrição
da proposta e a metodologia de desenvolvimento. E, finalmente, na Seção 3 são
apresentados os resultados esperados.

2. Descrição da Proposta
A descrição da proposta tem por finalidade elucidar os passos a serem tomados com
relação ao projeto. Com a finalidade de se mensurar a quantidade de energia adquirida
em um modelo específico. Assim, utilizar-se-á o módulo ESP 8266-12F (Figura 1), por
possuir a possibilidade de comunicação com a rede, através dos protocolos IEEE
802.11 b/g/n. O algoritmo para gerenciar o controle de energia será desenvolvido em
Python e implementado no firmware do ESP 8266-12F. Assim, o mesmo deve ser
capaz de comparar a energia adquirida pelo modelo Off-Grid com a expectativa de
aquisição para determinado dia no ano (ex. de um a sete dias sequentes à comparação)
e, portanto, retornar ao servidor quando o usuário precisará economizar energia.

Figura 1. Modelo ESP 8266 12-F.

A comparação deve ser proporcional à média analisada, ou seja, um único dia no


sistema Off-Grid será comparado a um único dia alvo das bases de dados. Este dia será
posterior ao analisado no sistema em questão. De forma análoga, quando a apresentação
dos resultados for para uma semana (ex. dia-a-dia nas bases de dados), uma média do
consumo dos últimos sete dias será tomada para análise do gasto do usuário. Dessa

94
forma, dados de consumo serão sempre comparados com bases de dados para oferecer
convicções sobre economia de energia. Além disso, é proposto ainda que o usuário
possa ter informações sobre seu próprio consumo diário.

Figura 2. Estrutura de um Sistema Off-Grid equipado com o ESP 8266 12-F para tratamento e exibição
de informações acerca de economia de energia.

Assumindo o campo de Internet das Coisas (Internet of Things, IoT), os dados


finais resultantes do ESP 8266-12F podem ser enviados a um servidor, e exibidos pela
internet para o usuário. O servidor hospedará uma página simples desenvolvida em
HTML-CSS, cuja única finalidade seja a exibição de gráficos que mostram comparações
de consumos com bases de dados meteorológicos, e informações sobre economia, como
exposto na Figura 2.
As bases de dados utilizadas serão as do Instituto Nacional de Pesquisa
Espacial (INPE) (para informações como Wh/m²) e do Banco de Dados
Meteorológico para Ensino e Pesquisa (BDMAP) (para informações como período de
insolação (Horas), que é a quantidade de radiação solar que incide sobre a Terra [5]).
Portanto, ao olhar para a média histórica de determinado dia no ano, é possível prever,
com uma margem de erro adequada, qual será o comportamento do mesmo dia no
futuro.

3. Resultados Esperados
Apesar de experimentais, por conta das bases de dados com teor de pesquisa e não
comercial, espera-se primeiramente que este tipo de modelo, como descrito na Figura 2,
chegue às pessoas comuns, notando que modelos Off-Grid possuem um potencial
elevado em regiões como o interior do norte e nordeste brasileiro, que possuem altos
índices de radiação direta (ex. radiação vinda diretamente dos fótons do feixe solar
como parte da radiação extraterrestre). Assim, será possível colaborar em projetos como

95
escolas rurais e postos de saúde autônomos, por exemplo, como observado por Boso,
Gabriel e filho [2][4].
Ademais, espera-se também que o brasileiro comum possa ter uma opção
autossuficiente no âmbito metropolitano, como alternativa à geração de energia
hidrelétrica, sem correr o risco da ausência de energia. Por conseguinte, alavancar a
ideia de produção de modelos assim nos meios comercial e científico, dado que ao se
voltar ao mercado, novas metodologias deverão ser aplicadas ao algoritmo, devido a
ausência dos bancos de dados utilizados no projeto para fins comerciais.

Referências
[1] BELÚCIO, L.P.; SILVA, A. P.N.; SOUZA, L. R.; MOURA, G. B. A. (2018)
“Radiação Solar Global Estimada a Partir da Insolação para Macapá”, Revista
Brasileira de Meteorologia, 2014, http://www.scielo.br/pdf/rbmet/v29n4/03.pdf,
v.29, n.4, p.494 – 504.
[2] BOSO, A.C.M.R.; GABRIEL, C.P.C.; FILHO, L. R. A. G. (2015) “Análise de
Custos dos Sistemas Fotovoltaicos On-grid e Off-grid no Brasil”, ANAP Brasil,
https://www.amigosdanatureza.org.br/publicacoes/index.php/anap_brasil/article/
view/1138/1161, Abril, 1904-3240, v.8, n.12, p.57-66.
[3] INPE – INSTITUTO NACIONAL DE PESQUISAS ESPACIAIS (2019) “Atlas
Brasileiro de Energia Solar – 2ª Edição”, http://labren.ccst.inpe.br/atlas_2017.html,
Agosto.
[4] MOOJEN, Thomaz M. B.; CAVALCANTE, Rosane B. L.; MENDES, Carlos A. B.
(2012) “Avaliação da Radiação Solar com Base em Dados de Nebulosidade”,
Geografia, http://www.uel.br/revistas/uel/index.php/geografia/article/view/10346,
Setembro v.21, n. 3.p.41-55.
[5] VIEIRA, H. J., et. al. (2011) “Comparação Da Disponibilidade De Radiação Solar
Global E Fotoperíodo Entre As Regiões Vinícolas De Campo Belo Do Sul-Sc, Brasil
E Pech Rouge, França”, Rev. Bras. Frutic., Jaboticabal - SP,
http://www.scielo.br/scielo.php?script=sci_arttext&pid=S010029452011000400003,
v. 33, n. 4, p.1055-1065.

96
Proposta de análise do uso de filtros em imagens Landsat-8
na classificação de uso e cobertura da terra
Gustavo A. Silva, Leo M. L. da S. Garcia

Universidade do Estado de Mato Grosso (UNEMAT)


78.390-000 – Barra do Bugres – MT - Brasil
gustavoalens@gmail.com, leoneto@unemat.br

Abstract. Studies on land cover allow for a historical understanding of social


environmental and economic processes, and through remote sensing and
classification techniques it is possible to analyze and quantify anthropogenic
land use and land cover. In order to improve the classification, the present study
aims to propose an analysis of the influence of different Landsat-8 image filters
on land cover classification with machine learning. Several low-pass and high-
pass filters will be applied to the Paraguay / Jauquara River Basin (BHPJ)
images, where they will be classified using Multilayer Perceptron and Support
Vector Machines algorithms.
Resumo. Estudos sobre o uso e cobertura da terra permite entender
historicamente os processos sociais ambientais e econômicos e, por meio de
sensoriamento remoto e técnicas de classificação é possível analisar e
quantificar o uso antrópico e cobertura da terra. Visando a melhoria da
classificação, o presente estudo tem por objetivo propor uma análise da
influência de diferentes filtros imagens Landsat-8 na classificação, por meio de
aprendizado de máquina, de uso da terra. Será aplicado diversos filtros de
passa-baixa e passa-alta nas imagens da Bacia Hidrográfica
Paraguai/Jauquara (BHPJ), onde estes serão classificadas utilizando os
algoritmos Multilayer Perceptron e Máquinas de Vetores de Suporte.

1. Introdução
O estudo sobre a cobertura e uso da terra contribui, de forma significativa, para o
entendimento dos processos sociais, ambientais e econômicos nos variados momentos
históricos em determinada área de estudo [Brasil 2013]. O estudo sobre cobertura e uso
da terra se caracteriza por uma coleção de operações que apontam, por meio de padrões
da cobertura terrestre, a organização geográfica da tipologia de uso [Brasil 2013; Rosa
2013].
Técnicas de geoprocessamento podem ser empregadas para análise deste estudo
[Rosa 2013]. O sensoriamento remoto, sendo este uma técnica de geoprocessamento, em
conjunto com a utilização de técnicas de classificação permite reconhecer e quantificar o
uso antrópico, bem como a sua inexistência [Novo 2010; Rosa 2013].
Considerando a precisão dos resultados das técnicas de classificação de imagens
digitais, a ciência de processamento digital de imagens, utilizando-se de técnicas de
filtragem, permite aprimorar a qualidade da imagem [Conci, Azevedo e Leta 2008]. Desta
forma, podendo resultar em uma classificação mais precisa da realidade.

97
Todavia, há dificuldade em encontrar análises que reúnem diferentes filtros em
diferentes condições, como por exemplo o uso de diferentes tipos de composições de
bandas e/ou classificadores. Neste sentido, Cao et al. (2017) aproximam dessa ideia, no
qual é avaliado o desempenho de dez filtros diferentes na classificação de imagens
hiperespectrais, porém utiliza apenas máquina de vetores de suporte como algoritmo
classificador pixel a pixel e não apresentam composições de banda específicas utilizadas.
Contudo, o presente estudo se justifica por contribuir com a literatura visando
apresentar, em um único trabalho, o efeito de diferentes filtros na classificação, por meio
de aprendizado de máquina, de cobertura e uso da terra utilizando imagens
multiespectrais.

2. Materiais e métodos
A área de estudo consiste da Bacia Hidrográfica Paraguai/Jauquara (BHPJ), representada
na figura 1, e será utilizado como base de conhecimento a classificação de Costa et al.
(2018) realizada nesta região. Esta bacia, com extensão territorial de 16482,006 km2, tem
como bioma o Cerrado, clima tropical com uma estação chuvosa, de outubro a abril, e
outra seca, de maio a novembro [Fenner et al. 2014].

Figura 1. Localização da Bacia Hidrográfica Paraguai/Jauquara (BHPJ)


Serão utilizadas imagens do sensor Operational Land Imager (OLI) a bordo do
satélite Landsat-8, que coleta dados da superfície terrestre com uma resolução espacial e
radiométrica de 30 m e 16 bits, nesta ordem [USGS 2013].
As imagens serão processadas por filtros de processamento de imagens, estes que
consistem a todo processo funcional que altera os valores dos pixels de uma imagem
digital com intuito de provocar melhorias [Solomon e Breckon 2013, Kapur 2017].
Podem ser caracterizados em filtros de passa-alta e passa-baixa, onde o primeiro apresenta
o efeito de realçar detalhes (altas frequências) e o último ressaltar as baixas frequências,
surtindo em um efeito de suavização [Gonzalez e Woods 2010].

98
Nesse sentindo, na análise serão aplicados diferentes filtros de passa-baixa, passa-
alta, realce de contraste. Os filtros de passa-baixa consistem em mediana, gaussiano e
passa-baixa ideal (domínio de Fourier) e os de passa-alta são: sobel, laplaciano e de passa-
alta (domínio de Fourier). Por fim, os filtros de correção gama e equalização de
histograma são aplicados para realçar o contraste.
A etapa seguinte consistirá em classificar as imagens, tanto a original quanto as
filtradas. Para isto, primeiramente será construída, para cada imagem, uma base de
conhecimento e testes utilizando-se da técnica Local Binary Pattern (LBP). Este, consiste
em um método extração de característica de textura, podendo ser invariante a rotação, que
contabiliza padrões binários da região próxima a cada pixel da imagem [Ojala, Pietikäinen
e Mäenpää 2002; Pedrini e Schwartz 2008].
Ainda neste contexto, será aplicada a abordagem “por região”, que, segundo
Meneses e Almeida (2012), consiste no processo de extrair características e rotular de
forma unificada um grupo de pixels próximos.
Em seguida, será empregado dois classificadores: Multilayer Perceptron e
Máquina de Vetores de Suporte (do inglês Support Vector Machine, SVM). Ambos
consistem em técnicas de aprendizado de máquina de aprendizado supervisionado. O
primeiro se define como um modelo matemático baseado no processo de aprendizado do
cérebro humano e o segundo visa encontrar um hiperplano que melhor separa as classes
[Solomon e Breckon 2013; Muller e Guido 2016].
Após o treinamento de ambos algoritmos, será utilizado técnicas de avaliação da
qualidade da previsibilidade correta da rotulação das classes para cada região. Poderão
ser utilizadas técnicas de acurácia, precisão, matriz de confusão, entre outros. Estes serão
alvos das análises para compreender a influência dos filtros no processo de classificação
de uso e da terra.
Por fim, relata-se que para a aplicação das técnicas apresentadas será utilizada a
linguagem de programação Python (python.org). Onde será utilizada as bibliotecas:
Scikit-image (scikit-image.org) para os processos de filtragem e extração de
características, Pandas (pandas.pydata.org) na organização de dados tabulados e na etapa
de classificação foi empregada as bibliotecas TensorFlow (tensorflow.org) e Scikit-learn
(scikit-learn.org).

3. Resultados Esperados
Em vista que o uso de filtros é utilizado para melhoria na análise, seja humana ou
computacional, de imagens digitais [Conci, Azevedo e Leta 2008], espera-se que sua
aplicação em imagens de sensoriamento remoto possa melhorar o desempenho da
rotulação dos classificadores utilizados.
Além disso, contribuir com a literatura sobre o entendimento destes filtros
aplicados na classificação do uso antrópico e cobertura da terra, como encontrar padrões
ou filtros que realçam melhores certas classes para determinadas análises, bem como a
melhoria da qualidade dos resultados de cada modelo aplicado como um todo.

99
Referências
Brasil, Instituto Brasileiro de Geografia e Estatística (2013). Manual Técnico de uso da
Terra, Coordenação dos Recursos Naturais e Estudos Ambientes, 3 ed.
https://biblioteca.ibge.gov.br/visualizacao/livros/liv81615.pdf, outubro 2019.
CAO, Xianghai et al (2017). Hyperspectral image classification based on filtering: a
comparative study. In Journal Of Applied Remote Sensing, [s.l.], v. 11, n. 3, p.035007.
https://www.spiedigitallibrary.org/journals/Journal-of-Applied-Remote-
Sensing/volume-11/issue-3/035007/Hyperspectral-image-classification-based-on-
filtering-a-comparative-study/10.1117/1.JRS.11.035007.short, outubro de 2019.
Conci, A.; Azevedo, E. e Leta, F. R. (2008). Computação Gráfica: Teoria e Prática,
Elsevier, 2. ed.
Costa, Angélica Aparecida Dourada et al. (2018). Modelo linear misto para análise
temporal do uso da terra e cobertura vegetal na Bacia Hidrográfica Paraguai/Jauquara,
Mato Grosso, Brasil. In Simpósio de Geotecnologias no Pantanal, 7., 2018, Jardim,
MS. Anais… São José dos Campos: INPE. p. 799-807.
https://www.geopantanal.cnptia.embrapa.br/Anais-Geopantanal/pdfs/p63.pdf,
outubro de 2019.
Fenner, William et al. (2014). Análise do balanço hídrico mensal para regiões de transição
de Cerrado-Floresta e Pantanal. In Acta Iguazu, Cascavel, v. 3, n. 1, p.72-85.
http://saber.unioeste.br/index.php/actaiguazu/article/view/9649, outubro de 2019.
Gonzalez, R. C. e Woods, R. C. (2010). Processamento Digital de Imagens, tradução de:
Cristina Yamagami e Leonardo Piamonte, Pearson Prentice Hall, 3. ed.
Kapur, S. (2017). Computer Vision with Python 3, Packt Publishing.
Meneses, P. R.; Almeida, T. (2012). Introdução ao Processamento de Imagens de
Sensoriamento Remoto, UNB.
Muller, A. e Guido, S. (2016). Introduction to Machine Learning With Python, O’Reilly
Media.
Novo, E. M. L. de M. (2010). Sensoriamento Remoto: Princípios e Aplicações, Blucher,
4 ed. ver.
Ojala, T., Pietikäinen, M. e Mäenpää, T. (2002). Multiresolution gray-scale and rotation
invariant texture classification with local binary patterns. In Ieee Transactions On
Pattern Analysis and Machine Intelligence, [s.l.], v. 24, n. 7, p.971-987.
http://www.ee.oulu.fi/mvg/files/pdf/pdf_94.pdf, setembro de 2019.
Pedrini, H. e Schwartz, W. R. (2008). Análise de Imagens Digitais: Princípios,
Algoritmos e Aplicações, Thomson Learning.
Rosa, R. (2013). Introdução ao Geoprocessamento, UFU. 142p.
Solomon, C. e Breckon, T. (2013). Fundamentos de Processamento Digital de Imagens:
uma abordagem prática com exemplos em Matlab, LTC.
United States Geological Survey – USGS (2013). Landsat 8. In Fact Sheet 2013-3060,
Reston - VA, v. [S.I], n. [S.I], p.4. https://pubs.er.usgs.gov/publication/fs20133060,
abril de 2019.

100
Desenvolvimento de Aplicativo Móvel para localização de
Farmácias Populares, em regime de plantão e Pontos de
Distribuição de Remédios de Alto Custo
Vitor R. F. Nunes, Elton R. F. Rezende, Juvenal S. Neto, Dárley D. de Almeida

Departamento de Computação
Universidade do Estado de Mato Grosso (UNEMAT) – Alto Araguaia, MT – Brasil
{ vitor.nunes@unemat.br, eltonricelli@gmail.com,
juvenalneto@unemat.br, darleydalmeida@gmail.com
Abstract. Information Technology has advanced and its study also,
facilitating the population the understanding and the effective use of the
technological tools to optimize the activities and daily necessities. This paper
aims to present the beginning of the development of a mobile application with
project based on hybrid development through the Ionic framework for the
location of Popular Pharmacies, pharmacies on duty and high cost medicine
distribution points. Given the difficulty that people have in locating some
establishments that are in service outside normal working hours, this project
will seek to solve this problem.
Resumo. As Tecnologias da Informação têm avançado e seu estudo também,
facilitando à população a compreensão e o uso eficaz das ferramentas
tecnológicas para otimização das atividades e necessidades cotidianas. Este
trabalho tem como objetivo apresentar o início do desenvolvimento de um
aplicativo móvel com projeto baseado em desenvolvimento híbrido por meio
do framework Ionic para a localização de Farmácias Populares, farmácias
que estejam em regime de plantão e pontos de distribuição de remédio de alto
custo. Tendo em vista a dificuldade que as pessoas têm para localizarem
alguns estabelecimentos que estejam em atendimento fora do horário de
expediente normal, com isso esse projeto buscará solucionar este problema.

1. Introdução
A utilização de dispositivos móveis hoje não é mais vista como uma escolha, e sim uma
necessidade. A cada dia cresce o índice do uso de dispositivos móveis seja para qual for
o tipo de situação. Jovens e adultos passam diariamente a alavancar o índice de uso de
dispositivos móveis tanto para o uso doméstico, acadêmico e até para o seu próprio lazer
(LEE, 2005; TELECO, 2019).
Mesmo em um município de pequeno porte como Alto Araguaia - MT, pode não
ser uma tarefa fácil encontrar Farmácias Populares, farmácias que estejam em regime de
plantão e pontos de distribuição de remédio de alto custo, eventualmente temos que
procurá-la em redes sociais, entrar em contato com conhecidos ou, em última instância,
fazer a busca física visitando os pontos comerciais conhecidos para verificar uma placa
indicativa de qual está de plantão naquele momento. Em geral, há uma escala para indicar
as datas em que determinada farmácia estará de plantão, porém, esse cronograma não é
divulgado à comunidade, gerando o transtorno supracitado na busca dessa simples

101
informação, e a relação de farmácias populares e pontos de distribuição de remédios de
alto custo geralmente ficam disponível na Secretaria de Saúde do município.
Assim, na busca de uma solução para este problema, o objetivo deste trabalho é
apresentar parte do desenvolvimento de um aplicativo para plataformas móveis, cuja
finalidade é reunir informações acerca de Farmácias Populares, farmácias que estejam em
regime de plantão e pontos de distribuição de remédio de alto custo, com informações
seguras e confiáveis, além, de informações como localização e, posteriormente,
promoções e ranking de preços e avaliações de usuários.

2. Desenvolvimento
Nos dias atuais a utilização de smartphones no Brasil vem tendo um grande crescimento
e já se tornou algo rotineiro na vida das pessoas. De acordo com a EBC o Brasil é 5° pais
no ranking de uso diário de celulares no mundo. Os brasileiros passam 3 horas por dia
usando celular, segundo dados de 2018. Outros dados que também foram levantados pela
revista EXAME e que em 2015 o número de smartphones conectados à internet já eram
maiores que o número de computadores, com o total de 306 milhões de dispositivos
conectados, dos quais 154 milhões eram smartphones (EBC, 2018).
O desenvolvimento de softwares para dispositivos móveis se tornou muito
importante no mundo da tecnologia, abrindo portas para o mercado de desenvolvedores
e para muitas empresas que trabalham no ramo de desenvolvimento, levando em conta o
grande crescimento no uso de smartphones no mercado atual. Também é crescente a
busca de aplicações para suprir as necessidades que os usuários tenham.
Várias plataformas de sistemas operacionais (SO) para smartphones estão em uso
pelo mundo, embora neste trabalho citaremos somente as duas mais utilizadas atualmente
(PCWORLD 2013): o SO Android que é o um sistema operacional desenvolvido pela
gigante de tecnologia Google, tem utilização de grande parte do mercado com
aproximadamente 72.35%. O que explica a grande utilização do sistema operacional
Android são os mais variados, utilizado em aparelhos de marcas distintas com vários
recursos aos modelos bem básicos ou até mesmo simples. Já o SO IOS, sistema
desenvolvido pela Apple, tem como característica a utilização exclusiva em produtos
somente de sua própria marca (iPhones, iPods, iPads, entre outros), e, por ser de uso
exclusivo de sua própria fabricante, o iOS é desenvolvido para modelos específicos de
hardware, permitindo assim que suas potencialidades sejam exploradas ao máximo pelos
dispositivos desenvolvidos pela Apple. De janeiro de 2018 a janeiro de 2019 os
dispositivos que usam IOS correspondem a 22,85% do total de dispositivos utilizados.
Existem duas estratégias principais para desenvolvimento de aplicações móveis,
o desenvolvimento nativo e o desenvolvimento hibrido. Aplicações Nativas, são aquelas
cujo desenvolvimento é todo realizado baseando-se no SO em que o aplicativo irá ser
executado, como Andoid ou IOS por exemplo, o que tem potencial de favorecer o
desempenho, a usabilidade e a experiência de usuário, uma vez que pode ser aproveitado
todo o potencial de recursos de hardware e de software nativos dos dispositivos. Sua
principal desvantagem é a necessidade da dependência da linguagem de programação
atrelada ao SO e o desenvolvimento ser todo específico por plataforma
(COMPUTERWORLD, 2018).
Aplicações hibridas são desenvolvidas com uso de frameworks que utilizam
diferentes linguagens de programação. Um aplicativo hibrido tem um custo de

102
desenvolvimento menor que um nativo, pois, seu desenvolvimento é, geralmente, rápido
e um mesmo processo de desenvolvimento pode dar origem a aplicativos para diferentes
plataformas operacionais. Graças aos avanços evolutivos dos frameworks, aplicativos
desenvolvidos com abordagem híbrida tem potencial para apresentarem desempenho e
experiência de usuário (UX) análoga ao de aplicativos desenvolvidos com abordagem
nativa.
Para este projeto foi escolhido framework Ionic, por sua simplicidade, robustez e
pela familiaridade por parte da equipe de desenvolvimento. Esse framework foi criado no
final de 2013 buscando visar a criação de aplicações hibridas mobile. Atualmente
encontra-se na versão 4. (TABLELESS, 2015). Serão exploradas tecnologias presentes e
disponíveis em smarphones como por exemplo o sistema de GPS. Atualmente o projeto
encontra-se na fase de levantamento e análise de requisitos, para posterior modelagem,
desenvolvimento e teste.

3. Considerações Finais
O presente trabalho tem sido desenvolvido em caráter multidisciplinar, no âmbito
das disciplinas de Desenvolvimento de Aplicativos para Dispositivos Móveis e
Engenharia de Software no curso de Bacharelado em Ciência da Computação da
UNEMAT, campus de Alto Araguaia-MT, com objetivo primeiro de consolidar o
conhecimento dessas disciplinas através da combinação da teoria e da prática, e, por
conseguinte, promover um bem social através da disponibilização futura da aplicação
desenvolvida para a comunidade.
Como atividades futuras serão realizadas a modelagem do projeto e sua
implementação, baseando-se nos resultados da análise de requisitos que está em
andamento.

Referências
COMPUTER WORLD. (2018) “Aplicativos híbridos e nativos: entenda as principais
diferenças”. <https://computerworld.com.br/2018/09/28/aplicativos-hibridos-e-
nativos-entenda-as-principais-diferencas/>, Setembro.
EBC. (2019) “Brasil é o 5° país em ranking de uso diário de celulares no mundo”.
<http://agenciabrasil.ebc.com.br/geral/noticia/2019-01/brasil-foi-5o-pais-em-
ranking-de-uso-diario-de-celulares-no-mundo/>, Setembro.
LEE, Valentino et al. (2005) “Aplicações Móveis: arquitetura, projetos e
desenvolvimento”. São Paulo: Pearson.
TABLELESS. (2015) “Introdução ao Ionic Framework”.
<https://tableless.com.br/introducao-ao-ionic-framework/>, Setembro.
TELECO. (2019) “Seção: Telefonia Celular”. <http://www.teleco.com.br/ncel.asp/>,
Setembro.

103
Sistema de Gestão Empresarial desenvolvido como Serviço
Web, com utilização do Método Kanban e Desenvolvimento
Guiado por Testes
Gustavo O. F. Valeiro, Juvenal S. Neto, Dárley D. de Almeida

Departamento de Computação
Universidade do Estado do Mato Grosso (UNEMAT) – Alto Araguaia, MT – Brasil
{gustavovaleiro.cc@gmail.com, juvenalneto@unemat.br,
darleydalmeida@gmail.com

Abstract. This paper aims to present a way of developing a business


management software, SIGE, based on the web service, reducing costs in the
development and production process. To enable small entrepreneurs to have
management systems in their business and keep track of them anywhere in the
world without spending too much on the additional expenses. The system being
developed uses code reuse techniques, structures that use development time and
complexity, and test-driven development techniques.
Resumo. Este trabalho tem como objetivo apresentar uma forma de
desenvolvimento de um software de gestão empresarial, SIGE, baseado em um
serviço Web, visando reduzir custos no processo de desenvolvimento e de
produção. Para possibilitar que pequenos empreendedores possam ter sistemas
de gestão em seus negócios e acompanhá-los de qualquer lugar do mundo sem
que precisem pagar por licenças adicionais. O sistema que está sendo
desenvolvido utiliza de técnicas de reaproveitamento de código, de frameworks
que reduzem complexidade e tempo de desenvolvimento, além de técnicas de
desenvolvimento guiado por testes.

1. Introdução
Na atualidade a nossa sociedade tornou-se completamente dependente da
tecnologia, a computação é usada para aumentar a produtividade em diversas áreas, e isso
trouxe resultados impressionantes. No ambiente corporativo, que por natureza já é
altamente competitivo, não poderia ser diferente, e hoje se tornou comum que empresas
tenham algum sistema informatizado para gerir seus dados e processos. Contudo um tipo
de sistema tem se destacado, o chamado Sistema Integrado de Gestão Empresarial (SIGE)
ou como são mundialmente conhecidos Enterprise Resource Planning (ERP). ERP é um
sistema de informação modular que permite a integração entre os dados de diferentes
áreas de negócio de uma organização (JUNIOR, 2011). Esse tipo de sistema traz diversos
benefícios para as empresas, como a eliminação de redundância, maior integridade para
os dados, aumenta a segurança sobre os processos do negócio, permite a rastreabilidade
de transações, aquisição modular e diversos outros benefícios que aumentam a
produtividade da empresa (JUNIOR, 2011). Apesar de ser comum que empresas de médio
e grande porte usem Sistemas Integrados, apenas 31% das empresas de pequeno porte
utilizam pacotes de software ERP (CGI.br - TIC EMPRESA, 2017). Esse número de
adesão baixo muitas vezes está relacionado com a falta de conhecimento dos

104
empreendedores sobre os benefícios que um software do tipo pode trazer para o seu
negócio, como também, um outro fator muito importante é o custo.
O objetivo deste trabalho é apresentar parte do desenvolvimento de um SIGE, no
âmbito da disciplina de Engenharia de Software, como atividade de Trabalho de
Conclusão de Curso para o curso de Bacharelado em Ciência da Computação da
UNEMAT, Campus de Alto Araguaia-MT. Tal sistema deverá permitir que o pequeno
empreender consiga ter um sistema de gerenciamento sem precisar investir em uma
infraestrutura de TI mais elaborada e ao mesmo tempo consiga acessar as informações de
qualquer lugar, bastando ter um navegador web e conexão com a Internet. O sistema deve
possuir um baixo custo operacional e de desenvolvimento, devendo possuir uma estrutura
de projeto e emprego de técnicas e padrões que permitam reaproveitamento de código e
um rápido desenvolvimento de novas funcionalidades.
2. Metodologias Adotadas
Para conseguir atender ao objetivo geral, é crucial que o sistema ERP funcione
como um serviço Web, seguindo o conceito de SaaS (Software as a Service), que consiste
em transformar o software em um serviço fornecido através de WEB (FABIANO, 2019).
2.1. API REST
O serviço Web será fornecido por uma API (interface de programação de
aplicativos), uma API é uma interface para que sistemas diferentes possam se comunicar
e integrar, sem que se conheça detalhes de suas implementações (FERNANDES, 2019).
O uso de uma WEB API no modelo cliente/servidor, além de outros benefícios, permite
um maior desacoplamento da aplicação, o que permite que uma mesma implementação
no servidor consiga responder a diversos clientes, como uma página Web, um aplicativo
em um dispositivo móvel, e até mesmo um programa executado em um computador
pessoal. A implementação da API seguirá o padrão REST (Transferência de Estado
Representacional), nesta implementação, os dados e funcionalidades são recursos que
podem ser acessados através de um URI (identificador de recurso uniforme) utilizando o
protocolo HTTP (protocolo de transferência baseado em hipertexto) (MATRAKAS, 2016).
2.2. Interface de Interação com Usuário
A interface gráfica para interação com o usuário escolhida é uma página Web,
construída utilizando técnicas de design responsivo, que como diz Zemel (2012): “Web
Design Responsivo é pensar em páginas que se adaptem a todo tipo de dispositivo e
contexto”. O que garantirá que o site poderá ser acessado tanto por computadores pessoais
como por dispositivos móveis, visando reduzir custos para acessar o sistema, já que o
mesmo poderá ser acessado por qualquer dispositivo em qualquer lugar do planeta, desde
que haja suporte a um navegador e acesso à Internet, sem necessidade de fazer instalações
ou configurações locais.
2.3.Técnicas de Desenvolvimento
Para conseguir desenvolver o sistema apresentado e atender aos objetivos de baixo custo
de desenvolvimento, está sendo adotada uma metodologia ágil, para obter um
desenvolvimento incremental, conseguindo organizar o trabalho e garantir uma entrega
contínua de funcionalidades, o método ágil escolhido foi o Kanban (PRESSMAN, 2006;
SOMMERVILLE, 2007). Além disso, pelo menos no lado do servidor, o desenvolvimento
guiado por teste, foi adotado. Ele consiste em escrever testes automatizados para a

105
aplicação antes mesmo de desenvolver uma funcionalidade, garantindo que haja testes,
para conseguir minimizar os erros e detectá-los rapidamente. Foi desenvolvido métodos
reutilizáveis para testes integrados da API. O desenvolvimento também conta com adoção
de frameworks modernos e reaproveitamento de código.
O desenvolvimento de um sistema desse tipo, é divido em duas partes, o servidor,
que consiste na API REST, e a interface de interação, que consiste em uma página WEB.
O servidor encontra-se desenvolvido e testado, contendo módulo pessoal com cadastros
de fornecedores, clientes e funcionários, o modulo de estoque que possui cadastro de
produtos, serviços e movimentações de entrada e saída dos produtos no estoque, e também
um modulo de segurança, que gerencia usuários e as permissões. Já foram realizados o
levantamento de requisitos, a modelagem e desenvolvimento do servidor. Atualmente,
página Web está em fase de modelagem.
3. Considerações Finais
O desenvolvimento de sistemas SIGE a um custo acessível para empresários de
pequeno e médio porte pode contribuir para o melhor desempenho dessas empresas.
Favorecendo igualmente todo o comércio local onde estiverem instaladas. Como citado,
o presente trabalho está sendo realizado no âmbito da disciplina de Engenharia de
Software, como atividade de Trabalho de Conclusão de Curso para o curso de
Bacharelado em Ciência da Computação da UNEMAT, Campus de Alto Araguaia-MT,
com objetivo primeiro de consolidar o conhecimento associado ao desenvolvimento de
sistemas por meio da combinação da teoria e da prática. As próximas etapas de projeto
consistem em finalizar outros módulos, como o comercial, que conterá vendas, ordem de
serviço, avaliação do serviço pelo cliente, e também o modulo financeiro, para
acompanhar as contas que empresa tem a pagar e a receber, e por último o módulo fiscal.

Referências
Junior, C. C.. Sistemas Integrados de Gestão - ERP. 4a, revisa ed. [S.l: s.n.], 2011.
Fabiano, C.. O que é saas. Disponível em: <https://blog.deskmanager.com.br/o-que-e-saas/>.
Acesso em: 6 jun. 2019.
Fernandes, A. O que é uma api entenda de maneira simples. Disponível em:
<https://blog.vertigo.com.br/o-que-e-api-entenda-de-uma-maneira-simples/>. Acesso em: 11 jun.
2019.
Matrakas, M. Web Services REStfull. Disponível em: <https://www.devmedia.com.br/
introducao-a-web-services-restful/37387>. Acesso em: 6 jun. 2019.
Pressman, R. S.. Engenharia de Software. 6a ed., São Paulo, McGraw-Hill, 2006.
Sommerville, I. Engenharia de Software. 8a ed., São Paulo, Addison-Wesley, 2007.
MXM Sistemas. Quanto Custa um ERP? Conheça os 7 principais custos. Disponível em:
<mxm.com.br/blog/quanto-custa-um-erp-conheca-7-principais-custos/>. Acesso em: 28 ago.
2019.
TIC EMPRESA 2017. Versão ver. ed. [S.l.]: COMITÊ GESTOR DA INTERNET NO BRASIL
– CGI.br, 2017.
Zemel, T. Web Design Responsivo. [S.l.]: Casa do Código, 2012. Disponível em:
<https://books.google.com.br/books?hl=pt-BR&lr=&id=82SCCwAAQBAJ&oi=fnd&pg=
PA1&dq=web+responsiva&ots=tlwk3Cu28T&sig=VM6ZfEqItdawZTIt6l_MSqR0_-
w#v=onepage&q=web responsiva&f=false>.

106

Você também pode gostar