Você está na página 1de 115

Anais do 10º Congresso

Acadêmico de Tecnologia e
Informática (CATI 2018)

Curso de Ciência da Computação - FACET


UNEMAT - Barra do Bugres
Anais do 10º Congresso Acadêmico de Tecnologia e
Informática (CATI 2018)

05 a 09 de novembro de 2018
Curso de Ciência da Computação - FACET
UNEMAT - Barra do Bugres
Este trabalho foi realizado com apoio do Edital FAPEMAT nº. 006/2018 - Edital de Apoio à
Realização de Eventos Científicos, Tecnológicos ou de Inovação, Processo nº. 418369/2018, da Fundação
de Amparo à Pesquisa do Estado de Mato Grosso – FAPEMAT – Mato Grosso – Brasil

Anais do 10º Congresso Acadêmico de Tecnologia e


Informática (CATI 2018)

Realização:

Curso de Ciência da Computação / FACET / UNEMAT – Barra do Bugres


Centro Acadêmico de Ciência da Computação (CACC)
Sociedade Brasileira de Computação (SBC)

Apoio:

Núcleo de Inovação Tecnológica (NIT/UNEMAT)


Programa de Pós-Graduação em Ensino de Ciências e Matemática (PPGECM)
Pró-Reitoria de Extensão e Cultura (PROEC/UNEMAT)
Comunidade de Desenvolvedores de Mato Grosso (DevMT)
Comunidade de Startups de Mato Grosso (StartupMT)
Serviço Brasileiro de Apoio às Micro e Pequenas Empresas (SEBRAE/MT)
Parque Tecnológico de Mato Grosso
Fundação de Amparo à Pesquisa do Estado de Mato Grosso (FAPEMAT)
Secretaria de Estado de Ciência, Tecnologia e Inovação (SECITEC/MT)

ISSN 2448-119X

(Online: http://periodicos.unemat.br/index.php/anaiscati)

05 a 09 de novembro de 2018
Barra do Bugres - MT
© 2018. Curso de Ciência da Computação – UNEMAT – Barra do Bugres e
Centro Acadêmico de Ciência da Computação (CACC).

Os autores são responsáveis pela escolha e a apresentação das informações contidas


nesta publicação, bem como pelas opiniões nela expressas, as quais não são
necessariamente as dos organizadores, da UNEMAT, do CACC e de seus apoiadores,
nem tampouco os comprometem.

Publicação elaborada com fins educativos. ACESSO GRATUITO. Permissão para fazer
cópias impressas ou digitais de todo ou parte desta publicação para uso pessoal ou
acadêmico sem taxas, desde que as cópias não sejam feitas ou distribuídas para renda ou
vantagem comercial e que as cópias contenham referência a esta publicação.
___________________________________________

Editor: Fernando Selleri Silva

Organização: Fernando Selleri Silva, Leonardo Elias Alves,


Luciano Zamperetti Wolski, Armando da Silva Filho,
José Fernandes Torres da Cunha e Rodrigo Fernando Shimazu

Projeto Gráfico e Diagramação: Leonardo Elias Alves, Tatiana Krauczuk e


PEEP (PROEC/UNEMAT – FAPEMAT)
___________________________________________

Contato

Congresso Acadêmico de Tecnologia e Informática (CATI)


Centro Acadêmico de Ciência da Computação (CACC)
Curso de Ciência da Computação (CCC)
Universidade do Estado de Mato Grosso (UNEMAT)
Campus Universitário Rene Barbour
Rua A, SN, Bairro São Raimundo
78.390-000, Barra do Bugres, MT
Fone/Fax: 65-3361-1413
E-mail: cati@unemat.br
Site: http://caccunemat.com.br/cati
Facebook: http://www.facebook.com/catiunemat
Twitter: http://twitter.com/catiunemat
Anais: http://periodicos.unemat.br/index.php/anaiscati
Governo do Estado de Mato Grosso
Pedro Taques
Governador
Carlos Fávaro
Vice-Governador
Domingos Sávio Boabaid Parreira
Secretário de Estado de Ciência, Tecnologia e Inovação
Lecticia Auxiliadora de Figueiredo Oliveira
Superintendente de Desenvolvimento Científico, Tecnológico e de Inovação
Antônio Carlos Maximo
Presidente da Fundação de Amparo à Pesquisa do Estado de Mato Grosso
Flávio Teles Carvalho da Silva
Diretor Técnico-Científico da Fundação de Amparo à Pesquisa de Mato Grosso
Rogerio Alexandre Nunes dos Santos
Gestor do Parque Tecnológico de Mato Grosso

Universidade do Estado de Mato Grosso (UNEMAT)


Ana Maria Di Renzo
Reitora
Ariel Lopes Torres
Vice-Reitor
Anderson Marques Amaral
Pró-Reitor de Extensão e Cultura
Celso Fanaia Teixeira
Pró-Reitor de Assuntos Estudantis
Vera Lúcia da Rocha Maquêa
Pró-Reitora de Ensino de Graduação
Rodrigo Bruno Zanin
Pró-Reitor de Pesquisa e Pós-Graduação
Alexandre Gonçalves Porto
Pró-Reitor de Gestão Financeira
Francisco Lledo dos Santos
Pró-Reitor de Planejamento e Tecnologia da Informação
Gustavo Domingos Sakr Bisinoto
Pró-Reitor de Administração
Feliciano Lhanos Azuaga
Diretor do Núcleo de Inovação Tecnológica
Carlos Ednei Oliveira
Diretor Político-Pedagógico e Financeiro do Campus de Barra do Bugres
Eder Geraldo de Oliveira
Diretor Administrativo do Campus de Barra do Bugres
Minéia Cappellari Fagundes
Diretora da Faculdade de Ciências Exatas e Tecnológicas
Fernando Selleri Silva
Coordenador do Curso de Ciência da Computação
Leonardo Elias Alves
Presidente do Centro Acadêmico de Ciência da Computação

Sociedade Brasileira de Computação (SBC)


Lisandro Zambenedetti Granville
Presidente
Eunice Pereira dos Santos Nunes
Secretária Regional em Mato Grosso
Pedro Clarindo da Silva Neto
Secretário Adjunto Regional em Mato Grosso

Comunidade de Desenvolvedores de Mato Grosso (DevMT)


Alvaro Viebrantz
Organizador do DevMT

Comunidade de Startups de Mato Grosso (StartupMT)


Vitoriano Ferrero Martin Junior
Organizador do StartupMT

Serviço Brasileiro de Apoio às Micro e Pequenas Empresas (SEBRAE/MT)


Fernando Pscheidt
Gestor do Núcleo de Startups do SEBRAE/MT
10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018) e
IX Escola Regional de Informática de Mato Grosso (ERI-MT 2018)

Coordenação
Leonardo Elias Alves
Fernando Selleri Silva

Comissão Organizadora do CATI e ERI-MT


Adriana Estéfany Conceição da Silva
Alexsandra Nascimento Carneiro
Carlos Daniel Nascimento da Conceição
Cosme da Silva Lorim
Diógenes Antonio Marques José
Érico Luiz Piantkoski
Fernando Selleri Silva
Flávio Vinicius da Costa Marchetti
Gabriel Luiz Nascente Martins da Costa
Gustavo Alencar Silva
Heber Wurmstich Nardes
Hevelyn Hespanhol Câmara
Isabela Silveira Rocha
Jackson Aparecido Durães Junior
Jader Fellipe de Oliveira e Silva
Karan Luciano Silva di Pernis
Kelly Cristina Ferreira Geraldo
Leonardo Elias Alves
Lo-Ruama Maria Dóres
Luan Lino Madalena
Lucas Rossi Carvalho de Oliveira
Luciano Zamperetti Wolski
Magaywer Moreira de Paiva
Marlon Rodrigues
Michael Douglas Costa da Silva
Pedro de Alcântara Ribeiro Bragado Filho
Reyllan Raphael dos Santos
Rodrigo Parada Prado Sene Soares
Vítor Hugo Ritt Zanchin

Apoio Técnico e Logístico


Adenir Rodrigues
Airton José Christ
Christhoffer Alves de Lima Freitas
Djalma Dias Bispo
Frank Willian Rodrigues da Silva
Gabriel Luiz Nascente Martins da Costa
Gabrielle Rocha Vunjão
Gleidis Bel Barbosa
João Milani Junior
Luiz Carlos Miranda Cebalho
Marcelo Pereira Justino
Marcos Antonio Guerra
Maria de Lourdes
Maria Sara Silva Magalhães
Marlon Rodrigues
Mauro Aparecido Ferreira
Monika Alcantara Terluk
Rivelino Fulvio Linhares
Rodney Campos Faria
Stwart Cruz Rocha

Equipe Técnica do Projeto da FAPEMAT


(Processo nº. 418369/2018)
Fernando Selleri Silva - Coordenador
Armando da Silva Filho - Professor
Luciano Zamperetti Wolski - Professor
Leonardo Elias Alves - Estudante
Ana Paula Lins Ferreira de Vasconcelos - Técnica
Comitê de Programa

Acelmo de Jesus Brito (UNEMAT/Barra do Bugres)


Adriana de Oliveira Dias (UNEMAT/Alto Araguaia)
Alberto César Cavalcanti França (UFRPE/Recife)
Alexandre Berndt (UNEMAT/Barra do Bugres)
Alvaro Fellipe Petry Mendes Viebrantz (DevMT – GDG/Cuiabá)
Ana Paula Carvalho Cavalcanti Furtado (UFRPE/Recife)
Ana Paula Lins Ferreira de Vasconcelos (UNEMAT/Barra do Bugres)
André Luís Sanson Gomes (UNEMAT/Barra do Bugres)
Angela Lima Peres (UNCISAL/Maceió)
Armando da Silva Filho (UNEMAT/Barra do Bugres)
Caio Cesar Enside de Abreu (UNEMAT/Alto Araguaia)
Carlos Alex Juvêncio Gulo (UNEMAT/Alto Araguaia)
Cláudia Landin Negreiros (UNEMAT/Barra do Bugres)
Cristiano Maciel (UFMT/Cuiabá)
Daiany Francisca Lara (UNEMAT/Barra do Bugres)
Daise Lago Pereira Souto (UNEMAT/Barra do Bugres)
Daniel Avila Vecchiato (UFMT/Cuiabá)
Darley Domingos de Almeida (UNEMAT/Alto Araguaia)
Dener Didoné (UNIC/Sorriso)
Diógenes Antonio Marques José (UNEMAT/Barra do Bugres)
Eduardo Oenning (UNEMAT/Barra do Bugres)
Elias Antônio Morgan (UNEMAT/Colíder)
Elmo Batista de Faria (UFMT/Cuiabá)
Elyda Laisa Soares Xavier Freitas (UPE/Caruaru)
Everton Ricardo do Nascimento (UNEMAT – UFSC/Florianópolis)
Fabiano Ferreira Luz (USP/São Paulo)
Felipe Santana Furtado Soares (CESAR/Recife)
Fernando Kenji Kamei (IFAL/Maceió)
Fernando Selleri Silva (UNEMAT/Barra do Bugres) – Coordenação do Comitê
Fernando Yoiti Obana (UNEMAT/Alto Araguaia)
Francisco Airton Pereira Silva (UFPI/Teresina)
Francisco Sanches Banhos Filho (UNEMAT/Colíder)
Gleber Nelson Marques (UNEMAT/Cáceres)
Ivan Luiz Pires (UNEMAT/Sinop)
Ivanildo Monteiro de Azevedo (UNEMAT/Barra do Bugres)
Jean Caminha (UFMT/Cuiabá)
Jessica Karoline França de Lira (UNEMAT/Barra do Bugres)
José Fernandes Torres da Cunha (UNEMAT/Barra do Bugres)
Josiel Maimone de Figueiredo (UFMT - Universidade de Sheffield/Inglaterra)
Juliana Maria de Paula (UNEMAT/Barra do Bugres)
Juliana Saragiotto Silva (IFMT/Cuiabá)
Leandro Santos Passos (UNEMAT/Barra do Bugres)
Lenin Ernesto Abadié Otero (Accenture – Fac. Joaquim Nabuco/Recife)
Léo Manoel Lopes da Silva Garcia (UNEMAT/Barra do Bugres)
Lucas Arruda Ramalho (UNEMAT/Barra do Bugres)
Luciano Zamperetti Wolski (UNEMAT/Barra do Bugres) – Representante de Área
Lucimar Luisa Ferreira (UNEMAT/Barra do Bugres)
Maicon Aparecido Sartin (UNEMAT/Sinop)
Marcelo Leandro Holzschuh (UNEMAT/Sinop)
Maricy Caregnato (UNEMAT/Cáceres)
Mauro Francisco dos Santos Junior (UNEMAT/Sinop)
Minéia Cappellari Fagundes (UNEMAT/Barra do Bugres)
Nielsen Cassiano Simões (UFMT/Cuiabá)
Patricia Cristiane de Souza (UFMT/Cuiabá)
Pedro Clarindo da Silva Neto (IFMT/Cuiabá)
Pietro Pereira Pinto (IFPE/Caruaru)
Raquel da Silva Vieira Coelho (UNEMAT - FACCAMP/C. L. Paulista)
Rodrigo Fernando Shimazu (UNEMAT/Barra do Bugres) – Representante de Área
Rui Ogawa (IFMT/Canarana)
Tales Nereu Bogoni (UNEMAT/Sinop)
Thalita Medeiros Dolce (UÉBI Digital/Tangará da Serra)
Thiago Meirelles Ventura (UFMT/Cuiabá)
Wesley Barbosa Thereza (UNEMAT/Alto Araguaia)
William Vieira Gonçalves (UNEMAT/Barra do Bugres)
Willyan Alves da Silva (UNEMAT/Barra do Bugres)
Normas para Publicação
Datas Importantes
O CATI 2018 e a ERI-MT 2018 foram realizados em conjunto, no período de 05 a 09 de
novembro de 2018, no Campus da UNEMAT de Barra do Bugres. O cronograma incluiu
as seguintes datas importantes:

• Submissão de minicursos, artigos completos e resumidos: até 07/10/2018;


• Notificação dos autores: 26/10/2018;
• Envio da versão final dos artigos aprovados: até 05/11/2018;
• Apresentação dos trabalhos: 07 a 09/11/2018;
• Disponibilização dos anais: a partir de 25/11/2018.

Formato de Submissões e Processo de Avaliação


As submissões ao CATI/ERI-MT podem ser por meio de minicursos, artigos completos
ou artigos resumidos, que devem ser submetidos em formato exclusivamente digital
(arquivo PDF), através do sistema JEMS (https://jems.sbc.org.br). Todas as submissões
devem obrigatoriamente seguir o modelo para publicação de artigos da SBC
(http://goo.gl/Q9yglP).
Aspectos a serem observados para artigos:
• Os artigos completos devem ter de 6 (seis) a 8 (oito) páginas incluindo tabelas,
figuras e referências, correspondendo a trabalhos finalizados ou em processo de
finalização, contendo resultados significativos em termos de contribuição para a
pesquisa e/ou prática.
• Os artigos resumidos devem ter de 2 (duas) a 4 (quatro) páginas incluindo tabelas,
figuras e referências, correspondendo a trabalhos em andamento, com resultados
preliminares, ou propostas de pesquisa.
• Os trabalhos submetidos não devem ter sido publicados anteriormente e nem
estarem em processo de avaliação ou edição para publicação em outro local.
• Cada trabalho deve ser submetido para apenas uma modalidade (completo ou
resumido). Os trabalhos submetidos a mais de uma modalidade são rejeitados.
Após a revisão, o Comitê de Programa do CATI/ERI-MT pode sugerir a
aprovação com mudança de modalidade.
• No momento da submissão, os autores também devem optar pela submissão em
uma das seguintes trilhas: CATI 2018 ou ERI-MT 2018. Para trabalhos
submetidos a mais de uma trilha, será considerada válida apenas a trilha da última
submissão.
• É importante que os trabalhos descrevam a motivação (justificativa),
fundamentação teórica (trabalhos relacionados), metodologia empregada e os
resultados obtidos (ou esperados, no caso de artigos resumidos), ressaltando as
contribuições tecnológicas e para a área abordada. Relatos de experiência,
oriundos da prática, também são bem-vindos.
• Com relação ao idioma, os trabalhos devem estar em Português ou Inglês.
• As submissões devem ser finalizadas (com os dados solicitados pelo ambiente de
submissão e o arquivo correspondente devidamente postado segundo as regras
estabelecidas) para serem consideradas.
• No arquivo da submissão, não deve constar nenhum tipo de identificação dos
autores. A seleção dos trabalhos é realizada pela revisão por membros do Comitê
de Programa do CATI/ERI-MT. O processo de revisão é conduzido de forma
anônima (blind review) por pelo menos dois revisores, com a arbitragem de um
terceiro revisor em caso de necessidade.
• As submissões são revisadas de acordo com os seguintes critérios: adequação ao
escopo do evento, revisão bibliográfica, metodologia, contribuição para a área de
Tecnologia, Informática e/ou Computação, originalidade e clareza.
• Após notificação aos autores, caso o artigo (completo ou resumido) seja aceito, os
autores deverão adequar seus trabalhos conforme os pareceres dos avaliadores e
efetuar nova submissão (versão final revisada) do trabalho no sistema JEMS.
• Os autores devem incluir na versão final revisada seus dados (nomes, filiações e
e-mails, bem como outras informações necessárias ao artigo, como citações a
outros trabalhos dos autores).
• Juntamente com a versão final, deve ser entregue o documento "Contrato de
Cessão de Direitos Autorais" assinado pelos autores do trabalho com a indicação
de quem será o apresentador. Ao encaminhar o "Contrato de Cessão de Direitos
Autorais", os autores concordam em ceder ao evento os direitos de publicação. Da
mesma forma, os autores assumem que os textos submetidos à publicação nos
Anais do evento são de sua criação original, responsabilizando-se inteiramente
por seu conteúdo em caso de eventual impugnação por parte de terceiros.
• Os artigos que forem aprovados são publicados nos anais do CATI/ERI-MT, em
formato digital. Para tal, ao menos um autor de cada trabalho aprovado deve
efetivar sua inscrição no evento.
• No decorrer do evento, os artigos completos aprovados são apresentados em
sessões técnicas, com duração de 20min para cada trabalho, e os artigos resumidos
são apresentados em formato de pôster no tamanho A1. As datas e horários das
apresentações serão divulgados na programação do evento.
• As submissões ao CATI/ERI-MT implicam por parte dos autores na aceitação das
normas contidas nesta chamada, bem como na observação das normas sobre
direitos autorais. No caso de autoria conjunta, o responsável pela submissão deve
ter autorização dos demais coautores.
• Outras informações podem ser obtidas via e-mail cati@unemat.br.
Aspectos a serem observados para minicursos:
• Os minicursos necessitam ter apenas o resumo submetido inicialmente, via
sistema JEMS, para serem analisados pelo Comitê de Programa.
• É importante que o resumo do minicurso contemple as seguintes informações:
natureza do minicurso; carga horária; público-alvo; pré-requisitos (se houver);
justificativa do minicurso para atrair a atenção do público alvo; conteúdo
abordado; e recursos materiais necessários para a realização.
• Os minicursos poderão ter carga horária de 4 ou 8 horas e podem ser teóricos ou
práticos, com o desenvolvimento em laboratório de informática.
• Os minicursos aceitos devem ser descritos em forma de capítulo de livro,
conforme template da SBC, respeitando o limite entre 10 e 15 páginas incluindo
tabelas, figuras e referências, com envio do arquivo fonte (.doc ou .odt) em
complemento aos dados inicialmente cadastrados no sistema JEMS.
• Ao menos um dos autores deve ter o compromisso de apresentação do minicurso
conforme a programação do evento, que irá isentar a inscrição de até dois
apresentadores por minicurso.
• O livro dos minicursos será publicado com o título "Tendências e Técnicas em
Sistemas Computacionais", seguindo o modelo disponibilizado pela Secretaria
Regional da SBC Mato Grosso.
Tópicos de Interesse
Os principais tópicos que norteiam as submissões ao CATI/ERI-MT estão sintetizados da
seguinte forma, não se restringindo a eles:
• Algoritmos e Otimização;
• Aplicações Móveis;
• Aplicações para o Agronegócio;
• Arquitetura de Computadores;
• Avaliação de Desempenho;
• Banco de Dados;
• Big Data e Análise de Dados;
• Bioinformática;
• Computação Aplicada à Saúde;
• Computação Gráfica e Processamento de Imagens;
• Computação Ubíqua e Pervasiva;
• Design Thinking;
• Engenharia de Software;
• Geoprocessamento;
• Gestão do Conhecimento;
• Governança e Empreendedorismo;
• Informática na Educação;
• Inteligência Computacional;
• Interação Humano-Computador;
• Internet das Coisas (Internet of Things - IoT);
• Jogos e Entretenimento Digital;
• Linguagens de Programação;
• Matemática e Física Computacional;
• Realidade Virtual e Realidade Aumentada;
• Redes de Computadores e Sistemas Distribuídos;
• Redes Sociais;
• Robótica e Sistemas Digitais;
• Segurança da Informação;
• Sistemas de Autoria;
• Sistemas de Informação;
• Sistemas Embarcados;
• Sistemas Multimídia e Web;
• Tecnologias Assistivas;
• Telecomunicações.
Apresentação

O Congresso Acadêmico de Tecnologia e Informática (CATI) e a Escola Regional


de Informática de Mato Grosso (ERI-MT) estão entre os principais eventos na área de
Computação e Tecnologia da Informação (TI) em Mato Grosso. O CATI surgiu no ano
de 2007, por iniciativa de estudantes e professores do Curso de Ciência da Computação,
da UNEMAT de Barra do Bugres, que idealizaram um congresso com ambos os
segmentos em conjunto. A ERI-MT é uma iniciativa da Sociedade Brasileira de
Computação (SBC), promovida anualmente pelas Instituições de Ensino Superior (IES)
de Mato Grosso desde sua primeira edição em 2009. A proposta de realizar os eventos
em conjunto no ano de 2018 visou integrar ainda mais a comunidade de Computação e
TI no estado, fomentando a discussão sobre assuntos relacionados a Ciência, Tecnologia,
Inovação e integralização das várias áreas de TI.
O 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018) e IX
Escola Regional de Informática de Mato Grosso (ERI-MT 2018) foi realizado pelo
Centro Acadêmico de Ciência da Computação (CACC), Sociedade Brasileira de
Computação (SBC) e o Curso de Ciência da Computação, da Faculdade de Ciências
Exatas e Tecnológicas (FACET), Universidade do Estado de Mato Grosso (UNEMAT),
Campus Universitário Rene Barbour, no período de 05 a 09 de novembro de 2018, em
Barra do Bugres/MT. A temática central do evento foi “Big Data e Aprendizado de
Máquina”. Atividades como palestras, sessões de apresentação de trabalhos, minicursos,
mesa redonda, maratona de jogos (e-sports) e outras fizeram parte da programação.
O evento recebeu congressistas que atuam na academia e no mercado em
instituições de outros estados como Centro de Estudos e Sistemas Avançados do Recife
(CESAR/Recife), Universidade Federal Rural de Pernambuco (UFRPE/Recife) e
Universidade Federal Fluminense (UFF/Niterói), além de congressistas de Mato Grosso,
que atuam na Universidade Federal de Mato Grosso (UFMT), Comunidade de
Desenvolvedores de Mato Grosso (DevMT), Instituto Federal de Mato Grosso (IFMT) e
Universidade do Estado de Mato Grosso (UNEMAT). Os participantes vieram de Alto
Araguaia, Arenápolis, Barra do Bugres, Cáceres, Colíder, Cuiabá, Denise, Diamantino,
Nortelândia, Nova Olímpia, Pontes e Lacerda, Porto Estrela, Sinop, Tangará da Serra, e
Curitiba/PR, totalizando um público de aproximadamente 300 pessoas. Houve a
participação de estudantes dos cursos de Bacharelado em Ciência da Computação e em
Sistemas de Informação, de nível técnico da Escola Alfredo José da Silva de Barra do
Bugres e do IFMT de Pontes e Lacerda. Também participaram estudantes de mestrado do
Programa de Pós-Graduação em Ensino de Ciências e Matemática (PPGECM) de Barra
do Bugres.
As submissões ao CATI 2018 totalizaram 24 trabalhos, sendo 12 Artigos
Completos (50%) e 12 Artigos Resumidos (50%). Quanto à instituição de origem, 9
submissões (37%) foram oriundas da UNEMAT e 15 submissões (63%) foram oriundas
de outras instituições. Ao todo as submissões envolveram 10 instituições, localizadas nos
seguintes estados: Espírito Santo; Goiás; Mato Grosso; Mato Grosso do Sul; Paraná;
Pernambuco; e uma instituição em Portugal. O Comitê de Programa, responsável por
avaliar as submissões, contou com a composição de membros das instituições Accenture,
CESAR, DevMT, FACCAMP, IFAL, IFMT, IFPE, UÉBI Digital, UFMT, UFPI, UFRPE,
UNCISAL, UNEMAT, UNIC, UPE e USP. O processo de revisão foi conduzido em pares
e de forma anônima, buscando atribuir, para cada submissão, um avaliador interno
(UNEMAT) e um avaliador externo (outra instituição). Em caso de necessidade, um
terceiro avaliador foi atribuído.
Os Anais do CATI 2018, disponíveis na presente publicação, contêm 17 trabalhos,
sendo 7 Artigos Completos e 10 Artigos Resumidos, aprovados pelo Comitê de Programa.
Os trabalhos abrangem ao todo 17 tópicos de interesse, sendo que alguns trabalhos
abordam até três tópicos. Os tópicos mais abordados e a quantidade de trabalhos que os
abordaram foram: Informática na Educação (5); Avaliação de Desempenho (3); Internet
das Coisas (2); Aplicações Móveis (2); Aplicações para o Agronegócio (2); Big Data e
Análise de Dados (2). Outros tópicos, abordados em apenas um trabalho cada, foram:
Algoritmos e Otimização; Computação Gráfica e Processamento de Imagens;
Computação Ubíqua e Pervasiva; Engenharia de Software; Geoprocessamento;
Inteligência Computacional; Jogos e Entretenimento Digital; Redes de Computadores e
Sistemas Distribuídos; Segurança da Informação; Sistemas Embarcados; Sistemas
Multimídia e Web.
O CATI / ERI-MT 2018 contou com o apoio da Fundação de Amparo à Pesquisa
do Estado de Mato Grosso (FAPEMAT – Processo nº. 418369/2018), Comunidade de
Desenvolvedores de Mato Grosso (DevMT), Comunidade de Startups de Mato Grosso
(StartupMT), Serviço Brasileiro de Apoio às Micro e Pequenas Empresas
(SEBRAE/MT), Empresas de Barra do Bugres, Núcleo de Inovação Tecnológica
(NIT/UNEMAT), Programa de Pós-Graduação em Ensino de Ciências e Matemática
(PPGECM), Pró-Reitoria de Extensão e Cultura (PROEC/UNEMAT), Parque
Tecnológico de Mato Grosso, Secretaria de Estado de Ciência, Tecnologia e Inovação de
Mato Grosso (SECITEC/MT). Registramos os agradecimentos aos apoiadores,
patrocinadores, estudantes, professores e outros profissionais que estiveram envolvidos
na realização do CATI / ERI-MT 2018. A todos os participantes também o nosso muito
obrigado!
Esperamos que os leitores apreciem o conteúdo dos trabalhos aqui publicados e
que estes trabalhos possam contribuir com o desenvolvimento e avanço de ações na área
de Ciência da Computação e de Tecnologia da Informação (TI). Boa leitura!

Organização do CATI / ERI-MT 2018


Sumário

Artigos Completos

Estória contada: desenvolvimento de um áudio game ............................................... 1


Yuri P. das Neves, Lucineide R. da Silva, Anderson P. das Neves,
Kelvin R. da Guia, Adauto H. Pestana e José M. Sandonas (UFMS/Corumbá)

Avaliação de desempenho REST: um estudo de caso baseado no envio de


mensagens .................................................................................................................. 9
Rafael O. Faria e Tiago L. de Andrade (UNEMAT/Cáceres)

Priorização de tráfego em SDN baseado em classes de aplicação de rede


determinadas por aprendizado de máquina ................................................................ 17
Matheus D. Rodrigues, Patrícia D. de A. Souza e
Richardson Bruno da Silva Andrade (UFPE/Recife)

Implementação de um Cluster Beowulf utilizando o framework Warewulf .............. 26


Ludivan Bento Brandão, João Paulo de Brito Gonçalves e
Paulo José Pereira de Oliveira (IFES/Cachoeiro de Itapemirim)

O problema da cobertura por vértices parametrizado: redução do tempo


computacional em grafos Power Law ........................................................................ 34
Edgar de Oliveira Cabral Filho (UniAndrade/Curitiba)

Desenvolvimento de uma Datalogger para a leitura de dados ................................... 42


Jackson A. Durães Junior, Minéia Cappellari Fagundes e
Armando da Silva Filho (UNEMAT/Barra do Bugres)

Internet das Coisas aplicada ao Agronegócio: um levantamento com base em


revisão sistemática de literatura ................................................................................. 49
Thalita Medeiros Dolce e Fernando Selleri Silva (UNEMAT/Barra do Bugres)

Artigos Resumidos

Desenvolvimento de uma arquitetura de serviços para uma Smart House: uma


implementação usando as plataformas Arduino e Django ......................................... 57
Marina L. M. Silva e Marcia Pasin (UFSM/Santa Maria)

Avaliação da CNN FaceNet para reconhecimento facial de estudantes em sala


de aula ........................................................................................................................ 61
Bernardo Janko Gonçalves Biesseck (IFMT/Pontes e Lacerda) e
Valber Lemes Zacarkim (UNEMAT/Cáceres)
Aprendizado de máquina na classificação de uso e cobertura da terra utilizando
sensoriamento remoto ................................................................................................ 65
Magaywer Moreira de Paiva, Leo Manoel Lopes da Silva Garcia e
Leonardo Elias Alves (UNEMAT/Barra do Bugres)

O Uso do software livre App Inventor no desenvolvimento de um aplicativo de


Carona Acadêmica ..................................................................................................... 70
Ernane Rosa Martins e Glenda Vieira Gonçalves Trindade (IFG/Luziânia)

A Utilização de metodologias ágeis e o Modelo MPS.BR em teste de software ....... 74


Jonatan W. Pereira Fernandes e André L. Sanson (UNEMAT/Barra do Bugres)

Apresentando o desenvolvimento de aplicativos aos jovens através da extensão


universitária ................................................................................................................ 78
Gabriel S. Ferrão (UNEMAT/Barra do Bugres), Gabriel B. Alencar,
Kaique de C. Pereira (Escola Alfredo José da Silva/Barra do Bugres) e
Sumaya F. Guedes (UNEMAT/Barra do Bugres)

Educação matemática e multimodalidade: uma proposta de pesquisa ....................... 82


Izamara Cirqueira Bini, Graciela Rogoski Kapron e
Daise Lago Pereira Souto (UNEMAT/Barra do Bugres)

Facebook como ferramenta de apoio ao ensino superior ........................................... 86


Ernane Rosa Martins (IFG/Luziânia) e
Luís Manuel Borges Gouveia (UFP/Portugal)

Os Vídeos na Licenciatura em Física: análise e contribuições .................................. 90


Graciela Rogoski Kapron, Izamara Cirqueira Bini e
Daise Lago Pereira Souto (UNEMAT/Barra do Bugres)

Tendência das aplicações multimídias do futuro ....................................................... 94


Neriley Machado de Oliveira e
Francisco Sanches Banhos Filho (UNEMAT/Colíder)
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Estória Contada
Desenvolvimento de um áudio game
Yuri P. das Neves1 , Lucineide R. da Silva 1 , Anderson P. das Neves1 ,
Kelvin R. da Guia1 , Adauto H. Pestana, José M. Sandonas
1
Universidade Federal de Mato Grosso do Sul - Câmpus do Pantanal
ypedroso8@gmail.com, lucineide.silva@ufms.br, kelvinrdg@gmail.com

Abstract. This work describes the stages of development of an audio game. In


this article we will cover studies done in the city of Corumbá/MS about the diffi-
culties faced by the visually impaired, the use of technologies and the knowledge
about accessible digital games.

Resumo. Este trabalho descreve as estapas de desenvolvimento de um áudio


game. São abordados estudos realizados na cidade de Corumbá/MS sobre as
dificuldades enfrentadas pelos deficientes visuais, a utilização de tecnologias e
o conhecimento sobre jogos digitais acessı́veis.

1. Introdução
As pessoas com deficiência possuem um histórico de segregação na sociedade, resultando
em anos de atraso em seu desenvolvimento e educação. As pessoas cegas têm sua capaci-
dade de locomoção, acesso à informação e autonomia comprometidos. A sociedade por
muitos anos desenvolveu estratégias de acesso à informações e locais centrados na visão
do indivı́duo.
Atualmente são estudadas formas e estratégias para promover a inclusão da pessoa
cega na sociedade. A acessibilidade pode ser descrita como a utilização de métodos que
possibilitem o acesso dos deficientes ao espaço urbano, às informações, às ferramentas e
serviços, visando a autonomia e inclusão do indivı́duo. [ABNT 2015]
Este trabalho objetivou a criação de um áudio game direcionado às pessoas ce-
gas. Para atingir esses objetivos, foram necessárias atividades de levantamento sobre os
deficientes visuais da cidade de Corumbá/MS, levantamento dos aspectos que envolvem
o contato da pessoa cega com o smartphone e estudo sobre técnicas de desenvolvimento
que permitam a inclusão à esse público.
Este trabalho aborda um breve histórico sobre pessoas com deficiência, a Seção 2
traz a definição sobre deficiência em geral e sobre a deficiência visual. A Seção 3 define
acessibilidade e apresenta uma breve descrição sobre a importância da acessibilidade e
das tecnologias assistivas.
A Seção 4 traz um estudo sobre os benefı́cios dos jogos digitais, sua definição
e como podem atuar na construção da sociedade. Uma pesquisa sobre jogos digitais
acessı́veis foi realizada nos repositórios da Google Play Store e da App Store, disponibi-
lizada na Subseção 4.1.
Na Seção 5 é apresentado um estudo local sobre os deficientes visuais, buscando
levantar aspectos sobre a utilização de smartphones, dificuldades de acesso à informação,

1
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

2. DEFICIÊNCIA VISUAL

pontos positivos e negativos na utilização de tecnologias e aceitação de um áudio game.


A Seção 6 diz respeito ao desenvolvimento do áudio game, trazendo as técnicas utilizadas
e aspectos levantados durante o desenvolvimento do Estória Contada.

2. Deficiência Visual
A deficiência é definida pela [OMS 2004]1 como problemas que afetam as estruturas ou
funções do corpo, onde a limitação se torna crı́tica ou ocasiona a perda da funcionali-
dade e também classifica a deficiência entre motora, visual, mental e auditiva. As de-
ficiências afetam diversas áreas de interação, podendo levar indivı́duos a exclusão social.
[Miranda 2003] relata que o tratamento dado à essas pessoas variou durante a história.
Nos primórdios da era cristã, havia ausência total de atendimento ao grupo. Muitas vezes
eram vistos e tratados como anormalidades. A partir do século XVIII houve a fase da
institucionalização, onde eles eram mantidos em residências especı́ficas por existir uma
crença deles necessitarem de interação unicamente entre si. No século XX os deficientes
visuais obtiveram acesso às escolas públicas, porém eram incluı́dos em turmas de ensino
especial, separados dos demais, passando pela inserção em ambientes escolares comuns
a todos e por fim, a fase atual, do avanço tecnológico e da acessibilidade.
O [IBGE 2010]2 tornou público um censo sobre pessoas com deficiência. Nele
é apontado que no estado de Mato Grosso do Sul 68.440 pessoas possuem grandes di-
ficuldades relacionadas a visão e 4.917 pessoas apresentam a perda total da visão. O
[Brasil 1999] por meio do Decreto Federal de número 3.298, define deficiência visual
como:
“Cegueira, na qual a acuidade visual3 é igual ou menor que 0,054 no melhor olho,
com a melhor correção óptica; abaixa visão, que significa acuidade visual entre
0,3 e 0,05 no melhor olho, com a melhor correção óptica; os casos nos quais a
somatória da medida do campo visual em ambos os olhos for igual ou menor que
60; ou a ocorrência simultânea de quaisquer das condições anteriores.”
A deficiência visual afeta diretamente a capacidade de acesso à informação. Como
a maior parte da literatura foi desenvolvida para permitir acesso apenas visual, o indivı́duo
cego é impossibilitado de acessar o conteúdo. Para amenizar os problemas causados pela
deficiência visual, foram desenvolvidas técnicas e ferramentas para promover acessibili-
dade a esse público.

3. Acessibilidade
A acessibilidade é um assunto recente e que demanda maior atenção em toda a sociedade.
Promover a inclusão dos deficientes é uma das maiores motivações de desenvolvedores,
engenheiros, simpatizantes e afins, pois oferece às pessoas com deficiência ou mobilidade
reduzida uma vida independente, bem como atuação direta na sociedade e interação com
os demais. [World Wide Web Consortium Brasil 2013]
A [ABNT 2015] define acessibilidade como “possibilidade e condição de alcance,
percepção e entendimento para a utilização com segurança e autonomia de edificações,
1
Organização Mundial da Saúde
2
Instituto Brasileiro de Geografia e Estatı́stica
3
Capacidade de perceber a forma e o contorno dos objetos
4
Valor obtido pela aplicação do teste de Snellen

2
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

4. JOGOS DIGITAIS

espaço, mobiliário, equipamento urbano e elementos”. Esta definição nos dá ampla visão
da acessibilidade, não limitando sua aplicação. A acessibilidade permite aos deficientes
o acesso à informação, às ferramentas e ao espaço fı́sico, assim a acessibilidade é uma
condição de direito a inclusão social.
Para o indivı́duo portador de deficiência visual a acessibilidade é de extrema
importância, afinal, sua limitação interfere no sentido mais necessário para interagir
com a web. Os indivı́duos portadores de deficiência visual têm sua possibilidade de
comunicação e interação limitadas pela falta de literatura massificada em Braille, a qual,
por sua vez, é restrita por questões econômicas. Uma área presente na acessibilidade de
grande importância é a tecnologia assistiva, pois se utiliza de instrumentos para realizar
a inclusão. [Polgar, A. and Polgar, J. 2007] definem tecnologia assistiva como “uma am-
pla gama de equipamentos, serviços, estratégias e práticas concebidas e aplicadas para
minorar os problemas funcionais encontrados pelos indivı́duos com deficiência”.
A tecnologia assistiva se faz presente no acompanhamento das pessoas com de-
ficiência, auxiliando no seu dia a dia. Pode-se demonstrar a tecnologia assistiva por meio
de diversos instrumentos que permitem maior autonomia de seus usuários, elementos
como: bengala, lupas, óculos, leitor de tela, entre outros.

4. Jogos Digitais
A palavra jogo não possui uma definição exata. Segundo [Kishimoto, T. 1994] é um termo
abrangente que remete aos mais variados significados.
“Tentar definir o jogo não é tarefa fácil. Quando se diz a palavra jogo cada um
pode entendê-Ia de modo diferente. Pode-se estar falando de jogos polı́ticos, de
adultos, de crianças, de animais ou de amarelinha, de xadrez, de adivinha e uma
infinidade de outros” [Kishimoto, T. 1994].
Os jogos atuam de forma importante na vida de crinças e podem continuar na
trajetória adulta. [Tarouco, L. et al. 2004] ressaltam a importância dos estı́mulos propor-
cionados pelo jogar, como reconhecimento e entendimento de regras. Na atualidade, os
jogos digitais estão cada vez mais presentes no cotidiano, tanto pela sua ampla gama
quanto pela variedade de dispositivos disponı́veis para executá-los.
[Savi and Ulbricht 2008] apontam 8 benefı́cios aos usuários de jogos digitais
1. Efeito motivador: A ideia de desafios em jogos provocam maior interesse e
motivação dos jogadores, além de estimular a curiosidade e imaginação
2. Facilita o aprendizado: Os elementos que compõem os jogos digitais represen-
tam vários cenários e colocam o jogador como tomador de decisões, possibilitando
uma aprendizagem através de tentativas e erros.
3. Desenvolvimento de habilidades cognitivas: Em jogos digitais é necessário um
desenvolvimento intelectual, pois o jogador deve elaborar estratégias para vencer
os desafios.
4. Aprendizado por descoberta: Permitem o desenvolvimento da capacidade de
exploração, experimento e colaboração.
5. Experiência de novas identidades: Proporcionam ao jogador viver uma reali-
dade diferente, introduzindo-o em uma nova identidade.
6. Socialização: Atuam como agentes de socilização, à medida que aproximam os
jogadores competitivamente ou cooperativamente.

3
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

5. ESTUDO SOBRE USO DE SMARTPHONES

7. Coordenação motora: Promovem a coordenação motora e habilidades espaciais.


8. Comportamento expert: Promovem a competitividade e estimulam que o joga-
dor se torne expert, possibilitando até a profissionalização.
4.1. Jogos acessı́veis existentes
Para este documento foram realizados levantamentos de jogos acessı́veis aos deficientes
visuais. O estudo inicial foi realizado no repositório de aplicativos do Google5 utilizando-
se dos seguintes termos: “deficiência visual”, “jogos para deficientes visuais”, “jogos
acessı́veis” e “jogos para cegos”. O objetivo deste levantamento foi quantificar o mercado
de jogos digitais acessı́veis, a busca retornou mais de 100 softwares.
A Tabela 1 traz jogos de entretenimento acessı́veis encontrados pelos termos na
base de aplicativos da Google Play.

Aplicativo Custo
Boliche Acessı́vel Gratuito
Diversao Acessı́vel para cegos Gratuito
Bilhar Acessı́vel Gratuito
Reino Acessivel para cegos Gratuito
Tenis Acessı́vel Gratuito
Adivinha o numero Acessı́vel Gratuito
Audio Game Hub Gratuito
Bianca Gratuito
A Blind Legend Gratuito
SenseGames Gratuito
Descrêvi Gratuito
Tabela 1. Jogos acessı́veis - Google Play Store

O levantameto retornou aproximadamente 110 softwares ligados aos termos bus-


cados, entre os softwares foram encontrados apenas 11 que pertencem ao gênero de jogos
acessı́veis. Através deste levantamento pôde-se notar a falta de exploração sobre o tema.
O resultado deste levantamento também permitiu a visualização sobre uma saturação em
leitores de tela, compondo mais de 50% dos softwares encontrados.
O jogo A Blind Legend forneceu grandes contribuições para este trabalho. A Blind
Legend pertence a empresa DOWiNO e conta a estória de um guerreiro na era medieval.
O jogo se utiliza apenas de tecnologias de sons em 3D para realizar a interação, todo o
enredo do jogo conta com um guia que direciona o usuário aos seus objetivos. A Blind
Legend contribuiu ao projeto para esclarecer a forma de utilização de áudios em 3D, as-
pectos de distância do personagem para os sons do ambiente e identificar os componentes
de interface para a interação do usuário.

5. Estudo sobre uso de Smartphones


As atividades iniciais foram focadas em duas principais tarefas: 1. Levantamento sobre
os deficientes visuais na cidade de Corumbá/MS e 2. Coletar informações sobre a
utilização de smartphones e conhecimento sobre aplicativos acessı́veis.
5
Google play store

4
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

6. ESTÓRIA CONTADA

O levantamento sobre o público foi realizado através do contato com as esco-


las públicas da cidade e instituições de educação especial. O contato inicial objetivou a
apresentação do projeto e a permissão para uma reunião com os alunos cegos para realizar
a entrevista.
Um roteiro de entrevista foi planejado para identificar as dificuldades cotidianas
enfrentadas pela pessoa cega, aspectos sobre a utilização do smartphone, impedimentos
na utilização, formas de melhoria da interação e contato com aplicativos acessı́veis. A en-
trevista foi mediada por um professor voluntário, com o objetivo de fornecer um ambiente
confortável para a participação da pessoa cega.
Foram realizadas 10 entrevistas durante a etapa de contato. Um aspecto impor-
tante levantado durante a entrevista foi a utilização de smartphones no dia a dia. Essa
informação permite também a identificação das experiências dos usuários no contato com
essa tecnologia.
Das entrevistas realizadas, apenas 3 voluntários afirmaram a utilização de
smartphones e elencaram desafios na utilização da tecnologia. Notou-se que muitos dos
problemas elencados podem interferir diretamente na interação e/ou na primeira tentativa
de uso. Através da entrevista, os usuários de smartphones foram questionados sobre o
contato com jogos digitais com proposta de acessibilidade. Apenas 1 voluntário disse
ter contato com jogos acessı́veis, ainda foi questionado a todos os voluntários sobre a
receptividade à um jogo para cegos, todos disseram ter interesse.
Os usuários entrevistados apontaram dificuldades como a falta de referência tátil,
receio em ocasionar problemas no aparelho que não sejam fáceis de contornar, comple-
xidade no uso, entre outros impedimentos que podem interferir até no primeiro contato.
Foram feitos relatos sobre projetos de aprendizado nas instituições, dentre 4 instituições
que trabalham com crianças cegas, apenas uma oferece projetos para a inclusão do aluno
por meio das tecnologias.

6. Estória Contada
Para o desenvolvimento do jogo, foram escritas propostas de estórias, que seriam utiliza-
das como o enredo principal para os personagens. A estória escolhida envolve um conto
de investigação criminal. O enredo se passa em uma cidade de interior, na qual há um
detetive cego que possui poderes especiais.
O personagem central se chama Samuel. Samuel é um detetive muito famoso em
Cidade das Flores, seus atos como detetive permitiu a solução de muitos crimes misterio-
sos em sua cidade. Em seus 30 anos de atuação como detetive, Samuel permitiu que mais
de 50 casos de assassinato fossem solucionados graças a seus poderes sobrenaturais.
O detetive Samuel possui o dom de retornar no tempo e utiliza esse poder para
retornar momentos antes do crime acontecer. Isso o auxiliou em vários casos famosos.
Samuel não possui controle sobre seus poderes, as únicas informações possuı́das é que ele
entra em transe e é levado ao passado pelo intervalo de 10 segundos, podendo ter contato
com todas as ações e pessoas naquele passado. O descontrole de seus poderes trazem a
Samuel muitos erros de seu passado.
O assassinato ocorreu de forma muito peculiar. O corpo da vı́tima estava caı́do
em seu quarto, apenas com um corte profundo em seu peito, sem qualquer outra marca.

5
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

6. ESTÓRIA CONTADA

Os detetives responsáveis notam que não há muitas pistas a seguirem e tentam o contato
com o detetive Samuel para que use sua experiência nesse novo caso. Neste novo crime o
detetive Samuel se depara com erros do seu passado e deve se empenhar para solucionar
o assassinato de seu velho amigo.
A equipe trabalhou na criação da estória e nas caracterı́sticas sonoras próprias a
cada elemento. Toda a narrativa foi transformada em arquivos áudio para serem acres-
centados no áudio game. Eles retornam informações sobre os personagens, os elementos
do cenário e as pistas que podem ser encontradas entre as diversas interações do jogador
com o cenário. Foram utilizadas duas técnicas durante a conversão da estória para áudios,
a audiodescrição e o áudio 3D.
O desenvolvimento deste projeto seguiu recomendações da [Microsoft 2017] que
descrevem formas de tornar um jogo acessı́vel aos deficientes:

• As entradas do usuário devem pertencer sempre às mesmas ações no sistema.


• Toda a ação do jogo deve ter um retorno em áudio para indicar se as ações tomadas
estão levando ao objetivo.
• Colorir a tela para evidenciar e diferenciar ações corretas e incorretas.
• Fornecer um discurso sólido que forneça pistas sobre os objetivos, utilizar o áudio
3D para indicar ao jogador o ambiente ao seu redor.
• Separar os controladores de música, voz e efeitos.

[Motta, L. and Filho, P. 2010] definem a audiodescrição como a transformação de


imagens em palavras para que a informação chave, transmitida visualmente, não passe
despercebida e também possam ser acessadas por pessoas cegas. Os diálogos, as pistas
e os outros elementos da narrativa foram transformados em áudio através do software
Amazon Polly, um sintetizador de texto em voz. O Amazon Polly permite que o usuário
grave trechos de texto e o transforme em arquivos de áudio, este foi escolhido por possuir
as vozes mais próximas ao real, possibilitando uma imersão maior por parte do jogador.
Para uma melhor interação do jogador com o cenário, foram introduzidos elemen-
tos com áudio 3D, que possibilitam a localização espacial do jogador. Um exemplo que
podemos trazer para este documento é o elemento que representa um telefone, seu som
particular é capturado em 3 dimensões pela câmera do jogador, que permite distinguir o
ponto espacial onde o elemento se encontra.
[Gardner, W. 1999] define o áudio 3D como um sistema com a capacidade de
posicionar sons em torno do ouvinte. Os sons realmente são criados por alto falantes ou
fones de ouvido, porém, a percepção do ouvinte é de que eles são emitidos de lugares
arbitrários no espaço. O Estória Contada possui 4 cenários que podem ser explorados
pelo jogador. Neles, são encontradas pistas sonoras que o levarão a próxima fase. No
final, o usuário terá pistas suficientes para solucionar o caso de assassinato.
As entradas do jogador são permitidas por botões dinâmicos, que se adaptam ao
toque do usuário. Os botões direcionais permitem que o usuário explore o ambiente. Para
este projeto, foram analizadas formas de facilitar as entradas na interface. Os botões se
deslocam para a posição do toque na tela, assim, permitindo que as ações do usuário sejam
realizadas de forma mais simplificada.

6
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

7. CONCLUSÃO

(a) Alinhado à esquerda (b) Alinhado à direita

Figura 1. Localização dinâmica dos botões

A Figura 1 demonstra a interação do usuário por meio de toques na tela, os botões


possuem 5 elementos nos quais 4 destes representam as direções no cenário e 1 representa
o centro. Todos os botões reagem aos pontos x e y inseridos pela ação de toque do usuário,
o centro é direcinado a esse ponto e os botões direcionais se posicionam ao redor do toque,
se adaptando ao ponto de toque. Os movimentos são obtidos por meio da ação de arrastar
o toque na direção desejada e todas as bordas da tela possuem parâmetros limites que
impossibilitam a saı́da dos botões das coordenadas máximas da tela.
Todos os componentes pertencentes ao cenário possuem uma descrição em áudio
e permitem que o jogador tenha acesso a sua informação. A interação do personagem com
os elementos fı́sicos dos cenários é proporcionada pela proximidade, em outras palavras,
quando o personagem está próximo de um elemento são emitidos sons que descrevem as
caracterı́sticas daquele componente.
O jogo Estória Contada foi pensado em dois planos. Um plano em 2 dimensões
foi criado para a interação com os botões. Este primeiro sistema em 2 dimensões foi
criado para permitir que os botões sejam de fácil acesso ao jogador. Os scripts foram
criados para que os botões de movimento se adaptem ao toque, assim se deslocando para
qualquer lugar da tela em que o jogador tenha tocado, o movimento é realizado por toques
arrastados na direção desejada.
O segundo sistema implementado para o jogo foi pensado para os cenários e o
jogador. O sistema é em 3 dimensões e foram desenvolvidas técnicas para permitir a livre
movimentação do jogador dentro do cenário, além de conter os componentes que possuem
áudio em 3 dimensões que são permitem a interação do usuário com o ambiente.
Foram pensadas formas para permitir que o jogador confirme sua intenção em
parar a execução e que não houvesse engano no acesso a essa função. Para interromper a
execução do jogo, foi proposta a funcionalidade de 3 toques simultâneos. O sistema emite
o alerta de que o jogo será finalizado e inicia a contagem de 5 segundos para confirmação
se o usuário deseja finalizar o sistema.

7. Conclusão
O processo de levantamento de informações demonstrou a escassez de atividades que
possibilitem ao indivı́duo cego um contato com novas tecnologias. Vários preconceitos
e dúvidas ainda dificultam essa interação do usuário cego com as tecnologias, porém,
podem ser contornados com ações de incentivo dentro da região. O foco do trabalho foi o
desenvolvimento do jogo Estória Contada, possibilitado pelas pesquisas realizadas.
Espera-se que o trabalho realizado seja um inı́cio de novas ações direcionadas

7
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

REFERÊNCIAS

a esse público. O aspecto tecnológico deve ser cada vez mais trabalhado dentro das
instituições de ensino e universidades, possibilitando que alunos com deficiência visual
tenham a autonomia proposta pelas novas tecnologias.
O projeto desenvolvido teve como objeto final o jogo Estória Contada, que será
disponibilizado gratuitamente no repositório Google Play Store para download. Este
jogo é o produto inicial do projeto e espera-se desenvolver novos produtos derivados
deste, além de proporcionar aos usuários uma melhora contı́nua na interação com jogos
acessı́veis, levando em conta o feedback dos usuários.
O projeto terá continuidade em seu desenvolvimento e pretende-se lançar outros
jogos semelhantes e proporcionar mais imersão por meio das estórias. Outras estórias
serão criadas e darão continuidade à inicial, o grupo de desenvolvimento estudará novas
técnicas de promoção da acessibilidade que futuramente podem melhorar a interação.

Referências
ABNT (2015). Acessibilidade a edificações, mobiliário, espaços e equipamentos urba-
nos. Rio de Janeiro, terceira edição edition.
Brasil (1999). Decreto no 3.298. artigo 4o , inciso iii.
Gardner, W. (1999). 3d audio and acoustic environment modeling. Wave Arts, Inc., 1.
IBGE (2010). Caracterı́sticas gerais da população, religião e pessoas com deficiência.
Instituto Brasileiro de Geografia e Estatı́stica, Rio de Janeiro.
Kishimoto, T. (1994). O jogo e a educação infantil. Cengage Do Brasil, 1.
Microsoft (2017). Making games acessible. https://goo.gl/X2HCyi.
Miranda, A. (2003). História, Deficiência e Educação Especial. PhD thesis, Universidade
Federal de Uberlândia, Uberlândia.
Motta, L. and Filho, P. (2010). Audiodescrição. Transformando imagens em palavras.
Secretaria dos Direitos da Pessoa com Deficiência do Estado de São Paulo, São Paulo,
first edition.
OMS (2004). Classificação internacional de funcionalidade, incapacidade e saúde.
Polgar, A. and Polgar, J. (2007). Assistive Technologies: Principles and Practices. Mosby,
fourth edition.
Savi, R. and Ulbricht, V. (2008). Jogos digitais educacionais. uma abordagem profissio-
nal. RENOTE - Revista Novas Tecnologias na Educação, 6(1).
Tarouco, L. et al. (2004). Jogos educacionais. In [Tarouco, L. et al. 2004].
World Wide Web Consortium Brasil (2013). Cartilha de acessibilidade na web. World
Wide Web Consortium Brasil.

8
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Avaliação de desempenho REST: um estudo de caso


baseado no envio de mensagens.
Rafael O. Faria1, Tiago L. De Andrade1
1
Departamento de Ciências da Computação
Universidade do Estado de Mato Grosso (UNEMAT) – Cáceres, MT – Brasil
{rafael.oliveira,tiago}@unemat.br

Abstract. We are experiencing an era of constant connectivity and digital


interactivity. The technologies have reached an extraordinary level of fluidity
when it comes to sharing data between medical devices. To that that's
possible, there are diversified technologies that implement capable services
capable of performing these interactions. One of the most popular is
Representational State Transfer (REST), due to its large application capacity,
which can create scenarios for applying HTTP requests, user control,
interactions and competitions. From the scenarios, the performance of a web
service will be evaluated, aiming to present its latency, based on the number
of requirements and size of the message, being able to display a broader
response on which moments should be improved, aiming at a chance of losing
against the situation generated.

Resumo. Vivenciamos uma era de constante conectividade e interatividade


digital. As tecnologias alcançaram um nível extraordinário de fluidez quando
se trata de compartilhamento de dados entre diversos dispositivos. Para que
isso seja possível, existem diversas tecnologias que implementam serviços
capazes de executar essas interações. Um dos mais populares é o
Representational State Transfer (REST), tendo em vista sua ampla
aplicabilidade, podendo criar cenários de testes utilizando requisições HTTP,
controlar usuários, interações e concorrências. A partir desses cenários, será
avaliado o desempenho de um serviço web, buscando apresentar sua latência,
baseando-se no número de requisições e tamanho da mensagem,
proporcionando uma ampla avaliação sobre quais momentos deve-se pensar
na melhoria do serviço, tendo em vista, uma possível perca do desempenho
frente a situação gerada.

1. Introdução
Atualmente conecta-se a internet com objetivo de compartilhar informações entre os
dispositivos que estejam ligados na rede mundial de computadores.
Existem diversos recursos tecnológicos que podem ser implementados e
incorporados em aplicações a fim de manter essas conexões. Entre os recursos
existentes, pode-se citar o protocolo HTTP (Hypertext Transfer Protocol),
implementado em dois programas, sendo um cliente e outro servidor, ambos executados
em sistemas finais diferentes, que conversam um com o outro por meio de troca de
mensagens HTTP [Kurose 2006].

9
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Através desses programas é possível utilizar diversões padrões, como exemplo o


HTML como marcador de texto para ser interpretado em páginas web na internet. O
padrão HTML é insuficiente para realizar interações por meio de programas [Coulouris
2013].
O protocolo HTTP define o modo de transmissão e estrutura da mensagem,
porém cada mensagem pode transmitir diversos tipos de objetos, ou seja, documentos.
Um objeto é simplesmente um arquivo – tal como um arquivo HTML, uma imagem
JPEG, um applet Java, ou um clipe de vídeo – que se pode acessar com uma única URL
[Kurose 2006] .
Sendo assim, pode-se aplicar o conceito de sistemas distribuídos através de
webservice. Para esse caso, será utilizada a arquitetura REST – Representational State
Transfer por meio da construção de um ambiente capaz de consumir informações de
seus respectivos serviços, podendo assim criar cenários controlados de manipulação de
informações e mensurar o desempenho do serviço frente aos cenários criados.

2. Web Service REST


Ao analisar o uso da tecnologia na sociedade, pode-se notar que no cenário atual existe
uma necessidade de compartilhar dados pela web. O crescimento da Web nas últimas
duas décadas prova a eficácia do uso de protocolos simples na Internet, como base para
um grande número de serviços e aplicações remotos [Coulouris 2013].
Com esse avanço da internet e seus respectivos protocolos, os clientes
(navegadores) passaram a consumir mais pacotes de informações. Coulouris (2013)
afirma que o uso de um navegador de propósito geral como cliente, mesmo com as
melhorias fornecidas por applets específicos de uma aplicação, baixados por download,
restringe a abrangência potencial dessas aplicações.
Para tornar as aplicações um pouco mais funcional e abrangente, partiu-se para
interfaces de acesso através do modelo cliente servidor. Os serviços Web (Web services)
retornam a esse modelo, no qual um cliente específico da aplicação interage pela Internet
com um serviço que possui uma interface funcionalmente especializada. Dessa maneira,
torna-se possível diversos sistemas e organizações trabalharem de forma conjunta, se
comunicando de uma forma transparente. Assim, os serviços Web fornecem
infraestrutura para manter uma forma mais rica e mais estruturada de interoperabilidade
entre clientes e servidores [Coulouris 2013].
Diante disso, pode-se imaginar um cenário com diversas organizações, públicas e
privadas, localizadas em lugares distintos, usando serviços web para troca de
informações. Eles fornecem uma base por meio da qual um programa cliente em uma
organização pode interagir com um servidor em outra organização, sem supervisão
humana. Assim, parte-se do princípio que webservices atende aplicações complexas, e
que não são acessadas de forma direta através de um navegador. Em particular, os
serviços Web permitem o desenvolvimento de aplicações complexas, fornecendo
serviços que integram vários outros serviços [Coulouris 2013].
O nível de complexidade dessas aplicações vem-se tornando cada vez maior,
dadas as evoluções das arquiteturas e a das tecnologias envolvidas, e a demanda em

10
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

diversas áreas da nossa sociedade: negócios, comércio, governo, saúde, entretenimento,


trabalho cooperativo e diferentes setores da indústria [Delamaro, 2016].
Para construção e consumo de um serviço web existem diversos meios. Segundo
Coulouris (2013), um dos mais utilizados é o protocolo SOAP (Simple Object Access
Protocol), que especifica as regras de uso da XML para empacotar mensagens, como
por exemplo, suportar um protocolo de requisição-resposta.
Para esse cenário será utilizado o estilo de arquitetura REST (Transferência de
Estado Representacional). Assim como protocolo SOAP utiliza o XML para especificar
suas regras, o REST utiliza de seus recursos para aplicar suas regras de troca de
mensagens. Cada serviço Web usa sua própria descrição para tratar as características
específicas das mensagens que recebe [Coulouris 2013].
Derivado do protocolo HTTP, a arquitetura REST busca implementar
componentes originados do protocolo, deixando mais próximo as requisições a serem
realizadas pelos clientes. A Transferência de Estado Representacional (REST) é uma
abstração dos elementos arquitetônicos dentro de um sistema hipermídia distribuído.
REST ignora os detalhes da implementação do componente e a sintaxe do protocolo
para se concentrar nas funções dos componentes [Fielding 2000].
A abordagem REST visa suportar sistemas hipermídia distribuídos que se
adaptam ao tamanho da Internet, com interfaces gerais e componentes intermediários
que reduzem a latência de interação [Sundvall 2013].
Seguindo essa arquitetura, foi viabilizado a construção de um ambiente para
consumo de informações, com o objetivo de executar requisições a um serviço web,
monitorando o consumo e a análise das informações através de um cenário controlado.
Especificamente foi o utilizado o servidor Apache 2.4.27 em um sistema
operacional Windows 64 bits. Para a implementação de um serviço web, fez-se
necessário o uso da linguagem de programação PHP, versão 7.1.9. O serviço foi
monitorado de forma isolada, internamente, utilizando o endereço local 127.0.0.1 na
porta 80.
Por fim, para a implementação do serviço web, foram utilizados recursos
auxiliares, API e Frameworks, um micro framework que tem como objetivo auxiliar na
construção de pequenas aplicações web e APIs.

3. Cenário, Análise e Monitoramento


Por meio do desenvolvimento de um serviço web, é possível medir a sua performance
monitorando as atividades realizadas no sistema de acordo com as requisições que de
fato auxiliará a análise de quão eficiente é o serviço, conforme o cenário aplicado.
Segundo Jain (1991), em geral, monitoramento observa o desempenho de um sistema,
coleta estatística de sua performance, analisa os dados e apresenta resultados.
Nesse sentido, é necessário ter um ambiente apropriado para executar o
monitoramento e cenários com usuários conectados requisitando informações do serviço,
para que seja possível executar a captura de dados a cada requisição efetuada pelo
usuário, avaliando assim o tempo e o objeto requisitado. Se o sistema executa o serviço
corretamente, seu desempenho é mensurado pelo tempo gasto para executar o serviço, a

11
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

taxa na qual o serviço é executado e os recursos consumidos durante a execução do


serviço [Jain 1991].
Portanto, é verificado o tempo de requisição, a taxa de execução e os recursos a
serem consumidos, a fim de capturar a capacidade de resposta dentre aos cenários
aplicados. Essas três métricas relacionadas ao recurso de taxa de tempo para um
desempenho bem-sucedido também são chamadas de capacidade de resposta [Jain 1991].
Para captar os dados de requisições, é necessário criar e documentar um cenário
o mais próximo da realidade, onde o sistema estará implementado, pois os testes visam
retratar o comportamento do serviço conforme sua usabilidade. Na tabela 1 são
apresentados os cenários utilizados para os casos de testes.

Descrição Cenário 1 Cenário 2


Quantidade de Usuários 15 30
Inicialização por usuários 4 segundos 4 segundos
Requisições por usuários 1 1
Mídia Imagem
Tamanho do arquivo 4.48 MB
Método GET
Teste 1 Porta 80
Protocolo HTTP
IP 127.0.0.1
URI ~/app/stream/image
Mídia Vídeo
Tamanho do arquivo 62.9 MB
Método GET
Teste 2 Porta 80
Protocolo HTTP
IP 127.0.0.1
URI ~/app/stream/vídeo
Tabela 1. Cenário de testes
Fonte: Produção do Autor

4. Aplicação JMeter
Atualmente existem diversas ferramentas que executam testes de performance em
serviços web. Dentre as ferramentas existentes, é utilizado o Apache JMeter, mais
conhecido como JMeter.
Apache JMeter™ é um software de código aberto, 100% desenvolvido em Java,
aplicação projetada para carregar o comportamento funcional de teste e medir o
desempenho. Ele foi originalmente projetado para testar aplicativos web, mas desde
então expandiu para outras funções de testes [Apache 2018].
Para o uso da ferramenta, abra o Plano de Teste para configurar o ambiente.
Inicialmente são criados grupos de usuários, como apresentado na figura 1.

12
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Figura 1. Criando grupo de usuários


Fonte: Produção do Autor

Após a criação dos grupos é necessário configurá-los informando a quantidade


de usuários virtuais, o tempo de inicialização e a quantidade de interações.
Com os usuários virtuais configurados é necessário configurar o ambiente de
requisição, adicionando o recurso Requisição HTTP para o grupo de usuários. Essa ação
pode será adicionada clicando com o botão direito do mouse, opção Grupo de Usuários,
adicionar, Testador, Requisição HTTP.
Com a configuração realizada e o ambiente de requisição configurado é
necessário adicionar os ouvintes, módulos de captura para fazer a leitura das informações
geradas a cada requisição. JMeter fornece diversos tipos de ouvintes, gráficos, tabelas,
listas e outros recursos.

5. Resultados
Os resultados foram obtidos a partir do cenário configurado e apresentados na tabela 1,
que contém de 15 a 30 usuários virtuais, inicialização entre 4 a 8 segundos, e que cada
usuário efetua somente uma requisição. O teste foi executado uma única vez para ambos
cenários. Conforme o gráfico 1 e 2, pode-se verificar o tempo mínimo, médio e máximo
nos em dois cenários distintos configurados para o Teste 1.
Gráfico 1. Cenário 1 do Teste 1

Fonte: Produção do Autor

13
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Gráfico 2. Cenário 2 do Teste 1

Fonte: Produção do Autor

Observa-se que os resultados do teste 1 para os cenários 1 e 2 apresentam uma


latência mediana e mínima de menor impacto no segundo cenário, no entanto, a latência
média e máxima de menor impacto encontra-se no primeiro cenário, com 15 usuários
virtuais a menos que no cenário 2. Após todos os usuários inicializados, naturalmente o
ambiente começa a ficar saturado. Nesse momento pode-se notar um desvio considerável
entre ambos os cenários, tendo um aumento de 128 milissegundos no cenário 2 se
comparado ao cenário 1, considerando o valor máximo entre as requisições. Demais
desvios podem ser observados na tabela 2.

Descrição Cenário 1 Cenário 2 Desvios


Média 120 135 +15

Milissegund
Mediana 98 96 -2
Mínimo 80 69 -11

os
Máximo 275 403 +128

Tabela 2. Teste 1 dos Cenários 1 e 2


Fonte: Produção do Autor

Seguindo os mesmos cenários foi realizado o segundo teste, que consistiu na


transmissão de um vídeo no tamanho de 62.9 megabytes. Ao aplicar o teste foi possível
notar no gráfico 3 e 4 um crescimento no tempo de requisição referente aos gráficos 1 e
2, mas considerado natural se levado em conta o aumento de dados a serem transmitidos
sem alterar nada no cenário.
Podemos notar uma discrepância entre os dados apresentados nos gráficos 3 e 4,
principalmente no valor máximo, parâmetro esse que indica um maior número de
concorrência naquela amostra, ocasionando essa lentidão. Outro aspecto importante é o
tempo médio por requisição, em que ao dobrar o número de usuários, a média aumentou
13.074 milissegundos. Isso implica diretamente no tempo de espera do usuário, que em
média teria que aguardar pouco mais de 13 segundos para ter as informações
requisitadas.

14
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Gráfico 3. Cenário 1 do Teste 2

Fonte: Produção do Autor

Gráfico 4. Cenário 2 do Teste 2

Fonte: Produção do Autor

Os resultados evidenciam que, embora estejam no mesmo cenário alterando


apenas o tamanho do arquivo e dobrando o número de usuários, as mensagens
transmitidas de uma forma geral teve um aumento significante, como podemos ver os
desvios na tabela 3.

Descrição Cenário 1 Cenário 2 Desvios


Média 1.192 14.266 +13.074
Milissegund

Mediana 1.121 15.395 +14.274


Mínimo 536 4.009 +3.473
os

Máximo 1.840 17.983 +16.143

Tabela 3. Teste 2 dos Cenários 1 e 2


Fonte: Produção do Autor
Com os resultados obtidos nos testes é importante considerar a média de
desempenho, os quais os responsáveis pela estrutura poderão avaliar o ambiente frente
aos dados obtidos, e propor soluções que melhorem o desempenho do serviço fornecido,
como, por exemplo, a quebra de pacotes ou balanceamento de serviços. Pode-se

15
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

considerar também a quantidade de requisições, ou seja, se o número de vezes que foram


realizados os testes são considerados suficientes ou se faz necessário executá-los mais
vezes, com objetivo de encontrar uma média padrão dentro dos desvios que possam
aparecer.

6. Conclusão
Por meio da pesquisa realizada pode-se concluir que todo serviço web distribuído sofrerá
uma carga de trabalho conforme a demanda de requisições e designe estrutural abordado
no serviço ofertado. Essa carga deve ser monitorada, mensurada e avaliada.
Por meio da avaliação pode-se localizar desvios padrões e buscar soluções
adicionais a serem aplicados no ambiente, visando sempre manter um padrão de resposta
frente a escalabilidade pretendida com o serviço. Assim, padrões e soluções de design
adicionais são úteis, mas a diferença nas propriedades de escalabilidade precisa ser
considerada ao selecionar onde e como aplicá-las [Sundvall 2013].
A partir dessa perspectiva torna-se essencial o teste controlado de usabilidade de
serviços web. Esses testes permitem que o responsável tenha uma visão sobre seu
comportamento, encontre desvios e aplique correções no serviço ofertado.
Com isso, a cada serviço construído, recomenda-se configurar um cenário que irá
consumir os dados conforme o ambiente gerado. Ressalta-se que nem todos os dados
serão iguais ao anterior, porém seguirá um padrão aproximado, que com diversos testes
poderão definir um tempo mínimo e máximo de acesso por usuário e serviço.

Referências
Apache Software Foundation. (2018). “Apache JMeter”, https://jmeter.apache.org/,
Setembro.
Coulouris, George. (2013). “Distributed Systems: Concepts and Design”, Pearson, 5th
edition.
Delamaro, Márcio Eduardo. Maldonado, José Carlos, Jino, Mario. (2016) “Introdução
ao Teste de Software”, Elsevier, 2th edition
Fielding, Roy Thomas. (2000). “Architectural Styles and the Design of Network-based
Software Architectures”, In: Doctor of Philosophy in Information and Computer
Science, University of California. United States.
Jain, Raj. (1991). “Art of Computer Systems Performance Analysis Techniques for
Experimental Design Measurements Simulation and Modeling”, Wiley. United States.
Kurose, James F. (2006). “Computer networking: a top-down approach featuring the
Internet”, Pearson, 5th edition.
Sundvall, Erik. Et al. (2013). “Applying representational state transfer (REST)
architecture to archetype-based electronic health record systems”, In: BMC Medical
Informatics and Decision Making.

16
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Priorização de tráfego em SDN baseado em classes de


aplicação de rede determinadas por aprendizado de máquina
Matheus D. Rodrigues1 , Patrı́cia D. de A. Souza1 , Richardson Bruno da Silva Andrade1
1
Centro de Informática – Universidade Federal de Pernambuco (UFPE)
CEP: 50740-560 – Cidade Universitária, Recife – PE – Brazil
{mdr, pdas, rbsa2}@cin.ufpe.br

Abstract. This work consists in use traffic prioritization as a quality of service


approach in SDNs doing the traffic classification in 3 protocols types at the
application level. To classify network packets was used a decision tree structure
built based on real traffic data. The experiments were developed using the Ryu
controller with OpenFlow protocol and the network simulator Mininet. From
this, it was possible to analyze the applicability of maximum bandwidth limits on
the TCP traffic in QoS queue, as well as observe the interference in the delay on
UDP traffic.

Resumo. Este trabalho consiste empregar priorização de tráfego como um


aspecto de qualidade de serviço em SDNs realizando a classificação do tráfego
em 3 tipos de protocolos a nı́vel de aplicação. Para classificar os pacotes da rede
foi utilizada uma estrutura de árvore de decisão construı́da baseado em dados
de tráfego real. Os experimentos foram desenvolvidos utilizando o controlador
Ryu com OpenFlow e o simulador de rede Mininet. A partir disso, foi possı́vel
analisar a aplicabilidade dos limites da taxa máxima de largura de banda sobre
tráfego TCP, assim como observar a interferência no atraso sobre o tráfego UDP.

1. Introdução
Sabe-se que o principal objetivo das Redes Definidas por Software (Software Defined
Networking, SDN) é enfrentar os desafios já existentes em redes baseadas em IP, tal como
a identificação de fluxos de tráfego, que, dentre vários motivos, auxilia na precisão de
alocação de largura de banda aos fluxos sob demanda e, consequentemente, contribui
para melhoria da Quality of Service (QOS), além da possibilidade de análise e previsão
de padrões de tráfego normais e anômalos (na tentativa de prover algum aspecto de
segurança). Nesse sentido, a classificação de fluxos no intuito de prever padrões de
comportamento de aplicações tem sido objeto de estudo de pesquisas [Parsaei et al. 2017],
[Nanda et al. 2016].
A previsão de padrões de comportamento ainda enfrenta alguns obstáculos com
relação à precisão da classificação de tráfego, que, de acordo com [Silva et al. 2015] pode
ser por vários motivos: (i) existem perfis de tráfego muito semelhantes, o que dificulta
sua classificação, por exemplo, os fluxos HTTP e DNS são caracterizados por explosões
de pacotes; (ii) os recursos de fluxo nativo disponı́veis no OpenFlow, como o número
de pacotes e bytes, não transmitem informações suficientes para distinguir com precisão
alguns tipos de fluxos; e (iii) há uma falta de suporte para determinar qual é o conjunto
ótimo de recursos de fluxo para caracterizar diferentes tipos de perfis de tráfego.

17
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Para tanto, ao se fazer uma análise das técnicas de classificação já existentes,
podemos observar uma tendência na aplicabilidade de métodos baseados em técnicas
de aprendizado de máquina que se aproveitam das propriedades estatı́sticas do tráfego
[Namdev, Agrawal e Silkari 2015], devido às várias adversidades que podem ser encon-
tradas nos outros métodos, tais como: (i) a ineficácia em análise do número da porta, (ii)
o uso de técnicas que extraem a carga útil (payload ou área de dados) de pacotes e (iii)
métodos que baseiam-se em heurı́sticas de comportamento.
Desse modo, este trabalho busca verificar a eficácia de métodos que baseiam-se
em técnicas de aprendizado de máquina (aproveitando-se de propriedades estatı́sticas do
tráfego, extraı́das dos pacotes de um fluxo) em busca de um padrão de comportamento das
aplicações, para que a identificação/classificação de tráfego possa auxiliar na configuração
de parâmetros que otimize a o uso da largura de banda, dos recursos de rede, no proces-
samento do controlador e na priorização das classes de fluxos. Para isso, um cenário de
teste foi montado no simulador de rede Mininet1 , além do uso do controlador Ryu 2 para
validar regras ou ações que o switch OpenFlow deve tomar a partir de uma base dados com
tráfego classificado por classificador inteligente, isto é, um algoritmo de aprendizado de
máquina (Machine Learning, ML).
Este trabalho está organizado da seguinte maneira: a seção 2 apresenta uma breve
revisão sobre trabalhos relacionados ao tema deste artigo. Na seção 3 uma introdução sobre
virtualização de redes, o paradigma SDN, QoS no protocolo OpenFlow e a classificação
do tráfego utilizando técnicas de aprendizagem de máquina. Na seção 4 é explanado
o processo feito para a realização dos experimentos: a aquisição, pré-processamento e
classificação dos fluxos, além da preparação do ambiente SDN para simulação de tráfegos,
bem como, também é demonstrado uma simples implementação de um mecanismo de
priorização de tráfego. Os experimentos e a avaliação destes é apresentada na seção 5.
Na seção 6 são citadas as principais considerações e os direcionamentos para trabalhos
futuros.

2. Trabalhos relacionados

Tendo em vista que a identificação de fluxos de tráfego gerado entre aplicações é uma
atividade essencial para os mais diversos intuitos, inúmeros trabalhos têm considerado a
investida em técnicas de mineração de dados para uso de algoritmos de aprendizagem de
máquina em recursos de fluxos para classificação ou agrupamento (clustering) de tráfego,
incluindo tráfegos de ambientes descentralizados. Tais evidências podem ser vistas em:
[Li, Yuan e Guan 2007], [Filho, Ribeiro e Bessa 2011], [Markey e Atlasis 2011].
Classificação de tráfego é tema que pode ser discutido e posto em prática sob várias
perspectivas estratégicas. Tais estratégias são melhores discutidas em: [Wang e Yu 2009],
[Cui et al. 2014] e [Namdev, Agrawal e Silkari 2015]. Nesses trabalhos, são categorizados
opiniões de diversos estudos em termos da escolha de estratégias de classificação de
tráfego, dentre eles, o método de classificação baseada em portas e classificação baseada
em aprendizado de máquina (machine learning , ML).

1
Mininet: http://mininet.org/
2
Ryu: https://osrg.github.io/ryu/

18
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

3. Background
A. Virtualização de rede e Paradigma SDN
A virtualização de rede é uma técnica popular que permite que várias arquitetu-
ras de redes heterogêneas coexistam em uma infraestrutura compartilhada. Uma prática
comum de virtualização de rede é cortar uma rede fı́sica em múltiplas instâncias virtu-
ais e atribuı́-las a diferentes usuários, controladores ou aplicativos SDN, por exemplo
[Chowdhury e Boutaba 2009].
A Open Networking Foundation (ONF), ainda conceitua e divide a arquitetura SDN
em três planos principais em [ONF 2014], são eles:
• Plano de dados: é o plano inferior e consiste em dispositivos de rede, como
roteadores, switches fı́sicos/virtuais, ponto de acesso, etc. Estes dispositivos são
acessı́veis e gerenciados por meio de Controller-Data Plane Interfaces (C-DPIs)
pelo controlador (s) SDN.
• Plano do controlador: é composto por um ou mais controladores SDN baseados
em software para fornecer funcionalidade de controle supervisionando o comporta-
mento de encaminhamento de rede através do C-DPI. Um controlador consiste em
dois componentes principais: componentes funcionais e lógica de controle.
• Plano de aplicação: consiste em uma ou mais aplicações de rede (por exemplo,
segurança, visualização, etc.) que interagem com o(s) controlador(es) para utilizar
a visão abstrata da rede para seus processos internos de tomada de decisão. Essas
aplicações se comunicam com o controlador(es) através de um A-CPI aberto (por
exemplo, a API REST).
B. QoS no padrão OpenFlow
Para [Krishna, Adrichem e Kuipers 2016] o controle de QoS geralmente se refere
aos mecanismos usados em uma rede para garantir um determinado serviço da rede. Ao
usar o controle QoS e a noção relacionada de engenharia de tráfego, os administradores
de rede podem gerenciar seus recursos de forma mais eficiente e podem oferecer serviços
personalizados, sem ter que provisionar demais a rede.
Mesmo que tais dificuldades em garantir QoS persistam, no trabalho de
[Jeong et al. 2017], pode-se notar a evidência de melhoria na aplicabilidade do mesmo,
pois os resultados do experimento mostraram um aumento na vazão e uma redução de
atraso na transmissão de pacotes para os fluxos das aplicações identificadas, assim, o
sistema melhora o QoS dos fluxos identificados através da sua distribuição em várias filas
com diferentes prioridades em portas distintas (a classificação do tráfego se deu através de
DPI).
C. Classificação, aprendizagem de máquina e Output de resultados
De acordo com a definição de [Mitchell et al. 1997], para que se tenha um problema
de aprendizado bem definido, é necessário identificar três caracterı́sticas: a classe de
tarefas, a medida de desempenho a ser melhorada e a fonte de experiências. Tomando
como exemplo o problema da classificação proposta neste trabalho, distinguem-se estas
três caracterı́sticas da seguinte forma:
• Tarefa (T): identificar (classificar) tráfego;
• Medida de desempenho (D): quantidade de pacotes corretamente classificados e

19
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

• Experiência de treinamento (E): um banco de dados com fluxos de tráfegos correta-


mente rotulados.
Os principais algoritmos de aprendizado de máquina voltados à tarefa da
classificação podem ser divididos em duas classes principais, são elas:
• Aprendizado supervisionado: o algoritmo é capaz de aprender a partir de exemplos
que estão pré-classificados, ou seja, exemplos que estão corretamente rotulados
com uma classe conhecida. Exemplos: Naive Bayes e Árvores de Decisão.
• Aprendizado não supervisionado: algoritmo que não necessita de exemplos clas-
sificados. O que o algoritmo faz é agrupar instâncias semelhantes. Exemplo:
K-Means.
A tarefa de identificação do tráfego pode constituir-se em um problema de
classificação. Para tanto, alguns métodos foram criados ao longo dos anos, dentre eles:
métodos que usam portas conhecidas, métodos baseados em inspeção do payload ou Deep
Packet Inspection (DPI) e, recentemente, métodos que utilizam ML com uso de proprieda-
des estatı́sticas de tráfego (extraı́das do cabeçalho dos pacotes), esse último método possui
como vantagem o fato de identificar tráfegos anômalos, o que é vantajoso para área de
prevenção de ataques.
Um algoritmo ML constrói automaticamente um classificador, aprendendo a estru-
tura inerente de um conjunto de dados. Nesse contexto, a precisão do modelo classificador
gerado e os conhecimentos adquiridos a partir dele são para a construção de scripts ou re-
gras para serem implementadas em firewalls ou em programas como Snort3 , como sugerido
em [Markey e Atlasis 2011].

4. Implementação
A coleta, processamento e rotulação de fluxos, assim como a implementação da estrutura
de classificação no controlador está descrito em duas fases (Offline e Online), as quais
estão divididas em etapas. A Fig. 1 esboça como esses tais processos foram feitos:

Figura 1. Esquema representativo do experimento

3
Snort: https://www.snort.org/

20
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

4.1. Fase Offline: Aquisição, pré-processamento e classificação dos fluxos


Aquisição dos arquivos de rede (.pcap) para aprender o comportamento das aplicações,
se deu através de downloads nos repositórios de research PCAP datasets 4 pela FOI’s
Information Warfare Lab e de rastros do tráfego da rede da Internet5 pela Lawrence
Berkeley National Laboratory. Com os arquivos de rede baixados, iniciou-se o preparo
do mesmo para posterior retirada dos atributos (propriedades dos pacotes), para esse
processo deu-se o nome de “pré-processamento”. Para tanto, realizou-se utilizando as
ferramentas Wireshark6 v2.4.3, SplitCap7 v2.1 e uma aplicação em Java (criada com
auxı́lio da biblioteca Jpcap 8 v0.7).
Uma vez obtidos os valores do atributo, montou-se um conjunto de dados (dataset)
equivalente ao tráfego. Por fim, esse dataset fora submetido aos classificadores ML em
busca de padrões de comportamento.
Utilizamos o conjunto de dados rotulados como entrada para o software Weka9 ,
que é um software que contém uma coleção de algoritmos de ML para mineração de
dados. Para escolher o algoritmo de ML que será utilizado no classificador foram testadas
e comparadas as seguintes opções: Árvore J48 (algoritmo C45), Naive Bayes e Árvore
Randômica. Para avaliar cada algoritmo alguns aspectos foram escolhidos como: F-
measure ou F1 Score, porcentagem instâncias classificadas corretamente e área sob curva
ROC.
De acordo com a Tab.4.1 podemos ver que a Árvore J48 foi superior aos outros
algoritmos em todos os quesitos avaliados, tornando-se a escolha para implementação no
controlador SDN.
Tabela 4.1. Comparação entre algoritmos de classificação

Propriedade Árvore J48 Naive Bayes Árvores Randômicas


F-measure 0,991 0,749 0,986
Percentual instâncias classificadas corretamente 99,08 74,96 98,64
Área sob a curva ROC 0,997 0,936 0,992

4.2. Fase Online: Preparação do ambiente SDN & Emulação de tráfego:


Web(HTTP), DNS e FTP
O ambiente onde foram executados os experimentos foi construı́do tendo como base uma
máquina virtual sendo executada em um computador com as seguintes especificações:
sistema operacional Windows 10 64-bits, 12 GB de memória RAM DDR3, armazenamento
SSD 250GB, processador Intel i5 4200U. Nesta máquina virtual foram instalados o
software Mininet e a plataforma Ryu.
4
PCAP:ftp://download.iwlab.foi.se/dataset/smia2011/Network traffic/
5
LBNL-FTP-PKT:http://ee.lbl.gov/anonymized-traces.html
6
Wireshark: https://www.wireshark.org/
7
SplitCap:https://sourceforge.net/projects/splitcap/
8
Jpcap: https://sourceforge.net/projects/jpcap/
9
Weka:https://www.cs.waikato.ac.nz/ml/weka/

21
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

O código que define o comportamento do controlador foi desenvolvido em python


utilizando o controlador Ryu, para fins desse trabalho a principal função do controlador
é classificar os pacotes entre as classes HTTP, FTP e DNS, além de encaminhá-los para
filas definidas no switch. O controlador desenvolvido é capaz de detectar todos os pacotes
trafegados entre os hosts e realizar uma análise em cada pacote verificando propriedades.

5. Experimentos e resultados
Diante do ambiente de emulação proposto, alguns experimentos de avaliações foram
formulados, e para tanto, algumas medidas foram extraı́das com auxı́lio da ferramenta
Iperf 10 (v 2.3.0). Tais experimentos foram baseados em duas etapas:
(a) Na medição da largura de banda da rede sobre tráfego TCP
(b) Na medição do jitter da rede sob o tráfego UDP.
Nessas duas etapas, utilizou-se a a topologia linear com (29) switches Fig.2.

Figura 2. topologia linear dos switches

Além disso, (4) hosts clientes, responsáveis pela requisição, foram adicionados
para um switch da borda da topologia da rede. Assim como, do outro lado da borda,
adicionou-se 1 host servidor que fornece os respectivos serviços. O número de execuções
contabilizou 30 vezes. O intervalo das medições ocorreu entre (0∼15) segundos variando
a cada 1 segundo.
Depois da aplicação da regras de priorização de tráfego no switch pelo controlador,
realizou paralelamente as requisições, no host (h1) que pertence à classe (HTTP) com
largura de banda de (5∼6) Mbits/s, no host (h2), que pertence à classe (DNS) com o
largura de banda (3∼4) Mbits/s, no host (h3) pertencente à classe (FTP) com largura de
banda (1∼2) Mbits/s e do host (h4) pertencente à classe melhor esforço com largura de
banda (0∼1) Mbits/s.
Com base nessa estrutura, foram extraı́dos o consumo de largura de banda dos
quatros diferentes fluxos TCP gerados pelos hosts como mostra na Fig.3.
10
Iperf: https://iperf.fr/

22
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Figura 3. Média da utilização da largura de banda sob tráfego TCP

Na Fig. 3 averigua-se, em média, que há um aumento no consumo na largura de


banda nos tráficos de priorização (HTTP, DNS, FTP) em comparação ao melhor esforço
(BE).
No segundo momento, foram computados o jitter dos quatros diferentes fluxos
UDP gerados pelos hosts como mostra na Fig.4.
Na Fig. 4 observa-se que a uma degradação sob jitter sob fluxo UDP nos por conta
de aplicação priorização (h1, h2, h3) em comparação ao sem priorização.

6. Conclusão e Trabalhos Futuros


Neste trabalho verificou-se um comparatiovo da eficácia de métodos que baseiam-se
em técnicas de aprendizado de máquina, aproveitando-se de propriedades estatı́sticas do
tráfego, (extraı́das dos pacotes de um fluxo) em busca de um padrão de comportamento das
aplicações para que a identificação/classificação de tráfegoo possa auxiliar na configuração
de parâmetros que otimize a largura de banda, do gerenciamento dos recursos de rede e em
termos de processamento e memória na priorização das classes de fluxo no controlador em
SDN.
Nos resultados preliminares obtidos dos experimentos, observou-se uma aumento
tanto para consumo de largura de banda sob tráfego TCP quanto para tempo de jitter para
o tráfego UDP.

Figura 4. Média do jitter sob tráfego UDP

23
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Dentre as etapas futuras que se propõem para evolução deste trabalho, destacam-se:

• Modificar os atributos na construção da árvore de decisão para aumento de confia-


bilidade na classificação;
• Aumentar o número de classes para aumentar a variabilidade e assim atender o
controle diversos protocolos a nı́vel de aplicação da rede;
• Aumentar a escalabilidade (host e switch) da rede do cenário;

Referências
CHOWDHURY, N. M. K.; BOUTABA, R. Network virtualization: state of the art and
research challenges. IEEE Communications magazine, IEEE, v. 47, n. 7, 2009.
CUI, H. et al. Design of intelligent capabilities in sdn. In: IEEE. Wireless Communications,
Vehicular Technology, Information Theory and Aerospace & Electronic Systems (VITAE),
2014 4th International Conference on. [S.l.], 2014. p. 1–5.
FILHO, R. H.; RIBEIRO, V. P. de A.; BESSA, J. E. Classificação online dos tráfegos tcp e
udp baseada em sub-fluxos. 2011.
JEONG, S. et al. Application-aware traffic engineering in software-defined network. In:
IEEE. Network Operations and Management Symposium (APNOMS), 2017 19th Asia-
Pacific. [S.l.], 2017. p. 315–318.
KRISHNA, H.; ADRICHEM, N. L. van; KUIPERS, F. A. Providing bandwidth guarantees
with openflow. In: IEEE. Communications and Vehicular Technologies (SCVT), 2016
Symposium on. [S.l.], 2016. p. 1–6.
LI, Z.; YUAN, R.; GUAN, X. Accurate classification of the internet traffic based on the
svm method. In: IEEE. Communications, 2007. ICC’07. IEEE International Conference
on. [S.l.], 2007. p. 1373–1378.
MARKEY, J.; ATLASIS, A. Using decision tree analysis for intrusion detection: a how-to
guide. SANS Institute InfoSec Reading Room, 2011.
MITCHELL, T. M. et al. Machine learning. 1997. Burr Ridge, IL: McGraw Hill, v. 45,
n. 37, p. 870–877, 1997.
NAMDEV, N.; AGRAWAL, S.; SILKARI, S. Recent advancement in machine learning
based internet traffic classification. Procedia Computer Science, Elsevier, v. 60, p. 784–
791, 2015.
NANDA, S. et al. Predicting network attack patterns in sdn using machine learning
approach. In: IEEE. Network Function Virtualization and Software Defined Networks
(NFV-SDN), IEEE Conference on. [S.l.], 2016. p. 167–172.
ONF, O. N. F. SDN architecture. 2014. Disponı́vel em:
<https://www.opennetworking.org/images/stories/downloads/sdn-resources/technical-
reports/TR SDN ARCH 1.0 06062014.pdf>.
PARSAEI, M. R. et al. Network traffic classification using machine learning techniques
over software defined networks. International Journal of Advanced Computer Science and
Applications, SCIENCE & INFORMATION SAI ORGANIZATION LTD 19 BOLLING
RD, BRADFORD, WEST . . . , v. 8, n. 7, p. 220–225, 2017.

24
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

SILVA, A. S. D. et al. Identification and selection of flow features for accurate traffic
classification in sdn. In: IEEE. Network Computing and Applications (NCA), 2015 IEEE
14th International Symposium on. [S.l.], 2015. p. 134–141.
WANG, Y.; YU, S.-Z. Supervised learning real-time traffic classifiers. Journal of networks,
v. 4, n. 7, p. 622–629, 2009.

25
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Implementação de um Cluster Beowulf utilizando o


framework Warewulf

Ludivan Bento Brandão, João Paulo de Brito Gonçalves, Paulo José Pereira de Oliveira

Instituto Federal do Espírito Santo - Campus Cachoeiro de Itapemirim


Caixa Postal 727 - CEP: 29.300-970 - Esp´ırito Santo - Cachoeiro de Itapemirim - ES - Brazil

ludivanldv@gmail.com, jpaulobg@ifes.edu.br, paulojoseo@gmail.com

Abstract. The evolution speed and use of computers has been growing very ra-
pidly with the passing of the years, with this also comes the need of processing
for quickly answers for evolutionary needs, such as financial or scientific cal-
culations.With Clustering even old machines can be maintained in use, impro-
ving the computational performance of a academic or corporate environment
through the sharing of resources within a local area network.In view of this, the
objective of this work is to construct a Cluster following the Beowulf standard,
achieving a performance gain using common computers.

Resumo. A velocidade de evolução e uso de computadores vem crescendo muito


rapidamente com o passar dos anos, com isso, também vem a necessidade de
processamento para respostas rápidas às necessidades evolutivas, tais como
cálculos financeiros ou cientı́ficos. Com a clusterização é possı́vel manter
máquinas antigas em uso, melhorando a performance computacional de um
ambiente corporativo ou acadêmico por meio do compartilhamento de recursos
dentro de uma rede local. Tendo em vista isso, o objetivo desse trabalho, e´im-
plementar um cluster Beowulf, conseguindo com isso um ganho de performance
utilizando computadores comuns .

1. Introdução
É indubitável que a tecnologia possui uma grande importância na forma de economia
atual, sendo necessário por conta disso que as empresas se mantenham o mais informa-
tizadas possı́vel, o que implica em um caráter cada vez mais informacional no perfil de
empregos, que por consequência demonstra também uma necessidade tecnológica que dê
suporte a toda essa evolução e mudança na forma de trabalho, e que se dá desde o começo
da era do conhecimento [Lastres et al. 1999].
Em 2011 foi verificado que no Brasil 27% do PIB vem de micro e pequenas
empresas, sendo que o fator decisivo para diferenciar micro e pequenas empresas de
uma grande se dá pela sua receita auferida ou número de pessoas ocupadas na empresa
[SEBRAE 2014]. Visando seguir os avanços tecnológicos, uma pequena empresa pode-
ria se beneficiar do uso de clusterização para ganho de processamento e economia na
aquisição de novos computadores.
Cluster é uma palavra de origem inglesa que significa “aglomerado” em português é
usada para se referir a um aglomerado de coisas semelhantes [Priberam 2017].
Em computação, cluster é uma forma de processamento distribuı́do que se tornou
popular devido a relação preço/performance, pois é uma forma atrativa de se construir um
26
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

supercomputador utilizando tecnologias relativamente baratas em uma rede de alta velo-


cidade, tendo como objetivo um conjunto de computadores realizando um processamento
como se fosse um só [Tanenbaum and Van Steen 2007].
Algumas das principais razões para a utilização de clusters são: a evolução dos
computadores pessoais (com processadores cada vez mais velozes), a evolução das tecno-
logias de redes locais, normalização das ferramentas para arquiteturas de clusters e o fato
de serem alternativas mais baratas que os supercomputadores proprietários tradicionais
[Roncolato et al. 2018 ].
Além do uso em computação para cálculos científicos, a área de clusterização
tem vivenciado uma renovação por conta do seu uso em áreas recentes que demandam
intenso poder computacional, como Big Data, Data Science e Mineração de
Criptomoedas. Em comum em todas estas áreas, está a necessidade de realizar
processamento sobre grandes volumes de dados no menor tempo possível, tornando o
uso de clusters de alto desempenho uma opção recomendada. Inclusive, tem-se
observado a criação de clusters de máquinas virtuais para acesso remoto em plataformas
de computação em nuvem, aliando-se a clusterização à outro novo paradigma da
tecnologia.
Este artigo está organizado da seguinte forma: na seção 2 será feito uma
introdução ao Padrão Beowulf e ao framework Warewulf [Warewulf 2015]. Na seção
3 será descrita a implementação do cluster. A seção 4 tratará dos testes de desempenho
realizados e resultados coletados e por fim, na seção 5 apresentaremos as considerações
finais.

2. Cluster Beowulf
Em 1983, a ARPA (atualmente conhecida como DARPA) lançou uma iniciativa para finan-
ciar a criação de computadores escaláveis e paralelos, diversas startups foram iniciadas e
tentaram criar diferentes tipos de computadores paralelos, todos esses esforços falharam,
mas em 1993, Tom Sterling e Don Becker lideraram um pequeno projeto com a NASA
para construir uma potente estação de trabalho custando menos de US$ 50.000. O projeto
Beowulf era baseada na comodidade, computadores comuns e softwares disponíveis ao
público, o projeto foi um sucesso, em 1994 foi montado um cluster de 16 nós, custando
US$ 40.000 e utilizando computadores intel 486, com isso, a clusterização Beowulf re-
cebeu em 1997 o premio Gordon Bell pela relação performance/preço. [Sterling 2002]
Com isso, o Beowulf criou uma cultura de computação em cluster que permitia a
qualquer pessoa capacitada a montagem de um cluster.
Um Cluster Beowulf tem como foco o ganho de processamento, podendo ser clas-
sificado como um cluster de alto desempenho (High Performance Cluster), são carac-
terísticas deste tipo de cluster [Ridge et al. 1997]:
• a utilização de componentes não customizados (hardware comum)
• processadores dedicados
• uma rede privada (rede local por exemplo)
• uma base de softwares disponibilizados gratuitamente

2.1. Componentes

27
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Um cluster padrão Beowulf pode ser visto como um sistema composto de 4 grandes com-
ponentes, dois de hardware e dois de software [Sterling 2002]. Os dois componentes de
hardware são: os computadores, que serão chamados de nós dentro do sistema, e a rede
que conecta esses nós. Os dois componentes de software são: as ferramentas utilizadas
para desenvolver aplicações paralelas como: MPI (Message Passing Interface), sockets e o
ambiente de aplicações responsáveis por gerenciar os recursos para a computação (Mid-
dleware).
Todos os componentes são fundamentais para o funcionamento do cluster, já que
o hardware provê a infraestrutura e o software provê a gerência do sistema, de forma
que uma aplicação paralelizada utilizando MPI pode ser desmembrada em vários
componentes que são alocados aos diversos processadores que compõem o cluster.
Em um cluster Beowulf existem dois tipos de nós, o nó mestre e os nós escravos,
como pode ser visto na figura 1.

Figura 1. Adaptação estrutura de um cluster Beowulf. Fonte: [Gianni 2012]

28
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

2.2. Warewulf
Warewulf é um kit de ferramentas de gerenciamento desenvolvido originalmente para
facilitar o desenvolvimento de grandes infraestruturas de clusters. Atualmente e´ uma
solução que implementa um armazenamento de dados abstrato e orientado a objetos, com
uma interface modular; sendo uma plataforma de código aberto.
Dentre os objetivos do projeto esta: ser balanceado, prover à administradores,
engenheiros, cientistas e provedores de serviços uma plataforma de gerenciamento que
facilite seus requisitos, suporte a milhares de nós, estar oculto do sistema operacional ao
invés de ser um componente integral, fácil de instalar e usar e estar aberto à contribuições
do público [Warewulf 2015].
Com o Warewulf, a implementação de um cluster se torna mais simples, é possı́vel
automatizar a adição de nós, e a gerência do cluster se torna mais centralizada, uma vez
que o sistema operacional provisionado aos nós escravos se encontra no mestre, e é pro-
visionado aos demais nós de forma stateless.

2.2.1. Sistema Operacional e Aplicações

O sistema operacional selecionado para a implementação do Cluster foi o CentOS 6. A


escolha do CentOS se deu pelo fato do framework Warewulf ser desenvolvido e testado
em distribuições baseadas no Red Hat Enterprise Linux, além de que essas distribuições
também são populares em servidores. A versão utilizada será a 6, o motivo da escolha foi
por conta do warewulf ter sido desenvolvido e testado nessa versão.
As principais aplicações necessárias para a implementação foram: ser-
vidor MySQL [MySQL 2018], servidor web Apache [Apache 2018a], servidor DHCP
[University 2018], servidor TFTP [TandemSystems 2018], módulos Perl [Apache
2018b], Network File System (NFS) [Jones 2018].

2.2.2. Hardware

Para a criação do cluster, foram utilizados 3 computadores disponibilizados pelo núcleo


de pesquisa do Instituto Federal do Espírito Santo, Campus Cachoeiro de Itapemirim,
suas especificações podem ser visualizadas na figura 2 e tabela 1:

Figura 2. Estrutura do Cluster Implementado


29
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Tabela 1. Especificações das máquinas utilizadas para implementação do cluster


Fonte: autor

3. Implementação

Após a instalação dos softwares listados na seção 2.2.1., o Warewulf foi configurado no
computador mestre, sendo assim, foi criado uma base de dados no servidor MySQL, para
abrigar informações sobre os objetos utilizados pelo cluster (máquinas, arquivos, etc.).
Após isto foi configurado o repositório do Warewulf e instalados os pacotes Warewulf
Common, Warewulf Provision,Warewulf Provision Server e Warewulf VNFS; após isso os
arquivos database.conf, database-root.conf e provision.conf foram configurados. O
Warewulf foi implementado de forma stateless, sendo assim, foi criado um diretório
chroot e a imagem VNFS, assim como o arquivo de bootstrap, para que a imagem do
sistema operacional fique disponível no computador mestre e possa ser acessado nos nós
escravos.
Após a preparação e configuração dos arquivos do Warewulf, o sistema pode então
receber a adição de nós. O processo de inclusão de nós ao cluster envolve inicialmente a
criação de uma rede interna entre os computadores integrantes e a configuração de rede
do computador mestre de forma manual. A inserção de novos computadores pode ser
feita de forma manual ou automática, na qual é feita uma varredura na rede em busca de
máquinas disponı́veis. Nesta implementação em particular foi feita a inserção manual,
por conta de existirem poucos computadores a serem incluídos.

4. Testes e Resultados
Com o cluster implementado, foram realizados alguns testes para validar a implementação
e ganho do desempenho do mesmo. Para isso foi utilizado uma suite de ferramentas
para testes de clusters de alta performance, desenvolvida pela NASA, o NAS Parallel
Benchmarks (NPB) [NASA 2017].

4.1. NAS Parallel Benchmarks (NPB)


NPB e´ composto de pequenos conjuntos de programas criados para ajudar a ava-
liar a performance de supercomputadores paralelos e ele é derivado de aplicações de
Fluidodinâmica computacional (CFD) consistindo de 5 kernels e 3 pseudo-aplicações
[NASA 2017].
O componente utilizado para o teste foi a pseudo-aplicação Lower-Upper Gauss-
Seidel solver (LU). Esse componente é baseado no método de Gauss-Seidel, que é uma
técnica para resolver as n equações de um sistema linear de equações uma de cada vez em
sequência [Weisstein 2002].

30
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Nesse método, cada componente de uma nova iteração depende de todos os com-
ponentes computados anteriormente, e cada nova iteração depende da ordem que as
equações são examinadas, se essa ordem é diferente, a nova iteração também é diferente.
O NPB possui quatro classes de teste:
• Classe S - Classe com o objetivo de testes rápidos.
• Classe W - Pequenas estações de trabalho.
´
• Classe A, B e C - Testes de problemas de tamanho medio, cada classe possui um
acréscimo de tamanho de aproximadamente 4 vezes em relação a anterior.
• Classe D, E e F - Testes de problemas de tamanho maior, possui um acréscimo de
tamanho entre cada classe, de aproximadamente 16 vezes de cada classe anterior.
Para esse artigo, foram realizados 9 testes utilizando a pseudo aplicação LU de
classe C, com dimensão de 162 x 162 x 162 e 250 iterações; os testes utilizaram 1, 12 e
24 processadores, sendo que os 3 computadores possuı́am 12 núcleos fı́sicos, e 24 quando
acrescidos núcleos fı́sicos e virtuais.

Figura 3. Resultados teste LU Classe C. Fonte: autor

Tabela 2. Resultados teste LU Classe C. Fonte: autor

4.2. Resultados

Cada teste foi realizado 3 vezes, e os resultados demonstraram o ganho de processamento


com o acréscimo de processadores, como pode ser visto na tabela 2 e gráfico 1.

31
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Esses resultados demonstram uma melhora do tempo de execução de aproxima-


damente 75,122% comparando a média do melhor resultado (12 núcleos paralelizados)
e o pior resultado (1 único núcleo); um valor satisfatório, uma vez que em um teste LU
de classe B, o supercomputador vetorial Cray C-90 e o supercomputador massivamente
paralelo Cray T3D tiveram uma melhora de aproximadamente 92,043% comparando 16
núcleos com 1 núcleo (Cray C-90), e aproximadamente 65,691% comparando 256 e 32
núcleos (Cray T3D) [Bailey et al. 1992].
Entretanto, houve uma perda no cluster de aproximadamente 10,99% ao se com-
parar 12 núcleos com 24 núcleos; isso se dá, devido ao fato de que os computadores
utilizados possuem 12 núcleos fı́sicos, e mais 12 núcleos virtuais (Intel Hyper-Threading)
[Intel 2018], por conta disso, nos testes executados o número de núcleos virtuais se mos-
trou irrelevante, tendo causado inclusive uma pequena degradação de desempenho, devido
ao fato de que nem todas as aplicações se beneficiam da tecnologia de Hyper-Threading
da intel [ARC 2018].

5. Considerações Finais

A implementação de um cluster seguindo o padrão beowulf, permitiu o reaproveitamento


de máquinas comuns, com uma implementação utilizando apenas ferramentas de código
aberto, tendo como custos apenas os dispositivos de hardware utilizados, como cabea-
mento, switch, etc.
A implementação foi mais simples graças a utilização do framework Warewulf,
que simplifica e centraliza a implementação, gerência, e adição de nós ao cluster.
Para a validação do cluster foram realizados testes que tinham como objetivo veri-
ficar o ganho de desempenho. Os testes foram realizados por meio do software de bench-
mark Nas Parallel Benchmarks (NPB), utilizando a pseudo-aplicação LU (Lower-Upper
Gauss-Seidel), uma aplicação baseada no método de Gauss-Seidel; sendo escolhido como
tamanho do teste a classe C, sendo ele o maior problema de tamanho médio.
Os resultados atestam a melhora no desempenho do cluster com a adição de mais
núcleos de processamento executando em paralelo, comprovando que é possı́vel imple-
mentar supercomputadores de uma forma muito mais acessível, utilizando computadores
comuns e ferramentas de código aberto.
Como trabalhos futuros, podemos citar a adição de mais nós ao cluster para aumentar
seu poder computacional e validar sua utilidade em projetos de Big Data ou Data Science.

Referências

Apache (2018a). Apache http server project, https://httpd.apache.org/. Acesso em 03 de


março de 2018.
Apache (2018b). Welcome to the mod perl world, https://perl.apache.org/. Acesso em 03
de março de 2018.
ARC (2018). Running mpi applications, http://www.arc.ox.ac.uk/content/how-run-mpi-
applications. acesso em 02 de março de 2018.
Bailey, D. H., Dagum, L., Barszcz, E., and Simon, H. D. (1992). Nas parallel benchmark
results. In Proceedings of the 1992 ACM/IEEE conference on Supercomputing, pages
386–393. IEEE Computer Society Press.
32
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Gianni (2012). ”cluster beowulf”, http://nosequenombreponerle-


gianni.blogspot.com.br/2012/03/cluster-beowulf.html. Acesso em 16 de janeiro
de 2018.
Intel (2018). Tecnologia hyper-threading intel,
https://www.intel.com.br/content/www/br/pt/architecture-and-technology/hyper-
threading/hyper-threading-technology.html. Acesso em 04 de março de 2018.
Jones, M. T. (2018). Network file system (nfs),
https://www.ibm.com/developerworks/library/l-network-filesystems/index.html.
Acesso em 03 de março de 2018.
Lastres, H. M., Albagli, S., et al. (1999). Informação e globalização na era do conheci-
mento. Rio de Janeiro: Campus, page 163.
MySQL (2018). Mysql, https://www.mysql.com/. Acesso em 03 de março de 2018.
NASA (2017). Nas parallel benchmarks, https://www.nas.nasa.gov/publications/npb.html.
acesso em 04 de outubro de 2017.
Priberam (2017). ”cluster”, http://www. priberam. pt/dlpo/cluster. Acesso em 16 de ja-
neiro de 2018.
Ridge, D., Becker, D., Merkey, P., and Sterling, T. (1997). Beowulf: harnessing the power
of parallelism in a pile-of-pcs. In Aerospace Conference, 1997. Proceedings., IEEE,
volume 2, pages 79–91. IEEE.
Roncolato, F. J. et al. (2018) Otimização de suprimentos de tecnologia
da informação por meio da implementação de cluster computacional na
uftm, http://bdtd.uftm.edu.br/handle/tede/75. Acesso em 13 de março de 2018.

SEBRAE (2014). ”Participação das micro e pequenas empresas na economia Brasi-


leira”, https://m.sebrae.com.br/Sebrae/Portal%20Sebrae/Estudos%20e%20Pesquisas/
Participacao%20das%20micro%20e%20pequenas%20empresas.pdf. Acesso em 16 de
janeiro de 2018.
Sterling, T. L. (2002). Beowulf cluster computing with Linux. MIT press.
TandemSystems (2018). Tftp protocol, http://www.tftp-server.com/tftp-server-help/tftp-
protocol.html. Acesso em 03 de março de 2018.
Tanenbaum, A. S. and Van Steen, M. (2007). Distributed systems. Prentice-Hall.
University, I. (2018). What is dhcp?, https://kb.iu.edu/d/adov. Acesso em 03 de março de
2018.
Warewulf (2015). Página Oficial, http://warewulf.lbl.gov/trac. Acesso em 16 de janeiro
de 2018.
Weisstein, E. W. (2002). Gauss-seidel method.

33
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

O problema da cobertura por vértices parametrizado:


redução do tempo computacional em grafos Power Law
Edgar De Oliveira Cabral Filho
1
Centro Universitário Campos de Andrade - UniAndrade, departamento de Computação.

Abstract. A graph can represent various natural and digital systems, such as:
social networks, digital connections, among others. Those networks contain
diverse characteristics, which one of these is the degree of the distribution of
the vertices. Many graphs of the real world have in their structure a degree
of distribution following a power-law. Within the algorithmic classic problems,
we are interested in computationally difficult problems to be solved and which
belong to the NP-Hard class, specifically the problem of minimum vertex cover
in graphs, that have a power-law degree distribution. Thus, this work presents a
method based on reduction rules to the core of the problem. The achieved results
indicate that it is a good approximation heuristic from the optimal solution, in
addition to be a technique that a significantly reduces on the computational time
to solve the problem of minimum vertex cover.
Keywords: Vertex Cover, reduction rules, Power Law.

Resumo. Um grafo pode representar diversos sistemas naturais e digitais como


redes sociais, conexões digitais, entre outras. Essas redes contêm diversas ca-
racterı́sticas, uma dessas é a distribuição de grau dos vértices. Muitos grafos
do mundo real apresentam em sua estrutura uma distribuição de grau que se-
gue uma Power Law. Dentro dos problemas clássicos algorı́tmicos, estamos
interessados em problemas computacionalmente difı́ceis de serem resolvidos e
que pertencem à classe NP-Difı́cil, especificamente o problema da cobertura
por vértices mı́nima em grafos que apresentam uma distribuição de grau Power
Law. Assim, é apresentado neste artigo um método inspirado em regras de
redução ao núcleo do problema. Os resultados obtidos sugerem ser uma boa
heurı́stica de aproximação da solução ótima, além de reduzir significativamente
o tempo computacional na resolução do problema da cobertura por vértices.
Palavras-chave: Cobertura por Vértices, Regras de redução, Lei de Potência.

1. Introdução
Dentre os problemas que podem ser resolvidos utilizando grafos, estão os problemas
de otimização. Problemas de otimização são amplamente estudados devido à sua im-
portância em aplicações práticas. Alguns destes problemas pertencem à classe de com-
plexidade NP-Difı́cil e o grau de dificuldade em conseguir resolvê-los de forma ótima é
alto (supondo P 6= N P ).
Os problemas pertencentes a classe NP-Difı́cil tornaram-se objeto de estudo den-
tro da teoria da complexidade parametrizada. Esta teoria [Downey and Fellows 2012]
estuda problemas considerados intratáveis, no que se refere a complexidade clássica com-
putacional, remodelando a abordagem no tratamento desses problemas difı́ceis. A remo-
delagem que esta teoria traz remove parcialmente a exponencialidade da complexidade

34
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

do problema original, confinando a exponencialidade a um parâmetro contido na entrada


do problema, ao invés da exponencialidade ser em relação à todo o tamanho da entrada,
permitindo assim soluções exatas com baixo custo computacional.
Este artigo aborda o problema da cobertura por vértices mı́nima, que busca encon-
trar a menor cobertura por vértices, dentro de um grafo com distribuição de grau Power
Law, utilizando recursos da teoria da complexidade parametrizada. O problema da co-
bertura por vértices faz parte da classe NP-Difı́cil, apresentado por Karp [Karp 1972] em
1972.
Grafos que contém uma distribuição de grau Power Law podem ser observa-
dos em redes, como redes sociais, citações em artigos, a rede WWW entre outras
[Barabási et al. 2009]. Com relação à sua distribuição dos graus, podemos informalmente
dizer que em tais grafos, poucos dos seus vértices contém grau alto chamados de hubs,
enquanto em vários outros vértices o grau é extremamente baixo.
2. Conceitos preliminares
2.1. Cobertura por vértices
A cobertura por vértices é um importante problema com muitas aplicações no mundo real
[Cai et al. 2013]. Podemos definir uma cobertura por vértices como:
Dado um grafo não direcionado G = (V, E), uma cobertura por vértices é um
subconjunto de vértices S tal que, para cada aresta (u, v) ∈ E, u ∈ S, ou v ∈ S (ou
ambos). O tamanho da cobertura por vértices é o número de vértices em S.
A cobertura é um conjunto de vértices, em que cada aresta do grafo é incidente a
pelo menos um vértice do conjunto. As duas versões mais conhecidas para o problema da
cobertura por vértices são a de decisão e a de minimização (otimização).
Na complexidade computacional um subconjunto da classe NP é o conjunto NP-
Completo, que informalmente são problemas pelo menos tão difı́ceis quanto qualquer
outro problema na classe NP [Cormen 2009], o problema de decisão da cobertura por
vértices é um problema NP-completo [Karp 1972].
Uma cobertura de vértices de tamanho mı́nimo, é chamada de cobertura ótima. O
problema da cobertura por vértices mı́nima é NP-difı́cil [Karp 1972, Cormen 2009].
Algoritmos para o problema de otimização se dividem em dois tipos: algoritmos
exatos e algoritmos heurı́sticos.
Nosso trabalho se baseia na utilização de uma heurı́stica, uma vez que este tipo
incluı́ diversas estratégias que podem não garantir uma solução ótima, mas encontra
soluções quase ótimas ou satisfatória para instâncias grandes e difı́ceis, dentro de um
tempo computacional razoável [Cai et al. 2013].
2.2. Complexidade parametrizada
A teoria da complexidade parametrizada introduz a noção de tratabilidade por parâmetro-
fixo na remodelagem de alguns problemas difı́ceis, removendo a exponencialidade da
complexidade do problema que era em relação ao tamanho da entrada e confinando-a no
tamanho do parâmetro. O parâmetro é uma parte da entrada. O uso desta teoria permite a
obtenção de soluções exatas com baixo custo computacional.
Desta forma, parte-se do pressuposto que problemas são intratáveis quando con-
siderados em seu contexto clássico da complexidade computacional, mas podem ser
tratáveis se considerarmos algum certo parâmetro que não seja o tamanho da entrada
[Downey and Fellows 2013].

35
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

O parâmetro de um problema está relacionado à natureza deste problema a ser


resolvido, por exemplo: no problema da cobertura por vértices de um grafo com tamanho
n. O parâmetro k representa a quantidade de vértices pertencentes à cobertura.
É importante notar que um parâmetro pode ser um agregado de informações. O
parâmetro fornece uma maneira sistemática de especificar restrições da distribuição, na
esperança de um “acordo bem sucedido com o diabo” [Downey and Fellows 2012]. Este
acordo procura entender como as diferentes partes da entrada contribuem para a com-
plexidade total do problema, gerando um “bom” e “mau” comportamento. Por “bom”
comportamento, entende-se que a parte principal da entrada é resolvida em tempo polino-
mial, enquanto um “mau” comportamento é a parte mais difı́cil da instância, na qual não
há como fugir do tempo de execução exponencial.
Desta forma, é possı́vel desenvolver algoritmos que gastam tempo polinomial
em relação à parte principal da entrada, restringindo a exponencialidade somente no
parâmetro e não na instância toda.
Um problema parametrizável é um conjunto L ⊆ Σ∗ × Σ∗ , onde Σ é um alfabeto
fixo. Se o par (x, y) ∈ L, então chamamos x de instância (ou parte principal) do problema
parametrizável e y de parâmetro do problema. [Hanashiro 2004]
Para formalizar a noção de exponencialidade confinada ao parâmetro, temos:
Um problema parametrizável L ⊆ Σ∗ × Σ∗ é tratável por parâmetro-fixo se
existe um algoritmo que, dada uma entrada (x, y) ∈ L, resolve o problema em tempo
O(f (k)nα ), onde n é o tamanho da parte principal da entrada x, ou seja, |x| = n; k é o
tamanho do parâmetro y, ou seja, |y| = k, α é uma constante (independente de k), e f
é uma função arbitrária. [Downey and Fellows 2013] O que diz respeito a generalizar a
noção clássica de tempo polinomial versus tempo exponencial, pela definição acima é:
(1) a função arbitrária f (k) pode contribuir de forma exponencial para a com-
plexidade total do problema. (2) a parte principal da entrada do problema, contribui
polinomialmente na complexidade total com nα , conforme a complexidade clássica, onde
o valor de α é constante. (3) A conexão entre estas duas contribuições é especificada pela
multiplicação, gerando uma complexidade total de f (k)nα .
A propriedade (3) acima pode ser representada sem ser inalterada por, f (k) +
nα , uma vez que executamos primeiramente as regras de redução ao núcleo e após
a redução da instância, chamamos um algoritmo guloso para finalizar o processo
[Downey and Fellows 2013].
Existem dois métodos que são mais utilizados ao projetar algoritmos FPT, a
árvore limitada de busca, e a redução ao núcleo do problema. Em [Cheetham et al. 2003]
estes métodos são explicados, neste artigo focamos no método da redução ao núcleo do
problema.
A Redução ao núcleo do problema tem como objetivo reduzir, em tempo polino-
mial uma instância I de um problema parametrizável, para uma instância I 0 , onde seu
tamanho é limitado por uma função do parâmetro k. Se uma solução de I 0 é encontrada,
então ela pode fazer parta da solução de I.
2.3. Grafos power law
O estudo de grafos com distribuição de grau de Power Law iniciou-se na década de 90 com
pesquisas realizadas por Kumar e Kleinberg [Kleinberg et al. 1999]. Nestas pesquisas,
mediram a distribuição de grau da World Wide Web. Os autores, observaram de forma
independente que a sequência de grau é bem próxima a uma distribuição Power Law.

36
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

No contexto da teoria dos grafos podemos definir grafos com distribuição de


Power Law:
Um grafo respeita a distribuição de Power Law se a fração de vértices com grau i
é igual a αi−β para algum α e β constante e maior que 1.
Ao plotarmos a distribuição de grau de um grafo considerado complexo, obtemos
um gráfico com uma distribuição de cauda longa (Long-tail distribution). A detecção
de uma distribuição de grau Power Law não é simples, pois existem variações que ocor-
rem na distribuição da cauda longa [Clauset et al. 2009]. Para conseguirmos olhar uma
distribuição de grau Power Law, precisamos plotar o grafo na escala log-log.
Autores como [Clauset et al. 2009] e [Virkar et al. 2014] apresentam métodos
elaborados que garantem maneiras mais eficientes de identificar se um grafo contém
distribuição Power Law.
Na literatura [Shen et al. 2012, Gast et al. 2012, Gast and Hauptmann 2014,
Aiello et al. 2001], muitos resultados experimentais sobre grafos aleatórios com Power
Law sugerem que os problemas podem ser mais facilmente resolvidos por causa da carac-
terı́stica da distribuição de grau dos vértices, onde poucos vértices contém graus extrema-
mente altos, enquanto muitos outros contêm grau baixo.
3. Algoritmos Utilizados
3.1. Regras de redução ao núcleo para a cobertura por vértices
As regras de redução ao núcleo a seguir foram apresentadas por [Abu-Khzam et al. 2004].
Estas regras exigem custo O(n2 ), aplicadas num grafo não direcionado com n vértices.
Regra 1: Existindo um vértice de grau 0, ele não pode estar na cobertura ótima,
uma vez que não existe nenhuma aresta incidente nele. Seja C o conjunto de todos os
vértices isolados de G, o tamanho do grafo passa a ser n = n − |C|. Aplica-se esta regra
até que não exista nenhum vértice de grau 0.
Regra 2: Dado um vértice de grau 1, existe uma cobertura ótima que não contém
este vértice, mas contém o seu vizinho. Seja o vértice u de grau 1 e seu vizinho v, a
aresta uv estará coberta, caso o vértice u, ou v esteja na cobertura. Caso a cobertura
ótima seja constituı́da pelo vértice u, não há problema em trocá-lo pelo vértice v, uma
vez que o tamanho da cobertura ótima continuará a mesma. Repete-se esta regra até
que todos os vizinhos dos vértices de grau 1 sejam inseridos na cobertura e suas arestas
incidentes removidas. Esta regra pode gerar novos vértices isolados que são eliminados
sobre a regra 1, reduzindo assim n pelo número de vértices removidos pela regra 1 mais os
vértices inseridos na cobertura. Seja S o conjunto formado por todos os vértices inseridos
na cobertura, e C o conjunto de todos os vértices isolados de G, após a aplicação da regra
2, o grafo resultante passa a ter o tamanho de n = n − |C| − |S|, isto após a primeira
iteração. Na prática essa regra é executada até não existir vértices de grau 1.
Regra 3: Se existe um vértice u de grau dois, com vizinhos v e w adjacentes,
então há uma cobertura ótima que inclui ambos os vizinhos deste vértice. Se u é um
vértice de grau 2 e v e w são os seus vizinhos, para cobrir as arestas, (u, v), (u, w) e
(v, w) de forma ótima, dois dos três vértices devem estar na cobertura. Ao escolher os
vértices u e v, todas as arestas estarão cobertas, o mesmo se aplica ao escolher os vértices
u e w. Mas, trocando o vértice u por um de seus vizinhos, v ou w (caso algum não tenha
sido escolhido para a cobertura), o tamanho da cobertura ótima não modifica, porém caso
v e/ou w contenham vizinhos além do vértice u, as arestas incidentes entre v e w e seus
vizinhos também estarão cobertas. Logo existe uma cobertura por vértices ótima que

37
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

inclui v e w, mas não u. Isto ainda reduz n ao número de vértices inseridos na cobertura
e os removidos pela regra 1 e 2. Aplica-se esta regra até que todos os vértices de grau
2 com vizinhos adjacentes sejam inseridos na cobertura, após a inserção dos vértices de
grau 2, aplica-se a regra 2 e por fim a regra 1.
Após aplicadas estas regras de redução, o grafo original G é reduzido. Estas
regras facilitam na resolução do problema da cobertura por vértices mı́nima, pois além
de diminuir o tamanho da instância original, garantem não “desviar” da cobertura ótima.
Assim, é ideal a utilização destas regras de redução, na cobertura por vértices mı́nima em
grafos com distribuição de grau Power Law, uma vez que este tipo de rede contém em sua
estrutura muitos vértices de grau 1 e 2.
3.2. Descrição dos algoritmos
Para a realização dos experimentos desse trabalho, foram utilizados dois algoritmos, o
ED-Regras [Cabral Filho 2016], que se baseia nas regras de redução ao núcleo do pro-
blema, e o algoritmo guloso descrito por [Silva 2014].
O algoritmo ED-Regras recebe como entrada um grafo G = (V, E) não direcio-
nado e retorna um conjunto S contendo uma cobertura por vértices, além do grafo redu-
zido. Como os grafos complexos apresentam diversos vértices de grau 1, no algoritmo
ED-Regras a regras 2 torna-se a primeira regra a ser aplicada na execução do algoritmo,
seguido da regra 1.
Ao final do primeiro processo, parte-se para a execução da regra 3, a busca por
triângulos no grafo. Cada iteração da regra 3 as regras 2 e regra 1 são executadas no-
vamente. Com o final da execução do segundo laço, o algoritmo ED-Regras retorna o
conjunto S contendo a cobertura encontrada além do grafo reduzido para ser utilizado
pelo algoritmo Guloso.
O Algoritmo guloso de [Silva 2014] recebe um grafo e devolve o conjunto S con-
tendo a cobertura encontrada no grafo da entrada. Para encontrar tal cobertura, o algo-
ritmo primeiramente ordena os vértices em ordem decrescente e insere no conjunto S
os vértices de maior grau, remove as arestas incidentes de V , atualiza a lista de grau e
reordena novamente até que não existam mais arestas no grafo.
A nossa heurı́stica utiliza os dois Algoritmos para resolver o problema da cober-
tura por vértices mı́nima. Primeiramente é executado o Algoritmo de redução ao núcleo
do problema, para depois executar o Algoritmo guloso de [Silva 2014] com o grafo redu-
zido. Assim, a heurı́stica retorna os vértices pertencentes ao conjunto solução.
4. Resultados experimentais
Foram realizados experimentos em 16 grafos do mundo real, nos quais 4 foram retira-
dos da mesma base de dados apresentados por [Silva 2014] em seu trabalho. Os demais
grafos foram extraı́dos da base de dados [Rossi and Ahmed 2015]. Esta é uma base in-
terativa que apresenta importantes informações a respeito dos grafos, como o número
de vértices, arestas, grau mı́nimo, grau máximo, número de triângulos, densidade entre
outras informações.
Os testes foram realizados em grafos com mais de 30 mil vértices até grafos com
um pouco mais de 300 mil vértices, numa máquina com sistema operacional Linux Mint
17 Cinnamon 64-bit, com Kernel do Linux:4.0.1-Kernel+ e processador: AMD FX(tm)-
6300 Six-Core Processor x3.
Os tipos de grafos utilizados fazem parte da classificação de redex complexas,
sendo do tipo de redes de informação, comunicação, rede social, rede de colaboração

38
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

entre outros [Rossi and Ahmed 2015].


4.1. Tempo computacional
A Tabela 1, apresenta os grafos utilizados com o tamanho dos seus vértices, além de
apresentar na coluna 3 a redução do grafo original após aplicação das regras de redução
ao núcleo. Na quarta e na quinta e sexta coluna, temos a cobertura mı́nima encontrada
utilizando somente o algoritmo guloso de [Silva 2014], a cobertura mı́nima da heurı́stica
e a diferença entre as soluções.
Tabela 1. Relação da diminuição do grafo e sua cobertura encontrada
Grafo # Vértices Redução do grafo Cobertura Encontrada
# Vértices após Diminuição
Guloso Heurı́stica
regras (%)
p2p-Gnutella30 36682 0 - 100% 9321 9272 0,53
Email-Enron 36692 4185 - 89% 14477 13501 6,74
sc-nasasrb 54870 54870 - 0% 51597 51597 0,00
soc-brightkite 56739 882 - 98% 21494 20669 3,84
Brightkite-edges 58228 409 - 99% 22177 21564 2,76
p2p-Gnutella31 62586 0 - 100% 15864 15696 1,06
socfb-OR 63392 10850 - 83% 37251 36586 1,79
soc-Epinions1 75879 246 - 99,7% 22418 22071 1,55
ia-wiki-Talk 92117 0 - 100% 17427 17268 0,91
web-sk-2005 121422 35775 - 71% 58490 57995 0,85
soc-douban 154908 0 - 100% 8719 8685 0,39
tech-RL-caida 190914 35775 - 81% 75755 57995 23,44
soc-gowalla 196591 2568 - 99% 85456 82515 3,44
ca-citerseer 227320 73235 - 68% 129350 125104 3,28
ca-dblp-2012 317090 66054 - 79% 165249 158471 4,10
ca-MathSciNet 332689 16600 - 95% 140674 135103 3,96

Pode-se observar que ao utilizar as regras de redução ao núcleo para o problema da


cobertura por vértices, obtivemos em média uma redução de 85%, chegando em alguns
casos à uma redução de 100%. Isto prova que o uso das regras de redução, diminuem
consideravelmente grafos complexos com distribuição de grau Power Law.
Em relação ao tamanho da cobertura encontrada, tivemos também uma melhora ao
comparar a nossa heurı́stica em relação ao algoritmo guloso de [Silva 2014]. O caso em
que a cobertura teve uma maior diferenciação foi no grafo tech-RL-caida, que apresentou
uma diferença de 23, 44%. Porém, tivemos um grafo sc-nasarb que além de não ter o seu
tamanho reduzido ao passar pelas regras de redução, o seu tamanho da cobertura foi o
mesmo ao usar somente o algoritmo guloso. Isto aconteceu pois, o grau mı́nimo de seus
vértices é de tamanho 3.
Portanto, a heurı́stica não foge da cobertura ótima para o problema da cobertura
por vértices, chegando até a melhorar o tamanho mı́nimo encontrado.
Na tabela 2, temos os dados referente ao tempo computacional gasto pelos algorit-
mos. A terceira coluna apresenta o tempo em segundos que o algoritmo guloso demorou
para apresentar a solução. Na quarta e na quinta coluna, temos respectivamente o tempo
gasto pela heurı́stica e a relação da comparação entre as duas estratégias.

39
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Tabela 2. Tempo computacional


Tempo Computacional
Grafo # Vértices Gulosa (seg.) Heurı́stica (seg.) Diminuição (%)
p2p-Gnutella30 36682 14,83 2,88 80,6
Email-Enron 36692 18,01 10,88 39,6
sc-nasasrb 54870 638,67 659,94 -3,3
soc-brightkite 56739 49,20 12,19 75,3
Brightkite-edges 58228 52,60 12,86 75,5
p2p-Gnutella31 62586 49,08 8,77 82,1
socfb-OR 63392 301,26 333,40 -10,7
soc-Epinions1 75879 84,73 28,35 66,5
ia-wiki-Talk 92117 73,39 20,79 71,7
web-sk-2005 121422 343,97 110,22 67,9
soc-douban 154908 94,62 21,04 77,8
tech-RL-caida 190914 1178,89 109,48 90,7
soc-gowalla 196591 1511,08 374,19 75,2
ca-citerseer 227320 2556,06 708,69 72,3
ca-dblp-2012 317090 4822,66 1088,05 77,4
ca-MathSciNet 332689 4093,38 574,24 86,0
Em relação ao tempo gasto por cada estratégia abordada, tivemos dois experi-
mentos em que o uso da heurı́stica foi um pouco maior ao comparar com a estratégia
gulosa (grafo sc-nasasrb e socfb-OR). Acreditamos que este tempo ocorreu devido as ca-
racterı́sticas de grau mı́nimo do grafo (grau maior do que 3), e pelo grafo gerado após as
regras de redução ser um grafo denso.
Nos demais experimentos, obtivemos uma média de 74% da redução do tempo
computacional utilizando a heurı́stica. Ou seja, além de não fugirmos da cobertura ótima,
obtendo uma melhora na solução encontrada, a heurı́stica reduziu significativamente o
tempo computacional para encontrar a solução.
O melhor caso aconteceu com o grafo tech-RL-caida, com uma diminuição de
90% de melhora no tempo de execução. Isto, provavelmente ocorreu devido o grafo ser o
mais próximo de um grafo Power Law perfeito.
5. Conclusão
A utilização das regras de redução apresentadas neste artigo, antes da execução do algo-
ritmo guloso discutido por [Silva 2014], em grafos Power Law, reduziram significativa-
mente o tamanho das instâncias originais, ocorrendo em alguns casos a redução de toda a
instância.
Esta redução pode não melhorar muito o tamanho da solução encontrada pela
estratégia gulosa, porém proporciona uma economia de tempo computacional relevante.
Logo, podemos afirmar que a utilização destas regras de redução melhora a solução do
problema da cobertura por vértices mı́nima e contribuiu principalmente para a diminuição
do tempo computacional.
Referências
Abu-Khzam, F. N., Collins, R. L., Fellows, M. R., Langston, M. A., Suters, W. H., and
Symons, C. T. (2004). Kernelization algorithms for the vertex cover problem: Theory
and experiments. ALENEX/ANALC, 69.

40
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Aiello, W., Chung, F., and Lu, L. (2001). A random graph model for power law graphs.
Experimental Mathematics, 10(1):53–66.
Barabási, A.-L. et al. (2009). Scale-free networks: a decade and beyond. science,
325(5939):412.
Cabral Filho, E. d. O. (2016). Cobertura por vértices mı́nima em grafos lei de potência.
Cai, S., Su, K., Luo, C., and Sattar, A. (2013). Numvc: An efficient local search algorithm
for minimum vertex cover. Journal of Artificial Intelligence Research, pages 687–716.
Cheetham, J., Dehne, F., Rau-Chaplin, A., Stege, U., and Taillon, P. J. (2003). Solving
large fpt problems on coarse-grained parallel machines. Journal of Computer and
System Sciences, 67(4):691–706.
Clauset, A., Shalizi, C. R., and Newman, M. E. (2009). Power-law distributions in empi-
rical data. SIAM review, 51(4):661–703.
Cormen, T. H. (2009). Introduction to algorithms. MIT press.
Downey, R. G. and Fellows, M. R. (2012). Parameterized complexity. Springer Science
& Business Media.
Downey, R. G. and Fellows, M. R. (2013). Fundamentals of parameterized complexity,
volume 4. Springer.
Gast, M. and Hauptmann, M. (2014). Approximability of the vertex cover problem in
power-law graphs. Theoretical Computer Science, 516:60–70.
Gast, M., Hauptmann, M., and Karpinski, M. (2012). Improved approximation lower
bounds for vertex cover on power law graphs and some generalizations. arXiv preprint
arXiv:1210.2698.
Hanashiro, E. J. (2004). O problema da k-cobertura por vértices: uma implementaçao fpt
no modelo bsp/cgm.
Karp, R. M. (1972). Reducibility among combinatorial problems. Springer.
Kleinberg, J. M., Kumar, R., Raghavan, P., Rajagopalan, S., and Tomkins, A. S. (1999).
The web as a graph: measurements, models, and methods. In Computing and combi-
natorics, pages 1–17. Springer.
Rossi, R. A. and Ahmed, N. K. (2015). The network data repository with interactive graph
analytics and visualization. In Proceedings of the Twenty-Ninth AAAI Conference on
Artificial Intelligence.
Shen, Y., Nguyen, D. T., Xuan, Y., and Thai, M. T. (2012). New techniques for appro-
ximating optimal substructure problems in power-law graphs. Theoretical Computer
Science, 447:107–119.
Silva, M. O. d. (2014). Problema de cobertura por vértices em redes complexas.
Virkar, Y., Clauset, A., et al. (2014). Power-law distributions in binned empirical data.
The Annals of Applied Statistics, 8(1):89–119.

41
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Desenvolvimento de uma Datalogger para a leitura de dados


Jackson A. Durães Junior, Minéia Cappellari Fagundes
Armando da Silva Filho

Núcleo de Tecnologia Avançada (NTA) – Curso de Ciência da Computação –


Universidade do Estado de Mato Grosso (UNEMAT)
Caixa Postal 92 – 78390-000 – Barra do Bugres – MT – Brasil
jacksonfaculdade@hotmail.com, mineia@unemat.br,
armandosf2000@gmail.com

Abstract. The present work describes the development of one with the function
of collecting and storing the data obtained through sensing, with 8 analog
inputs and storage in SD (Secure Digital) memory cards. It presents the main
concepts involving Datalogger, the components used for its construction, the
programming and the software used. Finally, we present the construction
process and some possibilities of applications for a Data-logger.

Resumo. O presente trabalho descreve o desenvolvimento de um com a função


de coleta e armazenamento dos dados obtidos através de sensoriamento, com
8 entradas analógicas e armazenamento em Cartões de memória SD (Secure
Digital). São apresentados os principais conceitos envolvendo Datalogger, os
componentes utilizados para a sua construção, a programação e o software
usado. Para finalizar apresentamos o processo de construção e algumas
possibilidades de aplicações para um Data-logger.

1. Introdução

Um datalogger ou gravador de dados é um dispositivo eletrônico que registra os dados


ao longo do tempo, medidos por instrumentos e sensores internos ou externos. São
compostos por um processador digital, com memória interna para armazenamento de
dados dos sensores. Um dos principais benefícios do uso do datalogger é a capacidade
de coletar automaticamente durante o período de monitoramento, permitindo um retrato
abrangente e rigoroso das condições ambientais que estão sendo monitoradas. (FILHO,
2015).
O datalogger apresenta várias aplicações, para a medição de absorção da
infiltração de água no solo é uma delas, esse processo ocorre através do mapeamento da
capacidade de campo, que consiste na quantidade de água que um determinado tipo de
solo é capaz de reter e posteriormente fornecer as plantas. O conhecimento deste
mecanismo é de vital importância na agricultura de precisão, pois permite o manejo
correto da irrigação. Permitindo que se conheça o momento e a quantidade requerida
para que o solo não sature com água, o que significa desperdício de água e energia.

Para tanto, se faz necessário um estudo dos sensores envolvidos para a


especificação da quantidade de entradas, e posterior construção do hardware além do

42
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

desenvolvimento do software para a leitura dos sensores e o armazenamento dos dados.


Também escolher quantas portas analógicas e digitais serão utilizadas. As entradas
digitais têm a função de ler dados, por exemplo, ligado ou desligado, porta aberta ou
fechada, válvula aberta ou fechada, isto é, qualquer sinal em forma digital 0 ou 1. As
entradas analógicas tem a função de ler sinais de tensão de 0 a 10V ou de corrente de 4 a
20mA, que podem representar grandezas físicas como tensão, pressão, vazão, nível,
temperatura, umidade, etc. (ESSER, 2008). Diante disso, nesse artigo apresentamos o
desenvolvimento de um Datalogger que será utilizado para a leitura de dados
experimentais de infiltração da água em diferentes tipos de solos que compões a Bacia
Hidrográfica do Rio Bugres.

2 Componentes e Software Utilizados

A seguir serão apresentados os componentes, software e a programação utilizada


para o desenvolvimento do Data-logger.

2.1. Componentes

Para a construção do datalogger utilizamos os seguintes componentes ativos:


Microcontrolador 18F452, multiplexador CD4051, DS1302, modulo embarcado
openlog, LCD 16X2, os quais serão apresentados a seguir.

O Microcontrolador é um pequeno computador num único circuito integrado o


qual contém um núcleo de processador, memória e periféricos programáveis de entrada
e saída. Escolhemos para nosso datalogger o 18F452 (Microchip Technology Inc) que
apresenta 32kb de memória, conversor A/D (analógico/digital) de 10 bits, 33 portas de
entrada ou saída disponíveis, baixo consumo de energia. Na esquerda da Figura 1, temos
a imagem de um Microcontrolador 18F452.

Devido a necessidade da sincronia temporal utilizamos o relógio de tempo real


(DS1302, Maxim integrated) por possuir comunicação serial bidirecional compatível
com os níveis de tensão do Microcontrolador utilizado. Na direita da Figura 1, temos a
imagem de um DS1302.

Figura 1: Microcontrolador 18F452 (Microchip Technology Inc) / relógio de tempo real


(DS1302, Maxim integrated)

A necessidade de entradas analógicas em número superior ás disponíveis no


Microcontrolador exigiu uso de 1 multiplexador smd analógico (CD 4051) que permite

43
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

que apenas uma porta analógica do Microcontrolador receba 8 entradas individuais de


sensores. Na Figura 2, temos a imagem de um CD 4051.

Figura 2: Multiplexador analógico de 8 portas (CD 4051) usado para construção do data-logger.

O armazenamento das dados em cartão SD foi efetuado com o modulo embarcado


(openlog sparkfun), por possuir comunicação serial assíncrona compatível com
Microcontrolador e a gravação dos dados diretamente em “micro cartão SD” (“micro
SD card”) no formato de sistema de arquivos FAT 32, utilizando micro cart SD
possibilita a coleta de dados com um celular via cartão SD e posterior copia as dados
sem a necessidade de um computador junto ao local do data-logger. Na Figura 3, temos
a imagem de um openlog sparkfun.

Figura 3: Módulo embarcado openlog sparkfun usado para construção do data-logger.

A interface homem máquina (LCD 16x2), utilizada para configuração de hora, data e
indicação do status do data-logger, facilitando as configurações no local sem a
necessidade de um computador. Na Figura 4, temos a imagem de um LDC 16X2.

Figura 4: Modulo embarcado LCD 16x2.

44
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

O esquema do circuito eletrônico foi elaborado e simulado no software PROTEUS ares,


e a transferência do layout para o circuito impresso, com a tecnologia dry film que
utiliza luz ultravioleta sobre fotolito para a fixação da imagem do layout sobre a placa
de circuito impresso, antes do processo de corrosão.

A montagem do circuito utilizou alguns componentes SMD (surface mounting device),


por ocupar menor área sobre a placa tornando o DATALOGGER mais compacto. Na
Figura 5, temos a imagem do circuito criado para o Data-logger.

Figura 5: Circuito criado no software PROTEUS ares usado para produção do datalogger.

2.2. Software e Programação

A linguagem de programação usada foi a PROTON por ser uma linguagem de alto
nível, dialeto BASIC, e fácil aprendizado.

O Microcontrolador foi programado para uma leitura de todas as entradas a cada


2 segundos e a gravação das médias das 30 leituras a cada minuto para maior
granularidade de dados. O fluxograma de programação do datalogger pode ser
observado na figura 6.

45
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Inicio

Limpar variáveis

Piscar
Apagar led Apagar led
Led
rápido

Zero NÃO
Seg? Gravar
Cartão sd
SIM

Ler entradas
Analógicas
SIM Ligar led

NÃO
2 Seg ?
Led rápido

Apagar led NÃO

SIM
Armazenar 30 Efetuar média
valores para Leituras? das leituras
média

Figura 6: Fluxograma de programação.

3. Desenvolvimento da Máquina

O estudo das especificações e desenvolvimento do hardware teve início no


semestre 2017/1. O Microcontrolador 18F452 foi escolhido, pois o mesmo apresenta 32
kb de memória, conversor de A/D (analógico/digital) de 10 bits, 33 portas de entrada ou
saída disponível, um baixo consumo de energia, farta literatura e baixo custo. Com
estudos dos requisitos do projeto verificou-se a necessidade de mais portas analógicas
do que as disponíveis no Microcontrolador, para contornar o problema usou-se um
multiplexador SMD CD 4051 ampliado a capacidade do Microcontrolador para 8

46
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

entradas analógicas. A sincronia temporal para a coleta dos dados foi utilizado o relógio
DS 1302 de baixo consumo de energia e sistema de bateria auxiliar que mantem o
relógio em funcionamento mesmo sem a bateria principal. O armazenamento dos dados
escolhido foi o modulo de cartão SD (openlog sparkfun) devido a fácil configuração e
comunicação com o Microcontrolador e ser capaz de suportar um cartão de até 32 GB
(Gigabyte) de memória, por tanto possibilita a coleta de dados com um celular via cartão
SD e posterior copiar os dados sem a necessidade de um computador junto ao local do
data-logger.

A interface homem máquina consiste de um display LCD 16x2 com a finalidade


do usuário visualizar qual leitura está sendo realizada a cada instante e caso necessário,
configurar data e hora do aparelho, sem a necessidade de um computador no local.
Fonte de alimentação utilizou uma bateria de 12 volts, o circuito do datalogger
contém conversores de 12 volts para 5 e 3,3 volts pois estas e a voltagem são utilizada
pelos outros componentes, a bateria se recarrega através de placa solar possibilitando a
instalação do datalogger sem a necessidade de rede elétrica.
Uma vez determinado os componentes eletrônicos o esquema do circuito
eletrônico foi elaborado utilizado a metodologia de roteamento de trilhas manual no
software PROTEUS ares, a transferência do layout para a placa de circuita impresso,
escolhemos o método que utiliza uma película de dry film que assim exposta a luz
ultravioleta sobre fotolito inicia a fixação da imagem do layout sobre a placa de circuito
impresso, logo após velamos até o processo de corrosão.
A montagem do circuito utilizou alguns componentes SMD (surface mounting
device), por ocupar menor área sobre a placa tornando o Datalogger mais compacto. Na
Figura 7, temos a imagem do Datalogger montado com os componentes escolhido.

Figura 7: datalogger desenvolvido no projeto.

4. Considerações
O datalogger desenvolvido foi elaborado para comportar até 8 sensores
analógicos, o que amplia sua utilização em outros projetos que necessitem da gravação
de grandezas físicas, medidas em um espaço temporal conhecido, ou em outras
pesquisas que utilizem até 8 sensores analógicos. O datalogger também já prevê futuros
upgrade pois comporta 2 entrada digitais sendo uma para pluviômetro de báscula,

47
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

também 2 saídas serias sendo uma para coleta de dados a distância por bluetooth e
transmissão dos dados de memória via gprs.
O desenvolvimento do projeto ajudou a ampliar o conhecimento, sobre
eletrônica, criação e simulação de circuito no software PROTEUS ARES, programação
de Microcontrolador, processo de fabricação de placa de circuito impresso e uso de
componentes smd utilizado no datalogger. Estes conhecimentos contribuem com avanço
nas pesquisas desenvolvidas na área de tecnologia da computação no Núcleo de
Tecnologia Avançada (NTA), representando um aspecto positivo.
Outro aspecto positivo é que os materiais e tecnologia empregados permitiram o
desenvolvimento do datalogger com um custo significativamente baixo
(aproximadamente R$250,00), se comparado as opções de datalogger atualmente
disponíveis no mercado, cujo valores ultrapassam R$1500,00, e geralmente são para uso
específicos.
Como trabalhos futuros está o incorporação de um modulo embarcado bluetooth
para que facilite a coleta dos dados e a utilização de Microcontrolador SMD, que reduz
o tamanho físico do data-logger.

Referências
FAGUNDES, C. MINÉIA, e col. (2011) “O uso de um data- logger para armazenamento
de dados do potencial matricial”. Cuiabá, MT.
FILHO, S. ARMANDO. (2015) “Estimativa do balanço de energia
a partir de medidas de protótipo de estação micrometeorológica”. Cuiabá, MT.
TAKAKI, Y. M. “ELIPE. (2017) “Data logger - registrador de grandezas físicas”,
Pindamonhangaba – SP.
NEVES G. A. R. (2011) “DESENVOLVIMENTO DE ESTAÇÃO
MICROMETEOROLÓGICA COM ARMAZENAMENTO DE DADOS”, Cuiabá-
MT 2011. Dissertação (Mestrado em Física Ambiental) - Universidade Federal de
Mato Grosso Disponível
em:<http://www.pgfa.ufmt.br/index.php/en/utilities/files/banco-de-dissertacoes-do-
programa/175-geraldo-aparecido-rodrigues-neves/file>Acesso em outubro de 2017.
ESSER C. JEAN. (2008) “DATA LOGGER – COLETOR DE DADOS”, Florianópolis-
SC Monografia (CENTRO FEDERAL DE EDUCAÇÃO TECNOLÓGICA DE
SANTA CATARINA PÓS-GRADUAÇÃO “LATU SENSU” EM
DESENVOLVIMENTO DE PRODUTOS ELETRÔNICOS) Disponível em :<
http://www.professorpetry.com.br/Ensino/Defesas_Pos_Graduacao/Defesa%2006_Je
an%20Carlos%20Esser_Data%20Logger%20-%20Coletor%20de%20Dados.pdf>
Acesso em setembro 2017.

48
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Internet das Coisas Aplicada ao Agronegócio: um


levantamento com base em revisão sistemática de literatura
Thalita Medeiros Dolce, Fernando Selleri Silva

Ciência da Computação – Universidade do Estado de Mato Grosso (UNEMAT) Caixa


Postal 92 – 78.390-000 – Barra do Bugres – MT – Brasil
thalitadolce@gmail.com, selleri@unemat.br

Abstract. The present paper addresses the main concepts of Internet of Things
(IoT); the importance of agribusiness; and the realization of a survey of
scientific articles, based on the Internet theme of Things applied to
Agribusiness. The applications and tools most used for the development of this
area are presented, based on data obtained from 21 studies. The results
obtained with this study seek to point out the possibilities that the Internet of
Things represents for the management of rural properties.

Resumo. O presente trabalho aborda os principais conceitos sobre Internet


das Coisas (Internet of Things – IoT, em Inglês); a importância do
agronegócio; e a realização de um levantamento de artigos científicos, com
base no tema Internet das Coisas aplicada ao Agronegócio. São apresentadas
as aplicações e ferramentas mais utilizadas para o desenvolvimento dessa
área, a partir de dados obtidos em 21 estudos. Os resultados obtidos com este
trabalho buscam apontar as possibilidades que a Internet das Coisas
representa para a gestão de propriedades rurais.

1. Introdução
A Internet das Coisas ou IoT é um conceito que vem sendo estudado e aplicado nas mais
diversas áreas. Ele sugere a comunicação entre máquinas; uma junção entre análise de
dados e tomada de decisão. A IoT é cada vez mais notada, podendo trazer maior
produtividade em variados ramos, inclusive se aplicada em áreas rurais.
Foi escolhido a temática agronegócio pelo fato da importância desse segmento
no estado de Mato Grosso, onde foi idealizado o estudo. MT tem a predominância na
área do agronegócio representando 50,5% do PIB do estado (IMEA, 2015), que mantém
vastas áreas com plantações, principalmente de grãos como soja, e com criação de gado.
Neste contexto, o presente trabalho objetiva identificar aplicações e ferramentas
utilizadas ao redor do mundo conectando essas duas áreas. Como metodologia de
pesquisa, foram utilizados conceitos de Revisão Sistemática de Literatura.
Este artigo está estruturado em seis seções. A Seção 2 apresenta o conceito de
IoT. Na Seção 3 são abordados aspectos sobre tecnologia e agronegócio. A Seção 4
descreve o método de revisão utilizado para identificação de 21 estudos sobre o tema.
Na Seção 5 os resultados são apresentados, incluindo os tipos de aplicações, software
empregado, protocolos e plataformas de comunicação utilizadas. Por fim, a Seção 6
apresenta as considerações finais.

49
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

2. Conceito de IoT
Coetzee e Eksteen (2011) pontuam que os aparelhos eletrônicos como celulares, tablets,
televisão, entre outros, estão cada vez mais “inteligentes”, com sensores embutidos e
que tomam decisões conforme a utilização e que conectados em uma rede ampliam suas
possibilidades. Para esses autores, a interação do mundo físico ao ciberespaço por meio
de dispositivos inteligentes amplia o conceito da Internet, dando origem a “Internet das
Coisas” ou “Internet of Things – IoT”, em Inglês.
Com a IoT, Marão et al. (2012) confirma que é possível a comunicação entre
variados objetos e serviços, a partir de tomadas de decisão que atuam após análise de
dados obtidos, com isso, são visíveis os benefícios para os utilizadores dessa tecnologia
em várias áreas como eficiência energética, vida assistida, saúde humana, segurança
alimentar, entre outras, incluindo o agronegócio.

3. Tecnologia e agronegócio
A agricultura tem sido uma das indústrias mais importantes para a vida dos seres
humanos, uma vez que é responsável pela produção de recursos indispensáveis, tais
como alimentos, medicamentos, energia, entre outros. (RYU et al., 2015, p. 1)
Para Cruvinel (2007), “O agronegócio brasileiro é o setor da economia com
maior capacidade de geração de empregos, o maior irradiador de estímulos para outras
atividades e movimenta a ordem de US$ 200 bilhões por ano”.
Para entender a expansão desse tema, Cruvinel (2007) também demonstra que:
“as cadeias produtivas do agronegócio brasileiro englobam atividades de [...] cinco
mercados distintos: suprimento, produção, processamento, armazenamento e
distribuição, bem como consumidor final”. Partindo para as inovações do agronegócio,
Cruvinel (2007) ainda explica: “é importante frisar que no mundo globalizado a ciência
tende a ser cada vez mais requisitada a contribuir para o interesse coletivo organizado”.
Segundo o autor, a causa da busca pela inovação tecnológica no agronegócio, foi
justamente o interesse e a necessidade do atendimento à sociedade.

4. Revisão Sistemática de literatura


Para o desenvolvimento deste trabalho foram empregados conceitos de revisão
sistemática de literatura descritos em Kitchenham e Charters (2007). De acordo com os
autores, uma revisão sistemática da literatura é um método de interpretação e avaliação
das pesquisas levantadas sobre o tema ou tópico em questão, utilizando uma
metodologia rigorosa e confiável.
Assim, foram levados em consideração artigos publicados em anais de eventos
ou periódicos. Essa restrição buscou identificar apenas o Estado da Arte sobre a
pesquisa relacionada ao tema do presente trabalho. A seguir são descritas as etapas da
revisão.

4.1. Busca por trabalhos


Para a busca foram considerados os principais mecanismos internacionais de indexação
de trabalhos científicos publicados, sendo eles: Google Scholar; Scielo; IEEE; Science
Direct; Scopus; ACM; Springer; e Wiley. Considerando que há redundância de
resultados entre os mecanismos, por exemplo, o Scopus indexa trabalhos de outros

50
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

mecanismos, e que os periódicos e eventos relevantes a temática encontram-se


indexados, optou-se por realizar apenas a busca automática, não sendo realizada a busca
manual, na qual se verifica manualmente os trabalhos publicados em um determinado
periódico ou evento.
Foi definida uma string de busca específica, elaborada a partir das palavras-
chave deste trabalho, a qual foi: (("Internet of Things" OR "IoT" OR "web 3.0" OR
"Internet of Everything") AND ("Agribusiness" OR "Agriculture" OR "Farm")). Após
os testes com a string de busca, foram obtidos 756 resultados, conforme apresentado na
Tabela 1. Os mecanismos Springer, Scopus e IEEE foram os que mais retornaram
resultados (acima de 100 cada).
Tabela 1. Resultado das buscas

Local Pesquisado Link Resultados obtidos


Google Scholar https://scholar.google.com 72
Scielo http://search.scielo.org 0
IEEE http://ieeexplore.ieee.org 104
ScienceDirect http://www.sciencedirect.com 10
Scopus http://www.scopus.com 254
ACM http://dl.acm.org 7
Springer http://link.springer.com 300
Wiley http://onlinelibrary.wiley.com 9
TOTAL 756

4.2. Seleção dos trabalhos


Para seleção dos trabalhos, inicialmente foi realizada uma primeira filtragem levando
em consideração o título e o resumo dos resultados das buscas, sendo feita a
identificação de 76 estudos potencialmente relevantes. Para a próxima fase de
filtragem, foi preciso coletar esses estudos na íntegra para leitura e aplicação de critérios
de inclusão e de exclusão.
Foram aplicados os seguintes critérios de inclusão:
✓ Aborda IoT e agronegócio;
✓ Relatos de experiência ou estudos científicos;
✓ Contém uma aplicação de IoT para o agronegócio;
✓ Escrito em Língua Inglesa.
E quanto aos critérios de exclusão, foram considerados:
✓ Opinião de especialista;
✓ Editoriais, prefácios, resumos, entrevistas, notícias, pôsteres e outros.
Considerando os critérios apresentados, foram selecionados sobre o tema IoT no
agronegócio 21 estudos relevantes. A relação dos trabalhos incluídos encontra-se na
Tabela 2.

51
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Tabela 2. Lista de trabalhos incluídos

Nº AUTOR TÍTULOS

1 ZHAO et al. (2010) The study and application of the IOT technology in agriculture

2 LIQIANG et al. (2011) A Crop Monitoring System Based on Wireless Sensor Network
IOT application system with crop growth models in facility
2 HU e QIAN (2011) agriculture
Application of the Internet of Things Technology in Precision
4 LI (2012) Agriculture Irrigation Systems
5 BING (2012) Research on the agriculture intelligent system based on IOT
A precision agriculture management system based on Internet
6 YE et al. (2013) of Things and WebGIS
7 LEE; HWANG e YOE (2013) Agricultural Production System Based on IoT
IoT multiplatform networking to monitor and control wineries
8 MEDELA et al. (2013) and vineyards
9 MINBO; ZHU e GUANGYU (2013) Information service system of agriculture IoT
Research of Agricultural Information Service Platform Based on
10 JIANG e ZHANG (2013) Internet of Things
Study on agricultural condition monitoring and diagnosing of
11 YU e ZHANG (2013) integrated platform based on the internet of things
Research and Implementation of Agricultural Environment
12 ZOU (2014) Monitoring Based on Internet of Things
13 QIAN; WANG e LUO (2014) Agricultural products traceability system design based on IOT
Study and design of the agricultural informationization model
14 LI; GUO e ZHOU (2014) based on internet of things
Agricultural drought data acquisition and transmission system
15 PING (2014) based on internet of things
Intelligent Agriculture Greenhouse Environment Monitoring
16 DAN et al. (2015) System Based on IOT Technology
M2M remote telemetry and cloud IoT big data processing in
17 SUCIU et al. (2015) viticulture
Do-it-Yourself Digital Agriculture applications with semantically
18 JAYARAMAN et al. (2015) enhanced IoT platform
Design and implementation of a connected farm for smart
19 RYU et al. (2015) farming system
The construction of a precise agricultural information system
20 LIN et al. (2015) based on internet of things
21 JULL et al. (2015) Deployment of Wireless Sensor Networks in Crop Storages

4.3. Extração e síntese dos resultados


A extração dos dados foi feita a partir da análise dos artigos e foram coletados os dados
mais relevantes como: título, ano de publicação, nome dos autores, local do estudo, tipo
de cultura (ex. soja, milho ou outra) especificada no estudo, tipo de aplicação, tipo de
software usado ou desenvolvido, tipo de rede ou protocolo.
Os dados extraídos de cada artigo foram sistematizados, permitindo um
mapeamento dos resultados por meio de gráficos, como apresentado a seguir.

52
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

5. Resultados obtidos
O primeiro resultado observado foi quanto ao ano de publicação dos artigos. Como se
pode observar, acompanhando a linha de tendência traçada na Figura 1, foi crescendo a
incidência de artigos sobre o assunto desde 2010, ano em que houve somente um artigo
relevante, até o ano de 2015 que obteve seis trabalhos, assim como em 2013. Como as
buscas foram realizadas em março de 2016, foram considerados apenas estudos
publicados até (e inclusive) o ano de 2015.

Figura 1. Ano de publicação dos estudos

6 6

2 2

2010 2011 2012 2013 2014 2015

A Figura 2 está representando o local do estudo e as culturas abordadas. A China


apareceu em quinze artigos, citando que a agricultura no país precisa de melhorias e
conta-se com Internet das Coisas como solução dos problemas agrícolas por eles
enfrentados, sejam eles no plantio, ou logística até os pontos comerciais. Os outros
países com estudos publicados foram Coréia do Sul, EUA, Austrália, Espanha e
Romênia. Das culturas, somente foram citadas frutas, pois os estudos são feitos
geralmente em estufas. Os que não especificavam a cultura, foram considerados como
“outros” na figura. Alguns trabalhos citaram mais de um tipo de cultura, os quais foram
contabilizados na figura.
Na Figura 3, mostra-se que o controle ou identificação da umidade é o tipo de
aplicação mais citada para Internet das Coisas no agronegócio, sendo aplicada a algum
software de gestão. Em segundo lugar, a temperatura também é a mais relevante para
esse tipo de controle, seguida de luminosidade, fertilização, pH, controle de seca e
irrigação, velocidade do vento, crescimento, economia de energia, economia de água,
radiação e, por fim, rastreabilidade.

53
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Figura 2. Locais dos estudos e culturas abordadas

Figura 3. Tipos de aplicações

Rastreabilidade 1
Radiação 1
Economia de água 1
Economia de energia 1
Crescimento 1
Velocidade do vento 2
Seca/irrigação 3
pH 3
Fertilização 5
Luminosidade 8
Temperatura 15
Umidade do ar/solo 16

Na Figura 4, são representados os programas e plataformas utilizadas para o


desenvolvimento do software de monitoramento ou outra aplicação relacionada à
Internet das Coisas. A maioria dos autores optou por sistema Web seja ele feito em
linguagem Java ou ASP.NET, que foram as duas opções encontradas utilizando de GUI
(Graphical User Interface ou Interface Gráfica do Usuário, em Português) para
comunicação diretamente com os dispositivos digitais através de gráficos, botões, entre
outros.
A Figura 5 representa os tipos de comunicação, protocolos ou plataformas
utilizadas para o desenvolvimento da arquitetura de rede IoT. O ZigBee, um dispositivo
padrão para comunicação de rede, foi o mais incidente entre os artigos, sendo citado em
oito deles. Ele realmente é o mais utilizado na comunicação em Internet das Coisas, e

54
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

muitas vezes é combinado com GSM/GPRS/GPS dentro dos projetos. O SMS (Short
Message Service ou Serviço de Mensagens Curtas, em Português) foi citado em três
artigos, como um método de comunicação para monitoramento. O RS485 é um
protocolo de comunicação de rede utilizando barramento, foi referenciado em dois
artigos, como a tecnologia 3G, MCU (Unidade de Micro Controle).

Figura 4. Software utilizados/desenvolvidos

Figura 5. Comunicação, protocolos e plataformas de rede utilizados

55
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

6. Considerações finais
Os resultados apresentados neste trabalho contribuem para um melhor entendimento
sobre a Internet das Coisas no agronegócio. O levantamento veio a confirmar algumas
informações, pelo fato de existirem mais aplicações e ferramentas de IoT para controle
de temperatura e umidade, porém, enquanto selecionava-se os artigos, o tema mais
abordado foi a questão de rastreabilidade de alimentos desde o plantio até o consumidor
final, para assegurar a qualidade do produto. Todavia, apenas um artigo sobre esse tema
foi incluído, pois os demais embora abordassem o tema não citaram uma ferramenta ou
aplicação específica, sendo desconsiderados durante a revisão, conforme critérios de
inclusão definidos.
Apesar dos vários tipos de aplicações apresentados, foi observado na revisão que
nenhum dos artigos contribuem diretamente para nossa realidade no Brasil,
especificamente no estado de Mato Grosso, em que no agronegócio há uma demanda
diferente por se trabalhar com vastas áreas abertas, cultura de grãos e variáveis que
dificultam um controle total.
Dessa forma, em estudos futuros almeja-se aprofundar a pesquisa sobre o
assunto, visando aproximá-lo da realidade do estado de Mato Grosso, e também do
Brasil. É pertinente buscar a aplicação prática de ferramentas e formas de comunicação
identificadas no presente trabalho, para obter soluções relacionadas ao conceito de
Internet das Coisas, que atendam as demandas do agronegócio, reduzindo custos e
ampliando o acesso essa tecnologia.

Referências
Coetzee, L e Eksteen, J. (2011) “The Internet of Things: Promise for the future? An
Introduction”, IST-Africa: Conference Proceedings Africa,
https://ieeexplore.ieee.org/document/6107386?tp=&arnumber=6107386&url=http:%2F
%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D6107386.
CRUVINEL, E. (2007) “Inovação no agronegócio e redes colaborativas”, International
Conference on Systems Integration, EMBRAPA, Brazil.
http://www.celler.com.br/ICSI'08/ICSI'07/Artigo/Paulo.pdf
IMEA - Instituto Mato-Grossense de Economia Agropecuária (2015) “Economia”,
http://www.mt.gov.br/economia.
Kitchenham, B, Charters S. (2007) “Guidelines for performing systematic literature reviews
in software engineering”, Technical Report, School of Computer Science and
Mathematics, Keele University.
Marão, G. A. et al. (2012) “Importância da Internet das Coisas (IoT) para o Brasil”, Fórum
de competitividade de IoT, Brasil, http://www.iotbrasil.com.br/new/wp-
content/plugins/download-monitor/download.php?id=1.
Marinho, H. M. A. et al. (2016) “Análise econômica da evolução d agronegócio em Mato
Grosso no período de 1990 a 2010”, Revista Faipe, Cuiabá, páginas 1-24,
http://www.revistafaipe.com.br/index.php/RFAIPE/article/view/46.
RYU, M. et al. (2005) “Design and Implementation of a Connected Farm for Smart
Farming System”, IEEE, http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=7370624

56
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Desenvolvimento de uma Arquitetura de Serviços para uma


Smart House: uma Implementação usando as Plataformas
Arduino e Django
Marina L. M. Silva1 Marcia Pasin1
1
Centro de Tecnologia - Universidade Federal de Santa Maria (UFSM)
Av. Roraima 1.000 – Cidade Universitária – Santa Maria – RS

marina.laisa@yahoo.com.br,marcia@inf.ufsm.br

Abstract. The technology developed for smart houses seeks automation, secu-
rity, and energy efficiency. A smart house has sensors and actuators operating
on different platforms with multiple objectives. This work presents a study on a
management service for some house. A prototype of this service has been develo-
ped and operates on a system, supported by the Arduino and Django platforms.
An interface Web allows the control of the lights and drives of the house. In
addition, the system provides an alarm service.

Resumo. A tecnologia desenvolvida para smart houses busca a automação, a


segurança, e o consumo eficiente de energia. Uma smart house possui sensores
e atuadores operando em diferentes plataformas com múltiplos objetivos. Este
trabalho apresenta um estudo sobre um serviço de gerenciamento para uma
smart house. Um protótipo deste serviço foi desenvolvido e atua sobre uma
maquete, com suporte das plataformas Arduino e Django. Uma interface web
permite o controle das luzes e das movimentações da casa. Adicionalmente, o
sistema provê um serviço de alarme.

1. Introdução
Quando a energia elétrica e tecnologias de informação foram introduzidas em residências
no final do século 20, o uso de aparelhos residenciais elétricos cresceu rapidamente.
Isto criou a necessidade de automatizar e controlar o ambiente residencial, e é de onde
o termo “Smart House” originou. A “Smart House” usa Tecnologias da Informação
e da Comunicação (TICs) para monitorar o ambiente (uma casa), controlar aparelhos
elétricos e se comunicar com o mundo externo [Radu 2016]. Nela os aparelhos eletrônicos
comunicam-se entre eles, buscando consumir menos recursos, fazendo uso mais consci-
ente destes, o usuário é beneficiado principalmente com conforto e segurança. Sensores
e atuadores permitem monitorar e controlar aspectos temperatura, umidade, iluminação,
sistemas de segurança e muitos outros.[K. Lee and Sunguk 2013].
O controle da casa pode ser feito por um smartphone, tablet ou notebook, não
sendo necessário um controle remoto para cada aparelho: uma única aplicação admi-
nistra todos os aparelhos, tendo seu controle e monitoramento são feitos de qualquer
lugar, através da Internet. Os aparelhos estão interconectados e com facilidades para
comunicação, permitindo a execução de atividades e ações pré-determinadas pelo usuário.

57
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Neste contexto, este trabalho apresenta uma exploração do uso de diferentes sen-
sores para gerenciamento de dispositivos em uma smart house, tendo a validação do sis-
tema realizado através da implementação de um protótipo usando a plataforma Arduino.
A automação residencial foi aplicada sobre a maquete de uma casa e um conjunto de sen-
sores e atuadores. Este texto está organizado como segue. A seção 2 apresenta trabalhos
relacionados. Na seção 3, a metodologia que foi utilizada é apresentada. A seção 4 apre-
senta os resultados do projeto. As conclusões e os trabalhos futuros são apresentados na
seção 5.

2. Trabalhos Relacionados
Outros trabalhos semelhantes foram desenvolvidos no mesmo tema proposto, porém
com diferentes linguagens e diferentes placas microcontroladas, tendo focos diferentes
do desenvolvido neste projeto, como o DroidLar, por [Euzébio 2011], um sistema resi-
dencial para aparelhos com sistemas Android. [Silva 2016] desenvolveu um sistema de
automação residencial para gerenciar o consumo de energia elétrica nos chuveiros, que
avisa se o consumo estiver muito alto.
O sistema proposto aqui se diferencia dos demais ao propor um sistema de baixo
custo, com a placa Arduino, e que possa fazer o controle e análise de economia de energia
para o usuário.

3. Metodologia
Arquitetura dos serviços para automação residencial aqui proposta é composta de três
camadas a saber (Figura 1):
• Uma camada de hardware que consiste diversos sensores, atuadores e placa de
controle, instalados na casa,
• Um serviço de gerenciamento que agrega informações e que gerencia o uso de
energia nos cômodos da residência,
• Uma interface web para que o usuário possa consultar informações estatı́sticas
sobre o consumo de energia da casa.
Nesta arquitetura, também existe um módulo para a geração de relatórios. Por
exemplo, podem ser geradas estatı́sticas sobre o uso das lâmpadas da residência. A arqui-
tetura foi validada através da construção de um protótipo em uma maquete. O hardware
utilizado no protótipo é composto de uma placa Arduino UNO R3 com ATMega328, lu-
zes de LED, resistores e um conjunto de sensores de presença PIR. Este hardware foi
instalado em uma maquete de uma casa e é controlado através de um computador con-
vencional. É possı́vel ver a montagem final do protótipo na figura 1. Em duas peças da
casa foram instaladas lâmpadas LED e sensores de presença. Foram necessários o uso de
resistores para permitir o acionamento das lâmpadas de LED na casa.
Para o desenvolvimento da aplicação, foi realizada a implementação com a lin-
guagem de programação Python, com o banco de dados SQLite, para armazenamento e
consulta das leituras. A camada de aplicação (interface web) foi construı́da através da
utilização do framework Django. O módulo pySerial para realização de comunicação
serial entre a placa Arduino e a aplicação.
Na interface do usuário, foram utilizados recursos próprios do framework Django
responsáveis pelo tratamento da camada de visualização, e uma biblioteca JavaScript para

58
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Figura 1. Maquete com a placa Arduino

apresentação dos dados e geração de gráficos dinâmicos. Os dados são obtidos a partir
da conexão serial com a plataforma microcontrolada Arduino, que realiza a leitura dos
sensores do ambiente.

4. Resultados
Neste trabalho foi desenvolvido um protótipo para automação residencial com base no
conceito de Internet das Coisas, junto a um sistema que possibilita a aquisição de da-
dos sobre a presença de indivı́duos no local, com o uso da plataforma microcontrolada
Arduino, fazendo o uso de sensores para tal.
Esses sensores de presença são conectados à plataforma e os dados são enviados
via conexão serial, para um outro aplicativo desenvolvido com a linguagem Python que
os armazena em um banco de dados SQLite. O usuário interage com o sistema através de
uma interface web, desenvolvida com o uso do framework Django.

Figura 2. Interface web da smart house

O usuário atua sobre três ambientes na casa através da interface – ligar luzes
da sala e do quarto, abrir a garagem e pode ativar ou desativar cada um dos sensores.
O usuário também interage ao visualizar os dados coletados, que são atualizados com

59
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

frequência pelo uso da tecnologia AJAX e pode visualizar em forma de gráficos e re-
latórios, em que o usuário seleciona o perı́odo em que deseja ter informações sobre o que
aconteceu na casa, sendo essas informações:
• Quanto tempo cada lâmpada permaneceu ligada;
• Quantas vezes cada lâmpada foi acesa;
• Qual foi o consumo gerado(com a seleção do tipo de lâmpada que está naquele
local);
• Quantas vezes o alarme foi ativado e em que horário foi ativado cada vez.
Também foi desenvolvido módulo de alarme contra intrusão, em que o usuário é
avisado (via pop-up na tela) caso algum sensor detecte a presença de indivı́duo no local.

5. Conclusões
A maquete e os softwares desenvolvidos demonstram diversas possibilidades de
integração de componentes disponı́veis no mercado, fazendo uso de um microcontrolador
para coordenar e comandar todos os periféricos conectados a ele.
Neste trabalho apresentou-se, de forma simples e sucinta, como pode ser realizado
um protótipo de Smart House, no entanto está em aberto a possibilidade de melhorá-lo,
adicionando novas informações à estrutura proposta, como a alteração da conexão, que no
momento é realizada através de cabo USB conectado com o computador, sendo necessário
a mudança para uma conexão sem fio para permitir a comunicação do servidor com a
placa. Essas atividades serão realizadas por meio de trabalhos futuros.

Referências
Euzébio, M. V. M. (2011). DroidLar: Automação residencial através de um celular
Android. Curso Superior de Tecnologia em Sistemas de Telecomunicações do Instituto
Federal de Santa Catarina.
K. Lee, R. C. and Sunguk, L. A. (2013). Study of the architectural design of smart homes
based on hierarchical wireless multimedia management systems. International Journal
of Control and Automation, 6th edition.
Radu, M. (2016). Reliability analysis of smart house system. International Energy and
Sustainability Conference (IESC 2016).
Silva, E. A. (2016). Controle e monitoramento para consumo eficiente de energia elétrica
em uma smart home utilizando redes neurais artificiais. Trabalho de Conclusão de
Curso de Graduação - Universidade Federal de Santa Catarina. Campus Araranguá.

60
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Avaliação da CNN FaceNet para Reconhecimento Facial


de Estudantes em Sala de Aula
Bernardo Janko Gonçalves Biesseck1 , Valber Lemes Zacarkim2
1
Instituto Federal de Mato Grosso (IFMT) campus Pontes e Lacerda
Pontes e Lacerda – MT – Brasil
2
Universidade do Estado de Mato Grosso (UNEMAT)
Cáceres – MT – Brasil
bernardo.biesseck@plc.ifmt.edu.br, zacarkim@gmail.com

Abstract. Face recognition has become quite mature in recent years, mainly
because the advances obtained with Convolutional Neural Networks (CNNs).
Using the results published recently by the Computer Vision community we ela-
borated the idea of developing an application to perform automatic registration
of scholar students presence by facial recognition in images captured by the
teacher in classroom. In order, to evaluate the viability and limits of this ap-
plication, preliminary experiments were performed using the CNN FaceNet on
datasets FEI, with 99.74% of accuracy, and PICS, with 91.3% of accuracy. The
results obtained with images in different scales show the feasibility of the appli-
cation in terms of recognition quality.

Resumo. Nos últimos anos o reconhecimento facial tem se tornado bastante


maduro, principalmente devido aos avanços obtidos com Redes Neurais Convo-
lucionais (CNNs). A partir dos resultados publicados recentemente pela comu-
nidade de Visão Computacional elaboramos a ideia de desenvolver um apli-
cativo para realizar o registro automático de frequência escolar (chamada)
através de reconhecimento facial em imagens registradas pelo professor na
sala de aula. Para avaliar a viabilidade e os limites de funcionamento desta
aplicação foram realizados experimentos preliminares com a CNN FaceNet nos
datasets FEI, com 99.74% de acurácia, e PICS com 91.3% de acurácia. Os re-
sultados obtidos até agora mostram a viabilidade da aplicação no que se refere
à qualidade do reconhecimento.

1 - Introdução
Reconhecimento facial é uma tarefa bastante conhecida por pesquisadores de Visão
Computacional. Ela consiste em reconhecer automaticamente a identidade da(s)
face(s) da(s) pessoa(s) existente(s) em uma ou várias imagens. Diversas metodolo-
gias têm sido publicadas desde a década de 1990 em busca de melhorias, como Ei-
genFaces [Turk and Pentland 1991], FisherFaces [Belhumeur et al. 1997], Gabor Feature
[Liu and Wechsler 2002] e LBP [Ahonen et al. 2006]. Mais recentemente as Redes Neu-
rais Convolucionais (CNN, do inglês Convolutional Neural Networks) têm chamado a
atenção devido ao seu desempenho. Este trabalho apresenta resultados preliminares de re-
conhecimento facial obtidos com a CNN FaceNet [Schroff et al. 2015] nos datasets FEI
[de Oliveira Junior and Thomaz 2006] e PICS [School of Natural Sciences 2008] com o

61
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

objetivo de investigar a viabilidade de implementação de um sistema de registro au-


tomático de frequência escolar (chamada) através de reconhecimento facial em sala de
aula. A ideia é desenvolver um aplicativo móvel para que o professor faça a chamada
através da simples capture de 2 a 3 fotos contendo os rostos de todos os estudantes em
suas carteiras. Posteriormente serão avaliadas outras metodologias de reconhecimento
facial e também serão utilizados outros datasets.

2 - Trabalhos Relacionados
Uma Rede Neural Convolucional é um tipo especı́fico de Rede Neural projetada para
processar sinais em 2 dimensões, como imagens, através de operações de convolução,
pooling e ativação. A arquitetura Deepface [Taigman et al. 2014] utiliza 9 camadas e
alcançou 97.35% de acurácia no dataset Labeled Faces in the Wild (LFW). A VGG-
Face [Parkhi et al. 2015] e a FaceNet [Schroff et al. 2015] foram treinadas utilizando uma
função de erro tripla para minimizar as distâncias entre faces correspondentes e ao mesmo
tempo maximizar as distâncias entre faces não-correspondentes. Elas alcançaram acurácia
de 98.95% e 99.63%, respectivamente, no dataset LFW. A CNN FaceNet foi escolhida
para a realização de experimentos neste trabalho por gerar um vetor de caracterı́sticas
x ∈ R128 , o que representa um baixo custo de espaço para armazenamento e para a
realização de matchings.

3 - Metodologia
Para avaliar a capacidade de reconhecimento facial da CNN FaceNet [Schroff et al. 2015]
as imagens dos datasets utilizados foram separadas em 2 grupos: base e teste. As imagens
do grupo base são as amostras anotadas que o sistema possui como base de referência e
as do grupo teste representam as imagens que o sistema deve reconhecer a partir do grupo
base.
Em uma sala de aula comum os estudantes ficam distribuı́dos de maneira uniforme
de modo que algumas carteiras ficam mais próximas do quadro do que outras. As faces
dos estudantes localizados mais próximos da câmera aparecerão nas imagens com mais
detalhes do que as dos estudantes mais distantes, o que permite uma extração de carac-
terı́sticas com maior qualidade e torna o reconhecimento menos propenso a erros. Desta
forma, cada imagem do grupo teste foi reescalada para t = 200 tamanhos menores do que
o seu tamanho original, formando uma pirâmide de escala, até o tamanho 2 × 1 pixels.
O dataset FEI contém imagens coloridas frontais de tamanho 260 × 360 pixels
de 200 pessoas diferentes, sendo 2 imagens de cada uma, totalizando 400 imagens. Isso

Dataset: FEI Dataset: PICS


base
teste

Figura 1. Amostras dos datasets FEI e PICS.

62
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

permite realizar 200 · 200 = 40.000 comparações para cada tamanho t da pirâmide, re-
sultando em 40.000t = 8.000.000 comparações. A Figura 1 apresenta algumas amostras
deste dataset.
O dataset PICS é organizado em 4 diferentes conjuntos, sendo algumas amostras
apresentadas na Figura 1. O conjunto aberdeen contém 687 imagens coloridas de 90 pes-
soas da cidade de Aberdeen, Escócia. O conjunto Iranian possui 369 imagens coloridas
de 34 mulheres iranianas sorrindo ou com face neutra em 5 orientações diferentes. O con-
junto Pain expressions tem 599 imagens de 13 mulheres e 10 homens com 6 expressões
faciais diferentes e o conjunto Utrecht ECVP é formado por 131 imagens de 49 homens e
20 mulheres capturadas na European Conference on Visual Perception, em 2008.

4 - Experimentos
A comparação (matching) dos vetores de caracterı́sticas
p x, y ∈ R128 de duas faces foi
feita através da norma L2 = kx − yk2 = (x1 − y1 )2 + (x2 − y2 )2 . . . (xn − yn )2 ,
também conhecida como Distância Euclidiana. Nos experimentos realizados foi utili-
zada a distância d = 0.6 como limiar de aceitação no processo de matching. Assim, duas
faces foram consideradas iguais se L2 (x, y) ≤ d e diferentes se L2 (x, y) > d.
Dado que cada imagem de teste tem somente 1 imagem base correspondente e
N − 1 imagens não-correspondentes, a quantidade QC de pares correspondentes é muito
menor do que a quantidade QN de pares não-correspondentes. No dataset FEI QC = 200
e QN = 38.800 e no dataset PICS QC = 216 e QN = 46.656. Para evitar que o desba-
lanceamento entre os tipos de pares interferisse na avaliação do modelo foi necessário
normalizar os contadores T P (True Positive), T N (True Negative), F P (False Posi-
tive) e F N (False Negative) para o intervalo [0, 1] da seguinte maneira: T P = T PT+F
P
N
,
FN FP TN
F N = T P +F N , F P = F P +T N e T N = F P +T N .
A avaliação da qualidade do reconhecimento facial foi feita através das métricas
True Positive Rate (TPR) e Accuracy (ACC), calculadas como T P R = T PT+F P
N
e
T P +T N
ACC = T P +T N +F P +F N . A TPR mede a proporção de pares correspondentes identifi-
cados corretamente pelo modelo e a ACC mede a proporção de acertos (correspondentes
e não-correspondentes) dentro do conjunto total de pares de faces.

Dataset: FEI Dataset: PICS

Figura 2. Resultados da avaliação da CNN FaceNet [Schroff et al. 2015] nos da-
tasets FEI e PICS ao variar o tamanho das imagens de teste. A CNN apre-
sentou melhor True Positive Rate e Acurácia no dataset FEI pelo fato de
ele ser mais bem comportado, isto é, as imagens de teste possuem menos
variações em relação às imagens base.

63
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Os experimentos realizados mostraram que a CNN FaceNet é robusta a variações


de escala das faces, com 99.74% de acurácia até o tamanho 51 × 36 pixels no dataset FEI,
e com 91.3% de acurácia até o tamanho 45 × 32 no dataset PICS. Depois destes tamanhos
observa-se uma queda brusca no desempenho causada pela redução acentuada de True
Positives quando as faces passam a ter tamanhos muito pequenos. Estes resultados são
apresentados na Figura 2.
Em se tratando de salas de aula os indivı́duos a serem reconhecidos, os estudantes,
dificilmente estarão distantes o suficiente da câmera para que suas faces tenham tamanho
menor do que 45 × 32 pixels em uma imagem frontal capturada pelo professor. Em
imagens capturadas dentro de um laboratório de informática de tamanho 8 × 7 metros os
estudantes sentados ao fundo têm face de tamanho mı́nimo aproximado 73 × 60 pixels
enquanto os da frente têm face de tamanho 217 × 168 pixels.

5 - Conclusão
Neste trabalho são apresentados os resultados preliminares de avaliação da CNN FaceNet
[Schroff et al. 2015] para reconhecimento facial em sala de aula. Os resultados obtidos
até agora mostram parcialmente a viabilidade de sua utilização para a implementação do
módulo de reconhecimento facial de um sistema de registro automático de frequência es-
colar. Mais experimentos serão realizados com outros classificadores e em outros datasets
para aumentar a confiança nos resultados.

Referências
Ahonen, T., Member, S., Hadid, A., Pietikäinen, M., and Member, S. (2006). Face des-
cription with local binary patterns: Application to face recognition. IEEE Transactions
on Pattern Analysis and Machine Intelligence, 28:2037–2041.
Belhumeur, P. N., Hespanha, J. P., and Kriegman, D. J. (1997). Eigenfaces vs. fisherfaces:
Recognition using class specific linear projection. IEEE Trans. Pattern Anal. Mach.
Intell., 19(7):711–720.
de Oliveira Junior, L. L. and Thomaz, C. E. (2006). Captura e alinhamento de imagens:
Um banco de faces brasileiro. Department of Electrical Engineering, FEI.
Liu, C. and Wechsler, H. (2002). Gabor feature based classification using the enhanced
fisher linear discriminant model for face recognition. Trans. Img. Proc., 11:467–476.
Parkhi, O. M., Vedaldi, A., and Zisserman, A. (2015). Deep face recognition. In Procee-
dings of the British Machine Vision Conference (BMVC). BMVA Press.
School of Natural Sciences, S. (2008). Psychological image collection at stirling (pics).
University of Stirling.
Schroff, F., Kalenichenko, D., and Philbin, J. (2015). Facenet: A unified embedding for
face recognition and clustering. In In CVPR.
Taigman, Y., Yang, M., Ranzato, M., and Wolf, L. (2014). Deepface: Closing the gap to
human-level performance in face verification. In The IEEE Conference on Computer
Vision and Pattern Recognition (CVPR).
Turk, M. and Pentland, A. (1991). Eigenfaces for recognition. J. Cognitive Neuroscience,
(1):71–86.

64
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Aprendizado de Máquina na Classificação de Uso e


Cobertura da Terra utilizando Sensoriamento Remoto
Magaywer Moreira de Paiva1, Leo Manoel Lopes da Silva Garcia1, Leonardo Elias
Alves 1
1
Universidade do Estado de Mato Grosso – Barra do Bugres – MT – Brasil
E-mail: magaywer_moreira31@hotmail.com, leoneto@unemat.br,
leleocdo@gmail.com

Abstract. The knowledge of land use and land cover is of great importance for
decision making. Remote Sensing allows data collection and characterization
of land use and land cover classes. In this context, Machine Learning presents
techniques for dealing with data and solving problems more intelligently. Thus,
this work aims to evaluate the application of the concepts of Machine
Learning in the process of mapping land use and land cover to geographic
images, obtained by Remote Sensing. Therefore, it is expected to optimize the
mapping of land use and land cover classes and to contribute to the use of
automated classification techniques.

Resumo. O conhecimento do uso e cobertura da terra é de grande valia para


tomada de decisão. O Sensoriamento Remoto permite a obtenção de dados e
caracterização das classes de uso e cobertura da terra. Nesse contexto, o
Aprendizado de Máquina apresenta técnicas para lidar com dados e resolver
problemas de maneira mais inteligente. Assim, esse trabalho tem por objetivo
avaliar a aplicação dos conceitos de Aprendizado de Máquina no processo de
mapeamento de classes de uso e cobertura da terra para imagens geográficas,
obtidas por Sensoriamento Remoto. Com isso, espera-se otimizar o processo
de mapeamento de classes de uso e cobertura da terra e contribuir para
utilização de técnicas automatizadas de classificação.

1. Introdução
Muitas são as transformações realizadas sobre o meio ambiente a partir de atividades
antrópicas, principalmente agricultura, pecuária, urbanização e industrialização [Kleinpaul et al.
2005], causando impactos negativos para a sobrevivência humana em uma relação de ação-
reação. Sendo assim é imprescindível a disponibilidade de informações precisas e atualizadas
da cobertura da terra. Nesse contexto, o estudo do uso e cobertura da terra compreende a
busca por conhecimento da forma com a qual o homem utiliza o espaço ou, quando não
utiliza, a caracterização dos tipos de vegetação natural que compõe o solo, bem como suas
respectivas localizações [Araújo Filho et al. 2007].
Diante a problemática, o Sensoriamento Remoto fornece subsídio para estudos de
uso e cobertura da terra, pois possibilita a obtenção periódica de dados da superfície em
escala global de forma ágil, confiável e repetitiva [Meneses e Almeida 2012]. O

65
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Sensoriamento Remoto pode ser definido como uma ciência de detecção e medição
quantitativa de radiação eletromagnética refletida dos materiais terrestres representadas como
imagens, sem a necessidade de contato físico entre o sensor e o objeto [Meneses e Almeida
2012]. A radiação refletida pode variar de acordo com as características físicas de cada
objeto [Moraes 2002], isto é, objetos diferentes possuem índices de reflexão diferentes.
Portanto, a interpretação da radiação refletida permite identificar e classificar cada área em
uma classe de uso e cobertura da terra.
O Aprendizado de Máquina pode ser utilizado para a identificação de padrões. Ao
analisar uma amostra de imagens com Aprendizado de Máquina, o computador aprende o
padrão das imagens e reconhece esse padrão em outras imagens [Alpaydin 2010]. Desse
modo, o Aprendizado de Máquina, consiste no uso de dados históricos para a indução de
uma hipótese na forma de uma regra ou conjunto de regras que resolve o problema [Faceli et
al. 2011]. Segundo Mitchell (1997), o Aprendizado de Máquina pode ser definido como
qualquer programa de computador que executa uma tarefa e melhora seu desempenho nessa
tarefa através da experiência. Portanto, esse trabalho tem por objetivo avaliar a aplicação dos
conceitos de Aprendizado de Máquina no processo de mapeamento de classes de uso e
cobertura da terra para imagens geográficas, obtidas por Sensoriamento Remoto.

2. Trabalhos Relacionados
Existem outros estudos que apresentam a ideia de aplicar conceitos de Aprendizado de
Máquina como uma ferramenta que facilita o processo de classificação de uso e cobertura da
terra. Como exemplo, Sousa et al. (2010) mostram a viabilidade de utilização de dois
algoritmos baseados em Aprendizado de Máquina, Multi Layer Perceptron (MLP) e o
Support Vector Machine (SVM), na classificação do uso e cobertura da terra no bioma
Caatinga, utilizando uma imagem do satélite LANDSAT-5/TM. Contudo, estes
classificadores podem consumir mais tempo na etapa de definição dos parâmetros da rede e
de processamento.
Existem outros autores que se preocuparam em estudar um tipo de classe de uso da
terra: Souza et al. (2016) utilizou imagens de Sensoriamento Remoto para mapear a culturas
agrícolas de café. Foram utilizados 5 algoritmos de aprendizagem de máquinas e 7
combinações de variáveis (espectrais, texturais e geométricas), dos quais O Support vector
machine (SVM) apresentou o melhor desempenho em três áreas diferentes de minas gerais; já
Silva et al. (2017) utilizou 4 algoritmos de aprendizado de máquina: Random Forest (RF),
Model Averaged Neural Network (MANet), Classification and Regression Trees (CART) e
o Extreme Learning Machine (ELM), para classificação de soja nas bandas de 1 a 7 do
satélite Landsat-8, sendo que técnica MANet apresentou os melhores resultados e o ELM o
pior.
Em um contexto diferente de obtenção de dados, [Yano 2018] aborda o
mapeamento de infestações de plantas daninhas em lavouras de cana-de-açúcar, como uma
maneira de aumentar a produtividade e diminuir impactos ambientais. Nesse caso, foram
utilizadas imagens geradas por aeronave remotamente pilotada (RPA), sendo os experimentos
foram realizados em condições reais de campo. Nesse caso, três classificadores foram
utilizados, sendo a Rede Neural Artificial o classificador de melhor desempenho.

66
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

3. Metodologia
Este trabalho terá sua metodologia embasada em Prodanov e Freitas (2013). Sendo assim,
tem como procedimento a pesquisa bibliográfica, que busca informações a partir de materiais
já publicados, tais como livros, artigos, revistas e entre outros, a fim de reunir conhecimentos
acerca do objeto de estudo, além de dados de Sensoriamento Remoto, disponibilizados por
órgãos de pesquisa e a utilização desses dados para produzir a classificação a uso e cobertura
da terra.
Nesse trabalho, serão utilizados dados do sensor OLI (Operational Land Imager)
do satélite LANDSAT 8 da NASA [Barsi et al. 2014] que estão disponíveis gratuitamente no
catálogo de imagens do Instituto Nacional de Pesquisas Espaciais (INPE), acessível no sítio
eletrônico: http://www.dgi.inpe.br/, e catálogo de imagens do Serviço de Levantamento
Geológico Americano (USGS), acessível no sítio eletrônico: http://earthexplorer.usgs.gov.
Fundamentado na bibliografia, os dados de Sensoriamento Remoto serão utilizados
para produzir a classificação de uso e cobertura da terra que servirão de base de treinamento
para o Aprendizado de Máquina. Inicialmente, o uso e cobertura da terra será dividido em 5
classes: massas d’água que inclui lagos artificiais, lagoas, rios e espelhos d’água; outros usos
antrópicos composto por cidades, distritos, estradas vicinais, rodovias, construções civis e
mineração; vegetação que representa a savana e a floresta estacional; pastagem usada para a
pecuária; e agricultura que inclui todos os tipos de culturas agrícolas.
O treinamento do algoritmo de Aprendizado de Máquina será realizado após a
extração de caraterísticas. A extração de caraterísticas consiste na construção de uma tabela
que associa os dados de radiação medidos por Sensoriamento Remoto da área de uma classe
ao nome dessa classe. A tabela contendo em cada linha os valores de radiação e sua
respectiva classe serão utilizados no treinamento do algoritmo para reconhecimento de
classes. Sendo assim, terá a natureza de uma pesquisa aplicada de objetivo exploratório, com
o propósito de gerar novos conhecimentos acerca da aplicação e fornecer mais informações
sobre o tema.
Por fim, o algoritmo gerado será aplicado para identificar, a partir da entrada de
valores de radiação, a qual classe de uso e cobertura da terra uma determinada área
corresponde. Posteriormente, a avaliação do resultado será feita por meio da fidelidade dos
resultados apresentados pelo algoritmo, para as diferentes entradas, com o respectivo
resultado certo. Desta forma, por meio da abordagem qualitativa, procurará descrever como
o Aprendizado de Máquina pode contribuir no processo de interpretação de dados de
Sensoriamento Remoto, retratando os elementos utilizados e quais as relações observadas
com a aplicação.

4. Resultados Esperados
O Aprendizado de Máquina apresenta a capacidade de identificação de padrões. Nesse
contexto, um programa de computador que classifica imagens de satélite, tem seu
desempenho medido pela sua capacidade de identificar corretamente o que representa cada
pixel desse tipo de imagem. Com a aplicação de Aprendizado de Máquina, espera-se a
possibilidade de uso de imagens classificadas ou experiência passada para desenvolver uma

67
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

hipótese na forma de uma regra ou conjunto de regras para definir quais características das
imagens de satélite descriminam cada classe e melhorar o desempenho da classificação.
Portanto, a aplicação de Aprendizado de Máquina no processamento dessas imagens
pode otimizar o processo de mapeamento de classes de uso e cobertura da terra. Sendo
assim, espera-se com esse trabalho, aplicar o conceito de Aprendizado de Máquina em
dados de Sensoriamento Remoto, avaliar os resultados e contribuir para utilização de técnicas
automatizadas de classificação de uso e cobertura da terra.

References
Alpaydin, E. (2010), Introduction to machine learning. 2. ed. Massachusetts Institute of
Technology.
Araújo Filho, M. C. et al. (2007) "Sistema de Classificação de Uso e Cobertura da Terra
com Base na Análise de Imagens de Satélite". Revista Brasileira de Cartografia, n. 59/02,
p. 171-179.
Barsi, J. A. et al. (2014) “The Spectral Response of the Landsat-8 Operational Land Imager.”
Remote Sens. 6(10), 10232-10251.
Faceli, K. et al. (2011.), Inteligência Artificial: Uma Abordagem de Aprendizagem de
Máquina. Rio de Janeiro: LTC.
Kleinpaul, J. J. et al. (2005) "Analise Multitemporal da Cobertura Florestal da Microbacia do
Arroio Grande, Santa Maria, MS". Boletim de pesquisa, n. 51, p. 171-184.
Meneses, P. R.; Almeida, T. (2012) "Introdução ao Processamento de Imagens de
Sensoriamento Remoto". Brasília, DF. p. 1-5.
Mitchell, T. M. (1997), Machine Learning. McGraw-Hill Science. Engineering. March 1,
1997. p. 432.
Moraes, E. C. (2002) "Fundamentos de Sensoriamento Remoto. Instituto Nacional De
Pesquisas Espaciais - INPE". São José dos Campos, SP. p. 1-7.
Prodanov, C. C.; Freitas, E. C. (2013), Metodologia do trabalho científico: Métodos e
Técnicas da Pesquisa e do Trabalho Acadêmico. 2 ed. Novo Hamburgo, RS:
Universidade Feevale.
Silva, L. C. A. et al. (2017) "Algoritmos de Aprendizado de Máquina para classificação de
soja em imagens Landsat-8". Anais: Acta Iguazu, Cascavel, v.6, n.3, p. 65-78.
Sousa, B. F. S. et al. (2010) "Avaliação de Classificadores Baseados em Aprendizado de
Máquina para a Classificação do Uso e Cobertura da Terra no Bioma Caatinga". Anais:
Revista Brasileira de Cartografia No 62 EDIÇÃO ESPECIAL 2, ISSN 0560-4613.
Souza, C. G et all. (2016) "Algoritmos de Aprendizagem de Máquina e Variáveis de
Sensoriamento Remoto para o Mapeamento da Cafeicultura". Anais: Bol. Ciênc. Geod.,
sec. Artigos, Curitiba, v. 22, no4, p.751 - 773, out - dez.

68
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Yano, I. H. (2018) "Mapeamento de Infestações de Plantas Daninhas em Lavouras de Cana-


de-Açucar por Aeronave Remotamente Pilotada (RPA)". Universidade Estadual de
Campinas - Faculdade de Engenharia Agrícola. Campinas, SP : [s.n.], Tese.

69
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

O Uso do Software Livre App Inventor no Desenvolvimento


de um Aplicativo de Carona Acadêmica
Ernane Rosa Martins1, Glenda Vieira Gonçalves Trindade1
1
Instituto Federal de Goiás (IFG)
Caixa Postal 72.811-580 – Luziânia – GO – Brasil
ernane.martins@ifg.edu.br, glendavgt1@gmail.com

Abstract. This paper reports the elaboration of the Academic Hitchhiking


application, which aims to meet the specific needs of a particular educational
institution. For this, an analysis of the possible users was done through a form
of GoogleDocs and the screens of the application were created with the App
Inventor tool. The research has an exploratory character, with bibliographical
research and observation. The results showed that the application, when
finalized, could help people find possible car rides, making transportation
easier and faster, making fuel savings, reducing the emission of polluting
gases and promoting safety.

Resumo. Este trabalho relata a elaboração do aplicativo Carona Acadêmica,


que visa atender às necessidades específicas de uma determinada instituição
de ensino. Para isto realizou-se uma análise dos possíveis usuários por meio
de um formulário do GoogleDocs e criou-se as telas do aplicativo com a
ferramenta App Inventor. A pesquisa tem caráter exploratório, com pesquisa
bibliográfica e observação. Os resultados encontrados mostraram que o
aplicativo quando finalizado poderá auxiliar as pessoas a encontrar possíveis
caronas, facilitando e agilizando o transporte, possibilitando a economia de
combustível, a redução da emissão de gases poluentes e a promoção da
segurança.

1. Introdução
Na instituição de ensino que se propôs realizar este estudo, observa-se o costume de dar
e receber caronas. É usual que docentes, discentes ou técnicos auxiliem-se em questão
de transporte, gerando maior facilidade de deslocamento e menores gastos em itens
como combustível. Logo, notou-se que para à realização mais frequente de tal prática,
um aplicativo que mostrasse quem tem disponibilidade para dar caronas, assim como
quem tem interesse em delas usufruir, viria a ser útil a quem é ligado a instituição de
ensino. Em decorrência disso, decidiu-se realizar uma Iniciação Científica (IC) com a
meta de desenvolver um aplicativo chamado “Carona Acadêmica”, que se relaciona a tal
questão. Este, possibilitará estabelecer uma rede de caronas com maior facilidade,
visando atingir aqueles que possuem algum vínculo a instituição. Seus serviços seriam
voltados para o transporte a instituição de ensino, não se relacionando a caronas
referentes a outros destinos ou pontos de partida.
Este trabalho, discorre acerca dos requisitos que o aplicativo busca atender,
assim como às suas funcionalidades e à ferramenta e metodologia que será usada em seu

70
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

desenvolvimento. Os requisitos do aplicativo Carona Acadêmica englobam: Atender a


um público relacionado a instituição de ensino; fornecer aos estudantes, cuja idade, em
média, varia de 15 a 20 anos, ajuda para obter um transporte solidário e acessível para ir
e deixar a escola, assim como a possibilidade de que os mesmos disponham seu próprio
meio de deslocamento para ajudar os demais; dispor aos docentes e técnicos, de idades
variadas, um meio de encontrar colegas, espécie de “intercâmbio” de caronas, assim
como permitir que ofereçam caronas ou as recebam mesmo que o beneficiado não as
possa retribuir.
Verificou-se que a utilização das tecnologias vem se tornando cada vez mais
frequente no cotidiano das pessoas, em diferentes ramos como saúde, segurança,
esportes e principalmente na área educacional (BARBOSA, et. al. 2017). Os aplicativos
móveis (App) são produtos projetados e desenvolvidos para serem executados em
dispositivos eletrônicos móveis, tais como: Palmtops, Tablets, leitores de mp3, telefones
celulares, e Smartphones, e o mercado de dispositivos móveis apresenta atualmente
diferentes fabricantes, com uma gama de plataformas de desenvolvimento, sistemas
operacionais móveis, software e hardware (JANSSEN, 2018). Deste modo, o principal
desafio da computação móvel atualmente segundo Martins et. al. (2013) é a existência
de múltiplas plataformas, o que cria uma grande variedade de aplicativos, cada um
codificado para ser executado sob uma arquitetura específica. Atualmente, a tecnologia
mobile facilita muito o acesso à internet e há aplicativos com diversos propósitos, dando
conectividade a qualquer um, em qualquer ambiente, com comodidade e simplicidade
(MENDONÇA, 2015). Existem vários aplicativos similares, tais como: bynd,
caronetas, blablacar, mobiag, carona direta, meleva, zaznu, uber, beep me app, fleety, de
caronas. Mas nenhum para um público específico (MIWA, 2016).
Neste contexto, o objetivo a ser alcançado com a elaboração e desenvolvimento
do aplicativo Carona Acadêmica é atender a sociedade vinculada a uma determinada
instituição de ensino, adaptando o aplicativo às suas necessidades e características
específicas, de forma personalizada a esse grupo de pessoas. O artigo busca relatar a
elaboração deste projeto e os resultados parciais alcançados, por meio de uma pesquisa
exploratória e descritiva.

2. Métodos
A princípio foi realizada uma análise dos membros ligados a instituição de ensino, por
meio de um formulário do GoogleDocs, a respeito de aspectos relacionados à forma
como eles se transportam. As respostas foram tabuladas por meio de uma planilha do
software Excel e posteriormente analisadas. Esta contou com a participação de 162
alunos. O aplicativo será desenvolvido com o emprego do software livre App Inventor.
Escolhido por ser um ambiente de programação visual de código aberto, que pode criar
aplicativos para Android mesmo que o conhecimento em programação seja apenas
básico.
Os procedimentos utilizados para a pesquisa e desenvolvimento deste trabalho é
de caráter exploratório, com o desenvolvimento de pesquisa bibliográfica e observação,
buscando alinhar os fatores teóricos ao projeto prático, como forma de dar suporte às
suposições e previsões de viabilidade, e assim, desenvolvimento da atividade prática de
elaboração de um aplicativo móvel de carona acadêmica. A pesquisa exploratória “tende

71
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

a abordar novos problemas sobre os quais pouca ou nenhuma pesquisa anterior foi feita”
(BROWN, 2006). Foram definidas as etapas de criação do aplicativo, desde a concepção
das ideias, modelagem da solução, desenho das telas, programação, revisão, testes e
publicação do aplicativo na plataforma de distribuição (BELTRAME, et. al., 2017).

3. Resultados e discussão
Os resultados encontrados mostram que a maioria dos alunos não possuem carteira de
motorista, dos 162 alunos perguntados 153 alunos (94,4%) responderam que não, e
somente 9 alunos (5,6%) responderam sim. Quando perguntados se eles constumam
pegar carona, dos 162 alunos perguntados 63 alunos (38,9%) responderam que não, 63
alunos (38,9%) também responderam que raramente e apenas 36 alunos (22,2%) que
sim. Conforme apresentado na Figura 1.

Figura 1. Pergunta se costuma Figura 2. Pergunta se um


pegar carona. aplicativo sobre caronas seria
útil.

Por fim, quando perguntados se acham que um aplicativo sobre carona seria útil
para a instituição de ensino, dos 162 alunos perguntados 81 alunos (50%) responderam
que provavelmente sim, 63 alunos (39%) responderam sim, 9 alunos (5,5%) que não e 9
alunos (5,5%) que provavelmente não. Conforme apresentado na Figura 2. As respostas
consolidaram a aparente necessidade da elaboração e implementação de um software de
carona acadêmica para instituição de ensino. Os alunos relataram ainda, por meio de
conversas informais, que muitos tem medo de viajar com estranhos e que as pessoas
estão cada vez mais interessadas em dividir espaço nos carros, mas ficam com receio em
oferecer carona.

Figura 3. Login. Figura 4. Mapa.

72
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Disseram que é difícil pegar carona, e que o aplicativo poderá ajudar a dividir os
custos e facilitar o contato entre os alunos que não se conhecem, o aplicativo também
poderá se mostrar de fácil entendimento e utilização, facilitar e agilizar o transporte,
possibilitar que haja economia de combustível, reduzir a emissão de gases poluentes e
promover maior segurança. Baseado no conhecimento adquirido no presente estudo foi
possível construir as telas do aplicativo proposto, podendo estas ainda sofrerem
modificações futuras. Sendo algumas ilustradas nas Figuras 3 e 4.

4. Conclusões
O objetivo deste trabalho é relatar a elaboração do aplicativo Carona Acadêmica, que
busca atender a sociedade vinculada a uma determinada instituição de ensino, adaptando
o aplicativo às suas necessidades e características específicas, de forma personalizada a
esse grupo de pessoas. Sendo assim, foi realizada uma análise dos membros ligados a
instituição de ensino, por meio de um formulário do GoogleDocs, verificando a opinião
de uma parcela representativa dos possíveis usuários e criado as telas do aplicativo, com
o software livre App Inventor. Este quando finalizado será disponibilizado
gratuitamente, e poderá auxiliar as pessoas a encontrar possíveis caronas no meio
acadêmico, facilitando e agilizando o transporte, possibilitando a economia de
combustível, reduzindo a emissão de gases poluentes e promovendo maior segurança. A
próxima etapa a ser realizada nos próximos meses, será implementar e disponibilizar o
aplicativo para a comunidade acadêmica, e realizar novos estudos verificando a
possibilidade de ampliação ou adaptação a outros Câmpus.

Referências
Barbosa, M. E. Q.; Souza, N.; Silva, A.; Lins, R. (2017) Alfabetize: um aplicativo
móvel de apoio à alfabetização. In: VI Congresso Brasileiro de Informática na
Educação. p. 308-314.
Beltrame, W. A. R.; Baeta, K. D. S.; Marcos, R. de S.; Piassi, D. F. S. D.; Reboli, G. da
S.; Sezini, S. L. M.; Favatto, T. S. (2017) Aventura Matemática: Demonstração e
Avaliação de um Aplicativo para Aprendizagem de Operações Básicas. In: VI
Congresso Brasileiro de Informática na Educação. p.397-400.
Brown, R. B. (2006) Doing your Dissertation in Business and Management: The Reality
of Researching and Writing. SAGE, London.
Janssen, C. (2018) Mobile Application. Disponível em: https://www.techopedia.com/.
Acesso em: 08 abr. de 2018.
Martins, C.; Antonio, A.; Oliveira, C. A. (2013) Os desafios para a mobilização de
aplicações baseadas em plataforma Web. Catalão: Enacomp. p. 294-300.
Mendonça, P. (2015) Materialidade e sociedade: tendências sócio técnicas em
tecnologias móveis. In ScientiaeStudia, p. 929–947. São Paulo.
Miwa, J. (2016) Onze aplicativos de carona solidária para gastar menos (e aliviar o
trânsito). Disponível em: http://www.mobilize.org.br/noticias/9543/11-aplicativos-
de-carona-solidaria-para-voce-gastar-menos-e-aliviar-o-transito.html. Acesso em: 08
abr. de 2018.

73
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

A Utilização de Metodologias Ágeis e o Modelo MPS.BR em


Teste de Software
Jonatan W. Pereira Fernandes e André L. Sanson
1
Universidade Federal do Estado de Mato Grosso (UNEMAT) 78390-000 – Barra do
Bugres – MT – Brasil
{jhonnwill95, alsanson}@gmail.com

Abstract. This article aims to explore which are the agile practices that make it possible
to perform software tests to obtain quality systems, in accordance with the MPS.BR
process model, where after the bibliographic survey, it will present the results by means
of a review systematic, where it is expected to find what has been used in the test phase,
during software development showing the benefits and challenges that the agile
practices provide, in a national reality.
Resumo. Este artigo tem como objetivo explorar quais são as práticas ágeis que
possibilitam realizar testes de softwares para que se obtenha sistemas com qualidade,
em conformidade com o modelo de processo MPS.BR, onde após o levantamento
bibliográfico, apresentara os resultados por meio de uma revisão sistemática, onde se
espera encontrar o que tem sido utilizando na fase de teste, durante desenvolvimento de
software mostrando os benefícios e desafios que às práticas ágeis fornecem, em uma
realidade nacional.

1. Introdução
Dentro dos processos de desenvolvimento de software perdura-se uma série de
atividades que têm como objetivo garantir que o produto em si esteja em equivalência
ao que foi especificado, essas séries de atividades são chamadas de validação,
verificação e teste. [DELAMARO, 2007]. Quando se trata de produção de software com
qualidade, empresas de diferentes dimensões buscam se destacar no mercado, com
melhorias em suas correntes produtivas.
Estabelecer um desenvolvimento ágil buscando a satisfação do cliente, a entrega
incremental antecipada, esta priorizada, e uma alta comunicação entre desenvolvedores
e clientes, sendo a mesma ativa e contínua que, contribui de forma altamente positiva
[TELES, 2014]. Além da utilização de métodos ágeis de desenvolvimento, buscar a
melhoria dos processos é de fundamental importância, como a utilização do programa
de melhoria de processo de software brasileiro (MPS.BR) que tem como objetivo a
melhoria de software e serviços, se baseando nos conceitos de maturidade e capacidade
de processo. Busca implantar princípios da engenharia de software dentro do âmbito das
empresas de forma coerente, e estando em harmonia com definições, avaliações e
melhorias de processos de softwares internacionais tomadas como principais [SOFTEX,
2018].
Desse modo, explorar quais são as práticas ágeis que possibilitam realizar teste
de software para que se obtenha sistemas com qualidade, dentro de uma realidade
nacional, se faz necessário como contribuição a profissionais da área da tecnologia da

74
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

informação que desejam obter um meio de utilização dos métodos ágeis e os níveis de
maturidade do modelo de melhoria de processo de software brasileiro (MPS.BR) para os
testes de software.

2. Conceitos básicos
Kent Beck juntamente com outros 16 profissionais metodologistas reuniram-se, no ano
de 2001 e assinaram um documento denominado Manifesto para o Desenvolvimento
Ágil de Software. Por meio deste, estimularam por meio de princípios de valores a
utilização de métodos ágeis para o desenvolvimento de software. Descrito no Agile
Manifesto (2001), seus princípios e valores colocam que, ao que se refere o
desenvolvimento de software, ter uma importância maior nos indivíduos, interações, e
na colaboração do cliente para obter respostas rápidas a mudanças, alterações e o
software em funcionamento.
A utilização de metodologias ágeis fornece para o desenvolvimento uma maior
confiabilidade em entregas de produtos com qualidade, umas das metodologias que se
sobressaem atualmente são Scrum, eXtreme Programming, Feature-Driven
Development (FDD), e o Processo Unificado Ágil. Sendo o Scrum uma metodologia
que está além de um conjunto de práticas, possibilita a equipe realizar inspeções e
adaptações frequentemente [SCHWABER, SUTHERLAND, 2017]. O eXtreme
Progrgramming, busca garantir a satisfação do cliente de maneira harmoniosa e coesa
contribui para que o cliente tenha de volta um alto retorno de seu investimento em
software [TELES, 2014].
O surgimento do Processo Unificado Ágil se popularizou no meio de
desenvolvimento de software por possuir pontos fortes em organização e consistência na
sua maneira de conduzir um projeto [LARMAN, 2011]. E a metodologia Feature-
Driven Development (FDD) possui uma intensa interação com o cliente com uma
entrega constante de versões do produto que se está sendo desenvolvido, tendo pontos
como modelagem, planejamento prévio e controle dos projetos como benefícios que são
altamente rigorosos prevendo práticas para o desenvolvimento de software [SILVA;
HOENTSCH; SILVA, 2009].
O teste em software dentro do desenvolvimento pode ser definido como sendo o
processo que visa a execução de forma controlada, no intuito de avaliar como está o
comportamento do sistema em ralação ao que foi especificado e pode ser considerado
como uma forma de validação a execução desses testes, tendo também técnicas de
verificação onde o objetivo da realização de testes está em prevenir e corrigir problemas
buscando aprimorar a qualidade do sistema a ser desenvolvido [RIOS; FILHO, 2013].
A ideia de desenvolvimento dirigido por teste está em escrever os testes antes de
iniciar o código de produção, facilitando a garantia do funcionamento do sistema que
está sendo desenvolvido, pois uma boa porcentagem, ou até mesmo o sistema por
completo terá um teste já realizado [ANICHE, 2014].
Em busca de solucionar problemas na maturidade dos processos de softwares nas
empresas brasileiras, a SOFTEX – Associação para Promoção da Excelência do
Software Brasileiro, iniciou o programa MPS.BR – Melhoria de Processo de Software
Brasileiro, em dezembro de 2003 [SOFTEX, 2018].

75
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

De acordo com o MPS-SW [2016, p. 41], “o propósito de processo Verificação é


confirmar que cada serviço e/ou produto de trabalho do processo ou do projeto atente
apropriadamente os requisitos especificados.”
E ainda descrito pelo MPS-SW [2016, p. 40], “o propósito do processo Validação é
confirmar que um produto ou componente do produto atenderá a seu uso quando
colocado no ambiente para o qual foi desenvolvido.”

3. Metodologia
A realização desta pesquisa se fundamenta em uma metodologia de pesquisa de natureza
básica e busca produzir conhecimento, de objetivo exploratório obtendo uma visão
abrangente de métodos ágeis, o modelo MPS.BR, e teste de software, uma pesquisa
bibliográfica o qual se caracteriza por um estudo a partir de materiais já elaborados
como livros e artigos científicos, onde serão apresentados os resultados alcançados após
o levantamento bibliográfico sobre a literatura nacional, e por ser um tema atual
decorrente de alterações, se viu necessário a realização de uma revisão sistemática
seguindo um protocolo desenvolvido através do questionamento de se conhecer quais
praticas ágeis de desenvolvimento ágil de software se associam ao modelo MPS.BR,
mediante aos testes de software.
Selecionando termos chaves e palavras relacionadas ao tema do trabalho,
definindo strings de buscas para a seleção de estudos nas bases de dados Google
Acadêmico, Domínio Público, Ministério da Ciência e Tecnologia (MCT), Sociedade
Brasileira de Computação (SBC), Universidade de São Paulo (USP), Pontifícia
Universidade Católica do Rio de Janeiro (PUC-Rio), Scientific Eletronic Library Online
(Scielo), Universidade Estadual de Campinas (UNICAMP), Universidade Federal do
Rio Grande do Sul (UFRGS) e Universidade Federal de Pernambuco (UFPE), sendo
considerados os mesmo referencias nos estudos referente ao tema.
Com uma abordagem qualitativa, selecionar os estudos através de critérios de inclusão e
exclusão, extrair os dados necessários utilizando a ferramenta StArt, está voltada
especificamente para revisões sistemáticas, desta forma, poder analisar, identificar e
apresentar os principais trabalhos científicos sobre o tema abordado.

4. Mapeamento
A demanda de desenvolvimento de software aumenta cada vez mais e para gerar
produtos com alta qualidade, as equipes de desenvolvimento buscam meios de produção
que consiga agradar todos os envolvidos no projeto. O desenvolvimento ágil propõe
metodologias que são capazes de oferecer a uma equipe caminhos eficientes para
garantir um produto de qualidade.
Especialmente em testes, parte fundamental do processo de criação, que leva o
desenvolvimento do produto a estar em conformidade ao que se foi estabelecido. Por
meio dos testes pode se evitar o retrabalho em grande parte do projeto, sendo uma
prática que beneficia todo o desenvolvimento [RIOS; FILHO, 2013]. As práticas ágeis
relacionadas a testes fornecem a possibilidade de um feedback constante durante todo o
processo, desta maneira a sua utilização é de suma importância para a produção de
software [PRIKLADNIKI; WILLI; MILANI, 2014].

76
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Se tratando de processo de produção de software, buscar maior eficiência se faz


necessário quando se deseja o desenvolvimento com qualidade e, desta maneira, o
modelo de melhoria de processo de software brasileiro (MPS.BR) oferece meios para
obter esta qualidade. Apresentados em seus níveis de maturidade, o nível chamado de
largamente definido, trata os testes de softwares de maneira expressiva e propõe
processos que levam a produção software com maior eficácia [SOFTEX, 2018].

5. Resultados esperados
O objetivo deste trabalho é explorar quais são as práticas ágeis que possibilitam realizar
teste de software para que se obtenha sistemas com qualidade e modelo de processo
MPS.BR. Acrescenta-se que através de uma revisão sistemática em estudos nacionais,
encontrar quais práticas de desenvolvimento ágil relacionadas a testes estão sendo mais
utilizadas, e como as mesmas estão sendo vinculadas aos níveis de maturidade do
MPS.BR, apresentando os benefícios e limitações de sua utilização.

Referencias
Agille manifesto. (2001) “Manifesto for agile software development”. [S.1.: s.n.].
Disponível em < http://agilemanifesto.org/iso/ptbr/manifesto.html>.
Delamaro, M. E.; Maldonado, J.C.; Jino, M. (2007) “Introdução ao Teste de Software”.
Elsevier. 4º edição. 396p.
Larman; Craig. (2011) “Utilizando UML e Padrões” Bookman. 3º edição. 696p.
Priladnicki, R.; Willi, R.; Milani, F. (2014) “Métodos Ágeis para Desenvolvimento de
Software”. Bookman. 1º Edição. 292p.
Rios, E.; Filho, T. M. (2013) “Teste de Software”. Alta Books editora. 3º edição.
Aniche, M. “Test-Driven Development”. [s.l.]: caelum, 2014.
Sbrocco, J.T.C.; Macedo, P.C. (2012) “Engenharia de Software Sob Medida”.
Érica.1º edição. 254p.
Schwaber, K. Suterland, J. (2017) “The Definitive Guide to Scrum: The rules of the
Game”.
Silva. F.G; Hoentsch. S. C. P; Silva. L. (2009) “Uma Análise das Metodologias Ágeis
FDD e Scrum Sob a Perspectiva do Modelo de Qualidade MPS.BR”.
Softex - Associação para Promoção da Excelência do Software Brasileiro (2018)
“MPS.BR – Melhoria de Processo de Software Brasileiro.” Disponível em<
https://www.softex.br/>.
Softex. (2018) “Modelos de Referência”. Disponível em
<http://www.softex.br/mpsbr/guias/>.
Sommerville, I. (2011) “Engenharia de Software”; Pearson Prentice Hall. Tradução
Bosnic, I.; Gonçalves, K.G.O. 9º edição. 529p.
Teles, M. V. (2014) “Extreme Programming”. Novatec Editora Ltda. 2º edição. 324p.

77
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Apresentando o desenvolvimento de aplicativos aos jovens


através da extensão universitária
Gabriel S. Ferrão1, Gabriel B. Alencar2, Kaique de C. Pereira2, Sumaya F Guedes1
1
Universidade do Estado de Mato Grosso (UNEMAT)
Caixa Postal 92 – 78.390-000 – Barra do Bugres – MT – Brasil
2
Escola Estadual Alfredo José da Silva
Rua Tamoios, nº 55, Bairro Maracanã – 78.390-000 – Barra do Bugres – MT – Brasil.
gabrielferrao@unemat.br, raysky33@gmail.com, kaique_777@outlook.com,
su_sumaya@yahoo.com.br

Abstract.

During high school, students are pressured to choose a degree and hence
through courses with no information about a job market. After the beginning
of the training, the academics do not identify with the profession, generating
doubts and, in many cases, teaching. In this way, the project Art and Science
in the Campus aims to show the areas of training of courses and the two
editions was offered by a teaching workshop the logic of programming and
development of algorithms, draws the attention of students to the course of
Science of Computing.

Resumo.

Durante o ensino médio, os estudantes são pressionados para escolherem uma


graduação e consequentemente, optam pelos cursos sem informações sobre a
atuação no mercado de trabalho. Após o início do curso, diversos acadêmicos
não se identificam com a profissão, gerando dúvidas e, em muitos casos, a
desistência da universidade. Desta forma, o projeto Arte e Ciência no Campus
tem como objetivo mostrar as áreas de atuação de diversos cursos e em duas
edições foi ofertado a oficina de Introdução a programação “AppFacil”, com
objetivo de oferecer o primeiro contato dos alunos do ensino médio com a
lógica de programação e desenvolvimento de algoritmos, atraindo a atenção
dos alunos para o curso de Ciência da Computação.

Introdução
O período da adolescência é considerado a fase de transições do indivíduo. Entre as
transições e ciclos marcantes destaca-se o início da escolha profissional. Com a
proximidade do término do ensino médio é intensificada a busca por uma carreira, pois
é o momento de ingressar em uma universidade, optando por um curso superior [Santos
2005].
A escolha do curso superior está diretamente ligada com o estabelecimento do
que fazer, quem ser e o lugar que vai pertencer. Isso porque a formação da identidade

78
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

profissional influencia diretamente a identidade pessoal, pois passa a fazer parte do


cotidiano do indivíduo [Bohoslavsky 1977] [Bardagi, Lassance e Paradiso 2003].
Apesar do futuro dos jovens não depender apenas da carreira profissional e mesmo com
a ciência de que a escolha profissional pode ser alterada posteriormente, a escolha do
curso superior tem se tornado cada vez mais complicado para os jovens, principalmente
no ensino médio [Veinstein 1994][Bardagi, Lassance e Paradiso 2003].
As escolas e as famílias não auxiliam diretamente na tomada de decisão do curso
superior e, dessa forma, a maioria dos jovens não tem noção das áreas de trabalhos e
acabam por se decepcionar durante a graduação, contribuindo com o aumento da evasão
do ensino superior. De acordo com Bardagi, Lassance e Paradiso (2003), a ausência da
oportunidade de conhecer os cursos superiores e a carreira de cada profissão,
principalmente com os alunos em processo de finalização do ensino médio, pode
resultar em imaturidade e insegurança nos jovens e adultos em períodos posteriores da
vida profissional, muitas vezes incapacitando-os para a formulação de projetos
profissionais consistentes.
Uma das principais causas de evasão no ensino superior é a falta de orientação
vocacional e desconhecimento da metodologia do curso. Na adolescência, os alunos
estão muito jovens para escolher a carreira e, sem orientação vocacional adequada
acabam seguindo a vontade dos pais e parentes, sem conhecer ou considerar as suas
próprias habilidades, ou mesmo se inscrevem em cursos com concorrência menor. Estes
fatores contribuem muito para o desinteresse e desmotivação dos alunos que, diversas
vezes, os leva a desistir do curso escolhido [Soecki 2018].
Como uma proposta para apresentar aos alunos do ensino médio os cursos
ofertados por uma universidade estadual, foi institucionalizado o projeto de extensão
denominado de “Arte e ciência no Campus”, que tem como principal objetivo oferecer
oficinas que abordem as diferentes áreas de atuação dos cursos ofertados no campus.
Dentre as oficinas oferecidas nesse projeto de extensão foi ofertada a oficina de
Introdução a programação “AppFacil”, com objetivo de oferecer o primeiro contato dos
alunos do ensino médio com a lógica de programação e desenvolvimento de algoritmos,
despertando o interesse dos jovens alunos para o curso de Ciência da Computação.

Metodologia
Foram realizadas duas edições do projeto, onde foi ofertada a oficina de introdução a
programação “APP fácil”. A oficina foi ofertada em formato de minicurso para alunos
sem conhecimento prévio de programação ou raciocínio lógico, condições necessárias
para o desenvolvimento de softwares.
A proposta dos minicursos foi a construção de um aplicativo para Android que,
seguindo um passo-a-passo, seria criado um jogo de caça ao mosquito (Figura 1). Para o
desenvolvimento do aplicativo foi utilizada a programação em blocos através da
plataforma MIT AppInventor2, escolhida devido a facilidade de utilização e
simplicidade da linguagem e na construção de aplicativos.

79
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Figura 1. Jogo Caça Mosquito e Blocos

Para apresentar o passo-a-passo, foi utilizada uma apostila com instruções e


explicações detalhadas das etapas de desenvolvimento, trazendo desde a apresentação da
plataforma Android, definições de algoritmo e software até instruções de utilização das
ferramentas do AppInventor para a construção do jogo.
Na primeira edição, realizada em 2017, foram atendidos 04 alunos em um
período inicial de 08 horas. Inicialmente o minicurso foi elaborado para o
desenvolvimento do Caça ao mosquito. Porém, devido ao interesse dos participantes,
além do Caça Mosquitos os alunos pediram ao instrutor que fosse desenvolvido um
aplicativo original, passando pela concepção da ideia até a implementação do aplicativo.
O projeto, denominado “Fala que eu te lembro”, consistiu de um despertador
personalizado, onde o usuário gravaria a mensagem que seria reproduzida no horário
que fosse programado (Figura 2).

Figura 2. Telas do aplicativo “Fala que eu te Lembro”

Neste minicurso a carga horária foi extrapolada a pedido dos participantes para,
sob orientação do instrutor, prosseguirem o desenvolvimento aprimorado do projeto por

80
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

mais 15 dias após o encerramento do minicurso, demonstrando um grande interesse pelo


desenvolvimento de softwares.
Na segunda edição, realizada em 2018, foram atendidos 08 alunos (Figura 3), e o
minicurso foi realizado em um total de 06 horas, onde os alunos realizaram apenas a
construção e personalização do jogo Caça Mosquito devido ao curto tempo. A etapa de
construção seguiu os mesmos padrões da etapa anterior, porém durante a
personalização, os alunos escolheram aspectos do jogo que poderiam ser melhorados,
entre eles foram acrescentados níveis de dificuldade e uma melhor interação com o
jogador.
Os alunos participantes ficaram animados com o curso e, inclusive, demostraram
habilidades para a ciência da computação. Alguns participantes relataram com
entusiasmo que mostraram o aplicativo que estavam desenvolvendo aos familiares que,
por desconhecimento do potencial dos conhecimentos adquiridos, não entenderam a
euforia deles em ter criado algo tão simples. Mesmo com essas situações, todos os
alunos participaram ativamente dos três dias do minicurso.

Conclusão
Com a realização dos minicursos de Introdução a Programação “AppFácil” foi possível
perceber o despertar do interesse dos alunos atendidos pelo desenvolvimento de
softwares, que é uma das áreas de atuação do cientista da computação. Dos 04
participantes da primeira edição do minicurso, um deles optou por participar da segunda
edição alegando ter descoberto uma grande afinidade com o desenvolvimento de
softwares e seu interesse em se profissionalizar nessa área, estando inclusive inscrito no
vestibular para o curso de Ciência da Computação.

Referencias
Bohoslavsky, R. (1977). Orientação vocacional: A estratégia clínica. São Paulo: Martins
Fontes.
Veinstein, S. B. G. (1994). La elección vocacional ocupacional: Estrategias – técnicas
(2ª ed.). Buenos Aires: Marymar
Müller, M. (1988). Orientação vocacional: Contribuições clínicas e educacionais. Porto
Alegre: Artes Médicas
Bardagi, Marúcia Patta; Lassance, Maria Célia Pacheco; Paradiso, Ângela Carina.
Trajetória Acadêmica e Satisfação com a Escolha Profissional de Universitários em
Meio de Curso. Revista Brasielira de Orientação Profissional, 2003, 4 (1/2), pp. 153-
166.
Santos, Larissa Medeiros Marinho dos. O papel da família e dos pares na escolha
profissional. Psicologia em Estudo, Maringá, v. 10, n. 1, p. 57-66, jan./abr. 2005.
Soecki, Ana Márcia et al. Evasão no Ensino Superior. Nativa-Revista de Ciências
Sociais do Norte de Mato Grosso, v. 7, n. 1, 2018.

81
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Educação matemática e multimodalidade: uma proposta de pesquisa

Izamara Cirqueira Bini 1, Graciela Rogoski Kapron1, Daise Lago Pereira Souto3

¹Licencianda em matemática – Universidade do Estado de Mato Grosso (UNEMAT)


Barra do Bugres – MT– Brasil
2
Doutora em Educação Matemática-
Universidade do Estado de Mato Grosso (UNEMAT) - Barra do Bugres, MT – Brasil
{izamarabinny@gmail.com, gracielacnec@hotmail.com, daise@unemat.br}

Abstract. This abstract presents a research proposal that aims to elaborate a


guide about the production of mathematical cartoons based on the concept of
multimodality, with a combination of images, speeches, musics, animations
and written texts, which is part of a larger project named M@toon:
Mathematics and Cartoons in Basic and High Education in Mato Grosso. The
technology development has changed the world, and because of this, has
gained space in several places, with greater relevance and importance inside
the classroom. Therefore, this proposal contributes to problems about the
adaptation and participation in using digital technologies in school
environment.

Resumo. Este resumo apresenta uma proposta de pesquisa que tem por
objetivo elaborar um guia orientativo para a produção de cartoons com base
no conceito de multimodalidade, com a combinação de imagens, falas,
músicas animações e texto escrito, a mesma, faz parte de um projeto maior
nomeado M@toon: Matemática e Cartoons na educação Básica e Superior de
Mato Grosso. A evolução da tecnologia vem mudando o mundo, com isso, tem
conquistado seu espaço em diversos locais, com maior relevância e
importância, dentro da sala de aula, neste sentindo, esta proposta contribui
para a problemática de se adaptar e participar do uso das tecnologias digitais
no espaço escolar.

1. Introdução
Apresentamos neste artigo uma proposta de pesquisa que visa dar sequência ao
subprojeto “Luz, câmera: Educação Matemática em animação” que teve como objetivo
produzir um guia, ou seja, um tutorial para professores e alunos com informações sobre
produção e edição de vídeos do tipo cartoons matemáticos. Ambos os subprojetos
fazem parte de um projeto maior intitulado “M@ttoon; matemática e cartoons na
Educação Básica e Superior de Mato Grosso” que possui como foco principal discutir
limites e possibilidades das tecnologias digitais nos processos de ensino e
aprendizagem da Matemática com Cartoons.
Sabemos que as tecnologias estão inteiramente conectadas com o atual mundo
em que vivemos, tanto no contexto social como o escolar. Uma justificativa seria que
os seres humanos se apoiam em instrumentos que facilitem o processo de atividades

82
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

corriqueiras. Neste sentido Souto e Borba (2016) salientam que não é incomum que
alunos utilizem as tecnologias digitais, para sanar dúvidas e amenizar suas dificuldades
de aprendizagem. Os pesquisadores (e.g. SOUTO E BORBA, 2016; BITTAR, 2011)
entram em consenso que os jovens estão infiltrados no meio tecnológico e utilizam
essas tecnologias para estudar, se informar e se divertir.
Concomitante a isso, algumas escolas e professores começam a experimentar
alternativas convenientes com o mundo em que vivemos hoje, que é um mundo de
imagens, sons e palavras, ou seja, um mundo multimodal.
Segundo Cunha (2018) “a multimodalidade favorece a aprendizagem dos
estudantes de maneira a contemplar os diferentes estilos de aprendizagem. Os estilos
de aprendizagem referem-se às preferências e tendências altamente individualizadas de
uma pessoa, que influenciam sua maneira de aprender um conteúdo”.
Dessa forma, esta proposta contribui para a problemática de se adaptar e
participar do uso das tecnologias no espaço escolar, a medida que pretende desenvolver
um guia orientativo para a produção de cartoons com base no conceito de
multimodalidade, fazendo com que a leitura do mesmo seja menos intensa, e, mais
atrativa, com a combinação de imagens, falas, músicas, animações e texto escrito. De
acordo com Silva e Trevisol (2009), “os desenhos animados [do tipo cartoons]
representam um conjunto de estímulos visuais, auditivos, reflexivos de mensagens e
informações sobre diferentes contextos”. O ponto de vista desses autores reforçam a
concepção de que a produção de cartoons pode contribuir para o aprendendizado.
Justificando assim, a produção do guia de forma multimodal. Esse guia será
disponibilizado para acesso livre e gratuito no site webm@ttoon.

2. Procedimentos Metodológicos
O movimento de aderir tecnologias em sala de aula proporciona que a escola faça parte
do quadro tecnológico “informacional” (LOPES 2014). Tendo em vista que o objetivo
deste subprojeto não visa a dimensão de dados metodologicamente e sim analisar a
qualidade optamos por um a abordagem qualitativa (BOGDAN E BIKLEN, 1994).
Neste sentido, a organização do processo de pesquisa foi dividida em dois
momentos a) Elaboração do guia; b) Avaliação do guia. No que diz respeito ao
processo de elaboração do guia será realizada um a revisão de um guia já pronto com o
objetivo de reescrever usando multimodalidade deixando de uma forma mais atrativa.
Usar softwares gratuitos e outras tecnologias que sejam apropriadas para a produção ou
edição de cartoons matemáticos; a fase seguinte consiste na examinação do conteúdo
produzido passo-a-passo e no procedimento de utilização de software.
Em relação a avaliação do guia, as dicas e o conteúdo serão examinados por
alunos e professores de matemática da educação básica e superior para que seja
possível identificar os limites e as possibilidades do material. A solicitação para a
atuação na avaliação será feita por meio de e-mails com carta convite, contendo
esclarecimentos sobre as finalidades e objetivos do estudo. A etapa seguinte será o
envio do questionário de avaliação, acompanhado do termo de consentimento livre e
esclarecido.

83
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

O questionário de avaliação será adaptado com questões abertas e fechadas


que possibilitem compreender os limites e possibilidades do guia com o agente
potencializador dos sentimentos de segurança e autonomia de professores e alunos em
relação ao uso das tecnologias apresentadas nos processos de ensino e aprendizagem da
matemática. Dentre os itens a serem avaliados nas questões fechadas destacam -se:
clareza e objetividade nas informações; design; resolução das imagens; organização
clara e lógica; fotos, figuras, áudios; dicas de conteúdos de matemática; dicas de
conteúdos sobre ensino e aprendizagem com tecnologias digitais; escrita correta. No
que diz respeito às questões abertas os avaliadores poderão opinar e fazer sugestões ou
comentários a respeito do guia.

3. Resultados esperados
Esperamos com o avanço da pesquisa, elaborar um guia que seja de leitura agradável e
atrativa e que possa trazer contribuições para os processos de ensino e aprendizagem
com uso de tecnologias digitais, promovendo, uma maior aproximação entre a forma
como os alunos querem aprender e o modo como a “escola” ensina conforme Souto
(2014).

4. Considerações
As tecnologias estão inseridas no nosso contexto e se tornou de fácil acesso adquirir
aparelhos como os smartphones, tabletes, notebooks, e-readers, etc. O referido guia irá
oferecer softwares gratuitos e outras tecnologias que sejam apropriadas para a
produção ou edição de cartoons matemáticos. Para COSTA e SOUTO (2016) a
produção de cartoons pode contribuir para a redução do desconforto que os alunos
podem ter com os conceitos e definições matemáticos tornando a matemática mais
atrativa para o educando.
Logo, acreditamos que a partir da disponibilização deste guia multimodal com
informações claras e objetivas os estudantes se sentirão engajados para elaborar seus
cartoons e participar das aulas ativamente.

Referências

BITTAR, M. A. Abordagem instrumental para o estudo da integração da tecnologia na


prática pedagógica do professor de matemática. Educar em revista, p. 157-171,
2011.
BOGDAN, R. C.; BIKLEN, S. K. Investigação qualitativa em educação. Porto: Porto
Editora, 1994.
COSTA, R. F.; SOUTO, D. L. P. Cartoons no Ensino da Matemática: limites e
possibilidades. In: Encontro Nacional de Educação Matemática - ENEM, XII,
2016.
CUNHA, J. F. T. Blended learning e multimodalidade a formação continuada de
professores para o ensino de matemática, 2018.
LOPES, J. G. Protótipo de material didático digital interativo para ensino de língua
portuguesa, 2014.

84
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

SILVA. J., A. G.; TREVISOL, M. T. C. (2009). Os desenhos animados como


ferramenta pedagógica para o desenvolvimento da moralidade”. IX Congresso
Nacional de Educação – EDUCERE; III Encontro Sul Brasileiro de Psicopedagogia,
Disponível em:
http://www.pucpr.br/eventos/educere/educere2009/anais/pdf/3137_1761.pdf Acesso
em: 14 mar. 2016.
SOUTO, D, L, P.; BORBA, M, C. Aprendendo com a Produção de Vídeos para Aulas
de Matemática. Educação Matemática em Revista, p. 54-63, 2016.
SOUTO, D. L. P. Transformações expansivas na produção matemática on-line. São
Paulo. Editora Cultura Acadêmica, 2014.

85
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Facebook como Ferramenta de Apoio ao Ensino Superior


Ernane Rosa Martins1, Luís Manuel Borges Gouveia2
1
Instituto Federal de Goiás (IFG)
Caixa Postal 72.811-580 – Luziânia – GO – Brasil
2
Universidade Fernando Pessoa (UFP)
Caixa Postal 4249-004 – Porto – Portugal
ernane.martins@ifg.edu.br, lmbg@ufp.edu.pt

Abstract. This article presents an experience with the use of the Social
Network Facebook, for educational purposes and as support in pedagogical
practices. The research is a quantitative approach, with characteristics of an
information survey and has as a target audience students of the Project
Management discipline of the higher course in Information Systems (IS). As a
partial result it was found that Facebook, in the opinion of the participants,
can be a very effective tool as a support in pedagogical practices.

Resumo. Esse artigo apresenta uma experiência com a utilização da Rede


Social Facebook, com intuito educacional e como apoio nas práticas
pedagógicas. A pesquisa é de abordagem quantitativa, com características de
um levantamento de informações e teve como público alvo discentes da
disciplina de Gerencia de Projetos do curso Superior em Sistemas de
Informação (SI). Como resultado parcial verificou-se que o Facebook, na
opinião dos participantes, pode ser uma ferramenta muito eficaz como apoio
nas práticas pedagógicas.

1. Introdução
A utilização da Internet vem crescendo de forma rápida atualmente, principalmente
pelos mais jovens. No mundo todo as pessoas tem ao seu dispor a oportunidade de
compartilhar experiências e informações. Segundo a Unicef (2013), mais de 10 milhões
de adolescentes fazem uso diário da Internet no mundo, tendo como uma das suas
principais atividades o acesso a redes sociais, ao entretenimento e à busca de
informações. Conforme o Comitê Gestor da Internet no Brasil (2014), por meio da
pesquisa “TIC Domicílios”, de 2013, realizada no Brasil, mostrou que 75% dos
adolescentes de 10 a 15 anos e 77% dos jovens entre 16 e 24 anos utilizam a Internet.
Demostrando que as práticas educativas podem ser favorecidas com a utilização das
Tecnologias Digitais de Informação e Comunicação (TDIC), principalmente redes
sociais, como o Facebook (SEABRA, 2010).
O Facebook define-se em sua página oficial como um produto/serviço que tem
por missão “criar um mundo mais aberto e transparente, o qual acreditamos que criará
mais entendimento e conexão.” (Facebook, 2018). Sendo atualmente considerado o
maior site de rede social da história e o mais poderoso meio de comunicação de nossos
tempos, conforme a edição 348, de junho de 2015, da Revista Super Interessante, 936

86
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

milhões de pessoas entram diariamente no Facebook, sendo 59 milhões só no Brasil.


Segundo esta revista “Metade de todas as pessoas com acesso à Internet, no mundo,
entra no Facebook pelo menos uma vez por mês.” (Santi & Garattoni, 2015). Esta rede
foi criada em 2004 e tem como objetivo o entretenimento e compartilhamento de
informações. A sua utilização na educação está crescendo nos últimos anos, podendo ser
um facilitador pedagógico (Alencar; Moura & Bitencourt, 2013).
Llorens e Capdeferro (2011) apontaram como principais potencialidades
pedagógicas do Facebook para a aprendizagem colaborativa: favorecer a cultura de
comunidade virtual e aprendizagem social, permitir abordagens inovadoras da
aprendizagem e permitir a apresentação de conteúdos. A ferramenta mostrou-se
eficiente na promoção da aprendizagem colaborativa, promovendo o pensamento crítico,
fornecendo o debate dos conteúdos expostos e a diversidade de conhecimentos,
favorecendo a aprendizagem colaborativa e a troca de experiências de saberes.
Contudo, as redes sociais não foram criadas com objetivos educacionais, embora
possam ser utilizadas como AVA. Assim, cabe aos professores selecionar e
problematizar em cima das informações para poder ensinar e aprender. As redes sociais,
oferecem aos professores um grande potencial pedagógico e inúmeras possibilidades
educativas. Cabe ao professor saber utilizar o Facebook como AVA, favorecendo a
aprendizagem de forma coletiva, interativa e contextualizada (FERREIRA; CORREA &
TORRES, 2012).
Os grupos da rede social podem funcionar como um grupo de estudo tradicional,
onde os alunos e professores compartilham informações úteis que auxiliarão nas
atividades. É uma maneira na qual alunos e professores trabalham em projetos
colaborativos, podendo criar grupos abertos e fechados, ajudando a preservar a
privacidade dos alunos. O bate-papo pode ajudar na troca de informações diretamente
entre professores e alunos, além dos muros da escola. O mural, pode ser um espaço de
comunicação e discussão, em que os professores podem incentivar a participação dos
alunos. Os eventos, podem ser utilizados para recordar os alunos sobre determinados
prazos de entregas de trabalhos, encontros e palestras (Alencar; Moura & Bitencourt,
2013). Mattar (2013, p. 115), aponta que os relacionamentos entre professores e alunos
via Facebook gera “um canal de comunicação mais aberto, resultando em ambientes de
aprendizagem mais ricos e maior envolvimento dos alunos nos processos de
escolarização”. Permitindo que os professores utilizem diferentes metodologias para
incentivar e motivar o alunos no processo de aprendizagem (Ferreira; Correa & Torres,
2012). O Facebook pode ser utilizado como um Ambiente Virtual de Aprendizagem
(AVA), por reunir diversos tipos de mídias em um único ambiente, possibilitando a
aprendizagem colaborativa, a interatividade e diversas praticas pedagógicas que levam
ao aprender a aprender (Ferreira; Correa & Torres, 2012). Assim, este trabalho tem
como objetivo relatar a experiência de uso do Facebook, como auxiliar no ensino e
aprendizagem em um curso presencial de nível superior.

2. Metodologia
A presente pesquisa é de abordagem quantitativa, caracterizada pelo levantamento de
informações, que é a interrogação direta de um grupo de pessoas cujo comportamento se
deseja conhecer, acerca do problema, utilizando um questionário (Gil, 2008). O estudo,

87
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

foi realizado pelo professor da disciplina de Gerencia de Projetos do curso Superior em


Sistemas de Informação (SI). A experiência contou com a participação de vinte e seis
alunos e um mediador, o professor da disciplina, que atuou propondo os temas
relacionados à disciplina para discussão on-line por um período de uma semana, em um
grupo da disciplina no Facebook, funcionando como um fórum de discussões, parecido
com o Moodle, mas com mais familiaridade dos alunos, mais interatividade e
portabilidade, devido a possibilidade de acesso também pelo smartphones. O mediador,
era responsável por conduzir e nortear as discussões. Após os debates sugeridos, um
questionário online foi enviado para os participantes, para traçar o perfil dos integrantes
e recolher informações para compor os resultados da pesquisa, que foram tabuladas com
o software Excel, e analisadas.

3. Resultados Parciais
Por meio das respostas fornecidas no questionário, pode-se constatar algumas
informações relevantes, conforme a Tabela 1.
Tabela 1. Perguntas e respostas dos alunos.

Perguntas realizadas Sim Não


Utiliza o Facebook diariamente? 100% 0%
Os professores fazem parte dos contatos do Facebook? 76,9% 23,1%
Já fez alguma vez questionamento ao professor pelo Facebook? 46,1% 53,9%
O Facebook pode ser utilizado como apoio ao ensino? 92,3% 7,7%
Ficou satisfeito com a utilização do Facebook na disciplina? 92,3% 7,7%
A utilização do Facebook na disciplina permitiu a troca de 84,6% 15,4%
informações entre os alunos e entre alunos e professor?
A utilização do Facebook na disciplina foi importante? 92,3% 7,7%
A utilização do Facebook na disciplina ajudou a tirar dúvidas? 96,1% 3,9%
A utilização do Facebook na disciplina foi eficaz? 92,3% 7,7%
Entre os participantes que responderam o questionário, seis são do sexo
feminino e vinte do sexo masculino, sendo que 69,2% possuem idade entre 18 a 25
anos, 23,1% entre 25 e 30 anos e 7,7% mais de 30 anos. As identidades dos
participantes foram preservadas. Observa-se que o uso do Facebook faz parte do
cotidiano dos alunos, sendo que todos os alunos afirmaram fazer parte da rede. A
maioria afirmou que o Facebook pode ser utilizado como apoio ao ensino, ficando
satisfeitos com sua utilização na disciplina, principalmente visto que é uma importante
ferramenta de comunicação, ajudando a maioria dos alunos a sanar suas dúvidas, e de
compartilhamento de conteúdo em diversos formatos, tais como vídeos, áudios, slides,
entre outros. Promove facilidade na troca de mensagens, já que o aluno pode fazer
questionamentos ao professor a qualquer momento, colaborando com o processo de
ensino e aprendizagem, visto que a troca de informações entre os alunos e entre alunos e
professor é quase que em tempo real, fortalecendo o vínculo entre estes.
Os alunos comentaram que a praticidade e facilidade que eles tem no acesso ao
Facebook, e por ser amplamente conhecido e utilizado entre eles, o que facilitou o
aprendizado de maneira descontraída, prazerosa e dinâmica, além de que contribuiu para
o aumento da autonomia, buscando conhecimentos a mais do que solicitados pelo
professor. Sentiram-se motivados em participar das discussões por poderem tirar suas

88
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

dúvidas a qualquer momento. A maioria relatou perder a timidez utilizando a plataforma


e com isto participaram mais das discussões, disponibilizando links de textos, vídeos e
slides, sendo mais fácil interagir on-line do que presencialmente. Relataram que mesmo
quando faltavam as aulas tinham como acessar os conteúdos perdidos, ainda poderiam
rever quantas vezes fosse necessário para o aprendizado, por estarem on-line.

4. Considerações Finais
O presente relato demonstra que o Facebook pode ser uma excelente ferramenta no
contexto educacional. Observou-se que o Facebook pode servir como um AVA, ou,
funcionando como fórum, compartilhando conteúdos, sanando as dúvidas com ajuda
dos colegas e do professor e aumentando a interação. Para continuidade do estudo,
considera-se a possibilidade da utilização do Facebook em práticas educacionais com
alunos de outros níveis e modalidades de ensino, para comparação dos resultados em
perfis e faixas etárias variadas.

Referencias
Alencar, G. A.; Moura, M. R; Bitencourt, R. B. (2013) Facebook como Plataforma de
Ensino/Aprendizagem: o que dizem os professores e alunos do IFSertão-PE. Educação,
Formação & Tecnologias, v. 6, p. 86-93.
Comitê Gestor da Internet no Brasil. (2014) Pesquisa TIC Domicílios 2013: pesquisa sobre
o uso das tecnologias de informação e comunicação no Brasil. São Paulo: Comitê Gestor
da Internet no Brasil [Internet]. Acesso em 04 Junho de 2018. Disponível em: http://
www.cetic.br/media/docs/publicacoes/2/TIC_DOM_EMP_ 2013_livro_eletronico.pdf.
Facebook. (2018) Princípios. Acesso em 04 Junho de 2018. Disponível em:
https://www.facebook.com/principles.php.
Ferreira, J. L; Correa, B. R. P. G; Torres, P. L. (2012) O uso pedagógico da rede social
Facebook. Colabor@, v. 7, p. 1-16. Acesso em 04 Junho de 2018. Disponível em:
http://pead.ucpel.tche.br/revistas/index.php/colabora/article/view/199/152.
Gil, A. C. (2008) Como elaborar projetos de pesquisa. 4. ed. São Paulo: Atlas.
Llorens, F.; Capdeferro, N. (2011). Posibilidades de la plataforma Facebook para el
aprendizaje colaborativo en línea [artículo en línea]. Revista de Universidad y Sociedad
del Conocimiento (RUSC). Vol. 8, n.º 2, págs. 31-45. UOC.
Mattar, J. (2013) Web 2.0 e redes sociais na educação. São Paulo: Artesanato
educacional.
Santi, A. de; Garattoni, B. (2015) O lado negro do Facebook. Revista Super Interessante.
Acesso em 03 Junho de 2018. Disponível em:
http://super.abril.com.br/superarquivo/348.
Seabra C. (2010) Tecnologias na escola. Porto Alegre: Telos Empreendimentos Culturais.
Unicef. (2013) Fundo das nações unidas para a infância. O uso da internet por adolescentes.
Brasília, DF: UNICEF. Acesso em 04 Junho de 2018. Disponível em:
http://www.unicef.org/brazil/pt/br_uso_internet_adolescentes.pdf.

89
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Os Vídeos na Licenciatura em Física: Análise e


Contribuições
Graciela Rogoski Kapron1, Izamara Cirqueira Bini1, Daise Lago Pereira Souto2
1
Licencianda em Matemática – Universidade do Estado de Mato Grosso (UNEMAT)
Barra do Bugres – MT – Brasil
2
Doutora em Educação Matemática - Universidade do Estado de Mato Grosso
(UNEMAT) Barra do Bugres – MT – Brasil
gracielacnec@hotmail.com, izamarabinny@hotmail.com, daise@unemat.br

Abstract. This abstract presents the initial research proposal at the level of scientific
initiation, that is part of a larger project named “Information Technology and
Communication in Distance-Online Education: vodcasts and screencasts in
degree in Physics”. The goal it will be analyzing in a qualitative way of didactic
videos of mathematics subjects are being used. Specifically, it is intended check
aspects esthetic, technical and pedagogical. Finally, it is expected that
collaborate of the process of teaching and learning of mathematical in that the
results collaborate with the quality of future videos, and its production.
Resumo. Este resumo apresenta a proposta inicial de pesquisa em nível de iniciação
científica, que faz parte de um projeto maior intitulado “Tecnologias da
Informação e Comunicação na Educação a Distância Online: vodcasts e
screencasts na Licenciatura em Física”. O objetivo será analisar de forma
qualitativa, como os vídeos didáticos utilizados nas disciplinas de matemática
estão sendo utilizados. Especificamente pretende-se verificar aspectos
estéticos, técnicos e pedagógicos. Ao final espera-se contribuir para os
processos de ensino e de aprendizagem de matemática na medida em que os
resultados colaboraram com a qualidade de vídeos futuros, bem como sua
produção.
1. Introdução
Este trabalho apresenta uma proposta de pesquisa em nível de Iniciação Científica que
faz parte de um projeto maior intitulado “Tecnologias da Informação e Comunicação na
Educação a Distância Online: vodcasts e screencasts na Licenciatura em Física”. O
objetivo da pesquisa em questão é analisar os vídeos utilizados para o ensino de
matemática no curso de Licenciatura em Física a distância da UAB/UNEMAT, de forma
que possamos contribuir com sugestões de um possível aprimoramento na qualidade tanto
estética como pedagógica de tais vídeos.
Especificamente pretende-se identificar as características dos vídeos utilizados em
disciplinas de matemática no curso de Licenciatura em física; classificar os vídeos
analisados de acordo com os aspectos técnicos e pedagógicos do conteúdo da mídia; e
construir um organograma com a análise dos vídeos didáticos.
O contexto de produção de dados será o ambiente virtual do curso de Licenciatura
em Física, ofertado pela Universidade Aberta do Brasil e para a análise dos dados serão
utilizados os procedimentos metodológicos propostos por Gomes (2009), onde se

90
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

pretende identificar aspectos técnico-estéticos, como a qualidade de som e imagem;


aspectos pedagógicos, como a postura dos professores frente as câmeras e abordagem dos
objetivos; e a identificação do material, observando se há a presença de informações sobre
o material utilizado no vídeo.
Além disso, será utilizado o organograma da Taxionomia de Vídeos proposta por
Santos (2015), onde a autora descreve dois pontos principais: os aspectos técnicos da
mídia – que são a qualidade de som e imagem, assim como Gomes (2009) - e os aspectos
pedagógicos - onde se enquadram alguns aspectos como introdução, apresentação e
aplicação do conteúdo, juntamente com a fixação ou reforço dos conceitos apresentados
com a aplicação de exemplos e exercícios.
Desta forma, esta pesquisa se justifica na medida em que propõe uma análise
referente a qualidade técnica e pedagógica dos vídeos, para que haja contribuições na sua
produção e construção. Isto porque este tipo de mídia participa dos processos de ensino e
de aprendizagem da modalidade de Ensino a Distância. Assim sendo, para uma melhor
compreensão do assunto tratado neste trabalho, propomos uma divisão do mesmo em
cinco partes: Introdução, Referencial Teórico, Metodologia, Resultados Esperados e
Referências.

2. Fundamentação Teórica
Com o advento da web 2.0, os vídeos didáticos ganharam espaço na educação,
principalmente na modalidade à distância. Eles proporcionam uma forma de romper as
distâncias geográficas. Com isso os professores não raras vezes acabam utilizando essa
tecnologia (Souto e Borba, 2016). Além disso, tais vídeos contribuem com os processos
de ensino e de aprendizagem na medida em que permite que as mesmas explicações e/ou
informações sobre a aula sejam acessadas em qualquer momento e/ou lugar e, por isso,
os professores estão sendo motivados a inserir esse tipo de tecnologia em suas práticas
metodológicas.
Por outro lado, para que os objetivos de aprendizagem sejam alcançados
utilizando os vídeos, é preciso haver um rigor ao analisá-los ou construí-los. A esse
respeito Gomes (2009) e Santos (2015) afirmam que os vídeos utilizados como aula
devem conter elementos estéticos e pedagógicos bem elaborados, como qualidade de
sons; imagens; tempo; conteúdos abordados; apresentação dos objetivos e dos conteúdos;
além dos exercícios, de maneira que a aula seja clara e auxilie no processo de
aprendizagem do aluno.
Neste sentido, Cabero (2001) menciona que é importante que o professor reflita
sobre todas os aspectos técnicos e estéticos de seus vídeos, adaptando suas metodologias
e conteúdo para as características de seus alunos. Por isso, o professor deve estar bem
atento ao planejar e executar a produção deste tipo de material, já que, assim como uma
aula presencial, seu objetivo é buscar alcançar a aprendizagem de seus alunos e, se bem
utilizados e produzidos, os vídeos podem estimular o interesse dos alunos pela disciplina,
facilitando os processos de ensino e de aprendizagem da matemática a distância.

3. Metodologia
Será adotada a metodologia qualitativa, proposta por Borba e Araújo (2004) pois esta
pesquisa visa a compreensão de aspectos qualitativos, não visando aspectos estatísticos e
enumeráveis. Os procedimentos da pesquisa serão: acessar a plataforma moodle (online)

91
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

onde o curso está, e baixar os vídeos; selecionar os vídeos de matemática que serão
analisados; efetuar a análise dos dados.
Especificamente neste momento de análise pretende-se basear nas ideias de
Gomes (2009) para observar tanto os aspectos técnico-estéticos, como a qualidade das
imagens ou do áudio e locução, duração de vídeo, e a sequência da aula; como os aspectos
pedagógicos como presença de possíveis “erros” gramaticais ou conceituais,
interdisciplinaridade, postura do professor perante às câmeras e exemplificação clara do
conteúdo.
Por fim, será construído um organograma para cada vídeo, assim como o da
Taxionomia de Vídeos proposta por Santos (2015), pois desta forma é possível uma
maneira mais simples e prática de organizar, registrar e discutir os dados coletados, para
então verificar se os estes vídeos contribuem para a aprendizagem do aluno. A Figura 1
abaixo mostra o organograma citado acima.

TAXIONOMIA DE VÍDEOS PARA A


MATEMÁTICA

ASPECTOS ASPECTOS
TÉCNICOS DA PEDAGÓGICOS
MÍDIA DO CONTEÚDO

INTRODUZIR E
APLICAÇÃO DE FIXAÇÃO OU
APRESENTAR
CONTEÚDO REFORÇO
CONTEÚDO

Qualidade de Apresentação
Imagens Objetivo do Vídeo Conteúdo
Exemplos
Qualidade de Som Revisão Situado
Representações
Áudio-Narração Apresentação Problemática
Regras/Métodos
Organização Conteúdo Situado Exemplos
Exercícios
Forma de Definição Representações
Disponibilização Exemplos Regras/
Acessibilidade Métodos
Exercícios

Figura 1- Organograma da Taxionomia de Vídeos para a Matemática

Dessa forma, este organograma visa facilitar a compreensão dos dados obtidos
com a pesquisa, para que consigamos propor nossas contribuições a respeito,
acrescentando mais conhecimento para os recursos utilizados para a produção de vídeos.
Além disso, é necessário que após a realização da análise dos dados, os professores
reflitam acerca do que podem mudar em suas metodologias e na produção deste material.

4. Resultados Esperados
Esperamos que a análise das disciplinas seja feita, de forma a identificar todas as
características presentes nos vídeos, sejam elas estéticas, técnicas ou pedagógicas, e que

92
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

a pesquisa traga contribuições tanto para professores que produzem este tipo de material,
quanto para os alunos que os utilizam para estudar e se aprofundar, na busca do
conhecimento.
Esperamos ainda, construir um organograma com a análise dos vídeos, para que
haja, uma melhor compreensão dos resultados encontrados, proporcionando então um
norte, para que os professores produzam um material com bons aspectos físicos, de forma
que percebam o que se pode melhorar.
Por fim podemos destacar que a análise de vídeos didáticos pode proporcionar
contribuições para a produção e construção deste material. Isto se torna importante na
medida em que eles devem ter uma boa qualidade, já que é uma das ferramentas principais
no ensino de matemática e de tantas outras disciplinas no curso de Licenciatura em Física
à Distância.

Referências
Borba, M. C.; Araújo, J. L. (2004) “Pesquisa qualitativa em educação matemática”.
Autêntica Editora.
Cabero, J. C. (2001) “Avaliar para melhorar: meios e materiais de ensino. In: SANCHO,
J. María (Org.). Para uma tecnologia educacional”. Trad. Beatriz Affonso Neves.
Porto Alegre: Artes Médicas.
Gomes, L. F. (2009) “Vídeos didáticos: uma proposta de critérios para análise. Revista
Brasileira de Estudos Pedagógicos”. v. 89, n. 223.
Santos, R. J. (2015) “Uma taxionomia para o uso de vídeos didáticos para o ensino de
matemática”. 133 f. Tese de Doutorado. Dissertação (Mestrado Profissional em
Educação Matemática) –Universidade Federal de Juiz de Fora, Juiz de Fora.
Souto, D. L. P.; Borba M. C. (2016) “Aprendizagem de Professores com a Produção de
Vídeo para Aulas de Matemática”. Educação Matemática em Revista. Nº 51.

93
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

Tendência das Aplicações Multimídias do Futuro


Neriley Machado de Oliveira1, Francisco Sanches Banhos Filho1
1
Universidade do Estado de Mato Grosso (UNEMAT) –
Caixa Postal 78500-00 – Colíder – MT – Brasil
nerileymachado@gmail.com, fsanches@unemat.br

Abstract. This article attempts to describe some types of multimedia


applications that are becoming prone to the new lifestyle of people, and soon
will be in their daily lives. Next, the types of benefits these technologies
provide are shown, as well as how this will impact the future of the next
generations.

Resumo. O presente artigo procura descrever alguns tipos de aplicações


multimídias que estão se tornando propensas a virar o novo estilo de vida das
pessoas, e que logo em breve estarão no cotidiano delas. Em seguida, são
mostrados quais os tipos de benefícios que essas tecnologias proporcionarão,
e também como isso impactará no futuro das próximas gerações.

1. Introdução
Nas últimas décadas, especificamente na segunda metade da década atual, os sistemas
multimídias obtiveram um avanço tecnológico e crescimento espantoso. Um dos
principais fatores disso é com certeza o surgimento da já bastante difundida rede
mundial de computadores, popularmente conhecida como Internet. A internet é um
ambiente de comunicação diferenciado, que abriga as demais mídias e oferece ao
usuário a oportunidade de ter acesso a informações em formatos de áudio, vídeo, texto,
fotografia e animações, cujo processo recebeu o nome de convergência multimídia. Esta
convergência está presente na vida de milhares de pessoas sem que elas percebam,
tornando as coisas mais fáceis e acessíveis.
A tecnologia é dinâmica, contínua e sequencial, compreendendo um complexo
processo cuja aplicação redunda em novas tecnologias e permite o aperfeiçoamento e
desenvolvimento das atividades nas áreas científicas, artísticas e literárias.
A massificação da utilização de recursos tecnológicos tem convergido para que
ações simples do cotidiano se tornem algo extremamente tecnológico, auxiliando na
tomada de tarefas. Isso se dá principalmente com a utilização da internet das coisas.

2. Elementos multimídias presentes nos dias atuais


No mundo atual vivemos repletos de elementos multimídias que por sua vez, estão
ligados à sociedade da informação também associada à chamada tecnologia da
informação, a qual nos permite desfrutar das obras e criações, de tal modo que a gestão
coletiva dos direitos intelectuais se adapte cada vez mais a nova era digital, não só no
que pertence à exploração das obras multimídia formadas por uma variedade de
criações, seja de música, texto, fotografias, filmes, etc.(PAHL, 1995). Mas também

94
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

interagir com essas mídias como em dispositivos de realidade virtual, serviços como
busca avançada, banco de dados, fóruns de discussão, chats, comunidades virtuais,
compartilhamento de material para mídias sociais, comércio eletrônico e internet das
coisas.
Na figura 1 é possível identificar como as coisas tendem a convergir, a imagem
nada mais é do que uma metáfora visual sobre executar várias ações rotineiras
utilizando as nuvens. Essas ações compreendem: comunicação entre pessoas (telefone,
mensagens de texto, e-mail), ouvir músicas, atualizar perfis sociais, acessar redes
sociais, etc.

Figura 1. Multimídia Fonte: ETECJRM (2018).


Para acontecer a ligação do usuário com esses sistemas é preciso que seja
seguida uma série de preceitos tais como descreve PAHL (1995) e TORRES (2004):
1) Interatividade: permite o usuário planejar suas ações, atuando sobre a interface,
percebendo e interpretando a resposta do sistema e avaliando se seu objetivo foi
alcançado;
2) Multiplataforma: pode ser acessado de qualquer ambiente seja ele mobile, desktop ou
web sem interferir no modo de visualização do indivíduo;
3) Acessibilidade: a acessibilidade é obtida combinando a apresentação da informação
de formas múltiplas com o uso de ajudas técnicas como sistemas de leitura de tela,
sistemas de reconhecimento da fala, simuladores de teclado etc., os quais maximizam as
habilidades dos usuários com limitações associadas a deficiências orgânicas;
4) Simplicidade: interface gráfica robusta, cores bem distribuídas, sem grandes
contrastes e de fácil usabilidade, que permita ao usuário distinguir para que serve cada
função;
5) Feedback: permite um retorno de informação imediata ao usuário sobre a função
selecionada;

95
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

6) Consistência: permite que o usuário adquira experiência em um sistema, fazendo com


que ele use os conhecimentos adquiridos referentes à execução de uma tarefa para a
realização de novas tarefas, procurando assim com ações similares atingir novos
objetivos;
7) Compatibilidade: embora pareça semelhante com o conceito de consistência, a
compatibilidade trata a respeito do conhecimento externo ao produto, como por
exemplo, a prática de associar luzes vermelhas a situações de perigo.

3. IoT
Um termo muito usado nas últimas décadas é a internet das coisas ou IoT da sigla em
inglês (Internet of Things), que se trata de uma geração de dispositivos e/ou objetos
animados ou inanimados que futuramente irão se comunicar pela internet através do
protocolo TCP/IP, de tal maneira que seja possível controlar qualquer desses aparelhos à
distância, seja ele de uso doméstico ou empresarial (AWS, 2018).

Figura 2. Internet das coisas Fonte: MORAES (2017).

Esse conceito refere-se a sistemas embarcados com placa de rede que vem
integrado em aparelhos eletrônicos que usamos no dia a dia como geladeira, micro-
ondas, televisão, etc.(AWS, 2018), alguns desses sistemas já existem como os citados
aqui, mas conforme explica MORAES (2017), o grande diferencial seria a palavra
conectividade, ou seja, todos os dispositivos se comunicando através do protocolo
TCP/IP, sem necessitar saber se o sistema está integrado ao software.
Através desse tipo de conectividade seria possível por exemplo, controlar as
luzes e os demais aparelhos elétricos e eletrônicos de uma residência estando em
qualquer lugar do mundo (DAROIT, 2017). Outro exemplo seria na área da educação,
como monitorar os alunos dentro da escola através de câmeras, informando se os
mesmos se encontram em alguma zona de risco ou em algum lugar que não lhe são
permitidos em determinado horário, bem como também pode auxiliar na sala de aula,
servindo de apoio aos estudos dos alunos. Como no caso de os mesmos poderem estar
acompanhando as aulas através de um tablet, fazendo desse jeito que os professores
estando conectados, tenham total controle sobre cada aluno, e também que cada aluno

96
Anais do 10º Congresso Acadêmico de Tecnologia e Informática (CATI 2018)
Ciência da Computação – UNEMAT – Barra do Bugres – ISSN 2448-119X

possa interagir com o que está sendo proposto durante as aulas. (CANALCOMSTOR,
2018).

4. Conclusão
Com o passar do tempo às tecnologias vem evoluindo cada vez mais de uma maneira
rápida e ganhando proporções imensas no que se refere a inovação. Portanto, a busca
por novas alternativas que garantam a qualidade dessas aplicações baseadas no contexto
de multimídia, desperta o interesse em desenvolver novas tecnologias que auxiliem as
pessoas no seu dia a dia.
A internet das coisas é uma tendência fortíssima que vem apoiar a sociedade no
futuro, fazendo com que sirva de suporte para a execução das tarefas das gerações
futuras, construindo assim perspectivas de que as multimídias proponham trazer o
crescimento na estruturação do trabalho humano, fazendo mudanças para o progresso da
humanidade.

Referências
AWS. O que é a internet das coisas?. Disponível em:
<https://aws.amazon.com/pt/iot/what-is-the-internet-of-things/>. Acesso em: outubro
de 2018.
CANALCOMSTOR. Qual o papel da IoT na educação. Disponível em: <
https://blogbrasil.comstor.com/qual-o-papel-da-iot-na-educacao>. Acesso em:
outubro de 2018.
DAROIT, Guilherme. Empresa cria tecnologia para casas inteligentes. Jornal do
Comércio [online]. Porto Alegre, 20 jun. 2017. Disponível em: <
https://goo.gl/hZjUbr>. Acesso em: outubro de 2018.
ETECJRM, Multimídia. Disponível em: <http://etecjrm.com.br/home-2-2/multimidia/>.
Acesso em: outubro de 2018.
MORAES, Claudio. Internet das Coisas: A evolução da conectividade?. Revista
Segurança Eletrônica [online]. São Paulo, 2017. Disponível em: <
https://goo.gl/MuE3GC>. Acesso em: outubro de 2018.
PAHL, Maria Teresa Rodrigues. Multimídia - uma tendência para o Futuro. Bate Byte
[online]. São Paulo, 1995. Disponível em: <https://goo.gl/hTPj2n>. Acesso em:
setembro de 2018.
TORRES, Elisabeth Fátima.; MAZZONI, Alberto Angel. Conteúdos digitais
multimídia: o foco na usabilidade e acessibilidade. Ci. Inf., Brasília, v. 33, n. 2, p.
152-160, maio/ago. 2004.

97

Você também pode gostar