Você está na página 1de 114

Anais do 7º Congresso

Acadêmico de Tecnologia e
Informática (CATI 2015)

9 a 13 de novembro de 2015
Curso de Ciência da Computação - FACET
UNEMAT - Barra do Bugres
Anais do 7º Congresso Acadêmico de Tecnologia e
Informática (CATI 2015)

9 a 13 de novembro de 2015
Curso de Ciência da Computação - FACET
UNEMAT - Barra do Bugres
Este trabalho foi realizado com apoio da Chamada MCTI/CNPq Nº 09/2015 - Auxílio Promoção de
Eventos Científicos, Tecnológicos e/ou de Inovação - ARC, Processo nº. 441644/2015-5, do Conselho
Nacional de Desenvolvimento Científico e Tecnológico - CNPq - Brasil

Anais do 7º Congresso Acadêmico de Tecnologia e


Informática (CATI 2015)

Realização:

Curso de Ciência da Computação / FACET / UNEMAT – Barra do Bugres


Centro Acadêmico de Ciência da Computação (CACC)

Apoio:

Sociedade Brasileira de Computação (SBC)


Prefeitura Municipal de Barra do Bugres
Pró-Reitoria de Extensão e Cultura (PROEC/UNEMAT)
Pró-Reitoria de Assuntos Estudantis (PRAE/UNEMAT)
Secretaria de Estado de Ciência, Tecnologia e Inovação (SECITECI/MT)
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

ISSN 2448-119X

(Online: http://bbg.unemat.br/publicacoes/index.php/anaiscati)

9 a 13 de novembro de 2015
Barra do Bugres - MT
© 2015. Centro Acadêmico de Ciência da Computação (CACC) e
Universidade do Estado de Mato Grosso (UNEMAT).

Os autores são responsáveis pela escolha e a apresentação das informações contidas


nesta publicação, bem como pelas opiniões nela expressas, as quais não são
necessariamente as dos organizadores, da UNEMAT, do CACC e de seus apoiadores,
nem tampouco os comprometem.

Publicação elaborada com fins educativos. ACESSO GRATUITO. Permissão para fazer
cópias impressas ou digitais de todo ou parte desta publicação para uso pessoal ou
acadêmico sem taxas, desde que as cópias não sejam feitas ou distribuídas para renda ou
vantagem comercial e que as cópias contenham referência a esta publicação.
___________________________________________

Editor: Fernando Selleri Silva

Organização: Fernando Selleri Silva, Roniffer Samuel Soares Ribeiro de Oliveira,


Elias Antonio Morgan, Luciano Zamperetti Wolski e Rodrigo Fernando Shimazu

Projeto Gráfico: Deesign, Priscila L. S. A. Santos, Jessika C. de A. Oliveira e


PEEP (PROEC/UNEMAT – FAPEMAT)
___________________________________________

Contato

Congresso Acadêmico de Tecnologia e Informática (CATI)


Centro Acadêmico de Ciência da Computação (CACC)
Curso de Ciência da Computação (CCC)
Universidade do Estado de Mato Grosso (UNEMAT)
Campus Universitário Rene Barbour
Rua A, SN, Bairro São Raimundo
78.390-000, Barra do Bugres, MT
Fone/Fax: 65-3361-1413
Celular: 65- 9997-1421
E-mail: cati@unemat.br
Site: http://www.catiunemat.com
Facebook: http://www.facebook.com/catiunemat
Twitter: http://twitter.com/catiunemat
Anais: http://bbg.unemat.br/publicacoes/index.php/anaiscati
Governo do Estado de Mato Grosso

Pedro Taques
Governador
Carlos Fávaro
Vice-Governador
Luzia Helena Trovo Marques de Souza
Secretária de Estado de Ciência, Tecnologia e Inovação
Lucia Braga Sousa
Superintendente de Desenvolvimento Científico, Tecnológico e de Inovação
Antônio Carlos Maximo
Presidente da Fundação de Amparo à Pesquisa do Estado de Mato Grosso

Universidade do Estado de Mato Grosso (UNEMAT)

Ana Maria Di Renzo


Reitora
Ariel Lopes Torres
Vice-Reitor
Alexandre Gonçalves Porto
Pró-Reitor de Extensão e Cultura
Anderson Marques do Amaral
Pró-Reitor de Assuntos Estudantis
Vera Lúcia da Rocha Maquêa
Pró-Reitora de Ensino de Graduação
Rodrigo Bruno Zanin
Pró-Reitor de Pesquisa e Pós-Graduação
Ezequiel Nunes Pacheco
Pró-Reitor de Gestão Financeira
Francisco Lledo dos Santos
Pró-Reitor de Planejamento e Tecnologia da Informação
Valter Gustavo Danzer
Pró-Reitor de Administração
Carlos Ednei Oliveira
Diretor Político-Pedagógico e Financeiro do Campus de Barra do Bugres
Marcos Leandro Pereira de Oliveira
Diretor Administrativo do Campus de Barra do Bugres
Anderson Dias Lima
Diretor da Faculdade de Ciências Exatas e Tecnológicas
Diógenes Antônio Marques José
Coordenador do Curso de Ciência da Computação
Roniffer Samuel Soares Ribeiro de Oliveira
Presidente do Centro Acadêmico de Ciência da Computação

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Hernan Chaimovich Guralnik


Presidente
Alexandre Guilherme Motta Sarmento
Coordenação de Apoio à Pesquisa, Desenvolvimento e Aplicações

Sociedade Brasileira de Computação (SBC)

Lisandro Zambenedetti Granville


Presidente
Cristiano Maciel
Secretário Regional em Mato Grosso
Pedro Clarindo da Silva Neto
Secretário Adjunto Regional em Mato Grosso

Município de Barra do Bugres

Julio Florindo
Prefeito
João Alves dos Santos
Vice-Prefeito
Rudiney Linhares
Secretário Municipal de Finanças
Ivone Rocha
Secretária Municipal de Educação, Cultura e Esportes
Viviane Ribeiro da Silva
Secretária Municipal de Desenvolvimento Econômico e Turismo
Vanderson Vitor da Silva
Presidente da Câmara Municipal de Vereadores
7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)

Coordenação
Roniffer Samuel Soares Ribeiro de Oliveira
Fernando Selleri Silva
Elias Antonio Morgan

Comissão Organizadora
Andrews Fanchini Melo
Ayslan Henryque Sales Siqueira
Bruno de Souza
Diógenes Antonio Marques José
Douglas Teles de Oliveira
Edimar Soares de Oliveira
Fagner Roger Pereira Couto
Frank Oliveira Lopes de Morais
Gustavo Prado Nunes
Jessica Karoline França de Lira
Jessika Carla de Aguiar Oliveira
João Victor Ricardo de Souza
João Vitor Rodrigues Alves
Jonatan William Pereira Fernandes
José Fernandes Torres da Cunha
Julio Cesar de Camargo Junior
Karla Bomfim Castilho
Laercio da Silva Santos
Leandro Santos Passos
Leonardo Mantovani Kneip Rezende
Luan Felipe dos Santos da Silva
Luan Lino Madalena
Luane Caroline Aquino Cavalcanti
Luciano Zamperetti Wolski
Marcos Lucas Pereira
Mateus Macorini Alves
Mateus Vicente Santos da Silva
Nielsen Cassiano Simões
Priscila Larissa da Silva Antunes dos Santos
Raquel da Silva Vieira Coelho
Renato Rodrigues dos Santos
Rodrigo Fernando Shimazu
Sharles Magdiel Cardoso Araujo
Silvio Almeida da Silva
Thalita Medeiros Dolce
Victor Bitencourt de Oliveira
Wanderson Santander de Araujo
Weder Henrique Rodrigues da Silva
Apoio Técnico e Logístico
Frank Willian Rodrigues da Silva
João Flávio Cordeiro da Silva
João Milani Junior
Marcos Antonio Guerra
Thiago H. de B. Guedes

Equipe Técnica do Projeto do CNPq


(Processo nº. 441644/2015-5)
Fernando Selleri Silva - Coordenador
Elias Antonio Morgan - Professor
Diógenes Antonio Marques José - Professor
Luciano Zamperetti Wolski - Professor
Roniffer Samuel Soares Ribeiro de Oliveira - Estudante
Ana Paula Lins Ferreira de Vasconcelos - Técnico
Comitê de Programa

Acelmo de Jesus Brito (UNEMAT/BBugres)


Adauto Bueno (UNEMAT/BBugres)
Alberto César Cavalcanti França (UFRPE/Recife)
Alexandre Berndt (UNEMAT – UFG/Goiás)
Ana Paula L. F. de Vasconcelos (UNEMAT/BBugres)
André Luís Sanson Gomes (UNEMAT/BBugres)
Angela Lima Peres (CESMAC/Maceió)
Armando da Silva Filho (UNEMAT/BBugres)
Cláudia Landin Negreiros (UNEMAT/BBugres)
Dener Didoné (UNIC/Sorriso)
Diógenes Antonio Marques José (UNEMAT/BBugres)
Edinéia Aparecida dos Santos Galvanin (UNEMAT/BBugres)
Elias Antônio Morgan (UNEMAT/BBugres)
Elyda Laisa Soares Xavier Freitas (UPE/Caruaru)
Everton Ricardo do Nascimento (UNEMAT – UFSC/Florianópolis)
Fabiano Ferreira Luz (USP/São Paulo)
Fahim Elias Costa Rihbane (UNEMAT/BBugres)
Felipe Santana Furtado Soares (CESAR – Open University/Reino Unido)
Fernando Kenji Kamei (IFAL/Maceió)
Fernando Selleri Silva (UNEMAT/BBugres) – Coordenação do Comitê
Francisco Airton Pereira Silva (UFPE – University of Sapienza/Itália)
Igor Kuhnen (UNEMAT/BBugres)
Inédio Arcari (UNEMAT/BBugres)
Ivan Luiz Pires (UNEMAT/Cáceres)
Ivanildo Monteiro de Azevedo (UNEMAT – FID/Diamantino)
Jessica Karoline França de Lira (UNEMAT/BBugres)
José Fernandes Torres da Cunha (UNEMAT/BBugres)
Judith Abi Rached Cruz (UNEMAT/BBugres)
Leandro Passos (UNEMAT/BBugres)
Lenin Ernesto Abadié Otero (Accenture – Fac. Joaquim Nabuco/Recife)
Luciano Zamperetti Wolski (UNEMAT/BBugres) – Representante de Área
Maricy Caregnato (UNEMAT – USP/São Paulo)
Pietro Pinto (IFPE/Caruaru)
Raquel da Silva Vieira Coelho (UNEMAT/BBugres)
Rodrigo Fernando Shimazu (UNEMAT/BBugres) – Representante de Área
Tales Bogoni (UNEMAT/Colíder)
Normas para Publicação
Datas Importantes
O CATI 2015 foi realizado no período de 09 a 13 de novembro de 2015, no Campus da
UNEMAT de Barra do Bugres. O cronograma do evento incluiu as seguintes datas
importantes:
 Submissão de trabalhos: 09/10/2015;
 Notificação dos autores: 26/10/2015;
 Envio da versão final: 02/11/2015;
 Disponibilização dos anais: 30/11/2015.

Formato de Submissões e Processo de Avaliação


As submissões ao CATI podem ser por meio de artigos completos ou artigos resumidos,
que devem ser submetidos em formato exclusivamente digital (arquivo PDF), através do
sistema JEMS (https://jems.sbc.org.br). Todas as submissões devem obrigatoriamente
seguir o modelo para publicação de artigos da SBC (http://goo.gl/XyrfJ).
Aspectos adicionais a serem observados:
 Os artigos completos devem ter de 6 (seis) a 8 (oito) páginas incluindo tabelas,
figuras e referências, correspondendo a trabalhos finalizados ou em processo de
finalização, contendo resultados significativos em termos de contribuição para a
pesquisa e/ou prática.
 Os artigos resumidos devem ter de 2 (duas) a 4 (quatro) páginas incluindo tabelas,
figuras e referências, correspondendo a trabalhos em andamento, com resultados
preliminares, ou propostas de pesquisa.
 Os trabalhos submetidos não devem ter sido publicados anteriormente e nem
estarem em processo de avaliação ou edição para publicação em outro local.
 Cada trabalho deve ser submetido para apenas uma trilha (completo ou resumido).
Os trabalhos que forem submetidos a mais de uma trilha são rejeitados.
 É importante que os trabalhos descrevam a motivação (justificativa),
fundamentação teórica (trabalhos relacionados), metodologia empregada e os
resultados obtidos (ou esperados, no caso de artigos resumidos), ressaltando as
contribuições tecnológicas e para a área abordada. Relatos de experiência,
oriundos da prática, também são bem-vindos.
 Com relação ao idioma, os trabalhos devem estar em Português ou Inglês.
 As submissões devem ser finalizadas (com os dados solicitados pelo ambiente de
submissão e o arquivo correspondente devidamente postado segundo as regras
estabelecidas) para serem consideradas.
 No arquivo da submissão, não deve constar nenhum tipo de identificação dos
autores. Caso o artigo (completo ou resumido) seja aceito, os autores devem
incluir na versão final seus dados (nomes, filiações e e-mails, bem como outras
informações necessárias ao artigo, como citações a outros trabalhos dos autores).
 A seleção dos trabalhos é realizada pela revisão por membros do Comitê de
Programa do CATI. O processo de revisão é conduzido de forma anônima (blind
review) por pelo menos dois revisores, com a arbitragem de um terceiro revisor
em caso de necessidade. As submissões são revisadas de acordo com os seguintes
critérios: adequação ao escopo do evento, revisão bibliográfica, metodologia,
contribuição para a área de Tecnologia, Informática e/ou Computação,
originalidade e clareza.
 Os artigos que forem aprovados são publicados nos anais do CATI, em formato
digital. Para tal, ao menos um autor de cada trabalho aprovado deve efetivar sua
inscrição no evento, por meio do site http://catiunemat.com.
 No decorrer do evento, os artigos completos aprovados são apresentados em
sessões técnicas, com duração de 20min para cada trabalho, e os artigos resumidos
são apresentados em formato de pôster no tamanho A1.
 As submissões ao CATI implicam por parte dos autores na aceitação das normas
contidas nesta chamada, bem como na observação das normas sobre direitos
autorais. No caso de autoria conjunta, o responsável pela submissão deve ter
autorização dos demais coautores.
 Outras informações podem ser obtidas via e-mail cati@unemat.br.

Tópicos de Interesse
Os principais tópicos que norteiam as submissões ao CATI estão sintetizados da seguinte
forma, não se restringindo a eles:
 Algoritmos e Otimização;
 Arquitetura de Computadores;
 Avaliação de Desempenho;
 Banco de Dados;
 Bioinformática;
 Computação Aplicada à Saúde;
 Computação Gráfica e Processamento de Imagens;
 Computação Ubíqua e Pervasiva;
 Engenharia de Software;
 Geoprocessamento;
 Gestão do Conhecimento;
 Governança e Empreendedorismo;
 Informática na Educação;
 Inteligência Computacional;
 Interação Humano-Computador;
 Jogos e Entretenimento Digital;
 Linguagens de Programação;
 Matemática e Física Computacional;
 Redes de Computadores e Sistemas Distribuídos;
 Redes Sociais;
 Robótica e Sistemas Digitais;
 Segurança da Informação;
 Sistemas de Informação;
 Sistemas Embarcados e Móveis;
 Sistemas Multimídia e Web;
 Telecomunicações.
Apresentação

O Congresso Acadêmico de Tecnologia e Informática (CATI) é um dos principais


congressos na área de Tecnologia da Informação (TI) em Mato Grosso. O evento reúne
estudantes, professores, pesquisadores e outros profissionais na discussão dos principais
temas da área de Ciência da Computação, fomentando a Ciência, Tecnologia e Inovação,
por meio de palestras, mesas redondas, sessões técnicas de apresentação de trabalhos,
minicursos, oficinas, reuniões e relatos de experiência. O CATI surgiu no ano de 2007,
por iniciativa de estudantes e professores do Curso de Bacharelado em Ciência da
Computação, da Universidade do Estado de Mato Grosso (UNEMAT), Campus
Universitário Rene Barbour – Barra do Bugres. Na época, preocupados com a pouca
oferta de eventos em TI no estado, estudantes e professores idealizaram um congresso
que fosse organizado com ambos os segmentos em conjunto, promovendo a
integralização das várias áreas de TI em Mato Grosso. A primeira edição do CATI
superou as expectativas de público com mais de 300 participantes, oriundos de diferentes
regiões de Mato Grosso, com destaque para os municípios de Barra do Bugres, Cuiabá,
Cáceres, Tangará da Serra, Arenápolis, Denise, Nortelândia, Diamantino, Nova
Marilândia, Santo Afonso, Nova Olímpia e Porto Estrela. O engajamento da comunidade
acadêmica, sobretudo dos estudantes, fez com que a dinâmica de público e discussões se
mantivesse nas edições posteriores do evento.
O 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015), foi
realizado pelo Curso de Ciência da Computação e o Centro Acadêmico de Ciência da
Computação da UNEMAT, Campus Universitário Rene Barbour, Faculdade de Ciências
Exatas e Tecnológicas (FACET), no período de 9 a 13 de novembro de 2015, em Barra
do Bugres/MT. Em sua 7ª edição, a temática central do evento foi “Computação, Inovação
e Desenvolvimento Regional”. O evento recebeu palestrantes de instituições de outros
estados como Universidade de São Paulo (IME/USP), Centro de Estudos Avançados do
Recife (CESAR/Porto Digital) e Instituto Federal de Alagoas (IFAL), além de
palestrantes de Mato Grosso, que atuam na Secretaria de Estado de Ciência, Tecnologia
e Inovação (SECITECI/MT), Universidade Federal de Mato Grosso (UFMT) e na própria
UNEMAT. Outras atividades como minicursos, mesa redonda, relato de experiência e
maratona de programação também fizeram parte da programação.
As submissões ao CATI 2015 totalizaram 27 trabalhos, sendo 12 Artigos
Completos (44%) e 15 Artigos Resumidos (56%). Quanto à instituição de origem, 13
submissões (48%) foram oriundas da UNEMAT e 14 submissões (52%) foram oriundas
de outras 7 instituições, localizadas nos seguintes estados: Amazonas; Ceará; Mato
Grosso; Tocantins; Paraíba; e Pernambuco. O Comitê de Programa, responsável por
avaliar as submissões, contou com a composição de membros da UNEMAT (Barra do
Bugres, Colíder e Cáceres) e membros de outras instituições (Accenture, CESAR,
CESMAC, FID, IFAL, IFPE, UFG, UFPE, UFRPE, UFSC, UNIC, UPE e USP). O
processo de revisão foi conduzido em pares e de forma anônima, buscando atribuir, para
cada submissão, um avaliador interno (UNEMAT) e um avaliador externo (outra
instituição). Em caso de empate, um terceiro avaliador foi atribuído.
Os Anais do CATI 2015, disponíveis na presente publicação, são compostos por
16 trabalhos, sendo 9 Artigos Completos (56%) e 7 Artigos Resumidos (44%),
devidamente aprovados pelo Comitê de Programa, totalizando um percentual de
aprovação de 59% das submissões. Os trabalhos abrangem ao todo 16 tópicos de
interesse, sendo que alguns trabalhos abordam até três tópicos. Os tópicos mais abordados
foram: Informática na Educação (6 trabalhos); Sistemas de Informação (5); Inteligência
Computacional (4); Banco de Dados (3); Algoritmos e Otimização (2); e Avaliação de
Desempenho (2). Outros tópicos, abordados em apenas um trabalho cada, foram:
Arquitetura de Computadores; Computação Gráfica e Processamento de Imagens;
Computação Ubíqua e Pervasiva; Engenharia de Software; Gestão do Conhecimento;
Jogos e Entretenimento Digital; Redes de Computadores e Sistemas Distribuídos; Redes
Sociais; Segurança da Informação; e Sistemas Embarcados e Móveis. Esperamos que os
leitores apreciem o conteúdo dos trabalhos aprovados e que estes trabalhos possam
contribuir com o avanço e o desenvolvimento de trabalhos futuros na área da Computação
e de Tecnologia da Informação (TI). Boa leitura!
O CATI 2015 contou com o apoio da Sociedade Brasileira de Computação (SBC),
Prefeitura Municipal de Barra do Bugres, Comércio Local de Barra do Bugres, Pró-
Reitoria de Extensão e Cultura (PROEC/UNEMAT), Pró-Reitoria de Assuntos Estudantis
(PRAE/UNEMAT), Secretaria de Estado de Ciência, Tecnologia e Inovação
(SECITECI/MT) e Conselho Nacional de Desenvolvimento Científico e Tecnológico
(CNPq – Processo nº. 441644/2015-5). Registramos nossos agradecimentos aos
apoiadores, patrocinadores, estudantes e professores que estiveram envolvidos na
realização e a todos os participantes do CATI 2015. Nosso muito obrigado.

Coordenação do CATI 2015


Sumário

Artigos Completos

Avaliação Preliminar e Perspectivas na Utilização do WhatsApp no Aprendizado


do Idioma Inglês ......................................................................................................... 1
Charles Jefferson Rodrigues Alves e Alves (IFTO/Araguaína)

Desenvolvimento de um Circuito Embarcado e Jogos Inseridos no Contexto


Educacional ................................................................................................................ 8
Elio Santos Almeida Júnior (UNEMAT/Barra do Bugres)

O Ensino da Função Afim e Quadrática com o Uso do Software GeoGebra ............ 16


Tatiane Maria P. Miranda, Minéia Cappellari Fagundes, Diego Piasson
(UNEMAT/Barra do Bugres) e Eliane da Conceição da Silva (Escola Alfredo Jose
da Silva/Barra do Bugres)

Sistema de Informação para Controle de Dopagem ................................................... 24


Francisco Medeiros, Juliana Medeiros, Fausto Ayres (IFPB/João Pessoa),
Caio Viana (UNIPÊ/João Pessoa), Victor Viegas, Eder Mendes, Ana Santos e
Josemary Rocha (IESP/João Pessoa)

Sistema de Captura e Processamento de Imagens Digitais para Cálculo de Área:


SAPID ........................................................................................................................ 32
Willyan A. Silva e Rodrigo F. Shimazu (UNEMAT/Barra do Bugres)

Virtualização como Alternativa na Infraestrutura de Servidores ............................... 39


Henio Akiyo Miyoshi e Alyrio Cardoso Filho (UNEMAT/Barra do Bugres)

O Uso da Programação Linear no Cálculo do Custo Mínimo na Merenda Escolar .. 47


Clayce Victor Scudeler e Minéia Cappellari Fagundes
(UNEMAT/Barra do Bugres)

Big Data: A Nova Fórmula para a Inovação, a Concorrência e Produtividade ......... 55


Eduardo Henrique R. Zanela, Diego de Lima Nascimento,
Fagner Roger Pereira Couto, Matheus Artur Saviczki Santana e
André Luís Sanson (UNEMAT/Barra do Bugres)

Garantia da Qualidade de Software com Metodologias Ágeis: Um Levantamento


com Base em Revisão Sistemática ............................................................................. 63
Kelce Regina Ferreira Fernandes e Fernando Selleri Silva
(UNEMAT/Barra do Bugres)
Artigos Resumidos

Levantamento de aplicações e potencialidades do Raspberry Pi .............................. 71


Wendy C. Almeida, Gabriel A. Menezes dos Santos e Pedro C. Silva Neto
(IFMT/Tangará da Serra)

Automação Residencial Utilizando Sistemas Multiagentes ...................................... 75


Fagner Roger P. Couto, Eduardo H. R. Zanela, Diego L. Nascimento,
Lucas D. Rothmund e Luciano Wolski (UNEMAT/Barra do Bugres)

Mineração de Dados Climáticos para a Previsão de Riscos na Produção Agrícola ... 79


Paulo Mello da Silva, Fernando da Fonseca de Souza (UFPE/Recife) e
Thieres George Freire da Silva (UFRPE/Recife)

A Utilização do Conceito de Big Data no Âmbito Educacional ................................ 83


Ayslan H. S. Siqueira e Fernando Selleri Silva (UNEMAT/Barra do Bugres)

Regressão Quantílica Intervalar ................................................................................. 87


Yanne Micaele Gomes Soares e Roberta Andrade de Araújo Fagundes
(UPE/Recife)

Avaliação do Sistema de Inferência Fuzzy da Métrica de Roteamento Proposta ao


OLSR-Fuzzy Cost (OLSR-FC) .................................................................................. 91
Anderson Gusmão C. de Lara e Diógenes Antonio Marques José
(UNEMAT/Barra do Bugres)

Propriedade de Bens Virtuais ..................................................................................... 95


Jaqueline R. Oliveira e Raquel S. V. Coelho (UNEMAT/Barra do Bugres)
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Avaliação Preliminar e Perspectivas na Utilização do


WhatsApp no Aprendizado do Idioma Inglês
Charles Jefferson Rodrigues Alves e Alves1
1
Instituto Federal de Educação, Ciência e Tecnologia do Tocantins (IFTO) – Araguaína,
TO – Brasil
{charles.alves@ifto.edu.br}

Abstract. In this study, the students' perception towards learning the English
language is measured, aiming investigate the level of knowledge of students.
The study was conducted in 132 technical course students in IFTO. According
to the survey results, students understand the importance of learning the
English language, mainly because it provides better job opportunities. They
understand that the education provided is insufficient and argue as reasons
the techniques used and the few weekly classes. The work showed that young
people are adept at WhatsApp application and those who have not would like
to experience it as a supplementary tool in teaching.

Resumo. Neste estudo, a percepção dos alunos em relação à aprendizagem do


idioma inglês é mensurada, objetivando investigar o nível de conhecimento
dos alunos. O estudo foi conduzido em 132 estudantes de curso técnicos no
IFTO. De acordo com os resultados da pesquisa, os estudantes entendem a
importância de aprender a língua inglesa, principalmente pelo fato de
proporcionar melhores oportunidades de trabalho. Os mesmos entendem que
a instrução fornecida é insuficiente e argumentam como motivos as técnicas
utilizadas e as escassas aulas semanais. O trabalho mostrou que os jovens são
adeptos ao aplicativo WhatsApp e os que não possuem gostariam de
experimentar o mesmo como ferramenta suplementar no ensino.

1. Introdução
Na sociedade de hoje, o saber outras línguas institui uma exigência, principalmente nas
áreas tecnológicas onde não é mais possível fazer parte de um universo altamente
tecnológico e não deter habilidades no idioma inglês [Tavares 2010]. O domínio da
língua vai muito além de ser apenas um instrumento de comunicação. A razão disto é
que as línguas refletem heranças culturais das culturas. Quanto mais cedo um ensino de
língua estrangeira começar nas escolas, a aprendizagem tende a ser mais fácil e
permanente [Yazdanpanah, Sahragard e Rahimi 2010]. De acordo com Bayhan e Artan
(2004), nas residências onde dois idiomas diferentes são explorados, pode-se
compreender ambos os idiomas. Macrory (2006) observou também que ambos podem
ser aprimorados ao mesmo tempo.
A língua estrangeira oferecida habitualmente nos cursos técnicos e tecnológicos
é o Inglês Técnico, através de uma abordagem instrumental da língua. É também
conhecido como Inglês para Fins Específicos ou em inglês, English for Specific
Purposes (ESP) e tem como objetivo principal capacitar o aluno, num período

1
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

relativamente curto, a ler e compreender o essencial para o desempenho de determinada


atividade. Muitas vezes sugestiona que o inglês instrumental limita-se à habilidade de
leitura, quando, na verdade, o principal é o desenvolvimento de habilidades específicas,
dependendo das características e necessidades do estudante [Heemann 2009]. Através
dos estudos de Heemann (2009), observou-se que existia um problema de baixo nível de
rendimento nos cursos técnicos e tecnológicos. Instruir e apetecer que o aluno domine
uma nova língua em um pequeno período de tempo de forma eficaz é quase impraticável
[Souza 2012].
A presente pesquisa evidencia adversidades peculiares de aprendizagem em
língua estrangeira de um público específico, que provocam reflexões salutares e, por
conseguinte, elucidar aspectos pouco focalizados atualmente, como aspectos formativos
e o contexto dos estudantes, mas que decorrem e refletem nossa realidade brasileira. Os
problemas supracitados comprometem o desempenho nas disciplinas técnicas, o que
acarreta na maioria das vezes em baixo rendimento escolar, além do elevado nível de
evasão [Heemann 2009].
Dessa forma, o principal objetivo do estudo é a realização de um levantamento
das atuais necessidades e desempenho dos alunos quanto ao aprendizado do idioma
Inglês em instituições de ensino técnico. Com base no levantamento serão discutidas
algumas recomendações para ultrapassar estes problemas. Igualmente, ambicionamos
com o estudo, municiar novas abordagens de ensino auxiliando na constituição de
matrizes curriculares consoantes com as necessidades pedagógicas da conjuntura. De tal
modo, propende-se consentir às reivindicações dos estudantes e do mercado de trabalho.

2. Material e Métodos
A amostra do presente estudo foi constituída por 132 escolares voluntários do Curso
Técnico Subsequente de Informática para Internet do Instituto Federal do Tocantins
(IFTO) do campus Araguaína. A investigação empregou um questionário preparado
pelo pesquisador, baseado na pesquisa realizada por Gomleksiz (2004), objetivando
determinar e documentar as percepções e perspectivas dos participantes sobre o atual
ensino do idioma inglês. O questionário consistia de duas seções de múltiplas escolhas:
a primeira, para descobrir suas atitudes, percepções e perspectivas sobre o ensino atual;
e na outra para obter as opiniões ou comentários gerais sobre a utilização do recurso
previsto para fins de ensino. As perguntas foram distribuídas on-line e a pesquisa foi
conduzida em período de aproximadamente 35 dias.
Propendendo analisar e aferir a fidedignidade do questionário aplicado no estudo
foi empregado o coeficiente alfa de Cronbach [Cronbach 1951]. Ele mede o
encadeamento entre respostas de um questionário através da análise do perfil das
respostas dadas pelos respondentes [Hora, Monteiro e Arica 2010]. A correlação média
existente entre as perguntas adentro do coeficiente alfa de Cronbach permaneceram
superiores a 0,88.
A apreciação dos dados foi concretizada empregando todos os dados coletados
em escala. Depois de analisar os dados angariados a partir do questionador empregando
porcentagens com a utilização do programa SPSS [SPSS 1996], aonde foram utilizadas
frequência e técnicas de análise estatística.

2
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

3. Resultados e Discussão
Seguem-se algumas tabelas a respeito das respostas dos estudantes para a presente
pesquisa. Na Tabela 1, por exemplo, demonstra que 67% dos escolares concordam
inteiramente na necessidade e importância do aprendizado do idioma inglês, 29%
concordam, 3% são indiferentes e apenas 1% discorda. Devido a decorrente disciplina
ser da área tecnológica existe um consenso do seu coeficiente de importância curricular.
Tabela 1. Importância de aprender a língua inglesa

Itens Frequência Percentagem


Concordo Plenamente 88 67
Concordo 38 29
Indiferente 5 3
Discordo 1 1
Discordo Fortemente 0 0

Prontamente a Tabela 2 nos permite notar como os estudantes avaliam as


principais necessidades para o aprendizado do idioma, destacando o fato de
aproximadamente 81% expressarem que proporcionar melhores oportunidades de
encontrar emprego é a característica dominante. Já a possibilidade de melhorar a
interação com diferentes povos e culturas estrangeiras está em torno de 10% dos
entrevistados.
Tabela 2. Principais razões da necessidade de aprender a língua inglesa

Itens Frequência Percentagem


Proporciona melhores chances de encontrar trabalho 107 81
Possibilidade de fazer amizade com diferentes povos e culturas 13 10
Poder fazer outros cursos no idioma Inglês 3 2
Poder ir para o exterior 5 4
Assistir vídeos e apresentações no idioma Inglês 4 3

Como podem ser observadas na Tabela 3, 50% dos discentes apontam a respeito
da competência do ensino da língua inglesa praticado no instituto como sendo
insatisfatório (33% muito insuficiente, 17% pouco suficiente). Os restantes dos alunos
acham parcialmente ou suficiente.
Tabela 3. Grau de Suficiência no Ensino do Inglês

Itens Frequência Percentagem


Acho muito suficiente 8 6
Acho suficiente 22 14
Acho parcialmente suficiente 39 30
Acho um pouco suficiente 24 17
Acho insuficiente 40 33

A Tabela 4 explicita que 40% dos estudantes entendem que os métodos e


técnicas utilizadas nas aulas são insatisfatórios e 37% deles acreditam que as principais
razões de insuficiência no aprendizado são ocasionadas pelas parcas horas aulas
semanais. Por outro lado, 18% destacam que é desvantajoso o fato não ter aulas em
todas as séries do curso, somente na primeira. É pequena a quantidade de estudantes que
manifestaram classe lotada ou que os instrumentos utilizados como não sendo
satisfatórios.

3
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Tabela 4. Principais Razões da Insuficiência no Ensino do Inglês

Itens Frequência Percentagem


Pouca quantidade de aulas semanais da língua inglesa 49 37
Não ter aulas de língua inglesa em todas as séries 23 18
Métodos e técnicas são insuficientes 53 40
Salas de aula são muito lotadas 3 2
Falta de equipamentos em salas de aula 4 3

Na Tabela 5, mostra que cerca de 33% dos estudantes afirmaram realizar as


atividades repassadas em sala de aula, 24% responderam que geralmente a executam e
43% dos alunos não possuem uma regularidade na prática das atividades propostas.
Tabela 5. Realização de atividades e trabalhos

Itens Frequência Percentagem


Sempre 44 33
Geralmente 32 24
As vezes 25 19
Raramente 9 7
Nunca 22 17

Os alunos têm um nível de interesse alto ou muito alto na aprendizagem da


língua inglesa, cerca de 50% como é exibido na Tabela 6. Por outro lado, 40% possuem
interesse mediano e apenas 1% deles não manifestam interesse de aprender um idioma
estrangeiro.
Tabela 6. Nível de interesse no aprendizado do Inglês

Itens Frequência Percentagem


Muito Alto 33 25
Alto 33 25
Médio 53 40
Baixo 8 7
Muito Baixo 3 2
Falta de Interesse 2 1

A Tabela 7 nos permite observar que 36% dos educandos adquiriram um bom
nível de entendimento do inglês no curso, mas não conseguem uma comunicação
somente pelo ensino praticado na instituição, por outro lado, 31% dominam a tradução
de publicações profissionais por meio de dicionário. Devido à preferência de o inglês
instrumental ser adotado como disciplina, onde o enfoque maior é a compreensão da
escrita, nota-se uma insatisfação dos discentes ao não contrair habilidades de fluência na
comunicação.
Tabela 7. Atual nível de habilidades do idioma Inglês

Itens Frequência Percentagem


Posso compreendê-lo verbalmente 10 8
Posso entendê-lo, mas não consigo falar 48 36
Consigo traduzir publicações com a ajuda de um dicionário 41 31
Consigo escrever o que é explicado e posso entender o que eu leio 12 9
Todos eles 5 4
Nenhum deles 16 13

4
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Perguntados sobre como o ensino poderia ser aprimorado para uma melhor
absorção por parte do aluno, os resultados podem ser visto na Tabela 8, onde
aproximadamente 42% acreditam que o curso deveria salientar as habilidades de
comunicação do idioma inglês, semelhante ao mostrado na Tabela7. Do mesmo modo,
aproximadamente 40% deles acreditam que deveria focar mais na tradução e leitura de
textos, 10% nos estudos básicos de gramática e 8% afirmaram que é necessário se
concentrar somente na escrita. Ressalva-se que as pretensões não se restringem em
traduções de textos técnicos, os estudantes ambicionam o domínio na fala e
entendimento em diversos textos seja literário ou não.
Tabela 8. Opiniões sobre como deveria ser ensinado

Itens Frequência Percentagem


Deveria se concentrar mais na fala 55 42
Deveria se concentrar em fazer mais tradução 13 10
Deveria se concentrar em ler e compreender os textos 39 30
Deveria se centrar no conhecimento de gramática básica 13 10
Deveria se concentrar na escrita 11 8

Evidências das entrevistas foi corroborada com uma pesquisa secundária para
compreender as percepções de estudantes com o uso do aplicativo WhatsApp -
aplicativo escolhido para o desenvolvimento desta proposta. Um segundo questionário
foi elaborado com base em uma escala de Likert [Bond e Fox 2001] para determinar: a
usabilidade e facilidade de uso, a participação nos alunos e aptidão para resolução de
problemas de forma colaborativa, para provocar reflexão profunda, criação colaborativa
de conhecimento e sua complementação de práticas de aprendizagem em sala de aula.
Rambe (2012) sugere que a integração de práticas sociais, dispositivos e
plataformas (telefônica celular, mensagens curtas de textos, redes sociais) proporcionam
convenções que potencialmente afetam a aprendizagem significativa dos alunos.
O WhatsApp Messenger constituiu como ferramenta indicada devido ao fato de
ser um aplicativo multi-plataforma de smartphones que emprega através da internet para
conectá-los com comunidades ou grupos [WhatsApp 2010]. Possibilita a troca de textos
em vários formatos, mensagens através de grupos, mensagens ilimitadas usando dados
existentes na internet, acoplamentos de plataforma cruzada e mensagens offline
[WhatsApp 2014].
Fato interessante na escolha do aplicativo em questão é modo de despertar nos
indivíduos a criação de conteúdo, o compartilhamento e a eficácia de conexões pessoais.
Sobretudo, proporcionando a confiança na integração e interação dos estudantes mais
introvertidos em espaços menos intimidantes, hegemônicos que interromperam uma
comunicação transparente [Jenkins 2010].

5
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Figura 1. Percentual dos resultados obtidos junto aos estudantes.

Logo acima, a Figura 1 ilustra a atual situação de aplicabilidade do uso do


WhatsApp como instrumento auxiliar no aprendizado de idiomas estrangeiros junto aos
estudantes. Conforme pode ser visto, o elevado número de estudantes proprietários de
aparelhos do tipo smartphones e 56% contrataram um serviço plano de dados da sua
operadora, objetivando o uso da internet em qualquer ambiente. Cerca de 63% já
utilizam o presente aplicativo e 90% concordam em participar de um grupo de estudo
privado no WhatsApp como um complemento educacional, visando o melhoramento da
sua aprendizagem.

4. Conclusões
Esta pesquisa demonstrou que este grupo de discentes do IFTO é um exemplo de como
estão abertos e preocupados com o quanto podem se beneficiar dos recursos disponíveis
da internet, enquanto estudam o idioma inglês. A maioria dos estudantes técnicos
acredita na necessidade de conhecer e aprender a língua inglesa, principalmente pela
capacidade de proporcionar uma oportunidade de encontrar um trabalho mais
facilmente. E o ensino insatisfatório na escola é creditado aos métodos e técnicas
utilizadas, bem como e pela baixa quantidade de horas aulas semanal. O emprego de
ferramentas tecnológicas aspira minimizar esse quadro indesejável.
Quanto aos docentes, os mesmos precisam responder ao desafio de se engajar no
ensino de línguas assistida por computador ou dispositivos móveis, o que de acordo com
a Lee (2000) demanda uma grande quantidade de tempo e compromisso. Conforme os
resultados encontrados na pesquisa, os alunos são partidários a inclusão de ferramentas
que venham a melhorar o aprendizado em sala de aula. Trabalhos futuros buscarão
analisar na prática o aprendizado com o abarcamento do aplicativo sugerido.

Referências
Bayhan, P. e Artan, I. (2004). Child development and education. Ankara: Morpa
Culture.
Bond, T. G. e Fox, C. M. (2013). Applying the Rasch model: Fundamental measurement
in the human sciences. Psychology Press.

6
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests.


Psychometrika, v. 16, n.3, p. 297-334.
Gomleksiz, M. N. (2004). Use of education technology in English classes. Turkish
Online Journal of Educational Technology, v. 3, n. 2.
Heemann, C. (2009). Inglês Instrumental (ESP): O Uso de Estratégias de Leitura em um
Curso Online. Signo, v. 34, n. 56, p. 137-156.
Hora, H. R. M., Monteiro, G. T. R. e Arica, J. (2010). Confiabilidade em questionários
para qualidade: um estudo com o Coeficiente Alfa de Cronbach. Produto &
Produção, v. 11, n. 2, p. 85-103.
Jenkins, Henry. Cultura da Convergência. 2ª edição. São Paulo. Aleph, 2010. Tradução:
Susana Alexandria.
Lee, K. (2000). English teachers’ barriers to the use of computer-assisted language
learning. The Internet TESL Journal, v. 6, n. 12, p. 1-8.
Macrory, G. (2006). Bilingual language development: what do early years practitioners
need to know?. Early Years, v. 26, n. 2, p. 159-169.
Rambe, P. e Bere, A. (2012). An M-learning strategy for leveraging learner
participation: using WhatsApp mobile messaging at a South African University of
Technology. In: Paper presented at Proceedings of the Southern African Computer
Science Lecturers’ Association Conference (SACLA). p. 29-36.
SPSS Inc. (1996). SPSS Base 7.0 for Windows User's Guide. SPSS Inc., Chicago.
Souza, E. S. (2012). O ensino da língua inglesa no Brasil. BABEL: Revista Eletrônica
de Línguas e Literaturas Estrangeiras, v. 1, n. 1, p. 39-46.
Tavares, E. (2010). A empregabilidade na era digital: um estudo de caso. 2010. Tese de
Doutorado. Dissertação de mestrado. Programa de Pós-Graduação em Ciências
Sociais da Pontifícia Universidade de São Paulo. 116p.
WhatsApp. (2014). “Sobre o WhatsApp” http://www.whatsapp.com/about, Dezembro.
Yazdanpanah, M., Sahragard, R. E Rahimi, A. (2010). The interplay of locus of control
and academic achievement among Iranian English foreign language learners. Cypriot
Journal of Educational Sciences, v. 5, n. 3, p. 181-202.

7
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Desenvolvimento de um Circuito Embarcado e Jogos


Inseridos no Contexto Educacional
Elio Santos Almeida Júnior1
1
Ciência da Computação - Universidade do Estado de Mato Grosso (UNEMAT)
Campus Deputado Estadual Renê Barbour - Barra do Bugres, MT - Brasil
elio_jr_@hotmail.com
Abstract. This paper presents an account of the development of an embedded
circuit and games inserted in the educational context. Aimed to the
development of this paper develop a device microcontroller printed circuit
board equipped with audiovisual and interactive user interfaces and gaming
with focus on intellectual development player, stimulating concentration skills,
mathematical reasoning and memory. It is hoped that other initiatives are
carried out based on activities presented.
Resumo. Este artigo apresenta um relato sobre o desenvolvimento de um
circuito embarcado e jogos inseridos no contexto educacional. Objetivou-se
no desenvolvimento deste trabalho elaborar um dispositivo microcontrolado
em placa de circuito impresso dotado de interfaces audiovisuais e interativas
com o usuário e de jogos com o enfoque no desenvolvimento intelectual do
jogador, estimulando habilidades de concentração, raciocínio matemático e
memória. Espera-se que outras iniciativas sejam realizadas com base nas
atividades apresentadas.

1. Introdução
Jogos digitais conquistaram um espaço importante na vida de crianças, jovens e adultos,
desprendendo longos períodos de tempo compenetrados nos desafios e fantasias destes
artefatos, [Savi e Ulbricht 2008]. O estudo em torno da relação entre os jogos
eletrônicos e a aprendizagem não é uma novidade, e têm seu início em meados da
década de oitenta, Greenfield (1988), sendo um dos primeiros trabalhos a analisar o
desenvolvimento do raciocínio na era da eletrônica.
Jogos digitais outrora vistos apenas como forma de entretenimento, podem ser
empregados como ferramentas poderosas no processo de ensino-aprendizagem [Silva
Neto et al. 2013]. Onde se aproveita do lúdico, da emoção da vitória e da superação de
desafios para tonar o aprendizado uma atividade mais atrativa e prazerosa, contribuindo
no aprendizado dos estudantes nas mais variadas áreas do conhecimento.
O trabalho descrito foi desenvolvido na disciplina de Jogos e Entretenimento
Digital do 8º semestre do curso de Ciência da Computação, objetivou-se desenvolver
um console de games portátil em placa de circuito impresso, microcontrolado e dotado
de interfaces audiovisuais interativas e de jogos com o enfoque no desenvolvimento
intelectual do jogador. Este protótipo vem somar a iniciativas como Gamebuino,
console portátil baseado na plataforma Arduino que visa a popularização do
desenvolvimento de jogos por curiosos das áreas de eletrônica e programação.

8
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Desta forma este trabalho vem contribuir no fomento, desenvolvimento e na


popularização do conhecimento técnico necessário ao desenvolvimento de protótipos e
jogos, estimulando a inovação tecnológica e o interesse pela área de jogos educacionais.

2. Materiais e Métodos
2.1. Dispositivo
O dispositivo desenvolvido possui como interface visual um display LCD de duas
linhas por dezesseis colunas, a escolha deste display se deve a sua flexibilidade de uso,
ampla utilização em projetos microcontrolados, permitir uma boa visualização das
mensagens em tela, boa relação custo/tamanho de tela, e o baixo consumo energético.
Como interface de áudio foi empregado um speaker piezoelétrico para a emissão de
pequenos avisos sonoros e para a interface de interações do usuário foi construído um
teclado com cinco chaves tácteis de funções mutáveis.

Figura 1. Microcontrolador PIC 18F4550.


O protótipo possui em sua estrutura o microcontrolador PIC18F4550 (Figura 1),
fabricado pela Microchip Tecnology Inc. [Microchip 2009]. Um microcontrolador é um
circuito integrado composto por um processador, memórias, e terminais de entrada e
saída. Proporcionando por meio de programação determinar ações de controle em seus
terminais de saída, decorrentes da programação ou reativa as leituras efetuadas em seus
terminais de entrada. A diferença entre os diversos tipos de microcontroladores se dá
através das suas capacidades de processamento, quantidade de memória, quantidade de
terminais de entrada e saída e protocolos de comunicação suportados.
No protótipo desenvolvido o microcontrolador possui por principal
funcionalidade o armazenamento e execução dos jogos, e foi escolhido por possuir
trinta e três portas de entrada e/ou saída, permitir reprogramação, permitir a conexão e
controle do módulo LCD e por já ser bem difundido na utilização em projetos
desenvolvidos na área de eletrônica.
O protótipo possui ainda em sua estrutura uma bateria de 9 volts como fonte de
alimentação, um regulador de tenção para 5 volts, capacitores para regulagem e
estabilização da tenção de entrada e cristal de 20MHz e capacitores de desacoplamento
como oscilador (Clock de trabalho). O esquema desenvolvido pode ser observado na
Figura 2, na Figura 3 à esquerda é apresentado layout da placa de circuito impresso e à
direita o aspecto final da montagem do dispositivo, no Quadro 1 encontrasse a relação
de componentes, seus valores e descrição no contexto do projeto.

9
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Figura 2. Esquema elétrico elaborado para o dispositivo.

Figura 3. Layout da placa de circuito impresso (à esquerda) e Aspecto final do


dispositivo desenvolvido (à direita).
Quadro 1. Relação de componentes.
Componente Valor Descrição
U1 LM7805 Regulador de tensão.
U2 PIC18F4550 Microcontrolador.
LCD1 LM016L Display LCD 16x2 com backlight azul.
CD 1KΩ Resistor variável trimmer (Brilho e Contraste).
B1 9v Bateria de 9Volts.
S1, S2, S3, S4, S5 e S6 - Chave Táctil 6x6x4.3mm 2 terminais.
S7 - Chave HH 2 Posições.
R1, R2, R3, R4, R5 e R6 10KΩ Resistor pull-up.
R7 e R8 1KΩ Resistor.
C1 e C2 33pf Capacitor de desacoplamento.
C3 100µf Estabilizador de tensão.
C4 10µf Estabilizador de tensão.
Q1 BC337 Acionamento do speaker piezoelétrico.
LS1 5V Speaker piezoelétrico.
X1 20MHz Cristal de Clock.

10
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

2.2. Linguagem de programação


A linguagem C padrão CCS para microcontroladores foi utilizada no desenvolvimento
do projeto por ser uma linguagem intermediária e possuir boa relação entre estruturação
e eficiência [Corteletti 2006], permitir grande velocidade de desenvolvimento devido as
facilidades de programação oferecidas pelo uso e criação de bibliotecas [Freitas et al.
2010], por sua portabilidade e por já ser bastante difundida na programação de sistemas
microcontrolados [Silva 2009].
Ao todo foram geradas 960 linhas de código, utilizadas na configuração e
programação do microcontrolador e no desenvolvimento dos jogos, totalizado 32 horas
de codificação. O código hexadecimal gerado a partir a compilação do código é gravado
no microcontrolador por meio de uma gravadora PICKIT2 USB.

2.3. Funcionamento
Ao ligar o dispositivo é apresentado ao jogador uma tela questionando-o se gostaria que
fossem reproduzidos sons ou não, (Figura 4 - 1), a escolha se dá quando pressionados
uma das teclas marcadas, 1 - Sim e 2 - Não. A tela de apresentação é então exibida ao
jogador (Figura 4 - 2) e seguida pela tela do menu principal (Figura 4 - 3). A navegação
se dá pressionando uma das teclas mais à esquerda (1 ou 2) ou mais à direita (4 ou 5) e a
escolha pressionando a tecla central (3), neste momento é apresentado a tela de abertura
do jogo selecionado seguida pela tela de menu do jogo, composta por três opções: 1
Objetivo, 2 Jogar e 3 Sair, (Figura 4 - 4), ao pressionar 1 é apestado o objetivo do jogo e
suas características, pressionando 2 iniciasse o jogo e 3 volta ao menu principal
permitindo a escolha de outro jogo.

Figura 4. 1 Reproduzir sons?, 2 Tela de Apresentação, 3 Tela do Menu principal


e 4 Tela do Menu do Jogo.

2.4. Jogo Matemágica


Ao jogar Matemágica o jogador observará em sua tela uma equação onde haverá o sinal
de uma operação matemática “faltando”, e através do teclado deverá escolher qual

11
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

operação deve ser empregada a equação. A complexidade dos cálculos varia à medida
que o jogador vai acertando, e a meta é acertar o maior número de equações possível.
As habilidades exercitadas neste jogo são usadas constantemente em nosso
cotidiano, como por exemplo, ao conferir o troco de uma compra efetuada ou quando
precisamos calcular algo e sem ter uma calculadora a mão, sendo a principal vantagem
ao jogador o fato de poder exercitar o raciocínio matemático em vários níveis, e com a
pratica poderá efetuar cálculos complexos mentalmente com grande facilidade.
A tela inicial do jogo é apresentada na Figura 5 - 1 quando o jogador escolhe o
jogo Matemágica, na Figura 5 - 2 é apresentado a tela do jogo em si, na linha superior é
indicado o escore do jogador e o número de erros, uma unidade para cada acerto ou
erro, na segunda linha é apresentada a equação cuja a operação deve ser escolhida a
manter a igualdade, nas Figuras 5 - 3 e 5 - 4 são apresentadas as telas de acerto e erro
respectivamente, na Figura 5 - 5 é apresentado a tela de uma possível solução a
equação proposta e na Figura 5 – 6 é apresentado a tela de fim de jogo, que acorre
quando o jogador erra cinco vezes o pressiona a tecla EXIT.

Figura 5. 1 Tela inicial Matemágica, 2 Tela do jogo com uma equação exemplo,
3 Tela de acerto, 4 Tela de erro, 5 Tela de possível solução e 6 Tela de fim de
jogo exibindo a pontuação obtida.

2.5. Jogo Memorizando


Este jogo tem por objetivo fazer o usuário memorizar em ordem a sequência em que os
caracteres alternarem na tela e reproduzi-la na mesma ordem através do teclado.
Conforme o usuário progride, as sequências ficam cada vez mais longas.
As habilidades exercitadas neste jogo são usadas constantemente em nosso
cotidiano, como por exemplo, voltar por caminhos percorridos em lugares
desconhecidos, lembrar-se do percurso pela casa quando se procuram as chaves,
encontrar o carro em um estacionamento, ou aprender a navegar por um bairro
desconhecido ou um novo shopping, o que traz vantagens ao jogador muitas vezes
despercebidas ao longo da vida.

12
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Na Figura 6 - 1 é possível observar a tela inicial do jogo Memorizando quando


selecionado, as Figura 6 - 2 e Figura 6 - 3 exemplificam como os caracteres são
dispostos no Display e a forma como é indicado um elemento da sequência que o
jogador tentará reproduzir, na Figura 6 - 4 é apresentado a tela de sequência correta, na
Figura 6 - 5 é apresentado a tela de sequência incorreta, o que ocorre quando o jogador
pressiona uma tecla em ordem errada e que leva a tela de termino do jogo (Figura 6 - 6).
O algoritmo idealizado elabora uma sequência de 15 elementos, em uma partida esta
sequência é apresentada ao jogador gradativamente, partindo de apenas um elemento,
quando o jogador acerta a sequência é incrementada, e mais um elemento da sequência
será apresentado no próximo nível, o jogador vence quando reproduz os quinze
elementos da sequência na ordem correta.

Figura 6. 1 Tela inicial Memorizando, 2 e 3 alternância de caracteres para


indicar um elemento da sequência, 4 Tela de sequência certa, 5 Tela de erro na
reprodução da sequência, 6 Tela de fim de jogo exibindo a pontuação obtida.

3. Resultados e discussão
Com o surgimento das novas tecnologias, sua popularização e mudanças nos
paradigmas pedagógicos, abrem novas oportunidades de desenvolvimento no âmbito
computacional, onde os jogos tidos inicialmente como apenas distrações se mostram
poderosas ferramentas no auxilio ao ensino-aprendizagem, se tornando um mecanismo
complementar na construção e fixação de conceitos desenvolvidos em sala de aula, bem
como num recurso motivador tanto para o professor como para o estudante. [Tarouco et
al. 2004].
O dispositivo desenvolvido apresentou bom funcionamento, onde uma bateria
nova permitiu o desenvolvimento do dispositivo (fases de prototipagem e de testes), e
durante o manuseio dos jogadores, ao todo somando três semanas de uso. Com a
utilização por parte dos usuários foi possível obter um feedback do dispositivo e dos
jogos desenvolvidos, que propiciaram melhorias complementando o desenvolvimento.

13
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Foi possível notar ainda um grande interesse por parte dos jogadores com
relação ao desenvolvimento do dispositivo, despertando a curiosidade e o interesse
sobre do que é feito, como foi feito, quais conhecimentos foram necessários para o
desenvolvimento e outras mais, desta forma evidenciando a influencia que estas novas
tecnologias exercem sobre crianças e adultos.

4. Considerações finais
São várias as possibilidades de estudo tendo por base o trabalho desenvolvido, como por
exemplo avaliar o seu emprego em escolas e colégios analisando o interesse dos
estudantes e as melhorias obtidas no desempenho dos estudantes por meio de sua
utilização atuando de forma integrada aos conteúdos vistos em sala.
Sob a perspectiva de desenvolvimento, outra possibilidade de estudo seria a
otimização do hardware desenvolvido, criando um protótipo visualmente mais atrativo e
mais ergonômico. Existe ainda a possibilidade dos próprios estudantes estarem
desenvolvendo outros jogos que utilizem dos conhecimentos vistos em sala.
O projeto desenvolvido possibilita a conexão a diversos aspectos relacionados a
jogos digitais em um contexto educacional, permeando as diversas áreas do
conhecimento humano, contribuindo para o desenvolvimento intelectual dos estudantes.
Desta forma pode-se notar ao termino da execução que o projeto obteve êxito em sua
execução, atingindo o objetivo inicialmente firmado e tendo como retorno além de um
sistema funcional a possibilidade de contribuir com inovação o desenvolvimento
regional.

Referências
Corteletti, D. Introdução à programação de microcontroladores Microchip PIC. SENAI-
RS, Centro Tecnológico de Mecatrônica, 2006. Disponível em: <
http://www.adororobotica.com/sbrt-dossie51.pdf >. Acesso em: 31 de out. de 2015.
Freitas, C. C. S., Figueiredo, D. A., Dnapoli, B., e Farias, C. Desenvolvimento de
Protótipo Didático de Baixo Custo para Monitorar Temperatura. 2010. Disponível
em: <
http://www.researchgate.net/profile/Brehme_De_Mesquita2/publication/236679734_
DESENVOLVIMENTO_DE_PROTTIPO_DIDTICO_DE_BAIXO_CUSTO_PARA
_MONITORAR_TEMPERATURA/links/00b49518eaf7e09f46000000.pdf >. Acesso
em: 31 de out. de 2015.
Greenfield, P. M. O desenvolvimento do raciocínio na era da eletrônica. Vol. 32.
Summus Editorial, São Paulo, 1988. < https://books.google.com.br/books?hl=pt-
BR&lr=&id=04pkPfTxgUoC&oi=fnd&pg=PA11&dq=O+desenvolvimento+do+raci
oc%C3%ADnio+na++era+da+eletr%C3%B4nica&ots=QM9hhQp0Fj&sig=USpuBy
T6_nmTWLmQbqms4g_mXRg#v=onepage&q=O%20desenvolvimento%20do%20r
acioc%C3%ADnio%20na%20%20era%20da%20eletr%C3%B4nica&f=false >.
Acesso em: 27 de out. de 2015.
Microchip. PIC18F2455/2550/4455/4550 Data Sheet, 2009. Disponível em: <
http://ww1.microchip.com/downloads/en/DeviceDoc/39632e.pdf >. Acesso em: 31
de out. de 2015.
Pereira, F. Microcontroladores PIC: Programação em C, 3. ed. São Paulo: Érica, 2004

14
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Savi, R. e Ulbricht, V. R. Jogos digitais educacionais: benefícios e desafios. RENOTE,


v. 6, n. 1, 2008. Disponível em: <
www.seer.ufrgs.br/renote/article/download/14405/8310 >. Acesso em: 27 de out. de
2015.
Silva Neto, S. R., Santos, H. R. M., Souza, A. A. e Santos, W. O. Jogos Educacionais
como Ferramenta de Auxílio em Sala de Aula, Em: XIX Workshop de Informática
na Escola, 2013. Disponível em: < http://www.br-
ie.org/pub/index.php/wie/article/view/2634 >. Acesso em 06 de out. de 2015.
Silva, D. F. Sistema de Comunicação Bluetooth Utilizando Microcontrolador.
Trabalho de Conclusão de Curso. 2009. Disponível em: <
http://tcc.ecomp.poli.br/20092/TCC_final_Davidson.pdf >. Acesso em: 31 de out de
2015.
Souza, D. J. e Lavinia, N. C. Conectando o PIC 16F877A: Recursos Avançados, 1. ed.
São Paulo: Érica, 2003.
Tarouco, L. M. R., Roland, L. C., Fabre, M. J. M. e Konrath, M. L. P. Jogos
educacionais, 2004. Disponível em: <
http://www.virtual.ufc.br/cursouca/modulo_3/Jogos_Educacionais.pdf >. Acesso em:
08 de out. 2015.

15
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

O Ensino da função afim e quadrática com o uso do software


GeoGebra
Tatiane Maria P. Miranda1, Minéia Cappellari Fagundes1, Diego Piasson1 , Eliane
da Conceição da Silva2
1
Departamento de Matemática
Universidade do Estado do Mato Grosso (UNEMAT) – Barra do Bugres, MT – Brasil
2
Escola Estadual Alfredo Jose da Silva
Barra do Bugres, MT – Brasil
{tatymirandah@gmail.com,diegopiasson@yahoo.com.br,mineiacf@gmail.com,
eliane_bbg@yahoo.com.br}

Abstract. The present article intends to socialize some results achieved in the
workshop "The teaching order and quadratic function with the use of
GeoGebra software" held by the Institutional Scholarship Program for
Initiation to Teaching (PIBID). It is common to hear about many of the
students of the difficulties in learning mathematics, on these perspectives one
can see that the technological world has also been increasingly present in the
lives of students. Identify the difficulties is not enough, we need to adopt
different teaching methodologies in order to have the students' attention today,
before that, the use of GeoGebra software meets this reality.

Resumo. O presente artigo tem por objetivo socializar alguns resultados


alcançados na oficina “O ensino de função afim e quadrática com o uso do
software GeoGebra”, realizada através do Programa Institucional de Bolsas
de Iniciação a Docência (PIBID). É comum ouvir falar da grande parte dos
alunos das dificuldades em aprender matemática, diante dessas perspectivas
percebe-se que o mundo tecnológico também vem sendo cada vez mais
presente na vida dos alunos. Identificar as dificuldades não é o bastante,
precisamos adotar metodologias de ensino diferenciadas a fim de ter a
atenção dos alunos nos dias atuais, diante disso, o uso do software GeoGebra
vem ao encontro dessa realidade.

1. Introdução
O presente artigo se fundamenta nos resultados alcançados com o
desenvolvimento de uma oficina que foi realizada na Escola Estadual Alfredo Jose da
Silva no município de Barra do Bugres-MT, a qual foi trabalhada com o tema função
afim e quadrática com o software GeoGebra, com os alunos do 1ª Ano G vespertino do
ensino médio.
Tendo em vista, as dificuldades dos alunos de entender o conceitos envolvendo
funções afins e quadráticas, e de visualizar o comportamento do gráfico das funções de

16
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

acordo com os coeficientes das funções, propõe-se a utilização do software GeoGebra


para contribuir com o aprendizado, buscando levar o aluno ter condições de interpretar a
representação algébrica, ou seja, o que cada coeficiente da função implica no gráfico
das funções.
O uso do software Geogebra justifica-se por ser um recurso didático facilitador
do aprendizado de funções. Trabalhar com esse conteúdo como uma oficina e
explorando o referido software, proporcionou ainda mais interação do conceito do que
representa uma função e a finalidades dos seus coeficientes para esses alunos do ensino
médio. Outro aspecto que merece ressaltar é o fato de ensinar as funções de uma forma
interativa através desse software, possibilitando o aprendizado do conteúdo de maneira
diferenciada.
Os objetivos da oficina visam à revisão e aprofundamento a cerca dos conceitos
que envolvem as funções de uma forma diferenciada e dinâmica. Especificamente, se
propõe a construir o gráfico das funções quadráticas e afins, possibilitando a sua
visualização com as variações gráficas com a mudança dinâmica dos coeficientes das
funções.
De acordo com Pádua (2010), as atividades desenvolvidas de função afim e
função quadrática, com esse tipo de recurso o GeoGebra, possibilitam aos alunos uma
melhor compreensão sobre teoria e prática. O comportamento de cada coeficiente o
gráfico de cada função. No entanto, o aluno terá oportunidades de plotar o gráfico, com
isso obterá melhor aprendizado, mas significativo pelo fato de poder reproduzir o que os
livros trazem prontos. Isso sim será uma forma de tornar cada educando mais crítico e
construtivo no ensino da matemática.

2. Ensino de matemática através de Softwares


A Matemática é considerada por uma grande parte dos alunos como uma das
áreas de maior dificuldade de aprendizado. Dentro dessa perspectiva, percebe-se que no
dia a dia é difícil ouvir que os alunos gostam de matemática. Segundo Rivas & Pedroso,
(2005), observamos que nos dias atuais professores/pesquisadores buscam alternativas
de ensino, visando à quebra desse paradigma. Assim se estende a um forte foco para
novas metodologias de ensino de matemática com os recursos tecnológicos.
É nessa busca que a Educação Matemática se coloca buscando métodos de trazer
a realidade do aluno na qual convive para sala de aula, diversificar os métodos de ensino
mecânico, para uma aula prática e interessante de uma maneira em que o aluno consiga
aprender com mais facilidades, notando a importância da matemática e que, além dos
cálculos mecânicos, está inserido no mundo em que vive. Nestas perspectivas o ensino e
aprendizado tornam-se mais significativos ao aluno, facilitando o trabalho do professor.
As tecnologias podem facilitar o trabalho do professor nas aulas de matemática,
ampliando o ensino e aprendizado do aluno. De acordo com Behrens (2000), esse
mundo de grandes avanços tecnológicos, é fundamental as atitudes críticas e inovadoras
para a sociedade como um todo. Com isso, surge à necessidade de inovação da ação do
professor, indo além das tradicionais aulas expositivas, assim o processo de
aprendizagem com o uso da tecnologia passa ser mais criativa, dinâmica, e encorajadora
para a descoberta.

17
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

O ensino e aprendizado de matemática necessitam ser estratégicos e para isso, o


professor de matemática tem que ser pesquisador para melhor elaborar suas aulas, por
exemplo, usando recursos tecnológicos (calculadora, aplicativos de celular e os demais
softwares), os quais devem estar inseridos à prática docente dos professores de
matemática da educação básica. Ainda nessa mesma linha de raciocínio os Parâmetros
Curriculares Nacionais do Ensino Médio (PCN +, 2007) destaca a relevância do uso da
tecnologia nas aulas de matemática, principalmente para os alunos do ensino médio,
pois segundo estudos dessa área, os alunos desenvolvem melhor a capacidade de
comunicação e com isso, percebem-se as necessidades socioculturais que os educandos
enfrentam no dia a dia. Nesse sentido é primordial aprender manusear calculadoras e
computadores, ter noção de suas limitações e suas potencialidades.
Com o uso do software Geogebra, podemos trabalhar com objetos construídos
de diferentes formas, podemos arrastá-lo e modificá-lo independentemente da forma
como eles foram inicialmente construídos. Segundo os autores Resende, et al. (2012),
considera a grande importância do uso desse recurso, pelo fato de poder trabalhar em
diversas maneiras, proporcionando ao aluno criar novas estratégias, aprender e
desenvolver propriedades matemáticas. Ao trabalhar com softwares nas aulas de
matemática, os mesmos possibilitam um aprendizado mais interativo e significativo e
que é de grande importância no processo de ensino e aprendizado. Nessa perspectiva,
esses recursos tecnológicos, destacando em particular o GeoGebra, tem-se mostrado
com resultados bastante positivos.
Portanto, esse software é uma ferramenta muito privilegiada, que permite uma
construção geométrica mais ampla, ou seja, com um simples arrastar de figura na tela do
computador em diferentes posições sem modificar suas características nos possibilita
pensar de uma forma matematicamente diferente do que se estivesse trabalhando com
uma construção estática ou apenas falando dela sem nenhum recurso visual.
Para Silva (2009, p. 15) a introdução das tecnologias de informação e
comunicação na sala de aula, proporciona uma renovação ao ambiente de aprendizagem
com uma boa energia, uma boa atmosfera de trabalho, oferecendo assim aos alunos uma
maior motivação, interesse e curiosidade pelas aulas de matemática.
Portanto, através dessa oficina foi proporcionado aos alunos maior aprendizado
a partir do uso da tecnologia que está cada vez mais presente no dia a dia e, por sua vez,
como incentivo aos alunos nas aulas de matemática.

3. Materiais e Métodos
A realização da Oficina Pedagógica foi com a turma de alunos do 1º ano do
ensino médio, turno vespertino da Escola Estadual Alfredo José da Silva, com carga
horária de 2 horas. A turma era composta por 18 alunos, e em duplas os alunos
realizaram atividades voltadas para o estudo da Função Afim e Função Quadrática com
o software de matemática dinâmica GeoGebra, onde os mesmos compartilharam suas
conquistas e suas dúvidas com os seus colegas, durante a realização das atividades.
Como instrumento de avaliação foi utilizado a proposta de ensinar um conteúdo
já visto anteriormente na sala de aula de uma forma diferenciada, revisando o que antes
tinha aprendido com lápis e papel, buscando através da oficina com o software
GeoGebra favorecer a compreensão e o desenvolvimento de atividades envolvendo as
funções.

18
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Nas atividades desenvolvidas na oficina, percebe-se isso ao se deparar com


algumas dificuldades dos alunos, onde ao mesmo tempo em que questionavam,
procuravam elaborar estratégias de solução para as situações problemas. Foi em
momentos como esses que nos possibilitou observar a aprendizagem coletiva e
colaboração entre os participantes, aprendendo conceitos de função afim e quadrática e
com isso passou a ser, mas significativo para os alunos entender os conceitos
matemáticos envolvidos. Nas seções seguintes são apresentadas as atividades
desenvolvidas. Na Figura 01 apresenta-se um dos momentos da realização da oficina.

Figura 01 – Momento da realização da oficina.

3.1 – Atividades para a Função Afim


No Quadro 01, é apresentado o roteiro para a atividade desenvolvida para a
exploração da função afim.

Quadro 01: Atividade desenvolvida para a exploração da função afim.

Construa o gráfico da Função Afim, seguindo os passos abaixo:

1) Digite no campo de entrada a seguinte equação: 𝑦 = 𝑎𝑥 + 𝑏.


Clique em OK para criar os Controles deslizantes para a e b.
2) Feito isso, para melhor interpretação geométrica, mantenha o
coeficiente a fixo e varie o b, depois mantenha o coeficiente b
fixo e varie o a. Que conclusões chegou sobre os coeficientes
reais a e b ?
3) Qual a condição de existência para que a função seja afim?
4) Quando o coeficiente b é nulo
Fonte: Própria o que acontece com função?
do autor

Fonte: Próprio autor

19
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Essa atividade fez com que os alunos compreendessem melhor o comportamento


da variação dos coeficientes da função afim e suas particularidades (função constante e
linear). Na Figura 02, apresentamos o gráfico da Função afim gerado no GeoGebra
pelos alunos do 1º ano do ensino médio.

Figura 02 – Construção do gráfico da função afim.

Ao inserir os controles deslizantes para a e b, os quais permitem movimentar um


parâmetro variável por vez, por exemplo: fixe b e movimente a, fixe a e movimente b,
praticamente todas as duplas conseguiram perceber que à medida que o parâmetro a é
arrastado é possível notar o crescimento e decrescimento do gráfico da função. E
também que ao fixarem o parâmetro a e movimentarem o parâmetro b observaram que o
b é o ponto onde o gráfico intercepta o eixo y.

3.2 - Atividades para a Função Quadrática


No Quadro 02, é apresentada a atividade desenvolvida para a exploração da
função quadrática.
Quadro 02: Atividade desenvolvida para a exploração da função quadrática

Construa o gráfico da Função Quadrática, seguindo os passos


abaixo:

1) Digite no campo de entrada a seguinte equação: 𝑦 = 𝑎𝑥 2 +


𝑏𝑥 + 𝑐. Clique em OK para criar os Controles deslizantes para
a, b e c.
2) Feito isso, para melhor interpretação geométrica, mantenha os
coeficientes b e c fixos e varie o a, depois mantenha os
coeficientes a e b fixos e varie o c, e por fim mantenha os
coeficientes a e c fixos e varie o b. Que conclusões chegou
sobre os coeficientes reais a, b e c?
3) Quando o coeficiente a, b ou c é nulo o que acontece com
função?
4) Qual a condição de existência para que a função seja
quadrática?

20
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Na Figura 03, tem-se o gráfico da função quadrática cujos coeficientes assumem


os valores = = e = , onde os alunos estavam aleatoriamente variando os
parâmetros.
.

2
Figura 03: Gráfico da função = +

Na sequência das atividades, foi indicado que os parâmetros fossem variados de


acordo com a instrução apresentada no Quadro 02, onde eles observaram e realizaram as
anotações de o que acontecia com o comportamento do gráfico. Nesse momento as
duplas discutiram juntos os resultados obtidos com a construção do gráfico da função
quadrática.
Nos comentários dos alunos percebia-se que estava sendo mais fácil de
compreender com o movimento dos parâmetros, perceber as variações do gráfico, por
exemplo, quando a concavidade da parábola é voltada para baixo e quando é voltada
para cima, ao variar o parâmetro a. Algumas duplas começam a expor outros
comentários, como, ao fixar os parâmetros b e c e variando apenas a também é possível
perceber a alteração na abertura da parábola, outros observaram também que os vértices
da parábola se moveram linearmente sobre uma reta. Ao fixarem os parâmetros a e b e
variarem o parâmetro c, duas duplas imediatamente comentaram que o parâmetro c se
refere ao ponto onde a parábola intercepta o eixo y. Devido ao tempo de execução da
oficina, não foi possível um aprofundamento no estudo do coeficiente b da função
quadrática, ficando apenas em um breve estudo do mesmo.
Durante todo o desenvolvimento da oficina foi procurado direcionar alguns
questionamentos em relação ao desenvolvimento das atividades propostas sobre função
afim e quadrática com os recursos do software GeoGebra nas aulas, a fim de estimular o
gosto pelas descobertas. No geral, os alunos desenvolveram a oficina dentro do
esperado, somente alguns alunos tiveram dificuldades, principalmente aqueles que
estavam tendo contato com o software pela primeira vez. Além disso, foi constatado que
a oficina proporcionou uma curiosidade a mais aos alunos em relação a aprendizagem
da matemática com o GeoGebra.

21
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Trabalhar com a tecnologia nas aulas de matemática, faz com que o professor
não traga o conteúdo pronto e acabado e o aluno tem oportunidade de construir o
conhecimento. O professor deixa de ser o centro da sala e passa ser um mediador no
processo e ensino e aprendizagem. Nas atividades desenvolvidas na oficina percebeu-se
que a medida em que a oficina foi sendo ministrada, os alunos se deparavam com
dúvidas, e não somente questionavam como se arriscavam ir atrás da resposta. O
processo de argumentação foi muito bom, apesar de muitas dificuldades apresentadas
pelos alunos. Isso fez com que a oficina acontecesse de forma satisfatória, onde os
alunos foram evoluindo seu processo de aprendizagem com o decorrer das atividades.
Ao ministrar a oficina, apenas 2 alunos já conheciam o software, no entanto,
não tinham conhecimento que o software GeoGebra poderia ser usado para trabalhar
com funções, e outros nunca tinham ouvido falar no GeoGebra. Algumas duplas
perceberam que o uso do computador contribui para o aprendizado dos conceitos de
função, sendo que essa oficina sanou dúvidas que não conseguiam entender quando o
conteúdo foi passado com o uso de lápis em sala de aula.
Vale apenas ressaltar aqui que o computador não faz milagres sobre os outros
recursos utilizados, ou seja, ambos são necessários para o ensino e para a aprendizagem
dos conteúdos sobre funções, porém, com potencialidades diferenciadas.

4. Considerações Finais
Durante o desenvolvimento das atividades com os alunos do 1º ano do ensino
médio na escola Alfredo Jose da Silva, foi feito o registro das observações e
questionamentos que ocorreram na oficina.
Uma das principais vantagens do uso do GeoGebra através dessa oficina, é que
ela auxilia no pensar de nossa pratica pedagógica, durante a formação docente, pois é
uma ferramenta metodológica de fácil acesso, e qualquer usuário pode fazer download
gratuitamente deste software. Para os alunos que não conheciam o software, foram se
familiarizando aos poucos, e consequentemente apresentaram mais dificuldades em
manuseá-lo.
Quanto ao ensino e a aprendizagem de funções, a interação entre os alunos e
computador permaneceu durante toda a aplicação da oficina. À medida que os alunos
movimentavam de forma dinâmica os parâmetros conseguiam visualizar as alterações
na construção dos gráficos e fazer questionamentos sobre o que realmente estavam
vivenciando naquele momento.
Além dessas funções que foram trabalhadas com software GeoGebra, outras
funções reais podem ser exploradas com esse recurso. E levar essas atividades usando
um software dinâmico e interativo para escola publica é, sobretudo, um compromisso
com uma educação de melhor qualidade. Cabe ressaltar aqui, que algumas limitações
com o uso do software muitas vezes ocorre, pelo fato de os professores terem problemas
que dificultam o uso desses recursos em sala de aula, como por exemplo: poucos
computadores para turmas muito grandes e também a falta de conhecimento do sistema
operacional instalado nas escolas.

22
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

5. Agradecimentos
Ao Programa Institucional de Bolsa De Iniciação a Docência (PIBID),
financiado pela CAPES.

Referências
Brasil (2007). Ministério da Educação. Secretaria da Educação Média e Tecnológica.
Parâmetros Curriculares Nacionais + (PCN+) - Ciências da Natureza e suas
Tecnologias. Brasília.
Beherens, Marilda Aparecida (2000). "Projetos de aprendizagem colaborativa num
paradigma emergente". In MORAN, José Manuel. Novas tecnologias e mediação
pedagógica, Campinas: Papirus.
Pádua, M.C.D. (2010). Utilizando o Software Geogebra como ferramenta auxiliar no
ensino de função afim e função quadrática. Paraná.
Resende, V. M, Dirce, U. P. e Bortolossi, H. J. (2012). Explorando aspectos dinâmicos
no ensino de funções reais com recurso do GeoGebra. I Conferencia Latino
Americana de Geogebra.
Rivas, N. P. P., Pedroso, C. C. A. P., Leal, Iturrieta, M. A. e Capelini, H. A., (2005).
Significação do trabalho docente no espaço escolar: currículo e formação. VIII
Congresso Estadual Paulista sobre Formação de Educadores . UNESP - Universidade
Estadual Paulista.
Silva, C. I. F. (2009). Explorando A Função Quadrática Com O Software GeoGebra em
uma Turma do 10º Ano.

23
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Sistema de Informação para Controle de Dopagem


Francisco Medeiros1, Juliana Medeiros1, Fausto Ayres1, Caio Viana2, Victor
Viegas, Eder Mendes, Ana Santos, Josemary Rocha3
1
Instituto Federal de Educação, Ciência e Tecnologia da Paraíba – João Pessoa – Brasil
2
Centro Universitário de João Pessoa (UNIPÊ) – João Pessoa – PB – Brasil
3
Instituto de Educação Superior da Paraíba (IESP) - João Pessoa – PB – Brasil
{petronio,juliana.medeiros,fausto.ayres}@ifpb.edu.br,
aiacos@gmail.com, victormesquita88@gmail.com, fmeder@gmail.com,
anacarlags@gmail.com, josemaryfreire@gmail.com

Abstract. Increasingly we can see a concern of regulators, sponsors, athletes


and sports organizations with regard to Doping Control. Despite the
investments made in recent years, recent studies show that the doping control
process is not systematized in the confederations that also have problems in
the transparency of the test results. The aim of this study is to develop an
information system to support the confederations in doping control process. It
is also expected that the integrated database of doping tests can help
managers in formation of public policy in the area.

Resumo. Cada vez mais percebe-se uma preocupação dos órgãos


reguladores, patrocinadores, atletas e entidades esportivas no que diz respeito
ao Controle de Doping. Apesar dos investimentos realizados nos últimos anos,
estudos recentes demonstram que o processo de controle de dopagem não é
sistematizado nas Confederações que também apresentam problemas na
transparência dos resultados dos testes. O objetivo deste estudo é desenvolver
um Sistema de Informação para apoiar às Confederações no processo de
controle de doping. Espera-se ainda que a base de dados integrada dos testes
de doping auxilie os gestores na formação de políticas públicas na área.

1. Introdução
O controle de doping no Esporte é um desafio complexo, motivo de preocupação dos
órgãos responsáveis por sua regulação no contexto nacional e também mundial.
Constantemente nos deparamos com notícias sobre casos de doping em diversas
modalidades esportivas que comprometem o espírito olímpico e abalam os valores do
esporte. Muitos investimentos têm sido feitos pelo Governo Federal do Brasil no sentido
de evoluir nesse assunto, como por exemplo, a criação da Autoridade Brasileira de
Controle de Dopagem (ABCD) em 2011.
O processo de controle de dopagem no Brasil passa por mudanças estruturais
que antecedem os Jogos Olímpicos em 2016. Destacando-se a cooperação com
laboratórios estrangeiros e o recredenciamento do Laboratório Brasileiro de Controle de

24
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Dopagem (LBCD) pela Agência Mundial Antidopagem (WADA1) este ano, que foi um
dos fatores observados em meio a essa evolução no sistema antidopagem.
Entretanto, apesar dos investimentos já realizados, conforme descrito no
Relatório Anual da ABCD (2013), diversas ações ainda precisam ser executadas para
superar os desafios da área. Um dos problemas atualmente existentes diz respeito à
ausência de informações atualizadas sobre o controle de dopagem, o que compromete a
elaboração de políticas públicas voltadas para o controle de dopagem. O acesso a
informações atualizadas e confiáveis é condição básica para a tomada de decisão.
O Comitê Olímpico Brasileiro acompanha 52 confederações de diversas
modalidades esportivas, sendo 30 confederações olímpicas, 19 vinculadas e 3
reconhecidas [COB, 2015]. Entretanto, a transparência das confederações quanto aos
casos positivos e seus julgamentos é insatisfatória. As principais confederações
apresentam deficiências no controle de dopagem e na divulgação dos dados.
Nesse contexto, esta pesquisa teve por objetivo geral desenvolver um Sistema de
Informação com o propósito de apoiar às Confederações no processo de controle de
dopagem e com isso fornecer informações atualizadas que contribuam para a tomada de
decisão e formação de políticas públicas no Brasil na área em questão.

2. Trabalhos Relacionados e Contexto envolvido


O ADAMS (2009) é um sistema de gerenciamento de testes de doping da WADA que
armazena os testes realizados pelos laboratórios credenciados. As Confederações
conveniadas com a WADA podem ter acesso (somente consulta) a esse sistema.
O Sistema de Informação desenvolvido neste projeto, denominado Sistema para
Controle de Dopagem (SCDP), tem por objetivo apoiar no controle de doping,
complementando o ADAMS, através da disponibilização de funcionalidades não
contempladas pelo mesmo. O SCDP se propõe a atuar durante todo o processo de
controle de dopagem, incluindo funcionalidades para aquisição de kits de doping,
seleção de atletas a serem testados, preenchimento do formulário de doping,
detalhamento dos resultados, abertura e julgamento de processos em caso de testes
positivos. O escopo do ADAMS, para as confederações, se restringe à consulta dos
resultados dos testes realizados pelos laboratórios credenciados.
Atualmente, quando realizado, o controle de doping é feito de maneira
independente por cada entidade esportiva (confederação, associação, etc.) com o apoio
de planilhas e documentos, não havendo um banco de dados e nem o apoio de algum
software. Além disso, não há uma padronização entre as entidades. Desta forma, os
órgãos reguladores no Brasil não têm uma visão consolidada do processo utilizado.
Também não se tem informações precisas, detalhadas e atualizadas sobre os testes que
possibilitem uma análise aprofundada do doping por região, modalidade esportiva,
substância proibida ou faixa etária, por exemplo.
O Programa Bolsa Atleta do Governo Federal (2005) estabelece a não violação
de regras antidoping como requisito adicional a ser cumprido por atletas candidatos ao

1
https://www.wada-ama.org/

25
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

benefício e institui penalidades aos bolsistas que violarem as regras antidoping.


Entretanto, devido à ausência de um controle automatizado e centralizado, o programa
não dispõe de informações atualizadas sobre os testes positivos, de tal forma que
necessita receber essa informação da imprensa, a partir de denúncias ou das
Confederações. A Figura 1 apresenta o contexto em que o projeto está inserido.
Figura 1 – Contexto do Sistema de Controle de Dopagem

3. Metodologia Empregada

3.1 Mapeamento do controle de dopagem das Entidades Esportivas


Foi realizado um estudo exploratório com objetivo de responder a seguinte questão de
pesquisa: Como o controle de dopagem vem sendo realizado atualmente pelas entidades
esportivas?. Essa atividade foi conduzida por dois professores pesquisadores.
Inicialmente a equipe entrou em contato com as Confederações a partir das
informações de contato disponibilizadas pelo COB. Foram enviados e-mails para todas
as confederações. Além disso, algumas confederações foram contatadas por telefone e
oito confederações foram visitadas presencialmente. As técnicas utilizadas para coleta
de dados foram: i) entrevistas e ii) análise de documentos relacionados com o controle
de dopagem que foram disponibilizados pelas entidades esportivas ou obtidas através
dos sites das instituições. Essa etapa da pesquisa procurou analisar o processo de
controle de doping realizado pelas confederações, as necessidades, os desafios
existentes e as boas práticas a serem compartilhadas com outras entidades esportivas.
Essas informações nortearam a etapa seguinte de desenvolvimento do Sistema.
A ABCD colaborou nesse processo fornecendo informações sobre as ações que a
entidade estava executando no que diz respeito ao controle de dopagem e oficializando a
nossa participação com as Confederações esportivas. Diversas confederações foram
investigadas nesse processo, entretanto, a Confederação Brasileira de Atletismo
(CBAT)2, por ser referência no Controle de Dopagem no Brasil, foi utilizada como
principal fonte de informação e validação das funcionalidades do sistema.

2
http://www.cbat.org.br/

26
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

3.2 Processo de Desenvolvimento


O Sistema de Informação está sendo desenvolvido utilizando a metodologia ágil Scrum
[Schwaber, 1995], seguindo práticas do PMBOK (Project Management Body of
Knowledge) [PMI, 2013]. Foi utilizado um processo de desenvolvimento interativo e
incremental, denominado BRAP (Business Requirement Agile Process) [Medeiros,
2015]. O processo é divido em quatro sub-processos que são repetidos em cada ciclo
mensal de desenvolvimento (Sprint): Gerenciamento do Backlog, Refinamento dos
Requisitos, Codificação e Conclusão. Cada sprint contempla um subconjunto de
funcionalidades (requisitos) do backlog do projeto.
Até o momento, 14 pessoas foram envolvidas no projeto: 1 coordenador, 2
pesquisadores, 1 analista, 4 programadores e 6 alunos estagiários. Entretanto, nem todos
os colaboradores atuaram durante todo o projeto. O coordenador do projeto é
responsável pela gerência executiva, realizando o detalhamento das atividades e o
acompanhamento da execução. Além disso, é responsável por reportar informações
sobre o andamento do projeto aos parceiros do projeto, sempre que solicitado.

3.2.1. Gerenciamento do Backlog


A partir das entrevistas presenciais realizadas nas confederações foi elaborado o Product
Backlog (PB) inicial do projeto. Após validar o PB com a CBAT foi realizado o
planejamento, onde os requisitos foram distribuídos nas Sprints de acordo com a
priorização estabelecida pela CBAT e pela ABCD. O projeto utiliza a ferramenta
Redmine3 para apoiar na gestão, controlando as demandas alocadas à equipe.

3.2.2. Refinamento dos Requisitos


No início de cada Sprint, a estrutura do banco de dados é modelada contemplando todos
os requisitos da Sprint. Em seguida, para cada requisito, são elaborados os mockups
(protótipos da interface com o usuário) e são especificadas as regras relacionadas. Essas
atividades são conduzidas, de maneira simultânea, pelo analista com o apoio dos
usuários da CBAT e a supervisão dos pesquisadores. Quando o refinamento de um
requisito é finalizado, o mesmo é imediatamente disponibilizado para a codificação.
Os requisitos são especificados utilizando o template definido em BRAP que
interliga as regras do usuário, os mockups e estrutura de dados. O documento é
elaborado no MS Word. Os mockups são construídos na ferramenta Pencil4 e o modelo
de dados é elaborado na ferramenta Astah5.

3.2.3. Codificação
Essa etapa é realizada pelos programadores e estagiários. Um dos programadores
desempenha o papel de arquiteto de software e também é responsável pela realização
dos deploys semanais. A linguagem de programação escolhida para o desenvolvimento
do software foi Java, na sua versão 7, na plataforma EE (Enterprise Edition). O software
tem uma arquitetura de 3 camadas, seguindo o padrão Model-View-Controller (MVC)

3
http://www.redmine.org/
4
http://pencil.evolus.vn/
5
http://astah.net/download

27
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

[Fowler et al., 2003] de arquitetura de software que separa a lógica de negócio da


interface com o usuário, conforme ilustrado na Figura 2.
Figura 2 – Arquitetura da aplicação

Dentro da plataforma Java EE, foi utilizada a tecnologia Java Server Faces
(JSF). A biblioteca PrimeFaces foi escolhida como extensão de componentes e recursos
para o JSF. Na camada de persistência do Java (JPA), o framework Hibernate 3.5 foi
escolhido com o objetivo de reduzir a complexidade da comunicação com o banco de
dados PostGreSQL 9 utilizado no projeto.
O Spring Security 3 foi utilizado como uma alternativa de segurança da
especificação Java EE, oferecendo um mecanismo de autenticação e autorização para a
aplicação web. Durante o desenvolvimento do projeto, a equipe de testes utilizou o
framework JUnit, que dá suporte a testes automatizados na linguagem Java. O
gerenciamento das dependências do projeto foi feito com o Maven 3. Com ele foi
possível gerenciar as builds, padronizar o ambiente de desenvolvimento, simplificar a
criação e distribuição e projeto. Para o controle de versão do código-fonte da aplicação,
a equipe de desenvolvimento utilizou o Apache Subversion (também conhecido por
svn). O projeto é executado sobre um servidor web Apache Tomcat 7.

3.2.4.Conclusão de cada a Sprint


Semanalmente, à medida que uma nova versão da aplicação é disponibilizada com
novas funcionalidades, os testes de aceitação são realizados. As não-conformidades
encontradas são reportadas no Redmine e encaminhadas para correção na especificação
ou no software. Ao término de cada Sprint a aplicação é disponibilizada para validação.
Algumas funcionalidades já foram validadas com a CBAT e outras com a ABCD.

4.Avaliação dos Resultados

4.1. Situação atual do Controle de Dopagem no Brasil


Foi analisado o processo de controle de dopagem atualmente realizado pelas
confederações e o nível de transparência no que diz respeito à divulgação dos casos de
doping. Além das entrevistas com os responsáveis pelo controle de doping em oito
confederações olímpicas, também se verificou os sites das confederações para analisar
os testes de doping que foram encaminhados ao Superior Tribunal de Justiça Desportiva
(STJD) das confederações. Esses dados foram sintetizados para que fosse possível
responder à questão de pesquisa desse estudo.
Das 30 confederações olímpicas, 23 apresentam informações sobre o STJD, em
seus sites. Apesar disso, os números absolutos sobre a transparência dos casos de doping

28
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

realizados no Brasil são alarmantes: dentre as cinquenta e três confederações analisadas,


apenas oito disponibilizam no site dados que possibilitam uma consulta de forma
eficiente. Em sua grande maioria não há acesso a processos ou menções a qualquer
controle realizado no que se refere à dopagem.
Durante o levantamento realizado no site das confederações, apenas 7
confederações (todas olímpicas) disponibilizam informações sobre os testes
encaminhados ao STJD, totalizando 116 processos: Confederação Brasileira de
Ciclismo (35), seguido pela de Atletismo (33), Futebol (21) e Hipismo (21). Canoagem
aparece com 4 casos, e Basketball e Tiro Esportivo com apenas um, conforme ilustrado
na Tabela 1. Todas as outras confederações não apresentaram, à época do levantamento
(fevereiro/2015), informações sobre casos de dopagem em seus sites.

Tabela 1. Testes de Doping encaminhados ao STJD (até Fevereiro/2015)

Há de se ressaltar os casos das Confederações que não dispuseram registros em


seus sites de casos julgados e noticiados na grande mídia, como as Confederações de
Jiu-jitsu, Desportos Aquáticos, Ginástica e Automobilismo. Nesse grupo incluem-se
esportes que recebem incentivos federais de programas como o Bolsa Atleta.
Além de poucas confederações disponibilizarem informações, ainda há
limitações quanto à qualidade da informação. Os dados muitas vezes se apresentaram
incompletos e desorganizados, com decisões e recursos jurídicos não reunidos, por
exemplo. Na maioria das confederações, não há detalhes suficientes sobre os processos,
muitas vezes sem acesso até mesmo à defesa do denunciado. Identificamos ainda que
algumas confederações sequer divulgam as substâncias encontradas nos exames,
divulgando apenas a decisão final da punição. Algumas confederações justificaram que
os altos custos envolvidos inviabilizam a realização e o controle dos testes de doping.
Em todas as confederações analisadas foi observada a ausência de um sistema de
informação para apoiar os profissionais envolvidos. Com exceção da CBAT, há uma
necessidade alarmante quanto à sistematização do processo de controle de dopagem.
Outro desafio identificado diz respeito à necessidade de melhorar a transparência dos
processos de julgamento dos testes de doping.
Com objetivo de validar o entendimento sobre o processo de controle de doping,
foi elaborado um fluxo6 descrevendo as atividades envolvidas em todo o processo de
controle de dopagem, sendo esse fluxo uma das contribuições deste trabalho. Espera-se
que esse fluxo possa nortear as Confederações a sistematizarem seu processo de
controle de dopagem. Esse fluxo foi validado com a CBAT.

6
Disponível em: https://drive.google.com/open?id=0B-Nlp0nCynhJdGFBOE9Kal9PZTQ

29
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

4.2. Funcionalidades Disponibilizadas pelo Sistema de Informação


A Figura 3 ilustra os 7 módulos (Administrativo, Configuração, Controle de Acesso,
Dopagem, Estatístico, STJD e Uso Geral) que compõe o Sistema e o Webservice que
está sendo desenvolvido para disponibilizar os testes de doping confirmados. Até o
momento, o Backlog em 133 funcionalidades entre cadastros, consultas e relatórios. A
Figura 4 apresenta a quantidade atual de funcionalidades por módulo e por status.
Figura 3 – Módulos do Sistema

Figura 4 – Funcionalidades por Módulo e por Status

Alguns exemplos de ações que poderão ser realizadas com ajuda da análise dos dados
disponibilizados pelo Sistema Integrado são:
 Aumentar a realização de testes antidoping nas modalidades que apresentam
baixa quantidade de testes realizados;
 Investigar as boas práticas que estão sendo aplicadas no que diz respeito ao
controle antidoping das modalidades esportivas que apresentam altas taxas de
testes realizados;
 Investigar os motivos da grande incidência de testes positivos em determinadas
substâncias proibidas;
 Investigar que faixas etárias, sexo, categorias, cidades, regiões do país que
precisam de um acompanhamento educativo mais próximo.
O webservice em desenvolvimento possibilitará a integração com outros
programas, por exemplo, o Bolsa Atleta, garantindo que o benefício não seja concedido

30
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

à atletas que estejam cumprindo suspensão em virtude de doping, como também


suspender o benefício imediatamente após a confirmação definitiva do teste positivo.

5. Conclusão
Esta pesquisa envolveu o desenvolvimento de um Sistema de Informação que poderá
apoiar às Confederações no controle de doping dos seus atletas, alimentando um banco
de dados com informações integradas, algo inédito no país. De posse dessas
informações, os gestores das entidades esportivas estarão mais preparados para tomarem
decisões estratégicas e para formularem políticas públicas visando à melhoria no
controle de dopagem.
Este projeto também serviu de estudo de caso para validar e otimizar um
processo novo criado para especificar requisitos em projetos ágeis. Como trabalho
futuro, planejamos avaliar a possibilidade de integração desse sistema como o ADAMS.
Além disso, pretende-se disponibilizar um aplicativo para dispositivos móveis que possa
orientar os atletas com relação às substâncias proibidas.

6. Agradecimentos
Esta pesquisa foi apoiada pelo CNPQ (Conselho Nacional de Desenvolvimento,
Científico e Tecnológico) através do Edital 91/2013, ao qual agradecemos pela
viabilização dos recursos necessário para execução do projeto.

Referências
Abcd. (2013) “Relatório de Atividades 2012/2013”. Disponível em:
http://www.esporte.gov.br/arquivos/ascom/publicacoes/RelatorioABCDAtividades20
12-2013PortuguesIngles.pdf.
Adams. (2009) “Anti-Doping Administration & Management System”. Disponível em:
https://www.wada-ama.org/en/what-we-do/adams.
Bolsa atleta. (2005). “Decreto nº 5.342 de 14 de janeiro de 2005 que institui o Programa
Bolsa Atleta do Governo Federal do Brasil”. Disponível em:
http://www2.esporte.gov.br/snear/bolsaAtleta/.
Cob. (2015) Comitê Olímpico Brasileiro. “Confederações Olímpicas, Vinculadas e
Reconhecidas”. Disponível em: http://www.cob.org.br/pt/Confederacoes.
Fowler, M. (2003) “Padrões de Arquitetura de Aplicações Corporativas”. Editora
Bookman.
Medeiros, J.D.R.V., Vasconcelos, A.M.L. and Silva, C. (2015) Integration of Agile
Practices: An approach to improve the quality of software specifications. XVIII
CIBSE Ibero-American Conference on Software Engineering– Doctoral Symposium.
PMI. (2013). “A Guide to the Project Management Body of Knowledge (PMBOK®
Guide)”. Project Management Institute. Fifth Edition. ISBN13: 9781935589679.
Schwaber, K. (1995). “SCRUM Development Process”. OOPSLA'95 Workshop on
Business Object Design and Implementation. Austin, Texas, USA: Springer-Verlag.

31
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Sistema de Captura e Processamento de Imagens Digitais


para Cálculo de Área: SAPID
Willyan A. Silva1, Rodrigo F. Shimazu¹
1
Departamento de Ciência da Computação – Universidade Estadual de Mato Grosso
(UNEMAT)
Barra do Bugres – MT – Brazil
willyan_af@hotmail.com, shimazu@unemat.br

Abstract. With the need to automate the process of images capturing and
perform the measurement of the area of the object of interest to meet a
project of drying of tropical fruits, from bibliographic research and
requirements gathering was developed an application using concepts of agile
methodologies and project Standards for software development. The software
resulted in a single automated process for capturing and analysis of images, in
addition to persist data and organize it for easy access and reading.
Considerable performance was achieved on the achievements of the capture
and measurement tasks by eliminating steps made manually.

Resumo. Com a necessidade de automatizar o processo de captura de imagens


e realizar a mensuração da área do objeto de interesse para atender um
projeto de Secagem de Frutas Tropicais, a partir de pesquisas bibliográficas e
levantamento de requisitos foi desenvolvido uma aplicação utilizando
conceitos de metodologias ágeis e Padrões de Projeto para desenvolvimento
de softwares. O software resultou em um processo único e automatizado para
a captura e análise de imagens, além de persistir os dados obtidos e organizá-
los para facilitar o acesso e leitura. Obteve-se considerável desempenho nas
realizações das tarefas de captura e mensuração ao eliminar etapas feitas
manualmente.

1. Modelo de Imagens Digitais e Conceitos Básicos de Processamento de


Imagem
De acordo com Pedrini e Schwartz (2008), para representação e manipulação de uma
imagem por computador é necessário a definição de um modelo matemático adequado. Esse
modelo pode ser caracterizada por uma função de intensidade luminosa f(x,y), em que o valor
ou amplitude nas coordenadas espaciais (x,y), provê o brilho ou intensidade da imagem no
referido ponto.
Na aplicação desenvolvida, é usada a descrição matricial, comum às imagens digitais,
sendo essa a descrição principal na análise e processamento de imagens. Essa representação
é descrita por um conjunto de pixels em arranjo espacial bidimensional em duas direções,
sendo representadas pelos eixos das coordenadas no espaço. Para representação de imagens
digitais, convencionalmente a origem está localizada no canto superior esquerdo, seguindo o

32
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

formato tradicional de percorrer uma matriz, inserindo a imagem no quadrante inferior direito
no sistema de coordenadas cartesiano, conforme pode ser visto na Figura 1.

Figura 1. Convenção do sistema de coordenadas para representação de


imagens digitais

O motivo do uso de métodos de processamento de imagens digitais decorre de duas


áreas principais de aplicação: melhoria de informação visual para interpretação humana e o
processamento de dados para percepção automática através de máquinas. (GONZALEZ;
WOODS, 2000).
Segundo Marques Filho e Vieira Neto (1999), normalmente procedimentos
envolvendo processamento de imagens digitais são expressos de forma algorítmica, podendo
a maioria ser implementada via software tornando o uso de hardware especializado pouco
necessário, exceto casos em que há limitações.

2. Métodos
A elaboração deste projeto utiliza de pesquisa bibliográfica, análise de referenciais teóricos de
obras sobre processamento e análise de imagens digitais. No desenvolvimento da aplicação
foi utilizado notação UML (Unified Modeling Language) para modelagem de dados e o
padrão de projeto MVC (Model, View, Controller), que visa separar a aplicação em
camadas de acordo com suas funções.

3. Implementação
Para o desenvolvimento do Sistema, foram seguidas algumas etapas propostas para um
sistema convencional de processamento de imagens de acordo com Pedrini e Schwartz
(2008), sendo estas a Aquisição, Pré-Processamento, Segmentação. A aplicação
desenvolvida foi dividida de acordo com a relevância de suas atividades, sendo classificadas
como funcionais e não funcionais. As atividades funcionais são representadas pelo Sistema de

33
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

aquisição, de tratamento de imagem e pelas funcionalidades de cálculos, já as não funcionais


são representadas pelo controle de acesso, armazenamento de dados e relatórios.

3.1. Aquisição de Imagens, Pré-Processamento e Segmentação


A etapa de aquisição é um processo simples e tem uma finalidade específica e está presente
em qualquer aplicação que envolva processamento de imagens, pois consiste em capturar a
imagem com que se deseja trabalhar. Isso pode ser feito através de sensor ou outro
dispositivo. Na aquisição da imagem é necessário considerar outros aspectos além da escolha
de um dispositivo, deve-se atentar para condições de iluminação da cena, resolução e número
de níveis de cinza ou cores. Após a captura crua da imagem através de um dispositivo a
mesma é convertida em uma representação adequada para o processamento digital, conforme
cita (PEDRINI; SCHWARTZ, 2008). De acordo com Miranda (2006), a aquisição de
imagens pode ser passiva ou ativa, sendo aquisição passiva de imagens quando há o emprego
de fontes de energia presentes na cena, enquanto a aquisição ativa de imagens envolve o uso
de fonte de energia artificial para sondar a cena.
Com o objetivo de melhorar a qualidade da imagem, nesta etapa é utilizada técnicas
de processamento de imagens, como atenuação de ruído, correção de contraste ou brilho e
até suavização. Com a aplicação dessas técnicas torna-se mais fácil a identificação pelo
algoritmo das partes a serem segmentadas.
A segmentação é o processo para extração e identificação de áreas de interesse.
Segundo Pedrini e Schwartz (2008), o processo de separação de áreas relevantes em
imagens digitais não é um processo simples, sendo necessário um processo intermediário para
auxiliar na interpretação. Um dos métodos mais utilizados na segmentação de imagens é o de
Detecção de Descontinuidades e destas as mais comuns são das de Retas, Bordas e Pontos.
Essa identificação é feita por meio de uma varredura da imagem e é representada por uma
matriz, e a partir de um limiar é possível percorrer a imagem e calcular a magnitude do
gradiente e então determinar os pontos de borda.

3.2. Ferramentas
Para o desenvolvimento do software foi utilizado a IDE (Integrated Development Environment
ou Ambiente Integrado de Desenvolvimento) Netbeans™ versão 7.3, juntamente com a JDK
(Java SE Development Kit) 7 Update 25 64bits, rodando a partir de uma plataforma
Windows, sendo a versão Windows™ 7 Ultimate também de 64 bits.
A linguagem usada para o desenvolvimento foi Java versão 7, e para obtenção da
imagem foi utilizado a biblioteca OpenCV¹ 2.4.9, pois esta fornece os recursos de captura e
processamento necessários para a aplicação de modo a ser desenvolvidos sucintamente.
Para a modelagem de dados, a ferramenta de apoio foi a Astah Community™, versão
de avaliação.
A fim de organizar os dados e poder acessá-los além do momento da execução, é
necessário que os mesmos sejam persistidos. Para tal, foi escolhido o SGBD (Sistema de
Gerenciamento de Banco de Dados) Postgree™ SQL 9.3. Os tipos de dados persistidos são

34
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

respectivos aos usuários do sistema, armazenamento de parâmetros, além dos dados obtidos
através dos cálculos para geração de relatórios e comparativos.
Também foi usado um sistema de controle de versão, com o objetivo de facilitar a
manutenção no código, correções e adição de novas funcionalidades. Para essa finalidade foi
escolhida a ferramenta GIT conectada a IDE Netbeans. A cada nova funcionalidade ou
correção foi gerado uma versão para que fosse possível reverter a um estágio anterior caso
houvesse algum problema com o software.
Para geração dos relatórios no formato de arquivo PDF (Portable Document Format)
foi utilizada o framework JasperReport, e para a modelagem do layout no formato jrxml foi
usada a ferramenta iReport 5.6.

3.3. Desenvolvimento do Sistema


Uma vez definido os requisitos e feita a modelagem foi eleito um padrão que pudesse atender
as necessidades para a implementação. Utilizou-se conceitos de metodologias ágeis de
desenvolvimento como Scrum e o padrão de projeto MVC (Model, View, Controller), que
tem o objetivo de dividir a estrutura de arquivos do sistema de modo que a regra de negócio
não fique disposta juntamente com outras funcionalidades, facilitando assim a manutenção do
código.
Com o acesso ao sistema garantido, é apresentada para o usuário a tela principal
onde é permitido inicializar o processo de captura de imagem, o processamento e o cálculo de
área de forma manual, ou ainda permite configurar para que seja realizado de forma
automática. Também é possível alterar configurações da câmera como resolução e
parâmetros de dpi, além de agendar capturas utilizando as funções do menu de opções. A tela
principal pode ser vista na Figura 2.

Figura 2. Tela principal do sistema, os três botões disposto ao centro são


atalhos para a função de captura, processamento e cálculo de área
respectivamente.

35
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

3.4. Implementação da função de Cálculo de Área


Para a realização do cálculo da área do objeto de interesse na imagem é necessário conhecer
algumas grandezas, como a quantidade de DPI (dots per inch) presentes na imagem, ou uma
medida de distância que sirva como parâmetro. Como o resultado a ser exibido é dado em
cm, torna-se necessário fazer uma conversão. Exemplificando, as imagens geradas pelo
sistema contém 96 dpi (pontos por polegada) e uma polegada equivale a 2,54 cm, então é
feita a divisão de 96/2,54 e o valor resultante é a escala conhecida, então de acordo com o
exemplo têm-se 37,79 pixels por centímetro. A análise da área é feita a partir dos dados
obtidos na contagem de pixels pertencente a uma região de interesse e a escala encontrada. A
região de interesse é definida ao percorrer a imagem e analisar se o pixel corresponde ao
valor desejado.
Para que seja efetuado o cálculo da área, após a imagem capturada, ela é convertida
em níveis de cinza e aplicada filtro de detecção de Borda e Binarização, conforme mostra
Figura 3. É utilizado o operador Canny, um método proposto por Canny (1986 apud
PEDRINI; SCHWARTZ, 2008) que procura otimizar a localização de pontos da borda na
presença de ruído. Na aplicação desenvolvida o filtro de Canny foi utilizado para avaliar a
necessidade de mudar o limiar se o resultado não for adequado definir a região de interesse,
contudo se houver necessidade de alterar o limiar, deve ser realizada no código pois a
aplicação não foi implementada de forma que o limiar possa ser alterado dinamicamente,
devido as condições de aquisição serem previstas.

Figura 3. Imagem original, imagem em escala de cinza, borda de Canny e


imagem binária nos quadros a, b, c e d respectivamente.

4. Resultados
Após realizada a calibração do sistema de mensuração, foi capturada a imagem de duas frutas
para realização de teste uma com forma circular e outra de formato irregular, contudo com o
limiar utilizado, as imagens resultantes não obtiveram a mesma qualidade uma vez que tinham
formatos distintos e o limiar definido foi o mais adequado para o modelo circular, que é o que

36
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

mais se assemelha as frutas que serão comparadas no projeto. Na figura 4 é mostrado a


imagem original e a imagem resultante após processo de Binarização.

a)

b)

Figura 4. a) Imagem da fatia de uma carambola utilizada para teste. b) Imagem


da fatia de uma graviola.

Para comparação dos resultados gerados foi utilizado o software ImageJ versão 1.47,
onde foi utilizada uma imagem da fatia da fruta carambola também de graviola e
posteriormente foi feita a análise no software SAPID. Na tabela 1 é apresentado o resultado
do cálculo de área de cada imagem.
Tabela 1. Comparativo de resultado ImageJ x SAPID

Resultado ImageJ (cm²) Resultado SAPID (cm²)


Imagem A 4,465 4,016
Imagem B 21,048 20,571

É importante salientar que a divergência de valores, deve-se ao formato de seleção da


área de interesse serem diferentes nos softwares apresentados. Na aplicação ImageJ a
seleção foi feita através de um contorno de forma manual que pode ocasionar a não seleção
de pixels desejados bem como considerar pixels não desejáveis, enquanto que na aplicação
SAPID a seleção da área de interesse foi feita automaticamente através de uma varredura na
imagem, considerando todos os pixels que sem enquadram na condição desejada.

37
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

5. Conclusão
A análise e processamento de imagens digitais bem como o reconhecimento de padrões têm
uma vasta gama de aplicações, tanto para pesquisa como na área comercial, embora seja
muito estudada, ainda proporciona muitos desafios.
De acordo com o objetivo proposto para o projeto, é possível afirmar que a meta
principal foi atingida, com o desenvolvimento de uma aplicação simples que atende os
requisitos de captura de imagem, agendamento e cálculo de área integrada em uma única
aplicação, além de outras funções básicas.
Embora houvesse dificuldades durante o desenvolvimento, como operar em
condições adversas de captura, onde fatores como iluminação influenciam diretamente no
processo de segmentação considerando pixels não relevantes ou até mesmo considerando
como relevante áreas que não era do interesse, sendo necessário ajustar o limiar até que se
chegasse a um resultado mais adequado, esses fatos contribuíram para um maior abstração
dos conceitos de tratamento de imagens, visão computacional de modo que tornou possível a
elaboração de um pré-projeto em paralelo que faz uso de recursos de visão computacional,
além de expandir a visão para uma gama de possíveis aplicações que utilizam esses recursos,
além propiciar o contato com ferramentas atualmente utilizadas no mercado, como
metodologias de desenvolvimento e frameworks, e não apenas de uso acadêmico.
O software SAPID ele deverá ser redesenhado para atender outras demandas na
área de análise de imagens e também processamento de imagens digitais, além de melhorias
no processo de mensuração.

Referências
Gonzalez, Rafael C. and Woods, Richard E. (2000) “Processamento de Imagens Digitais”,
Edgard Blucher., São Paulo.
Marques Filho, O. and Vieira Neto, H. (1999) “Processamento de Imagens Digitais”,
Brasport., Rio de Janeiro.
Miranda, José I. (2006) “Processamento de Imagens Digitais: Prática usando Java™”,
Embrapa Informática Agropecuária., Campinas.
Pedrini, H. and Schwartz, Robson W. (2008). “Análise de Imagens Digitais – Princípios,
Algoritmos e Aplicações”, Thomsom Learning., São Paulo, p. 14-167.

38
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Virtualização como alternativa na infraestrutura de servi-


dores
Henio Akiyo Miyoshi1, Alyrio Cardoso Filho2

Departamento de Ciência da Computação – Universidade do Estado de Mato Grosso


(UNEMAT)

Caixa Postal 92 – 78.390-000 – Barra do Bugres – MT – Brasil


Aki0@live.com, alyriofilho@gmail.com

Abstract. This article aims, conceptualize virtualization the feasibility of using


a critical service to an organization in a virtualized environment, no order to
determine the best virtualization tool. The research methodology was adopted,
Library Research and Exploratory Research. Also it conducted a focused case
study on the performance of virtualized environments with services essential
for most organizations using hypervisors Microsoft Hyper -V, VMware
vSphere and Citrix XenServer.

Resumo. O presente artigo possui como objetivo, conceituar a virtualização, a


viabilidade da utilização de um serviço crítico para uma organização em um
ambiente virtualizado, porém não possui intuito de determinar qual a melhor
ferramenta de virtualização. A metodologia de pesquisa adotada foi, Pesquisa
Bibliográfica e Pesquisa Exploratória. Também foi realizado um estudo de
caso com foco no desempenho de ambientes virtualizados com serviços essen-
ciais para a maioria das organizações, utilizando hypervisores Microsoft
Hyper-V, VMware vSphere e Citrix XenServer.

1. Introdução
Segundo Veras [2011, p. 87] A virtualização “é uma camada de abstração entre o
hardware e o software que protege o acesso direto do software aos recursos físicos do
hardware. A virtualização permite que a camada de software (aplicações e sistema ope-
racional) seja isolada da camada de hardware. ”
A virtualização normalmente é provida por um software, chamado de Hypervisor ou
Monitor de Máquina Virtual (Virtual Machine Monitor - VMM), na qual é instalado
sobre o hardware compatível denominado hospedeiro, ou host. Outro componente da
virtualização é o guest ou convidado, que consiste no sistema operacional virtualizado
instalado em uma máquina virtual e executado pelo hospedeiro. [ALECRIM, 2013 e
VERAS, 2011].
Com o poder de processamento evoluindo rapidamente, em uma arquitetura tradicional
1:1, o hardware passa a ser subutilizado.
A virtualização proporciona a criação de um ambiente mais ágil, flexível, econômico já
que cria uma abstração do hardware possibilitando a execução de mais de uma máquina

39
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

virtual no mesmo servidor físico, utilizando de forma mais eficiente todo o potencial do
hardware. [VMWARE, 2014a]

Figura 1. Arquitetura tradicional x virtualizada

2. Desafio de implantar a virtualização


 Aplicativos de carga excessiva: algumas aplicações que podem ser críticas para
a organização como SGBD (Sistema de Gerenciamento de Banco de Dados), por
exemplo, demanda uma quantia considerável de recursos do hardware, tendo em
vista que o hypervisor também consome uma parte dos recursos do hardware,
utilizar aplicações críticas em um ambiente virtualizado pode ser um desafio.
[VERAS, 2011]
 Planejamento: para que se possa obter o máximo de benefícios da virtualização
é importante fazer um projeto bem elaborado, alguns fatores como redundância,
dimensionamento do ambiente virtual e físico (armazenamento, processamento,
entre outros), monitoramento e licenciamento, muitas vezes não são verificadas e
aplicadas, seja por falta de conhecimento, medo de errar, ou até mesmo por dis-
tração, que pode ser cometido até por profissionais experientes. [SANTOS,
2014a]

3. Benefícios da virtualização
A virtualização pode proporcionar diversos benefícios para a organização, dentre eles
pode-se destacar:
 Recuperação de desastres: através da virtualização é possível recuperar ambi-
entes de TI com um menor esforço operacional e menor tempo, consequente-
mente menor custo para a organização se comparado ao ambiente tradicional, os
quais é necessário levantar todo o servidor novamente, aplicando as atualizações
e instalações necessárias, a maioria dos hypervisores proporcionam recursos de
HA (High Avaliability – Alta Disponiblidade) os quais em caso de falha em al-
gum host do cluster a máquina virtual é ligada novamente em outro host do clus-
ter, muitas vezes de forma automática. [SANTOS, 2014b]
 Redução de custos: esta talvez seja uma das maiores preocupações de todos os
membros da alta administração de qualquer organização, são vários fatores que
impactam na redução de custos, tais como aquisição de ativos, licenciamento de
software, refrigeração, consumo de energia, entre outros. O investimento em vir-
tualização a curto prazo não parece muito interessante, porém, a médio e longo

1
Fonte: SILVA (2014)

40
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

prazo o custo/benefício favorece a utilização da virtualização. O custo para man-


ter um ambiente virtualizado é menor se comparado a uma arquitetura tradicio-
nal. A redução de custos em um ambiente virtualizado pode gerar uma econo-
mia de 50% com custos operacionais e hardware e até 80% no consumo de ener-
gia. [VMWARE, 2014b]
 Recursos inexistentes em servidor físico: Alguns recursos que estão disponí-
veis em um ambiente virtual podem facilitar e automatizar o gerenciamento do
ambiente, recursos como snapshots, que são uma marca no tempo que é possível
utilizar como ponto de restauração, memória dinâmica, migrações ao vivo e ba-
lanceamento de carga dinâmico. [SANTOS, 2014b]

4. Desvantagens da virtualização

 Portabilidade: fornecedores como Intel e AMD possuem instruções especial-


mente projetadas para a utilização da virtualização, porém foram desenvolvidas
separadamente, portanto não possuem compatibilidade entre si. [ALECRIM,
2013]

 Segurança: a virtualização é implementada por uma camada de software que


pode possuir vulnerabilidades, portanto uma vulnerabilidade de segurança no
hypervisor poderá afetar todas as máquinas virtuais no host. [ALECRIM, 2013]

5 Experimentos e resultados
Nesta seção será abordado o experimento e resultados.

Figura 2. Comparativos entre hypervisores2

A figura 2, demonstra um comparativo entre os principais fornecedores da tecnologia da


virtualização, comparando hardware suportados, recursos e ferramentas que são úteis na

2
Fonte: O autor (2015), informações retiradas nas documentações oficiais, disponíveis em:
Windows 2008 R2: https://technet.microsoft.com/pt-br/library/ee405267(v=ws.10).aspx
Windows 2012 :https://technet.microsoft.com/pt-br/library/jj680093.aspx
Citrix XenServer 6.2: http://support.citrix.com/servlet/KbServlet/download/34966-102-
704363/CTX137837_XenServer%206_2_0_Configuration%20Limits.pdf
Citrix XenServer 6.5 http://support.citrix.com/servlet/KbServlet/download/38332-102-714736/XenServer-
6.5.0-Configuration_Limits.pdf
VMWARE vSphere 5.5: http://www.vmware.com/pdf/vsphere5/r55/vsphere-55-configuration-
maximums.pdf
VMWARE vSphere 6: https://www.vmware.com/pdf/vsphere6/r60/vsphere-60-configuration-
maximums.pdf

41
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

administração ou migração para um ambiente virtualizado, está disponível um compara-


tivo entre a versão mais recente e a anterior, demonstrando uma grande evolução da
tecnologia envolvendo os recursos de VM (Virtual Machines - Máquinas Virtuais),
hosts e cluster.
Todas as ferramentas apresentadas, possuem capacidade para criar máquinas virtuais
com grande capacidade de processamento e memória, estas máquinas virtuais são de-
nominadas “monster virtual machines” [HARA, 2013]

5.1. Descrição do Cenário


Nesta seção são apresentadas as configurações de hardware e software para o ambiente
de testes realizados a fim de analisar a viabilidade da utilização de aplicações críticas
em ambientes virtualizados.

5.2. Configuração de hardware


O cenário para benchmark das soluções foi implementado visando condições iguais a
todos os fornecedores sem desfavorecer nenhum hypervisor, as implementações foram
realizadas em ambiente idêntico, no servidor físico foi realizada alteração no hardware
para assemelhar a máquina virtual. Sendo assim, o ambiente de testes possui as seguin-
tes configurações:
 Processador: Intel Core i5, 4570, 3.3 GHz (Giga Hertz);
 Núcleos: 4;
 Memória: 8 GB, 1600 MHz (Mega Hertz);
 Memória: 4 GB, 1600 MHz (Mega Hertz);
 Disco Rígido: 500GB (Giga Bytes), 7200 RPM (Rotações Por Minuto), sem
RAID (Redundant Array of Independent Drives, em tradução livre, algo seme-
lhante a Matriz Redundante de Discos Independentes);
 Interface de rede: 1 Gigabit Ethernet.
As máquinas virtuais também são idênticas, utilizando as seguintes configurações:
 Processadores Virtuais: 4;
 Memória: 4 GB;
 Disco Rígido: 30GB;
 Interface de rede: 1 Gigabit Ethernet.

5.3. Configuração de software


Os hypervisores utilizados são do tipo bare metal, ou seja, são instalados diretamente no
hardware, que são comumente utilizados em ambientes em produção nas organizações,
as versões utilizadas são as mais recentes disponíveis no mercado sendo:
 VMware vSphere 6;
 Citrix XenServer 6.5;

42
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

 Microsoft Hyper-V Server 2012 R2.


Os hypervisores Citrix XenServer e Hyper-V foram instalados com as configurações
padrão e hypervisor da VMware houve a necessidade de modificação que será abordada
na seção 5.5.
Os sistemas operacionais utilizados nas máquinas virtuais são versões próprias para a
utilização em servidores, ambas nas versões mais atuais que são:
 Windows Server 2012 R2 Datacenter;
 Ubuntu Server 15.04;
Para a seleção do SGBD (Sistema de Gerenciamento de Banco de Dados), foi levado em
consideração o licenciamento, a capacidade de uso em multiplataforma e o gerencia-
mento de dados, nesse sentido as melhores escolhas foram:
 PostgreSQL 9.4;
 Pgbench 9.4;
Foram utilizados dois conjuntos de operações, as típicas que envolvem os comandos
SELECT, UPDATE e INSERT e outra forma envolve somente o comando SELECT, o
desempenho é medido através da quantidade de TPS (Transactions Per Second – Tran-
sações Por Segundo), onde quanto maior a quantidade de TPS melhor o desempenho.
[POSTGRESQL, 2015]
Para a realização dos testes foi necessário utilizar o comando:
pgbench -h IP_do_Servidor -c20 –j2 -T 180 -S -U postgres postgres
Os parâmetros utilizados são:
-h = endereço do servidor.
-c20 = Testa 20 conexões concorrentes.
-j2 = Quantidade de threads por conexão.
-T = Tempo de execução do teste.
-S = Indica que será usada transações do tipo select.
-U = Indica o usuário na qual será realizado o teste.
O comando para a realizar o teste com transações típicas basta retirar o parâmetro “-S”.
Após execução de cada teste o sistema operacional foi reiniciado para não deixar qual-
quer vestígio deixado pelos processos na memória.

5.4. Resultados e Discussão


Nesta seção são apresentados e discutidos os resultados obtidos.

43
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Gráfico 1. Resultados com transações do tipo select

O gráfico 1, representa a quantidade de transações realizadas do tipo SELECT em má-


quinas virtuais e também nos servidores físicos, pode-se observar uma superioridade no
desempenho no ambiente não virtualizado, na qual a quantidade de TPS é superior em
quase todos os ambientes virtualizados, porém há ambiente virtualizado com desempe-
nho superior, entretendo a maioria dos cenários virtualizados possuem desempenho in-
ferior.

Gráfico 2. Resultados com transações típicas

O gráfico 2, representa as informações obtidas ao realizar transações típicas nos cenários


propostos, o desempenho em ambiente não virtualizado mostra superioridade em com-
paração a ambientes virtualizados, porém é possível observar que diversos cenários com
ambiente virtualizado possui superioridade em relação ao cenário não virtualizado, a
superioridade obtida não mostra muito significativa,

44
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

5.5. Dificuldades encontradas


Objetivando a imparcialidade para os experimentos é necessário a utilização de hardwa-
re e softwares idênticos.
O valor elevado para aquisição de hardware homologado para utilizar como servidores,
sendo possível somente realizar os testes utilizando estações de trabalho com as mesmas
configurações.
A utilização de hardware não homologados fez necessário modificar a imagem de insta-
lação do hypervisor VMware vSphere 6. Foi necessário adicionar um driver de rede ge-
nérico para a instalação do mesmo.
Em algumas máquinas virtuais com sistema operacional Linux não houve êxito na cole-
ta de dados referentes a disco e rede, impossibilitando o comparativo de todos os com-
ponentes que podem influenciar no desempenho.
Houve a necessidade de utilizar o SGBD x86 por dificuldades na instalação no sistema
operacional Windows no Citrix XenServer. O SGBD não concluía a instalação, foram
realizados diversos procedimentos a fim de solucionar o incidente, até a reinstalação do
sistema operacional foi realizado, todos procedimentos sem sucesso.

6. Considerações finais
A possibilidade da criação de “monster virtual machines” auxilia a equilibrar
desempenho x disponibilidade, a virtualização vem reduzindo a diferença entre o
desempenho se comparada a uma arquitetura tradicional, em alguns casos o ambiente
virtualizado obteve desempenho superior.
No ambiente de testes, diversos fatores podem ter sido determinantes no desempenho
das aplicações, como modificação no hypervisor VMware vSphere e utilização de
hardware não homologado.
Para obter sucesso na implantação ambiente virtualizado é necessário realizar um
planejamento e homologação da solução a ser utilizada, levando em consideração a
demanda atual e futura para dimensionamento do hardware, orçamento, escolha do
hypervisor que pode oferecer diversas funções a fim de atender diversos cenários e entre
outros.
Independente da solução adotada, a virtualização proporciona a organizações de todos
os portes e otimizar o hardware, reduzir o tempo de ROI (Return On Investment –
Retorno Sobre Investimento) é capaz de proporcionar os benefícios que a tecnologia da
virtualização é capaz de prover, dentre eles, recursos que proporcionam a continuidade
do negócio, fator que é de suma importância para organizações.

7. Sugestão de trabalhos futuros


Para complementar o estudo sobre utilização da virtualização no ambiente de TI, se-
guem sugestões para estudos futuros:
Realizar um estudo sobre ferramentas de monitoramento para ambiente físico e virtual.
Para manter um ambiente em plena conformidade é necessário realizar um monitora-

45
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

mento do uso dos recursos físicos e virtuais a fim de realizar as devidas manutenções
preventivas e corretivas
A segurança do ambiente, tanto para hypervisores e máquinas virtuais. As máquinas
virtuais devem ser tratadas como uma máquina física, com implementações de técnicas
de segurança tanto virtual quanto de acesso físico ao host.
Experimentos com outros serviços de rede, outros sistemas operacionais e outros hyper-
visores. Realizar benchmark com outros serviços de rede para avaliar desempenho utili-
zando outros hypervisores.

8. Referências
ALECRIM, E. (2013) “O que é virtualização e para que serve? ” Disponível em:
http://www.infowester.com/virtualizacao.php#conceito
HARA, F. (2013) “Virtualizando bancos de dados de alto desempenho. ” Disponível
em: http://www.tiespecialistas.com.br/2013/06/virtualizando-bancos-de-dados-de-alto-
desempenho/
POSTGRESQL. (2015) “PostgreSQL 9.5devel Documentation. ” Disponível em:
http://www.postgresql.org/docs/devel/static/pgbench.html
SANTOS, F. (2014b) “12 benefícios da virtualização no datacenter. ” Disponível em:
http://www.profissionaisti.com.br/2014/08/12-beneficios-da-virtualizacao-no-
datacenter/
SANTOS, F. (2014a) “Os 7 erros básicos que até profissionais cometem em projetos de
virtualização” Disponível em: http://www.profissionaisti.com.br/2014/10/os-7-erros-
basicos-que-ate-profissionais-cometem-em-projetos-de-virtualizacao/
SILVA, T. H. (2014) “Virtualização de Servidores”, Disponível em:
http://www.devmedia.com.br/virtualizacao-de-servidores/30820
VERAS, M. (2011) “Virtualização: componente central do Datacenter. ” Rio de Janeiro:
Brasport.
VMWARE, (2014a) ”Virtualize sua infraestrutura de TI. Disponível em:
http://www.vmware.com/br/virtualization
VMWARE. (2014b) “Consolidação de servidor: Reduza os custos de TI e aumente o
controle com a virtualização de servidor. ” Disponível em:
http://www.vmware.com/br/consolidation/overview

46
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

O Uso da Programação Linear no Cálculo do Custo Mínimo


na Merenda Escolar

Clayce Victor Scudeler1, Minéia Cappellari Fagundes1


1
UNEMAT – Universidade do Estado de Mato Grosso
Barra do Bugres – MT – Brasil
claycescudeler@gmail.com, mineiacf@gmail.com

Abstract. The linear programming is a programming technique, it is a tool


that can be used for maximum gain or a minimum value an objective function
subject to some constraint type. However, this research is to use linear
programming to calculate the minimum cost, based on the school lunch the
"State School Evangélica Assembléia de Deus" in the municipality of Barra do
Bugres– MT. Furthermore, it was reported the importance of using manual
methods, such as Graphic method and simplex method, and the computer for
solving linear programming problems,we can also call it as an application in
mathematics, called Mathematical Programming.
Resumo. A Programação Linear é uma técnica de otimização, uma
ferramenta que pode ser utilizada para obter a maximização ou minimização
de uma função objetivo sujeita a algum tipo de restrição. Contudo, esta
pesquisa consiste em utilizar a programação linear no cálculo do custo
mínimo, com base na merenda escolar da “Escola Estadual Evangélica
Assembléia de Deus” do município de Barra do Bugres – MT. Além disso, foi
relatada a importância do uso dos métodos manuais, como o Método Gráfico
e o Método Simplex, e, da informática para a resolução dos problemas de
Programação Linear, que também podemos denominá-la como uma aplicação
na área da Matemática, chamada de Programação Matemática.

1. Introdução
A Programação Linear é uma técnica de planejamento que se originou no final
da década de quarenta e, com o surgimento do computador na década de cinquenta,
encontrou nele um dos seus principais aliados na resolução de problemas de otimização.
Tendo então, um desenvolvimento acelerado tanto na área acadêmica como nas
empresas e, sendo também muito difundida nessas áreas.
Contudo, a Programação Linear (PL) é uma técnica de otimização,
utilizada,por exemplo, para encontrar o lucro máximo ou o custo mínimo em situações
nas quais temos diversas alternativas de escolha sujeitas a algum tipo de restrição ou
regulamentação.
A Programação Linear têm como vantagens encontrar o lucro máximo ou o
custo mínimo e o local ideal onde devem ser instalados os empreendimentos para que se

47
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

obtenha o objetivo desejado, permitindo identificar as melhores condições de


viabilização do empreendimento e também avaliar o desempenho do mesmo.
Contudo, o problema apresentado neste artigo consiste em utilizar a
Programação Linear no cálculo do custo mínimo na merenda escolar de uma escola
estadual aqui do município, E.E. “Evangélica Assembléia de Deus”.

2. Métodos de Programação Linear


Para se formular um problema empresarial, por exemplo, para que sua solução
seja alcançada através de algum método de Programação Linear se faz necessário
estabelecer um grande número de equações lineares. Em seguida, aplica-se um conjunto
de restrições operacionais para se determinar se existe uma solução ótima a esse
problema.
O fato é que quando defrontamos com problemas que exigem um grande
número de variáveis, sua solução fica restrita, pois nem todos os métodos de
Programação Linear poderão ser utilizados. E até mesmo através do Método Simplex
ficaria extremamente difícil e cansativo resolver um problema de Programação Linear,
por exemplo, que envolva mais de quinze variáveis.
Portanto, há hoje em dia, programas-padrão de Programação Linear
disponíveis para os computadores, eliminando assim a tarefa trabalhosa e complexa de
fazer a programação para o computador.
O programa LINDO1(por exemplo) é apropriado para resolver problemas que
envolvem Programação Linear e tópicos relacionados, onde os problemas são
apresentados em forma matemática. Já, por exemplo, o programa ProLin destina-se a
resolução de problemas de Programação Linear Mista, que envolve tanto variáveis
contínuas como variáveis inteiras.
Os métodos utilizados para chegar-se a resolução de problemas de otimização
dependem da situação analisada e do número de variáveis do problema. O Método
Gráfico, por exemplo, é utilizado para encontrar a solução ótima de um determinado
problema que envolva o uso de no máximo duas variáveis, sendo assim um método de
fácil acesso para encontrar a solução do problema. Mas, quando se faz uso de mais de
duas variáveis é sugerido à utilização de outros métodos de resolução, como o Método
Simplex, baseado no algoritmo simplex e em resoluções algébricas, envolvendo também
o uso de computadores, quando as variáveis do problema são muitas, para melhor
chegar-se a solução ótima do problema.
Na Programação Linear, tanto a função objetivo, na qual se deseja maximizar o
lucro ou minimizar o custo, como nas restrições, onde a função objetivo não pode
assumir qualquer valor, ou seja, obedece a um conjunto de restrições próprias do
problema a ser estudado, são equações/inequações lineares. E o resultado para as
variáveis do modelo são valores reais ou contínuos.
O método simplex consiste em um método para resolução de problemas de
programação linear baseado no algoritmo Simplex e em resoluções algébricas

1
Linear Interative andDiscreteOptimizer

48
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

queenvolve mais de três variáveis e exige a realização de uma série de procedimentos


para chegar ao resultado desejado.
Para a resolução do Método Simplex se faz necessário transformar as restrições
de desigualdade em restrições de igualdade, adicionando-se para isto, variáveis
positivas, denominadas de folga para o caso da maximização de lucro ou variáveis de
excesso para o caso da minimização de custo.O método descreve, basicamente, uma
sequência de soluções básicas viáveis na busca da solução ótima para a função objetivo.
De acordo com os autores, Goldbarg e Luna (2005), de uma forma geral
podemos descrever um problema de programação linear como:

min𝑧 = 𝑐1 𝑥1 + 𝑐2 𝑥2 + ⋯ + 𝑐𝑠 𝑥𝑠 + 0𝑥𝑠+1 + 0𝑥𝑠+2 + ⋯ + 0𝑥𝑛


Sujeito a:
𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯ + 𝑎1𝑠 𝑥𝑠 + 𝑥𝑠+1 + 0 + 0 + ⋯ + 0 = 𝑏1
𝑎21 𝑥1 + 𝑎22 𝑥2 + ⋯ + 𝑎2𝑠 𝑥𝑠 + 𝑥𝑠+2 + 0 + 0 + ⋯ + 0 = 𝑏2 (1)
⋮⋮
𝑎𝑚 1 𝑥1 + 𝑎𝑚 2 𝑥2 + ⋯ + 𝑎𝑚𝑠 𝑥𝑠 + 0 + 0 + 0 + ⋯ + 𝑥𝑛 = 𝑏𝑚

𝑥1 ; 𝑥2 ; … ; 𝑥𝑛 ≥ 0

Para resolver o problema dado em (1), pelo método simplex, temos no Quadro
01, a organização do quadro inicial para o cálculo.
Quadro 01: Quadro inicial do simplex no formato tabular.

Fonte: Goldbarg e Luna (2005)

Segundo Boldrini (1980), o quadro simplex acima é constituído de:


1) Colunas: A primeira coluna contém informações sobre a base atual, ou seja,
na primeira coluna a função objetivo z e as variáveis 𝑥1 … 𝑥𝑘 … 𝑥𝑠 são a
nossa solução básica inicial. As colunas intermediárias contém informações
sobre as variáveis 𝑥1 … 𝑥𝑘 … 𝑥𝑠 , e a última coluna contém na primeira linha
o valor atual da função objetivo;

2) Linhas: A primeira linha refere-se à linha da função objetivo z. Os valores


na linha da função objetivo z são chamados de custo reduzido. As demais
linhas do quadro simplex referem-se às restrições do problema.

O Quadro 01 corresponde à seguinte configuração matemática a ele associada,


que é apresentada no Quadro 02 a seguir:

49
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Quadro 02: Identificação das matrizes e variáveis no formato simplex tabular

Fonte: Goldbarg e Luna (2005)

Que durante as iterações do algoritmo corresponde à seguinte forma canônica


apresentada no Quadro 03:
Quadro 03: Quadro geral do simplex

Fonte: Goldbarg e Luna (2005)


Com o auxílio do Quadro 03passamos a apresentar os seguintes passos para a solução
do sistema de inequações lineares sujeitas a uma função objetivo:
Passo 1: Organizar o quadro inicial como indicado, partindo de um problema de
programação linear, na forma canônica.
Passo 2: Realizar o teste de parada:
 Se todos os 𝑐𝑗 ≤ 0 (𝑗 ∈ 𝐽) para maximização ou 𝑐𝑗 ≥ 0 (𝑗 ∈ 𝐽) para
minimização, então a solução ótima foi atingida.
 Caso contrário, escolha o maior 𝑐𝑗 ≥ 0 (para maximização) ou 𝑐𝑗 ≤ 0
(para minimização), digamos um certo 𝑐𝑘 escolhendo o vetor associado
𝑥𝑘 para entrar na base.
Passo 3: Definir a variável que sairá da base:
 Se 𝑦𝑖𝑘 ≤ 0 para todo 𝑖 = 1, … , 𝑚, então a variável 𝑥𝑘 poderá ser
diminuída indefinidamente e o valor de z tenderá ao infinito negativo.
Nesse caso, a solução será ilimitada.
 Se 𝑦𝑖𝑘 > 0 para algum 𝑖, 𝑖 = 1, … , 𝑚, então o procedimento é o
seguinte: Calcular 𝑟, onde𝑟 é a variável básica que está relacionada ao

50
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

𝑏𝑖
mínimo entre os coeficientes 𝑦 𝑖𝑘
. O elemento 𝑦𝑘 é denominado de
“elemento pivô”.
Passo 4: Substituir a r-ésima variável, correspondente a r-ésima equação pela variável
𝑥𝑘 , que passará a integrar a nova base do quadro, e recalcular as matrizes 𝐵 −1 , 𝑌 e os
vetores 𝑐𝑗 − 𝑧𝑗 , 𝑥𝐵 𝑒𝑧0 . Retornar ao passo 2.

3. Modelo Matemático
Voltando ao problema em questão do custo mínimo da merenda da E.E.
“Evangélica Assembléia de Deus”, agora serão definidas as variáveis, a função objetivo
e as restrições do problema, e, posteriormente a solução encontrada, ou seja, o custo
mínimo de cada cardápio.
Cada variável representa uma preparação da merenda, sendo:
𝑥1 → Carne com batata, arroz e banana nanica
𝑥2 → Carne com banana da terra e arroz
𝑥3 → Carne cozida ao molho com arroz e maçã
𝑥4 → Bolacha de água e sal e suco concentrado de frutas
𝑥5 → Bolacha doce e leite com achocolatado em pó
Sendo assim, que mistura ótima desses cardápios satisfazem os requisitos
alimentares suficientes ao bom desenvolvimento físico e mental dos alunos, a um custo
mínimo para as preparações destes? Dado que no Quadro 04 temos as informações
nutricionais e custo de cada variável.
Quadro 04: Dados sobre a informação nutricional das preparações

Fonte: Secretaria da E.E. “Evangélica Assembléia de Deus”

Portanto nosso modelo matemático é dado por 2

𝑀𝑖𝑛𝑖𝑚𝑖𝑧𝑎𝑟𝐶 = 0,42𝑥1 + 0,22𝑥2 + 0,57𝑥3 + 0,16𝑥4 + 0,27𝑥5


𝑠𝑢𝑗𝑒𝑖𝑡𝑎 𝑎:
294,4𝑥1 + 226,6𝑥2 + 265,4𝑥3 + 142,6𝑥4 + 165,6𝑥5 ≥ 300
51,5𝑥1 + 34,7𝑥2 + 43,3𝑥3 + 26,9𝑥4 + 29,3𝑥5 ≥ 31,56
8,6𝑥1 + 7𝑥2 + 7,9𝑥3 + 2,7𝑥4 + 4,2𝑥5 ≥ 4,2 (2)
6,6𝑥1 + 6,3𝑥2 + 6,6𝑥3 + 4,2𝑥4 + 5,8𝑥5 ≥ 1,12
𝑥1 ≥ 0; 𝑥2 ≥ 0; 𝑥3 ≥ 0; 𝑥4 ≥ 0; 𝑥5 ≥ 0

51
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

4. Resultados
Sendo assim, para resolver o problema apresentado no modelo matemático
dado por (2), acrescentamos as variáveis artificiais𝑠1 , 𝑠2 , 𝑠3 e 𝑠4 , nas restrições do
problema, a fim de determinar uma solução básica inicial, por se tratar de um problema
de minimização.

𝑀𝑖𝑛𝑖𝑚𝑖𝑧𝑎𝑟𝐶 = 0,42𝑥1 + 0,22𝑥2 + 0,57𝑥3 + 0,16𝑥4 + 0,27𝑥5


𝑠𝑢𝑗𝑒𝑖𝑡𝑎 𝑎:
294,4𝑥1 + 226,6𝑥2 + 265,4𝑥3 + 142,6𝑥4 + 165,6𝑥5 − 𝑠1 = 300
51,5𝑥1 + 34,7𝑥2 + 43,3𝑥3 + 26,9𝑥4 + 29,3𝑥5 − 𝑠2 = 31,56
8,6𝑥1 + 7𝑥2 + 7,9𝑥3 + 2,7𝑥4 + 4,2𝑥5 − 𝑠3 = 4,2 (3)
6,6𝑥1 + 6,3𝑥2 + 6,6𝑥3 + 4,2𝑥4 + 5,8𝑥5 − 𝑠4 = 1,12
𝑥1 ≥ 0; 𝑥2 ≥ 0; 𝑥3 ≥ 0; 𝑥4 ≥ 0; 𝑥5 ≥ 0; 𝑠1 ≥ 0; 𝑠2 ≥ 0; 𝑠3 ≥ 0; 𝑠4 ≥ 0

Se fizermos 𝑥1 = 𝑥2 = 𝑥3 = 𝑥4 = 𝑥5 = 0, obtemos:𝑠1 = −300; 𝑠2 =


−31,56; 𝑠3 = −4,2; 𝑠4 = −1,12, e a solução inicial é inviável. Diante disso, um
método que permite a pesquisa de uma solução básica inicial consiste em aumentar o
modelo do problema através da introdução de uma variável artificial (não negativa) em
cada restrição, e na função objetivo estas variáveis artificiais devem conter coeficientes
com valores altos em relação aos coeficientes das variáveis de escolha. Portanto, se
igualarmos a 100 essas variáveis artificiais na função objetivo, então o problema pode
ser escrito na seguinte forma:

𝑀𝑖𝑛𝑖𝑚𝑖𝑧𝑎𝑟𝐶 = 0,42𝑥1 + 0,22𝑥2 + 0,57𝑥3 + 0,16𝑥4 + 0,27𝑥5 + 100 𝑣1 + 𝑣2 + 𝑣3 + 𝑣4


𝑠𝑢𝑗𝑒𝑖𝑡𝑎 𝑎:
294,4𝑥1 + 226,6𝑥2 + 265,4𝑥3 + 142,6𝑥4 + 165,6𝑥5 − 𝑠1 + 𝑣1 = 300
51,5𝑥1 + 34,7𝑥2 + 43,3𝑥3 + 26,9𝑥4 + 29,3𝑥5 − 𝑠2 + 𝑣2 = 31,56 (4)
8,6𝑥1 + 7𝑥2 + 7,9𝑥3 + 2,7𝑥4 + 4,2𝑥5 − 𝑠3 + 𝑣3 = 4,2
6,6𝑥1 + 6,3𝑥2 + 6,6𝑥3 + 4,2𝑥4 + 5,8𝑥5 − 𝑠4 + 𝑣4 = 1,12
Logo, a solução básica inicial será:
𝑥1 = 𝑥2 = 𝑥3 = 𝑥4 = 𝑥5 = 0 𝑠1 = 𝑠2 = 𝑠3 = 𝑠4 = 0
𝑣1 = 300; 𝑣2 = 31,56; 𝑣3 = 4,2; 𝑣4 = 1,12.
𝑧 = 33688
Sendo assim, temos que a solução básica inicial será 𝑧 = 33688, onde
podemos dar início às operações através do algoritmo simplex para então encontrarmos
a possível solução ótima do problema apresentado. No Quadro 05, temo o quadro inicial
do simplex.
Quadro 05: Quadro inicial para o algoritmo simplex

Fonte: Própria da autora


A partir do Quadro 05, e aplicando os passos descritos abaixo do Quadro 3 do
algoritmo Simplex apresentado na seção 2, chegamos ao Quadro 6 que apresenta a
solução ótima obtida paro o modelo dado em (4).

52
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Quadro 06: Solução ótima encontrada pelo algoritmo simplex

Fonte: Própria da autora


Conforme o Quadro 6, na ausência de elementos negativos na linha 𝐶𝑗 − 𝑧𝑗
indica que a solução ótima do problema foi obtida.
Portanto, o custo mínimo para este cardápio da 1ª semana é de
aproximadamente R$ 0,29. Através desse resultado podemos observar que a variável 𝑥2 ,
que corresponde a uma das 17 (dezessete) preparações do cardápio da merenda escolar,
é a preparação dentre as 5 (cinco) desse quadro que apresenta custo reduzido e melhor
valor nutricional.
Porém, podemos verificar no quadro acima que 𝑥2 representa o valor de 1,324,
onde implica que cada aluno deve consumir 32% a mais desse prato para atingir todas
as necessidades nutricionais que essa preparação oferece. Logo, dentre tantas escolhas
de cardápio podemos utilizar este apenas como uma aplicação do método simplex,
encontrando assim o custo mínimo para este cardápio.
Após realizar a solução analítica, através do algoritmo simplex, para encontrar
o custo mínimo, durante um mês, da Merenda Escolar da Escola Estadual “Evangélica
Assembléia de Deus”, podemos também encontrar o custo mínimo dessa merenda
usando o software LINDO, onde nesta pesquisa utilizamos a versão acadêmica deste
aplicativo.
As Figuras 01 e 02 a seguir apresentam o modelo para o problema do cardápio
e sua resolução, através do software LINDO.

Figura 01: Modelo LINDO para o problema da Dieta – Cardápio

53
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Figura 02: Solução para o Problema da Dieta – Cardápio

5. Conclusões
O objetivo deste trabalho era discutir como fundir adequadamente as variáveis
de modo a encontrar qual o custo mínimo da Merenda Escolar da E. E. “Evangélica
Assembléia de Deus”, atendendo a um conjunto de restrições lineares para estas
variáveis.
Neste artigo trabalhamos com um problema com mais de três variáveise
utilizamos o Algoritmo Simplex ou Método Simplex, para assim obtermos a solução
ótima do problema. E, também obtivemos essa solução ótima através do software
LINDO, usado em problemas de Programação Linear, onde podemos observar a
importância do uso desses softwares na resolução de problemas reais, como esse
apresentado, principalmente quando trabalhamos com modelos que envolvem mais de
15 (quinze) variáveis, por exemplo.
Este é um trabalho que gera bastante interesse à pesquisa, pois abrange não
somente a área alimentícia, mas diversas áreas no campo industrial. Para nós está
técnica nos permite aprofundar nossos conhecimentos sobre os modelos matemáticos
utilizados na Programação Linear, além disso, aplicar tais conhecimentos matemáticos
em uma problemática de nosso cotidiano.

Referências
Boldrini, J. (1980)“Álgebra Linear”, 3ª ed. Editado por Harbra, São Paulo.
Departamento de Computação, Universidade Federal de Ouro Preto (2009)
“LINDO:ManualdeReferência”http//:www.decom.ufop.br/prof/marcone/Disciplinas/
OtimizacaoCombinatoria/lindo_p.pdf, Março.
Goldbarg, M., e Luna, H. (2000) “Otimização Combinatória e Programação Linear”
Editado por Campus, Rio de Janeiro.
Secretaria de Estado de Educação. Coordenadoria de Alimentação Escolar (2008)
“Sugestão de Cardápios” http://www.seduc.mt.gov.br/conteudo.php?sid=327&parent=19,
Abril.

54
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Big Data: A nova formula para a inovação, a concorrência


e produtividade.
Eduardo Henrique R. Zanela, Diego de Lima Nascimento, Fagner Roger Pereira
Couto³, Matheus Artur Saviczki Santana, André Luís Sanson.

Ciência da Computação – Universidade do Estado de Mato Grosso (UNEMAT)


Caixa Postal 92 – 78.390-000 – Barra do Bugres – MT – Brasil
{eduardo-hnq,Fagner_roger32}@hotmail.com,
{diego.lnasc,matheus.saviczki, alsanson}@gmail.com
Abstract. This article presents primarily the technological evolution and the
huge expansion of data and information, describes the concept of the Big date
will be portrayed, cycles and runs, as well as the effect of the factors of "5 V ´
s" (Volume, variety, velocity, value and veracity) front to their decision-
making processes, to obtain a greater profit margin and lower cost.
Resumo. Este artigo apresenta primeiramente a evolução tecnológica e a
enorme expansão de dados e informação, descreve o conceito do Big Data
onde será retratado os seus aspectos, ciclos e funcionamentos, assim como o
efeito dos fatores dos “5 V´s” (Volume, variedade, velocidade, valor e
veracidade) frente aos seus processos decisórios, para a obtenção de uma
maior margem lucrativa e redução de custos.

1. Introdução
O Brasil tem sofrido uma proliferação de informações digitais e um enorme avanço
tecnológico nos últimos tempos, principalmente pela web, telefones celulares,
dispositivos que captam informações, e entre outros dispositivos, gerando enorme
quantidade de dados, sendo estes dos mais diversos tipos.
Em um levantamento da IDC1 patrocinado pela EMC2, Gantz e Reinsel (2012)
prevê que o universo digital chegará a 40 Zetabytes de dados até 2020, sendo que 2,8
Zetabytes de dados foram criados e replicados somente em 2012.
De acordo com Taurion (2013), as informações sobre os produtos estão se
tornando mais importantes que os produtos em si, pois se o conteúdo gerado para uma
tomada de decisão de compra de um determinado produto o esperado, a tendência da
compra é de ser direcionada a outro produto.
Diante de uma enorme quantidade de dados e informações desestruturadas
gerou-se um conceito conhecido, Big Data. “Big Data é um termo genérico para dados
que não podem ser contidos nos repositórios usuais; dados volumosos para caber em um
único servidor; não estruturados demais para se adequar a um banco de dados

1
International Data Corporation.
2
EMC Corporation é uma empresa multinacional norte-americana que fornece sistemas para
infraestrutura de informação, software e serviços.

55
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

organizado em linhas e colunas; ou fluidos demais para serem armazenados”


[Davenport 2014].
“O processo de tomada de decisão é um processo complexo e individual, visto
que não é puramente racional e contempla fatores como intuição, sentimento e
experiência anteriores do tomador de decisão, sejam de forma consciente ou
inconsciente” [Nonohay 2012; Choo 2006; Perreora 2010 apud Canary 2013].
O objetivo deste artigo é apresentar o conceito e a finalidade do Big Data,
verificando os efeitos dos fatores dos 5 V’s, para um melhor entendimento sobre o
mesmo.

2. Fundamentação Teórica

2.1. Explosão de dados


A tecnologia tem avançado mais do que nunca nos últimos tempos, e como
consequência uma enorme quantidade de dados gerados, sendo estes dos mais diversos
tipos. O resultado proveniente dos diversos tipos de fontes de informações e dados,
como por exemplo, sensores climáticos, e-mails, SMS, GPS, celulares, compras online,
mídias sociais, fotos e vídeos digitais e muitos outros.
A IDC estima que, em 2020, até 33% do universo digital vai conter informações
que podem ser valiosas se analisados, relata Gantz e Reinsel (2012). Felipe (2013)
afirma que após o pulo tecnológico da Web 2.1 por volta de 2005 os pontos de acesso à
Internet obtiveram um enorme crescimento, trazendo mudanças a Web 2.1.
“O universo digital vive cada vez mais em uma nuvem de computação, com
grandes quantidades de dados de hardware ligados a milhares de milhões de
dispositivos distribuídos, todos governados e definida por softwares cada vez mais
inteligentes” [Gantz e Reinsel, 2012].
Não exista área que a tecnologia não tenha se tornado presente, segundo Shaw
(2014) basta perceber que as coisas mudaram nos últimos 50 anos, onde antibióticos
comerciais não existiam 75% da população era ativa na agricultura, não existia o uso de
produtos agrícolas, e medicamentos se tornaram disponíveis, e que este avanço só tende
a crescer.
Gantz e Reinsel (2012) relatam que entre 2012 e 2020, a participação do
universo digital em expansão 'mercados emergentes vão crescer de 36% para 62%.

2.2. Big Data


A explosão de tecnologia contagiou o mundo, e a consequência é o aumento gradativo
de dados e informações. Aurélio (2010) define que dados nada mais é que símbolos
quantitativos e qualitativos, que possam ser utilizados para o processo de uma
informação.
De acordo com Taurion (2013), os dados sobre os produtos estão se tornando
mais relevante que os produtos em si, dados estes que podem influenciar em decisões,
pois se uma tomada de decisão realizada com conteúdo de dados escasso ou falso para a

56
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

compra de um determinado produto existe uma grande probabilidade do mesmo não ter
sido a melhor decisão, gerando uma margem de prejuízo.
Diante desta extrema quantidade de dados deu-se origem ao Big Data, que é
capaz de cruzar inúmeras quantidades de informações desestruturadas para chegar a
uma, ou varias, tomadas de decisões, talvez não a melhor, porem a com maior
porcentagem de acerto.
“Big Data não é apenas um conjunto de dados desestruturados, mas o conceito
que mostra como tirar proveito desses dados” [PEREIRA 2013]. O termo pode ser
expresso como um conjunto de ferramentas de alto poder de mineração de dados com
mais eficiência para chegar a informações, indicações, apontamentos e afins.
A definição de Big Data é tão complexa quanto o próprio futuro, pois o mesmo é
considerado relativamente novo no mercado, e tem expandido como linha de pesquisa e
implantação apenas nos últimos anos (10 anos). Em implantação é nítido perceber que
muitas das grandes empresas já utilizam esta tecnologia como principal recurso para o
seu crescimento.
“Em agosto de 1999 foi usada pela primeira vez a palavra Big Data em um
artigo CACM, com o titulo “Explorar visualmente gigabyte de conjuntos de dados em
tempo real” feito por Steve B., David K., Michael C., David E., e Robert H.” [PRESS
2013]. Uma das primeiras definições relatadas sobre o termo se da por Doug Laney, em
2001, da empresa Gartner Group, onde explicava os famosos 3 V´s (Volume,
velocidade e variedade) de origens iniciais do Big Data.

2.3. Conceito do Big Data


Das inúmeras pesquisas realizadas, cada autor indicava um conceito, levando a um
mínimo comum, do qual é a analise de grandes quantidades de dados de diferentes tipos
em uma grande velocidade.
Para um melhor entendimento e desenvolvimento do presente trabalho,
estabelecendo uma maior clareza na definição do conceito sobre Big Data, se faz uso do
Quadro 1, conceitos sobre Big Data de importantes autores da área.
Quadro 1 − Conceitos do Big Data
Fonte: (CANARY, 2013 p. 22).

MANYKA, J: et. “Bid Data refere-se a conjunto de dados cujo tamanho é além da
al. (2011) capacidade de ferramentas de software de banco de dados típicos
(Mckinsey Global para capturar, armazenar, gerenciar e analisar.”
Institute)
MCAFEE, A; et. “Big Data como uma forma essencial para melhorar a eficiência e
al. (2012) a eficácia das organizações de vendas e marketing. Ao Colocar o
(Harvard Business Big Data no coração de vendas e marketing, os insigths podem ser
aproveitados para melhorar a tomada de decisão e inovar no
Review)
modelo de vendas da empresa, o que pode envolver a utilização de
dados para orientar ações em tempo real.”
DEMIRKAN, et. “Há o desafio de gerenciar grandes quantidades de dados (Big

57
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

al.(2012) Data), que esta ficando cada vez maiores por causa do
(Decision Support armazenamento mais barato e evolução dos dados digitais e
Systems) dispositivos de coleta de informações, como telefones celulares,
laptops, e sensores.”
PHELAN, Mike “O fenômeno surgiu nos últimos anos devido a enorme quantidade
(2012) (Forbes) de dados da maquina que esta sendo gerado hoje –[...]- juntamente
com as informações adicionais obtidas por analise de todas essas
informações, que por si só cria outro conjunto de dados enormes.”
Gartner Group “Bid Data, em geral, é definido como ativos de alto volume,
(2012) velocidade e variedade de informações que exigem custo-
benefício, de formas inovadores de processamento de informações
para maior visibilidade e tomada de decisão.”
International Data “As tecnologias de Big Data descrevem uma nova geração de
Corporation tecnologias e arquiteturas projetados para extrair economicamente
o valor de volumes muito grandes e de uma grande variedade de
dados, permitindo alta velocidade de captura, descoberta, e/ou
analise.”

É absolutamente necessário que a organização que programa projetos de Big


Data obtenha retorno destes investimentos, afirma Taurion (2012) ao explicar os custos
do investimento com implementação do Big Data.

2.4. Dados Estruturados e Desestruturados


Dados estruturados contem uma organização para serem recuperados, que possuem
relações, classificados em grupos possuindo as mesmas descrições. Dados mantidos em
um SGBD3 e são analisados através de linguagem SQL4.
Dados desestruturados, não possuem estruturas definidas, normalmente são
textos, documentos, gravações de serviços ao consumidor, fotos, imagens e vídeos, e
não é possíveis armazenar em um banco de dado tradicional, devido inúmeras
informações aleatórias.
Hurwitz et al. (2013) diz que companhias também tem que considerar novas
fontes de dados gerados por máquinas como, por exemplo, sensores. Perreira (2013)
ainda complementa, outro exemplo de fonte de dados desestruturados são sensores, que
podem ser usados com diversas finalidades como monitoram o trafego em rodovias,
fazer leitura por RFID5 nos supermercados, temperatura nas cidades, satélites que
monitoram o tempo e terremotos, entre outros.

3
Sistema de Gerenciamento de Banco de Dados.
4
Structured Query Language (Linguagem de Consulta Estruturada).
5
Identificação por Rádio Frequência – Radio-Frequency Identification.

58
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

2.5. NoSQL
Para poder armazenar as informações desestruturadas, foi desenvolvido um banco para
todos os tipos de dados, onde poderia ser utilizado por dados relacionais e não
relacionais e que oferece um alto grau de escalabilidade, criando assim o NoSQL. O
NoSQL (Not only SQL) é um termo usado para se referir a qualquer armazenamento de
dados que não seguem o modelo tradicional RDBMS6, aponta Perreira (2013).
“Além da alta taxa de geração dos dados, outro fator que influenciou a criação
de sistemas NoSQL foi o suporte a tipo de dados complexos, semiestruturados ou não
estruturados” [Vieira 2012].
Segundo Taurion (2012) a principal base tecnológica para Big Data é os bancos
de Dados NoSQL.

2.6. Geração de decisões através do relacionamento de dados


Segundo Canary (2013), decisões são feitas através de processos de escolha, de pelo
menos uma das alternativas propostas, atendendo a um problema existente. A decisão é
compreendida em 3 dimensões:

 Importância: Relacionado a satisfação de valores e interesses;


 Velocidade exigida: Pois algumas decisões exigem certa velocidade;
 Individualidade: decisões tomadas sozinho ou em grupos.
Para uma maior obtenção de valores de dados na grande dimensão, o Big Data é
dividida em variáveis envolvidas, cada uma com um conceito proposto, assim como a
sua importância nas tomadas de decisões. Em varias biografias estas variáveis são
conhecidas como “os três vês”, sendo elas: Volume, Variedade e Velocidade, porém a
inclusão de mais “dois vês” esta presente em algumas bibliografias pesquisadas, sendo
elas: Valor e Veracidade, gerando assim como conhecido em algumas bibliografias “Os
“5V’s” do Big Data”.

2.6.1. Variedade
O conceito da variedade engloba o uso dos diferentes tipos de dados, onde são de
diversas fontes origens, podendo ser estruturados ou não.
“Os dados vêm de sistemas estruturados (hoje minoria) e não estruturados (a
imensa maioria), gerados por e-mails, mídias sociais, documentos eletrônicos,
apresentações estilo Powerpoint, mensagens instantâneas, sensores, etiquetas RFID,
câmeras de vídeo, etc” [Taurion 2012].
As variáveis de estudos envolvidos são: Variedade de fontes de informação e
variedade de tipos de dados

6
Relational Data Base Management System – sistema de gerenciamento de base de dados relacionais

59
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

2.6.2. Volume
Enorme quantidade de dados, este sendo a dimensão mais comum de vários conceitos
proposto ao Big Data, sabendo também que quanto maior a quantidade de informações,
maior será a precisão.
Taurion (2012) destaca o aumento acelerado de volume de dados vem chamando
atenção pela acelerada escala em que volumes cada vez maiores de dados são criados
pela sociedade.
As variáveis de estudos envolvidos são: Volume de informação, acessibilidade
de informações e mudança de comportamento em função de um volume.

2.6.3. Velocidade
Para formar o tripé do conceito do big data, é necessário um grande poder de tempo de
resposta com que os dados e informações são analisados, realizando as analises no
menor tempo possível. “Muitas vezes é preciso agir em tempo real, exigindo um
processamento que acompanhe esta velocidade” [TAURION 2012].
As variáveis de estudos envolvidos são: Velocidade de chegada da informação e
velocidade a tomada de decisão.

2.6.4. Valor
Não tem como retratar o conceito do Big Data, relatar a sua tamanha capacidade de
processamento de dados, e deixar de lado os valores necessários para a realização da
pratica deste conceito. Big Data só faz sentido se o valor da análise dos dados
compensar o custo de sua coleta, armazenamento e processamento comenta Taurion
(2012). Para a proximidade da exatidão, a qualidade dos dados analisados deve ser
percebida pelos usuários.
As variáveis de estudos envolvidos são: Qualidade das informações, resultados
agregado a partir das analises das informações e valor financeiro para ter dados de
qualidade.

2.6.5. Veracidade
Taurion (2012) relata que é necessário ter certeza que os dados fazem sentido e são
autênticos, pois quanto maior a porcentagem de autenticidade, menor será a chance de
erro nas analises de dados do Big Data.
É importante ressaltar a importância da qualidade dos dados para a analise
adequada do Big Data, visto que dados de alta qualidade são pré-requisitos para auxiliar
as organizações a adequarem-se as mudanças necessárias.

2.7. Gerenciamento do Big Data


Para a conclusão do resultado final é importante o cumprimento dos requisitos
funcionais do Big Data, passando assim por um ciclo de gerenciamento.
Conforme a figura 1 proposta pelo autor Hurwitz et al. (2013), pode se analisar
que os o processo da captura dos dados vem como a primeira função do ciclo de

60
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

gerenciamento, e, em seguida, são organizados e integrados, logo após esta fase ser
implementada com sucesso, os dados podem ser analisados com base no problema a ser
abordado, dando um resultado para que o usuário possa colocar em pratica através desta
conclusão.

Figura 1 - Ciclo de Gerenciamento do Big Data


Fonte: Adaptado de Hurwitz et al. (2013, p.17).
Hurwitz et al. (2013, p. 48), afirma que como qualquer arquitetura de dados
importantes, você deve criar um modelo que tem um olhar holístico de como todos os
elementos precisam se unir.

3. Metodologia
O presente trabalho utiliza-se de pesquisa bibliográfica para a sua sintaxe, realizando
leituras de dissertações, livros, sites oficiais, artigos publicados na Web e monografias
concluídas, com o propósito de ampliar o conteúdo abordado, e para melhor
compreensão do tema abordado. Através do levantamento, alcançou um melhor
entendimento no conceito e na sua pesquisa de dados para uma aplicação.
Trata-se de levantamento de toda bibliografia já publicada em
forma de livros, revistas, publicações avulsas e imprensa escrita. Sua
finalidade é colocar o pesquisador em contato direto com tudo aquilo
que foi escrito sobre determinado assunto ou de manipulação de suas
informações [LAKATOS 1992].

4. Considerações Finais
A quantidade de dados vem crescendo instantaneamente, tornando uma
oportunidade de total crescimento e ganho do mercado que possuir e utilizar o Big Data
em sua área de atuação. Varias organizações já visaram o enorme potencial de seu
conceito e implantam para poder utilizar a imensidão de informações ao seu favor
diante de seus negócios.
Canary (2013) afirma que é fundamental que dirigentes saibam utilizar as
características dos dados de hoje, no contexto do Big Data – Volume, Variedade,
Velocidade, Valor e veracidade. Porem é preciso que aja uma compreensão para que as
decisões apresentadas sejam as melhores.

61
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Os resultados proposto pela pesquisa relacionada a Banco de Dados


proporcionou o entendimento mínimo sobre Big Data, fascinando a cada informação
coletada, assim como a importância dos dados desestruturados nas tomadas de decisões,
estas por sua vez podem ser capaz de prever acontecimentos, como um estoque de
produto, ou mudança de varejo devido ao clima.
O conceito do Big Data, assim como algumas informações, varia muito
conforme autores, criando certas limitações sobre o mesmo. O tema é considerado uma
tecnologia nova que vem crescendo cada vez mais no mundo, porem sua utilidade ainda
é considerada pouco comparada com tecnologias antigas.
Varias abordagens podem ser examinadas para dar prosseguimento a este artigo,
e tratando de um tema inovador, pode dar sequencia desenvolvendo um projeto de
implementação da análise do Big Data para tomadas de decisões de alguma instituição,
ou para a redução de gastos em alguma área, como o agronegócio por exemplo. Outra
opção seria ir mais a fundo nas análises dos processos do ciclo que gerencia o Big Data.

Referências
AURÉLIO, Dicionário. (2010) Disponível em: http://www.dicionariodoaurelio.com
Acesso em, v. 15, n. 05.
CANARY, Vivian Passos. (2013) A tomada de decisão no contexto do Big Data: estudo
de caso único.
DAVENPORT, Thomas. (2014) Big data at work: dispelling the myths, uncovering the
opportunities. Harvard Business Review Press.
GANTZ, John; REINSEL, David. (2012) The digital universe in 2020: Big data, bigger
digital shadows, and biggest growth in the far east. IDC iView: IDC Analyze the
Future, v. 2007, p. 1-16.
HURWITZ, Judith et al. (2013) Big Data For Dummies, a Wiley Brand. New Jersey:
John Wiley & Sons, inc..
LANEY, Doug. (2001) 3D data management: Controlling data volume, velocity and
variety. META Group Research Note, v. 6, p. 70.

PEREIRA, Felipe Argenton. (2013) Explosão dos dados e o conceito de análise de


dados relacionados para geração de informações (BIG DATA).

PRESS, Gil. (2013). A very short history of big data. Forbes. Forbes Magazine, 9.
SHAW, Jonathan. (2014) Why “Big Data” is a big deal. Harvard Magazine, v. 3, p. 30-
35.
VIEIRA, Marcos Rodrigues et al. (2012) Bancos de Dados NoSQL: conceitos,
ferramentas, linguagens e estudos de casos no contexto de Big Data. Simpósio
Brasileiro de Bancos de Dados.

62
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Garantia da Qualidade de Software com Metodologias Ágeis:


Um Levantamento com Base em Revisão Sistemática
Kelce Regina Ferreira Fernandes, Fernando Selleri Silva

Ciência da Computação – Universidade do Estado de Mato Grosso (UNEMAT)


Caixa Postal 92 – 78.390-000 – Barra do Bugres – MT
kelceregina@hotmail.com, selleri@unemat.br

Abstract. This paper aims to show a study about the execution of Quality
Assurance with Agile Methodologies. Firstly, it shows the concepts related to
Quality Assurance (QA). Secondly, the most utilized Agile Methodologies are
addressed. Then, the results are shown. These results were reached through
bibliographic survey about national literature, using systematic review
concepts. They identify 23 scientific studies about the theme, highlighting the
agile practices and the benefits and limitations shown by the studies.

Resumo. O presente trabalho visa apresentar um estudo sobre a execução da


Garantia da Qualidade com Metodologias Ágeis. Inicialmente, são
apresentados os conceitos relacionados a Garantia da Qualidade (GQA). Em
seguida, são abordadas as Metodologias Ágeis mais utilizadas atualmente. E,
então, são apresentados os resultados, alcançados por meio de um
levantamento sobre a literatura nacional, utilizando conceitos de revisão
sistemática. Foram identificados 23 trabalhos sobre o tema, destacando-se as
práticas ágeis e os benefícios e limitações por eles apresentados.

1. Introdução
A qualidade é uma característica essencial para o software e está relacionada, entre
outros fatores, ao processo de desenvolvimento empregado. Nas últimas décadas, foram
propostas várias metodologias ágeis de desenvolvimento de software, buscando superar
dificuldades encontradas nas chamadas metodologias tradicionais (ou cascata). A
pesquisa Chaos Report [Standish Group 2015] aponta que metodologias ágeis resultam
em maior taxa de sucesso em projetos (39%) do que metodologias tradicionais (11%).
Neste contexto, o presente trabalho tem como objetivo analisar as principais
metodologias ágeis de desenvolvimento de software com a finalidade de identificar
práticas que conduzam à garantia da qualidade. Como metodologia, foi utilizada a
Pesquisa Bibliográfica [Gil 2010] e conceitos de Revisão Sistemática [Kitchenham e
Charters 2007], envolvendo a literatura nacional. Este artigo está organizado em seis
seções. A Seção 2 corresponde à fundamentação teórica. A Seção 3 apresenta o método
de revisão empregado. A Seção 4 apresenta os resultados gerais e a Seção 5 corresponde
à síntese. Por fim, na Seção 6 são apresentadas as Considerações Finais.

2. Fundamentação Teórica
Nesta seção, são apresentados os conceitos de Garantia da Qualidade (GQA) e de
Metodologias Ágeis.

63
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

2.1. Garantia da Qualidade


A Engenharia de Software consiste em um conjunto de técnicas, métodos, ferramentas e
processos que são utilizados nas várias fases do desenvolvimento de software, desde a
especificação até a implantação e manutenção, viando garantir o controle e a qualidade
do software desenvolvido [Magela 2006]. Sobre a Qualidade de Software, Pressman
(2011) a define como a “[...] concordância com os requisitos funcionais e de
desempenho claramente colocados, padrões de desenvolvimento explicitamente
documentados e características implícitas que são esperadas de todo o software
profissionalmente desenvolvido”.
Neste contexto, surge o conceito de Garantia da Qualidade (GQA), apresentado
por Sommerville (2007) como “[...] o processo de definição de como a qualidade de
software pode ser atingida e como a organização de desenvolvimento sabe que o
software possui o nível de qualidade necessário”. A garantia da qualidade está
relacionada à definição e seleção de padrões, os quais são aplicados ao processo de
desenvolvimento ou ao produto de software.

2.2. Metodologias Ágeis


As metodologias ágeis aplicam um conjunto de práticas bem definidas e conduzidas por
princípios e valores, as quais podem ser empregadas por profissionais de software [Beck
2002]. Atualmente, existem várias metodologias ágeis disponíveis, entre elas, Scrum
[Schwaber e Sutherland 2013], XP - Extreme Programming [Beck 2004] e Kanban
[Anderson 2010], consideradas as mais utilizadas [VersionOne 2015]. Elas são
brevemente descritas a seguir:
 Scrum: classificada como um framework estrutural de conceitos e práticas de
gerenciamento de projetos, é utilizada para o desenvolvimento de produtos
complexos e adaptativos estabelecendo conjuntos de regras e práticas de gestão
que devem ser adotadas para garantir o sucesso de um projeto. Concentra-se no
trabalho em equipe, melhorando a comunicação do grupo, permitindo que cada
integrante faça o seu melhor [Schwaber e Sutherland 2013].
 Extreme Programming (XP): emprega várias formas de planejamento para
garantir que a equipe esteja constantemente trabalhando no que é mais
importante para o cliente, o software. Dessa forma, o projeto é dividido em
releases e iterações, para que assim equipe e cliente possam se reunir e revisar o
planejamento com foco no desenvolvimento [Beck 2004].
 Kanban: foi inicialmente usada para auxiliar o controle de produção da fábrica
Toyota [Anderson 2010]. O sucesso da implementação do framework Kanban,
está diretamente relacionado com o comprometimento da gestão e da equipe em
seguir todas as métricas definidas, atuando em um fluxo contínuo de
desenvolvimento [Boeg 2011].

3. Método de Revisão
Neste trabalho, foram utilizados conceitos de revisão sistemática de literatura
[Kitchenham e Charters 2007], que consiste em um método para identificar, avaliar e
interpretar pesquisas relevantes disponíveis sobre um determinado tema. Nesta seção, é

64
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

apresentado o protocolo adotado na revisão, o qual foi adaptado para o contexto de um


trabalho de iniciação científica.
3.1. Busca Automática e Manual
O levantamento foi realizado no mês de maio de 2015, inicialmente, com uma busca
automática. Para tal, foram selecionados mecanismos de indexação relevantes, em fontes
nacionais, com estudos em Língua Portuguesa, a fim identificar trabalhos que
possibilitem a iniciantes terem um material de base para estudo. Trabalhos em Língua
Inglesa estão sendo identificados em outra revisão desenvolvida no grupo de pesquisa.
A busca automática foi realizada nos mecanismos por meio de uma string que
agrupou os termos referentes ao tema da pesquisa, da seguinte forma: ("garantia da
qualidade" OR "GQA" OR "GQ" OR "quality assurance" OR "QA") AND ("ágil" OR
"ágeis" OR "scrum" OR "XP" OR "extreme programming" OR "kanban" OR "lean" OR
"crystal" OR "FDD" OR "TDD" OR "ASD" OR "DSDM"). Os resultados considerados
totalizaram 41.129 resultados e são apresentados na Tabela 1.
Tabela 1. Resultados da Busca Automática
Local Pesquisado Resultados
Google Acadêmico (https://scholar.google.com.br/) 6.880
Scielo (www.scielo.ogr/) 4
MTC (http://www.mtc.gov.br/) 25.800
Domínio Público (www.dominiopublico.gov.br/) 14
SBC (www.sbc.gov.br) 0
UNICAMP (www.unicamp.br/) 741
USP (http://www5.usp.br/) 6.390
UFRGS (http://www.ufrgs.br/) 1.070
UFPE (http://www.ufpe.br/) 230
Total 41.129

Em seguida, foi conduzida uma busca manual no site da Associação para


Promoção da Excelência do Software Brasileiro (SOFTEX), nos anais do Simpósio
Brasileiro de Qualidade de Software (SBQS), Simpósio Brasileiro de Engenharia de
Software (SBES) e do Workshop Anual da Melhoria de Processos de Software
(WAMPS), que se destacam no assunto abordado por este trabalho, totalizando 227
resultados. A busca automática e manual totalizaram 41.356 resultados.
3.2. Seleção dos Estudos
Foi efetuada uma verificação dos títulos e resumos a fim de eliminar redundâncias de
resultados e identificar trabalhos potencialmente relevantes. Muitos resultados foram
desconsiderados por se tratar de links para páginas web, apresentações de slides ou
outros materiais não referentes a artigos ou trabalhos acadêmicos. Outros resultados
foram desconsiderados, pois claramente se referiam apenas a qualidade. Ao final foram
identificados 44 trabalhos potencialmente relevantes. O próximo passo foi a leitura
desses trabalhos para aplicação dos seguintes critérios de exclusão/inclusão:
 Critérios de Inclusão: estudo acadêmico ou da indústria; com dados científicos
práticos, bibliográficos ou relato de experiência; aborda Garantia da Qualidade e
Metodologias Ágeis em conjunto; nacional e em Língua Portuguesa.
 Critérios de Exclusão: ser meramente uma opinião de especialista; estar em
formato de editorial, prefácio, resumo, entrevista, notícia, slide, pôster e outros.

65
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Após a aplicação dos critérios descritos, foram considerados para esta revisão
23 trabalhos relevantes, conforme a Tabela 2.
Tabela 2. Trabalhos Incluídos no Levantamento
Nº Título Autor
1 Aplicando Práticas de Extreme Programming (XP) em Equipes SW- Carlos Henrique Rodrigues Cardoso
CMM Nível 2
2 Qualidade de Software nas Metodologias Ágeis Scrum e OpenUP Giovane Montine Moreira Gurgel, Camilo de
Lélis D.C. de Medeiros, Clarissa L.A.C. Lins
3 Utilização de Práticas Genéricas do CMMI para apoiar a Utilização Célio Santana, Cristine Gusmão, Ana
de Metodologias Ágeis Rouiller, Alexandre Vasconcelos
4 Um Modelo para Garantia da Qualidade de Software: Combinando Fernando Selleri Silva
Maturidade e Agilidade
5 Qualidade de Software no desenvolvimento com Métodos Ágeis Bruno Henrique Oliveira
6 Utilizando Métodos Ágeis para atingir MPS.BR Nível F na Ana Cláudia Grossi de oliveira, Fernanda
Powerlogic Alves Guimarães, Isabella de Araújo Fonseca
7 Relato de Experiência na Implantação de um Método Ágil em uma Cristiane dos Santos Coelho
Equipe de Desenvolvimento de Software
8 XP-CMM2: Um Guia para Utilização de Extreme Programming em Renata Endriss Carneiro Campelo
um Ambiente Nível 2 do CMM
9 SCRUMMPS 2.0 - Evolução de uma Ferramenta Interativa para Anderson Abner de Carvalho
Suporte ao Scrum e MPS.BR
10 Viabilidade do Desenvolvimento de Software Baseado no Modelo T. M. Dias, G. F. Moita, M. P. Silva, B.
MPS.BR com a Metodologia Extreme Programming Ferreira, A. M. Silva
11 Implantação do Nível F do MR.MPS Combinando Características Tatiane Silva, Rogério Magela, Gleison
do Processo Unificado com Práticas Scrum Santos, Natália Chaves Lessa Schots, Ana
Regina Rocha
12 Adoção de Metodologias Ágeis de Desenvolvimento com Ênfase na Diego Noronha, Elton Rabelo, Thiago M. R.
Qualidade do Projeto Dias, Patrícia M. Dias, Gray F. Moita
13 Experiência de Implantação de Melhoria de Processos de Software Fabiana Freitas Mendes, Jackeline Neves de
em Laboratório de Pesquisa almeida, Egio Arruda Junior
14 Definição do Processo APD e Certificação no Nível F do MR-MPS Tatiane Silva
Utilizando Práticas do Processo Unificado Associadas a Práticas
Scrum
15 Estudo da Qualidade de Software na Metodologia V-model e sua Camila Rocha
Interação com Metodologias Ágeis (SCRUM)
16 Implementação do Nível F do MR-MPS com Práticas Ágeis do Edmar Catunda, Camila Nascimento, Cristina
Scrum em uma Fábrica de Software Cerdeiral, Gleison Santos, Elaine Nunes,
Natália L. Schots, Marcelo Schots, Ana R.
Rocha
17 Implantação de Modelos de Maturidade com Metodologias Ágeis: Rafael Prikladnick, Ana Liddy C. C.
Um Relato de Experiências Magalhães
18 Encontrando o Equilíbrio entre a Metodologia Scrum na Fábrica Nanachara V. Silva, Paulo R.S. Antiquera,
JAVA e o Modelo MPS.BR-SW Nível F Edemilson R. Burity
19 Adoção do CMMI e das Metodologias Ágeis em Empresas Guilherme S. Lacerda, Anderson Baum,
Brasileiras Vinicius G. Ribeiro
20 Uma Análise do Scrum sob a Perspectiva do MPSBR Marcelo Teixeira
21 Utilização de Metodologia Scrum para Obtenção de Nível F do Arthur Mauricio da Silva, Maria Aparecida
MPS.BR Denardi
22 Uma análise das Metodologias Ágeis FDD e Scrum sob a F. G. Silva, S. C. P. Hoentsch, L. Silva
Perspectiva do Modelo de Qualidade MPS.BR
23 Uma Análise da XP sob a Perspectiva do Modelo MPSBR Márcia Maria Begnini

3.3. Extração de Dados


Na etapa de extração dos dados, foram coletados de cada trabalho incluído: título; ano
de publicação; autor; tipo (artigo, dissertação ou outro); nível (acadêmico ou
profissional); local da publicação; local onde a pesquisa foi realizada; natureza (estudo de

66
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

caso, relato de experiência, experimento ou outra); objetivo; ferramentas; aplicações;


benefícios e limitações.

4. Resultados Gerais
Entre os 23 trabalhos incluídos estão 15 artigos, 5 monografias, 2 dissertações de
mestrado e 1 tese de doutorado, como mostra a Figura 1 (a), que apresenta o percentual
da quantidade de cada tipo. Quanto à natureza dos trabalhos, apresentada na Figura 1
(b), 10 são relatos de experiência, 5 são revisões de literatura, 3 são estudos de caso, 2
são experimentos, 1 é survey e 2 são mistos. Os trabalhos classificados como “misto”
combinaram os métodos revisão de literatura, estudo de caso e survey. As revisões de
literatura tiveram uma abordagem diferente do foco da presente revisão, em geral, elas
abordaram aspectos específicos de qualidade com o desenvolvimento ágil para embasar
uma proposta ou experiência em garantia da qualidade. Não foi encontrada uma revisão
anterior com foco em garantia da qualidade e metodologias ágeis, como a apresentada
neste trabalho.
Quanto à fonte, 14 artigos foram publicados em eventos e 1 em periódico. Os 8
trabalhos acadêmicos foram produzidos em 6 diferentes instituições. Em relação ao ano
de publicação, foram encontrados trabalhos a partir do ano de 2003. Nos anos de 2003,
2004, 2013 e 2015 houve 1 trabalho incluído em cada ano. Em 2007, 2008, 2009 e 2014
houve 2 trabalhos por ano. Em 2010 foram 3 trabalhos e em 2011, o maior número de
trabalhos, com 11 inclusões. Nos anos de 2005, 2006 e 2012 não houve estudos.

Figura 1. Tipo e Natureza da Pesquisa dos Trabalhos Incluídos

5. Práticas Ágeis Utilizadas


Essa seção apresenta as práticas ágeis utilizadas para a garantia da qualidade, de acordo
com os trabalhos incluídos. As práticas ágeis das metodologias mais citadas (Scrum e
XP) foram sintetizadas separadamente. A metodologia ágil Kanban, apesar de ser citada
em alguns trabalhos, não teve práticas específicas utilizadas em nenhum dos trabalhos.
5.1. Práticas de Scrum
Na Figura 2 são apresentadas as práticas ágeis de Scrum mais citadas nos trabalhos
incluídos. Pode-se notar que a prática relacionada ao desenvolvimento em Sprint foi a
mais citada (15 trabalhos), enquanto a prática Incremento foi citada apenas em um
trabalho. Também observa-se que algumas práticas, como Quadro Scrum e Gráfico

67
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Burndown foram utilizadas em poucos trabalhos, o que caracteriza a adaptação para o


uso da metodologia Scrum.

Figura 2. Práticas de Scrum Utilizadas

5.2 Práticas de XP
As práticas de XP citadas nos trabalhos encontram-se na Figura 3. Nota-se também a
característica de adaptação para o uso da metodologia XP, sendo Desenvolvimento
Guiado por Testes, Refatoração e Integração Contínua as práticas mais citadas (8
trabalhos cada) e a Reunião em Pé (Stand Up Meeting) a prática de XP menos utilizada
nos trabalhos incluídos.

Figura 3. Práticas de XP Utilizadas

68
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

6. Considerações
Com base nos benefícios apresentados pelos trabalhos incluídos, a partir do emprego das
práticas ágeis identificadas anteriormente, é possível considerar que a utilização das
metodologias ágeis possibilita a garantia da qualidade, com melhorias significativas na
agilidade e qualidade dos processos e produtos. Entretanto, é importante salientar que as
metodologias ágeis por vezes necessitam de alterações e adaptações para que possam
satisfazer completamente os requisitos da garantia da qualidade. Entre os aspectos
destacados, está a necessidade de se avaliar de forma objetiva o atendimento ao processo
definido e a necessidade de se registrar as não conformidades e ações corretivas.
Os benefícios citados nos trabalhos foram: melhorias significativas em relação a
qualidade do produto final, notadas nos processos de qualidade de processos e na
gerência de qualidade dos produtos; a metodologia ágil Scrum satisfaz as ações de
garantia da qualidade; XP atende em 70% o processo de garantia da qualidade; o uso das
metodologias ágeis minimiza problemas e danos quando a satisfação do cliente e a
qualidade do produto estão em questão. Contudo, as seguintes limitações foram citadas:
apesar das metodologias ágeis apresentarem melhorias em relação à gerência, satisfação
do cliente e comunicação, elas mostram-se limitadas em termos de práticas de garantia
da qualidade de software; dificuldades na identificação de práticas relacionadas a fatores
de qualidade, presentes nas metodologias ágeis. A percepção sobre o atendimento à área
de garantia da qualidade varia conforme o entendimento ou conhecimento sobre as
metodologias ágeis, o que pode justificar o fato de alguns trabalhos apontarem que uma
metodologia ágil atende a garantia da qualidade, enquanto outros trabalhos apontam
limitações neste atendimento. Assim, se faz necessária a busca por processos que
evidenciem como a garantia da qualidade está sendo realizada nas metodologias ágeis.
Em termos de limitações à validade deste trabalho, destacam-se as seguintes:
cobertura dos trabalhos – ainda que se tenha realizado uma busca automática, combinada
com uma busca manual, algum trabalho relevante, eventualmente, pode não ter sido
incluído; mecanismos de busca – o uso de mecanismos específicos de indexação de
trabalhos científicos é sugerido, porém considerando o escopo da revisão em âmbito
nacional, o uso do Google Acadêmico e de sites de instituições da área foi adotado como
estratégia para viabilizar a busca automática; análise dos resultados – a análise criteriosa
de título e abstract foi aplicada aos primeiros 200 resultados obtidos nos sites Google
Acadêmico, UNICAMP, USP e UFRGS e aos primeiros 500 resultados apresentados
pelo site do MTC, pois a partir de então os resultados passaram a se apresentar como
claramente irrelevantes a julgar pelo título; avaliação da qualidade – não foi realizada
uma avaliação da qualidade dos trabalhos incluídos, nem foram aplicados tratamentos
distintos a trabalhos com maior ou menor rigor científico, sendo possível que este
tratamento, se aplicado, impacte nos resultados.
Como sugestão para trabalhos futuros destaca-se: realizar uma revisão
sistemática incluindo estudos em Inglês e traçar um comparativo entre a pesquisa em
literatura em Inglês em contraste com a literatura em Português; sugerir um processo
ágil que evidencie, de forma não burocrática, que a garantia da qualidade está sendo
implementada; propor um processo que atenda as limitações da metodologia ágil XP, de
forma que supra as necessidades em avaliar de maneira objetiva a aderência de produtos
e processos aos padrões e que se tenha um registro das não-conformidades e soluções.

69
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Referências
Anderson, D. (2010). Kanban: Successful Evolutionary Change for Your Technology
Business. Washington: Blue Hole Press.
Beck, K. (2002). Test Driven Development: By Example. 1. ed. Addison-Wesley
Professional.
Beck, K. (2004). Extreme Programming (XP) Explained: embrace change. 2. ed.
Boston: Addison-Wesley.
Boeg, J. (2011). Kanban em 10 Passos: Otimizando o fluxo de trabalho em sistemas de
entrega de software. http://www.infoq.com/br/minibooks/priming-kanban-jesper-
boeg, Abril.
Gil, A. C. (2010). Como Elaborar Projetos de Pesquisa. 5. ed. São Paulo: Atlas.
Kitchenham, B e Charters, S. (2007). Guidelines for performing systematic literature
reviews in software engineering. Technical Report, School of Computer Science and
Mathematics, Keele University.
Magela, R. (2006). Engenharia de Software Aplicada: Princípios. 1. ed. Rio de Janeiro:
Altas Books.
Pressman, R. S. (2011). Engenharia de Software: Uma Abordagem Profissional. 7. ed.
São Paulo: McGraw-Hill.
Schwaber, K. e Sutherland, J. (2013). Guia do Scrum: Um Guia Definitivo para o
Scrum: As Regras do Jogo. http://scrumguides.org/docs/scrumguide/v1/Scrum-
Guide-Portuguese-BR.pdf, Outubro.
Sommerville, I. (2011). Engenharia de Software. 9. ed. São Paulo: Pearson Addison-
Wesley.
Standish Group (2015). The Chaos Report 2015. http://www.standishgroup.com/,
Outubro.
VersionOne. (2015). 9th Annual State of Agile Development Survey.
http://www.versionone.com/pdf/state-of-agile-development-survey-ninth.pdf, Abril.

70
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Levantamento de aplicações e potencialidades do Raspberry


Pi
Wendy C. Almeida, Gabriel A. Menezes dos Santos, Pedro C. Silva Neto

Instituto Federal de Educação, Ciência e Tecnologia de Mato Grosso – Campus


Avançado Tangará da Serra (IFMT)
Rua 28, 980N, Vila Horizonte – 78.300-000 – Tangará da Serra – MT – Brasil
{wendy,gabriel,pedro}@tuxcuiabano.com

Abstract. Current computers have their origins in the huge existing machines
in the computer rooms of the early days of the computer industry. By the early
60s of last century, these machines were built exclusively for government
agencies and military purposes which meant that certain security procedures
were used and, in addition, these systems required special environments
needed for its operation . With the evolution of technology, the size these
computers have significantly reduced, to the point that, based on recent
studies a mini computer was developed with the size of a credit card, which
has similar functions of a computer with just a few restrictions of hardware.
This work will address applications used with Raspberry Pi and conducts a
survey of applications and their potential.

Resumo. Os computadores atuais têm suas origens nas enormes máquinas


existentes nas salas de informática dos primórdios da indústria de
computadores. No início dos anos 60 do século passado, essas máquinas
foram construídas exclusivamente para as agências governamentais e fins
militares, que foram utilizados certos procedimentos de segurança e, além
disso, esses sistemas exigiam ambientes especiais necessários para o seu
funcionamento. Com a evolução da tecnologia, o tamanho dos computadores
reduziu significativamente, a tal ponto que, com base em estudos recentes foi
desenvolvido um mini computador do tamanho de um cartão de crédito, que
tem funções semelhantes de um computador com apenas algumas restrições
de hardware. Este trabalho irá abordar aplicações utilizadas com Raspberry
Pi e realiza um levantamento de aplicações e seu potencial.

1. Introdução
Com o advento da evolução das tecnologias de informação e comunicações e do acesso
a elas, as distâncias começaram a ficar menores. Antes da grande revolução da
internet, as pessoas se comunicavam por meio de cartas que muitas vezes precisavam
cruzar oceanos para chegar a seus remetentes.

71
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Dentre as máquinas que deram início a essa revolução, pode-se citar a primeira máquina
automatizada chamada "Pascalina", que foi a primeira calculadora mecânica do mundo,
também pode-se falar de Joseph Marie Jacquard, que construiu um tear inteiramente
automatizado e introduziu o conceito de cartão perfurado, a máquina diferencial de
Charles Babbage, para cálculos com polinômios, de Herman Hollerith um empresário
norte-americano e sua máquina de tabular, até Bill Gates e Steve Jobs que popularizam
o conceito da Computação Pessoal.
Hoje em dia, é possível, por meio da internet, uma comunicação praticamente
instantânea. A internet que é uma rede de computadores dispersos por todo o planeta
que trocam dados e mensagens utilizando um protocolo comum. Ela surgiu no final da
década de 60, nos Estados Unidos da América. A primeira rede desse gênero chamava
ARPANET e tinha como objetivo a defesa do território americano, devido as ameaças
de interrupção das linhas de comunicação ou um possível ataque atômico de outro país.
A internet é hoje um meio de comunicação imprescindível na vida de todos, mas, ela
nem sempre teve o formato que se conhece e utiliza atualmente. Um servidor web é um
computador que fornece o serviço para armazenamento de páginas web (container),
onde ele recebe requisições de navegadores web pedindo por documentos, por meio de
uma conexão de rede. Ele decifra a conexão para determinar qual arquivo é solicitado,
procura o arquivo e, se estiver disponível, devolve para o host solicitante [Mamani
2010].
O Raspberry Pi é um computador do tamanho de um cartão de crédito que se conecta à
uma tela e a um teclado. É um pequeno computador com capacidade para ser usado em
projetos eletrônicos, e para muitas das coisas que um PC comum faz, como planilhas,
processamento de texto e jogos [Raspberry 2015].
Este trabalho realizará uma revisão da literatura dos projeto realizados com o Raspberry
Pi, suas aplicações e verificar suas potencialidades a fim de obter parâmetros para esse
equipamento.

2. Fundamentação Teórica
Raspberry Pi é um computador do tamanho de um cartão de crédito, que se conecta a
um monitor, teclado, mouse, e qualquer outro periférico USB. Ele foi desenvolvido pela
Fundação Raspberry Pi em conjunto com a Universidade de Cambridge, localizada no
Reino Unido. O objetivo inicial desse equipamento foi o de ensinar programação e
ciência em escolas.
Foram lançadas, inicialmente, duas versões A e B, a diferença primordial é que o
modelo B tem duas entradas USB e tem um controlador ethernet. O modelo A não tem
controlador ethernet e só tem uma entrada USB que pode ser ruim, pois não seria
possível ligar mouse e teclado [Peres 2013].
Em 2014 houve o lançamento de uma versão melhorada do modelo B. Um salto de
grande diferencial é o fato da nova versão, chamada de B+, ter 4 entradas USB, já que

72
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

o seu homólogo tinha duas. Outras mudanças também ocorreram, uma delas é o fato da
entrada SD ter dado lugar para uma entrada MINI SD, isso ajuda para que não fique
metade do cartão SD pra fora. Houveram melhorias no áudio que dispõe de uma fonte
de alimentação de baixo ruído, já que foi mencionada a fonte de alimentação, é bom
lembrar que o dispositivo B+ apresenta menor gasto de energia [Peres 2014].

3. Aplicações e Potencialidades
O Raspberry Pi, tem como grande foco o ensino da ciência para alunos, isso o torna
muito interessante, pois ele motiva os alunos de maneira diferente. Ele é muito útil tanto
na parte de um entendimento melhor da arquitetura já que é um pequeno computador e
fica com todas as suas peças de hardware a mostra. Também é muito útil na
aprendizagem de programação pois age exatamente como um computador somente com
o demérito de ter um hardware menos potente. Também é acessível, pois tem preços
muito baixos em relação a um computador convencional e apresenta funções idênticas
(apenas com diferença no potencial de hardware), e seu preço gira em torno de 35
dólares [Cardoso, Costa e Sousa 2013].
Como o Raspberry Pi tem exatas funções de um computador, é possível usá-lo em
muitas aplicações diferentes, como por exemplo a de servidor web, servidor de banco de
dados. No projeto de Silva e Nascimento (2014), Raspberry Pi é usado como um
gerenciador de uma rede smart grid utilizando dispositivos zigbee. Ele passa esses
dados até o Raspberry que gerencia a smart grid. Fazendo que isso chegue até um banco
de dados e que possa ser analisado por uma pessoa.
O Raspberry Pi também tem funções na área da medicina, que pode ajudar no
monitoramento de pacientes usando-o novamente como servidor web. Pacientes muitas
vezes não podem ser atendidos imediatamente, a solução para isso seria um
monitoramento remoto ao paciente. Shinde (2014) usa o Raspberry Pi para implementar
o servidor que vai acessar o banco de dados do paciente onde ficam armazenados os
dados de condições físicas como por exemplo batimentos cardíacos entre outros dados.
Um possível problema apontado pelo autor é o baixo poder de processamento do
Raspberry Pi, que provavelmente geraria problemas com o gerenciamento do webserver
e do database .
Recentemente começou a se estudar sobre um programa para gerenciamento de balões
de grandes altitudes para observações astronômicas e atmosféricas, usando um
Raspberry Pi. Diferentes tipos de sensores de altitude têm sido usados em vôos de
balões, como: rastreadores de estrelas, sensores de sol, magnetômetros, acelerômetros e
giroscópios. A idéia é a construção de sensores de altitude em torno de um Raspberry Pi
[Sreejith et al, 2014]. Outra aplicabilidade foi proposta por Bysani, Prasad e Chundi (
2013), que utilizou o Raspberry Pi e suas aplicações em áreas automotivas. A ideia
desse projeto é a interação entre o dispositivo com todas as outras partes tecnológicas do
carro. O Raspbery fica no veículo como um painel podendo ver como, por exemplo,
quando trocar o óleo, gasolina, velocidade, temperatura e outras.

73
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

4. Considerações Finais
Desde a criação do Raspberry Pi, surgiram aplicações de várias áreas de atuação como:
educação, cultura, medicina, para integrar com esse equipamento e conseqüentemente
novas tecnologias permitem ainda mais o crescimento e evolução do mesmo. No intuito
de apresentar essa tecnologia, esse trabalho buscou uma verificação de aplicações já
realizadas e de mostrar a potencialidade do Raspberry, obtendo dados que servirão
como referência para pesquisa "Servidores Web em Computadores Singleboard
Raspberry Pi". Para os trabalhos futuros será levada em consideração outros modelos de
computadores singleboard e também de outros modelos de servidores web e será
realizada uma comparação de desempenho.

REFERÊNCIAS
Cardoso, A., Costa, E. e Sousa, G. (2013) “O Potencial Educativo do Raspberry Pi”, p.
1–16.
Bysani, C., Prasad, T. S. R. K. e Chundi, S. (2014) “Raspberry pi for commercial
applications”, In: INternational Journal of Computers & Technology, v. 4, n. 1, p.
266–275.
Mamani, Edwin Luis Choquehuanca. (2010) “Um sistema servidor web distribuído com
provisão de QoS absoluta e relativa”, Dissertação (Mestrado em Ciências de
Computação e Matemática Computacional), Universidade de São Paulo, São Carlos,
http://www.teses.usp.br/teses/disponiveis/55/55134/tde-15022011-085730, Outubro.
Peres, R. (2014) “Raspberry pi em versão melhorada”, Portugal a programar, v. 46, p.
39–40.
Peres, R. (2013) “Raspberry pi: Pequeno mas Grande”, Portugal a programar, v. 40, p.
65–66.
Raspberry.(2015) “What is a Raspberry Pi”, https://www.raspberrypi.org/help/what-is-
a-raspberry-pi, Outubro.
Silva, E. R. O. e Nascimento, V.E. (2014) “Implementação De Banco De Dados Em
Sistema Operacional Aberto Embarcado Com Rede Zigbee” In: Jornada de Pesquisa
e Extensão do IFMT Campus Cuiabá, p. 65–76.
Shinde, P. (2014) “Development of embedded web server for medical”, International
Journal of Electrical, Electronic and Data Comunication, v. 2050, p. 170–174.
Sreejith, A. G. et al. (2014) “A Raspberry Pi-Based Attitude Sensor”, p. 1–13.

74
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Automação Residencial Utilizando Sistemas Multiagentes


Fagner Roger P. Couto¹, Eduardo H. R. Zanela¹, Diego L. Nascimento¹, Lucas D.
Rothmund¹, Luciano Wolski1
1
Ciência da Computação– Universidade do Estado de Mato Grosso (UNEMAT)
Barra do Bugres – MT – Brasil
fagner_roger32@hotmail.com

Abstract. Currently there are several research related to technical and


modeling in the home automation area, always seeking the comfort, safety and
agility for people who interact with these environments. This article introduces
the concept of home automation and multi-agent systems, in order to propose
the use of multi-agent system at the household level.

Resumo. Atualmente existem várias pesquisas relacionadas a técnicas e


modelagem na área da automação residencial, sempre visando o conforto,
segurança e agilidade para as pessoas que interagem com esses ambientes. O
presente artigo apresenta o conceito de automação residencial e de sistemas
multiagentes, com o intuito de propor a sua utilização no âmbito residencial.

1. Introdução
Vivemos em um mundo onde o tempo é muito precioso, longa jornada de trabalho, com
isso existe a necessidade de automatizar o ambiente residencial, para efetuar com
agilidade as tarefas repetitivas do dia a dia, como, ligar o televisor, fechar a janela, ligar
ou desligar uma lâmpada, ajustar a temperatura, entre outras. Ocasionando uma
diminuição no tempo gasto para realiza-las, sem mencionar a segurança que um
ambiente automatizado proporciona, visto que, existem diversos problemas sociais que
preocupam o mundo de hoje.
O objetivo desse trabalho é propor a utilização de sistemas multiagentes na
automação residencial, contribuindo para que não haja uma intervenção direta do
usuário na realização de uma tarefa, pois o próprio sistema aprenderá baseado em seus
comportamentos as suas necessidades, e irá agir de acordo com elas.

2. Fundamentação Teórica

2.1. Automação Residencial


A automação residencial está a cada dia mais facilitando a vida dos moradores, com o
objetivo de melhorar a qualidade de vida, aumentando o bem-estar e a segurança de seus
habitantes. Com o advento de novas tecnologias, o conforto e a praticidade de ambientes
inteligentes está a cada dia mais presente na vida das pessoas.
A domótica baseia-se na integração e interação entre dispositivos eletrônicos
interligados entre si através de uma rede de comunicação [Domingues 2013].

75
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

2.2. Agentes de Software


Na literatura existem várias definições para agentes, segundo Weiss (1999) um agente
de software é definido como um sistema de computador situado em um ambiente que é
capaz de operar de forma autônoma para atingir um objetivo, onde a autonomia refere-
se à capacidade de agir de acordo com sua própria linha de controle.
Segundo Wooldridge (1995), os agentes de software apresentam um
comportamento determinado por um processo de raciocínio baseado na representação de
suas atitudes, tais como crenças, comprometimentos e desejos. Para isso esses agentes
devem possuir os seguintes atributos: (1) Autonomia: agentes devem operar sem a
intervenção direta dos seres humanos ou outros, e ter algum tipo de controle sobre suas
ações e estado interno; (2) Capacidade sociais: agentes deve ser capazes de interagir
com outros agentes através de uma linguagem comum; (3) Reatividade: agentes deve ser
capazes de perceber seu ambiente e responder em tempo hábil às mudanças que ocorrer
no mesmo; (4) Pró-Atividade: os agentes não devem simplesmente agir em resposta ao
seu ambiente, eles devem ser capazes de apresentar um comportamento direcionado a
sua meta, tomando uma iniciativa.
Segundo Hopgood (2001), quando se tem vários agentes interagindo entre si,
esses agentes podem ser classificados como um sistema multiagentes.

2.3. Sistemas Multiagentes


Um sistema multiagentes (SMA) é um conjunto de agentes autônomos que se interagem
para realizar uma tarefa ou alcançar uma finalidade específica. Os agentes podem
interagir comunicando diretamente entre eles ou através de outro agente. [Haib-draa,
Jarras e Moulin 2001].
Segundo Sycara (1998 p. 80), “as características em SMAs são: (1) cada agente
tem informação incompleta ou capacidades para resolver o problema e, portanto, tem
uma visão limitada; (2) não existe nenhum sistema de controle global; (3) os dados são
descentralizados; (4) computação é assíncrona”.

3. Trabalhos Relacionados
Algumas universidades e empresas privadas estão trabalhando em projetos utilizando
agentes de software em ambientes inteligentes.
A MavHome é um projeto da Washington State University e Universidade do
Texas com o foco de criar uma casa inteligente utilizando agentes inteligentes. O
trabalho de DAS et al. (2002) define um ambiente inteligente capaz de adquirir e aplicar
o conhecimento aprendido sobre seus habitantes.
O controle de uma residência, torna-se muito grande e complexo para ser
executado por uma única aplicação, com isso houve a necessidade de decompor as
tarefas em subáreas. As subáreas foram organizadas em formas de camadas,
representadas pelos agentes de software.
A casa do futuro da Microsoft utiliza uma gama de tecnologias que trabalham
juntas com o propósito de torna a vida diária das pessoas mais fácil, divertida e segura
[Rosário 2009].

76
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

4. Metodologia
Para o desenvolvimento do sistema, proposto no presente trabalho, foi utilizada a
plataforma Jade (http://jade.tilab.com) para dar suporte aos agentes inteligentes, e como
forma de aprendizado foi utilizado o algoritmo ID3, responsável pelo processo de
adaptação do sistema de automação.
Os agentes de software irão monitorar constantemente os sensores, verificando
se existem mudanças nos seus status. Cada agente representa um sensor, que reporta as
informações de mudanças para seus agentes superiores conforme arquitetura proposta
por Zambiasi (2002). O agente controlador é responsável pela mineração dos eventos
ocorridos e pela criação das regras geradas pelo ID3.
Segundo Takiuchi, Melo e Tonidandel (2004) para utilização do algoritmo de
aprendizagem ID3 no sistema de automação algumas premissas devem ser definidas
sendo elas:
Conjunto de Treinamento: Cada conjunto de treinamento no sistema ID3
representará um atuador do sistema de automação.
Resposta: Cada atributo de resposta de um conjunto de treinamento no
sistema ID3 será um estado do atuador cujo conjunto de treinamento
representa.
Instâncias e atributos: Cada sensor de um sistema de automação é uma
instância cujos atributos formam o status deste sensor.
A partir dessas premissas, o agente controlador extrairá os dados gerados pela
árvore de indução e irá utilizar como forma de aprendizado para novos comportamentos.
A árvore de decisão na Figura 1, demonstra que foram utilizados 3 atributos (Ar-
condicionado, Janela e Ventilador) para determinar o status do Ventilador. Um exemplo
de regra obtida pelo agente seria, toda vez que o ar-condicionado estivesse ligado o
ventilador estaria desligado.

Figura 1 — Árvore de decisão.

5. Considerações Finais
A utilização de sistemas multiagentes no âmbito residencial contribuirá para cada agente
possa ser representado por um dispositivo ou tecnologia empregada na casa, tornando a
interação entre esses dispositivos mais flexíveis. A partir das referências levantadas,

77
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

pode-se observar que vários autores fizeram proposta de automação residencial


utilizando agentes de software, mas sua implementação em um ambiente real está sendo
pouco utilizada.
Como trabalhos futuros, recomenda-se aplicar a utilização de agentes de
software em um cenário real, para analisar seu comportamento diante dos habitantes da
residência.

Referências

Chaib-Draa, B., Imed J., and Bernard M. (2001) “Systèmes multi-agents: Principes
généraux et applications.” Principes et architectures des systèmes multi-agents.
Disponível em: < http://goo.gl/tjkb9E>. Acesso em: 04 out. 2015.
Das, S. K.; Cook, D. J.; Bhattacharya, A.; Heierman, E. O. (2002) The Role of
Prediction Algorithms in the MavHome Smart Home Architecture. [Artigo online].
Disponível em: <http://goo.gl/yGp5UD>. Acesso em: 18 out. 2015.
Domingues, R. G. (2013). A domótica como tendência na habitação: Aplicação em
habitações de interesse social com suporte aos idosos e incapacitados. Dissertação
(mestrado), Universidade Federal do Rio de Janeiro, Rio de Janeiro. Disponível em:
< http://goo.gl/5isYKz >. Acesso em: 03 out. 2015.
Hopgood, A. A. (2001) Intelligente systems for engineers and scientists. 2nd ed. CRC
Press LLC. Florida, United States of America. Disponível em: <
http://goo.gl/CCCgPJ >. Acesso em: 10 jan. 2015.
Weiss, G, ED. (1999). “Multiagent systems: a modern approach to distributed artificial
intelligence”. [Ebooks] Cambridge: The MIT Press. Disponível em: <
http://goo.gl/kD1vWj>. Acesso em: 30 set. 2015.
Wooldridge, M., Jennings, N. (1995). “Intelligent Agents: Theory and Practice”. [Artigo
online] Cambridge University Press: Knowledge Engineering Review. Disponível
em: < http://goo.gl/ZYWMuS>. Acesso em: 03 out. 2015.
Mavhome. (2015) MavHome [Página web]. Disponível em: <
http://ailab.wsu.edu/mavhome/information.html>Acesso em: 30 set. 2015.
Rosário, J. M. (2009) Automação Industrial. [Ebooks]. Disponível em:
<https://goo.gl/ERc06G>. Acesso em: 13 out. 2015.
Sycara, K. P. (1998) Multiagent Systems. [Artigo online]. Disponível em:
<http://goo.gl/bW4bdR>. Acesso em: 4 out. 2015.
Takiuchi, M.; Melo, É.; Tonidandel, F. (2004) Domótica Inteligente: Automação
baseada em Comportamento. [Artigo online]. Disponível em: < http://goo.gl/SysgmR
>. Acesso em: 18 out. 2015.
Zambiasi, S P. (2002) Ambientes inteligentes. Dissertação (mestrado), Universidade
Federal de Santa Catarina, Florianópolis. Disponível em: < http://goo.gl/Aln8nD >.
Acesso em: 14 maio 2015.

78
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Mineração de Dados Climáticos para a Previsão de Riscos


na Produção Agrícola
Paulo Mello da Silva1, Fernando da Fonseca de Souza1, Thieres George Freire da
Silva2
1
Centro de Informática – Universidade Federal de Pernambuco (UFPE) Recife, PE –
Brasil
2
Departamento de Agronomia
Universidade Federal Rural de Pernambuco (UFRPE) – Recife, PE – Brasil
{pms3@cin.ufpe.br, fdfd@cin.ufpe.br, thieres@uast.ufrpe.br}

Abstract. The losses in agricultural production as a result of climate change


impacts are causing significant social and economic, since it involves an important
factor for the rural development of a region, that is the production. In this context,
the present study proposes that describe the steps for the development of predictive
models of new agricultural frontiers and areas of climatic risk. For this were
described the processes of data mining technique that extracts knowledge of major
weather databases and will be used to build a predictive model. For this technique,
it is assumed understanding of the business, data and preparation, modeling,
evaluation and distribution. It is expected that the application of data mining
technique allows the creation of a forecast model for agricultural activity and
promote advances in agrometeorology area.

Resumo. As perdas na produção agrícola em decorrência de mudanças climáticas


provocam impactos econômicos e sociais significativos, uma vez que envolve um
fator importante para o desenvolvimento rural de uma região, que é a produção.
Neste contexto, este estudo propõe descrever as etapas para o desenvolvimento de
modelos de previsão de novas fronteiras agrícolas e de zonas de risco climático.
Para isso foram descritos os processos da técnica de mineração de dados, que
extrai conhecimentos de grandes bancos de dados climáticos e que serão utilizados
para construção de um modelo de previsão. Para essa técnica, assume-se
entendimento do negócio, dos dados e preparação, modelagem, avaliação e
distribuição. Espera-se que a aplicação da técnica de mineração de dados permite
a criação de um modelo de previsão para a atividade agrícola e promova avanços
na área de agrometeorologia.

1. Motivação
A agricultura é uma das atividades econômicas que tem maior dependência das
condições do clima e do tempo. Estes fatores têm influência no planejamento e na
tomada de decisão agrícola, e atua em todas as etapas da produção, que vai desde a
escolha da espécie a ser explorada, passando pela definição da época do ano para
plantio, preparo do solo, semeadura, tratos culturais, colheita, armazenamento,
transporte e comercialização de produtos. Associado a isso, as mudanças climáticas, a
médio e longo prazo, vem trazendo enormes impactos socioeconômicos, muitas vezes
difíceis de ser quantificados, de tal modo que torna o setor agropecuário um segmento

79
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

de risco. Segundo estudo da Embrapa (2008), os impactos do aquecimento global nas


principais culturas agrícolas do país podem promover perdas nas safras de grãos de até
R$ 7,4 bilhões, já em 2020, podendo atingir R$ 14 bilhões em 2070, o que resultará em
uma alteração geográfica da produção agrícola no Brasil.
Diante deste cenário, surge a necessidade da criação de modelos de previsão que
possam identificar as novas áreas potenciais e as zonas de risco para a produção
agrícola, como forma de auxiliar o produtor rural, buscando minimizar os riscos e os
impactos causados pelos fatores climáticos frente a projeções futuras.
Para a criação de um modelo de previsão, uma das técnicas que pode ser usada é
o processo conhecido como KDD (Knowledge Discovery in Database). Esta
metodologia caracteriza-se pela análise e interpretação de padrões úteis, retirados de
grandes conjuntos de informações, e uma de suas principais etapas é a Mineração de
Dados (Data Mining), uma técnica originada de áreas como Estatística, Inteligência
Artificial e Banco de Dados, que tem como função transformar grandes volumes de
dados para o planejamento, a gestão e a tomada de decisão.
De acordo com Carvalho (2002), a mineração de dados é muito utilizada em
áreas como medicina, telecomunicações e mercado financeiro. Embora as aplicações
mais comuns de mineração de dados envolvam negociações de compra e venda esta área
é muito ampla e também vem sendo aplicada no setor agrícola, em aplicações para
previsão meteorológica, prevenção de pragas e doenças em plantações e animais, dentre
outros fins.
Com base nisso, objetivou-se com esse estudo descrever as etapas para o
desenvolvimento de modelos de previsão de novas fronteiras agrícolas e de zonas de
risco climático.

2. Fundamentação Teórica
Carvalho (2002) cita que o processo, KDD (Knowledge Discovery in Database), é uma
área interdisciplinar que surgiu como resposta à necessidade de novas abordagens e
soluções para viabilizar a análise de grandes bancos de dados. O termo KDD é
empregado para descrever todo o processo de extração do conhecimento de um conjunto
de dados, enquanto o termo mineração de dados (Data Mining) refere-se a uma das
etapas deste processo.
Segundo Han e Kamber (2006), a Mineração de Dados ou Data Mining pode ser
vista como um processo de extração de informações, sem conhecimento prévio de
grandes massas de dados e seu uso para a tomada de decisão. Este processo consiste na
aplicação de algoritmos que extraem conhecimento a partir dos dados. Esses algoritmos
podem ser de classificação, regressão, agrupamento (clusterização), entre outros, que
possibilitem a sintetização do conhecimento.
Na estatística, os algoritmos podem ser aplicados para descobrir estruturas ou
associações em conjunto de dados, realizar previsões, etc. Dentre elas, destacam-se
modelos de regressão, que são modelos matemáticos e têm como um dos objetivos
prever o valor da variável dependente (Y) a partir das informações provenientes de um
conjunto de variáveis independentes (X). De acordo com Montgomery et al. (2001), a
análise de regressão representa uma técnica estatística capaz de investigar e modelar a
relação entre variáveis.

80
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

De acordo com Shadbolt (2010), o risco deve ser entendido como uma perda
potencial de um negócio em decorrência de eventos desfavoráveis. Por sua vez, Kimura
(1998) define duas esferas principais de risco, sendo elas: “os riscos de produção e os
riscos econômico-sociais”, que embora tenham causas distintas, uma interfere na outra,
e o produtor pode buscar a gestão dos riscos, mas não eliminá-los.
3. Metodologia
Para o desenvolvimento e fundamentação do modelo de previsão de risco proposto no
presente estudo, dentre as metodologias disponíveis para a execução de projetos de
mineração de dados será seguido o CRISP-DM (Cross- Industry Standard Process of
Data Mining), Larose (2005). Trata-se de uma metodologia padrão, não proprietária que
se estrutura em torno de tarefas e objetivos para cada fase do projeto de mineração de
dados. A figura 1 apresenta as fases de trabalho da metodologia CRISP-DM.

Figura 1 - Representação da Metodologia CRISP – DM. Fonte: (LAROSE,2005)

De acordo com esta metodologia, a execução de um projeto de mineração de


dados está estruturada em seis fases interdependentes. A saber:
Fase 1 – Entendimento do negócio (Business Understanding) – objetiva
identificar as metas e requisitos de negócio, convertendo-os em uma aplicação
de mineração de dados.
Fase 2 – Entendimento dos dados (Data Understanding) – objetiva determinar
quais são os dados, se estão disponíveis e sua localização, para que se possa
extrair amostras destes e realizar a avaliação do ambiente que eles se encontram.
Fase 3 – Preparação dos dados (Data Preparation) – objetiva realizar
adaptações e transformações dos dados em um formato apropriado, para a
criação de programas de extração, limpeza e transformação dos dados para uso
pelos algoritmos de data mining.
Fase 4 – Modelagem (Modeling) – objetiva criar os modelos explicativos das
necessidades de satisfazer, seleção do (s) algoritmo (s) a ser (em) utilizado (s) no
efetivo processamento do modelo.
Fase 5 – Avaliação (Evaluation) - objetiva verificar se os resultados obtidos
satisfazem aos objetivos do projeto, ou seja, ao final da modelagem, deve-se
avaliar os modelos com a visão do negócio, certificando a não existência de
falhas ou contradições em relação a regra de negócio.

81
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Fase 6 – Implantação (Deployment) – objetiva disponibilizar os resultados do


projeto aos tomadores de decisão. O modelo criado será validado no sentido de
tornar o conhecimento gerado acessível, seja por um software específico ou pela
publicação de relatórios.

4. Resultados Esperados e Contribuições


Como resultados, espera-se que esta proposta possa gerar as seguintes contribuições:

 Extração de conhecimento a partir da mineração de bases de dados


climatológicas;
 Identificação de novas fronteiras agrícolas;
 Proposição modelos de previsão para identificar zonas de risco climático;
 Referências sobre Mineração de Dados no contexto da
Agrometeorologia;
 Promoção de avanços na área de agrometeorologia através da proposição
de modelos de previsão que poderão ser referenciados por publicações
em congressos, e periódicos nacionais e internacionais.
 Trabalho de conclusão de curso; e
 Projetos de pesquisa relacionados a temática elencada neste estudo.

Referencias

Carvalho, L.A.V. Data Mining: A mineração de dados no Marketing, Medicina,


Economia, Engenharia e Administração. 2.ed. São Paulo: Editora Érica, 238p. 2002.
Embrapa. Aquecimento Global e a Nova Geografia da Produção Agrícola no Brasil.
Disponível em www.embrapa.gov.br/publicações/tecnico/aquecimento. São Paulo,
2008.
J. Han e M. Kamber. Data Mining: Concepts na Techiniques. Academic Press, London,
2002
Kimura, H. Administração de riscos em empresas agropecuárias e agroindustriais.
Cadernos de Pesquisa em Administração, São Paulo, v.1, n.7, p.51-61. 1998.
Larose, D.T. Discovering Knowledge in Data: Na Introduction to Data Mining. John
Wiley and Sons, Inc, 2005.
Montgomery, D.C., Desingn and Analysis of Experiments, fifth edition, John Wiley &
Sons, New York, NY 2001.
Shadbolt, N.M.; Olubode-A Wasol, F.; Gray, D; Dooley E. Risk – na opportunity or
threat for entrepreneurial farmers in the global food market? IFAMA – International
Food and Agribusiness Review, v.13, n.4. 2010.

82
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

A Utilização do Conceito de Big Data no Âmbito Educacional


Ayslan H. S. Siqueira, Fernando Selleri Silva

Curso de Ciência da Computação – Universidade do Estado de Mato Grosso


(UNEMAT)
Caixa Postal 92 – 78.390.000 – Mato Grosso – MT – Brazil
ayslan.henryque@gmail.com, selleribr@unemat.br
Abstract. This paper describes the concept of big data and its five dimensions,
explains and illustrates the use of the big data concept in the educational
scope as a tool to aid in decision making in order to get better results in the
teaching-learning process in the education scope.
Resumo. O presente trabalho tem por objetivo descrever o conceito de big
data e as suas cinco dimensões, explanar e exemplificar a utilização do
mesmo no âmbito educacional, como uma ferramenta de auxílio no processo
decisório a fim de obter melhores resultados no processo de ensino-
aprendizagem.

1. Introdução
Decorrente da evolução tecnológica e com aumento da conectividade global, as pessoas
passaram a gerar um enorme volume de dados. Deste grande volume de dados pode se
obter informações valiosas para diversas áreas, tendo assim a necessidade de analisá-los
utilizando uma variedade de ferramentas e técnicas. O conceito de big data já vem sendo
utilizado com sucesso nas atividades de comércio, entretenimento e comunicação
[Manyika et al. 2011]. Cada vez mais a área educacional tem utilizado novas
ferramentas tecnológicas como uma plataforma de apoio no processo de ensino-
aprendizagem e com isso vem gerando um grande volume de dados sobre esse processo.
Este artigo está organizado em cinco seções. A Seção 2 corresponde a metodologia
utilizada. A Seção 3 descreve a fundamentação teórica de big data. A Seção 4 descreve a
utilização do conceito de big data no âmbito educacional. Considerações finais são
descritas na Seção 5.

2. Metodologia
Para o desenvolvimento do presente artigo, foi adotada como metodologia a pesquisa
bibliográfica. Este tipo de pesquisa tem como objetivo conhecer as diferentes
contribuições científicas disponíveis sobre o determinado tema. Marconi e Lakatos
(2008, p. 57) afirmam que: “[…] a pesquisa bibliográfica não é uma mera reprodução do
que já foi escrito sobre um determinado tema, mas propicia o exame de um tema sob
novo enfoque ou abordagem […]”.

3. Big Data
O conceito de big data possui muitas definições e explanações desde a percepção de seu
surgimento. Segundo IBM (2014), big data é um termo utilizado para uma tendência
tecnológica a qual engloba uma série de técnicas e métodos com finalidade de extrair
valor das informações. O conceito de big data é compreendido de melhor forma
considerando as cinco dimensões descritas a seguir – variedade, veracidade, volume,
valor e velocidade, conforme mostra a Figura 1:

83
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Figura 1. As Cinco Dimensões do Big Data [Lajara et al. 2013]


• A dimensão variedade diz respeito a diferentes tipos de dados obtidos de
diversas fontes. Essa variedade de informações com diversas fontes pode ser
transformada em informações com valor como hábitos, modo de consumo e
satisfação das pessoas [Davenport, Barth e Bean 2012].
• A dimensão veracidade diz respeito a assegurar que os dados presentes no
conjunto são autênticos para a análise [Taurion 2012]. Conforme Neves (2014),
torna-se desnecessário lidar com outras dimensões se não houver dados
confiáveis. Tendo assim a necessidade de processos que garantam o máximo
possível de confiança destes dados.
• A dimensão volume é a dimensão que aparece com maior frequência nas
definições do conceito de big data, ocasionalmente pelo grande volume de dados
gerados de forma escalonar nos últimos anos. Segundo Brynjolfsson e Macafee
(2012), em 2012 foram criados diariamente por volta de 2,5 exabytes de dados.
• A dimensão valor, segundo West (2013), está associada ao fato de que o volume
superou a capacidade das ferramentas disponíveis e também das equipes de
extrair total valor dos mesmos. Com isso, é importante para as empresas
conhecer quais são os dados que possuem valor para o seu negócio, conseguindo
assim obter melhores resultados com o big data. Conforme Marchand e Peppard
(2013), a maior evidência do valor ao qual os dados possuem é o contínuo
aumento de investimento em projetos no contexto de big data.
• A dimensão velocidade, segundo Brynjolfsson e Macafee (2012), diz respeito a
velocidade com que os dados são criados. Com isso, ela permite a análise em
tempo real dos dados obtidos, possibilitando maior agilidade, consequentemente,
dando vantagem competitiva para seus gestores.

4. Big Data e o Âmbito Educacional


Analisar grandes volumes de dados pode trazer benefícios, apontar tendências e padrões

84
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

aos quais é possível se aperfeiçoar e inovar em relação as estratégias de ensino e


aprendizagem. O Programa Internacional de Avaliação de Alunos (Program for
International Student Assessment – PISA) é um exemplo de como analisar grandes
volumes de dados pode trazer impactos positivos na educação. O PISA tem analisado
dados de estudantes do ensino médio de diferentes países, incentivando os governos a
compreenderem como a alocação de recursos têm proporcionado melhorias no âmbito
educacional. Por outro lado, com o PISA as instituições de ensino têm a possibilidade de
entender o que as faz diferentes ou semelhantes a outras instituições de ensino em
qualquer parte do mundo e com base nesses dados propor ações inovadoras de melhoria
do ensino [Schleicher 2013].
Para as instituições de ensino obter maior conhecimento sobre o processo de
ensino-aprendizagem é de suma importância, portanto, o conhecimento possibilita que
as mesmas melhorem seus modelos de gestão de ensino-aprendizagem, de avaliação, e
que construam novas práticas de ensino nas quais os gestores discutam mais as políticas
educacionais existentes. A utilização de big data no âmbito educacional através do
incentivo de governos, empresas e universidades pode estabelecer novas tecnologias e
ferramentas as quais darão apoio a uma cultura orientada ao conhecimento, à eficiência
e à aprendizagem adaptativa. Este cenário representa novas experiências de
aprendizagem capazes de melhorar a visão de como os professores ensinam, os
estudantes aprendem e a instituição de ensino funciona.
Segundo Guthrie (2013), o uso de big data pode capturar e analisar um grande
volume de dados os quais são produzidos pelas relações de ensino-aprendizagem. Com
a utilização de ferramentas do conceito de big data pode se coletar informações com
muito mais eficiência, com vários níveis de granularidade, pois os métodos manuais não
são capazes de coletar. A capacidade de processar e extrair informações valiosas
utilizando ferramentas no conceito de big data, trará a possibilidade da comparação de
comportamento de milhares de estudantes, sendo muito importante para gerar
informações sobre o processo de obtenção de conhecimento e quais as dificuldades
inerentes a determinados conteúdos ou estratégias pedagógicas.
Com isso, se o processo avaliativo ocorrer em paralelo com o instrucional, torna-
se possível produzir a tempo informações apropriadas para estabelecer os próximos
estímulos. Portanto, isso criará um ciclo de feedback contínuo, o qual é capaz de operar
em diferentes intervalos de tempo e para diferentes atores. É importante permitir que o
estudante aprenda com maior velocidade para que o professor visualize a evolução de
aprendizagem dos seus alunos e da turma em uma escala de tempo menor,
possibilitando assim planejar estratégias para o próximo encontro. Também é importante
uma base de dados que agregue valor à avaliação dos alunos e das estratégias
pedagógicas em uso estabelecidas, na qual as instituições de ensino construam uma
visão metódica sobre o desempenho dos seus alunos e das estratégias de ensino,
possibilitando assim dispor de informações valiosas para orientar mudanças e melhorias
em grau maior [Scaico, Queiroz e Scaico 2014]. Essas iniciativas contribuem para a
melhoria da qualidade da educação.

5. Considerações Finais
A utilização de big data no âmbito educacional brasileiro pode trazer benefícios
relacionados a auxiliar a atuação de educadores e gestores educacionais em suas
tomadas de decisões permitindo assim crescimento nos ganhos de aprendizagem. As
técnicas de analytics learning e aprendizagem adaptativa atualmente, são os principais

85
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

métodos para plataformas de apoio utilizando do conceito de big data no âmbito


educacional. Conclui-se, que uma pesquisa aprofundada do conceito de big data no
contexto educacional se faz necessária, e pode contribuir tanto com profissionais que
atuam na área de tecnologia da informação, quanto os que atuam no processo de ensino-
apreendizagem.

Referências
Brynjolfsson, E. e Macafee, A. (2012), Big Data – A revolução da Gestão. Harvard
Business Review. Out.
Davenport, T, Barth, P e Bean, R. (2012), How Big Data is different. MIT Sloan
Management Review.
Guthrie, D. (2013), The Coming Big data Education Revolution. Disponível em
http://www.usnews.com/opinion/articles/2013/08/15/why-big-data-not-moocs-
willrevolutionize-education. Acesso: 17 jun. 2015. Não paginado.
IBM. (2014), O que é Big Data. Disponível em
http://www.ibm.com/midmarket/br/pt/infografico_bigdata.html Acesso: 24 jun. 2015.
Não paginado.
Lajara, T. et al. (2013), Investimentos em TI e sua influência no desempenho
organizacional: Através da governança da informação e capacidades de gestão da
informação, moderado pelo big data. In: IV Encontro de Administração da Informação
ENADI, 2013, Rio Grande do Sul. Bento Gonçalves: UFRGS.
Manyika, J. et al. (2011), Big data: The Next Frontier for Innovation, Competition, and
Productivity. McKinsey Global Institute.
Marchand, D. e Peppard, J. (2013), Why IT fumbles analytics. Harvard Business Review.
Jan/feb.
Marconi, M. e Lakatos, E. (2008), Técnicas de pesquisa. São Paulo: Atlas.
Neves, C. (2014), Big Data: uma fonte de poder? Disponível em
http://www.administradores.com.br/artigos/marketing/big-data-uma-fonte-de-
poder/79336/ Acesso: 26 jun. 2015. Não paginado.
Scaico, P., Queiroz, R. e Scaico, A. (2014), O Conceito Big data na Educação. In: XIX
Workshop de Informática na Escola, 9., 2014, São Paulo. 3º Congresso Brasileiro de
Informática na Educação. Campinas: UNICAMP.
Schleicher, A. (2013), Big data and PISA. Disponível em
http://www.huffingtonpost.com/andreas-scheicher/big-data-and-pisa_b_3633558.html.
Acesso: 24 jun. 2015. Não paginado.
Taurion, C. (2012), Você realmente sabe o que é o big data? Blog da IBM, abr. Disponível
em https://www.ibm.com/developerworks/mydeveloperworks/blogs/ctaurion/entry/
voce_realmente_sabe_o_que_e_big_data?lang=en Acesso: 23 jun. 2015. Não paginado.
West, O. (2013), Big Data Insights. Disponível em
http://www.comscore.com/por/Insights/Presentations-and-Whitepapers/2013/Big-Data-
Insights Acesso: 24 jun. 2015. Não paginado.

86
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Regressão Quantílica Intervalar


Yanne Micaele Gomes Soares, Roberta Andrade de Araújo Fagundes

Mestrado Acadêmico em Engenharia da Computação – Escola Politécnica de


Pernambuco – Universidade de Pernambuco.
ymgs@ecomp.poli.br,roberta.fagundes@upe.br

Abstract. This paper proposes two quantile regression models for symbolic
data of the type interval. The predictions of the lower and upper bounds of
new intervals are performed and simulation studies are carried out to validate
these predictions. One application with real-life interval data sets is
considered. In addition, these proposed methods are compared by the
regression methods of the literature symbolic data. The performance of the
methods are measured by the prediction accuracy that is based on the mean
magnitude of relative errors.
Resumo. Este artigo propõe dois modelos de regressão quantílica para dados
simbólicos do tipo intervalo. A predição dos limites inferiores e superiores de
novo intervalo são avaliados e estudos de simulação são realizados para
validar essa predição. Uma aplicação com dados reais do tipo intervalo é
considerada. Em adição, esses métodos propostos são comparados com os
métodos de regressão da literatura de dados simbólicos. O desempenho dos
métodos é medido pela predição de acurácia baseada na magnitude média do
erro relativo.

1. Introdução
A análise de dados simbólicos (ADS) [Bock e Diday, 2000] aborda a extração de
conhecimentos em bases de dados, buscando ampliar os métodos da análise exploratória
de dados e técnicas estatísticas para dados agregados. Os dados simbólicos são
interpretados por variáveis multivaloradas que podem assumir, além de valores
numéricos ou categóricos, um conjunto de categorias, intervalos ou distribuições de
pesos. A importância dessa representação está associada a abrangência de variação e/ou
incerteza na descrição dos dados agregados, otimizando a modelagem do conjunto em
análise.
Em relação aos diversos métodos estatísticos existentes para análise de dados
clássicos, que foram estendidos a dados simbólicos, podem ser citados: estatísticas
descritivas, análise gráfica, análise de cluster, análise de componentes principais, análise
fatorial, árvores de decisão e alguns conceitos iniciais contidos no modelo clássico de
regressão [Billard e Diday, 2000].
Neste contexto, a regressão quantílica é utilizada quando deseja-se obter
estimativas dos diferentes quantis de uma população. Este tipo de regressão possui
algumas vantagens em relação a outros tipos de regressão como, por exemplo: apresenta
maior robustez quando lida com dados extremos (outliers) ao estimar a mediana, pode-
se estimar qualquer quantil da distribuição.

87
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

1.1 Motivação
De acordo com Montgomery et al (2001), a análise de regressão representa uma técnica
estatística capaz de investigar e modelar o relacionamento entre variáveis. Como por
exemplo, um pesquisador poderia estar interessado em saber se a variável idade
influencia e de que forma influencia a variável salário. Neste caso, uma amostra de
pessoas de idades diferentes com seus respectivos salários poderia gerar um ajuste de
um modelo de regressão, que auxiliaria a explicar a relação entre essas duas variáveis.
Desta forma, a regressão linear clássica baseia-se no método dos mínimos
quadrados para estimação dos parâmetros do modelo [Davino et. al, 2013]. Embora esse
método seja mais utilizado, existe algumas limitações que levaram à busca por outros
métodos. Em primeiro lugar, esta metodologia está fortemente associada à distribuição
normal dos erros. Quando os erros estão distribuídos de uma forma assimétrica ou
possuem uma cauda mais pesada que a distribuição normal, então a performance deste
método na estimação de parâmetros é ruim. Em segundo lugar, com relação aos
problemas na utilização do método de mínimos quadrados, onde existe a questão da
influência que outliers exercem nas estimativas dos parâmetros do modelo. Isso faz com
que seja necessário, sempre que se utiliza essa técnica, uma criteriosa avaliação de
quando cada ponto influencia no ajuste do modelo, o que pode atrapalhar na
identificação da verdadeira relação entre as varáveis de interesse.
Nesse contexto teórico, o objetivo desse trabalho proposto é o desenvolvimento
de um modelo de regressão quantílica para dados simbólicos do tipo intervalo.
Considerando duas propostas para estimação dos parâmetros: uso do método dos erros
absolutos ponderados para estimação dos parâmetros da regressão e a utilização de uma
meta-heurística para estimação desses parâmetros. Essa meta-heurística é baseado em
algoritmos de otimização de enxames, uma vez que estes algoritmos realizam uma busca
para o espaço de soluções ótimas.

2.Fundamentação Teórica
Esta seção aborda a fundamentação teórica da metodologia de regressão quantílica,
como também, o conceito de algoritmo de otimização por enxame.

2.1. Regressão Quantílica


O modelo de regressão quantílica surgiu na literatura através do trabalho de Koenker e
Basset (1978), que teve como objetivo a análise de atributos determinantes do aspecto
renda. A ideia destes autores era propor um modelo de regressão capaz de generalizar
os modelos lineares.
Na metodologia proposta por Koenker e Basset (1978), adota-se que yi é uma
variável aleatória real, yi (i = 1, ..., n), que representa uma amostra de observações do
logaritmo dos rendimentos, e que Xi é um vetor K x 1 constituído por variáveis
explicativas. O modelo de regressão quantílica pode ser definido da seguinte forma:

88
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

onde equivale ao vetor de parâmetros, corresponde aos resíduos associados ao


θ-ésimo quantil e representa o θ quantil condicional dado o vetor de
regressores. A regressão quantílica θ pode ser utilizada como a solução o problema
relatado a seguir:

onde é denominado função check, definida por se e


se . À medida que θ aumenta de 0 até 1, toda distribuição
condicional da variável depende é traçada [Bertussi, 2010].
Apesar das vantagens apresentadas por este tipo de regressão, ainda há muito o
que ser explorado, como, por exemplo, sua aplicação na análise de dados simbólicos do
tipo intervalo.

2.2. Algoritmos de otimização baseados em exame


Várias espécies, na natureza, adquirem vantagens da vida em comunidade. Uma vez
que, vivendo em sociedade, possuem mais chances de reprodução, obtenção de
alimentos, proteção contra predadores, entre outros benefícios.
Os algoritmos de otimização baseados em enxame (swarm‐based optimisation
algorithms ‐ SOAs) tentam propor soluções o mais próximo possível do resultado
ótimo. Com base nas observações do comportamento dos indivíduos na natureza e nos
SOAs já desenvolvidos, Karaboga (2005) propôs um algoritmo baseado no
comportamento inteligentes das abelhas em seu habitat natural. Esse algoritmo ficou
conhecido como Algoritmo de Colônia de Abelhas Artificiais (ABC).
Apesar de ser bom em exploração, o ABC traz, em alguns casos, problemas na
velocidade de convergência. Observando esta fragilidade, Nafiseh et al. (2014), propôs,
inspirado na otimização por enxame de partícula, uma modificação no ABC, chamando
o novo modelo de VABC. A modificação realizada utiliza a estratégia de busca do
algoritmo de otimização por enxame de partícula (PSO) para orientar a escolha de
possíveis resultados.
Com base nestas pesquisas, o VABC foi escolhido para estimar os parâmetros
da regressão quantílica que será utilizada para desenvolvimento desta proposta de
pesquisa.

3. Metodologia
Para avaliar os métodos propostos de regressão quantílica para dados simbólicos do tipo
intervalo serão utilizados dados reais e simulados através da implementação na
plataforma R. A base de dados reais disponível no repositório de projetos de software
da NASA[NASA] será utilizada para fazer estimativas de projetos software, como
exemplo, esforço, tempo, tamanho ou custo.

89
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Nessa avaliação serão utilizadas medidas de erro de predição (magnitude média


do erro relativo) para os modelos de regressão quantílica. Essas medidas utilizarão o
método de simulação de Monte Carlo. Testes de hipótese paramétricos e não-
paramétricos serão considerados para comparar os métodos propostos com os existentes
na literatura de dados simbólicos do tipo intervalo. Afim de ratificar a performance dos
modelos propostos.
4. Resultados esperados e contribuições
Com o desenvolvimento desta proposta, pretende-se abrir caminhos para novas
pesquisas na área de regressão quantílica e dados simbólicos. Espera-se, através dos
resultados obtidos, gerar contribuições significativas como:
 Realizar avanços no plano teórico relativo aos métodos de regressão
quantílica na abordagem de dados simbólicos;
 Propor um modelo de regressão quantílica para dados simbólicos do tipo
intervalo através da utilização do método de minimização dos erros absolutos
ponderados para estimação dos parâmetros dessa regressão;
 Propor um modelo de regressão quantílica para dados simbólicos do tipo
intervalo através da utilização da meta-heurística, o algoritmo de otimização de
enxame (VABC), para estimação dos parâmetros dessa regressão;
 Utilizar dos modelos de regressão quantílica intervalar para extrair conceitos
de projetos de software, como por exemplo, estimativas desses projetos.
Referências
Bertussi, G. (2010). “Gastos públicos com infra-estrutura de transporte e crescimento
econômico: uma análise para os estados brasileiros”, Tese (Doutorado em Economia)
– Universidade de Brasília, Brasília.
Billard, L., Diday, E. (2000) “Regression analysis for interval-valued data. Data
Analysis, Classification and Related Methods” (eds H. A. L. Kiers, J. P. Rassoon, P.
J. F. Groenen and M. Schader), Springer, Berlin, 369-374.
Bock, H., Diday, E. (2000) “Analysis of Symbolic Data. Studies in Classification. Data
Analysis and Knowledge Organization”, Springer, Heidelberg.
Davino, C., Furno, M., & VistoccoI, D. (2013). “Quantile Regression: Theory and
Applications”, Wiley.
Karaboga, D. (2005) “An idea based on honey bee swarm for numerical
optimization”,Technical Report-TR06, Erciyes University, Engineering Faculty,
Computer Engineering Department.
Koenker, R; Basset, G. (1978) “Regression Quantiles”, Econometrica. n. 46, No. 1., pp.
33-50.
Nafiseh I., Mohammad Ebrahim S., Parham M. (2014) “Engineering Applications of
Artificial Intelligence”, 36, 148–163.
NASA. “Metrics Data Program”. Disponível em http://mdp.ivv.nasa.gov.
Montgomery, D., Peck, E., e Vining, C. (2001) “Introduction to Linear Regression
Analysis”, Wiley.

90
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Avaliação do Sistema de Inferência Fuzzy da Métrica de


Roteamento Proposta ao OLSR-Fuzzy Cost (OLSR-FC)
Anderson Gusmão C. De Lara1 , Diógenes Antonio Marques José1
1
Faculdade de Ciências Exatas e Tecnológicas-FACET
Universidade do Estado de Mato Grosso-UNEMAT
Caixa Postal 92 – CEP-78390-000 – Barra do Bugres, MT – Brazil
anderglara@gmail.com, dioxfile@unemat.br

Abstract. This article is intended to implement the Fuzzy Inference System


(FIS), proposed to the OLSR-FC, in MATLAB. The purpose of this is to verify
the accuracy of the inference rules and methods of composition and defuzzifica-
tion of FIS in question, since such an assessment was not made in the original
work. The FIS implementation will be made on MATLAB platform, which con-
sists of a high-level language and interactive environment mathematician widely
used by millions of researchers throughout the world. Thus, it will be possible
to verify the accuracy of FIS proposed to OLSR-FC and, if necessary, make the
adjustment of the same.

Resumo. Este artigo tem como finalidade implementar o Sistema de Inferência


Fuzzy (SIF), proposto ao OLSR-FC, no MATLAB. O objetivo disso consiste em
verificar a precisão das regras de inferência e dos métodos de composição e
defuzzificação do SIF em questão, uma vez que essa avaliação não foi feita no
trabalho original. A implementação do SIF será feita na plataforma MATLAB,
que consiste em uma linguagem de alto nı́vel e um ambiente matemático inte-
rativo amplamente utilizado por milhões de pesquisadores em todo o mundo.
Assim, será possı́vel verificar a precisão do SIF proposto ao OLSR-FC e, dessa
forma, caso necessário, fazer o ajuste do mesmo.

1. Introdução
A lógica fuzzy foi criada por Lofti Asker Zadeh e publicada em 1965 através do seu traba-
lho denominado Fuzzy Sets [Zadeh 1965]. Conforme abordado por Zadeh [Zadeh 1965],
as classes de objetos encontrados no mundo real não satisfazem a definição de membros
de forma precisa, por exemplo, no reino animal as classes possuem como membros cães,
cavalos, pássaros, insetos, etc. Entretanto, alguns desses membros como a estrela do mar
e as bactérias possuem um estado ambı́guo dentro da classe de animais. Esta ambiguidade
também é observada em outros conjuntos do mundo real como a classe de jovens, a classe
dos idosos e a classe dos homens altos (i.e., 1,70m pode ser considerado alto para uma
determinada população, mas para alguém que seleciona jogadores de basquete não). Em
função dessa imprecisão utiliza-se no dia-a-dia termos subjetivos tais como: o clima está
”muito quente”, ela precisa emagrecer ”alguns quilos”, desça ”poucos metros” ao longo
desta estrada. Esta imprecisão é o que difere a lógica fuzzy da lógica clássica. Na lógica
clássica um elemento possui apenas dois estados dentro de um conjunto, isto é, ou ele
pertence (1 −→ Verdadeiro) a um conjunto ou ele não pertence (0 −→ Falso), enquanto
que na lógica fuzzy este mesmo elemento pode ter diferentes valores entre [0,1].

91
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Desde sua criação a lógica fuzzy tem sido utilizada na indústria, principalmente no
Japão, paı́s em que se tornou comum. De acordo com Ross [Ross 2010], a lógica fuzzy é
empregada principalmente no ajuste de temperatura e velocidade. Dentre as aplicações da
lógica fuzzy destacam-se: foco automático de câmeras fotográficas; estabilização de ima-
gem em filmadoras; otimização de protocolos de roteamento [Geetha and Ramani 2012],
etc. Independente das aplicações é necessário a utilização de um Sistema de Inferência
Fuzzy (SIF), que consiste em um sistema que se utiliza da lógica fuzzy para mapear
entradas não fuzzy em saı́das. Um SIF é composto pelas seguintes partes (Figura 1):
fuzzificação, fase em que são criados os conceitos linguı́sticos (ex., alto, médio e baixo)
e funções de pertinência (𝜇𝐴 : 𝑈 −→ [0, 1]), que representam o grau de pertinência de
uma variável linguı́stica em um conjunto fuzzy; inferência, fase em que são criadas re-
gras e proposições (ex., Se X é Médio, E Y é Alto, E Z é Baixo ↦→ W é Médio); e
defuzzificação, fase na qual o valor fuzzy é convertido em um número real. Diante das

Figura 1. Sistema de Inferência Fuzzy. Baseado em [José 2014].

inúmeras vantagens da lógica fuzzy, diversos pesquisadores tem utilizado a mesma para
a otimização de redes móveis Ad-Hoc (do inglês, Mobile Ad-Hoc Networks - MANETs)
[P.S.Hiremath and M.Joshi 2012, José 2014]. Estas têm aplicações especı́ficas e diferem
das demais redes por possuı́rem roteamento multisalto, topologia dinâmica, limitação de
energia e nós móveis. Diante do exposto, o objetivo do presente trabalho consiste em
avaliar a acurácia do SIF desenvolvido em [José 2014], uma vez que no trabalho em
questão não se utilizou de nenhuma ferramenta para avaliar a precisão das regras e dos
métodos de composição e defuzzificação. Para tal avaliação será utilizado o MATLAB
[MathWorks 2015], que consiste em uma linguagem de alto nı́vel e em um ambiente inte-
rativo amplamente utilizado por milhões de engenheiros e cientistas em todo o mundo e
possui, entre outros, um módulo que implementa a lógica fuzzy. Dessa forma, o SIF pro-
posto em [José 2014] será modelado no MATLAB de modo que seus resultados possam
ser avaliados e, se necessário, ajustados para serem utilizados como critério de escolha de
nós retransmissores no protocolo OLSR, Multipoint Relays (MPRs). A escolha do MA-
TLAB se deve ao fato do mesmo ser uma ferramenta confiável e consolidada no meio
acadêmico.

92
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

2. Trabalhos Relacionados
Geetha e Ramani [Geetha and Ramani 2012], propuseram um algoritmo que faz a pre-
visão de multicaminhos confiáveis utilizando regras de lógica fuzzy, o mesmo foi base-
ado no protocolo de roteamento OLSR e efetivamente detecta nós maliciosos em MA-
NETs, garantindo uma elevada taxa de entrega de pacotes. O trabalho de Hiremath e
Joshi [P.S.Hiremath and M.Joshi 2012], utiliza a lógica fuzzy no protocolo Ad-Hoc On-
Demand Distance Vector (AODV) com o objetivo de melhorar a eficiência energética, os
resultados mostraram que a proposta é capaz de prover maior tempo de vida à rede, tanto
para pequenas quantidades de nós quanto para altas densidades. O trabalho descrito em
[José 2014], propõe uma extensão ao OLSR denominada OLSR-Fuzzy Cost (OLSR-FC), a
proposta em questão (métrica de roteamento FC) se utiliza de um SIF, composto por sete
regras de inferência, que tem o objetivo de evitar nós egoı́stas, os resultados mostraram
que o OLSR-FC obtém uma baixa taxa de perda de pacotes se comparado às extensões
OLSR-ETX, OLSR-MD e OLSR-ML.

3. Descrição do SIF a ser Avaliado


A presente seção tem como objetivo descrever sucintamente o SIF, proposto em
[José 2014], que será avaliado na presente pesquisa. O SIF em questão foi projetado para
gerar um custo de roteamento em um ambiente MANET (ex., área de 1000𝑚 × 1000𝑚)
com diferentes quantidades de nós. O custo de roteamento é resultado da inferência de
três métricas de desempenho em MANETs que são: taxa de perda de pacotes, energia re-
sidual e ı́ndice de conectividade. Para o cálculo desse custo são utilizadas três funções de
pertinência antecedentes, que indicam o ı́ndice de perda de pacotes (IPP), a energia resi-
dual (ER) e o ı́ndice de conectividade (IC) de um determinado nó na rede. Além disso,
há uma função consequente que representa o custo de encaminhamento para pacotes de
dados na rede. Por exemplo, a Figura 2(a) mostra a curva de pertinência para ı́ndice
de perda de pacotes e a Figura 2(b) apresenta o custo de encaminhamento de pacotes.
Os tipos de curvas utilizadas foram trapezoidais e triangulares em função dessas curvas
representarem melhor a natureza do problema e também por serem as mais eficientes
[Zhao and Bose 2002].

(a) Função de Pertinência IPP (b) Função de Pertinência Custo

Figura 2. Funções de Pertinência. Baseado em [José 2014].

O SIF a ser avaliado foi desenvolvido em C++ e implementado no NS-2 versão


2.34, e possui sete regras de inferência como mostra a Tabela 1. Com relação ao pro-

93
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

cesso de defuzzificação, a Média Ponderada (Equação 1) foi o método escolhido por ser
mais eficiente computacionalmente [Ross 2010]. Já o método de composição utilizado
foi o Máximo dos Mı́nimos (MAX/MIN) (Equação 2), a escolha desse método, segundo
[José 2014], se deve ao fato dele ser amplamente usado na engenharia.
∑︁
𝜇𝐴 𝑥¯.¯
𝑥
𝑧* = ∑︁ . (1)
𝜇𝐴 𝑥¯
𝜇𝐵 ‘𝑖 (𝑦) = 𝑀 𝐴𝑋[𝑀 𝐼𝑁 (𝐷𝑘 , 𝜇𝐵𝑖 (𝑦))], ∀ 𝑦 ∈ 𝑈𝑦𝑗 . (2)

Tabela 1. Regras de Inferência. Baseado em [José 2014]


N° Regras
(1) IF IPP is High ⇒ Fuzzy Cost is High
(2) IF IPP is Medium, AND Residual Energy is High AND Connectivity is ¬Low ⇒ Fuzzy Cost is ¬High
(3) IF IPP is Medium, AND Residual Energy is Medium ⇒ Fuzzy Cost is Medium
(4) IF IPP is ¬High, AND Residual Energy is Low, AND Connectivity is ¬Low ⇒ Fuzzy Cost is Medium
(5) IF IPP is ¬High, AND Residual Energy is Low, AND Connectivity is Low ⇒ Fuzzy Cost is High
(6) IF IPP is Low, AND Residual Energy is ¬Low, AND Connectivity is ¬Low ⇒ Fuzzy Cost is ¬High
(7) IF IPP is Low, AND Residual Energy is ¬Low, AND Connectivity is Low ⇒ Fuzzy Cost is Medium

4. Resultados Esperados
Os resultados esperados com esta pesquisa consistem nas avaliações dos componentes do
SIF (ex., fuzzificação, inferência e defuzzificação) proposto ao OLSR-FC, de modo que o
mesmo possa ser calibrado e, caso necessário, melhorado. Esta avaliação se faz necessária
pois a métrica de roteamento FC será utilizada como critério de escolha de nós MPRs, o
objetivo disso consiste em dar continuidade ao trabalho proposto em [José 2014].

Referências
Geetha, S. and Ramani, D. G. G. (2012). Trust based secure multipath olsr routing proto-
col in manet using fuzzy theory. ACM Proceedings of the Second International Con-
ference on Computational Science, Engineering and Information Technology, pages
120–125.
José, D. A. M. (2014). OLSR Fuzzy Cost (OLSR-FC): uma extensão ao protocolo OLSR
baseada em lógica Fuzzy e aplicada à prevenção de nós egoı́stas. Master’s thesis,
Universidade Federal de Goiás-UFG, Instituto de Informática-INF, Brasil.
MathWorks (2015). Matlab. http://www.mathworks.com/products/
matlab/. Acessado em 8 de outubro de 2015.
P.S.Hiremath and M.Joshi, S. (2012). Energy efficient routing protocol with adaptive
fuzzy threshold energy for manets. International Journal of Computer Networks and
Wireless Communications-IJCNWC, 2(3):402–407.
Ross, T. J. (2010). Fuzzy Logic With Engineering Applications. Jhon Wiley & Sons ltd.,
USA, 3th edition.
Zadeh, L. A. (1965). Fuzzy Sets*. Information and Control, 8:338–353.
Zhao, J. and Bose, B. K. (2002). Evaluation of Membership Function for Fuzzy Logic
Controlled Induction Motor Drive. IECON 02, IEEE 2002 28th Annual Conference,
Volume:1, 1:229–234.

94
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Propriedade de Bens Virtuais


Jaqueline R. Oliveira¹, Raquel S. V. Coelho²
1
Departamento de Ciência da Computação – Universidade Estadual de Mato Grosso
(UNEMAT)
Caixa Postal 78390-000 – Barra do Bugres – MT – Brasil
jakeerodrigues@hotmail.com, raquelsvcoelho@gmail.com

Abstract. This article aims at defining what are virtual goods, as well as
discuss them, their usefulness and where they can be purchased, including
forms of e-commerce and security forms that can be used to prevent misuse of
information or assets are they virtual or tangible.

Resumo. Este artigo tem por meta definir o que são bens virtuais, bem como
discorrer sobre eles, sua utilidade e onde podem ser adquiridos, abrangendo
as formas de comércio virtual e as formas de segurança que podem ser usadas
para evitar desvio de informações ou de bens sejam eles virtuais ou tangíveis.

1. Introdução
Com o crescimento da tecnologia que se tem disposição, uma série de meios de
comunicação e entretenimento foram criados. Assim surgiram os jogos, que deram uma
nova perspectiva em relação aos bens adquiridos, o que antes eram apenas bens
materiais (algo palpável) hoje foi dividido em outra categoria chamada, bens imateriais
(aquele a que só se tem acesso por meio virtual).
Bens virtuais são objetos não físicos adquiridos para a utilização em
comunidades ou jogos online. Eles não têm valor definido e são intangíveis, sendo eles,
armas, presentes digitais, roupas digitais para Avatares, entre outros. Os itens são
geralmente fornecidos por empresas que operam redes sociais, sites de comunidade ou
jogos online. Esses elementos formados por pixels que vinculam valores capitais para a
sua aquisição, são caracterizados como Bens Virtuais (REBS, [2010?]).
O fato de que os bens adquiridos são imateriais fixando-se somente dentro do
mundo virtual torna-se um problema a mais, pois deixa mais complexa a busca por seus
direitos no mundo real, o Brasil, por exemplo, não possui leis que assegurem a
propriedade desses bens adquiridos. O presente trabalho pretende levar ao público a
compreensão do que são tais bens e quais são as garantias que cada usuário tem sobre os
mesmos.

2. Bens virtuais
Bens virtuais podem ser definidos como:
Elementos que somente existem no contexto de uma única aplicação, em
contraste com bens digitais, como: música ou filmes. Os bens virtuais (ou
"virtual goods") são efêmeros, no sentido em que existem apenas em um
universo ou cenário fictício. Alguns exemplos são: armas, habilidades, naves
e outros equipamentos virtuais. (SAMPAIO; RODRIGUES, 2012, p. 23)

95
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Outro tipo de Bem Virtual são os adquiridos em jogos, resume-se ao fato em que
o jogador assume um personagem em um mundo virtual onde se desenvolve a trama do
game, este personagem é chamado de Avatar ao qual tem tarefas a cumprir em seu
mundo virtual, e a cada trabalho realizado o mesmo evolui adquirindo assim novas
habilidades. E muitos dos jogadores recorrem a um meio mais fácil para atingirem seus
objetivos, compram com dinheiro real em sites especializados um Avatar evoluído ou os
objetos de seu interesse, necessários para que o jogador possa assim alcançar outro nível
de evolução. (VERSIGNASSI; SURCIN 2007 apud FRANCO, 2012, p. 23).

3. Transações virtuais
Assim como o comércio dentro dos jogos são executados por meio virtual também
existem os outros tipos de comércio feitos também somente em meio virtual que
segundo (ALMEIDA, 2007) são:
 B2C - Empresa-a-consumidor (Business to Consumer): Comércio
eletrônico do tipo B2C é basicamente um tipo de transação comercial em
que o comprador é uma pessoa física que, a partir de um computador
pessoal, realiza suas buscas e adquire um produto ou serviço através da
Internet.
 C2C – Consumidor-a-consumidor (Consumer to Consumer): Dentre as
categorias de comércio eletrônico há, ainda o (C2C), uma importante
estratégia de negócios, onde os comerciantes podem comprar e vender
entre si em um processo de leilão. Assim como é feito tradicionalmente
onde um produto é ofertado, e que posteriormente será vendido para
quem der o maior lance.
As outras duas formas existentes de comércio eletrônico são: B2B Business to
Business (C2B), Consumer to Business e (B2G) Business to Government.
Em ambas as formas, no comércio eletrônico ou e-ecommerce a forma de
negociação será online, o cliente irá escolher o seu produto a partir do que é ofertado e
efetuará o pagamento, aguardando pela entrega do produto ou serviço.

4. Direito eletrônico
Diferente do que se pode imaginar o Direito eletrônico ainda não é uma área
completamente reconhecida do direito, o que se defende é que o mesmo ainda não é
aceito por alguns estudiosos que não compreendem a necessidade da criação de um
ramo independente do direito, ou seja, entendemos o direito Informático como sendo
“Um ramo do direito que consiste no estudo do conjunto de normas, aplicações,
processos, relações jurídicas, doutrina, jurisprudência, que surgem como consequência
da utilização e desenvolvimento da informática”. (PAIVA, 2014)
O conhecimento desta só nos leva a crer que em virtude do ambiente virtual ser
diferente, e tendo em vista que as relações implicadas nesta tem uma série de novos
mecanismos, a legislação em sua maioria não pode resolver suficientemente as
pendências envolvendo interesses conflitantes. É necessário que se demonstre uma
regulamentação sobre a matéria de Direito Eletrônico, ou seja, romper com o

96
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

tradicionalismo do direito legislativo que não oferece a solução adequada para os


problemas que hoje são enfrentados. (PAIVA, 2014)
Quando se trata de posse e propriedade, seria impossível tratar de um “bem” sem
que o outro esteja diretamente ligado, devido há relação estreita que existe entre ambos,
porém cada um possuindo a sua natureza jurídica própria. (BARBOSA, 2011)
Art. 1.196. Considera-se possuidor todo aquele que tem de fato o exercício,
pleno ou não, de algum dos poderes inerentes à propriedade.
Art. 1.228. O proprietário tem a faculdade de usar, gozar e dispor da coisa, e
o direito de reavê-la do poder de quem quer que injustamente a possua ou
detenha.
Art. 1.379. O exercício incontestado e contínuo de uma servidão aparente,
por dez anos, nos termos do art. 1.242, autoriza o interessado a registrá-la em
seu nome no Registro de Imóveis, valendo-lhe como título a sentença que
julgar consumado a usucapião. Parágrafo único. Se o possuidor não tiver
título, o prazo da usucapião será de vinte anos. (CÓDIGO CIVIL
BRASILEIRO, 2002 apud BARBOSA, 2011)
Segundo (NATARELLI, [2010?], p. 2) Com o avanço da internet houve um
aumento considerável nas formas e possibilidades de se cometerem crimes como
fraudes e estelionatos.
As características técnicas das redes eletrônicas abertas favorecem a prática
de ilícitos e, por causa disso, as pessoas não se sentem totalmente seguras em
realizar negócios por meio delas. A par da segurança técnica, existe ainda
outro obstáculo ao pleno desenvolvimento do comércio eletrônico, que é a
falta de uma infraestrutura legal suficiente para à garantia da realização dos
direitos e deveres dos partícipes do comércio eletrônico. (NATARELLI,
[2010?], p. 2).
Assim sendo, as leis em vigor não são suficientes a oferecer respostas a todas as
necessidades do consumidor neste cenário de possibilidades ilimitadas. (NATARELLI,
[2010?], p. 2)

5. Metodologia
Neste trabalho, será utilizada a pesquisa bibliográfica, esse tipo de pesquisa é
importante, pois ”praticamente todo o conhecimento humano pode ser encontrado nos
livros ou em outros impressos que se encontram nas bibliotecas”. (CERVO, 1996, p.
68).
Outro método aplicado para obter os dados será a pesquisa exploratória onde
(GIL 1999, p. 46 apud LEITES, 2011, p. 3) afirma que, “embora as pesquisas
geralmente apontem para objetivos específicos, estas podem ser classificadas em três
grupos: estudos exploratórios, descritivos e explicativos.” Dessa forma, este tipo de
estudo visa proporcionar um maior conhecimento para o pesquisador acerca do assunto,
a fim de que esse possa formular problemas mais precisos ou criar hipóteses que possam
ser pesquisadas por estudos posteriores.

6. Resultados esperados

97
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X

Quando essas negociações ocorrem em redes sociais por exemplo, estabelecesse uma
relação de confiança, ou seja, não se tem certeza de que a pessoa com a qual está
negociando é realmente quem diz ser.
Dessa forma busca-se cada vez mais o desenvolvimento de mecanismos com a
qual a pessoa pode ser identificada presencialmente podendo ser atribuída a ela uma
mídia assinatura digital, criptografia, certificado digital entre outros métodos, podendo
ser realizadas transações comerciais no mundo virtuais ou contratos e essa pessoa estará
segura de que foi identificada.

7. Referências
ALMEIDA JUNIOR, Edson. e-Commerce: Comércio Eletrônico. [Artigo] 2007.
Disponível em:
<http://www.consulting.com.br/edsonalmeidajunior/admin/downloads/comercioeletr
onico.pdf>. Acesso em: 12 nov. 2014. Não paginado.
BARBOSA, Felipe. Propriedade Virtual. [Revista online], 2011. Disponível em:
<http://idireitofbv.wikidot.com/propriedade-virtual>. Acesso em: 14 nov. 2014. Não
paginado.
CERVO, Amado Luiz; BERVIAN, Pedro Alcino. Metodología Científica. São Paulo:
Makron. 1996.
FRANCO, Marcos. Grana online. [Revista Super edição nº 238, editora Abril]. 2012.
Disponível em: <http://super.abril.com.br/tecnologia/grana-online-446899.shtml>.
Não paginado.
GIL, A.C. Métodos e técnicas de pesquisa social. São Paulo: Atlas, 1999.
NATARELLI, T. V. P.; ARNOLDI, P. R. C. Compras on-line e segurança jurídica:
Garantias ao consumidor nas transações eletrônicas. [2010?]. Disponível em:
<http://periodicos.franca.unesp.br/index.php/cardernopesquisa/article/view/195>
Acessado em: 15 Ago. 2015
PAIVA, Mário, Direito Eletrônico. 2014. [Revista Online], Disponível em:
<http://www.ambito-
juridico.com.br/site/index.php?n_link=revista_artigos_leitura&artigo_id=4839>.
Acesso em: 20 out. 2014. Não paginado.
REBS, Rebeca. A cultura como configuradora de identidades nos Social games.
[Artigo], 2013. Disponível em: <http://cascavel.ufsm.br/revistas/ojs-
2.2.2/index.php/animus/article/viewFile/9769/pdf> Acesso em: 31 out. 2014.
REBS, Rebeca. Lugares de apropriação em social games. [Artigo], [2010?]
Disponível em: <http://www.rebs.com.br/?tag=bens-virtuais>. Acesso em: 15 out.
2014.
SAMPAIO, Cleuton; RODRIGUES, Francisco, Mobile Game Jam, [Livro], 2012.
Disponível em:
<http://books.google.com.br/books?id=Uo8kataP6o0C&pg=PA23&dq=bens+virtuai
s&hl=pt-
BR&sa=X&ei=DlV_VP6gFcufgwTfgYLYAQ&ved=0CBwQ6AEwAA#v=onepage
&q=bens%20virtuais&f=false> . Acesso em: 13 nov. 2014.

98

Você também pode gostar