Escolar Documentos
Profissional Documentos
Cultura Documentos
Anais Cat I 2015
Anais Cat I 2015
Acadêmico de Tecnologia e
Informática (CATI 2015)
9 a 13 de novembro de 2015
Curso de Ciência da Computação - FACET
UNEMAT - Barra do Bugres
Anais do 7º Congresso Acadêmico de Tecnologia e
Informática (CATI 2015)
9 a 13 de novembro de 2015
Curso de Ciência da Computação - FACET
UNEMAT - Barra do Bugres
Este trabalho foi realizado com apoio da Chamada MCTI/CNPq Nº 09/2015 - Auxílio Promoção de
Eventos Científicos, Tecnológicos e/ou de Inovação - ARC, Processo nº. 441644/2015-5, do Conselho
Nacional de Desenvolvimento Científico e Tecnológico - CNPq - Brasil
Realização:
Apoio:
ISSN 2448-119X
(Online: http://bbg.unemat.br/publicacoes/index.php/anaiscati)
9 a 13 de novembro de 2015
Barra do Bugres - MT
© 2015. Centro Acadêmico de Ciência da Computação (CACC) e
Universidade do Estado de Mato Grosso (UNEMAT).
Publicação elaborada com fins educativos. ACESSO GRATUITO. Permissão para fazer
cópias impressas ou digitais de todo ou parte desta publicação para uso pessoal ou
acadêmico sem taxas, desde que as cópias não sejam feitas ou distribuídas para renda ou
vantagem comercial e que as cópias contenham referência a esta publicação.
___________________________________________
Contato
Pedro Taques
Governador
Carlos Fávaro
Vice-Governador
Luzia Helena Trovo Marques de Souza
Secretária de Estado de Ciência, Tecnologia e Inovação
Lucia Braga Sousa
Superintendente de Desenvolvimento Científico, Tecnológico e de Inovação
Antônio Carlos Maximo
Presidente da Fundação de Amparo à Pesquisa do Estado de Mato Grosso
Julio Florindo
Prefeito
João Alves dos Santos
Vice-Prefeito
Rudiney Linhares
Secretário Municipal de Finanças
Ivone Rocha
Secretária Municipal de Educação, Cultura e Esportes
Viviane Ribeiro da Silva
Secretária Municipal de Desenvolvimento Econômico e Turismo
Vanderson Vitor da Silva
Presidente da Câmara Municipal de Vereadores
7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
Coordenação
Roniffer Samuel Soares Ribeiro de Oliveira
Fernando Selleri Silva
Elias Antonio Morgan
Comissão Organizadora
Andrews Fanchini Melo
Ayslan Henryque Sales Siqueira
Bruno de Souza
Diógenes Antonio Marques José
Douglas Teles de Oliveira
Edimar Soares de Oliveira
Fagner Roger Pereira Couto
Frank Oliveira Lopes de Morais
Gustavo Prado Nunes
Jessica Karoline França de Lira
Jessika Carla de Aguiar Oliveira
João Victor Ricardo de Souza
João Vitor Rodrigues Alves
Jonatan William Pereira Fernandes
José Fernandes Torres da Cunha
Julio Cesar de Camargo Junior
Karla Bomfim Castilho
Laercio da Silva Santos
Leandro Santos Passos
Leonardo Mantovani Kneip Rezende
Luan Felipe dos Santos da Silva
Luan Lino Madalena
Luane Caroline Aquino Cavalcanti
Luciano Zamperetti Wolski
Marcos Lucas Pereira
Mateus Macorini Alves
Mateus Vicente Santos da Silva
Nielsen Cassiano Simões
Priscila Larissa da Silva Antunes dos Santos
Raquel da Silva Vieira Coelho
Renato Rodrigues dos Santos
Rodrigo Fernando Shimazu
Sharles Magdiel Cardoso Araujo
Silvio Almeida da Silva
Thalita Medeiros Dolce
Victor Bitencourt de Oliveira
Wanderson Santander de Araujo
Weder Henrique Rodrigues da Silva
Apoio Técnico e Logístico
Frank Willian Rodrigues da Silva
João Flávio Cordeiro da Silva
João Milani Junior
Marcos Antonio Guerra
Thiago H. de B. Guedes
Tópicos de Interesse
Os principais tópicos que norteiam as submissões ao CATI estão sintetizados da seguinte
forma, não se restringindo a eles:
Algoritmos e Otimização;
Arquitetura de Computadores;
Avaliação de Desempenho;
Banco de Dados;
Bioinformática;
Computação Aplicada à Saúde;
Computação Gráfica e Processamento de Imagens;
Computação Ubíqua e Pervasiva;
Engenharia de Software;
Geoprocessamento;
Gestão do Conhecimento;
Governança e Empreendedorismo;
Informática na Educação;
Inteligência Computacional;
Interação Humano-Computador;
Jogos e Entretenimento Digital;
Linguagens de Programação;
Matemática e Física Computacional;
Redes de Computadores e Sistemas Distribuídos;
Redes Sociais;
Robótica e Sistemas Digitais;
Segurança da Informação;
Sistemas de Informação;
Sistemas Embarcados e Móveis;
Sistemas Multimídia e Web;
Telecomunicações.
Apresentação
Artigos Completos
Abstract. In this study, the students' perception towards learning the English
language is measured, aiming investigate the level of knowledge of students.
The study was conducted in 132 technical course students in IFTO. According
to the survey results, students understand the importance of learning the
English language, mainly because it provides better job opportunities. They
understand that the education provided is insufficient and argue as reasons
the techniques used and the few weekly classes. The work showed that young
people are adept at WhatsApp application and those who have not would like
to experience it as a supplementary tool in teaching.
1. Introdução
Na sociedade de hoje, o saber outras línguas institui uma exigência, principalmente nas
áreas tecnológicas onde não é mais possível fazer parte de um universo altamente
tecnológico e não deter habilidades no idioma inglês [Tavares 2010]. O domínio da
língua vai muito além de ser apenas um instrumento de comunicação. A razão disto é
que as línguas refletem heranças culturais das culturas. Quanto mais cedo um ensino de
língua estrangeira começar nas escolas, a aprendizagem tende a ser mais fácil e
permanente [Yazdanpanah, Sahragard e Rahimi 2010]. De acordo com Bayhan e Artan
(2004), nas residências onde dois idiomas diferentes são explorados, pode-se
compreender ambos os idiomas. Macrory (2006) observou também que ambos podem
ser aprimorados ao mesmo tempo.
A língua estrangeira oferecida habitualmente nos cursos técnicos e tecnológicos
é o Inglês Técnico, através de uma abordagem instrumental da língua. É também
conhecido como Inglês para Fins Específicos ou em inglês, English for Specific
Purposes (ESP) e tem como objetivo principal capacitar o aluno, num período
1
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
2. Material e Métodos
A amostra do presente estudo foi constituída por 132 escolares voluntários do Curso
Técnico Subsequente de Informática para Internet do Instituto Federal do Tocantins
(IFTO) do campus Araguaína. A investigação empregou um questionário preparado
pelo pesquisador, baseado na pesquisa realizada por Gomleksiz (2004), objetivando
determinar e documentar as percepções e perspectivas dos participantes sobre o atual
ensino do idioma inglês. O questionário consistia de duas seções de múltiplas escolhas:
a primeira, para descobrir suas atitudes, percepções e perspectivas sobre o ensino atual;
e na outra para obter as opiniões ou comentários gerais sobre a utilização do recurso
previsto para fins de ensino. As perguntas foram distribuídas on-line e a pesquisa foi
conduzida em período de aproximadamente 35 dias.
Propendendo analisar e aferir a fidedignidade do questionário aplicado no estudo
foi empregado o coeficiente alfa de Cronbach [Cronbach 1951]. Ele mede o
encadeamento entre respostas de um questionário através da análise do perfil das
respostas dadas pelos respondentes [Hora, Monteiro e Arica 2010]. A correlação média
existente entre as perguntas adentro do coeficiente alfa de Cronbach permaneceram
superiores a 0,88.
A apreciação dos dados foi concretizada empregando todos os dados coletados
em escala. Depois de analisar os dados angariados a partir do questionador empregando
porcentagens com a utilização do programa SPSS [SPSS 1996], aonde foram utilizadas
frequência e técnicas de análise estatística.
2
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
3. Resultados e Discussão
Seguem-se algumas tabelas a respeito das respostas dos estudantes para a presente
pesquisa. Na Tabela 1, por exemplo, demonstra que 67% dos escolares concordam
inteiramente na necessidade e importância do aprendizado do idioma inglês, 29%
concordam, 3% são indiferentes e apenas 1% discorda. Devido a decorrente disciplina
ser da área tecnológica existe um consenso do seu coeficiente de importância curricular.
Tabela 1. Importância de aprender a língua inglesa
Como podem ser observadas na Tabela 3, 50% dos discentes apontam a respeito
da competência do ensino da língua inglesa praticado no instituto como sendo
insatisfatório (33% muito insuficiente, 17% pouco suficiente). Os restantes dos alunos
acham parcialmente ou suficiente.
Tabela 3. Grau de Suficiência no Ensino do Inglês
3
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
A Tabela 7 nos permite observar que 36% dos educandos adquiriram um bom
nível de entendimento do inglês no curso, mas não conseguem uma comunicação
somente pelo ensino praticado na instituição, por outro lado, 31% dominam a tradução
de publicações profissionais por meio de dicionário. Devido à preferência de o inglês
instrumental ser adotado como disciplina, onde o enfoque maior é a compreensão da
escrita, nota-se uma insatisfação dos discentes ao não contrair habilidades de fluência na
comunicação.
Tabela 7. Atual nível de habilidades do idioma Inglês
4
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Perguntados sobre como o ensino poderia ser aprimorado para uma melhor
absorção por parte do aluno, os resultados podem ser visto na Tabela 8, onde
aproximadamente 42% acreditam que o curso deveria salientar as habilidades de
comunicação do idioma inglês, semelhante ao mostrado na Tabela7. Do mesmo modo,
aproximadamente 40% deles acreditam que deveria focar mais na tradução e leitura de
textos, 10% nos estudos básicos de gramática e 8% afirmaram que é necessário se
concentrar somente na escrita. Ressalva-se que as pretensões não se restringem em
traduções de textos técnicos, os estudantes ambicionam o domínio na fala e
entendimento em diversos textos seja literário ou não.
Tabela 8. Opiniões sobre como deveria ser ensinado
Evidências das entrevistas foi corroborada com uma pesquisa secundária para
compreender as percepções de estudantes com o uso do aplicativo WhatsApp -
aplicativo escolhido para o desenvolvimento desta proposta. Um segundo questionário
foi elaborado com base em uma escala de Likert [Bond e Fox 2001] para determinar: a
usabilidade e facilidade de uso, a participação nos alunos e aptidão para resolução de
problemas de forma colaborativa, para provocar reflexão profunda, criação colaborativa
de conhecimento e sua complementação de práticas de aprendizagem em sala de aula.
Rambe (2012) sugere que a integração de práticas sociais, dispositivos e
plataformas (telefônica celular, mensagens curtas de textos, redes sociais) proporcionam
convenções que potencialmente afetam a aprendizagem significativa dos alunos.
O WhatsApp Messenger constituiu como ferramenta indicada devido ao fato de
ser um aplicativo multi-plataforma de smartphones que emprega através da internet para
conectá-los com comunidades ou grupos [WhatsApp 2010]. Possibilita a troca de textos
em vários formatos, mensagens através de grupos, mensagens ilimitadas usando dados
existentes na internet, acoplamentos de plataforma cruzada e mensagens offline
[WhatsApp 2014].
Fato interessante na escolha do aplicativo em questão é modo de despertar nos
indivíduos a criação de conteúdo, o compartilhamento e a eficácia de conexões pessoais.
Sobretudo, proporcionando a confiança na integração e interação dos estudantes mais
introvertidos em espaços menos intimidantes, hegemônicos que interromperam uma
comunicação transparente [Jenkins 2010].
5
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
4. Conclusões
Esta pesquisa demonstrou que este grupo de discentes do IFTO é um exemplo de como
estão abertos e preocupados com o quanto podem se beneficiar dos recursos disponíveis
da internet, enquanto estudam o idioma inglês. A maioria dos estudantes técnicos
acredita na necessidade de conhecer e aprender a língua inglesa, principalmente pela
capacidade de proporcionar uma oportunidade de encontrar um trabalho mais
facilmente. E o ensino insatisfatório na escola é creditado aos métodos e técnicas
utilizadas, bem como e pela baixa quantidade de horas aulas semanal. O emprego de
ferramentas tecnológicas aspira minimizar esse quadro indesejável.
Quanto aos docentes, os mesmos precisam responder ao desafio de se engajar no
ensino de línguas assistida por computador ou dispositivos móveis, o que de acordo com
a Lee (2000) demanda uma grande quantidade de tempo e compromisso. Conforme os
resultados encontrados na pesquisa, os alunos são partidários a inclusão de ferramentas
que venham a melhorar o aprendizado em sala de aula. Trabalhos futuros buscarão
analisar na prática o aprendizado com o abarcamento do aplicativo sugerido.
Referências
Bayhan, P. e Artan, I. (2004). Child development and education. Ankara: Morpa
Culture.
Bond, T. G. e Fox, C. M. (2013). Applying the Rasch model: Fundamental measurement
in the human sciences. Psychology Press.
6
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
7
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1. Introdução
Jogos digitais conquistaram um espaço importante na vida de crianças, jovens e adultos,
desprendendo longos períodos de tempo compenetrados nos desafios e fantasias destes
artefatos, [Savi e Ulbricht 2008]. O estudo em torno da relação entre os jogos
eletrônicos e a aprendizagem não é uma novidade, e têm seu início em meados da
década de oitenta, Greenfield (1988), sendo um dos primeiros trabalhos a analisar o
desenvolvimento do raciocínio na era da eletrônica.
Jogos digitais outrora vistos apenas como forma de entretenimento, podem ser
empregados como ferramentas poderosas no processo de ensino-aprendizagem [Silva
Neto et al. 2013]. Onde se aproveita do lúdico, da emoção da vitória e da superação de
desafios para tonar o aprendizado uma atividade mais atrativa e prazerosa, contribuindo
no aprendizado dos estudantes nas mais variadas áreas do conhecimento.
O trabalho descrito foi desenvolvido na disciplina de Jogos e Entretenimento
Digital do 8º semestre do curso de Ciência da Computação, objetivou-se desenvolver
um console de games portátil em placa de circuito impresso, microcontrolado e dotado
de interfaces audiovisuais interativas e de jogos com o enfoque no desenvolvimento
intelectual do jogador. Este protótipo vem somar a iniciativas como Gamebuino,
console portátil baseado na plataforma Arduino que visa a popularização do
desenvolvimento de jogos por curiosos das áreas de eletrônica e programação.
8
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
2. Materiais e Métodos
2.1. Dispositivo
O dispositivo desenvolvido possui como interface visual um display LCD de duas
linhas por dezesseis colunas, a escolha deste display se deve a sua flexibilidade de uso,
ampla utilização em projetos microcontrolados, permitir uma boa visualização das
mensagens em tela, boa relação custo/tamanho de tela, e o baixo consumo energético.
Como interface de áudio foi empregado um speaker piezoelétrico para a emissão de
pequenos avisos sonoros e para a interface de interações do usuário foi construído um
teclado com cinco chaves tácteis de funções mutáveis.
9
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
10
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
2.3. Funcionamento
Ao ligar o dispositivo é apresentado ao jogador uma tela questionando-o se gostaria que
fossem reproduzidos sons ou não, (Figura 4 - 1), a escolha se dá quando pressionados
uma das teclas marcadas, 1 - Sim e 2 - Não. A tela de apresentação é então exibida ao
jogador (Figura 4 - 2) e seguida pela tela do menu principal (Figura 4 - 3). A navegação
se dá pressionando uma das teclas mais à esquerda (1 ou 2) ou mais à direita (4 ou 5) e a
escolha pressionando a tecla central (3), neste momento é apresentado a tela de abertura
do jogo selecionado seguida pela tela de menu do jogo, composta por três opções: 1
Objetivo, 2 Jogar e 3 Sair, (Figura 4 - 4), ao pressionar 1 é apestado o objetivo do jogo e
suas características, pressionando 2 iniciasse o jogo e 3 volta ao menu principal
permitindo a escolha de outro jogo.
11
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
operação deve ser empregada a equação. A complexidade dos cálculos varia à medida
que o jogador vai acertando, e a meta é acertar o maior número de equações possível.
As habilidades exercitadas neste jogo são usadas constantemente em nosso
cotidiano, como por exemplo, ao conferir o troco de uma compra efetuada ou quando
precisamos calcular algo e sem ter uma calculadora a mão, sendo a principal vantagem
ao jogador o fato de poder exercitar o raciocínio matemático em vários níveis, e com a
pratica poderá efetuar cálculos complexos mentalmente com grande facilidade.
A tela inicial do jogo é apresentada na Figura 5 - 1 quando o jogador escolhe o
jogo Matemágica, na Figura 5 - 2 é apresentado a tela do jogo em si, na linha superior é
indicado o escore do jogador e o número de erros, uma unidade para cada acerto ou
erro, na segunda linha é apresentada a equação cuja a operação deve ser escolhida a
manter a igualdade, nas Figuras 5 - 3 e 5 - 4 são apresentadas as telas de acerto e erro
respectivamente, na Figura 5 - 5 é apresentado a tela de uma possível solução a
equação proposta e na Figura 5 – 6 é apresentado a tela de fim de jogo, que acorre
quando o jogador erra cinco vezes o pressiona a tecla EXIT.
Figura 5. 1 Tela inicial Matemágica, 2 Tela do jogo com uma equação exemplo,
3 Tela de acerto, 4 Tela de erro, 5 Tela de possível solução e 6 Tela de fim de
jogo exibindo a pontuação obtida.
12
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
3. Resultados e discussão
Com o surgimento das novas tecnologias, sua popularização e mudanças nos
paradigmas pedagógicos, abrem novas oportunidades de desenvolvimento no âmbito
computacional, onde os jogos tidos inicialmente como apenas distrações se mostram
poderosas ferramentas no auxilio ao ensino-aprendizagem, se tornando um mecanismo
complementar na construção e fixação de conceitos desenvolvidos em sala de aula, bem
como num recurso motivador tanto para o professor como para o estudante. [Tarouco et
al. 2004].
O dispositivo desenvolvido apresentou bom funcionamento, onde uma bateria
nova permitiu o desenvolvimento do dispositivo (fases de prototipagem e de testes), e
durante o manuseio dos jogadores, ao todo somando três semanas de uso. Com a
utilização por parte dos usuários foi possível obter um feedback do dispositivo e dos
jogos desenvolvidos, que propiciaram melhorias complementando o desenvolvimento.
13
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Foi possível notar ainda um grande interesse por parte dos jogadores com
relação ao desenvolvimento do dispositivo, despertando a curiosidade e o interesse
sobre do que é feito, como foi feito, quais conhecimentos foram necessários para o
desenvolvimento e outras mais, desta forma evidenciando a influencia que estas novas
tecnologias exercem sobre crianças e adultos.
4. Considerações finais
São várias as possibilidades de estudo tendo por base o trabalho desenvolvido, como por
exemplo avaliar o seu emprego em escolas e colégios analisando o interesse dos
estudantes e as melhorias obtidas no desempenho dos estudantes por meio de sua
utilização atuando de forma integrada aos conteúdos vistos em sala.
Sob a perspectiva de desenvolvimento, outra possibilidade de estudo seria a
otimização do hardware desenvolvido, criando um protótipo visualmente mais atrativo e
mais ergonômico. Existe ainda a possibilidade dos próprios estudantes estarem
desenvolvendo outros jogos que utilizem dos conhecimentos vistos em sala.
O projeto desenvolvido possibilita a conexão a diversos aspectos relacionados a
jogos digitais em um contexto educacional, permeando as diversas áreas do
conhecimento humano, contribuindo para o desenvolvimento intelectual dos estudantes.
Desta forma pode-se notar ao termino da execução que o projeto obteve êxito em sua
execução, atingindo o objetivo inicialmente firmado e tendo como retorno além de um
sistema funcional a possibilidade de contribuir com inovação o desenvolvimento
regional.
Referências
Corteletti, D. Introdução à programação de microcontroladores Microchip PIC. SENAI-
RS, Centro Tecnológico de Mecatrônica, 2006. Disponível em: <
http://www.adororobotica.com/sbrt-dossie51.pdf >. Acesso em: 31 de out. de 2015.
Freitas, C. C. S., Figueiredo, D. A., Dnapoli, B., e Farias, C. Desenvolvimento de
Protótipo Didático de Baixo Custo para Monitorar Temperatura. 2010. Disponível
em: <
http://www.researchgate.net/profile/Brehme_De_Mesquita2/publication/236679734_
DESENVOLVIMENTO_DE_PROTTIPO_DIDTICO_DE_BAIXO_CUSTO_PARA
_MONITORAR_TEMPERATURA/links/00b49518eaf7e09f46000000.pdf >. Acesso
em: 31 de out. de 2015.
Greenfield, P. M. O desenvolvimento do raciocínio na era da eletrônica. Vol. 32.
Summus Editorial, São Paulo, 1988. < https://books.google.com.br/books?hl=pt-
BR&lr=&id=04pkPfTxgUoC&oi=fnd&pg=PA11&dq=O+desenvolvimento+do+raci
oc%C3%ADnio+na++era+da+eletr%C3%B4nica&ots=QM9hhQp0Fj&sig=USpuBy
T6_nmTWLmQbqms4g_mXRg#v=onepage&q=O%20desenvolvimento%20do%20r
acioc%C3%ADnio%20na%20%20era%20da%20eletr%C3%B4nica&f=false >.
Acesso em: 27 de out. de 2015.
Microchip. PIC18F2455/2550/4455/4550 Data Sheet, 2009. Disponível em: <
http://ww1.microchip.com/downloads/en/DeviceDoc/39632e.pdf >. Acesso em: 31
de out. de 2015.
Pereira, F. Microcontroladores PIC: Programação em C, 3. ed. São Paulo: Érica, 2004
14
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
15
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Abstract. The present article intends to socialize some results achieved in the
workshop "The teaching order and quadratic function with the use of
GeoGebra software" held by the Institutional Scholarship Program for
Initiation to Teaching (PIBID). It is common to hear about many of the
students of the difficulties in learning mathematics, on these perspectives one
can see that the technological world has also been increasingly present in the
lives of students. Identify the difficulties is not enough, we need to adopt
different teaching methodologies in order to have the students' attention today,
before that, the use of GeoGebra software meets this reality.
1. Introdução
O presente artigo se fundamenta nos resultados alcançados com o
desenvolvimento de uma oficina que foi realizada na Escola Estadual Alfredo Jose da
Silva no município de Barra do Bugres-MT, a qual foi trabalhada com o tema função
afim e quadrática com o software GeoGebra, com os alunos do 1ª Ano G vespertino do
ensino médio.
Tendo em vista, as dificuldades dos alunos de entender o conceitos envolvendo
funções afins e quadráticas, e de visualizar o comportamento do gráfico das funções de
16
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
17
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
3. Materiais e Métodos
A realização da Oficina Pedagógica foi com a turma de alunos do 1º ano do
ensino médio, turno vespertino da Escola Estadual Alfredo José da Silva, com carga
horária de 2 horas. A turma era composta por 18 alunos, e em duplas os alunos
realizaram atividades voltadas para o estudo da Função Afim e Função Quadrática com
o software de matemática dinâmica GeoGebra, onde os mesmos compartilharam suas
conquistas e suas dúvidas com os seus colegas, durante a realização das atividades.
Como instrumento de avaliação foi utilizado a proposta de ensinar um conteúdo
já visto anteriormente na sala de aula de uma forma diferenciada, revisando o que antes
tinha aprendido com lápis e papel, buscando através da oficina com o software
GeoGebra favorecer a compreensão e o desenvolvimento de atividades envolvendo as
funções.
18
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
19
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
20
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
2
Figura 03: Gráfico da função = +
21
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Trabalhar com a tecnologia nas aulas de matemática, faz com que o professor
não traga o conteúdo pronto e acabado e o aluno tem oportunidade de construir o
conhecimento. O professor deixa de ser o centro da sala e passa ser um mediador no
processo e ensino e aprendizagem. Nas atividades desenvolvidas na oficina percebeu-se
que a medida em que a oficina foi sendo ministrada, os alunos se deparavam com
dúvidas, e não somente questionavam como se arriscavam ir atrás da resposta. O
processo de argumentação foi muito bom, apesar de muitas dificuldades apresentadas
pelos alunos. Isso fez com que a oficina acontecesse de forma satisfatória, onde os
alunos foram evoluindo seu processo de aprendizagem com o decorrer das atividades.
Ao ministrar a oficina, apenas 2 alunos já conheciam o software, no entanto,
não tinham conhecimento que o software GeoGebra poderia ser usado para trabalhar
com funções, e outros nunca tinham ouvido falar no GeoGebra. Algumas duplas
perceberam que o uso do computador contribui para o aprendizado dos conceitos de
função, sendo que essa oficina sanou dúvidas que não conseguiam entender quando o
conteúdo foi passado com o uso de lápis em sala de aula.
Vale apenas ressaltar aqui que o computador não faz milagres sobre os outros
recursos utilizados, ou seja, ambos são necessários para o ensino e para a aprendizagem
dos conteúdos sobre funções, porém, com potencialidades diferenciadas.
4. Considerações Finais
Durante o desenvolvimento das atividades com os alunos do 1º ano do ensino
médio na escola Alfredo Jose da Silva, foi feito o registro das observações e
questionamentos que ocorreram na oficina.
Uma das principais vantagens do uso do GeoGebra através dessa oficina, é que
ela auxilia no pensar de nossa pratica pedagógica, durante a formação docente, pois é
uma ferramenta metodológica de fácil acesso, e qualquer usuário pode fazer download
gratuitamente deste software. Para os alunos que não conheciam o software, foram se
familiarizando aos poucos, e consequentemente apresentaram mais dificuldades em
manuseá-lo.
Quanto ao ensino e a aprendizagem de funções, a interação entre os alunos e
computador permaneceu durante toda a aplicação da oficina. À medida que os alunos
movimentavam de forma dinâmica os parâmetros conseguiam visualizar as alterações
na construção dos gráficos e fazer questionamentos sobre o que realmente estavam
vivenciando naquele momento.
Além dessas funções que foram trabalhadas com software GeoGebra, outras
funções reais podem ser exploradas com esse recurso. E levar essas atividades usando
um software dinâmico e interativo para escola publica é, sobretudo, um compromisso
com uma educação de melhor qualidade. Cabe ressaltar aqui, que algumas limitações
com o uso do software muitas vezes ocorre, pelo fato de os professores terem problemas
que dificultam o uso desses recursos em sala de aula, como por exemplo: poucos
computadores para turmas muito grandes e também a falta de conhecimento do sistema
operacional instalado nas escolas.
22
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
5. Agradecimentos
Ao Programa Institucional de Bolsa De Iniciação a Docência (PIBID),
financiado pela CAPES.
Referências
Brasil (2007). Ministério da Educação. Secretaria da Educação Média e Tecnológica.
Parâmetros Curriculares Nacionais + (PCN+) - Ciências da Natureza e suas
Tecnologias. Brasília.
Beherens, Marilda Aparecida (2000). "Projetos de aprendizagem colaborativa num
paradigma emergente". In MORAN, José Manuel. Novas tecnologias e mediação
pedagógica, Campinas: Papirus.
Pádua, M.C.D. (2010). Utilizando o Software Geogebra como ferramenta auxiliar no
ensino de função afim e função quadrática. Paraná.
Resende, V. M, Dirce, U. P. e Bortolossi, H. J. (2012). Explorando aspectos dinâmicos
no ensino de funções reais com recurso do GeoGebra. I Conferencia Latino
Americana de Geogebra.
Rivas, N. P. P., Pedroso, C. C. A. P., Leal, Iturrieta, M. A. e Capelini, H. A., (2005).
Significação do trabalho docente no espaço escolar: currículo e formação. VIII
Congresso Estadual Paulista sobre Formação de Educadores . UNESP - Universidade
Estadual Paulista.
Silva, C. I. F. (2009). Explorando A Função Quadrática Com O Software GeoGebra em
uma Turma do 10º Ano.
23
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1. Introdução
O controle de doping no Esporte é um desafio complexo, motivo de preocupação dos
órgãos responsáveis por sua regulação no contexto nacional e também mundial.
Constantemente nos deparamos com notícias sobre casos de doping em diversas
modalidades esportivas que comprometem o espírito olímpico e abalam os valores do
esporte. Muitos investimentos têm sido feitos pelo Governo Federal do Brasil no sentido
de evoluir nesse assunto, como por exemplo, a criação da Autoridade Brasileira de
Controle de Dopagem (ABCD) em 2011.
O processo de controle de dopagem no Brasil passa por mudanças estruturais
que antecedem os Jogos Olímpicos em 2016. Destacando-se a cooperação com
laboratórios estrangeiros e o recredenciamento do Laboratório Brasileiro de Controle de
24
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Dopagem (LBCD) pela Agência Mundial Antidopagem (WADA1) este ano, que foi um
dos fatores observados em meio a essa evolução no sistema antidopagem.
Entretanto, apesar dos investimentos já realizados, conforme descrito no
Relatório Anual da ABCD (2013), diversas ações ainda precisam ser executadas para
superar os desafios da área. Um dos problemas atualmente existentes diz respeito à
ausência de informações atualizadas sobre o controle de dopagem, o que compromete a
elaboração de políticas públicas voltadas para o controle de dopagem. O acesso a
informações atualizadas e confiáveis é condição básica para a tomada de decisão.
O Comitê Olímpico Brasileiro acompanha 52 confederações de diversas
modalidades esportivas, sendo 30 confederações olímpicas, 19 vinculadas e 3
reconhecidas [COB, 2015]. Entretanto, a transparência das confederações quanto aos
casos positivos e seus julgamentos é insatisfatória. As principais confederações
apresentam deficiências no controle de dopagem e na divulgação dos dados.
Nesse contexto, esta pesquisa teve por objetivo geral desenvolver um Sistema de
Informação com o propósito de apoiar às Confederações no processo de controle de
dopagem e com isso fornecer informações atualizadas que contribuam para a tomada de
decisão e formação de políticas públicas no Brasil na área em questão.
1
https://www.wada-ama.org/
25
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
3. Metodologia Empregada
2
http://www.cbat.org.br/
26
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
3.2.3. Codificação
Essa etapa é realizada pelos programadores e estagiários. Um dos programadores
desempenha o papel de arquiteto de software e também é responsável pela realização
dos deploys semanais. A linguagem de programação escolhida para o desenvolvimento
do software foi Java, na sua versão 7, na plataforma EE (Enterprise Edition). O software
tem uma arquitetura de 3 camadas, seguindo o padrão Model-View-Controller (MVC)
3
http://www.redmine.org/
4
http://pencil.evolus.vn/
5
http://astah.net/download
27
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Dentro da plataforma Java EE, foi utilizada a tecnologia Java Server Faces
(JSF). A biblioteca PrimeFaces foi escolhida como extensão de componentes e recursos
para o JSF. Na camada de persistência do Java (JPA), o framework Hibernate 3.5 foi
escolhido com o objetivo de reduzir a complexidade da comunicação com o banco de
dados PostGreSQL 9 utilizado no projeto.
O Spring Security 3 foi utilizado como uma alternativa de segurança da
especificação Java EE, oferecendo um mecanismo de autenticação e autorização para a
aplicação web. Durante o desenvolvimento do projeto, a equipe de testes utilizou o
framework JUnit, que dá suporte a testes automatizados na linguagem Java. O
gerenciamento das dependências do projeto foi feito com o Maven 3. Com ele foi
possível gerenciar as builds, padronizar o ambiente de desenvolvimento, simplificar a
criação e distribuição e projeto. Para o controle de versão do código-fonte da aplicação,
a equipe de desenvolvimento utilizou o Apache Subversion (também conhecido por
svn). O projeto é executado sobre um servidor web Apache Tomcat 7.
28
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
6
Disponível em: https://drive.google.com/open?id=0B-Nlp0nCynhJdGFBOE9Kal9PZTQ
29
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Alguns exemplos de ações que poderão ser realizadas com ajuda da análise dos dados
disponibilizados pelo Sistema Integrado são:
Aumentar a realização de testes antidoping nas modalidades que apresentam
baixa quantidade de testes realizados;
Investigar as boas práticas que estão sendo aplicadas no que diz respeito ao
controle antidoping das modalidades esportivas que apresentam altas taxas de
testes realizados;
Investigar os motivos da grande incidência de testes positivos em determinadas
substâncias proibidas;
Investigar que faixas etárias, sexo, categorias, cidades, regiões do país que
precisam de um acompanhamento educativo mais próximo.
O webservice em desenvolvimento possibilitará a integração com outros
programas, por exemplo, o Bolsa Atleta, garantindo que o benefício não seja concedido
30
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
5. Conclusão
Esta pesquisa envolveu o desenvolvimento de um Sistema de Informação que poderá
apoiar às Confederações no controle de doping dos seus atletas, alimentando um banco
de dados com informações integradas, algo inédito no país. De posse dessas
informações, os gestores das entidades esportivas estarão mais preparados para tomarem
decisões estratégicas e para formularem políticas públicas visando à melhoria no
controle de dopagem.
Este projeto também serviu de estudo de caso para validar e otimizar um
processo novo criado para especificar requisitos em projetos ágeis. Como trabalho
futuro, planejamos avaliar a possibilidade de integração desse sistema como o ADAMS.
Além disso, pretende-se disponibilizar um aplicativo para dispositivos móveis que possa
orientar os atletas com relação às substâncias proibidas.
6. Agradecimentos
Esta pesquisa foi apoiada pelo CNPQ (Conselho Nacional de Desenvolvimento,
Científico e Tecnológico) através do Edital 91/2013, ao qual agradecemos pela
viabilização dos recursos necessário para execução do projeto.
Referências
Abcd. (2013) “Relatório de Atividades 2012/2013”. Disponível em:
http://www.esporte.gov.br/arquivos/ascom/publicacoes/RelatorioABCDAtividades20
12-2013PortuguesIngles.pdf.
Adams. (2009) “Anti-Doping Administration & Management System”. Disponível em:
https://www.wada-ama.org/en/what-we-do/adams.
Bolsa atleta. (2005). “Decreto nº 5.342 de 14 de janeiro de 2005 que institui o Programa
Bolsa Atleta do Governo Federal do Brasil”. Disponível em:
http://www2.esporte.gov.br/snear/bolsaAtleta/.
Cob. (2015) Comitê Olímpico Brasileiro. “Confederações Olímpicas, Vinculadas e
Reconhecidas”. Disponível em: http://www.cob.org.br/pt/Confederacoes.
Fowler, M. (2003) “Padrões de Arquitetura de Aplicações Corporativas”. Editora
Bookman.
Medeiros, J.D.R.V., Vasconcelos, A.M.L. and Silva, C. (2015) Integration of Agile
Practices: An approach to improve the quality of software specifications. XVIII
CIBSE Ibero-American Conference on Software Engineering– Doctoral Symposium.
PMI. (2013). “A Guide to the Project Management Body of Knowledge (PMBOK®
Guide)”. Project Management Institute. Fifth Edition. ISBN13: 9781935589679.
Schwaber, K. (1995). “SCRUM Development Process”. OOPSLA'95 Workshop on
Business Object Design and Implementation. Austin, Texas, USA: Springer-Verlag.
31
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Abstract. With the need to automate the process of images capturing and
perform the measurement of the area of the object of interest to meet a
project of drying of tropical fruits, from bibliographic research and
requirements gathering was developed an application using concepts of agile
methodologies and project Standards for software development. The software
resulted in a single automated process for capturing and analysis of images, in
addition to persist data and organize it for easy access and reading.
Considerable performance was achieved on the achievements of the capture
and measurement tasks by eliminating steps made manually.
32
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
formato tradicional de percorrer uma matriz, inserindo a imagem no quadrante inferior direito
no sistema de coordenadas cartesiano, conforme pode ser visto na Figura 1.
2. Métodos
A elaboração deste projeto utiliza de pesquisa bibliográfica, análise de referenciais teóricos de
obras sobre processamento e análise de imagens digitais. No desenvolvimento da aplicação
foi utilizado notação UML (Unified Modeling Language) para modelagem de dados e o
padrão de projeto MVC (Model, View, Controller), que visa separar a aplicação em
camadas de acordo com suas funções.
3. Implementação
Para o desenvolvimento do Sistema, foram seguidas algumas etapas propostas para um
sistema convencional de processamento de imagens de acordo com Pedrini e Schwartz
(2008), sendo estas a Aquisição, Pré-Processamento, Segmentação. A aplicação
desenvolvida foi dividida de acordo com a relevância de suas atividades, sendo classificadas
como funcionais e não funcionais. As atividades funcionais são representadas pelo Sistema de
33
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
3.2. Ferramentas
Para o desenvolvimento do software foi utilizado a IDE (Integrated Development Environment
ou Ambiente Integrado de Desenvolvimento) Netbeans™ versão 7.3, juntamente com a JDK
(Java SE Development Kit) 7 Update 25 64bits, rodando a partir de uma plataforma
Windows, sendo a versão Windows™ 7 Ultimate também de 64 bits.
A linguagem usada para o desenvolvimento foi Java versão 7, e para obtenção da
imagem foi utilizado a biblioteca OpenCV¹ 2.4.9, pois esta fornece os recursos de captura e
processamento necessários para a aplicação de modo a ser desenvolvidos sucintamente.
Para a modelagem de dados, a ferramenta de apoio foi a Astah Community™, versão
de avaliação.
A fim de organizar os dados e poder acessá-los além do momento da execução, é
necessário que os mesmos sejam persistidos. Para tal, foi escolhido o SGBD (Sistema de
Gerenciamento de Banco de Dados) Postgree™ SQL 9.3. Os tipos de dados persistidos são
34
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
respectivos aos usuários do sistema, armazenamento de parâmetros, além dos dados obtidos
através dos cálculos para geração de relatórios e comparativos.
Também foi usado um sistema de controle de versão, com o objetivo de facilitar a
manutenção no código, correções e adição de novas funcionalidades. Para essa finalidade foi
escolhida a ferramenta GIT conectada a IDE Netbeans. A cada nova funcionalidade ou
correção foi gerado uma versão para que fosse possível reverter a um estágio anterior caso
houvesse algum problema com o software.
Para geração dos relatórios no formato de arquivo PDF (Portable Document Format)
foi utilizada o framework JasperReport, e para a modelagem do layout no formato jrxml foi
usada a ferramenta iReport 5.6.
35
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
4. Resultados
Após realizada a calibração do sistema de mensuração, foi capturada a imagem de duas frutas
para realização de teste uma com forma circular e outra de formato irregular, contudo com o
limiar utilizado, as imagens resultantes não obtiveram a mesma qualidade uma vez que tinham
formatos distintos e o limiar definido foi o mais adequado para o modelo circular, que é o que
36
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
a)
b)
Para comparação dos resultados gerados foi utilizado o software ImageJ versão 1.47,
onde foi utilizada uma imagem da fatia da fruta carambola também de graviola e
posteriormente foi feita a análise no software SAPID. Na tabela 1 é apresentado o resultado
do cálculo de área de cada imagem.
Tabela 1. Comparativo de resultado ImageJ x SAPID
37
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
5. Conclusão
A análise e processamento de imagens digitais bem como o reconhecimento de padrões têm
uma vasta gama de aplicações, tanto para pesquisa como na área comercial, embora seja
muito estudada, ainda proporciona muitos desafios.
De acordo com o objetivo proposto para o projeto, é possível afirmar que a meta
principal foi atingida, com o desenvolvimento de uma aplicação simples que atende os
requisitos de captura de imagem, agendamento e cálculo de área integrada em uma única
aplicação, além de outras funções básicas.
Embora houvesse dificuldades durante o desenvolvimento, como operar em
condições adversas de captura, onde fatores como iluminação influenciam diretamente no
processo de segmentação considerando pixels não relevantes ou até mesmo considerando
como relevante áreas que não era do interesse, sendo necessário ajustar o limiar até que se
chegasse a um resultado mais adequado, esses fatos contribuíram para um maior abstração
dos conceitos de tratamento de imagens, visão computacional de modo que tornou possível a
elaboração de um pré-projeto em paralelo que faz uso de recursos de visão computacional,
além de expandir a visão para uma gama de possíveis aplicações que utilizam esses recursos,
além propiciar o contato com ferramentas atualmente utilizadas no mercado, como
metodologias de desenvolvimento e frameworks, e não apenas de uso acadêmico.
O software SAPID ele deverá ser redesenhado para atender outras demandas na
área de análise de imagens e também processamento de imagens digitais, além de melhorias
no processo de mensuração.
Referências
Gonzalez, Rafael C. and Woods, Richard E. (2000) “Processamento de Imagens Digitais”,
Edgard Blucher., São Paulo.
Marques Filho, O. and Vieira Neto, H. (1999) “Processamento de Imagens Digitais”,
Brasport., Rio de Janeiro.
Miranda, José I. (2006) “Processamento de Imagens Digitais: Prática usando Java™”,
Embrapa Informática Agropecuária., Campinas.
Pedrini, H. and Schwartz, Robson W. (2008). “Análise de Imagens Digitais – Princípios,
Algoritmos e Aplicações”, Thomsom Learning., São Paulo, p. 14-167.
38
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1. Introdução
Segundo Veras [2011, p. 87] A virtualização “é uma camada de abstração entre o
hardware e o software que protege o acesso direto do software aos recursos físicos do
hardware. A virtualização permite que a camada de software (aplicações e sistema ope-
racional) seja isolada da camada de hardware. ”
A virtualização normalmente é provida por um software, chamado de Hypervisor ou
Monitor de Máquina Virtual (Virtual Machine Monitor - VMM), na qual é instalado
sobre o hardware compatível denominado hospedeiro, ou host. Outro componente da
virtualização é o guest ou convidado, que consiste no sistema operacional virtualizado
instalado em uma máquina virtual e executado pelo hospedeiro. [ALECRIM, 2013 e
VERAS, 2011].
Com o poder de processamento evoluindo rapidamente, em uma arquitetura tradicional
1:1, o hardware passa a ser subutilizado.
A virtualização proporciona a criação de um ambiente mais ágil, flexível, econômico já
que cria uma abstração do hardware possibilitando a execução de mais de uma máquina
39
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
virtual no mesmo servidor físico, utilizando de forma mais eficiente todo o potencial do
hardware. [VMWARE, 2014a]
3. Benefícios da virtualização
A virtualização pode proporcionar diversos benefícios para a organização, dentre eles
pode-se destacar:
Recuperação de desastres: através da virtualização é possível recuperar ambi-
entes de TI com um menor esforço operacional e menor tempo, consequente-
mente menor custo para a organização se comparado ao ambiente tradicional, os
quais é necessário levantar todo o servidor novamente, aplicando as atualizações
e instalações necessárias, a maioria dos hypervisores proporcionam recursos de
HA (High Avaliability – Alta Disponiblidade) os quais em caso de falha em al-
gum host do cluster a máquina virtual é ligada novamente em outro host do clus-
ter, muitas vezes de forma automática. [SANTOS, 2014b]
Redução de custos: esta talvez seja uma das maiores preocupações de todos os
membros da alta administração de qualquer organização, são vários fatores que
impactam na redução de custos, tais como aquisição de ativos, licenciamento de
software, refrigeração, consumo de energia, entre outros. O investimento em vir-
tualização a curto prazo não parece muito interessante, porém, a médio e longo
1
Fonte: SILVA (2014)
40
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
4. Desvantagens da virtualização
5 Experimentos e resultados
Nesta seção será abordado o experimento e resultados.
2
Fonte: O autor (2015), informações retiradas nas documentações oficiais, disponíveis em:
Windows 2008 R2: https://technet.microsoft.com/pt-br/library/ee405267(v=ws.10).aspx
Windows 2012 :https://technet.microsoft.com/pt-br/library/jj680093.aspx
Citrix XenServer 6.2: http://support.citrix.com/servlet/KbServlet/download/34966-102-
704363/CTX137837_XenServer%206_2_0_Configuration%20Limits.pdf
Citrix XenServer 6.5 http://support.citrix.com/servlet/KbServlet/download/38332-102-714736/XenServer-
6.5.0-Configuration_Limits.pdf
VMWARE vSphere 5.5: http://www.vmware.com/pdf/vsphere5/r55/vsphere-55-configuration-
maximums.pdf
VMWARE vSphere 6: https://www.vmware.com/pdf/vsphere6/r60/vsphere-60-configuration-
maximums.pdf
41
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
42
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
43
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
44
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
6. Considerações finais
A possibilidade da criação de “monster virtual machines” auxilia a equilibrar
desempenho x disponibilidade, a virtualização vem reduzindo a diferença entre o
desempenho se comparada a uma arquitetura tradicional, em alguns casos o ambiente
virtualizado obteve desempenho superior.
No ambiente de testes, diversos fatores podem ter sido determinantes no desempenho
das aplicações, como modificação no hypervisor VMware vSphere e utilização de
hardware não homologado.
Para obter sucesso na implantação ambiente virtualizado é necessário realizar um
planejamento e homologação da solução a ser utilizada, levando em consideração a
demanda atual e futura para dimensionamento do hardware, orçamento, escolha do
hypervisor que pode oferecer diversas funções a fim de atender diversos cenários e entre
outros.
Independente da solução adotada, a virtualização proporciona a organizações de todos
os portes e otimizar o hardware, reduzir o tempo de ROI (Return On Investment –
Retorno Sobre Investimento) é capaz de proporcionar os benefícios que a tecnologia da
virtualização é capaz de prover, dentre eles, recursos que proporcionam a continuidade
do negócio, fator que é de suma importância para organizações.
45
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
mento do uso dos recursos físicos e virtuais a fim de realizar as devidas manutenções
preventivas e corretivas
A segurança do ambiente, tanto para hypervisores e máquinas virtuais. As máquinas
virtuais devem ser tratadas como uma máquina física, com implementações de técnicas
de segurança tanto virtual quanto de acesso físico ao host.
Experimentos com outros serviços de rede, outros sistemas operacionais e outros hyper-
visores. Realizar benchmark com outros serviços de rede para avaliar desempenho utili-
zando outros hypervisores.
8. Referências
ALECRIM, E. (2013) “O que é virtualização e para que serve? ” Disponível em:
http://www.infowester.com/virtualizacao.php#conceito
HARA, F. (2013) “Virtualizando bancos de dados de alto desempenho. ” Disponível
em: http://www.tiespecialistas.com.br/2013/06/virtualizando-bancos-de-dados-de-alto-
desempenho/
POSTGRESQL. (2015) “PostgreSQL 9.5devel Documentation. ” Disponível em:
http://www.postgresql.org/docs/devel/static/pgbench.html
SANTOS, F. (2014b) “12 benefícios da virtualização no datacenter. ” Disponível em:
http://www.profissionaisti.com.br/2014/08/12-beneficios-da-virtualizacao-no-
datacenter/
SANTOS, F. (2014a) “Os 7 erros básicos que até profissionais cometem em projetos de
virtualização” Disponível em: http://www.profissionaisti.com.br/2014/10/os-7-erros-
basicos-que-ate-profissionais-cometem-em-projetos-de-virtualizacao/
SILVA, T. H. (2014) “Virtualização de Servidores”, Disponível em:
http://www.devmedia.com.br/virtualizacao-de-servidores/30820
VERAS, M. (2011) “Virtualização: componente central do Datacenter. ” Rio de Janeiro:
Brasport.
VMWARE, (2014a) ”Virtualize sua infraestrutura de TI. Disponível em:
http://www.vmware.com/br/virtualization
VMWARE. (2014b) “Consolidação de servidor: Reduza os custos de TI e aumente o
controle com a virtualização de servidor. ” Disponível em:
http://www.vmware.com/br/consolidation/overview
46
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1. Introdução
A Programação Linear é uma técnica de planejamento que se originou no final
da década de quarenta e, com o surgimento do computador na década de cinquenta,
encontrou nele um dos seus principais aliados na resolução de problemas de otimização.
Tendo então, um desenvolvimento acelerado tanto na área acadêmica como nas
empresas e, sendo também muito difundida nessas áreas.
Contudo, a Programação Linear (PL) é uma técnica de otimização,
utilizada,por exemplo, para encontrar o lucro máximo ou o custo mínimo em situações
nas quais temos diversas alternativas de escolha sujeitas a algum tipo de restrição ou
regulamentação.
A Programação Linear têm como vantagens encontrar o lucro máximo ou o
custo mínimo e o local ideal onde devem ser instalados os empreendimentos para que se
47
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1
Linear Interative andDiscreteOptimizer
48
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
𝑥1 ; 𝑥2 ; … ; 𝑥𝑛 ≥ 0
Para resolver o problema dado em (1), pelo método simplex, temos no Quadro
01, a organização do quadro inicial para o cálculo.
Quadro 01: Quadro inicial do simplex no formato tabular.
49
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
50
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
𝑏𝑖
mínimo entre os coeficientes 𝑦 𝑖𝑘
. O elemento 𝑦𝑘 é denominado de
“elemento pivô”.
Passo 4: Substituir a r-ésima variável, correspondente a r-ésima equação pela variável
𝑥𝑘 , que passará a integrar a nova base do quadro, e recalcular as matrizes 𝐵 −1 , 𝑌 e os
vetores 𝑐𝑗 − 𝑧𝑗 , 𝑥𝐵 𝑒𝑧0 . Retornar ao passo 2.
3. Modelo Matemático
Voltando ao problema em questão do custo mínimo da merenda da E.E.
“Evangélica Assembléia de Deus”, agora serão definidas as variáveis, a função objetivo
e as restrições do problema, e, posteriormente a solução encontrada, ou seja, o custo
mínimo de cada cardápio.
Cada variável representa uma preparação da merenda, sendo:
𝑥1 → Carne com batata, arroz e banana nanica
𝑥2 → Carne com banana da terra e arroz
𝑥3 → Carne cozida ao molho com arroz e maçã
𝑥4 → Bolacha de água e sal e suco concentrado de frutas
𝑥5 → Bolacha doce e leite com achocolatado em pó
Sendo assim, que mistura ótima desses cardápios satisfazem os requisitos
alimentares suficientes ao bom desenvolvimento físico e mental dos alunos, a um custo
mínimo para as preparações destes? Dado que no Quadro 04 temos as informações
nutricionais e custo de cada variável.
Quadro 04: Dados sobre a informação nutricional das preparações
51
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
4. Resultados
Sendo assim, para resolver o problema apresentado no modelo matemático
dado por (2), acrescentamos as variáveis artificiais𝑠1 , 𝑠2 , 𝑠3 e 𝑠4 , nas restrições do
problema, a fim de determinar uma solução básica inicial, por se tratar de um problema
de minimização.
52
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
53
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
5. Conclusões
O objetivo deste trabalho era discutir como fundir adequadamente as variáveis
de modo a encontrar qual o custo mínimo da Merenda Escolar da E. E. “Evangélica
Assembléia de Deus”, atendendo a um conjunto de restrições lineares para estas
variáveis.
Neste artigo trabalhamos com um problema com mais de três variáveise
utilizamos o Algoritmo Simplex ou Método Simplex, para assim obtermos a solução
ótima do problema. E, também obtivemos essa solução ótima através do software
LINDO, usado em problemas de Programação Linear, onde podemos observar a
importância do uso desses softwares na resolução de problemas reais, como esse
apresentado, principalmente quando trabalhamos com modelos que envolvem mais de
15 (quinze) variáveis, por exemplo.
Este é um trabalho que gera bastante interesse à pesquisa, pois abrange não
somente a área alimentícia, mas diversas áreas no campo industrial. Para nós está
técnica nos permite aprofundar nossos conhecimentos sobre os modelos matemáticos
utilizados na Programação Linear, além disso, aplicar tais conhecimentos matemáticos
em uma problemática de nosso cotidiano.
Referências
Boldrini, J. (1980)“Álgebra Linear”, 3ª ed. Editado por Harbra, São Paulo.
Departamento de Computação, Universidade Federal de Ouro Preto (2009)
“LINDO:ManualdeReferência”http//:www.decom.ufop.br/prof/marcone/Disciplinas/
OtimizacaoCombinatoria/lindo_p.pdf, Março.
Goldbarg, M., e Luna, H. (2000) “Otimização Combinatória e Programação Linear”
Editado por Campus, Rio de Janeiro.
Secretaria de Estado de Educação. Coordenadoria de Alimentação Escolar (2008)
“Sugestão de Cardápios” http://www.seduc.mt.gov.br/conteudo.php?sid=327&parent=19,
Abril.
54
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1. Introdução
O Brasil tem sofrido uma proliferação de informações digitais e um enorme avanço
tecnológico nos últimos tempos, principalmente pela web, telefones celulares,
dispositivos que captam informações, e entre outros dispositivos, gerando enorme
quantidade de dados, sendo estes dos mais diversos tipos.
Em um levantamento da IDC1 patrocinado pela EMC2, Gantz e Reinsel (2012)
prevê que o universo digital chegará a 40 Zetabytes de dados até 2020, sendo que 2,8
Zetabytes de dados foram criados e replicados somente em 2012.
De acordo com Taurion (2013), as informações sobre os produtos estão se
tornando mais importantes que os produtos em si, pois se o conteúdo gerado para uma
tomada de decisão de compra de um determinado produto o esperado, a tendência da
compra é de ser direcionada a outro produto.
Diante de uma enorme quantidade de dados e informações desestruturadas
gerou-se um conceito conhecido, Big Data. “Big Data é um termo genérico para dados
que não podem ser contidos nos repositórios usuais; dados volumosos para caber em um
único servidor; não estruturados demais para se adequar a um banco de dados
1
International Data Corporation.
2
EMC Corporation é uma empresa multinacional norte-americana que fornece sistemas para
infraestrutura de informação, software e serviços.
55
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
2. Fundamentação Teórica
56
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
compra de um determinado produto existe uma grande probabilidade do mesmo não ter
sido a melhor decisão, gerando uma margem de prejuízo.
Diante desta extrema quantidade de dados deu-se origem ao Big Data, que é
capaz de cruzar inúmeras quantidades de informações desestruturadas para chegar a
uma, ou varias, tomadas de decisões, talvez não a melhor, porem a com maior
porcentagem de acerto.
“Big Data não é apenas um conjunto de dados desestruturados, mas o conceito
que mostra como tirar proveito desses dados” [PEREIRA 2013]. O termo pode ser
expresso como um conjunto de ferramentas de alto poder de mineração de dados com
mais eficiência para chegar a informações, indicações, apontamentos e afins.
A definição de Big Data é tão complexa quanto o próprio futuro, pois o mesmo é
considerado relativamente novo no mercado, e tem expandido como linha de pesquisa e
implantação apenas nos últimos anos (10 anos). Em implantação é nítido perceber que
muitas das grandes empresas já utilizam esta tecnologia como principal recurso para o
seu crescimento.
“Em agosto de 1999 foi usada pela primeira vez a palavra Big Data em um
artigo CACM, com o titulo “Explorar visualmente gigabyte de conjuntos de dados em
tempo real” feito por Steve B., David K., Michael C., David E., e Robert H.” [PRESS
2013]. Uma das primeiras definições relatadas sobre o termo se da por Doug Laney, em
2001, da empresa Gartner Group, onde explicava os famosos 3 V´s (Volume,
velocidade e variedade) de origens iniciais do Big Data.
MANYKA, J: et. “Bid Data refere-se a conjunto de dados cujo tamanho é além da
al. (2011) capacidade de ferramentas de software de banco de dados típicos
(Mckinsey Global para capturar, armazenar, gerenciar e analisar.”
Institute)
MCAFEE, A; et. “Big Data como uma forma essencial para melhorar a eficiência e
al. (2012) a eficácia das organizações de vendas e marketing. Ao Colocar o
(Harvard Business Big Data no coração de vendas e marketing, os insigths podem ser
aproveitados para melhorar a tomada de decisão e inovar no
Review)
modelo de vendas da empresa, o que pode envolver a utilização de
dados para orientar ações em tempo real.”
DEMIRKAN, et. “Há o desafio de gerenciar grandes quantidades de dados (Big
57
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
al.(2012) Data), que esta ficando cada vez maiores por causa do
(Decision Support armazenamento mais barato e evolução dos dados digitais e
Systems) dispositivos de coleta de informações, como telefones celulares,
laptops, e sensores.”
PHELAN, Mike “O fenômeno surgiu nos últimos anos devido a enorme quantidade
(2012) (Forbes) de dados da maquina que esta sendo gerado hoje –[...]- juntamente
com as informações adicionais obtidas por analise de todas essas
informações, que por si só cria outro conjunto de dados enormes.”
Gartner Group “Bid Data, em geral, é definido como ativos de alto volume,
(2012) velocidade e variedade de informações que exigem custo-
benefício, de formas inovadores de processamento de informações
para maior visibilidade e tomada de decisão.”
International Data “As tecnologias de Big Data descrevem uma nova geração de
Corporation tecnologias e arquiteturas projetados para extrair economicamente
o valor de volumes muito grandes e de uma grande variedade de
dados, permitindo alta velocidade de captura, descoberta, e/ou
analise.”
3
Sistema de Gerenciamento de Banco de Dados.
4
Structured Query Language (Linguagem de Consulta Estruturada).
5
Identificação por Rádio Frequência – Radio-Frequency Identification.
58
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
2.5. NoSQL
Para poder armazenar as informações desestruturadas, foi desenvolvido um banco para
todos os tipos de dados, onde poderia ser utilizado por dados relacionais e não
relacionais e que oferece um alto grau de escalabilidade, criando assim o NoSQL. O
NoSQL (Not only SQL) é um termo usado para se referir a qualquer armazenamento de
dados que não seguem o modelo tradicional RDBMS6, aponta Perreira (2013).
“Além da alta taxa de geração dos dados, outro fator que influenciou a criação
de sistemas NoSQL foi o suporte a tipo de dados complexos, semiestruturados ou não
estruturados” [Vieira 2012].
Segundo Taurion (2012) a principal base tecnológica para Big Data é os bancos
de Dados NoSQL.
2.6.1. Variedade
O conceito da variedade engloba o uso dos diferentes tipos de dados, onde são de
diversas fontes origens, podendo ser estruturados ou não.
“Os dados vêm de sistemas estruturados (hoje minoria) e não estruturados (a
imensa maioria), gerados por e-mails, mídias sociais, documentos eletrônicos,
apresentações estilo Powerpoint, mensagens instantâneas, sensores, etiquetas RFID,
câmeras de vídeo, etc” [Taurion 2012].
As variáveis de estudos envolvidos são: Variedade de fontes de informação e
variedade de tipos de dados
6
Relational Data Base Management System – sistema de gerenciamento de base de dados relacionais
59
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
2.6.2. Volume
Enorme quantidade de dados, este sendo a dimensão mais comum de vários conceitos
proposto ao Big Data, sabendo também que quanto maior a quantidade de informações,
maior será a precisão.
Taurion (2012) destaca o aumento acelerado de volume de dados vem chamando
atenção pela acelerada escala em que volumes cada vez maiores de dados são criados
pela sociedade.
As variáveis de estudos envolvidos são: Volume de informação, acessibilidade
de informações e mudança de comportamento em função de um volume.
2.6.3. Velocidade
Para formar o tripé do conceito do big data, é necessário um grande poder de tempo de
resposta com que os dados e informações são analisados, realizando as analises no
menor tempo possível. “Muitas vezes é preciso agir em tempo real, exigindo um
processamento que acompanhe esta velocidade” [TAURION 2012].
As variáveis de estudos envolvidos são: Velocidade de chegada da informação e
velocidade a tomada de decisão.
2.6.4. Valor
Não tem como retratar o conceito do Big Data, relatar a sua tamanha capacidade de
processamento de dados, e deixar de lado os valores necessários para a realização da
pratica deste conceito. Big Data só faz sentido se o valor da análise dos dados
compensar o custo de sua coleta, armazenamento e processamento comenta Taurion
(2012). Para a proximidade da exatidão, a qualidade dos dados analisados deve ser
percebida pelos usuários.
As variáveis de estudos envolvidos são: Qualidade das informações, resultados
agregado a partir das analises das informações e valor financeiro para ter dados de
qualidade.
2.6.5. Veracidade
Taurion (2012) relata que é necessário ter certeza que os dados fazem sentido e são
autênticos, pois quanto maior a porcentagem de autenticidade, menor será a chance de
erro nas analises de dados do Big Data.
É importante ressaltar a importância da qualidade dos dados para a analise
adequada do Big Data, visto que dados de alta qualidade são pré-requisitos para auxiliar
as organizações a adequarem-se as mudanças necessárias.
60
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
gerenciamento, e, em seguida, são organizados e integrados, logo após esta fase ser
implementada com sucesso, os dados podem ser analisados com base no problema a ser
abordado, dando um resultado para que o usuário possa colocar em pratica através desta
conclusão.
3. Metodologia
O presente trabalho utiliza-se de pesquisa bibliográfica para a sua sintaxe, realizando
leituras de dissertações, livros, sites oficiais, artigos publicados na Web e monografias
concluídas, com o propósito de ampliar o conteúdo abordado, e para melhor
compreensão do tema abordado. Através do levantamento, alcançou um melhor
entendimento no conceito e na sua pesquisa de dados para uma aplicação.
Trata-se de levantamento de toda bibliografia já publicada em
forma de livros, revistas, publicações avulsas e imprensa escrita. Sua
finalidade é colocar o pesquisador em contato direto com tudo aquilo
que foi escrito sobre determinado assunto ou de manipulação de suas
informações [LAKATOS 1992].
4. Considerações Finais
A quantidade de dados vem crescendo instantaneamente, tornando uma
oportunidade de total crescimento e ganho do mercado que possuir e utilizar o Big Data
em sua área de atuação. Varias organizações já visaram o enorme potencial de seu
conceito e implantam para poder utilizar a imensidão de informações ao seu favor
diante de seus negócios.
Canary (2013) afirma que é fundamental que dirigentes saibam utilizar as
características dos dados de hoje, no contexto do Big Data – Volume, Variedade,
Velocidade, Valor e veracidade. Porem é preciso que aja uma compreensão para que as
decisões apresentadas sejam as melhores.
61
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Referências
AURÉLIO, Dicionário. (2010) Disponível em: http://www.dicionariodoaurelio.com
Acesso em, v. 15, n. 05.
CANARY, Vivian Passos. (2013) A tomada de decisão no contexto do Big Data: estudo
de caso único.
DAVENPORT, Thomas. (2014) Big data at work: dispelling the myths, uncovering the
opportunities. Harvard Business Review Press.
GANTZ, John; REINSEL, David. (2012) The digital universe in 2020: Big data, bigger
digital shadows, and biggest growth in the far east. IDC iView: IDC Analyze the
Future, v. 2007, p. 1-16.
HURWITZ, Judith et al. (2013) Big Data For Dummies, a Wiley Brand. New Jersey:
John Wiley & Sons, inc..
LANEY, Doug. (2001) 3D data management: Controlling data volume, velocity and
variety. META Group Research Note, v. 6, p. 70.
PRESS, Gil. (2013). A very short history of big data. Forbes. Forbes Magazine, 9.
SHAW, Jonathan. (2014) Why “Big Data” is a big deal. Harvard Magazine, v. 3, p. 30-
35.
VIEIRA, Marcos Rodrigues et al. (2012) Bancos de Dados NoSQL: conceitos,
ferramentas, linguagens e estudos de casos no contexto de Big Data. Simpósio
Brasileiro de Bancos de Dados.
62
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Abstract. This paper aims to show a study about the execution of Quality
Assurance with Agile Methodologies. Firstly, it shows the concepts related to
Quality Assurance (QA). Secondly, the most utilized Agile Methodologies are
addressed. Then, the results are shown. These results were reached through
bibliographic survey about national literature, using systematic review
concepts. They identify 23 scientific studies about the theme, highlighting the
agile practices and the benefits and limitations shown by the studies.
1. Introdução
A qualidade é uma característica essencial para o software e está relacionada, entre
outros fatores, ao processo de desenvolvimento empregado. Nas últimas décadas, foram
propostas várias metodologias ágeis de desenvolvimento de software, buscando superar
dificuldades encontradas nas chamadas metodologias tradicionais (ou cascata). A
pesquisa Chaos Report [Standish Group 2015] aponta que metodologias ágeis resultam
em maior taxa de sucesso em projetos (39%) do que metodologias tradicionais (11%).
Neste contexto, o presente trabalho tem como objetivo analisar as principais
metodologias ágeis de desenvolvimento de software com a finalidade de identificar
práticas que conduzam à garantia da qualidade. Como metodologia, foi utilizada a
Pesquisa Bibliográfica [Gil 2010] e conceitos de Revisão Sistemática [Kitchenham e
Charters 2007], envolvendo a literatura nacional. Este artigo está organizado em seis
seções. A Seção 2 corresponde à fundamentação teórica. A Seção 3 apresenta o método
de revisão empregado. A Seção 4 apresenta os resultados gerais e a Seção 5 corresponde
à síntese. Por fim, na Seção 6 são apresentadas as Considerações Finais.
2. Fundamentação Teórica
Nesta seção, são apresentados os conceitos de Garantia da Qualidade (GQA) e de
Metodologias Ágeis.
63
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
3. Método de Revisão
Neste trabalho, foram utilizados conceitos de revisão sistemática de literatura
[Kitchenham e Charters 2007], que consiste em um método para identificar, avaliar e
interpretar pesquisas relevantes disponíveis sobre um determinado tema. Nesta seção, é
64
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
65
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Após a aplicação dos critérios descritos, foram considerados para esta revisão
23 trabalhos relevantes, conforme a Tabela 2.
Tabela 2. Trabalhos Incluídos no Levantamento
Nº Título Autor
1 Aplicando Práticas de Extreme Programming (XP) em Equipes SW- Carlos Henrique Rodrigues Cardoso
CMM Nível 2
2 Qualidade de Software nas Metodologias Ágeis Scrum e OpenUP Giovane Montine Moreira Gurgel, Camilo de
Lélis D.C. de Medeiros, Clarissa L.A.C. Lins
3 Utilização de Práticas Genéricas do CMMI para apoiar a Utilização Célio Santana, Cristine Gusmão, Ana
de Metodologias Ágeis Rouiller, Alexandre Vasconcelos
4 Um Modelo para Garantia da Qualidade de Software: Combinando Fernando Selleri Silva
Maturidade e Agilidade
5 Qualidade de Software no desenvolvimento com Métodos Ágeis Bruno Henrique Oliveira
6 Utilizando Métodos Ágeis para atingir MPS.BR Nível F na Ana Cláudia Grossi de oliveira, Fernanda
Powerlogic Alves Guimarães, Isabella de Araújo Fonseca
7 Relato de Experiência na Implantação de um Método Ágil em uma Cristiane dos Santos Coelho
Equipe de Desenvolvimento de Software
8 XP-CMM2: Um Guia para Utilização de Extreme Programming em Renata Endriss Carneiro Campelo
um Ambiente Nível 2 do CMM
9 SCRUMMPS 2.0 - Evolução de uma Ferramenta Interativa para Anderson Abner de Carvalho
Suporte ao Scrum e MPS.BR
10 Viabilidade do Desenvolvimento de Software Baseado no Modelo T. M. Dias, G. F. Moita, M. P. Silva, B.
MPS.BR com a Metodologia Extreme Programming Ferreira, A. M. Silva
11 Implantação do Nível F do MR.MPS Combinando Características Tatiane Silva, Rogério Magela, Gleison
do Processo Unificado com Práticas Scrum Santos, Natália Chaves Lessa Schots, Ana
Regina Rocha
12 Adoção de Metodologias Ágeis de Desenvolvimento com Ênfase na Diego Noronha, Elton Rabelo, Thiago M. R.
Qualidade do Projeto Dias, Patrícia M. Dias, Gray F. Moita
13 Experiência de Implantação de Melhoria de Processos de Software Fabiana Freitas Mendes, Jackeline Neves de
em Laboratório de Pesquisa almeida, Egio Arruda Junior
14 Definição do Processo APD e Certificação no Nível F do MR-MPS Tatiane Silva
Utilizando Práticas do Processo Unificado Associadas a Práticas
Scrum
15 Estudo da Qualidade de Software na Metodologia V-model e sua Camila Rocha
Interação com Metodologias Ágeis (SCRUM)
16 Implementação do Nível F do MR-MPS com Práticas Ágeis do Edmar Catunda, Camila Nascimento, Cristina
Scrum em uma Fábrica de Software Cerdeiral, Gleison Santos, Elaine Nunes,
Natália L. Schots, Marcelo Schots, Ana R.
Rocha
17 Implantação de Modelos de Maturidade com Metodologias Ágeis: Rafael Prikladnick, Ana Liddy C. C.
Um Relato de Experiências Magalhães
18 Encontrando o Equilíbrio entre a Metodologia Scrum na Fábrica Nanachara V. Silva, Paulo R.S. Antiquera,
JAVA e o Modelo MPS.BR-SW Nível F Edemilson R. Burity
19 Adoção do CMMI e das Metodologias Ágeis em Empresas Guilherme S. Lacerda, Anderson Baum,
Brasileiras Vinicius G. Ribeiro
20 Uma Análise do Scrum sob a Perspectiva do MPSBR Marcelo Teixeira
21 Utilização de Metodologia Scrum para Obtenção de Nível F do Arthur Mauricio da Silva, Maria Aparecida
MPS.BR Denardi
22 Uma análise das Metodologias Ágeis FDD e Scrum sob a F. G. Silva, S. C. P. Hoentsch, L. Silva
Perspectiva do Modelo de Qualidade MPS.BR
23 Uma Análise da XP sob a Perspectiva do Modelo MPSBR Márcia Maria Begnini
66
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
4. Resultados Gerais
Entre os 23 trabalhos incluídos estão 15 artigos, 5 monografias, 2 dissertações de
mestrado e 1 tese de doutorado, como mostra a Figura 1 (a), que apresenta o percentual
da quantidade de cada tipo. Quanto à natureza dos trabalhos, apresentada na Figura 1
(b), 10 são relatos de experiência, 5 são revisões de literatura, 3 são estudos de caso, 2
são experimentos, 1 é survey e 2 são mistos. Os trabalhos classificados como “misto”
combinaram os métodos revisão de literatura, estudo de caso e survey. As revisões de
literatura tiveram uma abordagem diferente do foco da presente revisão, em geral, elas
abordaram aspectos específicos de qualidade com o desenvolvimento ágil para embasar
uma proposta ou experiência em garantia da qualidade. Não foi encontrada uma revisão
anterior com foco em garantia da qualidade e metodologias ágeis, como a apresentada
neste trabalho.
Quanto à fonte, 14 artigos foram publicados em eventos e 1 em periódico. Os 8
trabalhos acadêmicos foram produzidos em 6 diferentes instituições. Em relação ao ano
de publicação, foram encontrados trabalhos a partir do ano de 2003. Nos anos de 2003,
2004, 2013 e 2015 houve 1 trabalho incluído em cada ano. Em 2007, 2008, 2009 e 2014
houve 2 trabalhos por ano. Em 2010 foram 3 trabalhos e em 2011, o maior número de
trabalhos, com 11 inclusões. Nos anos de 2005, 2006 e 2012 não houve estudos.
67
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
5.2 Práticas de XP
As práticas de XP citadas nos trabalhos encontram-se na Figura 3. Nota-se também a
característica de adaptação para o uso da metodologia XP, sendo Desenvolvimento
Guiado por Testes, Refatoração e Integração Contínua as práticas mais citadas (8
trabalhos cada) e a Reunião em Pé (Stand Up Meeting) a prática de XP menos utilizada
nos trabalhos incluídos.
68
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
6. Considerações
Com base nos benefícios apresentados pelos trabalhos incluídos, a partir do emprego das
práticas ágeis identificadas anteriormente, é possível considerar que a utilização das
metodologias ágeis possibilita a garantia da qualidade, com melhorias significativas na
agilidade e qualidade dos processos e produtos. Entretanto, é importante salientar que as
metodologias ágeis por vezes necessitam de alterações e adaptações para que possam
satisfazer completamente os requisitos da garantia da qualidade. Entre os aspectos
destacados, está a necessidade de se avaliar de forma objetiva o atendimento ao processo
definido e a necessidade de se registrar as não conformidades e ações corretivas.
Os benefícios citados nos trabalhos foram: melhorias significativas em relação a
qualidade do produto final, notadas nos processos de qualidade de processos e na
gerência de qualidade dos produtos; a metodologia ágil Scrum satisfaz as ações de
garantia da qualidade; XP atende em 70% o processo de garantia da qualidade; o uso das
metodologias ágeis minimiza problemas e danos quando a satisfação do cliente e a
qualidade do produto estão em questão. Contudo, as seguintes limitações foram citadas:
apesar das metodologias ágeis apresentarem melhorias em relação à gerência, satisfação
do cliente e comunicação, elas mostram-se limitadas em termos de práticas de garantia
da qualidade de software; dificuldades na identificação de práticas relacionadas a fatores
de qualidade, presentes nas metodologias ágeis. A percepção sobre o atendimento à área
de garantia da qualidade varia conforme o entendimento ou conhecimento sobre as
metodologias ágeis, o que pode justificar o fato de alguns trabalhos apontarem que uma
metodologia ágil atende a garantia da qualidade, enquanto outros trabalhos apontam
limitações neste atendimento. Assim, se faz necessária a busca por processos que
evidenciem como a garantia da qualidade está sendo realizada nas metodologias ágeis.
Em termos de limitações à validade deste trabalho, destacam-se as seguintes:
cobertura dos trabalhos – ainda que se tenha realizado uma busca automática, combinada
com uma busca manual, algum trabalho relevante, eventualmente, pode não ter sido
incluído; mecanismos de busca – o uso de mecanismos específicos de indexação de
trabalhos científicos é sugerido, porém considerando o escopo da revisão em âmbito
nacional, o uso do Google Acadêmico e de sites de instituições da área foi adotado como
estratégia para viabilizar a busca automática; análise dos resultados – a análise criteriosa
de título e abstract foi aplicada aos primeiros 200 resultados obtidos nos sites Google
Acadêmico, UNICAMP, USP e UFRGS e aos primeiros 500 resultados apresentados
pelo site do MTC, pois a partir de então os resultados passaram a se apresentar como
claramente irrelevantes a julgar pelo título; avaliação da qualidade – não foi realizada
uma avaliação da qualidade dos trabalhos incluídos, nem foram aplicados tratamentos
distintos a trabalhos com maior ou menor rigor científico, sendo possível que este
tratamento, se aplicado, impacte nos resultados.
Como sugestão para trabalhos futuros destaca-se: realizar uma revisão
sistemática incluindo estudos em Inglês e traçar um comparativo entre a pesquisa em
literatura em Inglês em contraste com a literatura em Português; sugerir um processo
ágil que evidencie, de forma não burocrática, que a garantia da qualidade está sendo
implementada; propor um processo que atenda as limitações da metodologia ágil XP, de
forma que supra as necessidades em avaliar de maneira objetiva a aderência de produtos
e processos aos padrões e que se tenha um registro das não-conformidades e soluções.
69
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Referências
Anderson, D. (2010). Kanban: Successful Evolutionary Change for Your Technology
Business. Washington: Blue Hole Press.
Beck, K. (2002). Test Driven Development: By Example. 1. ed. Addison-Wesley
Professional.
Beck, K. (2004). Extreme Programming (XP) Explained: embrace change. 2. ed.
Boston: Addison-Wesley.
Boeg, J. (2011). Kanban em 10 Passos: Otimizando o fluxo de trabalho em sistemas de
entrega de software. http://www.infoq.com/br/minibooks/priming-kanban-jesper-
boeg, Abril.
Gil, A. C. (2010). Como Elaborar Projetos de Pesquisa. 5. ed. São Paulo: Atlas.
Kitchenham, B e Charters, S. (2007). Guidelines for performing systematic literature
reviews in software engineering. Technical Report, School of Computer Science and
Mathematics, Keele University.
Magela, R. (2006). Engenharia de Software Aplicada: Princípios. 1. ed. Rio de Janeiro:
Altas Books.
Pressman, R. S. (2011). Engenharia de Software: Uma Abordagem Profissional. 7. ed.
São Paulo: McGraw-Hill.
Schwaber, K. e Sutherland, J. (2013). Guia do Scrum: Um Guia Definitivo para o
Scrum: As Regras do Jogo. http://scrumguides.org/docs/scrumguide/v1/Scrum-
Guide-Portuguese-BR.pdf, Outubro.
Sommerville, I. (2011). Engenharia de Software. 9. ed. São Paulo: Pearson Addison-
Wesley.
Standish Group (2015). The Chaos Report 2015. http://www.standishgroup.com/,
Outubro.
VersionOne. (2015). 9th Annual State of Agile Development Survey.
http://www.versionone.com/pdf/state-of-agile-development-survey-ninth.pdf, Abril.
70
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Abstract. Current computers have their origins in the huge existing machines
in the computer rooms of the early days of the computer industry. By the early
60s of last century, these machines were built exclusively for government
agencies and military purposes which meant that certain security procedures
were used and, in addition, these systems required special environments
needed for its operation . With the evolution of technology, the size these
computers have significantly reduced, to the point that, based on recent
studies a mini computer was developed with the size of a credit card, which
has similar functions of a computer with just a few restrictions of hardware.
This work will address applications used with Raspberry Pi and conducts a
survey of applications and their potential.
1. Introdução
Com o advento da evolução das tecnologias de informação e comunicações e do acesso
a elas, as distâncias começaram a ficar menores. Antes da grande revolução da
internet, as pessoas se comunicavam por meio de cartas que muitas vezes precisavam
cruzar oceanos para chegar a seus remetentes.
71
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Dentre as máquinas que deram início a essa revolução, pode-se citar a primeira máquina
automatizada chamada "Pascalina", que foi a primeira calculadora mecânica do mundo,
também pode-se falar de Joseph Marie Jacquard, que construiu um tear inteiramente
automatizado e introduziu o conceito de cartão perfurado, a máquina diferencial de
Charles Babbage, para cálculos com polinômios, de Herman Hollerith um empresário
norte-americano e sua máquina de tabular, até Bill Gates e Steve Jobs que popularizam
o conceito da Computação Pessoal.
Hoje em dia, é possível, por meio da internet, uma comunicação praticamente
instantânea. A internet que é uma rede de computadores dispersos por todo o planeta
que trocam dados e mensagens utilizando um protocolo comum. Ela surgiu no final da
década de 60, nos Estados Unidos da América. A primeira rede desse gênero chamava
ARPANET e tinha como objetivo a defesa do território americano, devido as ameaças
de interrupção das linhas de comunicação ou um possível ataque atômico de outro país.
A internet é hoje um meio de comunicação imprescindível na vida de todos, mas, ela
nem sempre teve o formato que se conhece e utiliza atualmente. Um servidor web é um
computador que fornece o serviço para armazenamento de páginas web (container),
onde ele recebe requisições de navegadores web pedindo por documentos, por meio de
uma conexão de rede. Ele decifra a conexão para determinar qual arquivo é solicitado,
procura o arquivo e, se estiver disponível, devolve para o host solicitante [Mamani
2010].
O Raspberry Pi é um computador do tamanho de um cartão de crédito que se conecta à
uma tela e a um teclado. É um pequeno computador com capacidade para ser usado em
projetos eletrônicos, e para muitas das coisas que um PC comum faz, como planilhas,
processamento de texto e jogos [Raspberry 2015].
Este trabalho realizará uma revisão da literatura dos projeto realizados com o Raspberry
Pi, suas aplicações e verificar suas potencialidades a fim de obter parâmetros para esse
equipamento.
2. Fundamentação Teórica
Raspberry Pi é um computador do tamanho de um cartão de crédito, que se conecta a
um monitor, teclado, mouse, e qualquer outro periférico USB. Ele foi desenvolvido pela
Fundação Raspberry Pi em conjunto com a Universidade de Cambridge, localizada no
Reino Unido. O objetivo inicial desse equipamento foi o de ensinar programação e
ciência em escolas.
Foram lançadas, inicialmente, duas versões A e B, a diferença primordial é que o
modelo B tem duas entradas USB e tem um controlador ethernet. O modelo A não tem
controlador ethernet e só tem uma entrada USB que pode ser ruim, pois não seria
possível ligar mouse e teclado [Peres 2013].
Em 2014 houve o lançamento de uma versão melhorada do modelo B. Um salto de
grande diferencial é o fato da nova versão, chamada de B+, ter 4 entradas USB, já que
72
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
o seu homólogo tinha duas. Outras mudanças também ocorreram, uma delas é o fato da
entrada SD ter dado lugar para uma entrada MINI SD, isso ajuda para que não fique
metade do cartão SD pra fora. Houveram melhorias no áudio que dispõe de uma fonte
de alimentação de baixo ruído, já que foi mencionada a fonte de alimentação, é bom
lembrar que o dispositivo B+ apresenta menor gasto de energia [Peres 2014].
3. Aplicações e Potencialidades
O Raspberry Pi, tem como grande foco o ensino da ciência para alunos, isso o torna
muito interessante, pois ele motiva os alunos de maneira diferente. Ele é muito útil tanto
na parte de um entendimento melhor da arquitetura já que é um pequeno computador e
fica com todas as suas peças de hardware a mostra. Também é muito útil na
aprendizagem de programação pois age exatamente como um computador somente com
o demérito de ter um hardware menos potente. Também é acessível, pois tem preços
muito baixos em relação a um computador convencional e apresenta funções idênticas
(apenas com diferença no potencial de hardware), e seu preço gira em torno de 35
dólares [Cardoso, Costa e Sousa 2013].
Como o Raspberry Pi tem exatas funções de um computador, é possível usá-lo em
muitas aplicações diferentes, como por exemplo a de servidor web, servidor de banco de
dados. No projeto de Silva e Nascimento (2014), Raspberry Pi é usado como um
gerenciador de uma rede smart grid utilizando dispositivos zigbee. Ele passa esses
dados até o Raspberry que gerencia a smart grid. Fazendo que isso chegue até um banco
de dados e que possa ser analisado por uma pessoa.
O Raspberry Pi também tem funções na área da medicina, que pode ajudar no
monitoramento de pacientes usando-o novamente como servidor web. Pacientes muitas
vezes não podem ser atendidos imediatamente, a solução para isso seria um
monitoramento remoto ao paciente. Shinde (2014) usa o Raspberry Pi para implementar
o servidor que vai acessar o banco de dados do paciente onde ficam armazenados os
dados de condições físicas como por exemplo batimentos cardíacos entre outros dados.
Um possível problema apontado pelo autor é o baixo poder de processamento do
Raspberry Pi, que provavelmente geraria problemas com o gerenciamento do webserver
e do database .
Recentemente começou a se estudar sobre um programa para gerenciamento de balões
de grandes altitudes para observações astronômicas e atmosféricas, usando um
Raspberry Pi. Diferentes tipos de sensores de altitude têm sido usados em vôos de
balões, como: rastreadores de estrelas, sensores de sol, magnetômetros, acelerômetros e
giroscópios. A idéia é a construção de sensores de altitude em torno de um Raspberry Pi
[Sreejith et al, 2014]. Outra aplicabilidade foi proposta por Bysani, Prasad e Chundi (
2013), que utilizou o Raspberry Pi e suas aplicações em áreas automotivas. A ideia
desse projeto é a interação entre o dispositivo com todas as outras partes tecnológicas do
carro. O Raspbery fica no veículo como um painel podendo ver como, por exemplo,
quando trocar o óleo, gasolina, velocidade, temperatura e outras.
73
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
4. Considerações Finais
Desde a criação do Raspberry Pi, surgiram aplicações de várias áreas de atuação como:
educação, cultura, medicina, para integrar com esse equipamento e conseqüentemente
novas tecnologias permitem ainda mais o crescimento e evolução do mesmo. No intuito
de apresentar essa tecnologia, esse trabalho buscou uma verificação de aplicações já
realizadas e de mostrar a potencialidade do Raspberry, obtendo dados que servirão
como referência para pesquisa "Servidores Web em Computadores Singleboard
Raspberry Pi". Para os trabalhos futuros será levada em consideração outros modelos de
computadores singleboard e também de outros modelos de servidores web e será
realizada uma comparação de desempenho.
REFERÊNCIAS
Cardoso, A., Costa, E. e Sousa, G. (2013) “O Potencial Educativo do Raspberry Pi”, p.
1–16.
Bysani, C., Prasad, T. S. R. K. e Chundi, S. (2014) “Raspberry pi for commercial
applications”, In: INternational Journal of Computers & Technology, v. 4, n. 1, p.
266–275.
Mamani, Edwin Luis Choquehuanca. (2010) “Um sistema servidor web distribuído com
provisão de QoS absoluta e relativa”, Dissertação (Mestrado em Ciências de
Computação e Matemática Computacional), Universidade de São Paulo, São Carlos,
http://www.teses.usp.br/teses/disponiveis/55/55134/tde-15022011-085730, Outubro.
Peres, R. (2014) “Raspberry pi em versão melhorada”, Portugal a programar, v. 46, p.
39–40.
Peres, R. (2013) “Raspberry pi: Pequeno mas Grande”, Portugal a programar, v. 40, p.
65–66.
Raspberry.(2015) “What is a Raspberry Pi”, https://www.raspberrypi.org/help/what-is-
a-raspberry-pi, Outubro.
Silva, E. R. O. e Nascimento, V.E. (2014) “Implementação De Banco De Dados Em
Sistema Operacional Aberto Embarcado Com Rede Zigbee” In: Jornada de Pesquisa
e Extensão do IFMT Campus Cuiabá, p. 65–76.
Shinde, P. (2014) “Development of embedded web server for medical”, International
Journal of Electrical, Electronic and Data Comunication, v. 2050, p. 170–174.
Sreejith, A. G. et al. (2014) “A Raspberry Pi-Based Attitude Sensor”, p. 1–13.
74
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1. Introdução
Vivemos em um mundo onde o tempo é muito precioso, longa jornada de trabalho, com
isso existe a necessidade de automatizar o ambiente residencial, para efetuar com
agilidade as tarefas repetitivas do dia a dia, como, ligar o televisor, fechar a janela, ligar
ou desligar uma lâmpada, ajustar a temperatura, entre outras. Ocasionando uma
diminuição no tempo gasto para realiza-las, sem mencionar a segurança que um
ambiente automatizado proporciona, visto que, existem diversos problemas sociais que
preocupam o mundo de hoje.
O objetivo desse trabalho é propor a utilização de sistemas multiagentes na
automação residencial, contribuindo para que não haja uma intervenção direta do
usuário na realização de uma tarefa, pois o próprio sistema aprenderá baseado em seus
comportamentos as suas necessidades, e irá agir de acordo com elas.
2. Fundamentação Teórica
75
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
3. Trabalhos Relacionados
Algumas universidades e empresas privadas estão trabalhando em projetos utilizando
agentes de software em ambientes inteligentes.
A MavHome é um projeto da Washington State University e Universidade do
Texas com o foco de criar uma casa inteligente utilizando agentes inteligentes. O
trabalho de DAS et al. (2002) define um ambiente inteligente capaz de adquirir e aplicar
o conhecimento aprendido sobre seus habitantes.
O controle de uma residência, torna-se muito grande e complexo para ser
executado por uma única aplicação, com isso houve a necessidade de decompor as
tarefas em subáreas. As subáreas foram organizadas em formas de camadas,
representadas pelos agentes de software.
A casa do futuro da Microsoft utiliza uma gama de tecnologias que trabalham
juntas com o propósito de torna a vida diária das pessoas mais fácil, divertida e segura
[Rosário 2009].
76
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
4. Metodologia
Para o desenvolvimento do sistema, proposto no presente trabalho, foi utilizada a
plataforma Jade (http://jade.tilab.com) para dar suporte aos agentes inteligentes, e como
forma de aprendizado foi utilizado o algoritmo ID3, responsável pelo processo de
adaptação do sistema de automação.
Os agentes de software irão monitorar constantemente os sensores, verificando
se existem mudanças nos seus status. Cada agente representa um sensor, que reporta as
informações de mudanças para seus agentes superiores conforme arquitetura proposta
por Zambiasi (2002). O agente controlador é responsável pela mineração dos eventos
ocorridos e pela criação das regras geradas pelo ID3.
Segundo Takiuchi, Melo e Tonidandel (2004) para utilização do algoritmo de
aprendizagem ID3 no sistema de automação algumas premissas devem ser definidas
sendo elas:
Conjunto de Treinamento: Cada conjunto de treinamento no sistema ID3
representará um atuador do sistema de automação.
Resposta: Cada atributo de resposta de um conjunto de treinamento no
sistema ID3 será um estado do atuador cujo conjunto de treinamento
representa.
Instâncias e atributos: Cada sensor de um sistema de automação é uma
instância cujos atributos formam o status deste sensor.
A partir dessas premissas, o agente controlador extrairá os dados gerados pela
árvore de indução e irá utilizar como forma de aprendizado para novos comportamentos.
A árvore de decisão na Figura 1, demonstra que foram utilizados 3 atributos (Ar-
condicionado, Janela e Ventilador) para determinar o status do Ventilador. Um exemplo
de regra obtida pelo agente seria, toda vez que o ar-condicionado estivesse ligado o
ventilador estaria desligado.
5. Considerações Finais
A utilização de sistemas multiagentes no âmbito residencial contribuirá para cada agente
possa ser representado por um dispositivo ou tecnologia empregada na casa, tornando a
interação entre esses dispositivos mais flexíveis. A partir das referências levantadas,
77
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Referências
Chaib-Draa, B., Imed J., and Bernard M. (2001) “Systèmes multi-agents: Principes
généraux et applications.” Principes et architectures des systèmes multi-agents.
Disponível em: < http://goo.gl/tjkb9E>. Acesso em: 04 out. 2015.
Das, S. K.; Cook, D. J.; Bhattacharya, A.; Heierman, E. O. (2002) The Role of
Prediction Algorithms in the MavHome Smart Home Architecture. [Artigo online].
Disponível em: <http://goo.gl/yGp5UD>. Acesso em: 18 out. 2015.
Domingues, R. G. (2013). A domótica como tendência na habitação: Aplicação em
habitações de interesse social com suporte aos idosos e incapacitados. Dissertação
(mestrado), Universidade Federal do Rio de Janeiro, Rio de Janeiro. Disponível em:
< http://goo.gl/5isYKz >. Acesso em: 03 out. 2015.
Hopgood, A. A. (2001) Intelligente systems for engineers and scientists. 2nd ed. CRC
Press LLC. Florida, United States of America. Disponível em: <
http://goo.gl/CCCgPJ >. Acesso em: 10 jan. 2015.
Weiss, G, ED. (1999). “Multiagent systems: a modern approach to distributed artificial
intelligence”. [Ebooks] Cambridge: The MIT Press. Disponível em: <
http://goo.gl/kD1vWj>. Acesso em: 30 set. 2015.
Wooldridge, M., Jennings, N. (1995). “Intelligent Agents: Theory and Practice”. [Artigo
online] Cambridge University Press: Knowledge Engineering Review. Disponível
em: < http://goo.gl/ZYWMuS>. Acesso em: 03 out. 2015.
Mavhome. (2015) MavHome [Página web]. Disponível em: <
http://ailab.wsu.edu/mavhome/information.html>Acesso em: 30 set. 2015.
Rosário, J. M. (2009) Automação Industrial. [Ebooks]. Disponível em:
<https://goo.gl/ERc06G>. Acesso em: 13 out. 2015.
Sycara, K. P. (1998) Multiagent Systems. [Artigo online]. Disponível em:
<http://goo.gl/bW4bdR>. Acesso em: 4 out. 2015.
Takiuchi, M.; Melo, É.; Tonidandel, F. (2004) Domótica Inteligente: Automação
baseada em Comportamento. [Artigo online]. Disponível em: < http://goo.gl/SysgmR
>. Acesso em: 18 out. 2015.
Zambiasi, S P. (2002) Ambientes inteligentes. Dissertação (mestrado), Universidade
Federal de Santa Catarina, Florianópolis. Disponível em: < http://goo.gl/Aln8nD >.
Acesso em: 14 maio 2015.
78
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1. Motivação
A agricultura é uma das atividades econômicas que tem maior dependência das
condições do clima e do tempo. Estes fatores têm influência no planejamento e na
tomada de decisão agrícola, e atua em todas as etapas da produção, que vai desde a
escolha da espécie a ser explorada, passando pela definição da época do ano para
plantio, preparo do solo, semeadura, tratos culturais, colheita, armazenamento,
transporte e comercialização de produtos. Associado a isso, as mudanças climáticas, a
médio e longo prazo, vem trazendo enormes impactos socioeconômicos, muitas vezes
difíceis de ser quantificados, de tal modo que torna o setor agropecuário um segmento
79
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
2. Fundamentação Teórica
Carvalho (2002) cita que o processo, KDD (Knowledge Discovery in Database), é uma
área interdisciplinar que surgiu como resposta à necessidade de novas abordagens e
soluções para viabilizar a análise de grandes bancos de dados. O termo KDD é
empregado para descrever todo o processo de extração do conhecimento de um conjunto
de dados, enquanto o termo mineração de dados (Data Mining) refere-se a uma das
etapas deste processo.
Segundo Han e Kamber (2006), a Mineração de Dados ou Data Mining pode ser
vista como um processo de extração de informações, sem conhecimento prévio de
grandes massas de dados e seu uso para a tomada de decisão. Este processo consiste na
aplicação de algoritmos que extraem conhecimento a partir dos dados. Esses algoritmos
podem ser de classificação, regressão, agrupamento (clusterização), entre outros, que
possibilitem a sintetização do conhecimento.
Na estatística, os algoritmos podem ser aplicados para descobrir estruturas ou
associações em conjunto de dados, realizar previsões, etc. Dentre elas, destacam-se
modelos de regressão, que são modelos matemáticos e têm como um dos objetivos
prever o valor da variável dependente (Y) a partir das informações provenientes de um
conjunto de variáveis independentes (X). De acordo com Montgomery et al. (2001), a
análise de regressão representa uma técnica estatística capaz de investigar e modelar a
relação entre variáveis.
80
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
De acordo com Shadbolt (2010), o risco deve ser entendido como uma perda
potencial de um negócio em decorrência de eventos desfavoráveis. Por sua vez, Kimura
(1998) define duas esferas principais de risco, sendo elas: “os riscos de produção e os
riscos econômico-sociais”, que embora tenham causas distintas, uma interfere na outra,
e o produtor pode buscar a gestão dos riscos, mas não eliminá-los.
3. Metodologia
Para o desenvolvimento e fundamentação do modelo de previsão de risco proposto no
presente estudo, dentre as metodologias disponíveis para a execução de projetos de
mineração de dados será seguido o CRISP-DM (Cross- Industry Standard Process of
Data Mining), Larose (2005). Trata-se de uma metodologia padrão, não proprietária que
se estrutura em torno de tarefas e objetivos para cada fase do projeto de mineração de
dados. A figura 1 apresenta as fases de trabalho da metodologia CRISP-DM.
81
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Referencias
82
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1. Introdução
Decorrente da evolução tecnológica e com aumento da conectividade global, as pessoas
passaram a gerar um enorme volume de dados. Deste grande volume de dados pode se
obter informações valiosas para diversas áreas, tendo assim a necessidade de analisá-los
utilizando uma variedade de ferramentas e técnicas. O conceito de big data já vem sendo
utilizado com sucesso nas atividades de comércio, entretenimento e comunicação
[Manyika et al. 2011]. Cada vez mais a área educacional tem utilizado novas
ferramentas tecnológicas como uma plataforma de apoio no processo de ensino-
aprendizagem e com isso vem gerando um grande volume de dados sobre esse processo.
Este artigo está organizado em cinco seções. A Seção 2 corresponde a metodologia
utilizada. A Seção 3 descreve a fundamentação teórica de big data. A Seção 4 descreve a
utilização do conceito de big data no âmbito educacional. Considerações finais são
descritas na Seção 5.
2. Metodologia
Para o desenvolvimento do presente artigo, foi adotada como metodologia a pesquisa
bibliográfica. Este tipo de pesquisa tem como objetivo conhecer as diferentes
contribuições científicas disponíveis sobre o determinado tema. Marconi e Lakatos
(2008, p. 57) afirmam que: “[…] a pesquisa bibliográfica não é uma mera reprodução do
que já foi escrito sobre um determinado tema, mas propicia o exame de um tema sob
novo enfoque ou abordagem […]”.
3. Big Data
O conceito de big data possui muitas definições e explanações desde a percepção de seu
surgimento. Segundo IBM (2014), big data é um termo utilizado para uma tendência
tecnológica a qual engloba uma série de técnicas e métodos com finalidade de extrair
valor das informações. O conceito de big data é compreendido de melhor forma
considerando as cinco dimensões descritas a seguir – variedade, veracidade, volume,
valor e velocidade, conforme mostra a Figura 1:
83
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
84
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
5. Considerações Finais
A utilização de big data no âmbito educacional brasileiro pode trazer benefícios
relacionados a auxiliar a atuação de educadores e gestores educacionais em suas
tomadas de decisões permitindo assim crescimento nos ganhos de aprendizagem. As
técnicas de analytics learning e aprendizagem adaptativa atualmente, são os principais
85
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Referências
Brynjolfsson, E. e Macafee, A. (2012), Big Data – A revolução da Gestão. Harvard
Business Review. Out.
Davenport, T, Barth, P e Bean, R. (2012), How Big Data is different. MIT Sloan
Management Review.
Guthrie, D. (2013), The Coming Big data Education Revolution. Disponível em
http://www.usnews.com/opinion/articles/2013/08/15/why-big-data-not-moocs-
willrevolutionize-education. Acesso: 17 jun. 2015. Não paginado.
IBM. (2014), O que é Big Data. Disponível em
http://www.ibm.com/midmarket/br/pt/infografico_bigdata.html Acesso: 24 jun. 2015.
Não paginado.
Lajara, T. et al. (2013), Investimentos em TI e sua influência no desempenho
organizacional: Através da governança da informação e capacidades de gestão da
informação, moderado pelo big data. In: IV Encontro de Administração da Informação
ENADI, 2013, Rio Grande do Sul. Bento Gonçalves: UFRGS.
Manyika, J. et al. (2011), Big data: The Next Frontier for Innovation, Competition, and
Productivity. McKinsey Global Institute.
Marchand, D. e Peppard, J. (2013), Why IT fumbles analytics. Harvard Business Review.
Jan/feb.
Marconi, M. e Lakatos, E. (2008), Técnicas de pesquisa. São Paulo: Atlas.
Neves, C. (2014), Big Data: uma fonte de poder? Disponível em
http://www.administradores.com.br/artigos/marketing/big-data-uma-fonte-de-
poder/79336/ Acesso: 26 jun. 2015. Não paginado.
Scaico, P., Queiroz, R. e Scaico, A. (2014), O Conceito Big data na Educação. In: XIX
Workshop de Informática na Escola, 9., 2014, São Paulo. 3º Congresso Brasileiro de
Informática na Educação. Campinas: UNICAMP.
Schleicher, A. (2013), Big data and PISA. Disponível em
http://www.huffingtonpost.com/andreas-scheicher/big-data-and-pisa_b_3633558.html.
Acesso: 24 jun. 2015. Não paginado.
Taurion, C. (2012), Você realmente sabe o que é o big data? Blog da IBM, abr. Disponível
em https://www.ibm.com/developerworks/mydeveloperworks/blogs/ctaurion/entry/
voce_realmente_sabe_o_que_e_big_data?lang=en Acesso: 23 jun. 2015. Não paginado.
West, O. (2013), Big Data Insights. Disponível em
http://www.comscore.com/por/Insights/Presentations-and-Whitepapers/2013/Big-Data-
Insights Acesso: 24 jun. 2015. Não paginado.
86
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Abstract. This paper proposes two quantile regression models for symbolic
data of the type interval. The predictions of the lower and upper bounds of
new intervals are performed and simulation studies are carried out to validate
these predictions. One application with real-life interval data sets is
considered. In addition, these proposed methods are compared by the
regression methods of the literature symbolic data. The performance of the
methods are measured by the prediction accuracy that is based on the mean
magnitude of relative errors.
Resumo. Este artigo propõe dois modelos de regressão quantílica para dados
simbólicos do tipo intervalo. A predição dos limites inferiores e superiores de
novo intervalo são avaliados e estudos de simulação são realizados para
validar essa predição. Uma aplicação com dados reais do tipo intervalo é
considerada. Em adição, esses métodos propostos são comparados com os
métodos de regressão da literatura de dados simbólicos. O desempenho dos
métodos é medido pela predição de acurácia baseada na magnitude média do
erro relativo.
1. Introdução
A análise de dados simbólicos (ADS) [Bock e Diday, 2000] aborda a extração de
conhecimentos em bases de dados, buscando ampliar os métodos da análise exploratória
de dados e técnicas estatísticas para dados agregados. Os dados simbólicos são
interpretados por variáveis multivaloradas que podem assumir, além de valores
numéricos ou categóricos, um conjunto de categorias, intervalos ou distribuições de
pesos. A importância dessa representação está associada a abrangência de variação e/ou
incerteza na descrição dos dados agregados, otimizando a modelagem do conjunto em
análise.
Em relação aos diversos métodos estatísticos existentes para análise de dados
clássicos, que foram estendidos a dados simbólicos, podem ser citados: estatísticas
descritivas, análise gráfica, análise de cluster, análise de componentes principais, análise
fatorial, árvores de decisão e alguns conceitos iniciais contidos no modelo clássico de
regressão [Billard e Diday, 2000].
Neste contexto, a regressão quantílica é utilizada quando deseja-se obter
estimativas dos diferentes quantis de uma população. Este tipo de regressão possui
algumas vantagens em relação a outros tipos de regressão como, por exemplo: apresenta
maior robustez quando lida com dados extremos (outliers) ao estimar a mediana, pode-
se estimar qualquer quantil da distribuição.
87
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1.1 Motivação
De acordo com Montgomery et al (2001), a análise de regressão representa uma técnica
estatística capaz de investigar e modelar o relacionamento entre variáveis. Como por
exemplo, um pesquisador poderia estar interessado em saber se a variável idade
influencia e de que forma influencia a variável salário. Neste caso, uma amostra de
pessoas de idades diferentes com seus respectivos salários poderia gerar um ajuste de
um modelo de regressão, que auxiliaria a explicar a relação entre essas duas variáveis.
Desta forma, a regressão linear clássica baseia-se no método dos mínimos
quadrados para estimação dos parâmetros do modelo [Davino et. al, 2013]. Embora esse
método seja mais utilizado, existe algumas limitações que levaram à busca por outros
métodos. Em primeiro lugar, esta metodologia está fortemente associada à distribuição
normal dos erros. Quando os erros estão distribuídos de uma forma assimétrica ou
possuem uma cauda mais pesada que a distribuição normal, então a performance deste
método na estimação de parâmetros é ruim. Em segundo lugar, com relação aos
problemas na utilização do método de mínimos quadrados, onde existe a questão da
influência que outliers exercem nas estimativas dos parâmetros do modelo. Isso faz com
que seja necessário, sempre que se utiliza essa técnica, uma criteriosa avaliação de
quando cada ponto influencia no ajuste do modelo, o que pode atrapalhar na
identificação da verdadeira relação entre as varáveis de interesse.
Nesse contexto teórico, o objetivo desse trabalho proposto é o desenvolvimento
de um modelo de regressão quantílica para dados simbólicos do tipo intervalo.
Considerando duas propostas para estimação dos parâmetros: uso do método dos erros
absolutos ponderados para estimação dos parâmetros da regressão e a utilização de uma
meta-heurística para estimação desses parâmetros. Essa meta-heurística é baseado em
algoritmos de otimização de enxames, uma vez que estes algoritmos realizam uma busca
para o espaço de soluções ótimas.
2.Fundamentação Teórica
Esta seção aborda a fundamentação teórica da metodologia de regressão quantílica,
como também, o conceito de algoritmo de otimização por enxame.
88
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
3. Metodologia
Para avaliar os métodos propostos de regressão quantílica para dados simbólicos do tipo
intervalo serão utilizados dados reais e simulados através da implementação na
plataforma R. A base de dados reais disponível no repositório de projetos de software
da NASA[NASA] será utilizada para fazer estimativas de projetos software, como
exemplo, esforço, tempo, tamanho ou custo.
89
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
90
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
1. Introdução
A lógica fuzzy foi criada por Lofti Asker Zadeh e publicada em 1965 através do seu traba-
lho denominado Fuzzy Sets [Zadeh 1965]. Conforme abordado por Zadeh [Zadeh 1965],
as classes de objetos encontrados no mundo real não satisfazem a definição de membros
de forma precisa, por exemplo, no reino animal as classes possuem como membros cães,
cavalos, pássaros, insetos, etc. Entretanto, alguns desses membros como a estrela do mar
e as bactérias possuem um estado ambı́guo dentro da classe de animais. Esta ambiguidade
também é observada em outros conjuntos do mundo real como a classe de jovens, a classe
dos idosos e a classe dos homens altos (i.e., 1,70m pode ser considerado alto para uma
determinada população, mas para alguém que seleciona jogadores de basquete não). Em
função dessa imprecisão utiliza-se no dia-a-dia termos subjetivos tais como: o clima está
”muito quente”, ela precisa emagrecer ”alguns quilos”, desça ”poucos metros” ao longo
desta estrada. Esta imprecisão é o que difere a lógica fuzzy da lógica clássica. Na lógica
clássica um elemento possui apenas dois estados dentro de um conjunto, isto é, ou ele
pertence (1 −→ Verdadeiro) a um conjunto ou ele não pertence (0 −→ Falso), enquanto
que na lógica fuzzy este mesmo elemento pode ter diferentes valores entre [0,1].
91
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Desde sua criação a lógica fuzzy tem sido utilizada na indústria, principalmente no
Japão, paı́s em que se tornou comum. De acordo com Ross [Ross 2010], a lógica fuzzy é
empregada principalmente no ajuste de temperatura e velocidade. Dentre as aplicações da
lógica fuzzy destacam-se: foco automático de câmeras fotográficas; estabilização de ima-
gem em filmadoras; otimização de protocolos de roteamento [Geetha and Ramani 2012],
etc. Independente das aplicações é necessário a utilização de um Sistema de Inferência
Fuzzy (SIF), que consiste em um sistema que se utiliza da lógica fuzzy para mapear
entradas não fuzzy em saı́das. Um SIF é composto pelas seguintes partes (Figura 1):
fuzzificação, fase em que são criados os conceitos linguı́sticos (ex., alto, médio e baixo)
e funções de pertinência (𝜇𝐴 : 𝑈 −→ [0, 1]), que representam o grau de pertinência de
uma variável linguı́stica em um conjunto fuzzy; inferência, fase em que são criadas re-
gras e proposições (ex., Se X é Médio, E Y é Alto, E Z é Baixo ↦→ W é Médio); e
defuzzificação, fase na qual o valor fuzzy é convertido em um número real. Diante das
inúmeras vantagens da lógica fuzzy, diversos pesquisadores tem utilizado a mesma para
a otimização de redes móveis Ad-Hoc (do inglês, Mobile Ad-Hoc Networks - MANETs)
[P.S.Hiremath and M.Joshi 2012, José 2014]. Estas têm aplicações especı́ficas e diferem
das demais redes por possuı́rem roteamento multisalto, topologia dinâmica, limitação de
energia e nós móveis. Diante do exposto, o objetivo do presente trabalho consiste em
avaliar a acurácia do SIF desenvolvido em [José 2014], uma vez que no trabalho em
questão não se utilizou de nenhuma ferramenta para avaliar a precisão das regras e dos
métodos de composição e defuzzificação. Para tal avaliação será utilizado o MATLAB
[MathWorks 2015], que consiste em uma linguagem de alto nı́vel e em um ambiente inte-
rativo amplamente utilizado por milhões de engenheiros e cientistas em todo o mundo e
possui, entre outros, um módulo que implementa a lógica fuzzy. Dessa forma, o SIF pro-
posto em [José 2014] será modelado no MATLAB de modo que seus resultados possam
ser avaliados e, se necessário, ajustados para serem utilizados como critério de escolha de
nós retransmissores no protocolo OLSR, Multipoint Relays (MPRs). A escolha do MA-
TLAB se deve ao fato do mesmo ser uma ferramenta confiável e consolidada no meio
acadêmico.
92
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
2. Trabalhos Relacionados
Geetha e Ramani [Geetha and Ramani 2012], propuseram um algoritmo que faz a pre-
visão de multicaminhos confiáveis utilizando regras de lógica fuzzy, o mesmo foi base-
ado no protocolo de roteamento OLSR e efetivamente detecta nós maliciosos em MA-
NETs, garantindo uma elevada taxa de entrega de pacotes. O trabalho de Hiremath e
Joshi [P.S.Hiremath and M.Joshi 2012], utiliza a lógica fuzzy no protocolo Ad-Hoc On-
Demand Distance Vector (AODV) com o objetivo de melhorar a eficiência energética, os
resultados mostraram que a proposta é capaz de prover maior tempo de vida à rede, tanto
para pequenas quantidades de nós quanto para altas densidades. O trabalho descrito em
[José 2014], propõe uma extensão ao OLSR denominada OLSR-Fuzzy Cost (OLSR-FC), a
proposta em questão (métrica de roteamento FC) se utiliza de um SIF, composto por sete
regras de inferência, que tem o objetivo de evitar nós egoı́stas, os resultados mostraram
que o OLSR-FC obtém uma baixa taxa de perda de pacotes se comparado às extensões
OLSR-ETX, OLSR-MD e OLSR-ML.
93
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
cesso de defuzzificação, a Média Ponderada (Equação 1) foi o método escolhido por ser
mais eficiente computacionalmente [Ross 2010]. Já o método de composição utilizado
foi o Máximo dos Mı́nimos (MAX/MIN) (Equação 2), a escolha desse método, segundo
[José 2014], se deve ao fato dele ser amplamente usado na engenharia.
∑︁
𝜇𝐴 𝑥¯.¯
𝑥
𝑧* = ∑︁ . (1)
𝜇𝐴 𝑥¯
𝜇𝐵 ‘𝑖 (𝑦) = 𝑀 𝐴𝑋[𝑀 𝐼𝑁 (𝐷𝑘 , 𝜇𝐵𝑖 (𝑦))], ∀ 𝑦 ∈ 𝑈𝑦𝑗 . (2)
4. Resultados Esperados
Os resultados esperados com esta pesquisa consistem nas avaliações dos componentes do
SIF (ex., fuzzificação, inferência e defuzzificação) proposto ao OLSR-FC, de modo que o
mesmo possa ser calibrado e, caso necessário, melhorado. Esta avaliação se faz necessária
pois a métrica de roteamento FC será utilizada como critério de escolha de nós MPRs, o
objetivo disso consiste em dar continuidade ao trabalho proposto em [José 2014].
Referências
Geetha, S. and Ramani, D. G. G. (2012). Trust based secure multipath olsr routing proto-
col in manet using fuzzy theory. ACM Proceedings of the Second International Con-
ference on Computational Science, Engineering and Information Technology, pages
120–125.
José, D. A. M. (2014). OLSR Fuzzy Cost (OLSR-FC): uma extensão ao protocolo OLSR
baseada em lógica Fuzzy e aplicada à prevenção de nós egoı́stas. Master’s thesis,
Universidade Federal de Goiás-UFG, Instituto de Informática-INF, Brasil.
MathWorks (2015). Matlab. http://www.mathworks.com/products/
matlab/. Acessado em 8 de outubro de 2015.
P.S.Hiremath and M.Joshi, S. (2012). Energy efficient routing protocol with adaptive
fuzzy threshold energy for manets. International Journal of Computer Networks and
Wireless Communications-IJCNWC, 2(3):402–407.
Ross, T. J. (2010). Fuzzy Logic With Engineering Applications. Jhon Wiley & Sons ltd.,
USA, 3th edition.
Zadeh, L. A. (1965). Fuzzy Sets*. Information and Control, 8:338–353.
Zhao, J. and Bose, B. K. (2002). Evaluation of Membership Function for Fuzzy Logic
Controlled Induction Motor Drive. IECON 02, IEEE 2002 28th Annual Conference,
Volume:1, 1:229–234.
94
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Abstract. This article aims at defining what are virtual goods, as well as
discuss them, their usefulness and where they can be purchased, including
forms of e-commerce and security forms that can be used to prevent misuse of
information or assets are they virtual or tangible.
Resumo. Este artigo tem por meta definir o que são bens virtuais, bem como
discorrer sobre eles, sua utilidade e onde podem ser adquiridos, abrangendo
as formas de comércio virtual e as formas de segurança que podem ser usadas
para evitar desvio de informações ou de bens sejam eles virtuais ou tangíveis.
1. Introdução
Com o crescimento da tecnologia que se tem disposição, uma série de meios de
comunicação e entretenimento foram criados. Assim surgiram os jogos, que deram uma
nova perspectiva em relação aos bens adquiridos, o que antes eram apenas bens
materiais (algo palpável) hoje foi dividido em outra categoria chamada, bens imateriais
(aquele a que só se tem acesso por meio virtual).
Bens virtuais são objetos não físicos adquiridos para a utilização em
comunidades ou jogos online. Eles não têm valor definido e são intangíveis, sendo eles,
armas, presentes digitais, roupas digitais para Avatares, entre outros. Os itens são
geralmente fornecidos por empresas que operam redes sociais, sites de comunidade ou
jogos online. Esses elementos formados por pixels que vinculam valores capitais para a
sua aquisição, são caracterizados como Bens Virtuais (REBS, [2010?]).
O fato de que os bens adquiridos são imateriais fixando-se somente dentro do
mundo virtual torna-se um problema a mais, pois deixa mais complexa a busca por seus
direitos no mundo real, o Brasil, por exemplo, não possui leis que assegurem a
propriedade desses bens adquiridos. O presente trabalho pretende levar ao público a
compreensão do que são tais bens e quais são as garantias que cada usuário tem sobre os
mesmos.
2. Bens virtuais
Bens virtuais podem ser definidos como:
Elementos que somente existem no contexto de uma única aplicação, em
contraste com bens digitais, como: música ou filmes. Os bens virtuais (ou
"virtual goods") são efêmeros, no sentido em que existem apenas em um
universo ou cenário fictício. Alguns exemplos são: armas, habilidades, naves
e outros equipamentos virtuais. (SAMPAIO; RODRIGUES, 2012, p. 23)
95
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Outro tipo de Bem Virtual são os adquiridos em jogos, resume-se ao fato em que
o jogador assume um personagem em um mundo virtual onde se desenvolve a trama do
game, este personagem é chamado de Avatar ao qual tem tarefas a cumprir em seu
mundo virtual, e a cada trabalho realizado o mesmo evolui adquirindo assim novas
habilidades. E muitos dos jogadores recorrem a um meio mais fácil para atingirem seus
objetivos, compram com dinheiro real em sites especializados um Avatar evoluído ou os
objetos de seu interesse, necessários para que o jogador possa assim alcançar outro nível
de evolução. (VERSIGNASSI; SURCIN 2007 apud FRANCO, 2012, p. 23).
3. Transações virtuais
Assim como o comércio dentro dos jogos são executados por meio virtual também
existem os outros tipos de comércio feitos também somente em meio virtual que
segundo (ALMEIDA, 2007) são:
B2C - Empresa-a-consumidor (Business to Consumer): Comércio
eletrônico do tipo B2C é basicamente um tipo de transação comercial em
que o comprador é uma pessoa física que, a partir de um computador
pessoal, realiza suas buscas e adquire um produto ou serviço através da
Internet.
C2C – Consumidor-a-consumidor (Consumer to Consumer): Dentre as
categorias de comércio eletrônico há, ainda o (C2C), uma importante
estratégia de negócios, onde os comerciantes podem comprar e vender
entre si em um processo de leilão. Assim como é feito tradicionalmente
onde um produto é ofertado, e que posteriormente será vendido para
quem der o maior lance.
As outras duas formas existentes de comércio eletrônico são: B2B Business to
Business (C2B), Consumer to Business e (B2G) Business to Government.
Em ambas as formas, no comércio eletrônico ou e-ecommerce a forma de
negociação será online, o cliente irá escolher o seu produto a partir do que é ofertado e
efetuará o pagamento, aguardando pela entrega do produto ou serviço.
4. Direito eletrônico
Diferente do que se pode imaginar o Direito eletrônico ainda não é uma área
completamente reconhecida do direito, o que se defende é que o mesmo ainda não é
aceito por alguns estudiosos que não compreendem a necessidade da criação de um
ramo independente do direito, ou seja, entendemos o direito Informático como sendo
“Um ramo do direito que consiste no estudo do conjunto de normas, aplicações,
processos, relações jurídicas, doutrina, jurisprudência, que surgem como consequência
da utilização e desenvolvimento da informática”. (PAIVA, 2014)
O conhecimento desta só nos leva a crer que em virtude do ambiente virtual ser
diferente, e tendo em vista que as relações implicadas nesta tem uma série de novos
mecanismos, a legislação em sua maioria não pode resolver suficientemente as
pendências envolvendo interesses conflitantes. É necessário que se demonstre uma
regulamentação sobre a matéria de Direito Eletrônico, ou seja, romper com o
96
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
5. Metodologia
Neste trabalho, será utilizada a pesquisa bibliográfica, esse tipo de pesquisa é
importante, pois ”praticamente todo o conhecimento humano pode ser encontrado nos
livros ou em outros impressos que se encontram nas bibliotecas”. (CERVO, 1996, p.
68).
Outro método aplicado para obter os dados será a pesquisa exploratória onde
(GIL 1999, p. 46 apud LEITES, 2011, p. 3) afirma que, “embora as pesquisas
geralmente apontem para objetivos específicos, estas podem ser classificadas em três
grupos: estudos exploratórios, descritivos e explicativos.” Dessa forma, este tipo de
estudo visa proporcionar um maior conhecimento para o pesquisador acerca do assunto,
a fim de que esse possa formular problemas mais precisos ou criar hipóteses que possam
ser pesquisadas por estudos posteriores.
6. Resultados esperados
97
Anais do 7º Congresso Acadêmico de Tecnologia e Informática (CATI 2015)
UNEMAT – Barra do Bugres – ISSN 2448-119X
Quando essas negociações ocorrem em redes sociais por exemplo, estabelecesse uma
relação de confiança, ou seja, não se tem certeza de que a pessoa com a qual está
negociando é realmente quem diz ser.
Dessa forma busca-se cada vez mais o desenvolvimento de mecanismos com a
qual a pessoa pode ser identificada presencialmente podendo ser atribuída a ela uma
mídia assinatura digital, criptografia, certificado digital entre outros métodos, podendo
ser realizadas transações comerciais no mundo virtuais ou contratos e essa pessoa estará
segura de que foi identificada.
7. Referências
ALMEIDA JUNIOR, Edson. e-Commerce: Comércio Eletrônico. [Artigo] 2007.
Disponível em:
<http://www.consulting.com.br/edsonalmeidajunior/admin/downloads/comercioeletr
onico.pdf>. Acesso em: 12 nov. 2014. Não paginado.
BARBOSA, Felipe. Propriedade Virtual. [Revista online], 2011. Disponível em:
<http://idireitofbv.wikidot.com/propriedade-virtual>. Acesso em: 14 nov. 2014. Não
paginado.
CERVO, Amado Luiz; BERVIAN, Pedro Alcino. Metodología Científica. São Paulo:
Makron. 1996.
FRANCO, Marcos. Grana online. [Revista Super edição nº 238, editora Abril]. 2012.
Disponível em: <http://super.abril.com.br/tecnologia/grana-online-446899.shtml>.
Não paginado.
GIL, A.C. Métodos e técnicas de pesquisa social. São Paulo: Atlas, 1999.
NATARELLI, T. V. P.; ARNOLDI, P. R. C. Compras on-line e segurança jurídica:
Garantias ao consumidor nas transações eletrônicas. [2010?]. Disponível em:
<http://periodicos.franca.unesp.br/index.php/cardernopesquisa/article/view/195>
Acessado em: 15 Ago. 2015
PAIVA, Mário, Direito Eletrônico. 2014. [Revista Online], Disponível em:
<http://www.ambito-
juridico.com.br/site/index.php?n_link=revista_artigos_leitura&artigo_id=4839>.
Acesso em: 20 out. 2014. Não paginado.
REBS, Rebeca. A cultura como configuradora de identidades nos Social games.
[Artigo], 2013. Disponível em: <http://cascavel.ufsm.br/revistas/ojs-
2.2.2/index.php/animus/article/viewFile/9769/pdf> Acesso em: 31 out. 2014.
REBS, Rebeca. Lugares de apropriação em social games. [Artigo], [2010?]
Disponível em: <http://www.rebs.com.br/?tag=bens-virtuais>. Acesso em: 15 out.
2014.
SAMPAIO, Cleuton; RODRIGUES, Francisco, Mobile Game Jam, [Livro], 2012.
Disponível em:
<http://books.google.com.br/books?id=Uo8kataP6o0C&pg=PA23&dq=bens+virtuai
s&hl=pt-
BR&sa=X&ei=DlV_VP6gFcufgwTfgYLYAQ&ved=0CBwQ6AEwAA#v=onepage
&q=bens%20virtuais&f=false> . Acesso em: 13 nov. 2014.
98