Escolar Documentos
Profissional Documentos
Cultura Documentos
1.a – O que é?
Realidade Aumentada é um ambiente, interativo, que envolve tanto realidade virtual como
elementos do mundo real, criando um ambiente misto em tempo real.
- Optical See- through: projeta imagens e informações em um pára- brisa ou outra interface
transparente à frente da pessoa.
- Video See- through: por meio de um capacete ou óculos dá para ver imagens reais com
informações virtuais.
Blibiote c a ARToolkit:
O FL ARTo olKit é uma versão AS3 do ARToolKit. O ARToolKit era uma biblioteca C que
habilitava realidade aumentada; entretanto a versão compatível com Adobe
Flash/Flex/AIR, FLARToolkit, não é meramente um port da versão original. o FLARToolkit
é portado do Java, versão chamada NyARToolKit.
O NyAR To olKit parece executar muito mais rápido que a versão original em C após um
grande esforço de nyatla.
2 – Proc e s s in g:
2.a – O que é?
O projeto foi iniciado em 2001 por Casey Reas e Ben Fry, ambos ex- membro do grupo de
Computação no Media Lab do MIT. Eles são os co- fundadores do tratamento e os
primeiros designers da linguagem e do software. A equipe que liderou o impulso atual
para o processing 2.0 inclui: Florian Jenett , Design e Net burgermeister Dan Shifman ,
Tutorials, Andreas Schlegel , Contributed Libraries , Andres Colubri , OpenGL integration,
Filip Visnjic ,Exhibition curator, George Michael Brower , Contributed Tools , Jonathan
Feinberg , Parsing & Android hacking , Chris Lonnen , Processing Development
Environment, Patrick Hebron , Video Library, Damien Di Fede , Sound Library.
4 – Projeto:
Diante de uma grande vantagem oferecida pelo Processing, o acesso a placa gráfca,
diferente de outros softwares com resposta imediata no contexto visual, como o Flash, e a
linguagem simples e com ótimas referências para iniciantes, começamos a nossa
pesquisa com o intuito de desenvolver aplicações onde toda a interação seria
proporcionada em um ambiente de realidade aumentada. Como já foi dito, a biblioteca de
realidade aumentada para Processing que é uma adaptação da NyARToolkit, porém sem
o mesmo potencial, não se mostrou muito capaz para renderizar objetos 3D junto de
interações que exijam movimentos com o marcador sem que a leitura pela webcam fosse
comprometida, fazendo com que os objetos representados sob o marcador sumisse. A
tendência é que essa biblioteca seja aprimorada tornando-se capaz de trabalhar da
melhor forma com a realidade aumentada, colaborando com o crescimento de projetos
voltados para Realidade Aumentada, que desponta como solução de interface em vários
seguimentos da multimídia.
Ainda baseados nos conceitos, que pretendíamos utilizar n a realidade aumentada, fzemos
uma re-leitura de um clássico dos video games: O Pong.
No Color Pong o jogador opta por jogar com outra pessoa ou sozinho. Até aí nada de diferente,
mas antes do jogo iniciar, o jogador já se depara com a sua imagem captada pela webcam e a
solicitação para que posicione um objeto colorido em um quadrado desenhado no centro da tela.
Esta ação nada comum no Pong original, é para que o jogador calibre o seu controlador, neste
jogo a interação não será por meio de um joystick, mouse ou teclado, mas sim pela detecção de
um objeto colorido e movimentos realizados pelo jogador.
O código foi construído com base nos diversos tutoriais e exemplos disponíveis na
comunidade de desenvolvimento com Processing. Tendo como destaque a edição de
vídeo e o colour tracking de Daniel Shifman e James Alliban respectivamente.
Pong: Com um único tipo de código de desenho do Processing, o rect(), já é possível criar
os elementos principais do jogo, as raquetes, a bolinha e as linhas que dividem a tela. Os
códigos de incremento realizam os movimentos da bolinha, e os códigos de contato,
realizam uma verifcação onde é comparada a posição da bolinha com a das raquetes,
fazendo com que, caso ambos estejam na mesma posição X e Y da tela, inverta a direção
no movimento da bolinha, causando a impressão da rebatida.
Vídeo: Após invocar a biblioteca de captura de vídeo do Processing e fazer os ajustes
básicos do vídeo, é feita uma varredura nos eixos X e Y do vídeo, onde será detectada as
áreas de brilho na imagem. Junto disso, com os parâmetros de dimensão máxima dos
quadrados já estabelecidas, é realizado o processo onde cada quadrado é desenhado na
na tela, tendo o seu tamanho defnido pela intensidade de brilho na região. Ficando o
brilho da imagem representado por quadrados coloridos e as sombras pelo fundo de outra
cor. Tudo isso em tempo real.
Para auxiliar na comparação das cores é necessário aumentar a gama de cores, para
criar uma tolerância maior na alteração das cores do vídeo, algo comum em um ambiente
onde tanto a luz do monitor como o próprio refexo do objeto pode fazer com que os
valores da cor utilizada sejam diferentes daquele que foi capturado. Neste parâmetro é
criada uma distância de 25 para mais e para menos em cada canal de cor, possibilitando
a detecção da cor mesmo que haja oscilação destes valores.
9 – Refêren ci a Bibliográf c a s :