Escolar Documentos
Profissional Documentos
Cultura Documentos
1. Introdução
Um dos objetivos da realidade virtual é possibilitar a realização de experiências,
treinamentos e o desenvolvimento de habilidades que sejam transferíveis para o mundo
real. Neste sentido, o uso de ambientes com alto grau de realismo desempenha um papel
importante, tornando os ambientes virtuais mais próximos da experiência cotidiana de
seus usuários. O uso de iluminação natural no processo de geração de cenas sintéticas
[Debevec 1998] contribui significativamente para o aumento do grau de realismo em
imagens sintetizadas por meio de técnicas de computação gráfica. Entretanto, esse
processo pressupõe a captura da iluminação natural e seu processamento, bem como
mecanismos para sua incorporação eficiente na cena.
O processo de captura, por sua vez, não é uma tarefa trivial, devendo considerar
simultaneamente variações nas dimensões espacial e direcional da iluminação de uma
cena. Este trabalho descreve nossa experiência envolvendo a captura, processamento e
uso de iluminação natural para inserção de objetos sintéticos em cenas reais, os quais
devem ser percebidos como objetos reais. A captura de iluminação natural é realizada
através de um conjunto de fotografias da cena obtidas com diferentes tempos de
exposição. Isto permite que tanto as regiões menos iluminadas da cena como as mais
iluminadas possam ser adequadamente amostradas. Este conjunto de fotos é, então,
utilizado para construção de uma fotografia com alta faixa dinâmica (high dynamic
range photograph) [Debevec 1997] que, por sua vez, é utilizada no processo de
“rendering” da cena.
Os objetos sintéticos que se deseja adicionar na cena real podem ser modelados
em qualquer ferramenta de modelagem 3D. Muitas dessas ferramentas já possuem
inclusive a opção de iluminação de cenas a partir de imagens com alta faixa dinâmica.
Essa iluminação é feita de forma que cada pixel da imagem seja projetado na cena
simulando um feixe de luz. Como os objetos estarão iluminados como se estivessem
presentes na cena do mundo real, estes podem ser sobrepostos a uma animação ou foto
capturada desta cena. Para garantir um alto grau de realismo, ainda poderá ser
necessário adicionar sombras ou reflexos projetados pelos objetos sintéticos no mundo
real. A Figura 1 ilustra os resultados obtidos com este processo.
O restante do texto encontra-se organizado da seguinte forma. A Seção 2
apresenta trabalhos relacionados ao projeto desenvolvido e uma breve descrição das
técnicas fundamentais utilizadas. A Seção 3 discute o processo de aquisição de
fotografias com diferentes tempos de exposição. A construção da imagem com alta
faixa dinâmica é apresentada na Seção 4. A Seção 5 detalha como é feita a iluminação
de objetos virtuais utilizando imagens e a composição da animação sintética com a
captura do mundo real é discutida na Seção 6. Por fim, a Seção 7 sumariza o trabalho e
apresenta sugestões para desenvolvimento futuro.
2. Trabalhos Relacionados
Imagens fotográficas vêm sendo utilizadas de diferentes formas para simular iluminação
real em cenas modeladas por computador. As técnicas diferem tanto no processo de
captura das fotografias quanto na forma como estas são utilizadas para iluminar os
objetos presentes na cena sintética.
A captura da iluminação de um determinado ambiente no mundo real pode ser
feita através da composição de um conjunto de fotos [Debevec 1997], da fotografia de
uma esfera metálica [Debevec 1998], da utilização de uma máquina fotográfica com
lente olho-de-peixe [Pomi 2003], ou com a utilização de uma câmera panorâmica
[SpheronVR 2004]. O processo de reprodução desta iluminação no mundo virtual, por
sua vez, pode ser realizado utilizando técnicas de mapeamento de textura [Cohen 2001]
ou ray casting [Whitted 1980].
Devido às diversas fontes de iluminação de uma única cena do mundo real,
normalmente não é possível capturá-las com uma única fotografia. Para contornar esse
problema, várias fotos podem ser obtidas e combinadas em uma única. Apesar de
intuitivamente simples, esse método normalmente não é o ideal por causa da dificuldade
de se gerar uma única foto a partir de várias. Esse processo pode ser otimizado
utilizando lentes olho-de-peixe, câmeras panorâmicas ou fotos de uma esfera metálica.
O problema envolvido na obtenção de fotos com câmeras equipadas com lentes olho-
de-peixe é que essas não conseguem capturar mais do que 180º do ambiente. As
câmeras panorâmicas, por outro lado, capturam 360° do ambiente, mas são
extremamente caras. Uma solução é a obtenção das imagens através da foto de uma
esfera metálica, pois esta reflete quase 360º do ambiente e não há requer o uso de
equipamentos especiais.
Para realizar a iluminação do mundo virtual baseando-se em uma imagem, a
técnica mais simples, porém de maior custo computacional pressupõe a utilização de
ray tracing. Cada pixel da imagem é projetado contra os objetos sintéticos como se
fosse um feixe de luz, e a partir da projeção de cada um desses pixels é calculado o ray
tracing. Uma alternativa ao ray tracing é a utilização de mapeamento de textura, onde é
atribuída uma textura para cada objeto da cena. Essa textura é atribuída utilizando-se
uma fotografia do ponto de vista do objeto e a iluminação calculada de acordo com as
normais de sua superfície. Apesar do custo computacional ser menor do que ray tracing,
o mapeamento de textura não é uma boa solução quando se deseja um alto grau de
qualidade das imagens geradas, pois as superfícies dos objetos não são capazes de
refletir partes do próprio objeto. Além disto, superfícies espelhadas não refletem outras
superfícies também espelhadas.
Figura 10. (a) Imagem HDR obtida e (b) reconstrução da parte oposta da esfera
Figura 13. A primeira imagem (canto superior esquerdo) mostra uma foto real
de uma esfera no ambiente a partir do qual foi capturada a iluminação. As
demais imagens mostram esferas geradas artificialmente e com propriedades
de material diferentes.
Figura 16. Adição de sombra. É feita uma animação somente da sombra gerada
pelo teapot em um plano e esta é adicionada ao resultado anterior.
7. Conclusões
Este artigo descreveu uma experiência com utilização de iluminação natural baseada em
imagens para geração de animações que combinam objetos reais e sintéticos em uma
mesma cena. O objetivo é produzir imagens nas quais observadores não consigam
identificar facilmente quais objetos são reais e quais são sintéticos. A fim de demonstrar
esta característica, usamos como estudo de caso a animação de um brinquedo de corda
real cuja forma corresponde a forma do Utah teapot. Foi gerado um vídeo do brinquedo
caminhando e, posteriormente, visando a comparação, foi modelado e animado no
mesmo ambiente um brinquedo com as mesmas características. Os vídeos referentes a
esta experiência podem ser encontrados em http://www.inf.ufrgs.br/~huff/IBL.
De maneira mais ampla, o uso de iluminação baseada em imagens permite a
integração de modelos gerados por computador em ambientes do mundo real de acordo
com princípios da iluminação global. Para aplicar esta técnica são necessários alguns
passos, incluindo obtenção de fotografias omnidirecionais com alta faixa dinâmica, e
utilização das imagens HDR resultantes como fonte de iluminação na cena gerada por
computador. Esta técnica tem uma grande variedade de aplicações nas áreas de
modelagem e rendering baseados em imagens, e processamento e composição de
imagens. O realismo dos resultados encontrados é dificilmente reproduzido por outras
técnicas de iluminação de cenas geradas por computador. Neste sentido, o uso de
iluminação natural apresenta-se como importante ferramenta para as aplicações de
realidade mista, bem como outras aplicações de realidade virtual para as quais alto grau
de realismo das cenas é fator importante.
A utilização de imagens HDR em aplicações interativas pode ser obtida através
da implementação de mapeamento de textura com alta faixa dinâmica [Cohen 2001] em
hardware gráfico. Desta forma, pretende-se estender a presente experiência com
iluminação natural de objetos sintéticos para aplicações interativas, preservando o alto
grau de realismo disponibilizado por esta abordagem.
Referências
Cohen, J., Tchou, C., Hawkins, T. e Debevec, P. (2001) “Real-time High Dynamic
Range Texture Mapping”. Proceedings of the 12th Eurographics Workshop on
Rendering Techniques, London, p. 313-320.
Debevec, P. E. e Malik, J. (1997) “Recovering High Dynamic Range Radiance Maps
from Photographs”. Proceedings of SIGGRAPH'97, Los Angeles, USA, p. 369-397.
Debevec, P. E. (1998) “Rendering Synthetic Objects into Real Scenes: Bridging
Traditional and Image-Based Graphics with Global Illumination and High Dynamic
Range Photography”. Proceedings of SIGGRAPH’98, Orlando, USA, p. 189-198.
Debevec, P. E. (2002) “Image Based Lighting”. IEEE Computer Graphics and
Applications, v. 22, n. 2, p. 26-34.
Debevec, P. E. (2004) “HDRShop: High Dynamic Range Image Processing and
Manipulation”, http://www.debevec.org/HDRShop, acessado em 30/08/2004.
Miller, Gene S., e Hoffman, C. Robert (1984) “Illumination and Reflection Maps:
Simulated Objects in Simulated and Real Environments”. Course Notes for
Advanced Computer Graphics Animation at SIGGRAPH’84.
Pomi, A., Marmitt, G., Wald, I., e Slusallek, P. (2003) “Streaming Video Textures for
Mixed Reality Applications in Interactive Ray Tracing Environments”. Proceedings
of the Vision, Modeling and Visualization 2003, Munich, Germany, p. 261-269.
SpheronVR (2004) “PanoCam: Digital Panoramic Camera”, http://www.spheron.com,
acessado em 30/08/2004.
Ungerm, J., Wenger, A., Hawkins, T., Gardner, A., e Debevec, P. (2003) “Capturing
and Rendering with Incident Light Fields”. Proceedings of the 14th Eurographics
workshop on Rendering, Leuven, Bélgica, p. 141-149.
Whitted, T. (1980) “An improved illumination model for shaded display”.
Communications of the ACM, v. 23, n. 6, p. 343-349.