Você está na página 1de 12

Usando Iluminação Baseada em Imagens na

Geração de Ambientes de Realidade Mista


Rafael Huff, Luciana P. Nedel, Manuel M. Oliveira, Carla M. D. S. Freitas

Instituto de Informática – Universidade Federal do Rio Grande do Sul (UFRGS)


Caixa Postal 15.064 – 91.501-970 – Porto Alegre – RS – Brazil
{huff,nedel,oliveira,carla}@inf.ufrgs.br

Figura 1. A imagem da esquerda corresponde a uma fotografia de um objeto


real. A imagem da direita foi gerada a partir de um objeto virtual, com
iluminação baseada em fotos do ambiente real da imagem anterior.

Abstract. The development of mixed reality applications requires the


generation of images with a high degree of realism. This paper describes an
experience in the production of this kind of scenes, where virtual objects are
integrated into real environments and illuminated based on the lighting
information captured from the real world. The sampling is carried out by
taking photos that reproduce the wide range of environment luminance. As a
result of this work, we generated two videos, one real and one synthetic, and
visually compared both.

Resumo. O desenvolvimento de aplicações de realidade mista exige a geração


de imagens com alto grau de realismo. Este artigo descreve uma experiência
de produção deste tipo de cenas, onde objetos sintéticos são introduzidos em
ambientes reais e iluminados com base na informação de iluminação obtida
do mundo real. A amostragem é feita através de imagens fotográficas que
reproduzem toda a variação de iluminação do ambiente. Como resultado
deste trabalho, foram gerados dois vídeos, um real e um sintético, e
comparados visualmente.

1. Introdução
Um dos objetivos da realidade virtual é possibilitar a realização de experiências,
treinamentos e o desenvolvimento de habilidades que sejam transferíveis para o mundo
real. Neste sentido, o uso de ambientes com alto grau de realismo desempenha um papel
importante, tornando os ambientes virtuais mais próximos da experiência cotidiana de
seus usuários. O uso de iluminação natural no processo de geração de cenas sintéticas
[Debevec 1998] contribui significativamente para o aumento do grau de realismo em
imagens sintetizadas por meio de técnicas de computação gráfica. Entretanto, esse
processo pressupõe a captura da iluminação natural e seu processamento, bem como
mecanismos para sua incorporação eficiente na cena.
O processo de captura, por sua vez, não é uma tarefa trivial, devendo considerar
simultaneamente variações nas dimensões espacial e direcional da iluminação de uma
cena. Este trabalho descreve nossa experiência envolvendo a captura, processamento e
uso de iluminação natural para inserção de objetos sintéticos em cenas reais, os quais
devem ser percebidos como objetos reais. A captura de iluminação natural é realizada
através de um conjunto de fotografias da cena obtidas com diferentes tempos de
exposição. Isto permite que tanto as regiões menos iluminadas da cena como as mais
iluminadas possam ser adequadamente amostradas. Este conjunto de fotos é, então,
utilizado para construção de uma fotografia com alta faixa dinâmica (high dynamic
range photograph) [Debevec 1997] que, por sua vez, é utilizada no processo de
“rendering” da cena.
Os objetos sintéticos que se deseja adicionar na cena real podem ser modelados
em qualquer ferramenta de modelagem 3D. Muitas dessas ferramentas já possuem
inclusive a opção de iluminação de cenas a partir de imagens com alta faixa dinâmica.
Essa iluminação é feita de forma que cada pixel da imagem seja projetado na cena
simulando um feixe de luz. Como os objetos estarão iluminados como se estivessem
presentes na cena do mundo real, estes podem ser sobrepostos a uma animação ou foto
capturada desta cena. Para garantir um alto grau de realismo, ainda poderá ser
necessário adicionar sombras ou reflexos projetados pelos objetos sintéticos no mundo
real. A Figura 1 ilustra os resultados obtidos com este processo.
O restante do texto encontra-se organizado da seguinte forma. A Seção 2
apresenta trabalhos relacionados ao projeto desenvolvido e uma breve descrição das
técnicas fundamentais utilizadas. A Seção 3 discute o processo de aquisição de
fotografias com diferentes tempos de exposição. A construção da imagem com alta
faixa dinâmica é apresentada na Seção 4. A Seção 5 detalha como é feita a iluminação
de objetos virtuais utilizando imagens e a composição da animação sintética com a
captura do mundo real é discutida na Seção 6. Por fim, a Seção 7 sumariza o trabalho e
apresenta sugestões para desenvolvimento futuro.

2. Trabalhos Relacionados
Imagens fotográficas vêm sendo utilizadas de diferentes formas para simular iluminação
real em cenas modeladas por computador. As técnicas diferem tanto no processo de
captura das fotografias quanto na forma como estas são utilizadas para iluminar os
objetos presentes na cena sintética.
A captura da iluminação de um determinado ambiente no mundo real pode ser
feita através da composição de um conjunto de fotos [Debevec 1997], da fotografia de
uma esfera metálica [Debevec 1998], da utilização de uma máquina fotográfica com
lente olho-de-peixe [Pomi 2003], ou com a utilização de uma câmera panorâmica
[SpheronVR 2004]. O processo de reprodução desta iluminação no mundo virtual, por
sua vez, pode ser realizado utilizando técnicas de mapeamento de textura [Cohen 2001]
ou ray casting [Whitted 1980].
Devido às diversas fontes de iluminação de uma única cena do mundo real,
normalmente não é possível capturá-las com uma única fotografia. Para contornar esse
problema, várias fotos podem ser obtidas e combinadas em uma única. Apesar de
intuitivamente simples, esse método normalmente não é o ideal por causa da dificuldade
de se gerar uma única foto a partir de várias. Esse processo pode ser otimizado
utilizando lentes olho-de-peixe, câmeras panorâmicas ou fotos de uma esfera metálica.
O problema envolvido na obtenção de fotos com câmeras equipadas com lentes olho-
de-peixe é que essas não conseguem capturar mais do que 180º do ambiente. As
câmeras panorâmicas, por outro lado, capturam 360° do ambiente, mas são
extremamente caras. Uma solução é a obtenção das imagens através da foto de uma
esfera metálica, pois esta reflete quase 360º do ambiente e não há requer o uso de
equipamentos especiais.
Para realizar a iluminação do mundo virtual baseando-se em uma imagem, a
técnica mais simples, porém de maior custo computacional pressupõe a utilização de
ray tracing. Cada pixel da imagem é projetado contra os objetos sintéticos como se
fosse um feixe de luz, e a partir da projeção de cada um desses pixels é calculado o ray
tracing. Uma alternativa ao ray tracing é a utilização de mapeamento de textura, onde é
atribuída uma textura para cada objeto da cena. Essa textura é atribuída utilizando-se
uma fotografia do ponto de vista do objeto e a iluminação calculada de acordo com as
normais de sua superfície. Apesar do custo computacional ser menor do que ray tracing,
o mapeamento de textura não é uma boa solução quando se deseja um alto grau de
qualidade das imagens geradas, pois as superfícies dos objetos não são capazes de
refletir partes do próprio objeto. Além disto, superfícies espelhadas não refletem outras
superfícies também espelhadas.

3. Aquisição das Imagens: Light Probes


Dentre as técnicas para obtenção de imagens de cenas reais com vistas à aquisição da
informação de iluminação natural encontra-se a técnica utilizada neste trabalho, que
baseia-se no uso de light probes [Debevec 1998].
Light probes são fotografias omnidirecionais, isto é, para cada direção de luz
incidente, existe um pixel correspondente na imagem. Um método simples de captura
dessas imagens consiste em fotografar uma esfera metálica utilizando uma máquina
fotográfica convencional, pois o reflexo da esfera reproduz quase todo o ambiente a sua
volta, e não somente o hemisfério direcionado para a câmera. Esta técnica foi utilizada
originalmente por Gene Miller e Robert Hoffman (1984) para obtenção de mapas de
reflexão.
A Figura 2 ilustra como o ambiente ao redor de uma esfera é nela refletido e
capturado pela câmera. Nota-se que somente a porção do ambiente oculta pela esfera
não é refletida. Para reduzir essa região, o mais apropriado é posicionar a câmera o mais
distante possível da esfera e utilizar uma lente teleobjetiva para restringir o campo de
visão à imagem da esfera (zoom in). Na prática, é necessário considerar o espaço físico
disponível para o posicionamento da câmera em relação à esfera. Outro fator importante
é a redução de qualidade das imagens capturadas, devido às limitações do fator de
ampliação (zoom) disponível, baixa refletividade da esfera e existência de névoa. A
Figura 3 reproduz a impossibilidade de capturar uma vista completa (i.e., 360°) do
ambiente ao redor da esfera. Mesmo considerando a possibilidade teórica de posicionar
a câmera no infinito, uma porção do ambiente correspondendo a um círculo com raio
igual ao da esfera não poderia ser amostrada.

Figura 2. Reflexão do ambiente através de uma esfera metálica. Ilustração de


como diferentes feixes de luz, com ângulos de projeção diferentes, são
refletidos pela esfera em direção à câmera. Todo o ambiente é refletido para a
câmera, exceto a região oculta pela esfera.

Figura 3. Reflexão com a câmera posicionada no infinito. Fisicamente


impossível de ser realizado, ilustra que a região oculta pela esfera nunca será
menor do que a própria esfera.

Além da impossibilidade de captura total do ambiente através da fotografia de


uma esfera metálica, esta técnica apresenta outros problemas: por se tratar de uma
esfera espelhada, ao ser fotografada, a esfera reflete a imagem da câmera que acaba
aparecendo na fotografia. Além disso, a região refletida nas bordas da esfera sofre
bastante compressão, o que se traduz em baixa resolução de amostragem nessas regiões.
Uma alternativa para reduzir esses problemas é a utilização de duas fotos tiradas em
ângulos diferentes mantendo-se a esfera posicionada no mesmo local. Essas fotos
podem ser compostas de forma a eliminar o reflexo da câmera, pois a parte oculta pela
câmera em uma imagem não é oculta na outra. As informações presentes nas bordas da
esfera podem também ser combinadas para torná-las mais precisas e a região oculta pela
esfera pode ser atenuada. A Figura 4 ilustra duas fotos tiradas com ângulos de visão
diferindo em 90°.
No exemplo da Figura 5 é simulada a rotação de 90º em torno do eixo Y a partir
da foto de uma esfera. Esta rotação foi realizada utilizando-se o programa HDRShop
[Debevec 2004]. A macha preta introduzida na foto da direita, sobre o sofá, é a única
parte do ambiente que não foi refletida, e portanto não foi possível reconstruir na
simulação de rotação, pois se encontrava na parte oposta à esfera. Na Figura 6 essa
imagem é utilizada para eliminar o reflexo da câmera em uma fotografia tirada com um
ângulo de visão rotacionado em 90º em relação à primeira foto (a da Figura 5). Com as
duas fotografias possuindo o mesmo ponto de visão, sendo que a primeira não possui o
reflexo da câmera no centro, a região central da primeira foto pode ser sobreposta na
segunda para a eliminação do reflexo da câmera (Figura 6 - direita).

Figura 4. Exemplo de duas fotos tiradas com a diferença de 90° no ângulo de


visão. A região R é a única porção do ambiente que não é refletida na
composição das duas imagens.

Figura 5. Exemplo de uma foto de uma esfera metálica real e a simulação de


sua rotação de 90° em torno do eixo Y gerada por computador. A cena
amostrada na imagem da direita foi obtida a partir dos dados armazenados nas
bordas da imagem da esquerda.

Figura 6. Eliminação do reflexo da câmera na imagem da esfera metálica. A


eliminação é obtida através da composição de duas imagens da mesma esfera,
mas com ângulos de visão variando em 90º.

4. Imagens com Alta Faixa Dinâmica


As câmeras fotográficas comuns foram criadas para registrar a luz de maneira que
pudesse ser reproduzida sobre papel fotográfico, enquanto que as câmeras fotográficas
digitais, por outro lado, foram desenvolvidas para poderem reproduzir a luz capturada
no monitor. Nem os monitores nem os papéis fotográficos podem reproduzir toda a
faixa dinâmica de iluminação, isto é, a diferença entre o escuro e o claro, presente no
mundo real. Entretanto, se forem tiradas várias fotografias com diferentes tempos de
exposição, essas imagens podem ser combinadas para que essa faixa dinâmica seja
recuperada. Com essa técnica, uma série de imagens pode ser combinada em uma única
imagem com alta faixa dinâmica (HDR – High Dynamic Range), denominada mapa de
irradiação. Os mapas de irradiação são úteis para representar valores fisicamente
corretos de iluminação em aplicações de síntese de imagens realísticas.
Imagens HDR normalmente armazenam cada canal do espectro (vermelho,
verde e azul) como números em ponto flutuante, possibilitando que toda a faixa de
iluminação seja transformada em milhões ou bilhões de representações. Essas imagens
podem ser armazenadas em vários formatos de arquivos, incluindo a versão em ponto
flutuante do formato TIFF e RGBE. A Figura 7 ilustra a abrangência da faixa de
iluminação de uma imagem HDR em relação a uma imagem convencional. Os
retângulos em degradê representam toda a faixa de iluminação de uma determinada
cena no mundo real, da luminância mais clara até a mais escura. Enquanto que com uma
imagem HDR é possível representar toda a faixa de iluminação, as imagens
convencionais conseguem representar apenas uma pequena parte.

Figura 7. Comparação da faixa de iluminação abrangida por uma fotografia


comum e uma imagem HDR. A imagem HDR abrange toda a faixa dinâmica de
iluminação de uma cena em uma única imagem, enquanto que as imagens
convencionais, representam apenas uma pequena parte dessa iluminação.

Quando é tirada uma fotografia de um ambiente real, obtém-se um arranjo


bidimensional de valores de iluminação, mas estes valores raramente coincidem com as
medidas verdadeiras na irradiação do ambiente. Por exemplo, se um pixel tem duas
vezes o valor de outro na imagem, é pouco provável que aquele ponto tenha o dobro de
irradiação na cena. Ao invés disso, há geralmente um mapeamento não-linear
desconhecido que determina como a irradiação na cena é transformada em valores de
pixel na imagem.
Este mapeamento não-linear é raramente conhecido de antemão porque ele é, na
verdade, a composição de vários mapeamentos não-lineares que ocorrem no processo
fotográfico. Em uma câmera convencional, o filme é primeiramente exposto à luz para
formar uma imagem latente. O filme então é revelado, para transformar a imagem
latente em variações de transparência, ou densidade, no filme. O filme pode então ser
digitalizado utilizando um scanner, que projeta luz através do filme em um array
sensível à luz, convertendo a imagem em voltagens elétricas. Essas voltagens são
digitalizadas, e então manipuladas antes de finalmente serem gravadas em uma mídia de
armazenamento. Se forem digitalizadas fotografias do filme ao invés do filme
propriamente, então o processo de impressão pode também introduzir um mapeamento
não-linear. Com uma máquina fotográfica digital, não são necessárias algumas etapas,
como revelação e digitalização, mas mesmo assim é introduzido o mapeamento não-
linear gerado pelo sensor de captura de luz da câmera digital.
O problema introduzido por esse mapeamento não-linear ocorre, por exemplo,
em situações com muita iluminação solar ou cenas com materiais reluzentes e luzes
artificiais. Geralmente essa excessiva variação de irradiação é impossível de ser
capturada sem saturação ou pouca exposição do filme. Para abranger toda a faixa de
irradiação presente na cena, pode-se tirar uma série de fotografias com diferentes
tempos de exposição. Para ser possível combinar essas imagens, primeiramente deve-se
encontrar a função de mapeamento não-linear ilustrada anteriormente. O mapa de
irradiação encontrado a partir dela conterá toda a faixa dinâmica capturada pela
fotografia original.
As imagens HDR podem ser utilizadas em uma série de aplicações na área de
modelagem e iluminação baseadas em imagens, processamento e composição de
imagens. Através dessas imagens, a iluminação de cenas geradas por computador fica
muito mais realista, pois é possível representar toda a faixa de iluminação possível do
ambiente no qual o conjunto de fotografias foi obtido.

5. Iluminando Objetos Sintéticos a partir de uma Imagem


A utilização de imagens com alta faixa dinâmica fornece uma maneira de reproduzir em
um ambiente sintético a iluminação de uma cena real com altíssima qualidade. Apesar
de praticamente toda a iluminação da cena ser capturada pelas light probes alguns
passos devem ser obedecidos para garantir o realismo na cena artificial. A seguir são
apresentadas as etapas necessárias para o desenvolvimento de cenas realísticas em
computação gráfica usando esta abordagem.
Primeiramente, para a geração de uma light probe é necessário uma esfera
metálica. A qualidade da iluminação da cena está diretamente ligada à qualidade da
superfície e reflexo desta esfera. As esferas mais utilizadas são esferas de decoração de
jardins, enfeites de natal e esferas de rolamento. Quanto menor a esfera, melhor, pois a
região da cena oculta por ela será menor, mas deve-se tomar cuidado, pois a dimensão
da esfera é inversamente proporcional à qualidade de zoom e resolução da máquina
fotográfica. Quanto menor a esfera, melhor deve ser o zoom e a resolução.
Algumas precauções devem ser tomadas com relação à captura da iluminação no
mundo real. A captura da iluminação do ambiente real como uma imagem de alta faixa
dinâmica unidirecional deve ser feita no local onde se deseja reproduzir os objetos na
cena artificial, ou seja, a esfera deve ser posicionada no mundo real no local onde se
deseja inserir, posteriormente, os objetos virtuais. A Figura 8 mostra como pode ser
feito o posicionamento da esfera metálica para a captura fotográfica.

Figura 8. Aquisição de uma light probe. Fotografia de uma esfera metálica


posicionada onde os objetos sintéticos serão adicionados.
A construção da imagem HDR é feita a partir de um conjunto de fotografias com
diferentes tempos de exposição da mesma cena e com a câmera posicionada no mesmo
local. No exemplo mostrado na Figura 9, foram obtidas 16 fotografias, sendo que seus
tempos de exposição foram calculados de forma a variar o “valor de exposição” (VE)
em uma unidade. O valor de exposição é uma variável calculada levando em
consideração a abertura da lente e o tempo de exposição da câmera, segundo a equação:
1
VE = log 2 (abertura 2 .( ))
tempo_exposição
No exemplo foi utilizado um valor de abertura de lente fixo, f/8, e tempo de
exposição variando de 1/1000s a 30s (Figura 9). Para captura das imagens, foi utilizada
uma câmera Sony Cyber-shot DSC-V1(5 megapixels com ajuste manual de abertura e
tempo de exposição) e uma esfera de aço inoxidável com aproximadamente 10 cm (4
polegadas) de diâmetro.

Figura 9. Exemplo de fotos com diferentes tempos de exposição para


construção de uma light probe.

A composição das 16 fotografias em uma única imagem HDR foi realizada


utilizando o programa HDRShop [Debevec 2004]. Neste programa, é necessário
informar os valores de exposição de cada fotografia para gerar a imagem HDR. A
Figura 10(a) ilustra uma HDR obtida e a Figura 10(b) ilustra a simulação de rotação da
esfera em torno do eixo Y, ou seja, mostra o reflexo da região da esfera oposta à
câmera. A mancha preta no centro da Figura 10(b) representa a região do ambiente que
não foi refletida pela esfera, ou seja, que estava atrás da esfera no momento em que a
fotografia foi tirada.
Após a captura de todas as fotos com diferentes tempos de exposição, às vezes
torna-se necessária também uma foto com a câmera na mesma posição para esta
imagem ser utilizada como imagem de fundo da cena artificial. A própria light probe
muitas vezes pode ser usada como imagem de fundo, mas em certos casos devido a uma
baixa qualidade da amostragem na região das bordas da esfera metálica o resultado da
light probe como fundo da cena pode não ser satisfatório. A Figura 11 ilustra como
pode ser obtida a imagem para o fundo da cena virtual, e a Figura 12 mostra o fundo
capturado para o exemplo.

Figura 10. (a) Imagem HDR obtida e (b) reconstrução da parte oposta da esfera

Figura 11. Aquisição da imagem de fundo. A câmera é posicionada no ambiente


real, no mesmo local onde a câmera virtual será posicionada no ambiente
sintético.

Figura 12. Imagem de fundo do exemplo

Depois de gerar a imagem HDR e capturar a imagem de fundo, pode-se


desenvolver o ambiente virtual. Atualmente vários programas já suportam o uso de
imagens HDR para a iluminação de uma cena. Basicamente, o que esses programas
fazem é mapear a light probe para uma esfera em torno do ambiente modelado; na
seqüência, é utilizado um algoritmo de iluminação global. Entre estes, o algoritmo de
ray tracing [Whitted 1980] é o mais utilizado. Para cada um dos pixels da imagem desta
esfera é projetado um feixe de luz com o qual é calculado o ray tracing. Normalmente é
possível configurar parâmetros como o número de níveis de ray tracing e intensidade de
iluminação. A Figura 13 mostra alguns resultados obtidos com esta técnica. O ambiente
e a iluminação são os mesmos para todas as imagens. Somente as propriedades do
material da superfície da esfera, gerada sinteticamente, foram alterados.

Figura 13. A primeira imagem (canto superior esquerdo) mostra uma foto real
de uma esfera no ambiente a partir do qual foi capturada a iluminação. As
demais imagens mostram esferas geradas artificialmente e com propriedades
de material diferentes.

6. Animando Objetos Sintéticos em Ambientes Reais Dinâmicos


Utilizando a técnica de iluminação explicada anteriormente, é possível gerar animações
com alto grau de realismo. Essas animações podem ser compostas com vídeos obtidos
na mesma cena onde a iluminação foi capturada. No exemplo, foi gerado um vídeo da
animação de uma miniatura do clássico “Utah teapot” caminhando e iluminada pela
imagem HDR mostrada anteriormente, como ilustrado na Figura 14(a). Para retirar o
fundo da animação, foi gerado outro vídeo com a mesma modelagem, mas sem
iluminação e com somente uma cor de fundo, verde, e uma cor para o teapot, vermelho,
conforme ilustra a Figura 14(b). Através de um editor de vídeo, as duas animações
foram combinadas (Figura 14(c)) de forma que somente os pixels vermelhos da segunda
imagem foram substituídos pelos pixels equivalentes da primeira. Após, utilizando o
editor de vídeo, o resultado foi combinado com a imagem capturada para o fundo da
cena de forma que todos os pixels verdes fossem substituídos pelos pixels equivalentes
da imagem de fundo (Figura 15). Ao invés de utilizar uma imagem estática, é possível
também utilizar um vídeo capturado na mesma cena para fazer a composição com a
animação.
O resultado obtido na Figura 15 ainda não é satisfatório, pois o teapot não tem
sombra e, portanto, não parece integrado à cena. Quando o ambiente sintético for
iluminado, deve-se lembrar que apesar dos objetos artificiais refletirem os objetos do
mundo real e serem afetados por sua iluminação e sombras, o inverso não é válido.
Freqüentemente há a necessidade das imagens serem editadas para sombras e reflexos
dos objetos artificiais serem adicionados na cena. No exemplo, ainda há a necessidade
de projetar a sombra do teapot na mesa. Para isso, é novamente gerada uma animação
com a mesma modelagem, mas desta vez destacando somente a sua sombra, e esta é
adicionada ao resultado, como ilustrado na última imagem da Figura 16.

Figura 14. Eliminação do fundo da animação: (a) animação com iluminação


baseada em imagens; (b) animação com somente duas cores, utilizada para
eliminar o fundo da imagem anterior; (c) resultado da composição das duas
imagens anteriores.

Figura 15. Adição do fundo da animação obtido através da substituição dos


pixels verdes da imagem da esquerda pelos pixels da imagem do meio.

Figura 16. Adição de sombra. É feita uma animação somente da sombra gerada
pelo teapot em um plano e esta é adicionada ao resultado anterior.

7. Conclusões
Este artigo descreveu uma experiência com utilização de iluminação natural baseada em
imagens para geração de animações que combinam objetos reais e sintéticos em uma
mesma cena. O objetivo é produzir imagens nas quais observadores não consigam
identificar facilmente quais objetos são reais e quais são sintéticos. A fim de demonstrar
esta característica, usamos como estudo de caso a animação de um brinquedo de corda
real cuja forma corresponde a forma do Utah teapot. Foi gerado um vídeo do brinquedo
caminhando e, posteriormente, visando a comparação, foi modelado e animado no
mesmo ambiente um brinquedo com as mesmas características. Os vídeos referentes a
esta experiência podem ser encontrados em http://www.inf.ufrgs.br/~huff/IBL.
De maneira mais ampla, o uso de iluminação baseada em imagens permite a
integração de modelos gerados por computador em ambientes do mundo real de acordo
com princípios da iluminação global. Para aplicar esta técnica são necessários alguns
passos, incluindo obtenção de fotografias omnidirecionais com alta faixa dinâmica, e
utilização das imagens HDR resultantes como fonte de iluminação na cena gerada por
computador. Esta técnica tem uma grande variedade de aplicações nas áreas de
modelagem e rendering baseados em imagens, e processamento e composição de
imagens. O realismo dos resultados encontrados é dificilmente reproduzido por outras
técnicas de iluminação de cenas geradas por computador. Neste sentido, o uso de
iluminação natural apresenta-se como importante ferramenta para as aplicações de
realidade mista, bem como outras aplicações de realidade virtual para as quais alto grau
de realismo das cenas é fator importante.
A utilização de imagens HDR em aplicações interativas pode ser obtida através
da implementação de mapeamento de textura com alta faixa dinâmica [Cohen 2001] em
hardware gráfico. Desta forma, pretende-se estender a presente experiência com
iluminação natural de objetos sintéticos para aplicações interativas, preservando o alto
grau de realismo disponibilizado por esta abordagem.

Referências
Cohen, J., Tchou, C., Hawkins, T. e Debevec, P. (2001) “Real-time High Dynamic
Range Texture Mapping”. Proceedings of the 12th Eurographics Workshop on
Rendering Techniques, London, p. 313-320.
Debevec, P. E. e Malik, J. (1997) “Recovering High Dynamic Range Radiance Maps
from Photographs”. Proceedings of SIGGRAPH'97, Los Angeles, USA, p. 369-397.
Debevec, P. E. (1998) “Rendering Synthetic Objects into Real Scenes: Bridging
Traditional and Image-Based Graphics with Global Illumination and High Dynamic
Range Photography”. Proceedings of SIGGRAPH’98, Orlando, USA, p. 189-198.
Debevec, P. E. (2002) “Image Based Lighting”. IEEE Computer Graphics and
Applications, v. 22, n. 2, p. 26-34.
Debevec, P. E. (2004) “HDRShop: High Dynamic Range Image Processing and
Manipulation”, http://www.debevec.org/HDRShop, acessado em 30/08/2004.
Miller, Gene S., e Hoffman, C. Robert (1984) “Illumination and Reflection Maps:
Simulated Objects in Simulated and Real Environments”. Course Notes for
Advanced Computer Graphics Animation at SIGGRAPH’84.
Pomi, A., Marmitt, G., Wald, I., e Slusallek, P. (2003) “Streaming Video Textures for
Mixed Reality Applications in Interactive Ray Tracing Environments”. Proceedings
of the Vision, Modeling and Visualization 2003, Munich, Germany, p. 261-269.
SpheronVR (2004) “PanoCam: Digital Panoramic Camera”, http://www.spheron.com,
acessado em 30/08/2004.
Ungerm, J., Wenger, A., Hawkins, T., Gardner, A., e Debevec, P. (2003) “Capturing
and Rendering with Incident Light Fields”. Proceedings of the 14th Eurographics
workshop on Rendering, Leuven, Bélgica, p. 141-149.
Whitted, T. (1980) “An improved illumination model for shaded display”.
Communications of the ACM, v. 23, n. 6, p. 343-349.