Escolar Documentos
Profissional Documentos
Cultura Documentos
Conceitos básicos, fundamentos e introdução ao universo da computação gráfica, como primitivas básicas, modelagem básica, iluminação,
materiais, textura e render.
PROPÓSITO
Compreender os fundamentos básicos do universo da computação gráfica 3D, para que você domine conceitos essenciais como modelagem,
iluminação, materiais e texturas e render.
PREPARAÇÃO
Antes de iniciar este conteúdo, você precisa de um computador com o software 3ds Max e conexão com a internet.
OBJETIVOS
MÓDULO 1
MÓDULO 2
MÓDULO 3
Descrever texturas e materiais e os principais conceitos envolvidos
MÓDULO 4
INTRODUÇÃO
Inicialmente, faremos uma introdução sobre a evolução histórica dos jogos 3D. Após isso, apresentaremos aspectos da computação gráfica 3D:
modelagem 3D, explicando seus elementos básicos; iluminação e sombras, com os tipos de luzes e de sombras; texturização e materiais, e
seus fundamentos, diferenciações e forma de aplicação nos objetos; e, por fim, a renderização 3D, com os tipos de render e suas aplicações.
MÓDULO 1
Quando falamos de arte para jogos, ou “games”, uma das primeiras considerações que devemos fazer é diferenciar esta da arte para cinema ou
para render “off-line”. Veja algumas dessas diferenças:
COMENTÁRIO
É muito comum no mercado as pessoas confundirem a arte do trailer de um game com o gráfico que o game de fato terá quando chegar às
mãos dos jogadores.
A palavra-chave que separa os dois ramos chama-se “limitação”. Limitação de polígonos, tamanho das texturas, qualidade e realismo da
iluminação e materiais, quantidade de pontos de deformação nos personagens, tudo dentro do ambiente do game possui limitações muito
maiores.
O “render”, a criação da imagem em si nos jogos digitais, é feita em tempo real, com luz, sombra e oclusão sendo calculadas diretamente na
placa de vídeo o tempo inteiro, a cada interação do jogo.
O sol se movimenta no céu, o personagem anda pela cena, sua sombra é desenhada em movimento no chão, tudo isso é calculado o tempo
inteiro na placa de vídeo. E isso tem um custo computacional. Quando falamos de um filme, o “render”, a criação da imagem, já foi feito e ele é
estático, não interativo.
LIMITAÇÕES PROJETUAIS
Sempre que formos trabalhar em um projeto de jogos, haverá limitações de polígonos e texturas a serem utilizados, os quais chamamos de “poly
budget” e “texture limit”. Cada jogo possui valores específicos, variando muito de uma plataforma para outra.
Entre jogos de console “single player” e jogos on-line e multiplayers massivos, você saberia dizer qual possui mais especificações
de polígonos e texturas?
Jogos de console, ditos “single player”, geralmente possuem especificações mais generosas de polígonos e texturas, uma vez que eles serão
carregados a partir de uma mídia estática (DVD, HD do console).
Jogos on-line e multiplayers massivos, como League of Legends, possuem especificações mais baixas, devido ao fato de carregarem e
descarregarem da memória, o tempo todo, uma gama enorme de modelos 3D de diferentes pessoas que estão jogando simultaneamente.
Imagem: Genshin Impact, PS4.
Outra coisa que afeta a qualidade final dos multiplayers massivos é o tempo de desenvolvimento do jogo que, devido ao seu tamanho, faz com
que sejam lançados, às vezes, dez anos depois do seu início. Sendo assim, a tecnologia gráfica evolui de forma significativa, dando a impressão
de que o jogo está “datado” visualmente. Bons desenvolvedores vêm contornando esse problema ao desenvolver jogos multiplayers com gráficos
de desenho animado, cartoon, como o recente Genshin Impact.
PLATAFORMAS DE JOGOS
Cada plataforma de jogos, ou console, possui seus requerimentos específicos, que variam de acordo com a sua capacidade de processamento
em CPU (processador) e GPU (placa de vídeo).
Sendo assim, a cada novo lançamento de consoles e novas peças de computador, esses limites crescem junto, acompanhando a tecnologia.
Inicialmente, nos primórdios dos jogos em 3D, os requerimentos de polígonos e texturas eram muito baixos, deixando os modelos 3D com a
aparência “facetada”.
Além da baixa quantidade de polígonos para dar forma aos modelos, o uso de shaders era mínimo – no máximo se usava uma textura diffuse
(que representa a cor do modelo) e alguns mapas de reflexão em armas e água.
Um exemplo de jogos desse tipo, é o GoldenEye 007. Na imagem a seguir, você consegue observar as características destacadas
anteriormente:
Ainda podemos encontrar jogos com esse gráfico, hoje em dia chamados “old school” ou “hand painted”, principalmente em jogos para
dispositivos móveis (celulares iPhone, Android, tablets etc.).
Esses jogos ditos “old school” possuem como requerimento malhas poligonais que variam de 500 triângulos + texturas de 128x128 pixels, até
malhas com 6.000 triângulos e texturas de 1024x1024 pixels, dependendo do hardware target.
NEXT-GEN
Next-gen, como o nome já diz, é uma redução de Next Generation. Trata-se dos jogos que foram introduzidos a partir do primeiro Xbox da
Microsoft. Possuíam modelos 3D com especificações mais amplas de poligonagem, texturas e shaders, com destaque para o primeiro uso de
Normal Mapping, que são texturas para simular relevo realista, porém, bastante leves em termos computacionais.
O padrão do que se diz por next-gen, no Playstation 3, por exemplo, ficava em torno de 20 mil triângulos e texturas de 2048x2048 pixels para um
personagem principal. Veja um exemplo na imagem a seguir:
A TECNOLOGIA NANITE
A tecnologia Nanite de virtualização de geometria e micropolígonos vai permitir que os artistas adicionem uma quantidade enorme de detalhes
nos modelos diretamente na engine. Veja, na imagem a seguir, como ela pode ser aplicada:
ATENÇÃO
Geometria virtualizada Nanite significa que modelos 3D com padrão de cinema (render off-line) feitos com milhões ou bilhões de polígonos
poderão ser importados diretamente na Unreal Engine – qualquer coisa desde esculturas do ZBrush até modelos escaneados do mundo real e
modelos nativos CAD.
A geometria Nanite passa por um sistema de streaming e ajuste de escala em tempo real, então, dessa forma:
Não há mais limite de polígonos, budget de memória ou de draw calls (quantidade de modelos que podem ser desenhados na tela ao mesmo
tempo).
Não existe a necessidade de se bakear mapas de normal ou setar LODs (nível de detalhamentos) manualmente.
Essas são afirmações bem ousadas e vêm causando burburinho nos grupos de desenvolvedores de games.
LUMENS
O Lumens é uma solução de iluminação global totalmente dinâmica que reage imediatamente com a cena e mudanças na iluminação.
O sistema renderiza reflexão difusa entre objetos com bounces ilimitados e reflexão especular indireta em cenários enormes e detalhados, em
escalas que variam de quilômetros até milímetros.
Artistas e designers podem criar mais cenas dinâmicas usando o Lumen, por exemplo, mudando a posição do sol durante o dia, ligando uma
lanterna, ou explodindo um buraco no teto, que a iluminação indireta vai se adaptar de acordo.
VOCÊ SABIA
O Lumens remove a necessidade de esperar por bakes de lightamp terminarem e de realizar as UVs de lightmap – o que economiza bastante o
tempo que os artistas gastam preparando os cenários dentro da Unreal, uma vez que ele pode simplesmente mover uma lâmpada no editor e ver
a iluminação alterando em tempo real com o jogo funcionando.
Um time enorme trabalhou desenvolvendo essa tecnologia para que tivéssemos esse salto de qualidade. Para construir grandes cenas com
geometria Nanite, o time fez um grande uso da biblioteca do Quixel Megascans, que provê modelos 3D com qualidade de filmes com milhões de
polígonos.
Para suportar essas cenas muito maiores e mais detalhadas que as gerações anteriores, o Playstation 5 vai fornecer um aumento dramático em
transferência de dados em tempo real.
Diferentemente do Playstation 4 Pro e do Xbox One X – consoles de “entressafra” que oferecem mais poder computacional na mesma geração
de consoles –, o Playstation 5 vai permitir mudanças significativas no cenário dos jogos. Basicamente, isso é culpa dos novos processadores:
uma nona CPU e GPU da AMD. Na geração anterior, eles usavam a AMD Ryzen, enquanto a nova geração vai usar a Radeon Navi. Isso significa
que o PS5 vai utilizar chips de CPU e GPU que ainda não estão disponíveis no mercado.
Foto: Shutterstock.com
ATENÇÃO
Outra coisa que vai afetar o desempenho dos jogos é o fato de que, pela primeira vez, essa nova geração de consoles vai usar um HD SSD –
Solid State Drive. A principal diferença é que ele é muito, mas muito mais rápido que um disco rígido comum.
Em uma demonstração do novo disco, em 2018, o jogo Spider Man carregou em um kit de desenvolvimento do Playstation (trata-se de uma
máquina que simula exatamente o hardware do novo console, a fim dos desenvolvedores criarem e testarem os jogos). Ele demonstrou uma
redução de 15 segundos para apenas um segundo no loading do jogo.
Pense em todo o tempo que você já perdeu aguardando telas de loading dos games – agora imagine que isso vai acabar de vez.
A tecnologia 8K, que é o próximo passo para as resoluções de televisão depois do 4K, também estará disponível no Playstation 5.
COMENTÁRIO
Apesar de sabermos que o console poderá oferecer resolução 8K, não espere ver nenhum jogo com ela por algum tempo. Afinal de contas,
ainda não existe uma gama grande de televisores 8K, ainda mais uma audiência ávida por conteúdo nessa resolução. Isso sem falar do custo
absurdo das televisões de 8K já presentes no mercado.
RAY TRACING
Trocando em miúdos, o jargão do Ray tracing (Iluminação por traçado de raios) é, em resumo, “iluminação mais detalhada e fiel ao mundo
real”.
Um componente crítico para o realismo nos games – assim como em qualquer outra mídia visual –, é como a iluminação é aplicada.
Assim como as próprias engines de jogos estão oferecendo novas ferramentas de iluminação, o Playstation 5 vai oferecer Ray tracing em tempo
real nativo no console. Alguns estúdios de TV e Cinema já usam Ray tracing para adicionar realismo na iluminação de cenas criadas por
computador, mas só recentemente é que o Ray tracing foi adicionado aos jogos. Ele usa muito processamento para simular uma iluminação
realista, especialmente em tempo real, correspondendo às ações dos personagens no jogo.
Você está concluindo o primeiro módulo do nosso estudo sobre Fundamentos de Modelagem 3D. Antes de verificar seu aprendizado, assista ao
vídeo a seguir, em que será apresentada a interface básica do 3ds Max.
VERIFICANDO O APRENDIZADO
D) é uma técnica que simula uma iluminação mais detalhada e fiel ao mundo real.
GABARITO
1. Sobre a modelagem para jogos digitais, podemos afirmar que
Toda modelagem feita para jogos digitais funciona dentro de um software, logo, existem limitações de projeto inerentes ao mesmo. A qualidade
gráfica não é uma constante em jogos digitais. Mesmo excelentes hardwares por vezes têm uma péssima aplicação de arte nos jogos. Recursos
como o Normal Map só passaram a ser utilizados em alguns dispositivos, portanto, não são todos os jogos digitais que fazem uso dele. O render
off-line sempre terá qualidade superior ao real time dos jogos por não ter limitação de tempo nem de engine. E, por fim, cada hardware vai
oferecer recursos diferentes para os jogos, o que vai afetar diretamente a modelagem de seus games.
MÓDULO 2
MODELAGEM
Agora, entraremos no mundo da modelagem tridimensional. Modelagem 3D é o uso de software para criar um modelo tridimensional virtual de
algum objeto, cenário ou personagem. Por meio do uso de diversas técnicas, com a utilização de programas computacionais, podemos criar
vários tipos de formas, objetos e modelos.
Foto: Shutterstock.com
A modelagem tridimensional é um universo que mistura arte e aspectos técnicos e pode ser praticada em diversos tipos de programas 3D
disponíveis no mercado. Serve para os mais variados fins, como para a animação, indústria automobilística, arquitetura, cinema e TV, por
exemplo. Por meio dela, pode-se criar modelos de veículos antes mesmo de se ter sua primeira peça pronta.
Imagem: Shutterstock.com
Outro exemplo que podemos citar é na arquitetura, por meio da construção de prédios, casas, pontes, praças, em que tudo pode ser feito no
computador, antes mesmo de se pensar em iniciar as obras. Pode-se também criar personagens para cinema, animação e televisão. Com o
advento das impressoras 3D, esculturas, peças e produtos podem ser impressos e manipulados.
Para se iniciar nesse universo, o primeiro passo é escolher um programa de modelagem 3D para aprender. Em seguida vem a prática. Passar
horas aprendendo a modelar vários objetos, cenários ou personagens, dependendo do que se quer focar. São fundamentais consistência e
paciência para desenvolver as habilidades necessárias.
COMENTÁRIO
O desenvolvimento de habilidades de modelagem 3D se torna uma obrigação para quem não deseja se limitar a modelos básicos que podem
ser baixados ou comprados na internet ou quer se tornar um profissional da área.
Seja na arte de jogos de videogame ou efeitos de filmes, um modelo pode começar como um esboço usando primitivas básicas, em um
processo conhecido como blocagem. Geralmente, também é utilizada uma referência que consiste em um design feito seguindo contornos do
elemento a ser modelado em várias vistas isométricas em 2D, ou por meio de uma imagem. Para a blocagem, são, em geral, utilizadas formas
básicas fornecidas pelos aplicativos 3D.
PRIMITIVAS BÁSICAS
As primitivas básicas são formas geométricas conhecidas e familiares, que guardam relação com objetos do mundo real, como caixas, bolas de
futebol, donuts, cones de trânsito e canos, que existem em qualquer aplicação 3D, como você pode observar na imagem a seguir:
No 3ds Max, você pode modelar muitos desses objetos usando uma única primitiva. Você também pode combinar primitivas básicas em objetos
mais complexos e refiná-los ainda mais com as ferramentas de modelagem no modo “Editable Poly” (polígonos editáveis) ou com modificadores.
O 3ds Max inclui um conjunto de 11 primitivas básicas. Você pode criar facilmente essas primitivas com o mouse na área de trabalho 3D. Para
isso, basta ir acessar o menu Create, na aba Geometry, ir ao menu “Object Type” e escolher a forma que deseja criar. Basta clicar na área de
trabalho, segurar e arrastar:
Algumas primitivas são criadas em apenas um movimento, de clicar e simplesmente arrastar, como a esfera. Outras são em dois e por vezes
três movimentos de clicar e arrastar, como cilindros e cones. Também disponível no menu “Object Type” está a opção AutoGrid, que permite criar
um objeto na superfície de outro objeto.
Você pode converter as primitivas básicas em objetos de malha editáveis, como polígonos editáveis e superfícies NURBS. A modelagem e a
edição de formas NURBS são um pouco complexas e extensas, e não abordaremos neste conteúdo, trabalhando apenas com a modelagem por
polígonos editáveis.
SUPERFÍCIES NURBS
NURBS (b-spline racional não uniforme) são formas suaves definidas por curvas, relativamente complexas em termos computacionais.
WIREFRAME
O chamado Wireframe é a estrutura de arame de um modelo, que consiste em uma representação visual de um objeto tridimensional (3D) usado
em computação gráfica 3D. Parece uma estrutura de arame, pois é criado especificando cada aresta, vértice e face do objeto virtual.
VOCÊ SABIA
O termo "estrutura de arame" vem de designers que usam arame de metal para representar a forma tridimensional de objetos sólidos.
Modelos 3D de computador com estrutura de arame permitem a construção e manipulação de sólidos e superfícies sólidas, que podem ser
transformados em estruturas mais complexas. Essa manipulação é feita por meio de seus componentes básicos, ou subelementos, como faces,
arestas e vértices, que serão detalhados a seguir. Veja um exemplo de wireframe:
DICA
Para acessar os subelementos de modelagem que iremos detalhar em seguida, basta criar um objeto qualquer na área de trabalho, clicar com o
botão direito sobre ele e escolher a opção “Convert to Editable Poly”.
POLÍGONOS
Na computação gráfica 3D e na modelagem de sólidos, uma malha poligonal é uma coleção de vértices, arestas e faces que definem a forma de
um objeto ou modelo. As faces geralmente consistem em triângulos (malha de triângulo), quadriláteros (quads) ou outros polígonos com mais
lados (n-gons). A composição dos polígonos forma a chamada “malha poligonal”. No 3ds Max os polígonos são chamados polygons.
Na imagem a seguir você consegue diferenciar a malha com quadriláteros e a malha com triângulos:
O estudo de malhas poligonais é um grande subcampo da computação gráfica 3D e é fundamental para a modelagem geométrica, pois é
necessário para entender como “resolver” a malha do modelo.
Diferentes representações de malhas poligonais são usadas para diferentes aplicações e objetivos. A variedade de operações realizadas em
malhas pode incluir: lógica booleana, suavização, simplificação e muitas outras.
A malha deve ser bem trabalhada, pois pode gerar problemas na hora que for suavizada ou animada.
ATENÇÃO
A regra é: os modeladores trabalham com a malha em “quads”, que significa evitar triângulos e manter a malha o máximo possível sem polígonos
de mais de 4 lados, pois isso deixa o modelo mais consistente para suavização e animação.
VÉRTICE
O vértice é basicamente um ponto na malha de arame ou wireframe. Ele limita as arestas (com 2 pontos) e as faces (com 3 ou mais vértices). O
vértice é manipulável na área de trabalho dentro de qualquer software de modelagem 3D, podendo ser movido livremente no espaço, em
qualquer direção. Ele é um dos elementos que são manipulados para dar forma ao modelo.
EDGE
A edge é qualquer aresta limitada por 2 vértices. Também pode ser manipulada e movida livremente no espaço da área de trabalho do software
3D. Há diversas opções e ferramentas de modelagem para as edges e elas também são um elemento importante na hora de moldar a forma de
um objeto.
BORDA
A borda é um elemento que existe particularmente no 3ds Max, e só é possível selecioná-la e manipulá-la onde há um “buraco na malha”. Ela é
formada por um conjunto de edges (de 3 em diante) e também pode ser movida e manipulada livremente no espaço 3D.
ELEMENTO
No 3ds Max, o elemento é uma “peça” inteira, formada por seus vértices, arestas e faces. Esse subelemento de modelagem é utilizado para
organizar ou arranjar partes e peças de um modelo.
Dependendo do subelemento de modelagem em que você estiver (face, aresta, vértice), as opções de modelagem também mudam, e existem
várias para a modelagem poligonal em qualquer programa 3D. A seguir, apresentaremos algumas para o modo “polygon”:
Para ativar essas opções no 3ds Max, basta criar qualquer objeto básico, clicar com o botão direito do mouse sobre ele e clicar, por fim, em
“Convert to Editable Poly”.
class='figure-img img-fluid rounded'> <figcaption class= Convertendo para Editable Poly.
Captura de tela do software 3ds Max, adaptada por Diego Penaforte."
Em seguida, no menu lateral, basta entrar no modo “polygon”, então, estarão ativadas as opções de modelagem que listaremos.
EXTRUDE
A “extrusão” é a expansão de uma face, que é projetada no espaço, porém, sem perder a ligação com a base de onde saiu. É como pegar uma
face e “puxá-la para fora”, mas deixando a malha de forma organizada. Para ativar essa ferramenta, basta entrar no modo “polygon”, selecionar
uma face ou grupo de faces (para selecionar mais de uma face, deve-se utilizar a tecla control) e clicar com o botão direito do mouse,
selecionando “extrude”. Após isso, basta clicar, segurar e arrastar, regulando a extrusão.
Utilizando a ferramenta cut. Captura de tela do software 3ds Max, adaptada por Diego Penaforte.
CUT
A ferramenta cut permite “desenhar” arestas livremente sobre a malha do modelo. É muito utilizada para “arrumar” a malha e criar novos
polígonos onde for necessário. Acelera muito o processo da modelagem poligonal. Para acessar essa ferramenta, basta estar no modo
“polygon”, clicar com o botão direito do mouse e escolher “cut”. Após isso, basta clicar na geometria do modelo e ir criando as edges. Para
terminar de desenhar, basta clicar com o botão direito do mouse. Esta ferramenta não necessita selecionar as faces.
Utilizando a ferramenta inset. Captura de tela do software 3ds Max, adaptada por Diego Penaforte.
INSET
Esta ferramenta possibilita criar uma face “dentro” de outra face. Basta estar no modo “polygon”, selecionar a face ou faces que se quer editar,
clicar com o botão direito do mouse sobre elas e escolher a ferramenta inset. Então, basta clicar, segurar e arrastar sobre a face ou faces para
esquerda ou direita, regulando o tamanho do “inset”.
Utilizando a ferramenta bevel. Captura de tela do software 3ds Max, adaptada por Diego Penaforte.
BEVEL
A ferramenta bevel é semelhante à ferramenta extrude, porém, faz a base superior maior ou menor que a base inferior. A metodologia para
acessar a ferramenta bevel é similar ao extrude. Basta estar no modo “polygon”, selecionar a face ou as faces que se quer editar, clicar com o
botão direito do mouse sobre a face e escolher a ferramenta “Bevel”. Após isso, basta clicar, segurar e arrastar, regulando o efeito da ferramenta.
Existem diversas técnicas para produzir um modelo de qualidade. Uma delas envolve o que chamamos de Sub-D Modeling, “box modeling” ou
modelagem com subdivisões.
Você trabalha seu modelo partindo de uma forma básica (Default tooltip) com poucos polígonos, para em seguida refinar sua qualidade,
subdividindo seus polígonos e adicionando mais polígonos, por meio de ferramentas de modelagem, chegando a um modelo mais complexo.
Por meio de modificadores de suavização de malha como turbosmooth ou meshsmooth (3ds Max) também é possível dar um acabamento ao
modelo.
Diferentemente da modelagem box modeling, a modelagem Poly by Poly parte de um único polígono plano simples, por exemplo, o plano (plane)
do 3ds Max, configurado para possuir apenas 4 vértices. Então, com técnicas de duplicação (no 3ds Max basta escolher edge, selecionar uma,
apertar o shift e mover) e criação de polígonos (geralmente faces novas), o artista segue criando novos polígonos e desenvolvendo a malha de
arame do modelo, como você pode ver na imagem a seguir:
Exemplo de como funciona a modelagem Poly by Poly.
Captura de tela do software 3ds Max, adaptada por Diego Penaforte.
É uma técnica que exige mais experiência do modelador e maior capacidade de se planejar e de visualizar a topologia da malha final do modelo
que está desenvolvendo.
Para ficar bem claro, é preciso entender que o modelador não apenas precisa imaginar como ficará o modelo final, ou se basear em referências,
e saber como modelar suas formas, mas também precisa entender como essas formas se desdobraram em uma malha poligonal tridimensional
(topologia da malha) composta por faces, arestas e vértices.
Entende-se por “topologia” a forma como os vértices, polígonos e arestas se distribuem ao longo da superfície de um modelo 3D. Uma boa
topologia para modelos 3D utiliza basicamente as seguintes regras:
Proibido o uso de faces triangulares (se não for possível, ao menos minimizar).
Vértices que dão origem a cinco ou mais arestas devem ser evitados.
Sempre que pensamos em modelagem 3D para games, vem à mente aquele modelo superlegal, detalhado que vemos nos jogos.
Mal sabem os leigos todo o processo por trás para alcançar aquele resultado final!
Um dos primeiros passos na criação de qualquer modelo para jogos é a criação da malha High Poly (malha com alta complexidade de
polígonos).
O High Poly, por definição, é um modelo bem detalhado, com as reentrâncias e os detalhamentos possíveis, que será usado como referência
para a criação do modelo final que entra nas engines de jogos. Algo para se ter em mente ao preparar um modelo High Poly é a liberdade na sua
criação. Nesse momento do processo, você pode utilizar qualquer técnica de modelagem que conheça, desde que ela lhe ofereça uma topologia
de malha final limpa, com as normais corretas e sem problema de distorção.
Imagem: Hellboy – Diego Penaforte.
Exemplo de modelo High Poly para jogo criado pelo artista Diego Penaforte.
Já os modelos Low Poly são modelos constituídos de uma malha poligonal de complexidade extremamente baixa, principalmente quanto ao
número de polígonos.
COMENTÁRIO
Nesse caso, a dificuldade para o artista 3D está em conseguir representar um objeto utilizando-se de poucos polígonos e conseguir fazer com
que esse objeto seja reconhecido.
Esse tipo de modelagem é muito utilizado em jogos eletrônicos (games), pois é necessário que esses jogos sejam renderizados muito
rapidamente, e a complexidade da quantidade de polígonos do modelo é um dos fatores que pode causar lentidão e atrapalhar o render.
Ao contrário do que temos na criação de modelos High Poly, para modelos Low Poly, o ponto-chave é a silhueta!
As silhuetas definem tudo o que realmente é importante para a modelagem da Malha Low Poly para o reconhecimento do modelo. Pense da
seguinte forma: se um detalhe específico do modelo não influencia na silhueta, então, ele não precisa estar no Low Poly!
Quando pensamos em modelos Low Poly, todos os detalhes que se encontram dentro das silhuetas, como detalhes secundários e terciários,
incluindo parafusos, cortes, marcas etc., não precisam ser modelados! Serão projetados, por exemplo, com a utilização de mapas de textura,
como o normal map, que será explicado no módulo sobre texturas e materiais.
PRIMITIVAS E POLÍGONOS EDITÁVEIS
Muito bem! Estamos terminando o módulo 2 e, para isso, assista ao vídeo a seguir que apresenta o resumo das primitivas básicas, dos
polígonos editáveis e das ferramentas básicas de modelagem.
VERIFICANDO O APRENDIZADO
E) tanto o High Poly quanto o Low Poly são importantes para os detalhes finais do modelo.
2. A FERRAMENTA INSET SERVE PARA
B) expandir um polígono mantendo relação com sua base, porém com a base menor diferente da base maior.
D) criar arestas em um modelo, que devem seguir as formas dos objetos, formando “elos” ou “loops” ao redor de cada forma.
GABARITO
1. Sobre Modelagem Low Poly, é correto afirmar que
Modelos Low Poly podem ter triângulos em sua formação, justamente devido ao fato de não passarem por processos de subdivisão de malha
com modificadores, como turbosmooth e meshsmooth. Se for um modelo estático como uma arma, raramente a presença de um triângulo será
percebida, a não ser que ele seja enorme. O Graphite modeling é uma das melhores ferramentas de Low Poly e retopologia, por permitir criação
de malhas 3D seguindo outras como modelo. No processo da criação do modelo final in-game, Low Poly com texturas bakeadas, os detalhes
sempre vêm do modelo High Poly. E sim, a silhueta é a parte mais importante do modelo Low Poly, a fim de economizar polígonos na sua
criação. Áreas que não contribuem com a silhueta do modelo devem ter a menor quantidade de polígonos possível.
MÓDULO 3
TEXTURAS E MATERIAIS
Aprendizes no trabalho 3D geralmente ficam confusos sobre a diferença entre materiais e texturas, porém, ambos são fundamentais para a arte
3D. Quando um modelo 3D é criado, o computador não sabe que tipo de superfície está sendo criada e, portanto, surge com uma única cor plana
(que geralmente é cinza).
Por exemplo, no 3ds Max, os objetos são criados com uma cor aleatória, mas essa cor não apresenta texturas, como na figura do “pote de chá” a
seguir.
COMENTÁRIO
Fazendo uma comparação para sermos mais didáticos, a parede de uma casa deve ter papel de parede ou ser pintada, caso contrário, ficará
sem acabamento. Esse “acabamento” será a textura, e a parede é o material.
Materiais e texturas quebram a aparência uniforme da superfície do objeto. Poucos objetos no mundo real têm superfícies completamente
uniformes. Em vez disso, a maioria deles têm padrões ou variações de cor, textura, relevo. Considere, por exemplo, um pedaço de madeira, uma
peça de metal enferrujado, a argamassa em uma parede de tijolos.
Em gráficos 3D, materiais e texturas são quase tão importantes quanto formas.
Imagine como as cenas seriam chatas e falsas se todos os objetos fossem cinza, ou “lisos”, sem textura e sem propriedades de materiais, como
reflexão e refração. O sistema de materiais no software 3D escolhido permitirá que você crie uma ampla variedade de materiais, aplique vários
tipos de textura e simulará como cada um desses elementos interage com a luz.
Compare a mesma cena 3D, sem a aplicação de materiais e texturas e depois com a aplicação delas:
1. Cena em 3D sem texturas e materiais. 2. Mesma cena 3D apresentada, porém, agora, com materiais e texturas.
Captura de tela do software 3ds Max, adaptada por Diego Penaforte.
ATENÇÃO
Em termos mais simples: texturas e materiais são usados para pintar a superfície de um modelo 3D. Texturas e materiais não são a mesma
coisa, embora, às vezes, sejam usados indistintamente para se referir a algo que “cobre” o modelo. Mas na arte 3D eles significam coisas
diferentes.
Por exemplo, um material “abriga” as texturas, mas as texturas não “abrigam” materiais. Não se pode aplicar texturas diretamente sobre o
modelo, elas sempre são aplicadas a um material e este vai no modelo. Dentro de cada pacote 3D as texturas e materiais possuem
representações gráficas nos editores de materiais para que possamos trabalhar em uma lógica visual. Elas geralmente utilizam o sistema de nós
(nodes). Observe os nós na imagem a seguir:
Texturas e materiais.
Captura de tela do software 3ds Max, adaptada por Diego Penaforte.
Tanto as texturas quanto os materiais podem ser feitos à mão ou criados procedimentalmente (com itens fornecidos pelo programa 3D). Alguns
artistas podem até combinar as duas técnicas para obter certo efeito. Mas vamos dar uma olhada com mais detalhes nos materiais e nas
texturas para ver como eles funcionam em um fluxo de trabalho de 3D típico.
MATERIAIS
O principal é se lembrar de que você não pode aplicar uma textura a um objeto sem um material.
Por si só, uma textura é apenas uma imagem e não pode fazer nada. Ela precisa de um material para realmente funcionar em um elemento 3D.
Os materiais combinam texturas usando diferentes sombreamentos (shaders) para obter os efeitos finais. O renderizador usa essas informações
para criar a imagem final exibida na tela. Ele usará fontes de luz na cena combinadas com materiais nos objetos 3D para calcular reflexos,
sombras, rugosidade etc.
Um material controla como um objeto 3D aparece na tela. Controla a cor do objeto e as propriedades “físicas” da superfície, como a reflexão ou
se a superfície é transparente ou opaca. Sendo assim, um material define as propriedades ópticas de um objeto, sua cor, opacidade, se é fosco
ou brilhante e mais, decidindo coisas como quanta luz é absorvida ou refletida pelo objeto.
Imagem: Diego Penaforte.
Diferentes materiais no 3ds Max.
VOCÊ SABIA
Aprofundando a explicação, é como se os materiais fossem recipientes para os sombreadores (shaders) e texturas, que podem ser aplicados
aos modelos. Existem vários materiais em qualquer programa 3D e a maior parte da personalização de materiais depende de qual sombreador
(shader) é escolhido, embora todos os shaders tenham alguma funcionalidade comum. Os shaders definem a forma como os materiais
receberão a luz, assim como as texturas definirão o padrão visual do elemento 3D. Exemplo: os shaders difusos fornecem um acabamento fosco
enquanto os shaders especulares criam reflexos espelhados.
Se você está tendo problemas para entender como um sombreador (shader) funciona, considere este cenário: imagine que você tem um pedaço
de madeira. A fisicalidade da madeira é sua malha; cor e textura são sua textura, e a forma como recebe a luz (que pode variar de madeira para
madeira) é o shader. Agora, pegue aquele pedaço de madeira e jogue água nele. A madeira continua com a mesma malha e ainda possui a
mesma “textura de madeira”. Mas parece diferente, um pouco mais escura e brilhante. A água nesse exemplo é o shader. O shader pegou algo e
fez com que parecesse um pouco diferente (escuro e brilhante), sem realmente alterar sua essência.
EXEMPLO
Um material pode usar uma textura difusa, um mapa normal e um mapa especular. Todos eles são diferentes tipos de texturas, mas trabalham
juntos para controlar a aparência geral do objeto.
Cada programa de arte 3D terá suas próprias configurações de material, e ao combinar várias texturas e configurações de materiais, é possível
criar imagens fotorrealistas.
Lembre-se de que a aparência de seus materiais também é afetada pelas luzes que está utilizando (maneira como iluminou a cena), e pelo
mecanismo de renderização usado (alguns softwares 3D têm vários mecanismos de renderização integrados).
TEXTURAS
A texturização é necessária em todos os campos que envolvem a geração de imagens por computação gráfica, sejam elas para uma peça
estática (imagem) ou animadas (animações, cinema, games).
Na indústria cinematográfica, muitas vezes um artista de texturas é um trabalho específico dentro do pipeline, que é a linha de produção do filme,
ou seja, esse artista não modela nem anima. Já na indústria de jogos, muitas vezes é necessário que o próprio modelador 3D também crie
texturas para os modelos desenvolvidos.
DICA
Tanto o 3ds Max, o Maya, o Cinema 4D e o Blender são ótimos aplicativos que você pode usar para começar a texturizar em 3D.
Porém, ir direto para um aplicativo 3D não é o melhor caminho para um aspirante a artista de texturas. Antes de entrar em um aplicativo 3D, é
extremamente importante que você esteja familiarizado com um aplicativo de edição de imagens como o Photoshop ou o GIMP. A razão disso é
simplesmente porque muitas texturas partem de uma fotografia, ou pelo menos de uma referência fotográfica, e necessitam de edições nesses
programas, para as necessidades do modelo ou do projeto. Se você já está familiarizado com o Photoshop ou GIMP, você pode ir em frente e
começar a aprender a texturizar em sua aplicação 3D favorita.
Uma textura é um arquivo bitmap de uma imagem “plana” que é aplicado ao modelo 3D por meio de um material e envolvido ao redor do modelo
3D com a ajuda de ferramentas especiais de mapeamento. Elas são as maiores responsáveis por modelos serem coloridos e interessantes, em
vez de vazios e enfadonhos.
Veja alguns exemplos de imagens que são utilizadas como texturas:
Pode ser estranho pensar que uma imagem 2D pode ser aplicada a um modelo 3D, mas é um processo bastante simples, uma vez que você
esteja familiarizado com ele.
Pense por um momento em um presente de aniversário com embrulho. Se você tirasse o papel de embrulho com calma, sem rasgar, e o
esticasse, veria que é um pedaço de papel plano, porém, assume a forma da caixa do presente uma vez que o envolva. Esse papel de embrulho
é como uma textura. Depois que o papel foi impresso, ele foi enrolado em torno do presente para fornecer uma aparência mais agradável. Sendo
assim, as texturas são simplesmente imagens usadas para revestir objetos 3D.
As coordenadas de mapeamento definem como a textura é envolvida no modelo 3D. O processo de aplicação e modificação das coordenadas
de mapeamento em 3D é um processo geralmente chamado de desdobramento UV, também conhecido entre os texturizadores como processo
de “abertura de malha”. Ao criar um modelo simples ou intrincado, é comum gerar algo chamado de desembrulhar UVW, desdobrar UVW, ou
unwrap UVW.
ATENÇÃO
O desdobramento é semelhante a um mapa que mostra exatamente como uma textura plana se enrolará em torno de um modelo (como no
exemplo do presente). A geração de desdobramentos de modelos e texturas é uma forma de arte em si e pode se tornar uma tarefa bastante
complexa.
Uma textura não substituirá as configurações de um material quando adicionada a ela, mas trabalhará junto com a configuração do material
existente para criar um acabamento mais realista.
EXEMPLO
Por exemplo, uma imagem de tábuas de madeira pode ser adicionada como uma textura a um material que já tem um efeito brilhante para criar
um acabamento de madeira de alto brilho.
As texturas podem ser criadas proceduralmente (computacionalmente) ou feitas por um artista em um programa como o GIMP ou Photoshop.
Um artista pode, por exemplo, tirar fotos de rochas e usá-las para pintar a superfície de um objeto 3D. Ou eles podem pintar uma textura de
superfície à mão para obter uma aparência mais estilística.
PROCEDURALMENTE
VOCÊ SABIA
Qualquer JPEG ou PNG comum pode servir como uma textura. No entanto, a maioria dos artistas criará suas próprias texturas ou usará imagens
de alta qualidade encontradas on-line tratadas e trabalhadas.
Alguns objetos também usarão texturas múltiplas. Em um mundo de videogame, por exemplo, o terreno pode usar uma textura de grama, uma
textura de estrada e uma textura de pedra juntas. Combinar texturas é uma ótima maneira de criar efeitos mais interessantes, mas é preciso
prática para acertar.
Antes de finalizar mais um módulo do nosso conteúdo, assista ao vídeo a seguir que apresentará o básico da aplicação de materiais e de
texturas no 3ds Max.
VERIFICANDO O APRENDIZADO
B) basta criar uma textura no editor de materiais do 3ds Max e aplicá-la diretamente sobre o objeto.
C) o bump e normal map servem para dar cor e uma aparência ao modelo.
E) as texturas podem ser trabalhadas totalmente dentro do software 3D dispensando o uso de programas de edição de imagens.
2. AS TEXTURAS PROCEDURAIS SÃO
B) texturas que servem para criar relevo “fake!” com volume que reage com a luz.
D) texturas que são criadas com o intuito de fazer o modelo reagir com a luz, para ficar mais realista.
GABARITO
1. Sobre texturas, é correto afirmar que
Por si só, uma textura é apenas uma imagem e não pode fazer nada. Ela precisa de um material para realmente ser aplicada em um elemento
3D. Portanto, as texturas são aplicadas nos materiais e os materiais é que são aplicados diretamente no modelo 3D.
As texturas procedurais são as que são oferecidas pelo próprio programa 3D, e possuem opções de configuração igualmente oferecidas pelo
próprio programa. São desenvolvidas com o intuito de uma criação rápida de material e para uma texturização rápida de uma cena.
MÓDULO 4
A renderização geralmente é feita no final da produção. Da mesma maneira que um artista 2D renderiza seus desenhos adicionando iluminação
e sombreamento em suas pinturas ou desenhos, a renderização 3D permite que o artista 3D incorpore sombreamento e iluminação nas cenas
3D.
A renderização 3D está por todo lado. Esteja você assistindo animações, folheando uma revista, visualizando outdoors em seu trajeto ou
percorrendo as mídias sociais em seu telefone, é provável que você se depare com imagens criadas pelo processo conhecido como
renderização 3D. Na verdade, as imagens renderizadas em 3D se tornaram uma forma importante de conteúdo visual para profissionais de
cinema, marketing, anunciantes, produtores de conteúdo e outros.
Imagem: Shutterstock.com
Embora as imagens renderizadas em 3D provavelmente tenham se tornado uma parte padrão da sua vida diária, o processo de renderização
3D é complexo.
No início, isso significava que esse processo era acessível apenas para grandes estúdios de cinema com muitos recursos financeiros, que
realizaram produções como Jurassic Park, Star Wars e grandes empresas de publicidade. Hoje, o acesso a essa tecnologia está mudando. Os
softwares e as ferramentas necessárias para realizar o processo de renderização 3D foram aprimorados e se tornaram mais disponíveis, tendo,
inclusive, bons softwares gratuitos, como o Blender. Agora, organizações de quase todos os tamanhos podem criar imagens 3D renderizadas
sem estourar todo o seu orçamento, como no filme Avatar.
Imagem: Filme Avatar, de James Cameron. 20th Century Studios, 2009.
A renderização 3D é o processo de transformar informações de um modelo, ou cena 3D, em uma imagem 2D. A renderização 3D pode
ser usada para criar uma variedade de imagens, desde as intencionalmente não realistas, as fotorrealistas e até mesmo as chamadas hiper-
realistas.
COMENTÁRIO
As hiper-realistas se parecem tanto com imagens capturadas por uma câmera tradicional, que a maioria dos consumidores não consegue
diferenciar entre uma renderização 3D e uma foto “real”. Incrível, não é?
A renderização 3D, apesar de representar uma forma de arte, emprega o uso de software digital 3D para criar imagens e pode ser um processo
bastante técnico, que envolve diversas etapas.
Depois de criar o modelo 3D, o artista 3D adiciona luzes, texturas e câmeras. A etapa final do processo, conhecida como "renderização", é
quando o software 3D calcula todas as entradas para criar uma imagem bidimensional.
Essas imagens podem ser usadas como uma única imagem estática, montadas em uma animação ou criadas instantaneamente em programas
em tempo real, como videogames.
Existem dezenas de mecanismos de renderização no mercado e pode ser difícil decidir qual usar. Todos vão ser utilizados em conjunto com um
software 3D, como 3ds Max, Maya ou Blender, ou seja, não se utiliza o renderizador sozinho.
SAIBA MAIS
Qualquer software 3D que você usar para o seu fluxo de trabalho virá com seu próprio mecanismo de renderização integrado. Em geral, esses
mecanismos possuem recursos mais básicos, como o 3ds Max, por exemplo, que possui o Quicksilver e o Scanline Renderer.
Eles geralmente são bons para aprender os fundamentos da renderização e podem ser usados para obter alguns bons resultados finais, mas
eles podem ser limitantes em comparação com muitos mecanismos de renderização incríveis que são mais profissionais e comprados por fora
do programa, como V-Ray, Corona e Maxwell Render.
Aqui estão alguns exemplos nos quais vale a pena dar uma olhada:
Imagem: Render com V-Ray.
V-RAY
É um motor muito comum. É capaz de usar renderização de CPU e GPU, por isso é muito flexível e está disponível para Maya, Blender e quase
todas as outras aplicações 3D existentes. Produz imagens fotorrealistas com poucas configurações e é fácil de usar.
CORONA
É outro renderizador, muito usado em visualizações arquitetônicas. É muito poderoso, mas só está disponível para 3ds Max e Cinema 4D.
Imagem: Geri’s Game, Pixar.
Curta de animação Geri’s Game realizado pela Pixar e renderizado com o RenderMan.
RENDERMAN
É desenvolvido e usado pelos estúdios da Pixar para os seus filmes e curtas. Também é usado por muitos outros grandes estúdios de cinema.
Ele pode ser utilizado como um plug-in diretamente com o Maya (foi desenvolvido baseado nesse software) ou como um produto autônomo em
computadores Windows, Mac e Linux.
Imagem: Source / Wikipedia Commons / Fair use.
ARNOLD
É um renderizador avançado baseado em Ray tracing (traçado de luz), construído para suprir as demandas da indústria de efeitos especiais ‒
VFX e produção de animação. Ele oferece ferramentas de renderização poderosas, mas fáceis de usar. Atualmente, vem integrado ao software
de 3D 3ds Max.
MAXWELL RENDER
É um motor de renderização 3D também bastante poderoso, quando se trata de renders fotorrealistas. Foi desenvolvido pela Next Limit
Technologies. Esse software autônomo é usado na indústria de filmes, animação e VFX, bem como na visualização arquitetônica e de design de
produtos. Oferece vários plug-ins para aplicações 3D/CAD e pós-produção.
QUANTO TEMPO LEVA A RENDERIZAÇÃO EM 3D?
Imagem: Shutterstock.com
A quantidade de tempo que leva para criar uma imagem renderizada 3D depende do contexto e do seu ponto de partida. Uma cena com um
objeto simples, com pouca ou nenhuma textura, e apenas uma luz, será renderizada muito mais rápido. Cenas complexas, com diversos
elementos, demoram mais.
A renderização em um filme em 3D pode ser um processo demorado, mesmo em computadores muito rápidos. Isso ocorre porque o software
está essencialmente "fotografando" cuidadosamente cada pixel da imagem, e o cálculo de apenas um pixel pode envolver uma grande
quantidade de cálculos como:
Só para entender o tamanho dos cálculos que o computador realiza, por exemplo, um único quadro da animação Monsters University da Pixar
levou 29 horas para ser concluído.
VOCÊ SABIA
Renderizar todos os quadros de um filme animado como Toy Story, Shrek, Monstros S.A. ou A Era do Gelo, mesmo com a utilização de
centenas de computadores de alto desempenho, sistema também conhecido como Render Farm (fazenda de renderização), trabalhando
continuamente, pode levar meses ou anos.
Para se renderizar algo em 3D, primeiro um modelo ou uma cena 3D devem ser criados. A cena 3D pode ser rudimentar e incluir um único
objeto, ou pode ser uma série complexa de objetos, animações e paisagens, com tudo interligado.
O software de renderização é, então, usado para essencialmente “tirar uma foto” da cena de uma perspectiva específica, definida pelo ângulo da
câmera que se estiver utilizando.
Digamos que você tenha criado um modelo 3D de uma nave espacial no meio de um hangar, cheio de painéis e equipamentos.
A renderização 3D capturaria essa cena do ângulo especificado ‒ por exemplo, da perspectiva vista de baixo da nave. Ele “fotografaria” cada
pixel da cena a partir daquele ângulo e daria acabamento à cena. Esse acabamento pode incluir fontes de luz, efeitos como fogo, explosões e luz
solar. Também pode incluir efeitos atmosféricos, texturas e até reflexão de luz. O resultado seria uma bela renderização em 3D dessa cena, que
vai parecer mais realista, dependendo das possibilidades e do treinamento do artista.
Imagem: Diego Penaforte.
Wireframe e renderização.
Ao contrário da fotografia normal, no entanto, as cenas que estão sendo renderizadas são imaginárias e tudo o que aparece em uma
renderização 3D precisa ser criado (ou recriado) no computador antes de ser renderizado. É muito trabalho, mas permite uma quantidade quase
infinita de controle criativo sobre o que aparece na cena e como é representado.
SAIBA MAIS
O processo de renderização 3D envolve uma combinação de estratégias utilizadas, software 3D, habilidades do artista e arte. Não é suficiente
ter um plano para quais itens você deseja visualizar em 3D, você também precisa ter as ferramentas certas e experiência suficiente para fazer o
produto final corresponder ao desejo do cliente e parecer atraente para os visualizadores.
TIPOS DE RENDERIZAÇÃO
Se você estiver renderizando uma animação, ela será exportada como um arquivo de vídeo ou uma sequência de imagens, que poderão ser
posteriormente montadas.
VOCÊ SABIA
Um segundo de animação geralmente tem pelo menos 24 quadros, então, um minuto de animação tem 1440 quadros para renderizar. Como já
foi explicado, isso pode demorar.
Sendo assim, geralmente são considerados dois tipos de renderização: renderização por CPU e a renderização por GPU (tempo real).
Basicamente, a diferença entre os dois está na diversidade entre os componentes do computador que são utilizados para o processo de
renderização. Veja mais detalhes sobre cada um deles:
Às vezes chamada de “pré-renderização”. Ocorre quando o computador usa a CPU – central de processamento único ‒ como o componente
principal para os cálculos. Explicando melhor, é como se a renderização fosse feita utilizando o processador, ou processadores, do computador.
É a técnica geralmente preferida por estúdios de cinema e artistas de visualização arquitetônica.
Isso se deve à sua precisão ao fazer imagens fotorrealistas e ao fato de os tempos de renderização não serem um problema considerável para
essas indústrias, que possuem enormes recursos. Um exemplo extremo disso é a Pixar, com o filme de 2001 Monsters, Inc. O personagem
principal, Sulley, tinha cerca de 5,4 milhões de fios de cabelo, o que significava que as cenas com ele na tela demoravam até 13 horas para
serem renderizadas por quadro. Para combater esses longos tempos de renderização, o estúdio usa uma farm, ou fazenda de renderização,
com centenas de computadores trabalhando ao mesmo tempo.
A renderização em um jogo deve ser feita em tempo real. Isso significa que não é possível demorar nem segundos para renderizar um único
quadro, senão o jogo ficará lento. Nesse caso, diferentemente da renderização feita na CPU, agora cabe à placa de vídeo do console, ou do
computador, realizar os cálculos e produzir a renderização. Ela deve ser feita enquanto o visualizador estiver em execução, ou seja, enquanto o
jogo estiver rodando.
Esse tipo de renderização é altamente eficiente em jogos eletrônicos e outros aplicativos interativos nos quais você precisa renderizar de 30 a
120 quadros por segundo para que não se perceba lentidão no jogo.
Para atingir esse resultado, a renderização em tempo real não pode usar algumas das opções computacionais avançadas como Ray tracing, e
usa outros efeitos que são trabalhados para enganar o olho, como normal maps, sombras feitas na textura (sem cálculo de sombras), luzes
optimizadas e texturas que mudam de resolução, diminuindo a resolução das texturas na medida que se distanciam da câmera, recurso
conhecido como mip-map.
Devido ao rápido avanço na tecnologia e aos desenvolvedores que criam métodos computacionalmente mais baratos para ótimos resultados de
renderização, as limitações da renderização por GPU estão rapidamente ficando para trás. Sendo assim, apesar de ser geralmente usada em
videogames, a renderização na GPU também está sendo utilizada em outras mídias, como no cinema e na TV.
EXEMPLO
Exemplo disso é o robô K-2SO, do filme Rogue One: A Star Wars Story, que foi renderizado em GPU com plugins desenvolvidos pela Industrial
Light and Magic para a Game Engine Unity, experimentando as potencialidades e velocidade que esse tipo de render oferece.
VERIFICANDO O APRENDIZADO
A) os renderizadores são fáceis de usar, leves e a etapa da renderização é a mais rápida do processo de criação de uma cena 3D.
B) depois de criar o modelo 3D, o artista 3D adiciona luzes, texturas e câmeras. A etapa final de todo esse processo é a etapa de renderização.
C) a renderização não trabalha ao nível de pixels, mas sim “fotografa” a cena como um todo, gerando uma imagem que pode ser utilizada como
imagem estática ou em uma animação.
D) o software de renderização é, então, usado essencialmente para criar um vídeo da cena que se criou em 3D, calculando os elementos criados
na cena.
A) os renderizadores nativos dos programas 3D costumam ser melhores que os renderizadores externos.
B) o RenderMan é um motor de renderização 3D bastante poderoso que foi desenvolvido pela Next Limit, para filmes e efeitos para o cinema.
C) o renderizador Arnold é bastante poderoso, rivalizando com vários renderizadores externos, porém, atualmente é nativo no 3ds Max.
D) Quicksilver e o Scanline render são dois dos mais poderosos renderizadores que existem.
E) Corona é outro renderizador, muito usado em visualizações arquitetônicas. Está disponível para qualquer software 3D.
GABARITO
1. Sobre renderização, podemos afirmar que
Depois de criar o modelo 3D, o artista 3D adiciona luzes, texturas e câmeras. A etapa final do processo, conhecida como "renderização", é
quando o software 3D calcula todas as entradas para criar uma imagem bidimensional. Essas imagens podem ser usadas como uma única
imagem estática em renderização, montadas em uma animação ou criadas instantaneamente em programas de tempo real, como videogames.
2. Sobre os tipos de renderizadores, podemos afirmar que
Arnold é um renderizador bem avançado baseado em Ray tracing (traçado de luz), construído para suprir as demandas da indústria de efeitos
especiais ‒ VFX e produção de animação. Possui qualidade hollywoodiana e oferece ferramentas de renderização poderosas, porém, fáceis de
usar. Atualmente, vem integrado ao software de 3D 3ds Max.
CONCLUSÃO
CONSIDERAÇÕES FINAIS
Estudamos conceitos importantes que estão nas bases do universo da computação gráfica 3D e dos jogos digitais. Analisamos os principais
elementos relacionados aos jogos digitais e à geração atual dos games. Examinamos as principais técnicas de modelagem, como a box
modeling e a Poly by Poly.
Também entendemos o que é modelagem High e Low Poly. Estudamos o que são texturas e materiais, seus conceitos e a forma de aplicá-los
aos objetos 3D. Em seguida, investigamos os tipos de luzes e sombras, entendendo quais são suas principais funcionalidades e diferenças. Por
fim, compreendemos o que é render, como esse mecanismo funciona e quais são as principais engines (renderizadores) envolvidas no
processo.
AVALIAÇÃO DO TEMA:
REFERÊNCIAS
BROOKER, D. Essential CG lighting techniques with 3ds Max. Florida: CRC Press, 2012.
MELISSINOS, C. The Art of Video Games: From Pac-Man to Mass Effect. New York: Welcome Books, 2012.
MOURA, A. de F. Immerso: experiências em realidade virtual baseadas em grandes obras da literatura. Rio de Janeiro: UFRJ, 2018.
SILVA, J. C da; AGUIAR, F. C. 3ds Max 9: prático e ilustrado. São Paulo: Érica, 2005.
TICKOO, S. Autodesk 3ds Max 2020 for Beginners: A Tutorial Approach. Schererville, Indiana: CADCIM Technologies, 2020.
EXPLORE+
Para saber mais sobre os assuntos tratados neste tema, pesquise na internet e assista aos vídeos sobre:
ArtStation
CGSociety
3dtotal
3D1
CGtexture
3ds Max
CONTEUDISTA
CURRÍCULO LATTES