Escolar Documentos
Profissional Documentos
Cultura Documentos
Un shader ou nuanceur (le mot est issu du verbe anglais to shade pris dans le sens
de « nuancer ») est un programme informatique, utilisé en image de synthèse, pour
paramétrer une partie du processus de rendu réalisé par une carte graphique ou un
moteur de rendu logiciel. Il sert à décrire l'absorption et la diffusion de la lumière, la
texture à utiliser, les réflexions et réfractions, l'ombrage, le déplacement de
primitives et des effets post-traitement. Par la conception même du processus de
rendu, les shaders sont les candidats idéaux pour une exécution parallèle par le
Division du travail entre CPU et
processeur graphique d'une carte graphique.
GPU.
Les shaders sont flexibles et efficaces : des surfaces apparemment compliquées
peuvent être rendues à partir de géométrie simple. Par exemple, un shader peut être
utilisé pour générer un carrelage en céramique à partir de la simple description d'un
plan.
Sommaire
Différents langages
Pour le calcul réaliste
RenderMan Shader Language
Gelato Shader Language
Meta SL
Pour le calcul en temps réel
OpenGL shading language
DirectX High-Level Shader Language
Cg Shader Language
Différents langages
Initialement introduits en 1988 par Pixar dans son standard RIS (RenderMan Interface Specification), les shaders ont acquis un
intérêt croissant auprès du public avec la fréquence accrue d’œuvres visuelles ou cinématographiques réalisées en image de synthèse,
et l’évolution de l’offre matérielle informatique accompagnant ce mouvement. À partir de 2001, ils ont été introduits dans les
interfaces de programmation3D temps réel telles que DirectX 8.0 et OpenGL 1.4, puis ont été supportés par les grands constructeurs
de cartes graphiques comme nVidia ou ATI. L'avantage principal d'employer des shaders vient de leur flexibilité, qui permet un
temps d'élaboration plus rapide ainsi que meilleur marché, mais permet également de rendre les travaux plus riches. Un langage de
shader a habituellement des types de données propres comme les couleurs et les vecteurs, mais en raison des divers intervenants
industriels et de la forte évolution du secteur,différents langages de shader ont été développés.
La réalisation de ce genre de shader est habituellement un processus long. La puissance informatique exigée pour obtenir ce genre
d'ombrage peut être élevée mais il permet d'obtenir des résultats complexes, photoréalistes ou fantaisistes, selon les besoins. La
majeure partie du temps, le rendu est produit par une grille de calcul. Des unités de calcul dédiés sont présent dans tous les
processeurs géométriques 3D modernes.
Meta SL
1
Meta SL est un méta langage créé par la société Mental Images (éditrice de Mental Ray et de Iray qui a maintenant intégré Nvidia ),
qui permet d'utiliser un code unique pour générer des shaders dédiés à de multiples utilisations que ce soit en rendu réaliste ou en
rendu temps réel.
Étonnamment, ces shaders sont conçus pour être exécutés à même le processeur de traitement graphique (GPU) de la carte graphique
en se plaçant dans la file de traitement et permettant ainsi des performances optimales. L'architecture des cartes n'a pas eu besoin
d'évoluer, étant basée sur un modèle de traitement par flux, le calcul desshaders a trouvé sa place dans la structure globale des cartes.
Ce genre de langage est habituellement dépendant de l'interface de programmationgraphique utilisée, bien que quelques applications
fournissent également de tels langages intégrant des fonctionnalités limitées.
Historiquement, seulement une poignée de langages ont réussi à s'imposer, et maintenant le marché est fermé, les constructeurs
préférant s'aligner sur ceux existants. Une courte description de ces langages est présentée ci-dessous.
Aussi connu sous le nom deGLSL ou glslang, c'est un langage deshader standardisé par l'OpenGL Architecture Review Board.
Le langage fournit des éléments riches et cela depuis le début, unifiant le processus de traitement sur la géométrie (vertex processing)
et sur les pixels (fragment processing) avec le même ensemble d'instructions, permettant des boucles d'instructions, et (plus
généralement) des branchements conditionnels.
Historiquement, le langage GLSL a
succédé à diverses extensions
comparables qui se trouvaient dans
OpenGL, telles que
ARB_vertex_program,
ARB_fragment_program et d’autres. Ces
extensions utilisent toutefois un langage
de bas niveau de type assembleur avec
certaines restrictions, et leur utilisation est
maintenant déconseillée. Ces deux
extensions ont été également précédées
par d'autres propositions qui ne sont pas
restées dans les dernières spécifications.
Cg Shader Language
Ce langage développé par nVidia a été conçu pour faciliter et optimiser la production intégrée. Le langage fournit une interface de
programmation indépendante et est livré avec un éventail large d'outils libres favorisant son utilisation en production.
Les premières implémentations de Cg étaient plutôt restrictives. Il permettait à la majorité des matériels de le supporter, mais était
tout de même innovant comparées aux méthodes précédentes. Le Cg semble avoir bien survécu à l'introduction des langages shader
de nouvelle génération, principalement par son avance prise sur le secteur de la création de contenu numérique, toutefois le langage
semble rarement être employé dans les produits finaux. À noter cependant que les jeux vidéo développés sur la console de jeu de
Sony, la PlayStation 3, implémentent leurs shaders avec ce langage.
Une fonctionnalité intéressante que Cg propose réside dans l'utilisation de connecteurs, des types de données spéciales pour lier les
différentes étapes du processus. Des connecteurs sont utilisés pour définir l'entrée de l'application à l'étape de traitement géométrique
(vertex processing) et aux attributs à interpoler dont le résultat est utilisé pour le traitement des pixelsfragment
( processing).
Il existe actuellement deux applications différentes des shaders dans les langages temps réel. Bien que leurs fonctionnalités aient
convergé — il est ainsi possible d'écrire un vertex shader en utilisant les mêmes fonctions qu'un fragment shader — les différents
rôles imposent des limitations propre à chacun qu’il faut reconnaître.
Vertex shaders
Dans la liste des tâches graphiques séquentielles nécessaires à l'af
fichage d'une image 3D, la tâche duvertex shader se situe au niveau
de la tâche dite de « transformations et éclairage ». En pratique, c'est une tâche au sein du pipeline graphique qui doit calculer la
projection de coordonnées des sommets des primitives à partir de l'espace 3D dans l'espace écran.
Contrairement à sa contrepartie « fixe » dans le pipeline, aucune fonction par défaut ne peut être utilisée pour arriver à ce but. Le
programmeur se doit donc d'expliciter totalement la procédure de projection à la carte graphique. Pour ce faire, le programmeur se
situe dans un environnement de shader avec des registres spécifiques à l'architecture qui définissent aussi les entrées et les sorties du
problème.
Un programme shader agit sur un seul sommet unique et isolé. L'architecture hautement parallèle des cartes graphiques actuelles
interdit les lectures interdépendantes, c’est-à-dire accéder aux informations d'un sommet voisin par exemple.
Dans les registres d'entrées, on trouve la structure qui a été utilisée lors de l'écriture en mémoire graphique du « vertex buffer » (le
tableau des sommets). On y retrouve le plus souvent dans cette structure, un vecteur contenant la position du sommet, parfois une
couleur, parfois une coordonnée de texture ou plusieurs, et parfois une normale.
Le shader doit renvoyer une structure de donnée contenant des champs dont la définition est libre qui sera passée en entrée du pixel
shader plus tard. Dans la plupart des « vertex programs » on retrouve la projection 3D vers 2D. En effet selon la formule de
mathématique Y=MX (Y vecteur image, M matrice de l'application, X vecteur antécédent), on peut appliquer une transformation
linéaire par une multiplication vecteur-matrice. Nous voulons que la matrice M qui effectue la transformation soit ici la matrice de
l'application « projection ». On lui donne la dimension 4×4 (la 4e dimension comporte une coordonnée homogène) pour se multiplier
avec les vecteurs de la carte graphique qui sont de dimension 4. On utilise une coordonnée homogène car certains problèmes comme
la projection ou la translation sont insolubles en algèbre linéaire de dimension 3. Finalement, le « vertex program » le plus courant,
en quelque sorte le « hello world » du vertex shader pourrait s'écrire en HLSL tel que suit :
float4x4 WorldViewProj;
WorldViewProj est une variable dite uniforme qui se trouve mappée sur un des registres des constantes lors de la compilation. On
l'appelle ainsi car elle est le résultat de la matrice de vue multipliée par la matrice de déplacement du monde, multipliée par la matrice
de projection. Ceci permet de placer le point d'observation correctement dans la scène.
Geometry shaders
Les geometry shaders permettent de modifier la géométrie de chaque polygone ainsi que de créer de nouveaux polygones. Ils sont
exécutés entre le vertex shader et le fragment shader. Ce type de shader est apparu dans les versions 10 de DirectX et 3.2 de OpenGL
(ou OpenGL 1.1 en utilisant l'extension EXT_geometry_shader4).
Un geometry shader reçoit en entrée les données d'une primitive géométrique, et en renvoie une ou plusieurs. Un geometry shader
sans effet particulier renvoie simplement la primitive reçue en entrée. En voici un exemple en GLSL:
#version 120
#extension GL_EXT_geometry_shader4 : enable
Per-pixel lighting
En temps réel, l'éclairage est souvent calculé au moment du T&L ou du vertex shader (voir ombrage Gouraud). Il est néanmoins
possible d'obtenir un éclairage beaucoup plus précis grâce auper-pixel lighting.
Sa mise en œuvre se fait en deux étapes : le vertex shader calcule la provenance de la lumière pour chaque vertex et l'indique au
pipeline, généralement via l'utilisation ainsi détournée des coordonnées de texture.
Le pixel shader récupère ensuite ces données ainsi que la normale virtuelle du pixel en cours de traitement dans le sampler de la
bump map. Il connaît alors la normale et la provenance de la lumière, il peut donc calculer l'éclairage du pixel qu'il lui suffira de
multiplier avec la couleur provenant de la texture classique.
Toon shading
Le toon shading ou cel-shading consiste à rendre une image en aplats de couleur (similaire auxbandes dessinées).
Voir aussi
Rastérisation
Synthèse d'image 3D
Références
1. http://www.mentalimages.com/news/mental-images-integrates-with-nvidia-to-accelerate-development.html
.
Ce document provient de «https://fr.wikipedia.org/w/index.php?title=Shader&oldid=147620327 ».
Droit d'auteur : les textes sont disponibles souslicence Creative Commons attribution, partage dans les mêmes
conditions ; d’autres conditions peuvent s’appliquer . Voyez les conditions d’utilisation pour plus de détails, ainsi que les
crédits graphiques. En cas de réutilisation des textes de cette page, voyezcomment citer les auteurs et mentionner la
licence.
Wikipedia® est une marque déposée de laWikimedia Foundation, Inc., organisation de bienfaisance régie par le
paragraphe 501(c)(3) du code fiscal des États-Unis.