Accueil » Rédactions » L’Histoire du Rendu 3D

L’Histoire du Rendu 3D




Dossier : L’histoire du rendu 3D, partie 1
rédigé par  Dmitry Shklyar ;  traduit par: 3DVF

 

 

La technologie de rendu 3d a réussi à s’immiscer dans la vie de millions de personnes à travers le monde. Que ce soit une console de jeux branchée à une télévision, un logiciel d’animation sur un poste de travail ou la dernière bombe cinématographique gonflée d’effets spéciaux, nous utilisons tous ou avons tous une expérience de la 3D et nous nous accrochons à son pouvoir sans pour autant nous soucier de la merveilleuse technologie qui se cache derrière.

Dans la première partie de cette série, nous portons un regard sur l’histoire du rendu 3D depuis son premier algorithme jusqu’aux technologies actuelles, nous rendons hommage aux scientifiques qui ont rendu possible le rendu. 
Ainsi, la prochaine fois que vous allez cliquer sur le bouton « render » pour votre dernière création, pensez à ce qu’il se passe dans les coulisses, les histoires et développements qui repoussent davantage les frontières des technologies de rendu.



De l’avion aux lignes :
En 1960, le concepteur William Fetter essayait de concevoir un nouveau processus afin de maximiser l’efficacité de la disposition de l’intérieur de l’habitacle des Boeing. Son produit final fut une vue orthographique informatisée de la forme humaine.

Fetter conçut le terme « Computer Graphics » pour décrire sa création, donnant naissance à une série d’événements qui révolutionnera par la suite le monde du divertissement, de la publicité et des média.
Un des contemporains de Fetter, Ivan Sutherland, mit la machine en marche lorsqu’il présenta son doctorat (PhD), une thèse intitulée « Sketchpad: A Man-machine Graphical Communications System » ( Sketchpad: une interface de communication Homme-Machine ). Le logiciel permettait pour la toute première fois à une personne de créer interactivement une image sur un écran d’ordinateur.
Selon Sun Microsystems, dont Sutherland est actuellement vice-président, Sketchpad fut un pionnier des concepts de calculs graphiques en incluant les structures de la mémoire permettant de stocker les objets, étirer des lignes, la capacité de zoomer sur l’affichage et la capacité de faire des lignes, des coins, et des joints parfaits. C’était le premier GUI (interface utilisateur graphique) bien avant que le terme soit inventé. [ 1 ].

 



Au moment de recevoir son Doctorat, Sutherland fut appelé sous les drapeaux de l’armée américaine, qui était alors l’un des plus grands innovateurs en  informatique. Plus à l’aise dans le domaine de l’infographie, Sutherland resta à l’Université de l’Utah où il aida à transformer le système informatique en institut de recherches qui, aujourd’hui, a encore une grande influence sur l’industrie graphique.


Les toutes premières images en 3D étaient extrêmement rudimentaires comparées aux standards et consistaient en une représentation de différentes figures géométriques. C‘était acceptable, bien que l’on pût voir ce qu’il y avait devant et derrière l’image. Ceci amena les collègues de Sutherland, Evans, Wylie, Romney, et Erdahl à développer l’algorithme Scan line HSR (Hidden Surface Removal) pour créer des rendus d’objets solides. Beaucoup d’algorithmes de HSR furent présentés au cours des années incluant le “back-face detection”, le “depth sorting”, le “ray casting”, le “Z-Buffer” et l’ “area subdivision”. Plus tard, Sutherland et ses compères publièrent un article intitulé “Caractérisation de 10 algorithmes en Hidden Surface”, ce qui couvraient les algorithmes déjà connus à l’époque. D’ailleurs, ceci serait la dernière contribution directe de Sutherland à la recherche en infographie. Aujourd’hui, on utilise encore ces divers algorithmes scan line.


Shading: Gouraud et Phong :
Sur le chemin du réalisme, la prochaine étape pour les développeurs était d’augmenter l’apparente complexité d’une scène sans en augmenter le nombre de faces, par conséquent de conserver la précieuse mémoire système. Dans les systèmes de rendu précédents, la seule manière d’augmenter l’apparente complexité d’un modèle était d’ajouter davantage de polygones. On perdrait cet effet lissé si la caméra se rapprochait du modèle, compte tenu du fait que dans les premiers moteurs de rendu, seul le modèle d’ombrage était le ‘’flat shading’’, appelé aussi ‘’faceté’’. Ce modèle d’ombrage trouva le vecteur normal en relation avec une face et utilisa cette information pour ombrer tous les pixels.

 

Tout ceci changea quand Henry Gouraud développa son célèbre et largement utilisé, et convenablement nommé, le modèle de shading Gouraud. Celui-ci fonctionne en trouvant la normale du vecteur de chaque sommet d’une face, calculant la couleur du pixel au sommet, puis en interpolant de façon linéaire cette couleur sur toute la face. Le résultat donne une surface assez lissée et qui ne nécessite qu’un tout petit peu plus de capacité de traitement  qu’avec le ‘’flat shading model’’. Les seuls aspects inesthétiques du Gouraud sont les arêtes qui apparaissent toujours facetées, mais aussi le fait que l’affichage de la surface montre une étoile lumineuse due à la nature linéaire de l’interpolation.
Un chercheur du nom de Phong Bui-Tuong étendit ses recherches sur le modèle de shading d’Henry Gouraud en franchissant l ’étape suivante. Au lieu de trouver les vecteurs de normale simplement aux sommets, le shader de Phong calcule une normale à chaque pixel. En interpolant sur toute la surface basée sur des normales, on obtient une surface extrêmement lisse avec des rehauts précis. Le principal inconvénient est que le Phong est connu pour sa lenteur. Si on compare le modèle de Phong avec celui de Gouraud sur deux modèles identiques, on verra qu’il faudra jusqu’à huit fois plus de temps au modèle de Phong pour rendre que celui de Gouraud.

 

 

 

L’image numérique prend du relief :

Au fur et à mesure que les recherches de nouvelles méthodes de shading avançaient, Jim Blinn découvrit qu’en modifiant les normales de surface, on pouvait simuler l’apparition  d’un nombre de faces plus dense. Cette technique devint célèbre sous le nom de « bump mapping » et est aujourd’hui encore très utilisée dans des applications allant des jeux temps réel aux longs-métrages. Le bump mapping est généralement utilisé avec une image bitmap noire et blanche ou une texture procédurale afin de définir quel pixel aura une normale modifiée. Cela permet de donner l’illusion d’une géométrie très complexe, bien que l’inconvénient de cette technique soit qu’il n’y ait pas d’augmentation du nombre de faces au bord de la surface.

Par la suite, le bump mapping fut étendu; ainsi naquit la nouvelle technique du « displacement mapping ». Cette technique est similaire au bump mapping, sauf que non seulement le pixel, mais la normale sont modifiés. Cela résout le problème de la disparition de détail de surface le long des arretes, mais conduisit de même à une augmentation importante des ressources du processeur et de la mémoire.

Récemment, l’idée de modifier les normales de surface au niveau du pixel a davantage été étudiée. La technique de mapping de normales a été présentée afin de pallier au manque de bande passante du matériel graphique actuel, qui n’était pas assez rapide pour traiter les modèles à grande échelle pour une « qualité cinéma ».

Une solution a été trouvée en créant une structure de données pouvant capturer l’information de la normale d’un modèle ultra détaillé et ensuite l’appliquer à une version en résolution réduite. L’effet est semblable à celui du bump mapping, dans le sens où la géométrie extérieure n’est pas modifiée, pourtant, on atteint l’illusion d’un modèle complexe. Les futurs jeux comme Doom3 de ID Software, Half Life 2 de Valve Software ou Halo 2 de Bungie font appel à cette technique afin de produire en temps réel des images à couper le souffle.



Conclusion :
Toutes ces avancées en termes de technologie de rendu 3D et de shading durant les années 60, 70 et 80, ainsi que des techniques plus récentes, ont mené à des tendances intéressantes. Le problème de savoir comment ombrer une surface a pris le pas sur l’ancien problème de trouver et supprimer les surfaces cachées. Plus récemment, les constructeurs de cartes graphiques ont arrêté d’insister sur le nombre de faces que leurs cartes de démonstration pouvaient gérer, pour mieux mettre en avant leurs possibilités de shading, offrant ainsi aux développeurs de contenu temps réel un contrôle plus créatif. Au fur et à mesure que ces tendances se perpétuent, les frontières entre le graphisme cinématique et les applications en temps réel se dissiperont. Ceci fait tout le contraste avec les débuts de l’infographie, lorsqu’Ivan Sutherland effectuait ses recherches sur des machines qui coûtaient plus d’un million de dollars. Grâce à la contribution de ces pionniers, l’infographie fait partie de nombreux aspects de notre quotidien. Que ce soit en matière d’art, de science, de technologie et de design, jusqu’aux films de divertissement en 3D, nous devons tout à ces pionniers des technologies de rendu.


 

 

Travaux cités :
[1] Sketchpad: The First Interactive Computer Graphics PhD. Thesis, 1963 — Mass. Institute of Technology. Sun Microsystems. Date Accessed?/06/03.https://www.sun.com/960710/feature3/sketchpad.html


[2] Hill Jr., F.S. Computer Graphics Using OpenGL Second Edition. Prentice Hall Publishing. 2001.

Chargement....

A Lire également