SIGGRAPH : Spheron-VR, des vidéos HDR pour éclairer les scènes 3D

L’Image Based Lighting et l’utilisation de light probes HDR est désormais un classique du rendu 3D, mais la méthode a ses limites, en particulier si l’objet à éclairer se déplace dans une scène, qu’il suit la caméra le long d’un parcours, etc. Une image fixe devient alors inutilisable.
Autre problème, les objets de grande taille : une simple image HDR est alors très approximative, puisque le light probe à utiliser pour un poit de l’objet ne sera théoriquement pas le même que celui à utiliser à l’autre bout…

Le groupe de recherche Computer Graphics and Image Processing de la Linköping University, en Suède, en collaboration avec la société SpheronVR (dont la prise de vue panoramique et/ou HDR est une des spécialités), travaillent à résoudre ces problèmes en mettant au point un système utilisant non plus des images fixes, mais des vidéos HDR, nommées HDRv.

Concrètement, le système de capture ainsi créé permet d’obtenir des séquences d’images de 4 mégapixels, avec une gamme dynamique impressionnante de 24 f-stops, le tout jusqu’à 30 images par seconde. La capture se fait en filmant une sphère réfléchissante. Voici la présentation vidéo des résultats, qui est pour le moment un simple teaser :

Spheron-VR avait développé un premier prototype de caméra HDR en 2009 (voir cet article de HDRlabs). Les travaux continuent manifestement à avancer dans la bonne direction, et un site a même été mis en place pour mettre en avant le principe de l’écrairage HDRv.

 

HDRv

 

Une présentation aura lieu la semaine qui vient au SIGGRAPH, qui devrait permettre d’en savoir plus sur l’avancement actuel, les avantages et limitations. D’ici là, un résumé de la conférence est disponible. Il donne une idée du pipeline global :

HDRv

– Capture : le flux HDR issu de la caméra est stocké sous forme de frames indivuelles, pour plus de flexibilité. La position et l’orientation de la caméra sont trackées. Eventuellement, des prises de vue HDR qui ne sont pas à 360° peuvent également être incorporées aux données, pour avoir une meilleure résolution sur certaines zones de la scène.

– Reconstruction de la scène : une approximation 3D de la scène est créée à partir des images prises, de façon semi automatique. Le fait d’avoir capturé la scène en HDR permet d’avoir une définition (spatiale et en intensité) précise des sources de lumière.

– Calcul de la radiance : on projette sur les surfaces du volume 3D créé et sur les sources lumineuses les données de radiance capturées. Il est même possible d’obtenir pour les points géométriques des textures maps dépendantes du point de vue.

– Rendu : une fois toutes ces données obtenues, on peut insérer un objet virtuel et créer des rendus photoréalistes.

On le voit, le matériel ne fait pas tout, et l’aspect algorithimque est également très important. Les chercheurs continuent donc de travailler sur la théorie et les algorithmes nécessaires à un traitement et une utilisation efficaces des séquences HDRv, les volumes de données mis en jeu étant conséquents (plusieurs dizaines de milliers de light probes pour l’image en haut de cet article).

Pour plus d’informations, et pour ceux qui seront au SIGGRAPH :
– La conférence du SIGGRAPH aura lieu le jeudi 11 août.
– Spheron-VR est présent au stand 254.
– Christian Bloch de HDRLabs a posté un article sur le sujet, et a participé à la réalisation de la vidéo. Il est notamment l’auteur principal du HDRI Handbook, une référence dans le domaine.

A Lire également