Recherche : motion-blur temps réel, stable et efficace

motion blur

Jean-Philippe Guertin (Université de of Montréal), Morgan McGuire (NVIDIA – Williams College) et Derek Nowrouzezahrai (Université de of Montréal) ont publié le travail de recherche A Fast and Stable Feature-Aware Motion Blur Filter.

La publication s’intéresse au motion-blur en tant que filtre en postprocessing : si ce type de filtre est désormais utilisable en rendu temps réel ou interactif, les approches actuelles produisent souvent des artefacts de profondeur ou lorsque des détails d’échelles différentes sont présents.
La méthode proposée s’emploie à éliminer ces défauts, avec un échantillonage et une méthode de filtrage plus robustes, pour un coût minime en temps de calcul.
Concrètement, la méthode proposée prend 3,2 millisecondes environ sur une résolution 1280×720, avec une machine Intel Core i5 3,3GHz équipée de 16Go de RAM et d’une NVIDIA GTX 480 dotée de 1,5GO de vRAM.

Ci-dessous, un aperçu vidéo des résultats ; la page du projet propose la publication complète, à la fin de laquelle on trouvera le pseudocode de la méthode.

A Lire également