EF EVE
Accueil » EF EVE : la capture vidéo volumétrique à portée de tous ?

EF EVE : la capture vidéo volumétrique à portée de tous ?

La vidéo volumétrique a le vent en poupe ces derniers temps : au croisement du scan 3D et de la vidéo, le terme recouvre les techniques permettant de capturer des scènes animées en 3D. Concrètement, il pourra par exemple s’agir d’enregistrer la performance d’un danseur ou d’un sportif, qui pourra ensuite être visualisée en relief et quel que soit le point de vue en réalité virtuelle.

Exemple de capture volumétrique par 4DViews

Ces techniques de capture nécessitent évidemment un ensemble matériel et logiciel spécifique, comme le système Holosys de 4DViews. Bien entendu, ce genre de solution demande un certain investissement.

C’est ici qu’entre en scène EF EVE, qui propose tout simplement une version low cost de la capture vidéo volumétrique. L’idée est de s’appuyer sur des capteurs de type Azure Kinect, Kinect V2 ou Intel RealSense (1 à 4 selon la qualité voulue). La solution EF EVE vient alors utiliser les données de ces capteurs pour générer en temps réel de la vidéo volumétrique.

Aperçu du fonctionnement de la solution EF EVE.

La séquence animée peut ensuite être exportée sous forme de séquence .OBJ ou .PLY, ou être exploitée directement avec les outils EF EVE. Le tout peut ensuite être partagé en réalité virtuelle, augmentée ou sur le web. A noter : le streaming en direct est aussi géré.

Le principal avantage d’EF EVE est évidemment son coût réduit : entre l’abonnement au service et les capteurs, il est possible d’utiliser cette approche pour moins de 1000$. En revanche et comme le montrent les vidéos ou la plateforme en réalité virtuelle à télécharger sur Steam, on est évidemment loin de la qualité obtenue avec des solutions plus haut de gamme.

Pour plus d’informations, on consultera le site d’EF EVE.

3 commentaires

phicata 15 novembre 2019 at 13 h 38 min
Oui l’avenir de la "prise de vue": demain on pourra, par exemple, enregistrer le volume des acteurs avec un éclairage plat et le réalisateur pourra à l’envie, en post prod, définir et l’éclairage et les cadrages, etc.
phicata 15 novembre 2019 at 17 h 26 min
Ha ben ça existe déja:

phicata 30 novembre 2019 at 21 h 39 min
fascinant:
Motion2fusion: real-time volumetric performance capture (SIGGRAPH Asia 2017)

Laissez un commentaire

A Lire également