Accueil » Rédactions » Retour sur Laval Virtual 2019

Retour sur Laval Virtual 2019

Laval Virtual
 
 
Fin mars se tenait à Laval, en Mayenne, l’édition 2019 de Laval Virtual. En deux décennies d’existence, le salon a su devenir un évènement international incontournable de la réalité virtuelle et des technologies immersives : 3DVF était donc sur place. Nous vous proposons de revenir sur cette édition au travers d’un dossier qui couvrira les différents volets du salon : projets artistiques, recherche, startups, industrie ou encore conférences.

Seer
Revolution #Research : explorer l’avenir

Commençons ce tour d’horizon du salon avec la section Revolution #Research, qui s’apparente à un voyage temporel. On y trouve des projets expérimentaux qui préfigurent ce que nous utiliserons peut-être dans un avenir proche.

Seer : face à face avec un robot

Son regard a arrêté bon nombre de visiteurs : le projet Seer de Takayuki Todo nous a charmé par sa simplicité et son efficacité. Il s’agit tout simplement d’une tête humaine qui reproduit l’expression de la personne qui lui fait face.
Compact et aux formes épurées, ce petit robot est doté de moteurs qui lui permettent d’orienter visage et yeux, mais aussi de bouger paupières et sourcils. Une caméra et un système d’analyse sont chargés de détecter le visage des passants, puis de les reproduire.
Si le concept de départ est relativement simple, c’est sans doute son exécution qui a tant séduit les visiteurs du salon. Le créateur a apporté un soin particulier aux lignes du visages et aux yeux. Les sourcils (des arcs en plastique souple actionnés par des moteurs) jouent évidemment un rôle important dans l’affichage des émotions.
Takayuki Todo nous a expliqué travailler depuis 7 ans sur ce type de projet. Il nous a précisé que la bouche figée découle de plusieurs contraintes comme le manque de place (toute la mécanique doit tenir dans la tête haute de quelques centimètres) et la difficulté de trouver les matériaux appropriés. En effet, une bouche mobile impliquerait soit des matériaux souples capables de tenir dans le temps, soit une articulation qui casserait les lignes épurées du robot.
Takayuki Todo précise par ailleurs que le but de sa démarche n’est pas de se demander si un robot ou ordinateur peut avoir des émotions, mais plutôt de représenter ces émotions et le sentiment de conscience qui en découle. Après tout, s’interroge-t-il sur son site, si nous arrivons à comprendre et nous identifier à des robots capable de reconnaître les fonctions et usages de l’expression des émotions, mais aussi d’utiliser ces expressions, pourrons-nous encore distinguer ces machines d’hypothétiques robots ayant un esprit et des émotions bien réels ?
Codeweaver : apprendre le code sans le moindre clavier

Présenté par Ren Sakamoto et Toshikazu Ohshima de l’Université de  Ritsumeikan au Japon (College of Image Arts and Sciences), ce système permet de s’initier à la logique de la programmation de manière tangible, et sans passer par un clavier ou une souris.
Concrètement, il s’agit de contrôler les mouvement d’une araignée virtuelle dont la toile est projetée sur la table. L’utilisateur dispose de cartes pour créer ces déplacements : commandes de direction, distance, système d’itérations et de branches.
Une caméra filme en permanence les cartes disposées sur le bureau, ce qui permet de déterminer le « programme » visuel actuellement misen place sur la table et de recompiler le code à la volée pour contrôler l’araignée : il est donc très facile d’expérimenter, modifier, corriger son travail.
Le tout est particulièrement ludique et nous semble parfait pour une première initiation au code.

CodeWeaver

Laval Virtual 2019
Tamed Cloud : un nuage d’images apprivoisé

A mi chemin entre un banc de poisson et un outil de manipulation d’images, Tamed Cloud nous propose de reprendre le contrôle sur le vaste univers de données qui nous entoure.

Le projet se présente sous forme d’une visualisation en réalité virtuelle au milieu d’une imposante collection d’images (issues du célèbre musée d’art contemporain MoMA). L’utilisateur peut alors sélectionner des groupes d’images par des gestes, mais aussi par la voix (via la plateforme Watson d’IBM).
Il est ainsi possible de sélectionner les images par couleur, de créer des groupes, de faire un tri par date… L’idée est de proposer des interactions naturelles et selon des critères variés.

Porté par le chercheur François Garnier (qui dirige le groupe  Spatial Media de l’EnsadLab), le projet est issu d’un partenariat entre EnsadLab, le laboratoire de recherche de l’EnsAD-PSL et IBM.

Nous avions eu l’occasion de découvrir ce projet en avant-première il y a quelques mois dans les locaux de l’EnsadLab ; il était ici mis en avant publiquement et semble avoir notamment intéressé les secteurs de la communication ou de la sécurité.

Le projet est encore en cours de développement, et l’approche retenue fera l’objet d’une évaluation sur des tâches spécifiques. Il s’agira donc de comparer Tamed Cloud avec des méthodes plus classiques.

TAMED CLOUD from École des Arts Déco – Paris on Vimeo.

Laval Virtual 2019
Orbital Views
Orbital Views : objectif Lune

Un dernier projet, enfin, pour finir ce tour d’horizon de la section #Revolution. A l’occasion des 50 ans du premier alunissage, Orbital Views proposait aux personnes aventureuses de devenir astronautes, d’opérer un rover ou encore de gérer une partie de la mission depuis le centre de contrôle d’Apollo 11.

Le concept a rencontré le succès : outre une affluence soutenue durant le salon, le projet d’Orbital Views est reparti avec un Grand Prix dans le cadre des Laval Virtual Awards.

Chargement....

A Lire également