CREASYNTH
Accueil » Rédactions » Interview 3DVF : Creasynth nous présente ses développements sous Unreal

Interview 3DVF : Creasynth nous présente ses développements sous Unreal

Si l’on associe évidemment beaucoup Unreal Engine à l’univers du jeu, le moteur 3D temps réel a su conquérir de nombreux autres domaines.

La preuve aujourd’hui avec cette interview de CREASYNTH, entreprise basée à Saint-Nazaire et qui a notamment développé un flux de production sous Unreal destiné aux secteurs de l’industrie, de la formation ou encore de l’architecture. Un projet prometteur qui lui a valu une bourse Epic Games MegaGrant.

En compagnie de David Cragné, qui dirige l’entreprise, nous vous invitons à découvrir ces outils. CREASYNTH profite par ailleurs de cette interview pour nous proposer différents aperçus vidéo qui vous donneront une idée plus concrète des possibilités de ce workflow.

3DVF : Bonjour Creasynth ! Pour commencer, pouvez-vous nous présenter l’entreprise en quelques lignes ?

David Cragné : CREASYNTH est une agence de design (dans le sens de l’approche d’une problématique) spécialisée dans la conception d’expériences immersives interactives et dans le développement d’outils pour la visualisation et la simulation en réalité virtuelle et augmentée.

CREASYNTH a vu le jour en 2016, fruit d’une volonté de rupture et d’innovation dans les processus de conception et d’exploitation des données 3D.

Pour explication, je venais de terminer un contrat sur un projet où nous avions eu l’opportunité de travailler avec Guerilla Render, et venant à la base du monde de l’ingénierie, je trouvais fantastique l’approche du temps-réel sur le processus de production. Du coup dès que j’ai pu mettre la main sur un VIVE PRE début 2016, j’ai commencé à réfléchir sur ce que l’on pouvait en faire au niveau professionnel.

3DVF : Vous avez conçu et développé AVR-TED, un flux de production intégré à Unreal Engine destiné à faciliter la création de simulateurs/simulations. Comment est né ce système ? 

L’idée à germée fin 2018, en sortie d’un projet de simulation pédagogique de ligne de traitement électrochimique. Lors de ce projet de plus d’un an, nous avions conçu beaucoup de systèmes automatisés au sein d’UNREAL pour simuler tout une batterie d’équipements industriels : des capteurs de position, de niveau, des flotteurs (qui flottent réellement sur un fluide), des contacteurs et des boutons 2 voies, 3 voies, des débitmètres, etc.

Ces systèmes mis bout à bout, nous permettaient de simuler le fonctionnement des lignes industrielles et de les manipuler comme des vraies : elles pouvaient tomber en panne, il faut leur faire leur maintenance. Le but était de coller le plus possible au comportement réel de l’équipement avec ses tolérances, ses défauts afin de donner un coté crédible à la simulation.

A la fin de ce projet, je me suis dit qu’il serait dommage de ne pas capitaliser sur ce principe d’automate pour d’autre projets, voir même de créer un processus tirant partie de ces possibilités d’automatisation qu’offre UE4.

Nous avons donc commencé à réfléchir avec des partenaires industriels à la création d’un workflow semi-automatisé de production de scènes temps-réel/réalité virtuelle/réalité augmentée sous UNREAL ENGINE 4.

3DVF : Quels secteurs ciblez-vous ? 

AVR-TED se destine avant tout au monde de l’industrie et du manufacturing ainsi qu’à la formation professionnelle. Cependant il est tout à fait adapté à l’architecture et à l’urbanisme. Nous avons eu l’occasion d’utiliser AVR-TED sur des projets d’architecture en interne ou pour des clients et les résultats étaient tout à fait convaincants.

3DVF : Concrètement, de quoi se compose AVR-TED ?

AVR-TED est un workflow modulaire pour la 3D temps-réel, la réalité virtuelle et la réalité augmentée entièrement basé sur le moteur UNREAL ENGINE 4 et développé autour de besoins métiers.

Il simplifie le processus de création de scènes TR/RV/RA et de simulations sous UNREAL ENGINE tout en permettant de bénéficier de fonctionnalités très avancées et développées sur-mesure pour des cas d’usages métiers.

AVR-TED dispose de tout une batterie d’assets « autonomes » pour créer des simulations ou des environnements plus dynamiques et organiques, ces assets étant souvent le fruit de cas d’usages métier, et donc conçus pour être pertinents et utiles.

On retrouve ainsi des modules spécialisés par domaines d’activité, comme la marine, avec des shaders spécifiques pour les carènes ou des scènes déjà préréglée pour simuler des environnements marins interactifs, ou comme l’industrie, avec des assets autonomes simulant des équipements réels, comme des capteurs, des flotteurs, des vannes, des armoires électriques et bien d’autre encore.

Le workflow se compose d’une première couche d’automates pour optimiser les données importées (géométries, textures), qui suivant vos besoins va préparer les données pour un usage raisonné.

Ensuite on retrouve des scènes déjà préréglées suivant les cas d’usages pour éviter à la personne de tout refaire à chaque fois. En somme, vulgairement, dans certains cas, nous sommes presque sur un niveau drag and drop des géométries, et c’est tout. Tout est piloté par un module dit d’ambiance : tout y est déjà paramétré et réglé suivant vos besoins, si vous chercher plus de performances, il y a juste un bouton sur lequel appuyer et tout le système se reconfigure, idem si vous recherchez la meilleure qualité.

La différence par rapport à d’autres systèmes est que l’on peut manuellement changer tous les réglages. Du coup aussi bien le néophyte que l’expert y trouveront leur compte.

Et enfin, le cœur du système : les modules spécifiques. On retrouve là un système de shader dit universel, qui permet de gérer d’un seul tenant presque tous les scénarios de matériaux, et ce quelles que soient les données d’entrées (une seule image ou des matériaux PBS) avec des subtilités pour gérer les revêtements un peu spécifiques ; des outils de prises de mesures et de manipulation en temps réel des maquettes une fois en immersion, des simulations d’équipements réels (capteurs, EPI, voir même une simulation de nacelle motorisée pilotable).

Des systèmes d’éclairages plus poussés, des outils pour simuler des cas particuliers (projecteurs vidéo, fontaines simulées par des fluides, piscines et caustiques, systèmes de jacuzzi, ouvertures des portes sans passer par une animation, etc).

3DVF : AVR-TED s’appuie sur Unreal Engine : pourquoi ce choix et pas, par exemple, Unity ou CryEngine ?

Le choix est très personnel. Je viens du monde du nodal, mes premiers soft achetés étaient XSI Softimage (j’ai encore la boite chez moi) et VUE Infinite 6. ICE était fantastique à l’époque bien que sous exploité. La notion de nodal me parle bien plus que les calques. J’ai longtemps travaillé sous NUKE et HOUDINI, qui reste un outil que j’utilise presque quotidiennement. J’adore la flexibilité qu’offre la logique nodale pour la résolution de systèmes complexes.

J’ai énormément testé UNITY, pour des raisons de compatibilité avec les systèmes CAVE exploités par les clients. Mais jamais je n’ai retrouvé cette flexibilité offerte par les blueprints d’UNREAL et la rapidité d’exécution que cela impliquait dans nos développements avec nos partenaires.

De plus, nous visualisons des maquettes très denses, avec une « cible qualité » très élevée et contraignante, provenant de données CAD. A ce titre l’intégration de DATASMITH au sein du moteur à pesé dans la balance.

3DVF : Un des aspects d’AVR-TED est d’automatiser la mise en place de projets AR/VR, en évitant au maximum d’intervenir manuellement tout en mettant l’accent sur l’optimisation. Pouvez-vous nous en dire plus ? 

Un des buts premier du workflow est l’itération des cas d’usages existants, en ce sens où, dans un processus de production industriel (mais je pense que cela s’applique à n’importe quel secteur), le temps alloué à la préparation de la maquette est proche du néant, car dans cette logique, on part du principe que le projet, dans sa restitution, n’est qu’une itération d’un autre projet : certes la maquette 3D change, mais le procédé est le même, et dans certains cas, l’environnement (ambiances et interactions) seront les mêmes. Dans cette hypothèse, pourquoi ne pas créer des modèles de préparations basés sur des cas d’usages et les ré-exploiter tout en offrant la possibilité de les personnaliser et de les enregistrer à leur tour comme modèles ? Voilà un peu la base de la réflexion qui sous-tend AVR-TED.

Pour permettre ce type de fonctionnement, il a fallu créer des automates qui vont venir préparer certains aspects de votre projet à la place de l’utilisateur, permettant de garantir une constance dans les résultats et évitant à l’utilisateur d’effectuer des tâches chronophages et répétitives. On parle de la génération de LODs, du paramétrage des collisions, du paramétrage de toute la partie visuelle (éclairage, textures), ou chaque automate va aller chercher tout seul les éléments à paramétrer et le faire à votre place suivant le mode de restitution utilisé (temps-réel, réalité virtuelle, CAVE, etc.).

Si on synthétise, dans certains cas, l’utilisateur n’a que à déposer sa géométrie dans la scène, adjoindre des éléments venants des modules (éclairages supplémentaires par exemple), choisir le mode de restitution, baker l’éclairage ou pas, poser les matériaux qui eux aussi sont déjà préparés dans une certaine mesure et déposer les automates d’interactions (portes, etc..) qui vont venir se lier à la géométrie existante. On peut très bien avec ce type de système, paramétrer très rapidement des scènes à usages de visualisation ou de simulation avec de très bon résultats.

On ne ré-invente pas la roue, mais on évite de la fabriquer à nouveau à chaque projet.

3DVF : AVR-TED comporte aussi des outils spécifiques pour aller au-delà des fonctions d’Unreal Engine 4, par exemple au niveau des simulations de fluides et gaz. Auriez-vous quelques exemples concrets de ce qui est possible ?

Nous travaillons énormément avec des versions custombuild du moteur UNREAL ENGINE 4. Cela nous permet d’ajouter des fonctionnalités non-existantes dans les versions vanilla du moteur. On peut citer notamment les SDKs de chez NVIDIA, qui nous permettent de simuler des fluides et des gaz en temps réel sous UNREAL ENGINE. Par-dessus nous développons des outils simples et efficaces qui permettent à l’utilisateur de bénéficier de ces technologies sans avoir à rentrer dans le code du moteur.

Il faut bien garder à l’esprit cependant qu’il s’agit de modèles permettant un usage temps-réel et immersif, donc des modèles simplifiés par rapport à d’autres solutions. Mais le but n’est pas forcément de faire concurrence à ces outils, mais d’offrir la possibilité en immersion d’avoir des comportements de fluides et de gaz, notamment pour la formation professionnelle ou cela peut s’avérer extrêmement intéressant d’un point de vue pédagogique.

Nous avons utilisé ces outils notamment dans le simulateur de lignes électrochimique dont je parlais tout à l’heure pour simuler les bains chimiques et le contenu des bidons de produits. On a ainsi un capteur de niveau qui fonctionne comme un flotteur et qui n’est pas sujet à juste un calcul de hauteur mais flotte sur le liquide, et donc, peut être sujet aux perturbations que l’apprenant peut amener au bain (remous, trop de produit, etc).

On peut ainsi simuler des débordements et par conséquent interagir aussi avec des capteurs en position basse qui indiqueront la présence de produit parce qu’avec le transfert de fluide, au bout d’un moment ils se mettront à flotter.

Nous intégrons très régulièrement de nouvelles technologies dans notre workflow, comme les dernières avancées de NVIDIA en termes de raytracing ou bien d’autres systèmes moins courants comme la simulation visuelle d’océans.

Nous sommes attentifs aussi à la compatibilité matérielle de notre système et aux nouveaux usages professionnels que ces derniers induisent, et nous intégrons actuellement l’usage des casques HOLOLENS 2 et VARJO, sous forme de modules techniques ou d’interactions spécialisés pour différents besoins métiers.

3DVF : Quel est le modèle économique de cette solution ?

A ce jour, AVR-TED est un outil en constante évolution et qui s’enrichit tous les mois.

De par son positionnement d’outil sur-mesure, le modèle économique est soit basé sur l’achat de modules que l’on adapte aux besoins spécifiques du métier ciblé, soit sur l’acquisition du workflow complet, là aussi, adapté aux besoins spécifiques du métier ou domaine d’activité souhaité.

Ces acquisitions s’accompagnent souvent d’un support technique dans un premier temps afin de garantir une transition et une acceptation sans friction au sein des équipes et de veiller à l’intégration pleine et entière du workflow dans le processus interne de l’entreprise.

Cependant il n’est pas impossible que nous mettions à disposition sur le marketplace certains modules.

3DVF : AVR-TED a reçu une bourse Epic Games MegaGrants. Comment s’est déroulé le processus pour postuler ? En pratique, en quoi consiste la bourse reçue, et quel est son impact pour vous ?

Le processus pour postuler est assez simple : vous expliquez votre projet, son but, son modèle économique s’il a un et à quoi vous servirai un MegaGrants. Il ne faut pas hésiter à montrer des documents (roadmap), vidéos. Je pense qu’au-delà de la demande, c’est un bon exercice pour formaliser son projet, même pour soi-même.

La bourse, consiste souvent en une somme mise à votre disposition pour la réalisation de ce projet, laquelle EPIC vous laisse libre de la gérer comme bon vous semble et il n’y a pas de contrepartie à cette bourse.

Pour nous, cela a permis d’investir dans du matériel assez onéreux mais dont nous avions besoin pour étendre et enrichir les fonctionnalités d’AVR-TED et de regarder pour le recrutement d’un développer C++.

Pour en savoir plus

Laissez un commentaire

A Lire également