Google+
3DVF Network :
ico_magazine
Magazine
ico_boutique
Boutique
ico_cgjobs
Portail Emploi
ico_upload
Hébergement d'image
ico_progiss
Progiss
Login
space
space

Accueil / Magazine / Articles / Dossiers / Compte-Rendu : Festival d'Annecy 2013

space

Compte-Rendu : Festival d'Annecy 2013

Publié le 01 juillet 2013 par
space
Annecy 2013


Pixar - Conférence

Conférence Pixar : "Des avancées monstrueuses en 3D"



Comme nous l'avons indiqué plus haut, Pixar reprenait cette année sa traditionnelle série de conférence, plébiscitée par les visiteurs du salon. Cette année, celles-ci portaient sur le court Le Parapluie Bleu ainsi que sur RenderMan.
Très logiquement, le photoréalisme était au coeur de la discussion, l'occasion de mesurer le chemin accompli entre le nouveau court et Red's Dream (1987), qui lui aussi présentait des scènes de pluie. Dylan Sisson de Pixar nous a donné quelques informations sur le rendu, revenant notamment sur la loi de Blinn qui veut que les temps de rendu restent constant d'un projet sur l'autre : 9,3 heures en moyenne chez Pixar jusqu'à Monstres Academy, qui de son côté avoisinait... 8 heures, mais au prix d'une pirouette consistant à calculer le temps de rendu par processeur et non par core.

Les défis du Parapluie Bleu étaient multiples :
- le photoréalisme, avec un nouveau système d'illumination globale donnant de très bons résultats, au prix d'une quantité de mémoire en forte hausse.
- La complexité de la géométrie, avec parfois plus d'un million de primitives sur les plans larges du Parapluie Bleu ;
- La pluie, qui devait pouvoir être ajustée par le réalisateur. Plutôt que d'utiliser des gouttes et du motion blur, l'équipe a finalement opté pour des gouttes très allongées, totalement non physiques : des RiCurves avec largeur variable qui ont permis de créer les trainées visibles au rendu. Les attributs sur la longueur et l'épaisseur ont permis de créer les différents types de pluie du court.

Dylan est ensuite revenu sur le shading physiquement plausible, longuement abordé par le studio dans une publication de 2012. Il a insisté sur les avantages pour les artistes : moins de lights à gérer, plus de temps passé sur la partie artistique. En contrepartie, comme nous le disions la mémoire consommée était largement supérieure.

Il a également évoqué la collaboration de Pixar avec The Foundry : le studio utilise désormais Katana et semble très satisfait du produit. Dylan Sisson en a profité pour promouvoir The Mari Channel et le court Bullets Included de Peter Aversten (visible ci-contre), qui utilise RenderMan pour le rendu. Un making-of est présent sur le site de RenderMan.

Enfin, les nouveautés de RenderMan Pro Server 18 ont été abordées ; nous vous renvoyons à l'article sur le lancement du produit pour plus de détails.

Pixar - ConférenceImage Disney Pixar











Ci-dessous : les photos étant traditionnellement totalement interdites durant les conférences Pixar, voici un des seuls clichés disponibles, pris par... Dylan Sisson de Pixar. Dans le fond de la salle, debout sur la gauche, Philippe Luneau de Progiss et Benoît Rogez de 3DVF.




 

Pixar - conférence Annecy 2013

 











Ci-dessous : Cyrille Martin et Andreas Carlen (GameFusion), venus présenter Cyber Marionette.


Cyber Marionette

Outils émergents : regard prospectif et effet sur l'approche technico-artistique


Comme pour les éditions précédentes du festival, cette conférence fut l'occasion de découvrir de nouveaux outils.

GameFusion présentait Cyber Marionette, développé en partenariat avec CyberGroup. Il s'agit d'un outil de génération de personnages multiplateforme.
Concrètement, il est possible à partir d'un modèle générique de créer de nombreuses variations, comme on le ferait pour un avatar de jeu vidéo. Le système étant pensé pour l'animation, un système de cages de déformations est employé pour préserver les blendshapes, y compris lorsque le modèle personnalisé s'éloigne de la norme. Ainsi, à partir d'un même modèle générique, toutes les variations auront des animations correctes, même si des retouches sont parfois nécessaires. En sortie, on peut choisir de garder ou non les cages.
Le système dispose selon GameFusion de performances similaires à celles de méthodes de skinning classiques, mais avec un gain en rapidité du fait de l'usage de presets.

Cyber Marionette est disponible commercialement, les licences couvrant l'ensemble d'un studio/projet donné.
En ce qui concerne le futur, Andreas Carlen a évoqué le support FBX mais aussi d'OpenSubdiv.


 

Cyber Marionette

 

Solidanim et Game Audio Factory, de leur côté, ont présenté Gleam Session, solution de motion capture faciale et enregistrement audio. Le concept : de la mocap sans marqueurs, avec tracking 3D et non 2D, un budget serré et des résultats milieu/haut de gamme.
Concrètement, Gleam Session utilise une Kinect en plus d'un micro classique. Le tout est destiné à être déployé en studio d'enregistrement audio : la voix est donc directement exploitable, et il n'y a pas les problèmes de captation audio liés aux salles de mocap dont l'acoustique n'est pas toujours idéale. Le son est enregistré en simultané avec la vidéo de référence, les données de la kinect et le fichier d'animation fbx.
Enfin, le système de présente sous forme de plug-in sous Pro Tools, outil courant en studio son.

Les atouts du système sont donc nombreux : coût faible, système portable et simple à utiliser, possibilité pour l'acteur de prévisualiser en temps réel son jeu (par exemple, sur le personnage d'un jeu vidéo). L'absence de marqueur fait gagner temps et argent.
Le système implique toutefois de découpler la capture faciale de celle du corps.
Déjà utilisé en production, Gleam Session n'est pas vendu pour le moment, mais proposé comme service aux clients de Game Audio Factory ou de Solidanim.

Et pour l'avenir ? La diffusion temps réel est notamment prévue, de même que le support multilingue pour conquérir plus de clients.

Ci-dessous : Vincent Percevault (gérant, fondateur de Game Audio Factory) et Jean-François Szlapka (directeur général de Solidanim).

Solidanim - Game Audio Factory

 

Gleam Session

 

Marc Miance, directeur R&D chez Alkymia, a poursuivi la présentation avec deux produits : Horizon, un système de suivi de production sur iPad, et Headcam, un casque de mocap faciale.

Headcam, pour commencer, a été conçu dans le cadre du film d'animation Pourquoi j'ai pas mangé mon père, avec Jamel Debbouze. Pour l'animation faciale, l'équipe cherchait un casque de motion capture efficace, mais les modèles du marché étaient non satisfaisants : lourds, gros, peu ergonomiques...
La solution a donc été d'imaginer un nouveau produit : 350 grammes, trois tailles différentes pour s'adapter à toutes les têtes, une conception asymétrique pour compenser le poids de la caméra. Le serrage se fait via un système de lacets, et la garniture intérieure est lavable.
La caméra utilisée est un modèle déjà employé pour les courses de formule 1. Ses 35 grammes permettent de facilement l'oublier.
Un enregistreur vidéo se charche de stocker les données (sur le comédien, donc), tandis que le contrôle se fait par WiFi. Pour Marc Miance, cette approche est plus stable que le HF Video, qui souffre souvent des interférences.

Sur le film Pourquoi j'ai pas mangé mon père, 80% de l'animation faciale provient de la mocap, les 20% restants correspondant aux finitions.



Horyzon, de son côté, est un outil iPad qui se présente un peu comme une boîte e-mail dans laquelle on reçoit des médias. Pas vraiment un outil de suivi de production, il se présente plutôt comme un outil de communication au sein d'une équipe.
Les données arrivent en push, avec affichage distinct pour les médias vus ou non, validés ou non. Un système de commentaires/dessin permet d'annoter chaque média ou une frame particulière.

Evidemment, la quantité de médias reçus peut devenir importante ; un système de tri sémantique a donc été créé. On peut ainsi trouver tous les documents liés à un décor donné, ceux reçus un jour donné, etc.

L'application permet de jouer la timeline des dernières séquences, en permanence à jour.

Plusieurs types d'utilisateurs permettent d'instaurer une hiérarchie dans le partage : ainsi, Jamel Debbouze ne recevra pas la totalité des documents, mais jsute l'essentiel.

Quelques raffinements sont présents, comme la gestion d'un écran externe pour les conférences, ou la possibilité de flasher l'application à distance pour supprimer toutes les données en cas de perte ou vol de l'iPad.

Marc Miance, directeur R&D chez Alkymia.

Marc Miance

 

Ci-dessous : aperçu du casque Headcam, avec son système de laçage qui permet un ajustement précis et un confort supérieur, selon Alkymia, aux autres modèles du marché.

Headcam

 

 

Enfin, Mercenaries Engineering nous a présenté Guerilla Render.
Ce moteur propose une approche de type Path Tracing, avec des shaders compilés à la volée et sans cache ni prépasse : l'illumination globale est calculée en brute force.

Mais Guerilla ne se limite pas à un simple moteur de rendu : il est aussi présenté en tant qu'outil de lookdev et éclairage, avec une approche inspirée de produits comme Katana. Cette partie lookdev/éclairage devient centrale dans le workflow de l'utilisateur. Elle permet de développer des shaders, de faire du surfacing, d'assembler des scènes, de les éclairer et enfin de les envoyer sur une renderfam.

Les secteurs visés par Guerilla : animation et effets visuels.

La contrepartie de l'absence de système de cache est très logiquement un temps de calcul un peu plus long que d'autres moteurs, que Mercenaries justifie de la façon suivante :
Guerilla permet de passer moins de temps sur la préparation, d'avoir moins de problèmes lors du rendu, et d'avoir moins de retakes.

Lors de la présentation, Mercenaries Engineering a notamment mis en avant le fait que le path tracing et les technologies associées (IBL, shaders et lampes physiques...) permettent d'obtenir du photoréalisme rapidement. Le système supporte les standards de production et d'intégration (scripts Python, RSL, ...), une nécessité vu les marchés visés.

Le RenderGraph (partie basse de l'image visible ci-dessous), système de graphe nodal et hiérarchique qui permet de mettre au point la scène, a également fortement mis en avant.

Mercenaries n'a évidemment pas oublié d'insister sur le fait que l'outil était éprouvé en production, via une démoreel et en évoquant les futurs projets utilisant le moteur (Mune, Ballerina, Le Petit Prince).

Encore en beta, le produit sera officiellement lancé lors du SIGGRAPH 2013. Il sera intéressant de suivre la réaction du marché suite à sa sortie, d'autant plus que le secteur des moteurs de rendu est fortement concurrentiel, avec des éditeurs qui rivalisent d'énergie pour conserver leur domination du marché ou, au contraire, pour se faire une place durable et émerger.

Benjamin Legros


Ci-dessus : Benjamin Legros, cofondateur et ingénieur en chef R&D de mercenaries Engineering.
Ci-dessous : aperçu de l'interface de Guerilla Render. Projet d'
Axel Domenger, Golaem

Guerilla Render

 

space
space

Les derniers commentaires (0)

Soyez le premier à déposer un commentaire.
space
space
space
space
space
A Propos | Contact | Publicité
Copyright © 2000-2018 3DVF. Tous droits réservés. | Infogérance serveur | tracker
space