Noel Hocquet, FX TD

Noel Hocquet

3DVF : Tu as été animateur, LookDev/ lighting TD, généraliste, FX TD… Qu’est-ce qui a guidé l’orientation de ta carrière, et pourquoi le choix de finalement t’orienter vers le métier de FX TD ?

Noel Hocquet : Ma formation de « généraliste » (Sup & Buf) m’a permis de m’adapter à la demande, mais aussi à mes envies. J’ai eu la chance de pouvoir faire différents jobs : du hair grooming & dynamics sur Narnia2, du lookdev sur les vintages F1 d’IronMan 2, des environnements sur Angels & Demons, du lighting…. Et dernièrement des FX à ILM.

Je n’avais pas eu l’occasion de faire des FX  à grosses échelles, mes seules expériences préalables en la matière étaient sur Harry Potter 6 (pensieve [NDRL : le bassin permettant de visionner les souvenirs]) et IronMan 2 (whiplash). C’est une opportunité énorme de pouvoir faire des FX à ILM.

Ci-dessous : Making-of de Look Development et de création d’environnements pour différents longs-métrages, par Noel Hocquet.

 

3DVF : Comment se sont passées ton embauche au sein d’ILM et l’intégration dans le studio ?

N.H. : C’était super !  J’ai eu un entretien avec le CG sup et le FX sup de Battleship, le courant est passé entre nous, et quelques semaines plus tard, j’étais en training sur les FX in-house tools d’ILM pendant une semaine. La semaine suivante j’avais mes plans d’assignés et c’était parti !

3DVF : Y a-t-il des spécificités au niveau des méthodes de travail, par rapport à ce que tu as pu rencontrer chez Double Negative ou PDI/DreamWorks ?

N.H. : Oui, quand je travaillais à Dneg, c’était le pipeline classique Maya-Renderman avec le développement d’outils propriétaires. 

Framestore utilisait le même recette Maya/Renderman (plus outils maisons).

A DreamWorks, par contre, c’était un mélange complexe d’outils du commerce et de développements in-house (Lighting par ex) orientés film d’animation. La structure du pipeline a une influence directe sur l’organisation et la méthodologie de travail : par ex, à l’époque où je travaillais à PDI/DreamWorks il n’y avait pas de département compositing. Le compositing final était fait par le lighter. La méthodologie de travail d’ILM est clairement faite pour les Visuals Effects, et se rapproche donc plus de celle de Dneg que de celle de PDI/DreamWorks.

 

 

Ci-dessous, vidéo d’ILM revenant sur la création des effets d’eau dans Battleship. Grady Cofer était en charge de la supervision des effets visuels chez ILM.

3DVF : Peux-tu nous parler des outils propriétaires d’ILM que tu utilises, tels que Zeno et Plume ? Quelles sont leurs forces et faiblesses, comment s’insèrent-ils dans le pipeline d’ILM ?

N.H. : En FX, Zeno est le backbone d’ILM depuis quelques années. Zeno est un logiciel 3D développé en interne, il intègre les dernières avancées technologiques du département de R&D d’ILM, on y retrouve également quelques références à ce qui se fait de mieux dans Maya et dans Softimage, tout en intégrant les toutes dernières technologies sur le marché. ILM a toujours misé sur la R&D afin de pouvoir produire des effets visuels très complexes et très innovants. (cf les papers au Siggraph d’ILM). Comme j’ai travaillé dans différentes sociétés, chacune avec leur propre pipeline, méthodologie, R&D… j’ai su m’adapter très rapidement à celui d’ILM. Zeno est efficace, c’est-à-dire que ce qu’il fait, il le fait bien, pas de superflu. Et surtout il est très stable. Pour le rendu, c’est Renderman. Plume est un solveur de fluide. J’ai utilisé Plume pour toutes les simulations de fluides que j’ai faites. Plume utilise des GPUs (Cuda) (comme Squirt de Dneg). Cela permet de calculer des simulations de fluide vraiment très rapidement. Cette interactivité, ce retour visuel quasi immédiat, est fantastique ! Et elle m’a permis de pouvoir faire beaucoup d’itérations et d’arriver très vite au résultat que je voulais. Dernièrement ILM teste aussi d’autres solutions logicielles en parallèle.

 

3DVF : Tu as récemment travaillé sur Star Trek : Into Darkness, notamment sur la séquence du volcan. Sur quels types d’effets as-tu travaillé ? Quelles ont été les difficultés principales ?

N.H. : Mon travail chez Industrial Light and Magic sur le film  StarTrek  Into Darkness a commencé en Août 2012. Très vite la production s’est mise à tourner à plein régime. Nous devions fournir un trailer plus long que d’habitude, un « extended » trailer de 9 minutes avant la fin de l’année. Ce trailer devant être diffusé en bande annonce devant The Hobbit : an unexpected journey version Imax.

J’ai été assigné sur la séquence du volcan. Le challenge était de traduire dans l’image l’imminence de l’éruption mais aussi sa puissance. Beaucoup de plans du volcan dans cette séquence sont entièrement en 3D et ont donc été faits en stéréoscopie et en Imax. Cela a pour conséquence des temps de calculs plus élevés mais aussi une étape supplémentaire pour ajuster la stéréoscopie. En ce qui me concerne, j’ai travaillé sur les plans à l’intérieur du volcan. La lave étant simulée et rendue par une team dédiée, je devais m’occuper des colonnes de fumée pyroclastique, de la fumée ambiante, des  » embers  » (braises virevoltantes), des vagues et des ondulations de chaleur, des cendres et autres particules atmosphériques, des explosions et des étincelles.

Certains plans contiennent plus d’une vingtaine de simulations de fumée, sans compter les simulations d' »embers », de cendres…


Le cratère du volcan était gigantesque et il fallait donc remplir l’espace avec une multitude de sources de fumée, placées de façon naturelle et logique. Un film non-stéréoscopique est plus simple à gérer, on peut visuellement plus facilement  » remplir  » le volcan. La stéréoscopie est beaucoup moins flexible à ce niveau car l’occupation de l’espace 3D se doit d’être logique et complète sinon le spectateur s’aperçoit très vite qu’il y a des  » trous « , et que donc l’immersion 3D ne fonctionne pas. Avec ces contraintes, j’ai tout d’abord fait mes simulations en mono (œil gauche seulement), et dès que la caméra stéréo était validée, j’ai calculé mes simulations en stéréo.

 

 

Star Trek Into Darkness

 

Un des plans les plus complexes a été celui où Spock descend dans le volcan attaché à un filin. La caméra pointe vers le haut du volcan et suit Spock dans sa descente vers la lave. Le champ visuel est très vaste et a nécessité beaucoup de simulations qu’il a fallu combiner ensemble afin de couvrir la totalité de la zone, c’est à dire du haut du volcan jusqu’à la lave. Le compositeur qui était assigné à ce shot se trouvait juste à côté de moi, ce qui était un gros avantage. Cette proximité nous a permis de développer une synergie très productive. La moindre modification d’une simulation, le moindre changement d’éclairage sur mes éléments et je pouvais voir dans la demi-heure qui suivait un comp très avancé de mon shot. Idem pour les tests stéréos du shot.

Pour les plans au fond du volcan, dès que la simulation de la lave était validée, j’ai utilisé les informations de sa vélocité et je les ai ajoutées comme sources dans la simulation de mes fumées, des  » embers « , des vagues et des ondes de chaleur… Ce principe permet d’avoir une cohérence physique au niveau des simulations même si elles sont faites par des personnes différentes. Visuellement cela rend aussi l’effet encore plus crédible. Par exemple, sur le plan ou Spock est suspendu à son filin au fond du volcan, et qu’il frôle des rochers et des splashs de lave, la collaboration étroite avec le compositeur assigné à ce plan a permis d’être très réactif et ainsi d’arriver à finaliser ce plan rapidement, malgré sa complexité.

 

A Lire également