Accueil » Matrix Awakens : la Matrice s’invite dans Unreal Engine 5

Matrix Awakens : la Matrice s’invite dans Unreal Engine 5

Temps de lecture : < 1 minute

Epic Games dévoile Matrix Awakens, une démo technologique disponible sur consoles PlayStation 5 et Xbox Series X/S.

Située dans l’univers de Matrix (qui, pour rappel, aura bientôt droit à une nouvelle suite au cinéma), la démo mêle humains numériques photoréalistes, course-poursuite dans une ville, tir en vue à la troisième personne.

Epic Games s’est appuyé sur la future version 5 d’Unreal Engine pour créer un espace de 16 kilomètres carrés, peuplé de voitures et de piétons.
L’équipe de développement a aussi utilisé Houdini et ses outils procéduraux afin d’accélérer la création des assets : en pratique, un ensemble de règles (taille des immeubles, largeur des routes, etc) permet de régir l’univers généré.

Du côté des humains numériques, c’est le studio à l’origine de MetaHuman, 3Lateral (qui avait pour rappel été racheté par Epic Games), qui a scanné les visages des acteurs en 3D, et capturé leurs performances dans leur studio Novi Sad.
Les acteurs sont accompagnés de IO, personnage issu de l’outil MetaHuman Creator. Même chose pour les milliers de passants présents dans la démo.

Pour le reste, tous les outils d’UE5 sont employés : système physique Chaos pour les destructions, les mouvements de véhicules et les simulations liées aux vêtements, Nanite pour la géométrie, Lumen pour l’éclairage.

Epic Games donne quelques précisions : la ville comporte 7 million d’assets instanciés, 7 000 bâtiments créés à partir d’éléments modulaires, 45 073 voitures garées dont 38 146 sont jouables, plus de 260km de routes, 512km de trottoirs, 27 848 lampadaires ou encore 12 422 bouches d’égouts. Tous ces polygones étant, donc, traités par le système Nanite lors du rendu temps réel.

Reste un regret : l’absence d’une déclinaison PC de la démo. Si vous n’avez pas de console, vous pourrez néanmoins regarder la vidéo donnant une idée du contenu.

A Lire également

13 commentaires

phicata 10 décembre 2021 at 15 h 11 min
popopo….la matrice en voie d’accomplissement sous nos yeux! :) Époustouflant. On est à 2 doigts du vrai/fake indiscernable. (encore qu’il faille être prudent car la montée en résolution des écrans rabat sans cesse cette prétention, j’veux dire par là que les fx d’hier sur des supports full hd et supérieurs prennent chers). Les petits artefacts de ci de là sur les immeubles (du à Nanite?) pourraient passés pour voulus. Bref c magnifake!
Shadows 10 décembre 2021 at 16 h 40 min
D’autres infos chez FxGuide : https://www.fxguide.com/fxfeatured/the-matrix-is-unreal/ en particulier, il y a ponctuellement du rendu offline (démultiplication de personnages, un plan de la ville).
Et pour savoir précisément ce qui est réel ou non (évidemment, regardez bien la vidéo avant histoire de tenter de deviner ;) ) :

class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">

Even now people are confused, having watched the footage several times. “The first time you see the older Keanu that was a video shoot that we (Epic) filmed of him,” Pete explains. “After they come back after Morpheus that was all the CG versions. It was color corrected to match and look the same.” There is also one point where we see footage in the mirror this was real film footage that was comped in UE5. The first shot of Morpheus is also not CG, but then becomes CG when the young Thomas Anderson (Neo) appears. Even the desk scene at the beginning when Anderson is asleep was a real-time recreation of a scene from the original film.

L’indice sur les gros plans, en ce qui me concerne, c’est le réalisme des micro-mouvements des cheveux qui est meilleur sur le "vrai" Keanu. En tous cas le résultat est vraiment réussi ; dommage qu’on ne puisse pas jouer avec les assets sur PC.

phicata 10 décembre 2021 at 17 h 45 min
J’avais tout bon sauf "démultiplication de personnages, un plan de la ville".

class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">

c’est le réalisme des micro-mouvements des cheveux qui est meilleur sur le "vrai" Keanu

Exact, et quelques très légères raideurs dans certains mouvements…mais bon après (pour l’intro) si on ne nous avertis pas que c de la 3d, pas dis que l’on ne soit pas bernés.
A 9.49 , agent Smith repéré!

Afficher la pièce jointe 41499

K
kin4n 10 décembre 2021 at 19 h 44 min
c est tout simplement phenomenal
TURTLE 13 décembre 2021 at 13 h 04 min
il manque plus qu’à pouvoir télécharger notre esprit dans la matrice pour atteindre l’immortalité.
phicata 16 décembre 2021 at 23 h 16 min
K
kin4n 19 décembre 2021 at 13 h 17 min
epoustouflant. C est vraiment titanesque
Z
zeauro 20 décembre 2021 at 19 h 41 min
C’est plutôt rassurant qu’on arrive encore à faire assez naturellement la différence entre la matrice et le monde réel.

Pour la scène du début, je me demande si ils n’ont pas pris pour référence une des rééditions avec le filtre verdâtre dégueulasse.
Ca manque de contraste et d’un certain côté, je me dis qu’un certain décalage entre la matrice et la réalité est clairement voulu.

Quand on voit les bâtiments pris comme référence : c’est clairement pas un copier/coller.
Et quand on rajoute des portes, des fenêtres à un bâtiment : c’est pas pour faire baisser le nombre de polygones.
Les étages surnuméraires me donnent instinctivement l’impression que l’échelle des bâtiments n’est pas bonne.

Je comprends que dans la scène du début, ils n’aient pas refait les mêmes assets. Éviter les réflexions ou simplement piochage dans la banque d’objets à disposition.
Mais pourquoi rajouter un câble sous le fauteuil ? Qui roule son fauteuil sur ses câbles ?
Il y a des trucs complètement off qui n’ont rien à voir avec des limitations techniques.

Je me dis que, quelque part, ils ont peut-être eu peur de se faire peur.
On est sorti de la vallée de l’étrange pour renter dans le plateau du confortablement irréel.

Personnellement, je pense qu’il y a encore énormément de marge avant qu’on ne fasse plus la différence avec le réel.
A mon avis, tout le monde, à un moment donné, finit par se rendre compte qu’il y a un truc off. Un détail, une ombre, une réflexion qui manque.
Ce qui est bluffant, c’est que ça n’est pas évident. On a tous un temps de latence avant de se dire : c’est pas réel.
On est assez saturé d’infos justes pour marquer ce temps. Mais très vite, le truc off qu’on va chopper, va devenir une ancre de l’irréel.
Et lorsqu’il disparaît de l’écran ; on rebascule, momentanément, dans le doute avant d’en capter un autre.

Je me demande si on va acquérir des réflexes (qui vont faire décroître ces moments de bascules) ; ou, au contraire, si on va devenir constamment bluffé par du contenu nouveau (comme on l’est devenu pour le cinéma).
Un jeu est un objet qu’on se repasse sous les yeux beaucoup plus souvent qu’un film.

phicata 20 décembre 2021 at 22 h 30 min
class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">

On est sorti de la vallée de l’étrange pour renter dans le plateau du confortablement irréel.

Joliment dit.

class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">

Personnellement, je pense qu’il y a encore énormément de marge avant qu’on ne fasse plus la différence avec le réel.

Oui et moi aussi je demande si cette marge va disparaitre, car notre œil s’habitue si vite: ce qui hier nous semblait vraiment réaliste semble parfois grossier aujourd’hui. Quand je regarde Avatar aujourd’hui, je commence à tiquer. Et en même temps comme je le disais plus haut, si on ne nous dis pas que c’est de la 3D ….(les plans d’intro)

class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">

A mon avis, tout le monde, à un moment donné, finit par se rendre compte qu’il y a un truc off

Ça je ne suis pas sûr, parce que nous devons notre acuité à notre culture de l’image. Autrement dit, savoir, par exemple, qu’un deepfake est techniquement possible nous aides (parfois) à le déceler. Ce n’est pas donner à tout le monde.

Z
zeauro 21 décembre 2021 at 11 h 36 min
class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">

Ça je ne suis pas sûr, parce que nous devons notre acuité à notre culture de l’image.

Je pense que notre culture de l’image nous aide surtout à nommer les choses.
Effectivement, il y a des gens qui sont facilement largués visuellement.
Mais, à mon avis, une partie importante du grand public est capable de ressentir un décalage avec le réel sur ce genre de projet temps réel.
Quand l’IA sera massivement utilisée pour optimiser l’animation d’humain et gérer des stress maps et des flow maps, je ne dis pas.
Mais pour l’instant, je pense que quelqu’un de non-entraîné peut aisément te dire que <<les humains sont un peu rigides>>, <<c’est une explosion de cinema>>, <<il y a un truc bizarre avec l’éclairage>>.
Et même ceux qui sont bluffés visuellement, mais observateurs, pourront dire qu’il n’y a pas de feuilles aux arbres, qu’il n’y a pas d’animaux (rats, pigeons, chiens, chats, insectes…), que les nuages sont tous très lointains.
Enfin, moi, c’est ce que je ferai quand je serais largué visuellement. Je chercherai une merde de chien, sur laquelle m’attarder, comme dans le Mulholland Drive de Lynch.

phicata 21 décembre 2021 at 14 h 11 min
phicata 21 décembre 2021 at 22 h 22 min
Un test Xbox à partir de 9.43
Mode nuit à 41.35

phicata 23 décembre 2021 at 17 h 40 min
popopo….que c’est beau!

Laissez un commentaire