Compte-rendu : SATIS 2011

SATIS

 

Ci-dessous, un aperçu des stands et de l’organisation générale. Avid et Adobe organisaient des conférences quasiment en permanence, avec un succès tout aussi important que Newtek.

Certains cherchaient à attirer l’attention par l’originalité du stand, comme en témoigne le terrain de golf reconstitué chez Panasonic…

 

Vues

 

Progiss

Le stand de notre partenaire Progiss, qui présentait ses solutions matérielles et logicielles, tout en proposant des démonstrations de logiciels : ci-dessous à droite, Nils Bessis revenant sur Nuke. Romain Donnot d’Assimilate est également intervenu sur le stand pour présenter le logiciel phare de l’éditeur : Scratch.

Progiss 

 

Finissons le tour des conférences par la table ronde autour du 4k, qui a eu lieu en présence de professionnels de profils variés, d’où une grande richesse dans le débat. Ce qui s’annonçait a priori comme une conférence technique a pris une tournure quasi philosophique très enrichissante.

Étaient présents :
– Patrick Leplat, de Panavision ;
– Emmanuel Pampuri, de la société Les Machineurs https://www.machineurs.com/ , spécialistes du cinéma numérique qui accompagnent les productions de leur clients tout au long de la chaîne ;
– Tommaso Vergallo de Digimage https://www.lvt.fr/digimage/index.htm , laboratoire de postproduction numérique ;
– Christophe Legendre, étalonneur ;
– Jean-François Nivart, d’IntoPix (société spécialisée en particulier dans les codecs et la compression d’image) ;
– Daniel Esperanssa, d’Assimilate (éditeur de Scratch).

Chaque intervenant a, à sa manière et à son niveau, une approche personnelle de la montée en résolution des images tournées en numérique. Voici un condensé des principaux points abordés :

– Le 4k voire 5k permet de recréer un fossé avec la télévision, qui s’était atténué avec l’arrivée des téléviseurs grand format et HD : il s’agit pour le cinéma de proposer à nouveau un décalage net avec la télévision.
Pour un écran de salle de cinéma classique, il faudra d’ailleurs de toute façon au moins du 4k pour que l’oeil ne puisse plus distinguer les pixels…
– La haute définition peut a priori poser des problèmes de volume de données et de stockage, mais tous les intervenants n’étaient pas d’accord sur ce point. Pour certains, les algorithmes de compression permettent de ramener le débit à « seulement » 700Mo/s, ce qui est tout à fait gérable. Finalement, la plus grosse évolution avec le 4k reste l’évolution de la gestion du flux : autrefois centrée sur un flux vidéo, la chaîne tourne désormais autour de flux fichiers, ce qui impacte l’infrastructure de stockage.

 

Conf

 

– La tendance actuelle semble être de capter en sortie de la caméra le signal le plus brut possible, avec un traitement minimaliste au sein de la caméra, et de stocker directement l’image. On rejoint finalement en quelque sorte le RAW en photographie…
Évidemment, tout le problème est alors de stocker le signal brut tout en ayant un retour immédiat. C’est ici qu’interviennent les problèmes de compression, et l’importance des codecs. Le jpeg 2000 est un exemple permettant de concilier compression et signal respecté : permettant la compression sans perte de données (lossless), il est d’ailleurs utilisé dans le domaine médical, où un artefact de compression peut signifier une erreur grave de diagnostic.
– Un point très intéressant soulevé par les intervenants est la demande de certains réalisateurs de permettre le rajout de grain et d’imperfections sur l’image, pour redonner une certaine « vibration » proche de l’argentique, perdue avec l’arrivée du numérique au rendu quasi parfait… Voire trop ?
Le risque avec la très haute définition est en fait d’arriver à un rendu totalement uniforme, il faut donc prendre garde à conserver une intention artistique. L’hyperréalisme visuel causé par la HD peut « casser » l’émotion, pour certains intervenants. La question de l’augmentation de la fréquence des images, poussée par des réalisateurs comme Peter Jackson, renvoie à une problématique similaire. L’image doit-elle être le reflet de la réalité ?
Une image moins définie, sur laquelle l’oeil se perdra moins dans les détails et aura une impression de rendu plus éloigné de la réalité, peut être un plus pour faire passer les émotions…
En bref, il faut veiller à ce que les améliorations techniques ne soient pas une course technique pour le principe, mais apportent un réel contenu pour le spectateur.

Pour Emmanuel Pampuri des Machineurs, ceci peut créer deux grands courants : d’une part, ceux qui hurleront à l’horreur du changement, diront que tout était mieux avant, ce qui conduit à des logiques comme le développement de plugins pour rajouter du bruit.
Un autre parti pris est d’adopter ces nouveaux outils techniques, mais d’apprendre à les utiliser à bon escient.
Pour Pampuri, si la pellicule a duré 100 ans, cette période remarquable de stabilité ne se reproduira plus jamais.

Évidemment, le spectateur pouvait faire le lien avec les films récents, voire les rendus fixes : entre les ajouts artificiels de lense flare, la conservation ou le rajout de bandes lumineuses horizontales ou verticales (initialement issues d’un défaut des capteurs numériques), les aberrations chromatiques pour le rendu fixe, la problématique est au coeur des oeuvres récentes.

Patrick Leplat a alors enchaîné, notant que la méthodologie était encore non figée : avec l’arrivée du 4k ou 5k, ce sont tous les rôles de la chaîne de production qu’il faut repenser et redéfinir, dans un environnement changeant. Son espoir : parvenir à une nouvelle façon de gérer l’image, une nouvelle méthodologie qui permettra de retrouver de nouveaux repères, de nouveaux rôles quasi figés, qui resteront valables quelle que soit la résolution.

– La pérennité est un problème important du numérique : les codecs évoluent, il faut donc prendre garde à pouvoir conserver durablement les productions. Ironiquement, même à l’heure actuelle le meilleur moyen de conservation semble être… De repasser le film numérique sur pellicule, support stable et que l’on saura relire sans difficulté dans plusieurs dizaines d’années.
De même, le stockage pourra poser problème : il est nécessaire de faire tourner le support physique, de ne pas conserver un film sur un support indéfiniment. Tout ceci a un coût… Il pourrait aussi être envisagé un stockage en ligne, mais là encore la question du coût se pose.
Autre problème : avec les contraintes importantes de stockage, les rushes seront-ils aussi sauvegardés ?

– Durant la séance de questions, la question de la projection argentique vs numérique a été abordée, un membre de l’audience étant un fervent défenseur de la projection sur pellicule, censée avoir mille qualités… Arguments qui ont été balayés par le panel : oui, bien entendu, la projection numérique actuelle peut montrer des problèmes d’étalonnage, ou de déformation géométrique (d’autant plus que durant la phase de transition, le projecteur numérique est souvent placé à côté du projecteur argentique, en biais et non pas sur la position idéale).
Oui, les lampes actuelles pour la projection numérique ont un rapport qualité/prix loin d’être idéal (de l’ordre de 1000€ pour 700h de durée de vie), mais des progrès considérables sont réalisés.
Un intervenant a tout de même noté que de nombreux exploitants de salle ont volontairement trainé des pieds pour la transition au numérique, devinant que les premiers produits seraient rapidement obsolètes… À raison : le chiffre de 50% de projecteurs actuels qui ne seront pas en mesure de projeter le Hobbit de Peter Jackson (48 images/secondes et relief) a été évoqué.

Au final, cette conférence a sans doute été la plus intéressante de celles que nous avons pu voir : oscillant entre technique et philosophie, pragmatisme et réflexion sur l’avenir des métiers du cinéma, elle a soulevé bon nombre de questions… Pour lesquelles les réponses restent souvent à trouver.

 

Pour en savoir plus :

– Le site officiel du SATIS.

 

 

Chargement....

A Lire également