Nouvelles Du Monde

L’IA est là, et elle fait des films. Hollywood est-il prêt ?

L’IA est là, et elle fait des films.  Hollywood est-il prêt ?

Scott Mann avait un problème : trop de bombes F.

Le scénariste-réalisateur avait passé la production sur “Fall”, son thriller vertigineux sur les grimpeurs coincés au sommet d’une tour de télévision à distance, encourageant les deux protagonistes à s’amuser avec leur dialogue. Cette improvisation a décroché 35 “f-cks” dans le film, le plaçant fermement sur le territoire classé R.

Mais lorsque Lionsgate a signé pour distribuer “Fall”, le studio voulait un montage PG-13. Désinfecter le film signifierait frotter tous sauf un des obscénités.

« Comment résolvez-vous cela ? » Mann s’est rappelé de la salle de conférence vitrée de son bureau de Santa Monica en octobre, deux mois après les débuts du film. Un vautour prop qu’il avait réquisitionné sur le plateau était perché dans le hall.

Les reprises, après tout, coûtent cher et prennent du temps. Mann avait filmé “Fall” au sommet d’une montagne, a-t-il expliqué, et avait lutté non seulement contre COVID mais aussi contre les ouragans et les orages. Une colonie de fourmis de feu avait élu domicile à l’intérieur du décor principal du film, un tube métallique de cent pieds de long, à un moment donné; lorsque l’équipage les a réveillés, l’essaim a enveloppé le plateau “comme un nuage”.

« ‘Fall’ a probablement été le film le plus difficile que j’ai jamais réalisé », a déclaré Mann. Pourrait-il éviter un redux ?

La solution, réalisa-t-il, pourrait bien être un projet qu’il avait développé en tandem avec le film : un logiciel artificiellement intelligent qui pourrait éditer des images des visages des acteurs bien après la fin de la photographie principale, modifiant de manière transparente leurs expressions faciales et leurs mouvements de bouche pour faire correspondre le dialogue nouvellement enregistré.

“Fall” a été édité en partie à l’aide d’un logiciel développé par Flawless, la société d’intelligence artificielle du réalisateur Scott Mann. (Avec l’aimable autorisation de Flawless)

C’est une utilisation d’une simplicité trompeuse pour une technologie qui, selon les experts, est sur le point de transformer presque toutes les dimensions d’Hollywood, de la dynamique du travail et des modèles financiers à la façon dont le public pense à ce qui est vrai ou faux.

L’intelligence artificielle fera aux images animées ce que Photoshop a fait aux images fixes, a déclaré Robert Wahl, professeur agrégé d’informatique à l’Université Concordia, Wisconsin, qui a écrit sur l’éthique de CGI, dans un e-mail. “Nous ne pouvons plus faire pleinement confiance à ce que nous voyons.”

Une solution logicielle pour les doublages douteux

Il a fallu une collaboration particulièrement décourageante avec Robert De Niro pour pousser Mann dans le monde du logiciel.

De Niro figurait dans le thriller policier “Heist” de Mann en 2015 et les deux avaient consacré beaucoup de temps et de réflexion à la performance de l’acteur acclamé. Mais quand est venu le temps d’adapter le film pour des sorties à l’étranger, a déclaré Mann, il n’a pas été satisfait.

Lire aussi  La copie maîtresse du Voyager Golden Record, enregistrements destinés aux extraterrestres, mise aux enchères

Lorsque les films sortent à l’étranger, les dialogues sont souvent réenregistrés dans d’autres langues. Ce processus, appelé “doublage”, rend le film accessible à l’échelle internationale, mais peut également conduire à la vue choquante de la bouche d’un acteur désynchronisée avec les mots qu’il est censé dire. Une solution typique consiste à réécrire le dialogue afin qu’il s’associe mieux aux visuels préexistants – mais, pour des raisons de lisibilité, ces changements sacrifient la vision originale de l’équipe créative.

“Toutes les choses que j’avais travaillées en nuance avec Robert De Niro ont maintenant changé”, a déclaré Mann à propos des doublages. “J’étais un peu dévasté.”

Un film de suivi sur lequel il a travaillé, “Final Score”, a approfondi ces frustrations. Mann a essayé de scanner la tête de ses acteurs afin de mieux synchroniser leur discours, mais le processus s’est avéré d’un coût prohibitif et le résultat final a semblé étrange.

Ce n’est qu’en recherchant des solutions plus innovantes que le passionné d’effets visuels a trouvé un 2018 document académique décrivant une solution possible : les réseaux de neurones ou les programmes informatiques imitant la structure d’un cerveau, qui cherchait à transposer l’expression faciale d’un acteur sur le visage d’un autre.

Fasciné, Mann a contacté les auteurs de l’article et a commencé à collaborer avec certains d’entre eux sur un outil de “vubbing” rudimentaire – c’est-à-dire un doublage visuel plutôt qu’audio. L’ajout ultérieur de Nick Lynes, un ami d’un ami avec une expérience dans le jeu en ligne, a également permis à l’équipe de prendre pied dans le secteur de la technologie.

Ensemble, les envoyés de trois mondes très différents – le cinéma, la science et l’industrie du logiciel – ont construit Flawless, une entreprise de cinéma basée sur l’IA avec des bureaux à Santa Monica et à Londres.

En termes très généraux, la technologie de l’entreprise peut identifier des modèles dans les phonèmes d’un acteur (ou les sons qu’ils émettent) et les visèmes (ou à quoi ils ressemblent lorsqu’ils émettent ces sons), puis – lorsqu’ils sont présentés avec des phonèmes nouvellement enregistrés – mettre à jour les visèmes à l’écran pour correspondre. L’année dernière, le magazine Time jugé le “correctif pour le doublage de films” de l’entreprise, l’une des meilleures inventions de 2021.

La ruée pour nettoyer des dizaines de bombes F de “Fall”, cependant, a présenté une question avec des ramifications potentiellement beaucoup plus larges : plutôt que de simplement changer la langue parlée par les personnages, Flawless pourrait-il modifier le contenu même de ce qu’ils ont dit ?

“Nous sommes allés dans un studio d’enregistrement à … Burbank avec les actrices et avons dit:” D’accord, voici les nouvelles répliques “”, a déclaré Mann, qui vit à Los Angeles. Ensuite, ils ont branché le nouvel audio dans le logiciel vubbing, qui a ajusté les mouvements du visage à l’écran des stars en conséquence.

“Nous avons mis les plans, la MPAA l’a revu et lui a donné PG-13, et c’est ce qui est arrivé dans les cinémas”, a-t-il déclaré.

Lire aussi  realme C55 NFC sorti le 7 mars, apporte un appareil photo 64MP jusqu'à 256 Go de mémoire

Assis dans sa salle de conférence de Santa Monica plusieurs semaines après la sortie du film, entouré d’affiches pour «Blade Runner» et «2001: A Space Odyssey», Mann a montré les résultats avec une scène dans laquelle l’un des protagonistes de «Fall» déplore leur situation difficile .

« Maintenant, nous sommes coincés dans cette stupide tour au milieu de nulle part ! » Virginia Gardner s’est exclamée à Grace Caroline Currey alors que les deux se blottissaient au sommet d’une plate-forme précaire.

Virginia Gardner et Grace Caroline Currey dans “Fall”.

(Porte des Lions)

Un instant plus tard, Mann a rejoué la scène. Mais cette fois, le dialogue de Gardner était nettement plus dur : “Maintenant, nous sommes coincés sur cette putain de tour stupide au milieu de putain de nulle part.”

La première version était ce qui est sorti en août pour sur 1 500 cinémas américains. Mais ce dernier – celui avec un dialogue digne d’un marin – était ce que Mann a réellement filmé sur ce sommet de montagne infesté de fourmis de feu. Si vous ne saviez pas qu’un réseau de neurones avait reconstruit les visages des acteurs, vous n’auriez probablement aucune idée que leur dialogue nettoyé était un ajout tardif.

“Vous ne pouvez pas dire ce qui est réel et ce qui ne l’est pas”, a déclaré Mann, “c’est tout.”

L’éthique des synthétiques

En matière de cinéma, ce réalisme a des avantages évidents. Personne ne veut dépenser de l’argent pour quelque chose qui semble provenir de MS Paint.

Mais la montée en puissance de logiciels capables de modifier de manière transparente ce que quelqu’un semble avoir dit a des implications majeures pour un environnement médiatique déjà inondé de désinformation. Le produit principal de Flawless est, après tout, essentiellement une version plus légitime de “deep-fakes», ou CGI qui imite le visage et la voix de quelqu’un.

Il n’est pas difficile d’imaginer un troll qui, au lieu d’utiliser ces outils pour couper les gros mots d’un film, réalise une vidéo virale de Joe Biden déclarant la guerre à la Russie. Le porno réalisé avec la ressemblance numérique de quelqu’un a également devenir un problème.

Et Flawless n’est pas la seule entreprise à travailler dans ce domaine. Papercup, une entreprise qui génère des voix humaines synthétiques à utiliser dans les doublages et les voix off, vise à “rendre n’importe quelle vidéo regardable dans n’importe quelle langue”, a déclaré le directeur général Jesse Shemen au Times.

Et le pilier des effets visuels Digital Domain utilise l’apprentissage automatique pour rendre les acteurs dans les cas où ils ne peuvent pas apparaître eux-mêmes, comme les scènes nécessitant un doublé, a déclaré Hanno Basse, directeur de la technologie.

Alors que ces entreprises et d’autres automatisent de plus en plus l’industrie du divertissement, les questions éthiques abondent.

Hollywood compte déjà sur sa nouvelle capacité à recréer numériquement des acteurs morts, comme avec La voix d’Anthony Bourdain dans le documentaire “Roadrunner” ou Pierre Cushing et Carrie Fisher dans les suites récentes de “Star Wars”. Réveils holographiques des célébrités décédées sont également désormais possibles.

Lire aussi  Comment concevoir vos cartes de Noël avec l'IA

Un dialogue modifié numériquement “risque de compromettre le consentement des personnes initialement impliquées”, a déclaré Scott Stroud, directeur du programme d’éthique des médias de l’Université du Texas à Austin. “Ce à quoi les acteurs pensaient qu’ils étaient d’accord n’est pas littéralement ce qui est créé.”

Et cette technologie pourrait ouvrir la porte à des changements de films longtemps après leur sortie, a déclaré Denver D’Rozario, professeur de marketing à l’Université Howard qui a étudié la résurrection logicielle d’acteurs morts.

“Disons que… dans un film, un gars boit une canette de Pepsi, et dans 20 ans, vous obtenez un parrainage de Coke”, a déclaré D’Rozario. « Est-ce que vous changez la canette de Pepsi en Coca ? « À quel moment peut-on changer les choses ? À quel moment peut-on acheter des choses ? »

Mann a déclaré que les avantages de sa technologie sont nombreux, allant de la suppression des barrières linguistiques et de la promotion de l’empathie transfrontalière à l’épargne aux acteurs du mal de tête des reprises. À son avis, des scénarios comme le parrainage hypothétique de Coke de D’Rozario représentent de nouvelles sources de revenus.

Flawless a été proactif, a ajouté Mann, dans la création d’un produit qui aide plutôt qu’il ne supplante la performance humaine authentique.

“Il existe un moyen d’utiliser les technologies de la même manière que le [visual effects] l’industrie a déjà établi, c’est-à-dire : faites-le en toute sécurité, faites-le correctement, faites-le légalement, avec le consentement de toutes les personnes impliquées », a-t-il déclaré.

Et l’entreprise a déjà engagé “tous les grands syndicats” sur la façon de fabriquer et d’utiliser cette technologie de manière sensée, a poursuivi le directeur.

Les représentants de SAG-AFTRA ont souligné que la technologie de réalisation de films d’IA peut aider ou nuire aux acteurs, selon la manière dont elle est utilisée.

“Les technologies qui ne font guère plus qu’améliorer numériquement le travail de nos membres peuvent simplement nécessiter la capacité de fournir un consentement éclairé et, éventuellement, une compensation supplémentaire”, a déclaré Jeffrey Bennett, avocat général de SAG-AFTRA, dans un e-mail. « À l’autre extrémité du spectre se trouvent les technologies qui pourraient remplacer les performances traditionnelles ou qui prennent les performances de nos membres et en créent de toutes nouvelles ; pour ceux-ci, nous maintenons qu’ils sont un sujet obligatoire de négociation.

C’est un train qui, pour le meilleur ou pour le pire, a déjà quitté la gare.

“Fall” est actuellement en streaming, et Mann a déclaré que d’autres films sur lesquels sa société a travaillé sortiront ce Noël – bien qu’il ne puisse pas encore les nommer publiquement.

Si vous voyez un film pendant les vacances, une IA a peut-être aidé à le créer.

Serez-vous capable de dire? Est ce que c’est important?

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT