Nouvelles Du Monde

Vous craignez que l’IA détourne votre voix pour un deepfake ? Cet outil pourrait aider

Comment fonctionne le nouvel outil AntiFake

Université de Washington à Saint-Louis


masquer la légende

basculer la légende

Université de Washington à Saint-Louis

Lorsque Scarlett Johansson a découvert que sa voix et son visage avaient été utilisés pour promouvoir une application d’intelligence artificielle en ligne sans son consentement, l’acteur a intenté une action en justice contre la créatrice de l’application, Lisa AI.

La vidéo a depuis été retirée. Mais beaucoup de ces « deepfakes » peuvent circuler sur Internet pendant des semaines, comme celui récent mettant en vedette MrBeast, dans lequel on peut voir une ressemblance non autorisée de la personnalité des médias sociaux vendant des iPhones à 2 $.

L’intelligence artificielle est devenue si efficace pour imiter l’apparence physique et les voix des gens qu’il peut être difficile de dire si elles sont réelles ou fausses. Environ la moitié des personnes interrogées dans deux enquêtes sur l’IA récemment publiées – de la Northeastern University, Voicebot.ai et Pindrop – ont déclaré qu’elles ne pouvaient pas faire la distinction entre le contenu synthétique et généré par l’homme.

C’est devenu un problème particulier pour les célébrités, pour qui essayer de garder une longueur d’avance sur les robots IA est devenu un jeu de taupe.

Désormais, de nouveaux outils pourraient permettre au public de détecter plus facilement ces deepfakes – et plus difficiles à créer pour les systèmes d’IA.

“L’IA générative est devenue une technologie tellement habilitante que nous pensons qu’elle va changer le monde”, a déclaré Ning Zhang, professeur adjoint d’informatique et d’ingénierie à l’Université de Washington à Saint-Louis. “Cependant, lorsqu’il est utilisé à mauvais escient, il doit y avoir un moyen de construire une couche de défense.”

Lire aussi  Jussie Smollett en cure de désintoxication

Signaux de brouillage

L’équipe de recherche de Zhang développe un nouvel outil qui pourrait aider les gens à lutter contre les abus liés aux deepfakes, appelé AntiFake.

“Il brouille le signal de telle sorte qu’il empêche le moteur de synthèse basé sur l’IA de générer une copie efficace”, a déclaré Zhang.

Zhang a déclaré qu’AntiFake s’était inspiré de Glaze de l’Université de Chicago, un outil similaire visant à protéger les artistes visuels contre la suppression de leurs œuvres pour des modèles d’IA génératifs.

Cette recherche est encore très nouvelle ; l’équipe présentera le projet plus tard ce mois-ci lors d’une grande conférence sur la sécurité au Danemark. On ne sait pas actuellement comment cela évoluera.

Mais essentiellement, avant de publier une vidéo en ligne, vous devez télécharger votre piste vocale sur la plateforme AntiFake, qui peut être utilisée comme application autonome ou accessible via le Web.

AntiFake brouille le signal audio afin de confondre le modèle d’IA. La piste modifiée semble toujours normale à l’oreille humaine, mais elle semble foirée au système, ce qui rend difficile la création d’un clone de voix au son clair.

Un site Web décrivant le fonctionnement de l’outil comprend de nombreux exemples de voix réelles transformées par la technologie, ressemblant à ceci :

Clip audio humain réel AntiFake

Pour ça:

Clip audio brouillé AntiFake

Vous conserveriez tous vos droits sur la piste ; AntiFake ne l’utilisera pas à d’autres fins. Mais Zhang a déclaré qu’AntiFake ne vous protégerait pas si vous êtes quelqu’un dont la voix est déjà largement disponible en ligne. En effet, les robots IA ont déjà accès aux voix de toutes sortes de personnes, des acteurs aux journalistes des médias publics. Il suffit de quelques secondes de discours d’un individu pour créer un clone de haute qualité.

Lire aussi  Blinken se rend à Kiev pour soutenir les efforts de l'Ukraine visant à évincer la Russie

« Toutes les défenses ont des limites, n’est-ce pas ? » » dit Zhang.

Mais Zhang a déclaré que lorsque AntiFake sera disponible dans quelques semaines, il offrira aux gens un moyen proactif de protéger leur discours.

Détection des deepfakes

En attendant, il existe d’autres solutions, comme la détection des deepfakes.

Certaines technologies de détection des deepfakes intègrent des filigranes numériques dans la vidéo et l’audio afin que les utilisateurs puissent identifier s’ils sont créés par l’IA. Les exemples incluent le SynthID de Google et la signature stable de Meta. D’autres, développés par des sociétés comme Pindrop et Veridas, peuvent déterminer si quelque chose est faux en examinant de minuscules détails, comme la façon dont les sons des mots se synchronisent avec la bouche d’un locuteur.

“Il y a certaines choses que disent les humains et qui sont très difficiles à représenter pour les machines”, a déclaré le fondateur et PDG de Pindrop. Vijay Balasubramaniyan.

Mais Siwei Lyu, professeur d’informatique à l’Université de Buffalo qui étudie la sécurité des systèmes d’IA, a déclaré que le problème de la détection des deepfakes est qu’elle ne fonctionne que sur le contenu déjà publié. Parfois, des vidéos non autorisées peuvent exister en ligne pendant des jours avant d’être signalées comme des deepfakes générées par l’IA.

“Même si l’intervalle entre l’apparition de cette chose sur les réseaux sociaux et le moment où il est déterminé qu’elle est générée par l’IA n’est que de quelques minutes, cela peut causer des dommages”, a déclaré Lyu.

Besoin d’équilibre

“Je pense que c’est simplement la prochaine évolution dans la façon dont nous protégeons cette technologie contre toute utilisation abusive ou abusive”, a déclaré Rupal Patel, professeur d’intelligence artificielle appliquée à la Northeastern University et vice-président de la société d’IA Veritone. “J’espère juste qu’avec cette protection, nous ne finirons pas par jeter le bébé avec l’eau du bain.”

Lire aussi  Talkshow Op1 continue avec trois diffuseurs et recherche un rédacteur en chef | Médias

Patel pense qu’il est important de se rappeler que l’IA générative peut faire des choses incroyables, notamment aider les personnes qui ont perdu la voix à parler à nouveau. Par exemple, l’acteur Val Kilmer s’appuie sur une voix synthétique depuis qu’il a perdu sa vraie voix à cause d’un cancer de la gorge.

Youtube

Patel a déclaré que les développeurs ont besoin de grands ensembles d’enregistrements de haute qualité pour produire ces résultats, et qu’ils ne les auront pas si leur utilisation est complètement restreinte.

“Je pense que c’est un équilibre”, a déclaré Patel.

Le consentement est la clé

Lorsqu’il s’agit de prévenir les abus liés aux deepfakes, le consentement est essentiel.

En octobre, des membres du Sénat américain ont annoncé qu’ils discutaient d’un nouveau projet de loi bipartisan – le « Nurture Originals, Foster Art, and Keep Entertainment Safe Act of 2023 » ou « NO FAKES Act of 2023 » en abrégé – qui maintiendrait les créateurs en détention. des deepfakes sont responsables s’ils utilisent l’image de personnes sans autorisation.

“Le projet de loi fournirait une loi fédérale uniforme dans laquelle le droit à la publicité varie actuellement d’un État à l’autre”, a déclaré Yael Weitz, avocate au cabinet d’avocats en art new-yorkais Kaye Spiegler.

À l’heure actuelle, seule la moitié des États américains disposent de lois sur le « droit à la publicité », qui confèrent à un individu le droit exclusif d’autoriser l’utilisation de son identité à des fins de promotion commerciale. Et ils offrent tous différents degrés de protection. Mais il faudra peut-être attendre des années avant qu’une loi fédérale soit adoptée.

Cette histoire a été éditée par Jennifer Vanasco. L’audio a été produit par Isabelle Gómez Sarmiento.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT