L’arrestation de Donald Trump et de Boris Johnson et le pape en doudoune. Les images créées avec l’intelligence artificielle sont presque impossibles à distinguer des vraies photos. Mais avec un œil averti, vous pouvez aller loin.
Op sociale media kwam je hem de afgelopen week vaak tegen: een foto van paus Franciscus op straat. In een hippe witte pufferjas met daaroverheen een grote ketting en een zilveren kruis. In zijn rechterhand een koffie voor onderweg.
Op Twitter werd het plaatje twintig miljoen keer bekeken. Het sociale netwerk plaatste er later een label bij. Daarop staat dat de afbeelding niet echt is en werd gemaakt met de kunstgenerator Midjourney.
Dat programma kreeg recent een update, waarna hij veel realistischere plaatjes kan maken. Het leverde ook zogenaamde foto’s op van de arrestatie van de Amerikaanse oud-president Donald Trump en die van de voormalige Britse premier Boris Johnson.
Les développements artistiques de l’IA sont en plein essor
“C’est de mieux en mieux et de plus en plus convaincant”, déclare l’expert en intelligence artificielle Mark Evenblij de DuckDuckGoose. Il s’agit d’une entreprise néerlandaise qui travaille sur les moyens de reconnaître les deepfakes. “Les développements vont très vite, dans six mois les résultats pourraient être bien meilleurs que maintenant.”
Cela rend plus difficile la détection de fausses images. Mais pour l’instant, il y a quelques problèmes avec lesquels le logiciel se débat. Ceux-ci peuvent indiquer qu’une image a été créée par l’intelligence artificielle.
Parfois c’est évident. “Des verres qui se dissolvent dans le vide, ce n’est pas possible”, déclare Evenblij. “Souvent, les reflets dans les yeux sont également une bonne indication. Dans les deepfakes, les reflets dans les yeux gauche et droit diffèrent souvent. Si vous voyez cela, cela peut indiquer une fausse image.”
Mais les réflexions anormales ne sont pas encore une preuve définitive. Il se peut qu’il n’y ait qu’une lampe qui se reflète dans un œil et pas dans l’autre œil. “C’est souvent la somme des écarts”, explique l’expert en IA.
Faire fondre les motifs et le charabia
“Vous pouvez également le voir dans des motifs qui fusionnent”, explique Evenblij. “Un chapeau qui se fond dans les cheveux ou la peau d’un visage. Les modèles d’IA ont également des difficultés avec les lettres, ce qui signifie que les textes sur les vêtements, par exemple, sont incorrects.”
Cela est visible sur les photos d’arrestation de Trump et Johnson. Le charabia est écrit sur les vêtements et les casquettes. L’ordinateur a aussi souvent des problèmes avec les mains. Plus d’une fois, les gens ont six doigts et parfois la mauvaise main est sur le mauvais bras.
Cela se produit, par exemple, dans l’image ci-dessous. Cela semble réaliste, jusqu’à ce que vous réalisiez que le pouce est du mauvais côté. Sur la photo de l’arrestation du pape et de Johnson, vous pouvez également dire par les mains que c’est faux.
Faux vidéos et sons
Des deepfakes plus réalistes sont également réalisés à partir de vidéos et d’audio. Par exemple, des programmes vous permettent de superposer vous-même le visage d’une célébrité. Le faux visage réagit alors à vos mouvements sans délai. Dans les appels vidéo, les choses peuvent être truquées de manière convaincante de cette manière.
Mais si vous savez ce qu’il faut rechercher, vous pourrez peut-être le repérer. “Lorsque quelqu’un cligne des yeux, vous voyez souvent le faux visage devenir légèrement plus petit pendant un moment”, explique Evenblij. “Il y a aussi des limites au masque. Si une personne tourne trop la tête, une distorsion se produit. Vous pouvez donc demander à quelqu’un de tourner à gauche et à droite.”
S’il existe des enregistrements d’une voix, il n’en faut pas beaucoup pour que quelqu’un dise des choses qu’il n’a jamais dites.
Ces types de deepfakes sont plus difficiles à dénoncer. “Vous pouvez souvent encore l’entendre dans l’intonation, qui n’est tout simplement pas humaine”, explique Evenblij. “Il existe également des logiciels qui peuvent détecter si quelque chose existe ou non. Plus la qualité du son est bonne, plus il y a d’informations à vérifier.”
Le risque de fraude guette
L’intelligence artificielle assure également des évolutions positives. Par exemple, cela peut aider à la thérapie du deuil et au traitement des traumatismes. Ou cela peut donner une voix aux personnes qui ne peuvent pas parler. Mais le danger guette aussi.
“Il est déjà possible d’imiter une voix et de faux appels téléphoniques”, explique Evenblij. “Aux États-Unis, nous avons déjà vu des exemples de deepfakes vocaux hyperréalistes pour commettre des fraudes. Un criminel peut se faire passer pour le petit-fils d’une grand-mère et l’appeler qu’il a besoin d’argent rapidement. Les gens vont gagner sérieusement de l’argent grâce à ce genre de choses. perdre.”
Les gouvernements travaillent sur des réglementations pour diriger en toute sécurité le développement de l’intelligence artificielle. Mais les organisations et les entreprises elles-mêmes devraient également réfléchir à l’utilisation éthique de l’IA, déclare Evenblij. “Cela ne va pas disparaître, nous devons donc trouver des moyens d’y faire face.”