Nouvelles Du Monde

‘Deepfakes’ : la menace aux millions de vues qui s’attaque aux femmes et défie la sécurité et la démocratie | Technologie

‘Deepfakes’ : la menace aux millions de vues qui s’attaque aux femmes et défie la sécurité et la démocratie |  Technologie

“C’est le visage de la douleur.” C’est ainsi que le créateur de contenu commence QTCendrillon une vidéo dans laquelle il dénonce avoir été victime de la diffusion d’une séquence pornographique hyperréaliste créée avec l’intelligence artificielle. Les images auxquelles vous faites référence sont fausses, les dégâts causés ne le sont pas. La personnalité populaire d’Internet de 29 ans rejoint une longue liste de personnes concernées par ce type de création, connue sous le nom de faux faux. Les applications d’intelligence artificielle les rendent de plus en plus faciles à produire et difficiles à identifier comme fausses alors que leur régulation et leur contrôle sont en retard par rapport au développement de ces technologies. Le nombre de ces contenus sur Internet double tous les six mois et totalise plus de 134 millions de vues. Plus de 90% des cas sont de la pornographie sans consentement. Ongle enquête de la Northwestern University et de la Brookings Institution (toutes deux aux États-Unis) mettent en garde contre son danger potentiel pour la sécurité. D’autres études mettent en garde contre le risque d’ingérence et de manipulation dans les processus politiques démocratiques.

Sonia Velázquez, une étudiante universitaire de Séville, était curieuse de savoir comment fonctionnent les vidéos faux faux et elle a demandé à son copain, étudiant en graphisme, de lui montrer une épreuve et il a accepté de le faire avec son image. “Cela a commencé comme un jeu, mais ce n’est pas le cas. Je me suis vu vulnérable. Je savais que ce n’était pas moi, mais j’imaginais tous mes amis partager cette vidéo, plaisanter et Dieu sait quoi d’autre. Je me sentais sale et, bien que nous l’ayons supprimé immédiatement, je n’arrête pas de penser à la facilité avec laquelle cela peut être et aux dommages que cela peut causer », dit-elle.

“Se voir nu contre son gré et répandu sur Internet, c’est comme se sentir violé. Cela ne devrait pas faire partie de mon travail d’avoir à payer pour faire enlever ces choses, d’être harcelé. L’exploitation et l’objectivation constantes des femmes m’épuisent”, déclare QTCinderella après la diffusion de la vidéo faux profond dont il a été victime. Avant elle, l’artiste britannique Helen Mort a subi la même attaque avec des photos tirées de ses réseaux sociaux. “Cela vous fait vous sentir impuissante, comme si vous étiez punie pour être une femme avec une voix publique”, dit-elle. “N’importe qui, quel que soit son milieu, peut être la cible de ça et on dirait que les gens s’en fichent”, déplore une autre victime des vidéos hyperréalistes qui demande à ne pas être identifiée pour éviter les recherches sur les réseaux, même si elle estime y être parvenue. pour supprimer toute trace.

Les canulars sont aussi vieux que l’humanité. Les photos truquées ne sont pas récentes non plus, mais se sont généralisées à la fin du siècle dernier avec des outils d’édition d’images fixes simples et populaires. La manipulation vidéo est plus récente. La première plainte publique date de fin 2017 contre un utilisateur de Reddit qui l’utilisait pour déshabiller des célébrités. Depuis, il n’a cessé de grandir et est passé à la création d’audio hyperréaliste.

Lire aussi  Les Nuits des étoiles en Gironde

“les technologies faux profond présentent des défis éthiques importants. Ils se développent rapidement et deviennent moins chers et plus accessibles de jour en jour. La possibilité de produire des fichiers vidéo ou audio d’apparence et de son réalistes de personnes faisant ou disant des choses qu’elles n’ont pas faites ou dites offre des possibilités de tromperie sans précédent. La politique, les citoyens, les institutions et les entreprises ne peuvent plus ignorer la construction d’un ensemble de règles strictes pour les limiter », résume Lorenzo Dami, professeur à l’Université de Florence et auteur d’un recherches publiées dans Portail de recherche.

pornographie non consensuelle

Les fausses vidéos hyperréalistes touchent principalement les femmes. Selon IA de sensibilité, une société de recherche qui traque les fausses vidéos hyperréalistes sur Internet, entre 90% et 95% d’entre elles sont de la pornographie non consensuelle et neuf sur dix d’entre elles font référence à des femmes. “C’est un problème de violence masculine”, dit-il au Massachusetts Institute of Technology (MIT) Adam Dodge, fondateur d’EndTAB, une organisation à but non lucratif pour l’éducation aux usages de la technologie.

Il Institut européen pour l’égalité entre les hommes et les femmes Il le considère également comme tel et inclut ces créations dans son rapport sur la cyber violence faite aux femmes comme l’une des formes d’agression machiste.

La réglementation est loin derrière les avancées technologiques qui rendent possibles les créations deepfakes. La régulation de l’intelligence artificielle (Loi sur l’IA) de la Commission européenne est toujours une proposition et en Espagne, le développement de l’agence d’État pour la surveillance de l’intelligence artificielle est en attente. « La technologie, une fois développée, on ne peut plus l’arrêter. Nous pouvons le réglementer, le tempérer, mais nous sommes en retard », prévient Felipe Gómez-Pallete, président de Calidad y Cultura Democráticas.

Certaines entreprises ont pris les devants pour éviter de faire partie d’actes criminels. Dall-e, l’une des applications de création numérique, prévient qu’elle a “limité la capacité de générer des images violentes, haineuses ou adultes” et a développé des technologies pour “empêcher les rendus photoréalistes des visages d’individus réels, y compris ceux de personnalités publiques”. ” Il en va de même pour d’autres applications d’intelligence artificielle populaires pour les créations audiovisuelles ou de lecture vidéo. Un groupe de dix sociétés a signé un catalogue de lignes directrices sur la manière de créer, créer et partager de manière responsable du contenu généré par l’IA. Mais beaucoup d’autres se tournent vers de simples applications mobiles ou se promènent librement sur le Web, y compris certains expulsés de leurs serveurs d’origine, comme celui qui est devenu populaire avec le slogan déshabille ton amie et se réfugier dans d’autres plateformes open source ou de messagerie.

Lire aussi  Sortie de Skype 8.90, apporte un certain nombre de nouvelles fonctionnalités

Le problème est complexe car la liberté d’expression et de création se conjugue avec la protection de la vie privée et de l’intégrité morale. “La loi ne réglemente pas une technologie, mais ce qu’on peut faire avec la technologie”, prévient-il Borja Adsuara, professeur des universités et expert en droit numérique, vie privée et protection des données. « Ce n’est que lorsqu’une technologie ne peut avoir qu’un mauvais usage qu’elle peut être interdite. Mais la seule limite à la liberté d’expression et d’information est la loi. La technologie ne devrait pas être interdite car elle peut être dangereuse. Ce qu’il faut poursuivre, ce sont les abus », ajoute-t-il.

Image de la vidéo QTCinderella avec laquelle le créateur de contenu dénonce avoir été victime d’une fausse vidéo pornographique.QTCinderella sur Twitch.tv

La résurrection virtuelle de Lola Flores

En ce sens, le professeur italien Lorenzo Dami identifie les usages positifs et négatifs de cette technologie. Parmi les premiers, son utilisation pour les productions audiovisuelles, une meilleure interaction entre les machines et les humains, l’expression créative (y compris satirique), les applications médicales, la culture et l’éducation se démarque. Un exemple a été la résurrection virtuelle viralisée de Lola Flores pour une campagne publicitaire, qui a été réalisée avec le consentement de ses descendants.

De l’autre côté de l’échelle se trouvent des créations hyperréalistes pour extorsion sexuelle, injures, vengeance pornographique, intimidation, harcèlement, escroquerie, discrédit et déformation de la réalité, atteinte à la réputation et attaques de nature économique (altération des marchés), judiciaire (falsification de preuves) ou contre la démocratie et la sécurité nationale.

Sur ce dernier aspect, Venkatramanan Siva Subrahmanian, professeur de cybersécurité et auteur de Deepfakes et conflits internationauxavertit : « La facilité avec laquelle ils peuvent être développés ainsi que leur diffusion rapide pointent vers un monde dans lequel tous les acteurs étatiques et non étatiques auront la capacité de déployer des créations audiovisuelles hyperréalistes dans leurs opérations de sécurité et de renseignement », il prévient.

En ce sens, Adsuara estime que « plus dangereux » que la fausse pornographie, malgré son incidence majoritaire, est le dommage potentiel aux systèmes démocratiques : « Imaginez que trois jours avant les élections une vidéo apparaisse d’un des candidats disant une barbarie et il y a pas le temps de le nier ou, même s’il est nié, la viralité est imparable. Le problème de faux fauxcomme c’est le cas avec les canulars, ce n’est pas seulement qu’ils sont parfaits pour les rendre crédibles, mais que les gens veulent les croire parce qu’ils coïncident avec leur parti pris idéologique et qu’ils les redistribuent sans contraste, parce qu’ils les aiment et qu’ils veulent pense que c’est vrai ».

Lire aussi  Les génomes de 233 espèces de primates ont été séquencés

Régulation

La réglementation actuelle, selon l’avocat, se concentre sur le résultat des actions et l’intention du contrevenant. « Si la scène n’a jamais existé parce qu’elle est fausse, vous ne découvrez pas un secret. Il doit être traité comme un cas d’injure ou comme un crime contre l’intégrité morale lorsqu’il est diffusé avec l’intention d’humilier publiquement une autre personne », explique-t-il.

“La solution pourrait être”, ajoute Adsuara, “en appliquant un chiffre prévu dans les cas de mineurs et c’est la pseudo-pornographie enfantine”. “Cela permettrait aux crimes contre la vie privée d’inclure non seulement de vraies vidéos, mais aussi des vidéos réalistes avec des images intimes qui ressemblent à celles d’une personne.”

Les systèmes d’identification technologiques peuvent également être appliqués, bien que cela soit de plus en plus difficile car l’intelligence artificielle développe également des formules pour les éviter.

Une autre façon consiste à exiger que tout type de contenu hyperréaliste soit clairement identifié comme tel. “C’est dans le projet de loi sur les droits numériques, mais le règlement sur l’intelligence artificielle n’a pas encore été approuvé”, explique l’avocat.

En Espagne, ce type d’identification est courant dans les cas de fausse pornographie pour éviter des problèmes juridiques. “Mais ces femmes”, prévient Adsuara, “doivent supporter que leur image soit fusionnée dans un contexte pornographique et cela va à l’encontre de leur droit à leur propre image, même si elle n’est pas réelle, mais elle est réaliste”.

Malgré les dégâts évidents de ces vidéos, les plaintes en Espagne sont peu nombreuses par rapport à celles enregistrées aux États-Unis, au Royaume-Uni ou en Corée du Sud, bien que la prolifération de ces vidéos soit proportionnellement similaire. L’expert espagnol en droit du numérique estime qu’on lui accorde moins d’importance puisque sa fausseté est évidente et parce que la plainte ne sert parfois que de porte-parole au criminel, qui recherche justement cela. “En plus, déplore-t-il, cette société est tellement malade qu’on ne la perçoit pas comme mauvaise et, au lieu de défendre la victime, on l’humilie”.

Josep Coll, directeur de RepScan, une entreprise dédiée à l’élimination des informations préjudiciables sur Internet, confirme également la rareté des plaintes de personnalités publiques touchées par de fausses vidéos. Cependant, il souligne qu’ils traitent de nombreuses tentatives d’extorsion avec eux. Il relate le cas d’un homme d’affaires qui s’est vu diffuser une fausse vidéo et y a inclus des images d’un pays qu’il avait récemment visité pour semer le doute parmi ceux de son entourage qui savaient que le voyage avait eu lieu. “Et de pornovengence», commente-t-il. “Nous en recevons des cas tous les jours.” “En cas d’extorsion, ils recherchent une réaction à chaud, pour qu’ils paient leur retrait, même s’ils savent que c’est faux”, ajoute-t-il.

Vous pouvez écrire à [email protected]suivre pour LA TECHNOLOGIE DU PAYS dans Facebook y Twitter et inscrivez-vous ici pour recevoir nos bulletin d’information sémanal.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT