Nouvelles Du Monde

Almendralejo : « Nous pouvons tous être des victimes et les dégâts sont irréparables » : comment les « deepfakes » ont inondé la planète | Technologie

Almendralejo : « Nous pouvons tous être des victimes et les dégâts sont irréparables » : comment les « deepfakes » ont inondé la planète |  Technologie

2023-09-21 06:20:00

Une image générée par l’intelligence artificielle.

Los contrefaçons profondes, reproductions hyperréalistes que l’intelligence artificielle a portées à des limites d’accessibilité et de diffusion sans précédent, inondent tout, comme le démontre le cas des fausses reconstitutions de nus d’adolescents à Almendralejo (Badajoz) cette semaine. « Nous pouvons tous être des victimes. Internet est la jungle. Il n’y a pas de contrôle et ce n’est pas un jeu : c’est un délit », prévient le président de la fédération d’Estrémadure des parents d’élèves. Freapa, Maribel Rengel. Le rapport le plus cité, réalisé par Deeptrace, a traqué jusqu’à un demi-million de faux fichiers sur le World Wide Web avec une croissance de près de 100 % tous les six mois. Mais c’est juste le travail d’une seule entité. Le volume réel est inconnu. On sait que 96% sont de la pornographie et que ces créations sont passées du domaine de l’image à la voix, au texte, aux documents et à la reconnaissance faciale, ou à la combinaison de tous, jusqu’à devenir l’un des vecteurs émergents de fraude les plus inquiétants d’une technologie. ce n’est toujours pas réglementé.

L’Institut européen des normes de télécommunications (ETSI) met en garde dans l’un des rapports les plus complets et les plus à jour des dangers de l’utilisation « de plus en plus facile » de l’intelligence artificielle dans la création de faux fichiers. L’ETSI, composé de plus de 900 entités de tous domaines, prévient : « En raison des progrès significatifs dans l’application de l’intelligence artificielle à la génération et à la modification des données, de nouvelles menaces sont apparues qui peuvent entraîner des risques substantiels dans divers environnements. Cela va de la diffamation personnelle et de l’ouverture de comptes bancaires sous de fausses identités (en passant par des attaques contre les procédures d’authentification biométrique) aux campagnes visant à influencer l’opinion publique. Voici les principaux objectifs :

Pornographie. Danielle Citron, professeur de droit à l’Université de Boston et auteur de Crimes haineux dans le cyberespace (Crimes haineux dans le cyberespace), déclare : « La technologie faux profond Il est utilisé comme une arme contre les femmes en insérant leurs visages dans de la pornographie. C’est terrifiant, embarrassant, dégradant et réduit au silence. vidéos de sexe faux profond Ils disent aux gens que leur corps ne leur appartient pas et qu’il peut être difficile d’avoir des relations en ligne, d’obtenir ou de conserver un emploi ou de se sentir en sécurité.

Lire aussi  Cienciaes.com: Simiosaures dans la mer de Téthys

Rengel le partage après l’affaire qui a touché plusieurs instituts de sa communauté. « C’est un sentiment de vulnérabilité et il est très difficile à contrôler. Le préjudice est irréparable. “Ils peuvent ruiner la vie d’une fille”, affirme le représentant d’Estrémadure pour exiger d’urgence un pacte d’État qui réglemente l’utilisation de cette technologie.

Ces attaques consistent en la diffusion de fausses vidéos, images, audio ou textes sur les réseaux sociaux pour ruiner la réputation de la victime ou l’humilier. Le rapport Deeptrace estime le nombre de reproductions de ce matériel à plus de 134 millions. Des femmes connues sont victimes de ces pratiques depuis des années. La chanteuse Rosalía est la dernière espagnole célèbre d’une longue liste internationale dirigée par Emma Watson et Natalie Portman.

Mais comme le prévient Rengel, « personne n’est libre ». D’un simple clic, sur des plateformes ouvertes ou dans des messageries cryptées, on trouve des applications et des pages qui proposent de « déshabiller n’importe qui » en quelques secondes. Ils préviennent qu’il s’agit de personnes de plus de 18 ans et que les photos d’une personne ne peuvent être utilisées sans son consentement, même s’ils ne le vérifient pas, ils déchargent la responsabilité sur l’utilisateur et affirment que l’objectif est le « divertissement ».

Le créateur de contenu Brandon Ewing, connu sous le nom d’Atrioc, a été surpris en direct plus tôt cette année avec une page de contrefaçons profondes des films pornographiques avec de fausses recréations de ses collègues Pokimane, Maya Higa et Blaire (elle demande à éviter son nom de famille pour protéger la famille), connue sous le nom de QTCinderella. Ewing a affirmé que la consultation était « accidentelle », mais la réaction des victimes a été dévastatrice.

Higa a déclaré qu’elle se sentait « dégoûtée, vulnérable et indignée ». QTCinderella a publié une vidéo choquante de rejet : « Même si ce n’est pas mon corps, cela pourrait très bien l’être. C’était la même sensation qu’un viol. L’exploitation et l’objectivation constantes des femmes sont épuisantes ! Pokimane a rappelé la nécessité du « consentement pour certaines pratiques, comme la sexualisation des femmes ».

Lire aussi  La startup Linz AI reçoit 1,5 million d'euros

La Bureau fédéral d’enquête des États-Unis (FBI) a mis en garde contre l’augmentation du nombre de cybercriminels qui utilisent des images et des vidéos des réseaux sociaux pour créer contrefaçons profondes avec lequel harceler et extorquer les victimes.

Canulars pour influencer l’opinion publique. Giorgio Patrini, fondateur de Deeptrace, affirme : « Los contrefaçons profondes Ils déstabilisent déjà les processus politiques. Sans contre-mesures défensives, l’intégrité des démocraties du monde entier est menacée. »

Le rapport de l’ETSI identifie ces attaques comme de faux messages donnant l’impression que des personnes occupant des postes influents ont écrit, dit ou fait certaines choses. “Cela s’applique à toutes les fins où les enjeux sont importants et où le bénéfice justifie l’effort du point de vue d’un attaquant”, prévient l’entité. Ils peuvent être utilisés pour discréditer un personnage, manipuler les prix, attaquer des concurrents, influencer l’opinion publique avant des élections ou des plébiscites, renforcer la portée d’une campagne de désinformation et comme propagande, notamment en temps de guerre.

En mars 2022, une vidéo a été publiée faux profond du président ukrainien Volodymyr Zelensky, où il a annoncé sa capitulation face à l’invasion russe. La politicienne américaine Nancy Pelosi en a subi une autre dans laquelle elle est apparue ivre, et ni Donald Trump, ni Barack Obama, ni le pape, ni Elon Musk n’ont été épargnés par des créations similaires.

Attaques contre l’authenticité. Ils abordent explicitement les procédures d’identification et d’authentification biométriques à distance. De telles procédures sont largement utilisées dans de nombreux pays pour permettre aux utilisateurs d’accéder à des services numériques, tels que l’ouverture de comptes bancaires, car elles réduisent les coûts et facilitent la souscription de produits.

En 2022, un groupe de les pirates (hackers) appelés Chaos Computer Club ont exécuté avec succès des attaques contre les procédures d’identification vidéo en appliquant des méthodes faux profond.

Lire aussi  Les lauréats des App Store Awards 2023 révélés par Apple

La sécurité sur Internet. De nombreuses attaques sont basées sur une erreur humaine pour accéder aux systèmes de l’entreprise, comme le récent enlèvement subi par la Mairie de Séville. Mais les faux fichiers hyperréalistes multiplient les capacités d’accès en fournissant de fausses données difficiles à identifier. Il peut s’agir d’écritures dans le style de l’expéditeur présumé, de voix et de vidéos de personnes censées communiquer avec les victimes de l’attaque. L’objectif est que les victimes cliquent sur des liens malveillants, que les attaquants peuvent utiliser pour obtenir des identifiants de connexion ou distribuer des informations. malware (programmes malveillants).

Un directeur de banque à Hong Kong a été trompé en 2020 par des agresseurs qui ont falsifié la voix d’un directeur de l’entité pour obtenir un transfert de 35 millions de dollars, selon des informations. Forbes. Une entreprise énergétique du Royaume-Uni a également subi une attaque similaire un an plus tôt, qui lui a coûté 243 000 dollars.

Du cinéma avec de faux acteurs et scénaristes. Dans le domaine artistique, cette technologie peut être utilisée pour créer du contenu cinématographique. Le syndicat SAG-AFTRA, qui regroupe 160.000 travailleurs de l’industrie du divertissement, a appelé à la grève en juillet à Hollywood pour réclamer, outre une meilleure rémunération, des garanties de protection contre l’utilisation de l’intelligence artificielle dans les productions.

Les acteurs comme les écrivains exigent la régulation des technologies qui peuvent écrire une histoire ou remplacer les acteurs grâce à l’utilisation de faux profond, ce qui permet de reproduire le physique, la voix et les mouvements d’une personne. La généralisation de ces outils permettrait aux grandes sociétés de production de se passer de l’être humain dans la création de contenus.

L’acteur britannique Stephen Fry, narrateur des livres audio Harry Potter au Royaume-Uni, a dénoncé l’utilisation de sa voix sans son consentement dans un documentaire. «Ils pouvaient me faire lire n’importe quoi : d’un message pour prendre d’assaut le Parlement jusqu’à des séquences pornographiques hardcore. Tout cela à mon insu et sans ma permission », a-t-il déclaré.

Vous pouvez suivre Technologie EL PAÍS dans Facebook oui Twitter ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.

Abonnez-vous pour continuer la lecture

Lire sans limites




#Almendralejo #Nous #pouvons #tous #être #des #victimes #les #dégâts #sont #irréparables #comment #les #deepfakes #ont #inondé #planète #Technologie
1695310562

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT