Nouvelles Du Monde

Élections 2024 : comment ChatGPT doit être protégé contre les abus lors des campagnes électorales

Élections 2024 : comment ChatGPT doit être protégé contre les abus lors des campagnes électorales

2024-01-16 20:12:00

Stratégie contre la manipulation
Comment OpenAI veut empêcher l’utilisation abusive de l’intelligence artificielle dans la campagne électorale américaine

Fin mars 2023, ces images de l’arrestation présumée de l’ex-président américain Donald Trump ont fait sensation – mais tout cela n’a jamais eu lieu ; les images ont été générées par l’intelligence artificielle.

© Elliot Higgins via Twitter

L’intelligence artificielle rend plus facile que jamais la manipulation des élections. L’opérateur ChatGPT OpenAI a maintenant présenté un plan pour minimiser le risque d’utilisation abusive. Le timing n’est pas une coïncidence.

Cette année, il y aura des élections dans plus de pays que jamais auparavant : dans plus de 50 pays, la population vote pour son leadership politique. Dans le même temps, le risque de manipulation est plus élevé que jamais. Grâce à la révolution de l’intelligence artificielle générative, des images, des textes et même des vidéos peuvent être créés en un instant pour donner une mauvaise image de l’adversaire. Avec OpenAI, l’une des entreprises à la pointe du développement de l’IA s’engage désormais à mettre un terme à cela.

L’opérateur était conscient que le danger était grand ChatGPT en est conscient depuis longtemps. “Je suis nerveux quant à l’impact que l’IA aura sur les élections futures”, a admis l’été dernier le patron d’OpenAI, Sam Altman, au service de messages courts X, anciennement Twitter. « Une persuasion individuelle personnalisée, associée à des médias de haute qualité, développera un pouvoir considérable », estime-t-il. Cinq mois plus tard, l’entreprise annonce exactement les mesures qu’elle souhaite prendre pour éviter cela.

Peur de la manipulation

Protéger les élections contre la manipulation est l’affaire de tous, souligne l’entreprise dans son blog. “Et nous voulons nous assurer que notre technologie ne soit pas utilisée d’une manière qui pourrait nuire à ce processus.” Plusieurs approches ont été développées pour éviter une utilisation abusive de ChatGPT – de loin l’IA de création de texte la plus connue – et de l’IA de création d’images Dall-E.

ChatGPT ne devrait plus pouvoir créer de campagnes politiques ni rédiger de textes de lobbying. La création de chatbots imitant des candidats politiques est également interdite. Afin de pouvoir inclure des informations politiques actuelles, l’entreprise travaille également en étroite collaboration avec des éditeurs d’information internationaux. L’IA reçoit désormais des informations sur la loi électorale américaine directement de l’organisation électorale non partisane NASS.

Depuis que plusieurs images d’hommes politiques d’IA sont devenues virales l’année dernière, Dall-E devrait également bénéficier de mesures de protection. OpenAI travaille avec une coalition de sociétés d’IA pour incorporer des filigranes dans les images créées avec Dall-E. De cette manière, les contrefaçons d’IA devraient être identifiées rapidement. Un outil dit de « classification d’origine » est destiné à aider à reconnaître les images créées avec Dall-E même sans filigrane. Toutes ces mesures devraient être mises en œuvre dans un avenir proche.

Mesures en retard

Il est en fait surprenant que l’industrie de l’IA commence seulement maintenant à mettre en œuvre de telles mesures. L’expérience des dernières années sur les réseaux sociaux a montré à quel point les acteurs politiques se livrent à des abus lorsque les nouvelles technologies le permettent. Les outils qui peuvent être utilisés pour créer du nouveau contenu en un rien de temps auraient dû être capables de réfléchir beaucoup plus tôt aux éventuels abus et aux contre-mesures appropriées.

Il existe déjà suffisamment d’exemples. L’année dernière, des images de l’arrestation de Donald Trump créées par l’IA ont circulé, et l’AfD a utilisé des images de prétendus réfugiés pour attiser l’ambiance. Après la conférence du parti fondateur, des images de boîtes de pizza laissées sur place ont provoqué la colère sur les réseaux sociaux – même après que les images ont été identifiées comme étant créées par l’IA (pour en savoir plus, cliquez ici).

Super année électorale mondiale

Les mesures n’auraient pas dû tarder à arriver : avec les États-Unis, l’Inde, la Grande-Bretagne, la Russie et de nombreux autres pays, près de la moitié de la population mondiale sera appelée aux urnes cette année dans plus de 50 pays. En particulier, l’élection aux États-Unis entre l’actuel président Joe Biden et son probable challenger Donald Trump est considérée comme révolutionnaire – et en même temps comporte un énorme risque de manipulation.

Il reste à voir dans quelle mesure les plans d’OpenAI peuvent réellement contrôler les abus. Les sociétés de médias sociaux comme Meta luttent depuis des années contre la manipulation en utilisant des moyens toujours nouveaux. Malgré des succès mesurables, ils n’ont pas encore maîtrisé le plus grand danger : si les électeurs veulent croire aux faux rapports, même une vérification des faits ne les arrête souvent pas.

Sources:OpenAI, Axios, PA, X




#Élections #comment #ChatGPT #doit #être #protégé #contre #les #abus #lors #des #campagnes #électorales
1705441037

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT