2024-01-16 20:12:00
Stratégie contre la manipulation
Comment OpenAI veut empêcher l’utilisation abusive de l’intelligence artificielle dans la campagne électorale américaine
L’intelligence artificielle rend plus facile que jamais la manipulation des élections. L’opérateur ChatGPT OpenAI a maintenant présenté un plan pour minimiser le risque d’utilisation abusive. Le timing n’est pas une coïncidence.
Cette année, il y aura des élections dans plus de pays que jamais auparavant : dans plus de 50 pays, la population vote pour son leadership politique. Dans le même temps, le risque de manipulation est plus élevé que jamais. Grâce à la révolution de l’intelligence artificielle générative, des images, des textes et même des vidéos peuvent être créés en un instant pour donner une mauvaise image de l’adversaire. Avec OpenAI, l’une des entreprises à la pointe du développement de l’IA s’engage désormais à mettre un terme à cela.
L’opérateur était conscient que le danger était grand ChatGPT en est conscient depuis longtemps. “Je suis nerveux quant à l’impact que l’IA aura sur les élections futures”, a admis l’été dernier le patron d’OpenAI, Sam Altman, au service de messages courts X, anciennement Twitter. « Une persuasion individuelle personnalisée, associée à des médias de haute qualité, développera un pouvoir considérable », estime-t-il. Cinq mois plus tard, l’entreprise annonce exactement les mesures qu’elle souhaite prendre pour éviter cela.
Peur de la manipulation
Protéger les élections contre la manipulation est l’affaire de tous, souligne l’entreprise dans son blog. “Et nous voulons nous assurer que notre technologie ne soit pas utilisée d’une manière qui pourrait nuire à ce processus.” Plusieurs approches ont été développées pour éviter une utilisation abusive de ChatGPT – de loin l’IA de création de texte la plus connue – et de l’IA de création d’images Dall-E.
ChatGPT ne devrait plus pouvoir créer de campagnes politiques ni rédiger de textes de lobbying. La création de chatbots imitant des candidats politiques est également interdite. Afin de pouvoir inclure des informations politiques actuelles, l’entreprise travaille également en étroite collaboration avec des éditeurs d’information internationaux. L’IA reçoit désormais des informations sur la loi électorale américaine directement de l’organisation électorale non partisane NASS.
Depuis que plusieurs images d’hommes politiques d’IA sont devenues virales l’année dernière, Dall-E devrait également bénéficier de mesures de protection. OpenAI travaille avec une coalition de sociétés d’IA pour incorporer des filigranes dans les images créées avec Dall-E. De cette manière, les contrefaçons d’IA devraient être identifiées rapidement. Un outil dit de « classification d’origine » est destiné à aider à reconnaître les images créées avec Dall-E même sans filigrane. Toutes ces mesures devraient être mises en œuvre dans un avenir proche.
Mesures en retard
Il est en fait surprenant que l’industrie de l’IA commence seulement maintenant à mettre en œuvre de telles mesures. L’expérience des dernières années sur les réseaux sociaux a montré à quel point les acteurs politiques se livrent à des abus lorsque les nouvelles technologies le permettent. Les outils qui peuvent être utilisés pour créer du nouveau contenu en un rien de temps auraient dû être capables de réfléchir beaucoup plus tôt aux éventuels abus et aux contre-mesures appropriées.
Il existe déjà suffisamment d’exemples. L’année dernière, des images de l’arrestation de Donald Trump créées par l’IA ont circulé, et l’AfD a utilisé des images de prétendus réfugiés pour attiser l’ambiance. Après la conférence du parti fondateur, des images de boîtes de pizza laissées sur place ont provoqué la colère sur les réseaux sociaux – même après que les images ont été identifiées comme étant créées par l’IA (pour en savoir plus, cliquez ici).
Super année électorale mondiale
Les mesures n’auraient pas dû tarder à arriver : avec les États-Unis, l’Inde, la Grande-Bretagne, la Russie et de nombreux autres pays, près de la moitié de la population mondiale sera appelée aux urnes cette année dans plus de 50 pays. En particulier, l’élection aux États-Unis entre l’actuel président Joe Biden et son probable challenger Donald Trump est considérée comme révolutionnaire – et en même temps comporte un énorme risque de manipulation.
Il reste à voir dans quelle mesure les plans d’OpenAI peuvent réellement contrôler les abus. Les sociétés de médias sociaux comme Meta luttent depuis des années contre la manipulation en utilisant des moyens toujours nouveaux. Malgré des succès mesurables, ils n’ont pas encore maîtrisé le plus grand danger : si les électeurs veulent croire aux faux rapports, même une vérification des faits ne les arrête souvent pas.
#Élections #comment #ChatGPT #doit #être #protégé #contre #les #abus #lors #des #campagnes #électorales
1705441037