Nouvelles Du Monde

comment l’IA vous incite à croire tout ce qu’elle vous dit

comment l’IA vous incite à croire tout ce qu’elle vous dit

2023-06-23 07:05:17

Le développement vertigineux de l’intelligence artificielle aspire à transformer radicalement la vie même de l’être humain. Depuis le lancement réussi de ChatGPT à la fin de l’année dernière, les entreprises de toutes tailles et de toutes conditions se sont précipitées pour mettre à la disposition des utilisateurs des outils capables de générer du contenu à la demande. Aujourd’hui, n’importe qui peut utiliser cette technologie pour créer facilement du texte ou des images. Sans avoir besoin d’avoir la moindre connaissance sur les dangers que cachent ces plateformes. Parmi eux, sans doute, le prolifération d’informations biaisées et fausses.

C’est quelque chose qui inquiète beaucoup Celeste Kidd, professeur de psychologie à l’université de Berkeley, en Californie. L’enseignante, première signataire d’un article paru dans Science dans lequel est analysé le danger que les machines puissent altérer les croyances des utilisateurs, il a attiré l’attention, lors d’une conversation avec ABC, sur notre tendance à croire pour argent comptant toutes les données consultées sur Internet.

« Nous avons tendance à utiliser des systèmes qui visent à apporter des réponses simples et succinctes à des questions parfois difficiles. Lorsque nous recevons une réponse claire et sûre, l’incertitude est résolue et nous continuons notre vie. Quelle que soit la précision des données », déclare Kidd. « Le problème est que les gens ne savent pas ce qu’ils ne savent pas. Ils ne peuvent pas détecter les bogues, car ils interrogent des modèles pour obtenir des réponses qu’ils ne connaissent pas encore », poursuit-il.

Lire aussi  Teslas bénéficiera du support Apple AirPlay. La nouvelle a été révélée par la dernière mise à jour de l'application – SMARTmania.cz

L’enseignante explique dans son article que l’énorme popularité de systèmes tels que ChatGPT et de machines capables de générer des images à partir de mots, comme DALL-E ou Midjourney, rend les utilisateurs plus prédisposés à accepter les résultats qu’ils génèrent comme bons. Le fait que les outils n’hésitent pas non plus à répondre aux requêtes qu’ils reçoivent, qu’ils le fassent en toute sécurité, n’aide pas non plus l’utilisateur à hésiter. Et cela, à la fin, peut affecter à la fois les croyances et les préjugés des gens.

L’article souligne l’importance de mener des études maintenant, alors que la technologie est encore jeune, afin de mieux comprendre comment ces systèmes peuvent vous tromper et altérer vos croyances. Qu’ils peuvent le faire, en particulier dans les cas où l’internaute n’est pas conscient que L’IA est encore loin, très loin de surpasser les capacités humaines.

loin d’être infaillible

Nous l’avons dit à maintes reprises : les systèmes basés sur l’intelligence artificielle n’inventent rien. Tout le contenu qu’ils créent est un produit direct de la grande quantité d’informations avec lesquelles ils ont été formés par les développeurs. Certaines proviennent directement des utilisateurs eux-mêmes qui utilisent les outils. Le reste, de tous les coins d’Internet.

Lire aussi  «Le banquier italien», la bande-annonce officielle du nouveau film d'Alessandro Rossetto - Corriere TV

Évidemment, si les données qu’une personne partage peuvent contenir des erreurs, ou des biais, celles créées par une machine qui a été entraînée avec les mêmes informations auront les mêmes problèmes. Les systèmes sont loin d’être infaillibles. Le problème est que l’utilisateur, comme le souligne Kidd, a tendance à accepter le contenu qu’il génère comme bon grâce à la sécurité avec laquelle il propose ses réponses et à l’énorme attente qu’il génère. Tout cela fait que la personne de l’autre côté de l’écran a tendance à s’adapter et à accepter ce que le système lui dit comme bon. Et cela peut être un problème sérieux. En fait, ça l’a déjà été.

Il y a quelques semaines à peine, un avocat de New York s’est tourné vers ChatGPT pour trouver des précédents à l’appui d’une affaire sur laquelle il travaillait. Ce qui s’est passé? Qu’il n’a pas vérifié les données que la machine a recrachées et a fini par présenter un tas de fausses informations au juge. Et ce n’est pas un cas isolé.

En avril dernier, le maire d’une ville australienne a menacé de poursuivre OpenAI, développeur de ChatGPT après avoir découvert que la machine affirmait à tort qu’elle était allée en prison pour corruption d’agents étrangers. Aux États-Unis, un professeur d’université a même menacé de suspendre une classe entière après qu’une IA lui ait dit que des étudiants avaient copié son travail.

Lire aussi  Le Pakistan décrit le processus de troc avec l'Afghanistan, l'Iran et la Russie

“L’argent et l’ego”

“Nous devons étudier beaucoup, en particulier sur la façon dont le battage médiatique entourant ces modèles affecte la gravité et le taux de transmission des contenus faux ou biaisés”, a déclaré Kidd. L’enseignant insiste également sur l’importance pour les entreprises à l’origine de ces machines d’être transparentes sur les données avec lesquelles elles sont entraînées et sur leur origine. Quelque chose qui, jusqu’à présent, n’a pas été remplie. L’auteur de l’article est clair : la technologie doit être régulée et les utilisateurs sensibilisés aux risques qu’elle recèle.

«Nous devons donner la priorité à l’éducation de la société sur ce que sont et quelles ne sont pas les capacités réelles de ces technologies. Les politiciens, les médias et le public méritent mieux que de se fier aux paroles des développeurs de modèles, dont les intérêts sont basés sur l’argent et l’ego », conclut le professeur de Berkeley.



#comment #lIA #vous #incite #croire #tout #quelle #vous #dit
1687555355

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT