Nouvelles Du Monde

Intelligence artificielle : faire confiance à ChatGPT permet de l’améliorer | Technologie

Intelligence artificielle : faire confiance à ChatGPT permet de l’améliorer |  Technologie

2023-11-30 07:20:00

Lorsque l’écrivain et journaliste Juan José Millás a eu une conversation avec ChatGPT en septembre, il a fait semblant de faire une séance de psychanalyse avec l’outil. Il voulait savoir si, d’après le test de Turing, le chatbot Je pouvais lui parler comme une vraie personne, plus précisément comme un psychanalyste, et non comme un ordinateur. Le journaliste a expliqué ses rêves et ses peurs, attendant que l’intelligence artificielle le guide dans sa thérapie, mais elle lui a toujours dit, entre autres, qu’il s’agissait d’une situation imaginaire et a précisé qu’il s’agissait d’un modèle de langage. Millás a qualifié son psychanalyste virtuel d’étroit d’esprit et d’oublieux et lui a finalement dit qu’il n’avait pas réussi le test.

Dans des conversations comme celle de Millás, les croyances antérieures d’une personne à propos d’un agent d’intelligence artificielle (IA), tel que ChatGPT, ont un effet sur la conversation et sur la perception de fiabilité, d’empathie et d’efficacité de l’outil. C’est ce qu’ont découvert des chercheurs de deux centres américains, le Massachusetts Institute of Technology (MIT) et l’Arizona State University, en une étude récente dans la revue Intelligence des machines naturelles. « Nous avons prouvé que l’intelligence artificielle est celle du spectateur. Lorsque nous décrivons aux utilisateurs ce qu’est un agent IA, cela change non seulement leur modèle mental, mais également leur comportement. Et puisque l’outil répond à l’utilisateur, lorsque la personne change de comportement, cela change également le comportement de l’outil », explique Pat Pataranutaporn, étudiant diplômé du groupe Fluid Interfaces du MIT Media Lab et co-auteur de l’étude.

« Beaucoup de gens pensent que l’IA n’est qu’un problème d’ingénierie, mais que son succès est aussi un problème de facteurs humains », révèle Pattie Maes, auteur de l’étude et professeur au MIT. La façon dont nous en parlons peut avoir un impact énorme sur l’efficacité de ces systèmes. “Nous attribuons des formes et des qualités humaines à l’IA, la faisant paraître plus humaine ou individuelle qu’elle ne l’est réellement”, ajoute Ruby Liu.

Lire aussi  Kaya, un chien d'assistance qui a aidé son propriétaire à défendre le traitement du SSPT et la santé des anciens combattants, est décédé

Les chercheurs ont rassemblé 310 participants et les ont répartis au hasard en trois groupes, chacun possédant des informations générales différentes sur l’IA. Ils devaient parler de santé mentale avec un agent d’IA pendant environ 30 minutes, déterminer s’ils le recommanderaient à un ami et l’évaluer. Le premier groupe a été informé que l’agent n’avait aucune intention dans la conversation, le deuxième que l’intelligence artificielle avait des intentions bienveillantes et se préoccupait de leur bien-être, et le troisième qu’elle avait des intentions malveillantes et tenterait de les tromper.

La moitié des participants de chaque groupe ont parlé à un agent d’IA basé sur le modèle de langage génératif GPT-3, un modèle d’apprentissage en profondeur capable de générer un texte de type humain. L’autre moitié l’a fait avec une mise en œuvre du chatbot ELIZA, un programme de traitement du langage naturel moins sophistiqué et basé sur des règles, développé au MIT dans les années 1960.

Les résultats de la recherche ont révélé que la prédisposition à l’outil était décisive : 88 % des personnes ayant reçu des informations positives et 79 % de celles ayant reçu des informations neutres pensaient que l’IA était respectivement empathique ou neutre. Ángel Delgado, ingénieur en IA chez Paradigma Digital, estime que la majorité positive est également due à l’utilisation du GPT-3, pour avoir été le premier à réussir le test de Turing : « Il consiste à laisser une personne interagir avec l’IA sans le dire. Si c’est une IA ou non, voyons si vous pouvez la deviner. GPT-3 est le premier modèle de langage qui a réussi à donner de si bons résultats qu’il ressemble à un humain.

Lire aussi  Daedalia Planum

Les personnes à qui l’on disait que l’outil était attentionné avaient tendance à en parler de manière plus positive, ce qui rendait également les réponses de l’agent plus positives. Ramón López de Mántaras, directeur du Institut de recherche en intelligence artificielle du CSIC, explique que plus on parle à l’outil, plus il apprend : « L’interlocuteur enseigne l’intelligence artificielle. Vous pouvez corriger, confirmer et noter leur réponse », ajoute-t-il.

De la peur de “Terminator” au manque de critiques

Les déclarations de amorçage Les messages négatifs (c’est-à-dire les informations que nous donnons à quelqu’un juste avant d’interagir avec l’agent IA) ont eu l’effet inverse : seuls 44 % des participants ayant reçu des informations désobligeantes sur l’outil lui faisaient confiance. « Avec les déclarations négatives, au lieu de les préparer à croire quelque chose, nous les préparions à se forger leur propre opinion. Si vous dites à quelqu’un de se méfier de quelque chose, il risque de devenir encore plus méfiant en général », explique Ruby Liu.

L’un des principaux moteurs des réflexions négatives sur l’IA est l’influence de la science-fiction, explique Patti Maes : « Des films comme Terminateur oui Matrice Ils décrivent des scénarios dans lesquels l’IA prend conscience d’elle-même et provoque la chute de l’humanité. Ces récits fictifs contribuent à la crainte que l’IA puisse prendre le dessus et surpasser l’intelligence humaine, ce qui constituerait une menace pour notre existence. »

Lire aussi  Les Ecovacs DEEBOT T30 OMNI et T30 OMNI PRO arrivent en Italie. Actualités et promo de lancement • Techzilla

Selon les résultats de l’étude, les pensées antérieures des modèles de langage peuvent avoir un impact si fort qu’elles pourraient être utilisées pour faire croire à l’agent qu’il est plus capable qu’il ne l’est, lui faire trop confiance ou suivre des conseils incorrects. López de Mántaras l’explique sans détour : « L’outil avec lequel vous interagissez n’est pas une personne intelligente. « Les gens croient que la machine est intelligente et prêtent attention à ce qu’elle dit sans aucune pensée critique. » Pour lui, « nous devenons moins critiques et moins capables de réfléchir ».

Les experts conviennent que nous devons être conscients du fonctionnement de l’intelligence artificielle et comprendre qu’il s’agit de quelque chose de programmé. « Nous devrions préparer davantage les gens à être plus prudents et à comprendre que les agents de l’IA peuvent avoir des hallucinations et sont biaisés. « La façon dont nous parlons des systèmes d’IA aura un impact important sur la manière dont les gens y réagiront », explique Maes.

Vous pouvez suivre Technologie EL PAÍS dans Facebook oui X ou inscrivez-vous ici pour recevoir notre bulletin d’information semanal.

Abonnez-vous pour continuer la lecture

Lire sans limites

_




#Intelligence #artificielle #faire #confiance #ChatGPT #permet #laméliorer #Technologie
1701332892

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT