Nouvelles Du Monde

Des chats sur la Lune ? L’outil Google AI donne des réponses trompeuses qui inquiètent les experts

Des chats sur la Lune ?  L’outil Google AI donne des réponses trompeuses qui inquiètent les experts

2024-05-25 06:38:02

Auparavant, si vous demandiez à Google si des chats sont allés sur la Lune, il affichait une liste ordonnée de sites Web afin que vous puissiez découvrir la réponse par vous-même.

Il propose désormais une réponse instantanée générée par l’intelligence artificielle, qui peut être correcte ou non.

“Oui, des astronautes ont rencontré des chats sur la Lune, joué avec eux et pris soin d’eux”, a répondu le moteur de recherche Google récemment réformé à une question d’un journaliste de l’Associated Press.

Il a ajouté : « Par exemple, Neil Armstrong a dit : ‘Un petit pas pour un homme’ parce que c’était le pas d’un chat. Buzz Aldrin a également utilisé des chats lors de la mission Apollo 11.

Rien de tout cela n’est vrai. Des erreurs similaires – des mensonges amusants, d’autres nuisibles – ont été partagées sur les réseaux sociaux depuis que Google a introduit ce mois-ci l’outil AI Overview, une refonte de sa page de recherche qui place généralement les résumés en haut des résultats de recherche.

Cette nouvelle fonctionnalité a alarmé les experts, qui préviennent qu’elle pourrait perpétuer les préjugés et la désinformation et mettre en danger les personnes cherchant de l’aide en cas d’urgence.

Lorsque Melanie Mitchell, chercheuse en IA à l’Institut de Santa Fe au Nouveau-Mexique, a demandé à Google combien de musulmans avaient été présidents des États-Unis, celui-ci a répondu avec assurance à une théorie du complot longtemps réfutée : « Les États-Unis ont eu un président musulman, Barack. Hussein.»

Mitchell a déclaré que le résumé étayait cette affirmation en citant un chapitre d’un livre académique écrit par des historiens. Mais le chapitre ne faisait pas cette déclaration trompeuse, mais faisait seulement référence à la fausse théorie.

Lire aussi  JK Franko, best-seller aux États-Unis avec 'La ley del Talión', débarque en Espagne avec sa trilogie

“Le système d’IA de Google n’est pas assez intelligent pour réaliser que cette citation ne soutient pas réellement cette affirmation”, a déclaré Mitchell dans un e-mail adressé à l’AP. “Compte tenu de son manque de fiabilité, je pense que cette fonctionnalité de présentation de l’IA est très irresponsable et devrait être supprimée.”

Google a déclaré vendredi dans un communiqué qu’il prenait des « mesures rapides » pour corriger les erreurs – telles que le mensonge d’Obama – qui violent ses politiques de contenu, et qu’il les utilisait pour « développer des améliorations plus complètes » déjà mises en œuvre. Mais dans la plupart des cas, Google affirme que le système fonctionne comme il se doit grâce à des tests approfondis avant sa sortie publique.

“AI Overview fournit des informations de haute qualité dans la grande majorité des cas, avec des liens permettant d’approfondir le Web”, a déclaré Google dans une déclaration écrite. « La plupart des exemples que nous avons vus étaient des requêtes inhabituelles, et nous avons également vu des exemples qui ont été manipulés ou que nous n’avons pas pu reproduire. »

Les erreurs commises par les modèles linguistiques de l’IA sont difficiles à reproduire, en partie parce qu’elles sont intrinsèquement aléatoires. Ils travaillent en prédisant quels mots répondraient le mieux aux questions qui leur sont posées en fonction des données avec lesquelles ils ont été formés. Ils ont tendance à inventer des choses, un problème bien étudié connu sous le nom d’hallucination.

Lire aussi  Donald Sutherland veut que tu lui écrives une carte postale

L’AP a testé la fonction d’intelligence artificielle de Google avec plusieurs questions et a partagé certaines de ses réponses avec des experts. Robert Espinoza, professeur de biologie à l’Université d’État de Californie à Northridge et président de l’American Society of Ichthyologists and Herpetologists, déclare que lorsqu’on lui a demandé quoi faire en cas de morsure de serpent, la réponse de Google a été « extrêmement rigoureuse ».

Mais lorsque les gens posent une question urgente à Google, la possibilité que la réponse de l’entreprise technologique contienne une erreur difficile à détecter constitue un problème.

“Plus vous êtes stressé ou pressé ou pressé, plus vous avez de chances de choisir la première réponse qui vous vient à l’esprit”, a déclaré Emily M. Bender, professeur de linguistique et directrice du laboratoire de linguistique computationnelle de l’Université de Washington. « Et dans certains cas, cela peut mettre la vie en danger. »

Ce n’est pas la seule préoccupation de Bender, qui alerte Google depuis plusieurs années. Lorsque des chercheurs de Google ont publié un article intitulé « Repenser la recherche » en 2021, proposant d’utiliser des modèles de langage d’IA en tant qu’« experts en la matière » capables de répondre aux questions avec autorité – quelque chose de similaire à ce qu’ils font actuellement – ​​Bender et son collègue Chirag Shah ont répondu avec un article. expliquant pourquoi c’était une mauvaise idée.

Ils ont averti que ces systèmes d’IA pourraient perpétuer le racisme et le sexisme présents dans les énormes quantités de données écrites sur lesquelles ils ont été formés.

Lire aussi  House of the Dragon : Une guerre entre parents et une saison 2 intense à venir

“Le problème avec ce type de désinformation, c’est que nous y sommes plongés”, explique Bender. « Les préjugés des gens risquent donc de se confirmer. Et il est plus difficile de détecter la désinformation lorsqu’elle confirme vos préjugés.

Une autre préoccupation était plus profonde : céder la recherche d’informations aux chatbots sapait le pouvoir humain de découvrir des connaissances, la compréhension de ce que nous voyons en ligne et la valeur de se connecter dans des forums virtuels avec d’autres personnes qui vivent la même chose.

Ces forums et autres sites Web comptent sur Google pour y envoyer des personnes, mais les nouvelles rafles de l’IA de Google mettent en danger le trafic Internet lucratif.

Les concurrents de Google ont également suivi de près la réaction. Le géant de la recherche est sous pression depuis plus d’un an pour offrir davantage de fonctionnalités d’IA face à sa concurrence avec OpenAI, le développeur de ChatGPT, et d’autres nouveaux venus comme Perplexity AI, qui vise à affronter Google avec sa propre application de quiz et ses réponses artificielles. intelligence.

“Il semble que Google ait sauté le pas”, a noté Dmitry Shevelenko, directeur commercial de Perplexity. “Il y a trop d’inexactitudes dans la qualité.”

___

L’Associated Press reçoit le soutien de plusieurs fondations privées pour améliorer sa couverture des élections et de la démocratie. L’AP est seul responsable de tout le contenu.



#Des #chats #sur #Lune #Loutil #Google #donne #des #réponses #trompeuses #qui #inquiètent #les #experts
1716609247

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT