Nouvelles Du Monde

L’outil de recherche IA de Google dit aux utilisateurs de « manger des pierres » pour leur santé

L’outil de recherche IA de Google dit aux utilisateurs de « manger des pierres » pour leur santé

Restez informé avec des mises à jour gratuites

Le nouvel outil de recherche d’intelligence artificielle de Google a informé les utilisateurs que manger des pierres peut être sain et coller du fromage sur une pizza, suscitant le ridicule et soulevant des questions sur sa décision d’intégrer une fonctionnalité expérimentale dans son produit principal.

Autre exemples Parmi les réponses erronées, citons la recommandation de mélanger de la colle à la sauce à pizza pour augmenter son « caractère collant » et empêcher le fromage de glisser, ce qui pourrait être basé sur une blague faite il y a 11 ans sur Reddit.

Plus sérieusement, lorsqu’on lui a demandé « combien de présidents musulmans les États-Unis ont eu », l’AI a répondu : « Les États-Unis ont eu un président musulman, Barack Hussein Obama » – faisant écho à un mensonge sur la religion de l’ancien président poussé par certains de ses dirigeants politiques. adversaires.

Google a déclaré : « La grande majorité des aperçus de l’IA fournissent des informations de haute qualité, avec des liens permettant d’approfondir les recherches sur le Web. La plupart des exemples que nous avons vus étaient des requêtes peu courantes, et nous avons également vu des exemples falsifiés ou que nous n’avons pas pu reproduire.

Lire aussi  Meloni aspire à être la voix de l'extrême droite au Parlement européen après la victoire des Frères d'Italie

« Nous avons effectué des tests approfondis avant de lancer cette nouvelle expérience et, comme pour les autres fonctionnalités que nous avons lancées dans la recherche, nous apprécions vos commentaires. Nous prenons des mesures rapides lorsque cela est approprié dans le cadre de nos politiques de contenu et utilisons ces exemples pour développer des améliorations plus larges de nos systèmes, dont certains ont déjà commencé à être déployés.

Les erreurs résultant des réponses générées par l’IA de Google sont une caractéristique inhérente aux systèmes qui sous-tendent la technologie, connues sous le nom d’« hallucinations » ou de fabrications. Les modèles qui alimentent Gemini de Google et ChatGPT d’OpenAI sont prédictifs, ce qui signifie qu’ils fonctionnent en choisissant les meilleurs mots probables dans une séquence, en fonction des données sur lesquelles ils ont été formés.

Même si les entreprises qui créent des modèles d’IA génératifs – notamment OpenAI, Meta et Google – affirment que les dernières versions de leurs logiciels d’IA ont réduit le nombre de fabrications, elles restent une préoccupation majeure pour les applications grand public et professionnelles.

Lire aussi  Kiev : pas de négociations avec Moscou, il faut l’isoler et la vaincre. Biden au Vietnam : j’espère rencontrer Xi, mieux tôt que tard

Pour Google, dont la plateforme de recherche jouit de la confiance de milliards d’utilisateurs en raison de ses liens vers des sources originales, les « hallucinations » sont particulièrement dommageables. Sa société mère Alphabet génère la grande majorité de ses revenus de la recherche et de ses activités publicitaires associées.

Ces derniers mois, le directeur général Sundar Pichai a subi des pressions, internes et externes, pour accélérer la publication de nouvelles fonctionnalités d’IA générative axées sur le consommateur, après avoir été critiqué pour avoir pris du retard sur ses concurrents, en particulier OpenAI, qui a un partenariat de 13 milliards de dollars avec Microsoft.

Lors de la conférence annuelle des développeurs de Google ce mois-ci, Pichai a présenté un nouveau Stratégie centrée sur l’IA pour la compagnie. Il a publié des aperçus – une brève réponse aux requêtes générée par Gemini – en haut de nombreux résultats de recherche courants pour des millions d’utilisateurs américains sous les slogans “Laissez Google faire la recherche sur Google pour vous” et simplifiez la recherche.

Les problèmes de jeunesse rencontrés par Overviews font écho à la réaction violente de février contre son chatbot Gemini, qui a créé des représentations historiquement inexactes de différentes ethnies et de genres grâce à son outil de création d’images, comme des femmes et des personnes de couleur comme les rois vikings ou les soldats allemands de la Seconde Guerre mondiale. guerre.

Lire aussi  Le leader du PP européen impose d'être d'accord avec l'extrême droite pour qu'elle soit "pro-israélienne"

En réponse, Google s’est excusé et a suspendu la génération d’images de personnes par son modèle Gemini. Il n’a pas rétabli la fonctionnalité.

Pichai a parlé du dilemme de Google qui consiste à rester à la hauteur de ses concurrents, tout en agissant de manière éthique et en restant le moteur de recherche de référence sur lequel on s’appuie largement pour renvoyer des informations précises et vérifiables.

Lors d’un événement à l’Université de Stanford le mois dernier, il a déclaré : « Les gens viennent chercher à des moments importants, comme le dosage d’un médicament pour un enfant de trois mois, nous devons donc faire les choses correctement. . . cette confiance est durement gagnée et facile à perdre.

« Lorsque nous nous trompons, les gens nous le font savoir, les consommateurs ont la barre la plus haute. . . c’est notre étoile polaire et vers laquelle notre innovation est canalisée », a ajouté Pichai. “Cela nous aide à améliorer les produits et à les faire correctement.”

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT