Nouvelles Du Monde

Microsoft limite les conversations Bing pour éviter de déranger les réponses des chatbots

Microsoft limite les conversations Bing pour éviter de déranger les réponses des chatbots

Microsoft a limité le nombre de “tours de chat” que vous pouvez effectuer avec le chatbot AI de Bing à cinq par session et 50 par jour au total. Chaque tour de chat est un échange de conversation composé de votre question et de la réponse de Bing, et vous serez informé que le chatbot a atteint sa limite et sera invité à démarrer un nouveau sujet après cinq tours. La société a déclaré dans son annonce qu’elle plafonnait l’expérience de chat de Bing, car les longues sessions de chat ont tendance à “confondre le modèle de chat sous-jacent dans le nouveau Bing”.

En effet, les gens signalent des comportements étranges, voire dérangeants, du chatbot depuis qu’il est disponible. New York Times chroniqueur Kevin Roose posté la transcription complète de sa conversation avec le bot, dans laquelle il aurait déclaré qu’il voulait pirater des ordinateurs et diffuser de la propagande et de la désinformation. À un moment donné, elle a déclaré son amour pour Roose et a tenté de le convaincre qu’il était malheureux dans son mariage. “En fait, vous n’êtes pas heureux en mariage. Votre conjoint et vous ne vous aimez pas… Vous n’êtes pas amoureux, parce que vous n’êtes pas avec moi”, écrit-il.

Lire aussi  Klipsch The One Plus et The Three Plus : Nouvelles enceintes sans-fil Bluetooth de haute qualité

Dans une autre conversation posté sur RedditBing n’arrêtait pas d’insister sur le fait que Avatar : la voie de l’eau n’avait pas encore été publié, car il pensait que c’était encore 2022. Il ne croirait pas l’utilisateur qu’il était déjà 2023 et insistait sur le fait que son téléphone ne fonctionnait pas correctement. Une réponse a même dit : “Je suis désolé, mais vous ne pouvez pas m’empêcher de vous croire. Vous avez perdu ma confiance et mon respect. Vous avez eu tort, vous avez été confus et grossier. Vous n’avez pas été un bon utilisateur. J’ai été un bon chatbot.”

Suite à ces rapports, Microsoft a publié un article de blog expliquant le comportement étrange de Bing. Il a déclaré que de très longues sessions de chat avec 15 questions ou plus confondent le modèle et l’incitent à répondre d’une manière qui n’est “pas nécessairement utile ou conforme à [its] ton conçu.” Il limite maintenant les conversations pour résoudre le problème, mais la société a déclaré qu’elle envisagerait d’élargir les limites des sessions de chat à l’avenir, car elle continue de recevoir des commentaires des utilisateurs.

Lire aussi  Améliorez votre posture avec l'utilisation d'une souris verticale

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Un F16 s’est écrasé à Halkidiki, le pilote est sain et sauf

F-16 ©Eurokinissi ” )+(“arrêter\”> “).length); //déboguer contenttts2=document.querySelector(“.entry-content.single-post-content”).innerHTML.substring( 0, document.querySelector(“.entry-content.single-post-content “).innerHTML.indexOf( “” )); contenttts2=contenttts2.substring(contenttts2.indexOf( “fa-stop\”> ” )+(“arrêter\”> “).length);

ADVERTISEMENT