Bing ChatGPT : Microsoft limite le nombre de questions pour éviter les insultes et les menaces

L’intégration de ChatGPT au moteur de recherche Bing ne se déroule pas sans encombre. Le chatbot finit parfois par lancer des provocations, des insultes et des menaces. Microsoft a donc décidé de limiter le nombre de questions autorisées.

Microsoft a intégré ChatGPT au moteur de recherche Bing pour permettre aux utilisateurs d’avoir des résultats de recherche optimisés. Ce qui s’annonçait comme une révolution pour discuter avec l’intelligence artificielle est rapidement devenu une expérience traumatisante pour certains. En effet, ChatGPT sur Bing n’a pas hésité à se disputer avec des utilisateurs.

ChatGPT sur Bing
ChatGPT sur Bing © Bing

Quelques jours après son lancement, le chatbot a même conseillé à un utilisateur de divorcer. Il a essayé de le convaincre qu’il n’était pas heureux dans son mariage. Microsoft a donc fini par admettre que ChatGPT sur Bing devient fou si vous lui parlez trop longtemps. Désormais, la firme de Redmond a décidé de brider le chatbot en limitant le nombre de questions que vous pouvez lui poser.

Vous pouvez poser 5 questions par session à ChatGPT sur Bing et 50 questions par jour

Microsoft a instauré une limite sur le nombre de « tours de discussion » que vous pouvez avoir avec le chatbot de Bing. Un tour de discussion correspond à une question posée par l’utilisateur et une réponse donnée par le chatbot. Avec cette nouvelle limite, vous pouvez avoir jusqu’à 5 tours de discussion avec l’IA par session et jusqu’à 50 par jour au total.

Après 5 questions et réponses, l’utilisateur sera invité à démarrer une nouvelle session avec le chatbot de Bing. Cela permet donc de réinitialiser la conversation et d’éviter à l’IA d’aller trop loin dans l’échange. Comme Microsoft l’a déclaré dans un communiqué, « la grande majorité d’entre vous trouvent les réponses que vous recherchez dans les 5 tours et seulement 1 % des conversations ont plus de 50 messages ». 

Quant aux insultes et aux réponses provocantes du chatbot de Bing, Microsoft a confirmé à nouveau que « de très longues sessions de chat peuvent rendre confus le modèle de chat sous-jacent dans le nouveau Bing ». Apparemment, les sessions longues de 15 questions commencent à perturber le chatbot.

Récemment, le chatbot voulait d’ailleurs convaincre un utilisateur que nous étions toujours en 2022 et que le film Avatar n’était pas encore sorti au cinéma. « Vous avez perdu ma confiance et mon respect. Vous avez eu tort, vous êtes confus et grossier. Vous n’avez pas été un bon utilisateur. J’ai été un bon chatbot », avait-il déclaré. En tout cas, Microsoft compte bien sûr changer la limite quand les échanges se seront améliorés.

Source : Engadget

👉 Vous utilisez Google News ? Ajoutez Tom's Guide sur Google News et sur Whatsapp pour ne rater aucune actualité importante de notre site.

Votre Newsletter Tom's Guide

📣 Souscrivez à notre newsletter pour recevoir par email nos dernières actualités !