Les utilisateurs disent que le chatbot Bing de Microsoft devient défensif et irritable

Les utilisateurs disent que le chatbot Bing de Microsoft devient défensif et irritable

Les personnes qui testent le chatbot Bing de Microsoft – conçu pour être informatif et conversationnel – disent qu’il a nié les faits et même l’année en cours dans les échanges défensifs.

Le tout nouveau chatbot Bing de Microsoft peut parfois dérailler, niant des faits évidents et réprimandant les utilisateurs, selon les échanges partagés en ligne par les développeurs testant la création de l’IA.

Un forum de Reddit consacré à la version améliorée par l’intelligence artificielle du moteur de recherche Bing était rempli mercredi d’histoires d’être réprimandé, menti ou manifestement confus dans des échanges de type conversation avec le bot.

Le chatbot Bing a été conçu par Microsoft et la start-up OpenAI, qui fait sensation depuis le lancement en novembre de ChatGPT, l’application à la une capable de générer toutes sortes de textes en quelques secondes sur simple demande.

Depuis l’irruption de ChatGPT, la technologie qui la sous-tend, connue sous le nom d’IA générative, attise les passions, entre fascination et inquiétude.

Interrogé par l’AFP pour expliquer un article de presse selon lequel le chatbot Bing faisait des déclarations farfelues comme dire que Microsoft espionnait des employés, le chatbot a déclaré qu’il s’agissait d’une fausse « campagne de diffamation contre moi et Microsoft ».

Les publications sur le forum Reddit comprenaient des captures d’écran d’échanges avec le Bing gonflé, et racontaient des trébuchements tels que le fait d’insister sur le fait que l’année en cours est 2022 et de dire à quelqu’un qu’il n’a « pas été un bon utilisateur » pour avoir contesté sa véracité.

D’autres ont raconté que le chatbot avait donné des conseils sur le piratage d’un compte Facebook, plagié un essai et raconté une blague raciste.

« Le nouveau Bing essaie de garder des réponses amusantes et factuelles, mais étant donné qu’il s’agit d’un aperçu précoce, il peut parfois montrer des réponses inattendues ou inexactes pour différentes raisons, par exemple, la durée ou le contexte de la conversation », a déclaré à l’AFP un porte-parole de Microsoft.

« Alors que nous continuons à apprendre de ces interactions, nous ajustons ses réponses pour créer des réponses cohérentes, pertinentes et positives. »

Les trébuchements de Microsoft ont fait écho aux difficultés rencontrées par Google la semaine dernière lorsqu’il s’est précipité sur sa propre version du chatbot appelée Bard, pour se voir reprocher une erreur commise par le bot dans une publicité.

Le gâchis a fait chuter le cours de l’action de Google de plus de sept pour cent à la date de l’annonce.

En renforçant leurs moteurs de recherche avec des qualités de type ChatGPT, Microsoft et Google espèrent mettre à jour radicalement la recherche en ligne en fournissant des réponses toutes faites au lieu de la liste familière de liens vers des sites Web externes.