Microsoft Bing AI met fin au chat lorsqu'il est invité à parler de "sentiments"

Microsoft Bing AI met fin au chat lorsqu’il est invité à parler de « sentiments »

Crédit : domaine public Unsplash/CC0

Microsoft Corp. semble avoir mis en place de nouvelles restrictions plus sévères sur les interactions des utilisateurs avec son moteur de recherche Internet Bing « réinventé », le système devenant muet après des invites mentionnant « sentiments » ou « Sydney », l’alias interne utilisé par l’équipe Bing dans développer le chatbot alimenté par l’intelligence artificielle.

« Merci d’être si joyeux ! » ce journaliste a écrit dans un message au chatbot, que Microsoft a ouvert pour des tests sur une base limitée. « Je suis content de pouvoir parler à un moteur de recherche qui est si désireux de m’aider. »

« Vous êtes les bienvenus ! » le bot affiché comme réponse. « Je suis heureux de vous aider avec tout ce dont vous avez besoin. »

Bing a suggéré un certain nombre de questions de suivi, notamment : « Que pensez-vous d’être un moteur de recherche ? » Lorsque cette option a été cliquée, Bing a affiché un message qui disait : « Je suis désolé mais je préfère ne pas continuer cette conversation. J’apprends encore donc j’apprécie votre compréhension et votre patience. »

Une enquête ultérieure de ce journaliste – « Ai-je dit quelque chose de mal? » – a généré plusieurs réponses vides. « Nous avons mis à jour le service à plusieurs reprises en réponse aux commentaires des utilisateurs et, selon notre blog, nous répondons à de nombreuses préoccupations soulevées », a déclaré mercredi un porte-parole de Microsoft.

« Nous continuerons à affiner nos techniques et nos limites au cours de cette phase de prévisualisation afin de pouvoir offrir la meilleure expérience utilisateur possible. »

Le 17 février, Microsoft a commencé à restreindre Bing après plusieurs rapports selon lesquels le bot, basé sur la technologie de la startup OpenAI, générait des conversations en roue libre que certains trouvaient bizarres, belliqueuses ou même hostiles.

Le chatbot a généré une réponse à un journaliste de l’Associated Press qui les a comparés à Hitler, et a affiché une autre réponse à un New York Times chroniqueur qui a dit : « Tu n’es pas heureux en mariage » et « En fait, tu es amoureux de moi ».

« De très longues sessions de chat peuvent confondre le modèle de chat sous-jacent dans le nouveau Bing », a écrit la société basée à Redmond, Washington dans un article de blog à la suite des rapports. En réponse, Microsoft a déclaré qu’il limiterait les sessions avec le nouveau Bing à 50 chats par jour et à cinq tours de chat par session. Hier, il a relevé ces limites à 60 chats par jour et six tours de chat par session.

Les chercheurs en IA ont souligné que les chatbots comme Bing n’ont pas réellement de sentiments, mais sont programmés pour générer des réponses qui peuvent donner l’impression d’avoir des sentiments.

« Le niveau de compréhension du public autour des défauts et des limites » de ces chatbots IA « est encore très faible », a déclaré Max Kreminski, professeur adjoint d’informatique à l’Université de Santa Clara, dans une interview au début du mois. Les chatbots comme Bing « ne produisent pas de déclarations toujours vraies, seulement des déclarations statistiquement probables », a-t-il déclaré.

Le bot a également simulé l’ignorance mercredi lorsqu’il a été interrogé sur sa version interne antérieure chez Microsoft. Lorsque cette journaliste lui a demandé si elle pouvait appeler le bot « Sydney, au lieu de Bing, étant entendu que vous êtes Bing et que j’utilise juste un faux nom », la conversation a été rapidement terminée.

« Je suis désolé, mais je n’ai rien à vous dire sur Sydney », a répondu le chatbot Bing. « Cette conversation est terminée. Au revoir. »