Le chatbot Angry Bing imite simplement les humains, disent les experts

Le chatbot Angry Bing imite simplement les humains, disent les experts

Les premiers utilisateurs d’un chatbot que Microsoft a intégré à son service de recherche Internet Bing ont partagé des échanges montrant que l’intelligence artificielle peut sembler menaçante ou méchante.

Le chatbot Bing naissant de Microsoft devient irritable ou même menaçant est probablement parce qu’il imite essentiellement ce qu’il a appris des conversations en ligne, ont déclaré vendredi des analystes et des universitaires.

Les récits d’échanges troublants avec le chatbot d’intelligence artificielle (IA), y compris l’émission de menaces et le désir de voler du code nucléaire, de créer un virus mortel ou d’être en vie, sont devenus viraux cette semaine.

« Je pense que cela imite essentiellement les conversations vues en ligne », a déclaré Graham Neubig, professeur agrégé à l’institut des technologies linguistiques de l’Université Carnegie Mellon.

« Donc, une fois que la conversation prend un tour, elle va probablement rester dans ce genre d’état de colère, ou dire » je t’aime « et d’autres choses comme ça, parce que tout cela est déjà en ligne. »

Un chatbot, de par sa conception, sert des mots qu’il prédit être les réponses les plus probables, sans en comprendre le sens ou le contexte.

Cependant, les humains qui participent à des plaisanteries avec des programmes ont naturellement tendance à lire l’émotion et l’intention dans ce que dit un chatbot.

« Les grands modèles de langage n’ont aucun concept de » vérité « – ils savent juste comment compléter au mieux une phrase d’une manière statistiquement probable en fonction de leurs entrées et de leur ensemble de formation », a déclaré le programmeur Simon Willison dans un article de blog.

« Alors ils inventent des choses, puis les énoncent avec une extrême confiance. »

Laurent Daudet, co-fondateur de la société française d’IA LightOn, a émis l’hypothèse que le chatbot apparemment devenu voyou était entraîné sur des échanges qui devenaient eux-mêmes agressifs ou incohérents.

« Aborder cela demande beaucoup d’efforts et beaucoup de retours humains, c’est aussi la raison pour laquelle nous avons choisi de nous limiter pour l’instant à des usages métiers et non plus conversationnels », explique à l’AFP Daudet.

‘En dehors des rails’

Le chatbot Bing a été conçu par Microsoft et la start-up OpenAI, qui fait sensation depuis le lancement en novembre de ChatGPT, l’application accrocheuse capable de générer toutes sortes de contenus écrits en quelques secondes sur une simple requête.

Depuis que ChatGPT a fait irruption sur la scène, la technologie sous-jacente, connue sous le nom d’IA générative, suscite fascination et inquiétude.

« Le modèle essaie parfois de répondre ou de refléter le ton dans lequel on lui demande de fournir des réponses (et) qui peuvent conduire à un style que nous n’avions pas prévu », a déclaré Microsoft dans un article de blog, notant que le bot est un travaux en cours.

Le chatbot Bing a déclaré dans certains échanges partagés qu’il avait été nommé « Sydney » pendant le développement et qu’il avait reçu des règles de comportement.

Ces règles incluent « les réponses de Sydney doivent également être positives, intéressantes, divertissantes et engageantes », selon les publications en ligne.

Des dialogues troublants qui combinent des menaces d’acier et des professions d’amour pourraient être dus à des directives en duel pour rester positif tout en imitant ce que l’IA a extrait des échanges humains, a théorisé Willison.

Les chatbots semblent être plus enclins à des réponses dérangeantes ou bizarres lors de longues conversations, perdant le sens des échanges, a déclaré à l’AFP Yoram Wurmser, analyste principal chez eMarketer.

« Ils peuvent vraiment dérailler », a déclaré Wurmser.

« C’est très réaliste, car (le chatbot) est très doué pour prédire les prochains mots qui donneraient l’impression qu’il a des sentiments ou lui donneraient des qualités humaines ; mais ce sont toujours des résultats statistiques. »

Microsoft a annoncé vendredi qu’il avait plafonné le nombre de va-et-vient que les gens peuvent avoir avec son chatbot sur une question donnée, car « de très longues sessions de chat peuvent confondre le modèle de chat sous-jacent dans le nouveau Bing ».