ChatGPT est génial.  Vous l'utilisez simplement de manière incorrecte

Le rôle paradoxal de « l’humanité » dans l’agressivité envers les agents conversationnels

Les assistants virtuels, appelés chatbots, font désormais partie intégrante de nombreux sites Web d'entreprises et jouent un rôle de plus en plus important au sein de l'entreprise. Une étude de la TU Dresden publiée dans le Journal des systèmes d'information de gestion a étudié si les erreurs commises par les chatbots conduisaient à un comportement agressif de la part de leurs utilisateurs et quelle influence la perception humaine des assistants virtuels par les utilisateurs avait sur leurs réactions.

Les chatbots sont conçus pour permettre aux internautes de trouver plus facilement et rapidement les informations dont ils ont besoin en répondant directement aux questions et demandes. Cependant, les réactions aux chatbots ne se sont pas toujours révélées positives, explique le professeur Alfred Benedikt Brendel de la TU Dresden.

« Si un chatbot donne des réponses incorrectes ou confuses, cela peut déclencher une agression des utilisateurs envers l'interlocuteur numérique », explique le titulaire de la Chaire Systèmes d'information, notamment Systèmes et Services intelligents.

Dans le pire des cas, l'agression envers l'assistant virtuel, y compris la violence verbale, peut également avoir d'autres répercussions, comme par exemple accroître l'attitude négative des utilisateurs à l'égard du fournisseur ou du site Web lui-même.

Dans leur étude, l’équipe de recherche internationale dirigée par Alfred Brendel a émis l’hypothèse que la conception des chatbots a une influence sur la façon dont les utilisateurs réagissent aux réponses insatisfaisantes. Si un chatbot est doté d’attributs humains, on peut supposer que les comportements agressifs se produisent moins fréquemment qu’avec un chatbot de conception neutre.

« Dans nos expériences, certains participants ont utilisé un chatbot humain doté d'un nom, d'un sexe et d'une photo. Il a répondu aux questions de manière très conviviale et a renforcé ses messages avec des émojis appropriés. » En revanche, le chatbot neutre, avec lequel une autre partie des participants à l’étude interagissait, ne contenait aucun élément de conception de ce type.

Les résultats de l’étude montrent avant tout que le chatbot humain augmente généralement la satisfaction des utilisateurs. Ceci, à son tour, réduit également l’apparition de frustration. Cependant, si un chatbot donne des réponses insatisfaisantes, cela entraîne de la frustration et de l’agressivité même envers un chatbot aux attributs humains, ce qui contredit l’hypothèse initiale des chercheurs. Au total, environ 10 % des utilisateurs font preuve d’un comportement agressif envers les assistants virtuels.

Cependant, contrairement à un chatbot neutre, l’intensité du comportement agressif est réduite face à un chatbot plus humain. Les utilisateurs étaient moins susceptibles d’utiliser un langage offensant lorsqu’ils interagissaient avec un chatbot humain, par exemple. Les résultats ont des conséquences considérables, notamment dans la pratique, explique Alfred Brendel.

« Je conseillerais aux développeurs de logiciels d'être prudents dans leur approche de la conception de type humain et de réfléchir attentivement aux effets positifs et négatifs que peuvent avoir des éléments de conception de type humain supplémentaires, tels que le sexe, l'âge ou certains noms. »