Une étude explore le déploiement de chatbots IA avec émotions dans le service client

Une étude explore le déploiement de chatbots IA avec émotions dans le service client

Crédit : domaine public CC0

Alors que les détaillants en ligne utilisent de plus en plus des chatbots d’intelligence artificielle pour rationaliser les tâches de service client et remplacer leurs homologues humains, une nouvelle recherche de l’Université de Floride du Sud examine comment les chatbots d’IA exprimant des émotions peuvent avoir un impact sur le service client.

Il s’avère que les chatbots IA affichent des sentiments positifs, comme l’ajout d’un « Je suis ravi de le faire ! » ou quelques points d’exclamation – ne se traduisent pas nécessairement par des réactions positives ou ne contribuent pas à une plus grande satisfaction de la clientèle.

« La raison en est que les gens ne s’attendent pas à ce que les chatbots aient des sentiments. Les gens ne réagissent pas aux chatbots de la même manière qu’ils réagissent aux humains », a déclaré Denny Yin, professeur agrégé à la School of Information Systems and Management de l’USF Muma. College of Business, co-auteur de l’étude.

L’article— »Bots with Feelings: Should AI Agents Express Positive Emotion in Customer Service? »—apparait dans Recherche sur les systèmes d’information.

Les conclusions de l’étude surviennent au milieu de la montée en puissance de l’IA émotionnelle – la branche de l’IA qui s’occupe du traitement et de la reproduction des émotions humaines – et dans la foulée d’une affirmation plus tôt cette année d’un ingénieur de Google selon laquelle un chatbot d’IA inédit était « sensible ».

Cette réclamation et le contrecoup qui en a résulté ont conduit au licenciement de l’employé pour avoir enfreint les politiques d’emploi et de sécurité des données. Un débat national s’est ensuivi sur la signification de « sensible » et sur la question de savoir si le chatbot de Google a une conscience ou des sentiments.

Dans un effort pour apporter une application réelle au débat, Yin et deux co-chercheurs ont exploré comment les clients donnent un sens et réagissent aux émotions positives d’un chatbot IA par rapport à un agent du service client humain.

Yin a déclaré que des recherches étaient nécessaires sur les technologies d’intelligence artificielle émotionnelle, l’industrie devant atteindre 100 milliards de dollars d’ici 2024 et 200 milliards de dollars d’ici 2026, selon une étude de marché réalisée par Global Industry Analysts and Reports and Data.

Les chercheurs ont mené trois expériences en utilisant des chatbots capables d’émotion dans un scénario de service client.

Dans le premier test, les participants ont interagi avec un agent du service client IA ou humain pour résoudre un problème de service hypothétique. La moitié des participants ont discuté avec un agent où des adjectifs positifs et des points d’exclamation ont été ajoutés à ses réponses, comme « Je suis ravi de traiter votre demande aujourd’hui ! »

Le reste du groupe a discuté avec un agent sans aucune émotion, comme « Je traite votre demande aujourd’hui ». Les participants ont évalué la qualité et la satisfaction du service client sur une échelle de sept points.

Les expériences ont révélé des résultats surprenants :

  • Alors que les émotions positives d’un humain sont bénéfiques et augmentent la satisfaction des clients, les mêmes émotions d’un chatbot IA ne sont pas aussi efficaces.
  • Les attentes des clients jouent un rôle important, car les clients ne s’attendent pas à ce qu’un chatbot IA puisse ressentir des émotions. Trop de positivité du chatbot peut décourager les consommateurs et entraîner des réactions négatives.

« À notre connaissance, cette recherche est la toute première à explorer les ramifications de l’équipement des agents d’IA de service avec des capacités d’expression émotionnelle », a déclaré Yin.

Le travail élargit encore la compréhension des réactions des clients aux IA émotionnelles et donne aux entreprises des conseils sur comment et quand les détaillants doivent utiliser des agents de service d’IA capables d’émotion.

Les chercheurs ont averti que les entreprises devraient comprendre les attentes des clients exposés à des services alimentés par l’IA avant d’équiper au hasard les IA de capacités d’expression d’émotions.

Les autres principaux enseignements de l’étude comprennent :

  • Les bons sentiments peuvent se propager des expressions émotionnelles positives d’un agent humain à un client, et la même chose peut se produire pour un chatbot alimenté par l’IA. Mais parfois, ces bons sentiments sont annulés par une réaction négative à ne pas s’attendre à ce que les chatbots affichent des émotions.
  • Les attentes jouent un rôle important pour déterminer si un chatbot IA exprimant des émotions positives est une expérience positive ou négative. Différents types de clients réagiront différemment aux mêmes émotions exprimées par l’IA.
  • Servion Global Solutions prévoit que d’ici 2025, l’IA sera à l’origine de 95 % de toutes les interactions avec les clients, y compris les appels téléphoniques en direct et les conversations en ligne, selon Finance Digest.

« Notre travail révèle l’impact unique de l’émotion positive exprimée par un agent d’IA sur les évaluations de service des clients ainsi que les mécanismes sous-jacents et une condition limite, ouvrant ainsi des opportunités de recherche passionnantes dans le domaine de l’interaction homme-IA », a déclaré Yin.

Fourni par l’Université de Floride du Sud