Utiliser ChatGPT pour stimuler l'innovation au sein des organisations

Les organisations à but non lucratif sont en difficulté. Les chatbots plus sensibles pourraient-ils être la réponse?

Dans l’économie d’attention d’aujourd’hui, les organisations axées sur l’impact sont sans doute désavantagées. Puisqu’ils n’ont pas de produit tangible à vendre, le cœur de leur attrait est émotionnel plutôt que pratique – la «lueur chaleureuse» de contribuer à une cause qui vous tient à cœur.

Mais les appels émotionnels appellent plus de délicatesse et de précision que les outils de marketing standardisés, tels que les campagnes par e-mail de masse, peuvent maintenir. Les états émotionnels varient d’une personne à l’autre – même d’un moment à l’autre au sein de la même personne.

Siddharth Bhattacharya et Pallab Sanyal, professeurs de systèmes d’information et de gestion des opérations au Donald G. Costello College of Business de l’Université George Mason, croient que l’intelligence artificielle (IA) peut aider à résoudre ce problème.

Un chatbot bien conçu pourrait être programmé pour calibrer des appels persuasifs en temps réel, la livraison de messages plus susceptibles de motiver quelqu’un à franchir la prochaine étape souhaitée, que ce soit en donnant de l’argent, en faisant du bénévolat ou en promettant simplement un soutien. Les solutions automatisées, telles que les chatbots, peuvent être particulièrement gratifiantes pour les organisations à but non lucratif, qui ont tendance à être conscientes de la trésorerie et limitées en ressources.

« Nous avons terminé un projet à Minneapolis et travaillons avec d’autres organisations, à Boston, dans le New Jersey et ailleurs, mais l’accent est toujours le même », explique Sanyal. « Comment pouvons-nous tirer parti de l’IA pour améliorer l’efficacité, réduire les coûts et améliorer la qualité des services dans les organisations à but non lucratif? »

Le document de travail de Sanyal et Bhattacharya (co-auteur par Scott Schanke de l’Université du Wisconsin Milwaukee) décrit leur récente expérience de terrain randomisée avec une organisation de santé des femmes basée à Minneapolis. Les chercheurs ont conçu un chatbot personnalisé pour interagir avec les clients potentiels via l’application Facebook Messenger de l’organisation. Le bot a été programmé pour ajuster, au hasard, ses réponses à plus ou moins émotionnelles, ainsi qu’à plus ou moins anthropomorphes (comme l’homme).

« Pour la condition anthropomorphe, nous avons introduit des indices visuels tels que la saisie des bulles et une réponse légèrement retardée pour imiter l’expérience de la messagerie avec un autre humain », explique Sanyal.

Le mode « émotionnel » du chatbot comportait des déclarations plus subjectives et généralisant avec l’utilisation libérale de mots provocateurs tels que «injuste», «discrimination» et «injuste». Les modes « informationnels » s’appuyaient davantage sur les faits et les statistiques.

Au cours des centaines de vraies interactions Facebook, le chatbot modérément émotionnel a obtenu un engagement les plus profond des utilisateurs, tel que défini par une conversation terminée. (Le taux d’achèvement a été critique car après la dernière interaction, les utilisateurs ont été redirigés vers un formulaire de contact / don.) Mais lorsque le niveau émotionnel est passé de modéré à extrême, davantage d’utilisateurs ont renfloué l’interaction.

Le point à retenir peut être qu ‘ »il y a un endroit idéal où une émotion est importante, mais au-delà de ces émotions peut être mauvaise », comme l’explique Bhattacharya.

Lorsque des caractéristiques humaines étaient superposées sur l’émotivité, ce sweet spot est devenu encore plus petit. L’anthropomorphisme a abaissé les taux d’achèvement et réduit la capacité de l’organisation à utiliser l’engagement émotionnel comme outil de motivation.

« Dans l’espace de vente au détail, des études ont montré que l’anthropomorphisme était utile », explique Bhattacharya. « Mais dans un contexte à but non lucratif, il est totalement axé sur l’empathie et moins transactionnel. Si tel est le cas, peut-être que ces indices humains provenant d’un bot font que les gens se sentent effrayants, et ils reculent. »

Sanyal et Bhattacharya disent que des expériences de chatbot plus personnalisées avec d’autres organisations à but non lucratif sont en préparation. Ils tiennent compte tenu des mesures de succès et des besoins uniques de chaque organisation partenaire.

« La plupart du temps, nous, les chercheurs, sommes assis dans nos bureaux et travaillons sur ces problèmes », explique Sanyal. « Mais un aspect de ces projets que j’aime vraiment est que nous apprenons tellement en parlant à ces gens. »

En collaboration avec les organisations concernées, ils conçoivent des chatbots qui peuvent accueillir leurs appels convaincants plus étroitement à chaque contexte et interlocuteur individuel. En cas de succès, cette méthode prouverait que les chatbots pourraient devenir plus qu’un deuxième meilleur substitut à un être humain salarié. Ils pourraient servir d’ateliers interactifs pour l’élaboration et le raffinement de la messagerie d’une organisation à un niveau beaucoup plus granulaire que possible.

Et cela améliorerait l’efficacité de la sensibilisation organisationnelle à tous les niveaux – un exemple accompli de l’amélioration de l’IA, plutôt que de déplacer le travail humain. « Cette IA augmente les fonctions humaines », explique Sanyal. « Il ne remplace pas. Parfois, c’est complétant, parfois c’est complément. Mais à la fin de la journée, c’est juste augmente. »