L’erreur est humaine – et à l’ère de l’IA, elle peut être humanisante
Une étude co-écrite par la professeure associée Juliana Schroeder a révélé que les gens considèrent les agents du service client qui font des erreurs typographiques – et les corrigent – comme plus humains et parfois même plus serviables.
« Pendant des décennies, les gens ont travaillé pour rendre les machines plus intelligentes et moins sujettes aux erreurs », explique Schroeder. « Maintenant que nous vivons dans des tests de Turing réels dans la plupart de nos interactions en ligne, une erreur peut en fait être un signal bénéfique pour signaler l'humanité. »
Dans un article publié dans le Journal de l'Association pour la recherche sur les consommateursSchroeder et ses collègues de l’Université Yeshiva de Stanford et de l’Université du Colorado à Boulder ont développé leur propre chatbot, nommé Angela, et ont mené cinq études impliquant plus de 3 000 participants.
Dans toutes les études, les participants ont jugé les agents qui faisaient et corrigeaient les fautes de frappe plus humains que ceux qui n'en faisaient pas ou qui les laissaient sans correction. Ils les considéraient également avec plus de chaleur.
L'effet était plus marqué lorsque les participants ne savaient pas si l'agent était un robot ou un humain, mais curieusement, il se maintenait même lorsque les participants avaient cette information. « Le fait de voir un agent corriger une faute de frappe a amené les gens à s'attendre à ce que l'agent soit plus serviable », explique Schroeder.
Des recherches antérieures datant des années 1960, surnommées « l’effet Pratfall », ont montré que dans certaines conditions, commettre des erreurs peut accroître la sympathie d’une personne. Mais d’autres études ont montré que les communicateurs qui font des fautes de frappe, des fautes d’orthographe ou des erreurs grammaticales sont perçus comme moins intelligents ou moins compétents que ceux qui n’en font pas. Schroeder et ses co-auteurs suggèrent que c’est ce qui se passe après une erreur qui peut faire la différence.
« Nous pensons que corriger une erreur est une démarche humanisante, car cela montre que l'interlocuteur est impliqué », explique-t-elle. « C'est un signe que le communicateur se soucie de la façon dont il est perçu. »
Les chercheurs, parmi lesquels Shirley Bluvstein de l'Université Yeshiva, Xuan Zhao de Stanford et Alixandra Barasch de l'Université du Colorado à Boulder, ne suggèrent pas que les entreprises programment intentionnellement leurs chatbots en insérant des fautes de frappe, ce qui pourrait être considéré comme une manipulation et soulever des questions d'éthique.
Les récentes mesures politiques mises en place dans certains États obligent les robots à divulguer leur identité ou les entreprises à tatouer le contenu généré par l’IA. Pourtant, si une véritable erreur est commise et que le chatbot (ou la personne) a les moyens de la corriger, cela peut impressionner les clients.
Dans l’ensemble, les résultats suggèrent qu’il est possible d’améliorer les chatbots en mettant en œuvre des signaux humanisants, comme la correction des erreurs tout en restant transparent pour les consommateurs. Ces signaux, affirment les chercheurs, « peuvent signaler la volonté d’une entreprise d’établir des liens avec les consommateurs, ce qui pourrait compenser la nature impersonnelle et déshumanisante des interactions textuelles ».