Qu’est-ce qui influence la confiance lors d’une conversation avec des chatbots ?
Que ce soit sur le site de votre banque ou sur la ligne d’assistance de votre opérateur téléphonique, les interactions entre humains et chatbots font désormais partie de notre quotidien. Mais leur faisons-nous confiance ? Et quels facteurs influencent notre confiance ? Des chercheurs de l’Université de Bâle se sont récemment penchés sur ces questions.
« Bonjour ChatGPT, pouvez-vous m’aider ? » – « Bien sûr, comment puis-je vous aider ? » Les échanges entre utilisateurs et chatbots, qui reposent sur l’intelligence artificielle (IA), s’apparentent vite à des conversations avec une autre personne.
Fanny Lalot et Anna-Marie Betram de la Faculté de psychologie de l’Université de Bâle ont voulu savoir dans quelle mesure les gens font confiance aux chatbots IA et de quoi dépend cette confiance. Ils se sont concentrés sur les systèmes basés sur le texte, c’est-à-dire sur des plateformes comme ChatGPT plutôt que sur des assistants vocaux comme Siri ou Alexa.
Les sujets testés ont été exposés à des exemples d’interactions entre des utilisateurs et un chatbot appelé Conversea, imaginé spécifiquement pour l’étude. Ils ont alors imaginé qu’ils interagiraient eux-mêmes avec Conversea. Les résultats sont publiés dans le Journal de psychologie expérimentale : général.
Le chatbot comme entité indépendante
Notre niveau de confiance envers les autres dépend de nombreux facteurs : notre propre personnalité, le comportement de l’autre personne et la situation spécifique jouent tous un rôle. « Les impressions de l’enfance influencent notre capacité à faire confiance aux autres, mais une certaine ouverture d’esprit est également nécessaire pour vouloir faire confiance », explique le psychologue social Lalot. Les caractéristiques qui favorisent la confiance comprennent l’intégrité, la compétence et la bienveillance.
La nouvelle étude montre que ce qui s’applique aux relations entre humains s’applique également aux systèmes d’IA. La compétence et l’intégrité en particulier sont des critères importants qui amènent les humains à percevoir un chatbot IA comme fiable. La bienveillance, en revanche, est moins importante, tant que les deux autres dimensions sont présentes.
« Notre étude démontre que les participants attribuent ces caractéristiques directement à l’IA, et pas seulement à l’entreprise qui la sous-tend. Ils considèrent l’IA comme s’il s’agissait d’une entité indépendante », selon Lalot.
De plus, il existe des différences entre les chatbots personnalisés et impersonnels. Si un chatbot nous adresse par notre nom et fait référence à des conversations précédentes, par exemple, les participants à l’étude l’ont jugé particulièrement bienveillant et compétent.
« Ils anthropomorphisent le chatbot personnalisé. Cela augmente la volonté d’utiliser l’outil et de partager des informations personnelles avec lui », selon Lalot. Cependant, les sujets testés n’ont pas attribué beaucoup plus d’intégrité au chatbot personnalisé et la confiance globale n’était pas significativement plus élevée que dans le chatbot impersonnel.
L’intégrité est plus importante que la bienveillance
Selon l’étude, l’intégrité est un facteur de confiance plus important que la bienveillance. Pour cette raison, il est important de développer la technologie pour donner la priorité à l’intégrité avant tout. Les concepteurs doivent également prendre en compte le fait que l’IA personnalisée est perçue comme plus bienveillante, compétente et humaine afin de garantir une bonne utilisation des outils. D’autres recherches ont démontré que les personnes seules et vulnérables courent en particulier le risque de devenir dépendantes des applications d’amitié basées sur l’IA.
« Notre étude ne précise pas s’il est bon ou mauvais de faire confiance à un chatbot », souligne Lalot. Elle considère le chatbot IA comme un outil dans lequel nous devons apprendre à naviguer, tout comme les opportunités et les risques des médias sociaux.
Certaines recommandations peuvent néanmoins être tirées de leurs résultats. « Nous projetons davantage sur les systèmes d’IA qu’il n’y en a réellement », explique Lalot. Il est donc d’autant plus important que les systèmes d’IA soient fiables. Un chatbot ne doit ni nous mentir ni approuver sans réserve tout ce que nous disons.
Si un chatbot IA est trop peu critique et simplement d’accord avec tout ce que dit un utilisateur, il ne parvient pas à vérifier la réalité et court le risque de créer une chambre d’écho qui, dans le pire des cas, peut isoler les gens de leur environnement social. « UN [human] J’espère que mon ami interviendra à un moment donné si quelqu’un développe des idées trop folles ou immorales », dit Lalot.
Trahi par l’IA ?
Dans les relations humaines, une confiance brisée peut avoir de graves conséquences sur les interactions futures. Est-ce que cela pourrait aussi être le cas des chatbots ? « C’est une question passionnante. Des recherches plus approfondies seraient nécessaires pour y répondre », déclare le Dr Lalot. « Je peux certainement imaginer que quelqu’un puisse se sentir trahi si les conseils d’un chatbot IA ont des conséquences négatives. »
Il faut des lois qui tiennent les développeurs responsables. Par exemple, une plateforme d’IA pourrait montrer comment elle arrive à une conclusion en révélant ouvertement les sources qu’elle a utilisées, et elle pourrait dire quand elle ne sait pas quelque chose plutôt que d’inventer une réponse.