Faisons-nous confiance aux chatbots? Un nouvel outil facilite la jauge

Faisons-nous confiance aux chatbots? Un nouvel outil facilite la jauge

Comme les outils d'intelligence artificielle comme Chatgpt sont intégrés dans notre vie quotidienne, nos interactions avec les chatbots d'IA en ligne deviennent plus fréquentes. Les accueillons-nous ou essayons-nous de les repousser?

De nouvelles recherches de l'Université de Binghamton essaient de répondre à ces questions via VizTrust, un outil d'analyse pour rendre la dynamique de confiance des utilisateurs dans la communication humaine-AI visible et compréhensible.

Xin « Vision » Wang, un doctorat. L'étudiante du Thomas J. Watson College of Engineering and Applied Science des sciences des systèmes et du génie industriel se développe viztrust dans le cadre de sa thèse.

Elle a présenté ses travaux et conclusions actuels en avril à la conférence Association for Computing Machinery (ACM) CHI 2025 à Yokohama, au Japon. Le papier est disponible dans le Actes des résumés prolongés de la conférence du CHI sur les facteurs humains dans les systèmes informatiques.

VizTrust est né d'un défi urgent: la confiance des utilisateurs dans les agents d'IA est très dynamique, dépendante du contexte et difficile à quantifier à l'aide de méthodes traditionnelles.

« La plupart des études reposent sur des enquêtes post-conversation, mais elles ne peuvent capturer que l'état de confiance avant et après l'interaction humaine-AI », a déclaré Wang. « Ils manquent les signaux détaillés et instantanés qui montrent pourquoi la confiance d'un utilisateur peut augmenter ou baisser lors d'une interaction. »

Pour y remédier, VizTrust évalue la confiance des utilisateurs sur la base de quatre dimensions fondées sur la psychologie sociale: compétence, bienveillance, intégrité et prévisibilité. De plus, VizTrust analyse les indices pertinents en matière de confiance des messages utilisateur, tels que le ton émotionnel, le niveau d'engagement et les stratégies de politesse – utilisant l'apprentissage automatique et les techniques de traitement du langage naturel pour visualiser les changements de confiance au cours d'une conversation.

« La puissance des modèles de grande langue et de l'IA génératrice augmente, mais nous devons découvrir l'expérience utilisateur lorsque les gens utilisent différentes applications conversationnelles », a déclaré Wang. « Sans plonger pour voir ce qui s'est produit exactement qui a influencé une mauvaise expérience, nous ne pouvons jamais vraiment découvrir la meilleure solution pour améliorer le modèle d'IA. »

Le document de recherche illustre les fonctionnalités de Viztrust à travers un cas d'utilisation impliquant un ingénieur logiciel stressé par son travail et un chatbot de thérapie conçu pour soutenir les travailleurs. Ils discutent de son stress lié au travail, et cela lui offre quelques conseils sur la façon de gérer.

En analysant des changements linguistiques et comportementaux subtils dans le langage et l'interaction de l'utilisateur, vizrust se bloque des moments où la confiance est construite ou érodée. Par exemple, VizTrust souligne un moment où le niveau de confiance baisse en raison de suggestions répétées que l'utilisateur n'aime pas. Ce type de perspicacité est vital non seulement pour la compréhension académique mais aussi pour les améliorations pratiques de la conception du système d'IA conversationnel.

« La confiance n'est pas seulement un problème d'utilisateur – c'est un problème de système », a déclaré Wang, « avec Viztrust, nous donnons aux développeurs, aux chercheurs et aux concepteurs un nouvel objectif pour voir exactement où la confiance vacille, afin qu'ils puissent apporter des améliorations significatives à leur système d'IA. »

Viztrust a déjà acquis une reconnaissance en étant accepté comme un travail tardif au CHI 2025. Viztrust s'est démarqué parmi plus de 3 000 soumissions tardives du monde entier, alors que le taux d'acceptation compétitif était d'un peu moins de 33%.

Les co-auteurs du projet incluent les professeurs adjoints de SSIE Sadamori Kojaku et Stephanie Tulk Jesso ainsi que le professeur agrégé David M. Neyens de l'Université Clemson et le professeur Min Sun Kim de l'Université d'Hawaï à Manoa.

Wang se déplace pour la prochaine étape de développement et augmentera son adaptabilité aux différences individuelles.

« Lorsque les gens interagissent avec les agents de l'IA, ils peuvent avoir des attitudes très différentes », a-t-elle déclaré. « Nous devrons peut-être prendre une perspective individuelle spécifique pour comprendre leur confiance – par exemple, leurs caractéristiques personnelles, leur niveau de confiance implicite, même leurs interactions précédentes avec les systèmes d'IA peuvent influencer leurs attitudes. »

Pour l'avenir, Wang envisage le déploiement de Viztrust comme un outil accessible au public en ligne pour soutenir des recherches et un développement plus larges.

« En rendant VIZTRUST accessible », a-t-elle déclaré, « nous pouvons commencer à combler l'écart entre les performances techniques et l'expérience humaine et rendre le système d'IA plus centré sur l'homme et responsable. »