Une plateforme interactive qui explique les modèles d'apprentissage automatique à ses utilisateurs

Une plateforme interactive qui explique les modèles d’apprentissage automatique à ses utilisateurs

Présentation de TalkToModel. Crédit: Intelligence des machines naturelles (2023). DOI : 10.1038/s42256-023-00692-8

Les modèles d’apprentissage automatique sont désormais couramment utilisés dans divers domaines professionnels, tout en sous-tendant également le fonctionnement de nombreuses applications, progiciels et services en ligne pour smartphones. Si la plupart des gens sont exposés à ces modèles et interagissent avec eux sous une forme ou une autre, très peu d’entre eux comprennent pleinement leur fonctionnement et leurs processus sous-jacents.

De plus, ces dernières années, les algorithmes d’apprentissage automatique sont devenus de plus en plus sophistiqués et complexes, rendant les processus derrière leurs prédictions plus difficiles à expliquer, même pour les informaticiens expérimentés. Pour accroître la confiance des gens dans ces outils informatiques très avancés et prometteurs, certaines équipes de recherche ont tenté de créer ce que l’on appelle l’intelligence artificielle explicable (XAI).

Il s’agit essentiellement de modèles d’apprentissage automatique qui peuvent expliquer, au moins en partie, comment ils sont parvenus à une conclusion donnée ou sur quelles « caractéristiques » des données ils se sont concentrés lors de l’élaboration d’une prédiction particulière. Même si les techniques XAI pourraient être plus robustes et plus fiables, la plupart d’entre elles n’ont pas abouti à des résultats particulièrement prometteurs, car leurs explications laissent souvent place à l’interprétation.

Des chercheurs de l’Université de Californie à Irvine et de l’Université Harvard ont récemment développé TalkToModel, un système de dialogue interactif conçu pour expliquer les modèles d’apprentissage automatique et leurs prédictions aux ingénieurs et aux utilisateurs non experts. Leur plateforme, introduite en Intelligence des machines naturellespermet aux utilisateurs de recevoir des réponses simples et pertinentes à leurs questions sur les modèles d’IA et leur fonctionnement.

« Nous souhaitions trouver des moyens de mieux permettre l’interprétabilité des modèles », a déclaré Dylan Slack, l’un des chercheurs qui ont mené l’étude, à Tech Xplore. « Cependant, les praticiens ont souvent du mal à utiliser les outils d’interprétabilité. Nous avons donc pensé qu’il pourrait être préférable de laisser les praticiens « parler » directement aux modèles d’apprentissage automatique. »

L’étude récente de Slack et de ses collègues s’appuie sur leurs travaux antérieurs axés sur le XAI et l’interaction homme-IA. Son objectif principal était d’introduire une nouvelle plateforme qui expliquerait l’IA aux utilisateurs d’une manière simple et accessible, de la même manière que la plateforme conversationnelle ChatGPT d’OpenAI répond aux questions.

Leur système comporte trois composants clés : un moteur de dialogue adaptatif, une unité d’exécution et une interface conversationnelle. Le moteur de dialogue adaptatif a été formé pour interpréter les textes saisis en langage naturel et générer des réponses sensées à ces textes.

Le composant d’exécution compose essentiellement les « explications de l’IA » qui sont ensuite traduites en mots accessibles et envoyées aux utilisateurs. Enfin, l’interface conversationnelle est essentiellement le logiciel grâce auquel les utilisateurs peuvent saisir leurs invites et afficher les réponses.

« TalkToModel est un système permettant des conversations ouvertes avec des modèles d’apprentissage automatique », a expliqué Slack. « Il vous suffit de poser au système une question sur la raison pour laquelle votre modèle fait quelque chose et d’obtenir une réponse. Cela permet à quiconque de comprendre facilement les modèles. »

Pour déterminer si les utilisateurs pourraient trouver leur système utile, l’équipe a demandé à différents professionnels et étudiants de le tester et de partager leurs commentaires. Dans l’ensemble, la plupart des participants à l’étude l’ont trouvé plutôt utile et intéressant, 73 % des agents de santé participants déclarant qu’ils l’utiliseraient pour mieux comprendre les prédictions d’un outil de diagnostic basé sur l’IA, et 85 % des développeurs d’apprentissage automatique confirmant que c’était plus facile à utiliser que les autres outils XAI.

À l’avenir, cette plateforme pourrait être encore améliorée et rendue publique. Cela pourrait contribuer aux efforts en cours visant à accroître la compréhension des gens sur l’IA et leur confiance globale dans ses prédictions.

« Les résultats de nos études sur les humains, incluant des étudiants diplômés, des ingénieurs en apprentissage automatique et des travailleurs de la santé, étaient vraiment intéressants », a ajouté Slack. « Ils ont suggéré que le système pourrait être très utile pour permettre à quiconque de comprendre les modèles et leur fonctionnement. Nous espérons maintenant continuer à explorer les moyens d’utiliser des systèmes d’IA plus avancés, tels que les modèles de style ChatGPT, pour améliorer les expériences avec ce type de système. »