La mystérieuse « boîte noire » de l’IA n’est peut-être pas si noire
L’un des pionniers de l’IA explicable a développé un modèle avancé qui explique comment et pourquoi l’IA fonctionne. Le modèle ouvre la mystérieuse « boîte noire » de l’IA et est disponible pour pratiquement tous les systèmes d’IA.
« Cela peut désormais être d'une grande utilité pour la société et l'industrie en comprenant et en expliquant les décisions prises par l'IA, les modèles d'apprentissage automatique et les réseaux neuronaux », déclare Kary Främling, professeur au département d'informatique de l'université d'Umeå.
L’IA et l’apprentissage automatique sont utilisés par les gouvernements, les soins de santé, les entreprises et l’industrie. Les méthodes dites d’apprentissage profond peuvent désormais diagnostiquer les patients dans le cadre des soins de santé beaucoup plus rapidement que les humains. Mais qu’est-ce qui pousse un système d’IA à recommander un type de traitement et pas un autre, et comment prend-il ses décisions ?
« L'IA explicable est un domaine qui intéresse beaucoup de gens, mais que peu de gens connaissent ou comprennent pleinement. Les modèles explicatifs existants ne sont pas non plus suffisamment compréhensibles pour le public », déclare le professeur Främling, chef de l'équipe d'intelligence artificielle explicable (XAI) à Le Département d'informatique, Université d'Umeå.
Främling a développé la méthode CIU (Contextual Importance and Utility Approach) et la trouve plus efficace que les autres modèles. « Malheureusement, de nombreux scientifiques sont restés dans un certain état d'esprit, alors que j'ai réalisé très tôt que ces modèles étaient trop limités. À la fin des années 1990, cependant, le moment n'était pas propice, mais j'ai continué à développer la méthode CIU et je constate aujourd'hui que c'était un choix valable à long terme », déclare le professeur Främling.
Obtenez une explication beaucoup plus précise
Un système d'IA est un système dans lequel une ou plusieurs entrées sont fournies à un modèle ou un système d'IA, qui traite ensuite les informations et produit une ou plusieurs sorties. Främling utilise son doctorat. en France à titre d'exemple.
La région où il vivait souhaitait identifier l'emplacement optimal pour le stockage final des déchets industriels. Des milliers de sites ont été triés à l’aide de l’apprentissage automatique et des réseaux de neurones, et les choix ont été faits en tenant compte de plusieurs catégories différentes. « Mais quels étaient les critères permettant de décider si un site était bon ou non ? Malheureusement, seul un informaticien comme moi pouvait comprendre le raisonnement du système d'IA », explique Främling.
Le choix du site doit être justifié et il faut tenir compte à la fois des personnes et de l'environnement. « Il faut également l'expliquer de différentes manières de manière compréhensible. Les habitants veulent un type d'information, tandis que les autorités environnementales en ont besoin d'un autre. »
C’est là qu’il s’est intéressé à la création d’une méthode d’explication. « Pour moi, il s'agit de faire en sorte que chacun d'entre nous puisse comprendre la décision de l'hôpital, la réponse de la banque à une demande de prêt ou la décision d'une autorité. »
Sa méthode CIU vous permet d'étudier et d'expliquer l'impact de la modification d'une ou plusieurs entrées (variables telles que « âge », « sexe », « travail » ou « études ») sur les résultats finaux. « CIU vous permet également de calculer et d'expliquer chaque composant et son impact sur les résultats, ainsi que de diviser les données d'entrée en sous-sections. Cela signifie que vous pouvez obtenir une explication beaucoup plus précise, par exemple, de la raison pour laquelle vous n'avez pas « Je n'ai pas obtenu le prêt, ni pourquoi tu l'as fait », dit Främling.
Fournit des explications compréhensibles
Les systèmes d’IA utilisant des réseaux de neurones, appelés systèmes d’IA boîte noire, étaient autrefois considérés comme impossibles à expliquer. Par conséquent, des « modèles de substitution » ont été créés dans le but d’imiter le fonctionnement du système d’IA réel et d’analyser ce qu’il faisait. L’IA explicable est toujours basée sur cette idée. Cependant, le CIU ne crée pas de modèle de substitution. Au lieu de cela, il analyse le fonctionnement du modèle d’IA en fonction de la manière dont les sorties varient en fonction des entrées.
« Cela fournit des informations qui peuvent être traduites en explications et en concepts compréhensibles que nous, les humains, utilisons pour justifier nos décisions et nos actions », explique Främling.
« Il est tout à fait possible d'obtenir des informations plus précises, et pas seulement une 'intuition' sur ce qui s'est passé ou s'est mal passé dans un système d'IA. Le CIU peut offrir de grandes opportunités aux entreprises et à leurs clients, mais aussi aux autorités et aux citoyens », déclare Främling. .
CIU est implémenté dans les langages de programmation Python et R et son code source est accessible au public sur Github. CIU peut également être installé comme bibliothèque et, en principe, être intégré à n'importe quel système d'IA. Le modèle peut même expliquer les résultats des systèmes d’IA « classiques » qui n’utilisent pas l’apprentissage automatique. Le CIU peut également être appliqué aux séries chronologiques et aux modèles linguistiques, mais il s'agit d'une recherche en cours.