Comment l'intelligence artificielle peut expliquer ses décisions

Comment l’intelligence artificielle peut expliquer ses décisions

Un réseau de neurones est initialement formé avec de nombreux ensembles de données afin de pouvoir distinguer les images de tissus contenant une tumeur des images de tissus sans tumeur (entrée du haut dans le diagramme). Il est ensuite présenté avec une nouvelle image de tissu à partir d’une expérience (entrée de la gauche). Via un raisonnement inductif, le réseau neuronal génère la classification « contenant une tumeur » ou « sans tumeur » pour l’image respective. En même temps, il crée une carte d’activation de l’image tissulaire. La carte d’activation a émergé du processus d’apprentissage inductif et n’est initialement pas liée à la réalité. La corrélation est établie par l’hypothèse réfutable que les zones à forte activation correspondent exactement aux régions tumorales de l’échantillon. Cette hypothèse peut être testée par d’autres expériences. Cela signifie que l’approche suit une logique déductive. Crédit : PRODI

L’intelligence artificielle (IA) peut être formée pour reconnaître si une image de tissu contient une tumeur. Cependant, la façon exacte dont il prend sa décision est restée un mystère jusqu’à présent. Une équipe du Centre de recherche pour le diagnostic des protéines (PRODI) de la Ruhr-Universität Bochum développe une nouvelle approche qui rendra la décision d’une IA transparente et donc digne de confiance. Les chercheurs dirigés par le professeur Axel Mosig décrivent l’approche dans la revue Analyse d’images médicales.

Pour l’étude, le scientifique en bioinformatique Axel Mosig a coopéré avec le professeur Andrea Tannapfel, chef de l’Institut de pathologie, le professeur oncologue Anke Reinacher-Schick de l’hôpital St. Josef de la Ruhr-Universität et le biophysicien et directeur fondateur de PRODI, le professeur Klaus Gerwert. Le groupe a développé un réseau de neurones, c’est-à-dire une IA, qui peut déterminer si un échantillon de tissu contient ou non une tumeur. À cette fin, ils ont fourni à l’IA un grand nombre d’images microscopiques de tissus, dont certaines contenaient des tumeurs, tandis que d’autres étaient exemptes de tumeurs.

« Les réseaux de neurones sont initialement une boîte noire : on ne sait pas quelles caractéristiques d’identification un réseau apprend à partir des données de formation », explique Axel Mosig. Contrairement aux experts humains, ils n’ont pas la capacité d’expliquer leurs décisions. « Cependant, pour les applications médicales en particulier, il est important que l’IA soit capable d’expliquer et donc digne de confiance », ajoute le scientifique en bioinformatique David Schuhmacher, qui a collaboré à l’étude.

L’IA est basée sur des hypothèses falsifiables

L’IA explicable de l’équipe de Bochum est donc basée sur le seul type d’énoncés significatifs connus de la science : sur des hypothèses falsifiables. Si une hypothèse est fausse, ce fait doit être démontrable par une expérience. L’intelligence artificielle suit généralement le principe du raisonnement inductif : à partir d’observations concrètes, c’est-à-dire les données d’apprentissage, l’IA crée un modèle général sur la base duquel elle évalue toutes les observations ultérieures.

Le problème sous-jacent avait été décrit par le philosophe David Hume il y a 250 ans et peut être facilement illustré : peu importe le nombre de cygnes blancs que nous observons, nous ne pourrions jamais conclure de ces données que tous les cygnes sont blancs et qu’il n’existe aucun cygne noir. La science fait donc appel à la logique dite déductive. Dans cette approche, une hypothèse générale est le point de départ. Par exemple, l’hypothèse que tous les cygnes sont blancs est falsifiée lorsqu’un cygne noir est repéré.

Comment l'intelligence artificielle peut expliquer ses décisions

Le réseau de neurones dérive une carte d’activation (à droite) à partir de l’image microscopique d’un échantillon de tissu (à gauche). Une hypothèse établit la corrélation entre l’intensité d’activation déterminée uniquement par le calcul et l’identification de régions tumorales vérifiables expérimentalement. Crédit : PRODI

La carte d’activation montre où la tumeur est détectée

« A première vue, l’IA inductive et la méthode scientifique déductive semblent presque incompatibles », déclare Stephanie Schörner, une physicienne qui a également contribué à l’étude. Mais les chercheurs ont trouvé un moyen. Leur nouveau réseau neuronal fournit non seulement une classification indiquant si un échantillon de tissu contient une tumeur ou est exempt de tumeur, il génère également une carte d’activation de l’image microscopique du tissu.

La carte d’activation est basée sur une hypothèse réfutable, à savoir que l’activation issue du réseau de neurones correspond exactement aux régions tumorales de l’échantillon. Des méthodes moléculaires spécifiques au site peuvent être utilisées pour tester cette hypothèse.

« Grâce aux structures interdisciplinaires de PRODI, nous disposons des meilleures conditions préalables pour intégrer l’approche basée sur des hypothèses dans le développement d’IA biomarqueurs fiables à l’avenir, par exemple pour pouvoir distinguer certains sous-types de tumeurs pertinents pour la thérapie », conclut Axel Mosig.


Fourni par Ruhr-Universitaet-Bochum