Les données des singes macaques révèlent des failles dans les réseaux neuronaux profonds
L’une des merveilles du cerveau humain réside dans sa capacité à généraliser. Nous voyons un objet, comme une chaise, et nous savons que c’est une chaise, même si sa forme est légèrement différente, ou si elle se trouve dans un endroit inattendu ou dans un environnement faiblement éclairé.
Les réseaux neuronaux profonds, des machines inspirées du cerveau, souvent utilisées pour étudier le fonctionnement réel du cerveau, sont bien pires que nous en matière de généralisation d’images. Mais pourquoi ? Comment de tels modèles peuvent-ils être améliorés ? Et comment le cerveau généralise-t-il si facilement ? Spandan Madan, étudiant diplômé en informatique à la Harvard John A. Paulson School of Engineering and Applied Sciences (SEAS), est depuis longtemps fasciné par ces questions.
Dans une recherche présentée lors de la conférence Neural Information Processing Systems en décembre, Madan et ses collègues ont utilisé des données cérébrales collectées sur des singes pour montrer que les méthodes largement acceptées de modélisation du cerveau peuvent être fondamentalement erronées, en particulier lorsqu’il s’agit de généraliser des conditions non présentes dans les données d’entraînement. . C’est ce qu’on appelle des données « hors distribution ». Les résultats sont également publiés sur le arXiv serveur de préimpression.
« Nous avons montré que si vous construisez un modèle du cerveau utilisant des réseaux neuronaux profonds, cela fonctionne très bien pour les données sur lesquelles vous l’entraînez, mais dès que vous testez ces données dans de nouvelles conditions, cela ne fonctionne pas bien. tombe en panne complètement », a déclaré Madan, co-conseillé par Hanspeter Pfister, professeur An Wang d’informatique à SEAS, et Gabriel Kreiman, professeur d’ophtalmologie HMS.
Madan a comparé cette rupture aux lois du mouvement de Newton ne fonctionnant que pour les planètes, mais pas pour les petits objets tombant du bureau. « Ce n’est pas un modèle satisfaisant du cerveau s’il ne peut pas être généralisé », a-t-il déclaré.
L’équipe interdisciplinaire de chercheurs, qui comprenait les co-auteurs Will Xiao et le professeur Margaret Livingstone du HMS, ainsi que Mingran Cao du Francis Crick Institute, a étudié dans quelle mesure les réseaux neuronaux profonds, formés à partir des données cérébrales des singes macaques, pouvaient prédire les réponses neuronales aux -images de distribution.
En montrant à sept singes des milliers d’images au cours de 109 sessions expérimentales, l’équipe a enregistré les taux de déclenchement neuronal dans le cerveau des animaux en réponse à chaque image. Au total, les chercheurs ont collecté 300 000 paires image-réponse, ce qui en fait l’un des plus grands ensembles de données jamais réalisés sur les taux de déclenchement neuronal.
Madan et son équipe ont ensuite montré ces mêmes images à leur modèle, mais ils ont introduit de nouvelles conditions sous la forme d’éléments tels que le contraste, la teinte, la saturation, l’intensité et la température de l’image.
Le modèle a réussi avec brio dans la prédiction de l’activité neuronale correcte sur les données familières, mais a lamentablement échoué sur les données inconnues, ne réalisant également qu’environ 20 %. Dans cet article, les chercheurs décrivent leur capacité à évaluer les performances de généralisation d’un modèle avec une métrique relativement simple, qui pourrait ensuite être utilisée comme un indicateur puissant de la prédictivité neuronale sous différents types de déplacements de données.
Le problème de la généralisation dans le domaine de l’intelligence artificielle est connu depuis longtemps, et l’article est l’un des premiers à montrer que ces problèmes se retrouvent également dans les neurosciences, a déclaré Madan. « Alors que l’IA et les neurosciences sont de plus en plus étroitement liées, nous espérons que ce problème deviendra également important pour les chercheurs en neurosciences… Nous espérons pouvoir rapprocher les deux domaines et travailler ensemble sur ce problème. »
Xiao de HMS a ajouté : « En tant que chercheurs en IA, nous devons reconnaître comment nos outils façonnent d’autres domaines. La mauvaise généralisation des modèles d’IA aux changements de distribution n’affecte pas seulement les applications pratiques ; cette étude montre qu’elle peut fondamentalement limiter notre capacité à utiliser l’IA pour comprendre. l’intelligence biologique, soulignant les conséquences scientifiques plus larges de ce défi bien connu de l’IA.