L’IA inspirée du cerveau pourrait réduire la consommation d’énergie et améliorer les performances
L'intelligence artificielle (IA) pourrait bientôt devenir plus économe en énergie et plus rapide, grâce à une nouvelle approche développée à l'Université de Surrey qui s'inspire directement des réseaux neuronaux biologiques du cerveau humain.
Dans une étude publiée dans Neuroinformatiquedes chercheurs du groupe NICE (Nature-Inspired Computation and Engineering) de Surrey ont montré que l'imitation du câblage neuronal clairsemé et structuré du cerveau peut améliorer considérablement les performances des réseaux neuronaux artificiels (ANN) – utilisés dans l'IA générative et d'autres modèles d'IA modernes tels que ChatGPT – sans sacrifier la précision.
La méthode, appelée Topographical Sparse Mapping (TSM), repense la façon dont les systèmes d’IA sont câblés à leur niveau le plus fondamental. Contrairement aux modèles conventionnels d'apprentissage en profondeur, tels que ceux utilisés pour la reconnaissance d'images et le traitement du langage, qui connectent chaque neurone d'une couche à tous les neurones de la suivante, gaspillant ainsi de l'énergie, TSM connecte chaque neurone uniquement à ceux qui sont proches ou associés, un peu comme la façon dont le système visuel du cerveau organise efficacement les informations. Grâce à cette conception naturelle, le modèle élimine le besoin d’un grand nombre de connexions et de calculs inutiles.
Une version améliorée, appelée Enhanced Topographical Sparse Mapping (ETSM), va encore plus loin en introduisant un processus d'« élagage » d'inspiration biologique pendant l'entraînement, similaire à la façon dont le cerveau affine progressivement ses connexions neuronales au fur et à mesure qu'il apprend. Ensemble, ces approches permettent aux systèmes d’IA d’atteindre une précision égale, voire supérieure, tout en n’utilisant qu’une fraction des paramètres et de l’énergie requis par les modèles conventionnels.
Le Dr Roman Bauer, maître de conférences à l'École d'informatique et d'ingénierie électronique de l'Université de Surrey et superviseur du projet, a déclaré : « La formation de nombreux grands modèles d'IA populaires d'aujourd'hui peut consommer plus d'un million de kilowattheures d'électricité, ce qui équivaut à la consommation annuelle de plus d'une centaine de foyers américains, et coûte des dizaines de millions de dollars.
Le modèle amélioré de Surrey a atteint une parcimonie allant jusqu'à 99 %, ce qui signifie qu'il a pu supprimer presque toutes les connexions neuronales habituelles, tout en égalant ou dépassant la précision des réseaux standards sur des ensembles de données de référence. Parce qu’il évite les réglages et le recâblage constants utilisés par d’autres approches, il s’entraîne plus rapidement, utilise moins de mémoire et consomme moins d’un pour cent de l’énergie d’un système d’IA conventionnel.
Mohsen Kamelian Rad, titulaire d'un doctorat. étudiant à l'Université de Surrey et auteur principal de l'étude, a déclaré : « Le cerveau atteint une efficacité remarquable grâce à sa structure, chaque neurone formant des connexions spatialement bien organisées. Lorsque nous reflétons cette conception topographique, nous pouvons former des systèmes d'IA qui apprennent plus rapidement, utilisent moins d'énergie et fonctionnent avec autant de précision. C'est une nouvelle façon de penser les réseaux neuronaux, construits sur les mêmes principes biologiques qui rendent l'intelligence naturelle si efficace.
Alors que le cadre actuel applique la cartographie inspirée du cerveau à la couche d'entrée d'un modèle d'IA, l'étendre à des couches plus profondes pourrait rendre les réseaux encore plus simples et plus efficaces. L’équipe de recherche étudie également comment cette approche pourrait être utilisée dans d’autres applications, telles que des ordinateurs neuromorphiques plus réalistes, où les gains d’efficacité pourraient avoir un impact encore plus important.
