Un prototype informatique neuromorphique apprend des modèles avec moins de calculs que l'IA traditionnelle

Un prototype informatique neuromorphique apprend des modèles avec moins de calculs que l'IA traditionnelle

Les ordinateurs pourraient-ils un jour apprendre davantage comme le font les humains, sans s’appuyer sur des systèmes d’intelligence artificielle (IA) qui doivent suivre une formation extrêmement coûteuse ?

L’informatique neuromorphique pourrait être la réponse. Cette technologie émergente comprend du matériel informatique inspiré du cerveau qui pourrait effectuer des tâches d’IA beaucoup plus efficacement avec beaucoup moins de calculs d’entraînement et utilisant beaucoup moins d’énergie que les systèmes conventionnels. Par conséquent, les ordinateurs neuromorphiques ont également le potentiel de réduire la dépendance à l’égard des centres de données énergivores et d’apporter l’inférence et l’apprentissage de l’IA aux appareils mobiles.

Le Dr Joseph S. Friedman, professeur agrégé de génie électrique et informatique à l'Université du Texas à Dallas, et son équipe de chercheurs du laboratoire NeuroSpinCompute ont franchi une étape importante dans la construction d'un ordinateur neuromorphique en créant un prototype à petite échelle qui apprend des modèles et fait des prédictions en utilisant moins de calculs d'entraînement que les systèmes d'IA conventionnels. Leur prochain défi consiste à étendre la preuve de concept à des tailles plus grandes.

« Notre travail montre une nouvelle voie potentielle pour construire des ordinateurs inspirés du cerveau et capables d'apprendre par eux-mêmes », a déclaré Friedman. « Comme les ordinateurs neuromorphiques n'ont pas besoin d'énormes quantités de calculs d'entraînement, ils pourraient alimenter des appareils intelligents sans d'énormes coûts énergétiques. »

L'équipe, qui comprenait des chercheurs d'Everspin Technologies Inc. et de Texas Instruments, a décrit le prototype dans une étude publiée dans Ingénierie des communications.

Les ordinateurs conventionnels et les unités de traitement graphique maintiennent le stockage en mémoire séparé du traitement de l'information. En conséquence, ils ne peuvent pas faire d’inférences IA aussi efficacement que le cerveau humain. Ils nécessitent également de grandes quantités de données étiquetées et un nombre considérable de calculs de formation complexes. Les coûts de ces calculs de formation peuvent s’élever à des centaines de millions de dollars.

Les ordinateurs neuromorphiques intègrent le stockage en mémoire au traitement, ce qui leur permet d'effectuer des opérations d'IA avec une bien plus grande efficacité et à moindre coût. Le matériel neuromorphique s’inspire du cerveau, où les réseaux de neurones et de synapses traitent et stockent respectivement les informations. Les synapses forment les connexions entre les neurones, se renforçant ou s’affaiblissant en fonction des modèles d’activité. Cela permet au cerveau de s’adapter continuellement au fur et à mesure qu’il apprend.

L'approche de Friedman s'appuie sur un principe proposé par le neuropsychologue Dr Donald Hebb, appelé loi de Hebb : les neurones qui s'activent ensemble se connectent ensemble.

« Le principe que nous utilisons pour qu'un ordinateur apprenne tout seul est que si un neurone artificiel provoque le déclenchement d'un autre neurone artificiel, la synapse qui les relie devient plus conductrice », a déclaré Friedman.

Une innovation majeure dans la conception de Friedman est l'utilisation de jonctions tunnel magnétiques (MTJ), des dispositifs à l'échelle nanométrique constitués de deux couches de matériau magnétique séparées par une couche isolante. Les électrons peuvent traverser cette barrière plus facilement lorsque les magnétisations des couches sont alignées dans la même direction et moins facilement lorsqu'elles sont alignées dans des directions opposées.

Dans les systèmes neuromorphiques, les MTJ peuvent être connectés en réseaux pour imiter la façon dont le cerveau traite et apprend les modèles. À mesure que les signaux traversent les MTJ de manière coordonnée, leurs connexions s'ajustent pour renforcer certaines voies, tout comme les connexions synaptiques dans le cerveau sont renforcées pendant l'apprentissage. La commutation binaire des MTJ les rend fiables pour le stockage des informations, résolvant ainsi un défi qui a longtemps entravé les approches neuromorphiques alternatives.