L’efficacité de l’IA progresse grâce à une puce mémoire spintronique qui combine stockage et traitement

L’efficacité de l’IA progresse grâce à une puce mémoire spintronique qui combine stockage et traitement

Pour effectuer des prédictions précises et accomplir de manière fiable les tâches souhaitées, la plupart des systèmes d'intelligence artificielle (IA) doivent analyser rapidement de grandes quantités de données. Cela implique actuellement le transfert de données entre les unités de traitement et de mémoire, qui sont distinctes dans les appareils électroniques existants.

Au cours des dernières années, de nombreux ingénieurs ont tenté de développer de nouveaux matériels capables d’exécuter plus efficacement les algorithmes d’IA, connus sous le nom de systèmes de calcul en mémoire (CIM). Les systèmes CIM sont des composants électroniques capables à la fois d'effectuer des calculs et de stocker des informations, servant généralement à la fois de processeurs et de mémoires non volatiles. Non volatile signifie essentiellement qu'ils peuvent conserver les données même lorsqu'ils sont éteints.

La plupart des conceptions CIM précédemment introduites reposent sur des approches informatiques analogiques, qui permettent aux appareils d'effectuer des calculs en exploitant le courant électrique. Malgré leur bonne efficacité énergétique, les techniques informatiques analogiques sont connues pour être nettement moins précises que les méthodes informatiques numériques et ne parviennent souvent pas à gérer de manière fiable de grands modèles d’IA ou de grandes quantités de données.

Des chercheurs de l'Université des sciences et technologies du Sud, de l'Université Jiaotong de Xi'an et d'autres instituts ont récemment développé une nouvelle puce CIM prometteuse qui pourrait aider à exécuter des modèles d'IA plus rapidement et avec une plus grande efficacité énergétique.

Leur système proposé, décrit dans un article publié dans Électronique naturelleest basé sur une mémoire vive magnétique à couple de transfert de spin (STT-MRAM), un dispositif spintronique capable de stocker des unités binaires d'informations (c'est-à-dire des 0 et des 1) dans l'orientation magnétique de l'une de ses couches sous-jacentes.

Utiliser la spintronique pour exécuter l’IA plus efficacement

Les dispositifs STT-MRAM, comme celui utilisé par cette équipe de recherche, consistent essentiellement en une minuscule structure connue sous le nom de jonction tunnel magnétique (MTJ). Cette structure comporte trois couches, une couche magnétique à orientation « fixe », une couche magnétique pouvant changer d’orientation et une fine couche isolante qui sépare les deux autres couches.

Lorsque les deux couches magnétiques ont des directions magnétiques parallèles, les électrons peuvent facilement traverser le dispositif, mais lorsqu'elles sont opposées, la résistance augmente et le flux d'électrons devient plus difficile. Les appareils STT-MRAM exploitent ces deux états différents pour stocker des données binaires.

« Les macros CIM non volatiles (c'est-à-dire des modules fonctionnels préconçus à l'intérieur d'une puce qui peuvent à la fois traiter et stocker des données) peuvent réduire le transfert de données entre les unités de traitement et de mémoire, fournissant ainsi des calculs d'intelligence artificielle rapides et économes en énergie », ont écrit Humiao Li, Zheng Chai et leurs collègues dans leur article.

« Cependant, l'architecture CIM non volatile repose généralement sur le calcul analogique, qui est limité en termes de précision, d'évolutivité et de robustesse. Nous rapportons une macro de calcul en mémoire numérique non volatile de 64 Ko basée sur la technologie STT-MRAM 40 nm. »

Un pas vers un matériel d’IA plus évolutif

Le module basé sur STT-MRAM introduit par les chercheurs peut effectuer des calculs et stocker des bits de manière fiable, le tout dans un seul appareil. Lors des premiers tests, il a remarquablement bien fonctionné, exécutant deux types distincts de réseaux neuronaux avec une vitesse et une précision remarquables.

« Notre macro comprend une multiplication et une numérisation in situ au niveau de la cellule binaire, une addition et une accumulation numériques reconfigurables avec précision au niveau macro et un schéma de formation prenant en compte le taux de bascule au niveau de l'algorithme », ont écrit les auteurs. « La macro prend en charge les multiplications matrice-vecteur sans perte avec des précisions d'entrée et de poids flexibles (4, 8, 12 et 16 bits), et peut atteindre une précision d'inférence équivalente à celle d'un logiciel pour un réseau résiduel avec une précision de 8 bits et des réseaux neuronaux informés par la physique avec une précision de 16 bits.

« Notre macro a des latences de calcul de 7,4 à 29,6 ns et des efficacités énergétiques de 7,02 à 112,3 téra-opérations par seconde et par watt pour des multiplications matrice-vecteur entièrement parallèles dans des configurations de précision allant de 4 à 16 bits. »

À l'avenir, le module CIM nouvellement développé par l'équipe pourrait contribuer au déploiement économe en énergie de l'IA directement sur les appareils portables, sans avoir recours à de grands centres de données. Au cours des prochaines années, cela pourrait également inspirer le développement de systèmes CIM similaires basés sur des STT-MRAM ou d’autres dispositifs spintroniques.

Écrit pour vous par notre auteur Ingrid Fadelli, édité par Lisa Lock, et vérifié et révisé par Robert Egan, cet article est le résultat d'un travail humain minutieux. Nous comptons sur des lecteurs comme vous pour maintenir en vie le journalisme scientifique indépendant. Si ce reporting vous intéresse, pensez à faire un don (surtout mensuel). Vous obtiendrez un sans publicité compte en guise de remerciement.