Des ingénieurs développent un dispositif basé sur une jonction tunnel magnétique pour rendre l'IA plus économe en énergie
Des chercheurs en ingénierie de l'Université du Minnesota Twin Cities ont démontré un dispositif matériel de pointe qui pourrait réduire la consommation d'énergie des applications informatiques d'intelligence artificielle (IA) d'un facteur d'au moins 1 000.
La recherche est publiée dans npj Informatique non conventionnelle intitulé « Démonstration expérimentale d'une mémoire à accès aléatoire computationnelle basée sur une jonction tunnel magnétique ». Les chercheurs possèdent plusieurs brevets sur la technologie utilisée dans l'appareil.
Face à la demande croissante d’applications d’IA, les chercheurs ont cherché des moyens de créer un processus plus économe en énergie, tout en maintenant des performances élevées et des coûts faibles. Généralement, les processus d’intelligence artificielle ou de machine transfèrent des données entre la logique (où les informations sont traitées au sein d’un système) et la mémoire (où les données sont stockées), consommant ainsi une grande quantité d’énergie et de puissance.
Une équipe de chercheurs du Collège des sciences et de l'ingénierie de l'Université du Minnesota a démontré un nouveau modèle dans lequel les données ne quittent jamais la mémoire, appelé mémoire vive computationnelle (CRAM).
« Ce travail est la première démonstration expérimentale de CRAM, où les données peuvent être traitées entièrement dans la matrice de mémoire sans avoir besoin de quitter la grille où un ordinateur stocke les informations », a déclaré Yang Lv, chercheur postdoctoral du département de génie électrique et informatique de l'Université du Minnesota et premier auteur de l'article.
L'Agence internationale de l'énergie (AIE) a publié en mars 2024 une prévision de la consommation énergétique mondiale, prévoyant que la consommation énergétique de l'IA devrait doubler, passant de 460 térawattheures (TWh) en 2022 à 1 000 TWh en 2026. Cela équivaut à peu près à la consommation d'électricité de l'ensemble du Japon.
Selon les auteurs de la nouvelle étude, un accélérateur d'inférence d'apprentissage automatique basé sur CRAM devrait permettre une amélioration de l'ordre de 1 000. Un autre exemple a montré des économies d'énergie de 2 500 et 1 700 fois par rapport aux méthodes traditionnelles.
Cette recherche est le fruit de plus de deux décennies de travail.
« Notre concept initial d'utiliser des cellules mémoire directement pour le calcul il y a 20 ans était considéré comme fou », a déclaré Jian-Ping Wang, auteur principal de l'article et professeur distingué McKnight et titulaire de la chaire Robert F. Hartmann au département de génie électrique et informatique de l'université du Minnesota.
« Avec un groupe d'étudiants en constante évolution depuis 2003 et une véritable équipe de professeurs interdisciplinaires constituée à l'Université du Minnesota – de la physique, de la science et de l'ingénierie des matériaux, de l'informatique et de l'ingénierie à la modélisation et à l'analyse comparative, et à la création de matériel – nous avons pu obtenir des résultats positifs et avons maintenant démontré que ce type de technologie est réalisable et prêt à être intégré à la technologie », a déclaré Wang.
Cette recherche fait partie d'un effort cohérent et de longue date s'appuyant sur les recherches révolutionnaires et brevetées de Wang et de ses collaborateurs sur les dispositifs à jonctions tunnel magnétiques (MTJ), qui sont des dispositifs nanostructurés utilisés pour améliorer les disques durs, les capteurs et d'autres systèmes microélectroniques, y compris la mémoire vive magnétique (MRAM), qui a été utilisée dans les systèmes embarqués tels que les microcontrôleurs et les montres intelligentes.
L'architecture CRAM permet le véritable calcul dans et par la mémoire et brise le mur entre le calcul et la mémoire comme goulot d'étranglement dans l'architecture traditionnelle de von Neumann, une conception théorique pour un ordinateur à programme stocké qui sert de base à presque tous les ordinateurs modernes.
« En tant que substrat informatique numérique en mémoire extrêmement économe en énergie, la CRAM est très flexible dans la mesure où le calcul peut être effectué à n'importe quel endroit de la matrice mémoire. En conséquence, nous pouvons reconfigurer la CRAM pour qu'elle réponde au mieux aux besoins de performance d'un ensemble diversifié d'algorithmes d'IA », a déclaré Ulya Karpuzcu, experte en architecture informatique, co-auteure de l'article et professeure agrégée au département de génie électrique et informatique de l'université du Minnesota.
« Il est plus économe en énergie que les éléments de base traditionnels des systèmes d'IA actuels. »
CRAM effectue les calculs directement dans les cellules mémoire, en utilisant efficacement la structure du réseau, ce qui élimine le besoin de transferts de données lents et gourmands en énergie, a expliqué Karpuzcu.
La mémoire vive à court terme (RAM) la plus efficace utilise quatre ou cinq transistors pour coder un ou zéro, mais une MTJ, un dispositif spintronique, peut effectuer la même fonction avec une fraction de l'énergie, avec une vitesse plus élevée et résiste aux environnements difficiles. Les dispositifs spintroniques exploitent le spin des électrons plutôt que la charge électrique pour stocker les données, offrant une alternative plus efficace aux puces traditionnelles à base de transistors.
Actuellement, l’équipe prévoit de travailler avec les leaders de l’industrie des semi-conducteurs, notamment ceux du Minnesota, pour fournir des démonstrations à grande échelle et produire le matériel nécessaire pour faire progresser les fonctionnalités de l’IA.
Outre Lv, Wang et Karpuzcu, l'équipe comprenait les chercheurs du département de génie électrique et informatique de l'université du Minnesota, Robert Bloom et Husrev Cilasun ; le professeur distingué McKnight et président Robert et Marjorie Henle, Sachin Sapatnekar ; et les anciens chercheurs postdoctoraux Brandon Zink, Zamshed Chowdhury et Salonik Resch ; ainsi que des chercheurs de l'université d'Arizona : Pravin Khanal, Ali Habiboglu et le professeur Weigang Wang.