`` Ai Super-Turing '' utilise moins d'énergie en imitant le cerveau humain

«  Ai Super-Turing  » utilise moins d’énergie en imitant le cerveau humain

L’intelligence artificielle (IA) peut effectuer des calculs complexes et analyser les données plus rapidement que n’importe quel humain, mais cela nécessite d’énormes quantités d’énergie. Le cerveau humain est également un ordinateur incroyablement puissant, mais il consomme très peu d’énergie.

À mesure que les entreprises technologiques se développent de plus en plus, une nouvelle approche de la «pensée» de l’IA, développée par des chercheurs tels que les ingénieurs universitaires du Texas A&M, imite le cerveau humain et a le potentiel de révolutionner l’industrie de l’IA.

Le Dr Suin Yi, professeur adjoint de génie électrique et informatique au Texas A&M’s College of Engineering, fait partie d’une équipe de chercheurs qui ont développé une «IA Super-Suring», qui opère plus comme le cerveau humain. Cette nouvelle IA intègre certains processus au lieu de les séparer, puis de migrer d’énormes quantités de données comme le font les systèmes actuels.

Le « Turing » du nom du système fait référence à l’AI pionnier Alan Turing, dont le travail théorique au milieu du 20e siècle est devenu l’épine dorsale de l’informatique, de l’IA et de la cryptographie. Aujourd’hui, la plus haute distinction en sciences informatiques s’appelle le prix Turing.

L’équipe a publié ses conclusions dans Avancées scientifiques.

La crise énergétique dans l’IA

Les systèmes d’IA d’aujourd’hui, y compris les modèles de grandes langues tels que OpenAI et Chatgpt, nécessitent une immense puissance de calcul et sont hébergés dans de vastes centres de données qui consomment de grandes quantités d’électricité.

« Ces centres de données consomment la puissance dans les Gigawatts, tandis que notre cerveau consomme 20 watts », a expliqué Suin. « Cela représente 1 milliard de watts contre seulement 20. Les centres de données qui consomment cette énergie ne sont pas durables avec les méthodes informatiques actuelles. Donc, bien que les capacités de l’IA soient remarquables, la production matérielle et d’électricité nécessaire pour le maintenir est toujours nécessaire. »

Les exigences énergétiques substantielles augmentent non seulement les coûts opérationnels mais soulèvent également des préoccupations environnementales, étant donné l’empreinte carbone associée aux centres de données à grande échelle. Au fur et à mesure que l’IA devient plus intégrée, le traitement de sa durabilité devient de plus en plus critique.

Imiter le cerveau

Yi et son équipe croient que la clé pour résoudre ce problème réside dans la nature – en particulier les processus neuronaux du cerveau humain.

Dans le cerveau, les fonctions d’apprentissage et de mémoire ne sont pas séparées, elles sont intégrées. L’apprentissage et la mémoire reposent sur des connexions entre les neurones, appelés «synapses», où les signaux sont transmis. L’apprentissage renforce ou affaiblit les connexions synaptiques à travers un processus appelé «plasticité synaptique», formant de nouveaux circuits et modifiant ceux existants pour stocker et récupérer des informations.

En revanche, dans les systèmes informatiques actuels, la formation (comment l’IA est enseignée) et la mémoire (stockage de données) se produit à deux endroits distincts dans le matériel informatique. L’IA Super-Suring est révolutionnaire car elle comble cet écart d’efficacité, donc l’ordinateur n’a pas à migrer d’énormes quantités de données d’une partie de son matériel à une autre.

« Les modèles d’IA traditionnels reposent fortement sur la rétro-propagation – une méthode utilisée pour ajuster les réseaux de neurones pendant la formation », a déclaré Yi. « Bien que efficace, la rétropropagation n’est pas biologiquement plausible et est intensive en calcul.

« Ce que nous avons fait dans ce document est de résoudre l’invraisemblance biologique présente dans les algorithmes d’apprentissage automatique en vigueur », a-t-il déclaré. « Notre équipe explore des mécanismes comme l’apprentissage par l’hébbian et la plasticité dépendante des éléments de pointe – des processus qui aident les neurones à renforcer les connexions d’une manière qui imite à quel point les cerveaux réels apprennent. »

Les principes d’apprentissage hébbien sont souvent résumés comme «des cellules qui tirent ensemble, câlinent ensemble». Cette approche s’aligne plus étroitement sur la façon dont les neurones du cerveau renforcent leurs connexions en fonction des modèles d’activité. En intégrant de tels mécanismes d’inspiration biologique, l’équipe vise à développer des systèmes d’IA qui nécessitent moins de puissance de calcul sans compromettre les performances.

Dans un test, un circuit utilisant ces composants a aidé un drone à naviguer dans un environnement complexe – sans formation antérieure – en apprenant et en s’adaptant à la volée. Cette approche était plus rapide, plus efficace et a utilisé moins d’énergie que l’IA traditionnelle.

Pourquoi cela compte pour l’avenir de l’IA

Cette recherche pourrait changer la donne pour l’industrie de l’IA. Les entreprises courent pour construire des modèles d’IA plus grands et plus puissants, mais leur capacité à évoluer est limitée par les contraintes matérielles et énergétiques. Dans certains cas, les nouvelles applications d’IA nécessitent la construction de nouveaux centres de données entiers, ce qui augmente encore les coûts environnementaux et économiques.

Yi souligne que l’innovation dans le matériel est tout aussi cruciale que les progrès des systèmes d’IA eux-mêmes. « Beaucoup de gens disent que l’IA n’est qu’un logiciel, mais sans calcul du matériel, l’IA ne peut pas exister », a-t-il déclaré.

Dans l’avenir: développement durable d’IA

L’IA super-touche représente une étape centrale vers le développement durable de l’IA. En réinventant les architectures d’IA pour refléter l’efficacité du cerveau humain, l’industrie peut relever les défis économiques et environnementaux.

Yi et son équipe espèrent que leurs recherches conduiront à une nouvelle génération d’IA qui est à la fois plus intelligente et plus efficace.

« L’IA moderne comme Chatgpt est géniale, mais c’est trop cher. Nous allons faire une IA durable », a déclaré Yi. « L’IA super-touche pourrait remodeler la façon dont l’IA est construite et utilisée, garantissant que, à mesure qu’il continue d’avancer, il le fait d’une manière qui profite à la fois aux personnes et à la planète. »