Les chercheurs développent une nouvelle façon plus économe en énergie pour les algorithmes d’IA de traiter les données

Les chercheurs développent une nouvelle façon plus économe en énergie pour les algorithmes d’IA de traiter les données

Ça lit. Ça parle. Il rassemble des montagnes de données et recommande des décisions commerciales. L’intelligence artificielle d’aujourd’hui semble plus humaine que jamais. Cependant, l’IA présente encore plusieurs défauts critiques.

« Aussi impressionnants que soient ChatGPT et toutes ces technologies d'IA actuelles, en termes d'interaction avec le monde physique, elles sont encore très limitées. Même dans les choses qu'elles font, comme résoudre des problèmes mathématiques et rédiger des essais, elles nécessitent des milliards et des milliards de formation. exemples avant de pouvoir les faire correctement », explique Kyle Daruwalla, chercheur en NeuroAI au Cold Spring Harbor Laboratory (CSHL).

Daruwalla recherche de nouvelles façons non conventionnelles de concevoir une IA capable de surmonter de tels obstacles informatiques. Et il vient peut-être d'en trouver un.

La clé était de déplacer les données. De nos jours, la majeure partie de la consommation d'énergie de l'informatique moderne provient du rebond des données. Dans les réseaux de neurones artificiels, constitués de milliards de connexions, les données peuvent avoir un très long chemin à parcourir.

Ainsi, pour trouver une solution, Daruwalla s’est inspiré de l’une des machines les plus puissantes en termes de calcul et les plus économes en énergie qui soient : le cerveau humain.

Daruwalla a conçu une nouvelle façon pour les algorithmes d'IA de déplacer et de traiter les données beaucoup plus efficacement, en fonction de la manière dont notre cerveau intègre les nouvelles informations. La conception permet aux « neurones » individuels de l’IA de recevoir des commentaires et de s’ajuster à la volée plutôt que d’attendre qu’un circuit entier se mette à jour simultanément. De cette façon, les données ne doivent pas voyager aussi loin et sont traitées en temps réel.

« Dans notre cerveau, nos connexions changent et s'ajustent constamment », explique Daruwalla. « Ce n'est pas comme si vous mettiez tout sur pause, vous ajustiez, puis redeveniez vous-même. »

Les résultats sont publiés dans la revue Frontières des neurosciences computationnelles.

Le nouveau modèle d'apprentissage automatique fournit la preuve d'une théorie encore non prouvée qui établit une corrélation entre la mémoire de travail et l'apprentissage et les performances académiques. La mémoire de travail est le système cognitif qui nous permet de rester concentrés sur notre tâche tout en nous rappelant les connaissances et les expériences stockées.

« Il y a eu des théories en neurosciences sur la manière dont les circuits de mémoire de travail pourraient faciliter l'apprentissage. Mais il n'y a pas quelque chose d'aussi concret que notre règle qui lie réellement ces deux éléments. Et c'est donc l'une des choses intéressantes sur lesquelles nous sommes tombés ici. « La théorie a conduit à une règle selon laquelle l'ajustement individuel de chaque synapse nécessitait que cette mémoire de travail soit placée à côté d'elle », explique Daruwalla.

La conception de Daruwalla pourrait contribuer à lancer une nouvelle génération d’IA qui apprend comme nous. Cela rendrait non seulement l’IA plus efficace et plus accessible, mais ce serait aussi en quelque sorte une boucle bouclée pour la neuroIA. Les neurosciences alimentaient l’IA en données précieuses bien avant que ChatGPT ne prononce sa première syllabe numérique. Bientôt, semble-t-il, l’IA pourrait lui rendre la pareille.