Comment les grands modèles de langage codent la théorie de l'esprit

Comment les grands modèles de langage codent la théorie de l'esprit

Imaginez que vous regardez un film dans lequel un personnage met une barre de chocolat dans une boîte, ferme la boîte et quitte la pièce. Une autre personne, également présente dans la pièce, déplace le bar d'une boîte vers un tiroir de bureau. En tant qu'observateur, vous savez que la friandise est maintenant dans le tiroir, et vous savez également que lorsque la première personne reviendra, elle cherchera la friandise dans la boîte car elle ne sait pas qu'elle a été déplacée.

Vous le savez parce qu’en tant qu’humain, vous avez la capacité cognitive de déduire et de raisonner sur l’esprit des autres – dans ce cas, le manque de conscience de la personne quant à l’endroit où se trouve le chocolat. En termes scientifiques, cette capacité est décrite comme la Théorie de l’Esprit (ToM). Cette capacité de « lire dans les pensées » nous permet de prédire et d’expliquer le comportement des autres en considérant leur état mental.

Nous développons cette capacité vers l’âge de quatre ans, et notre cerveau y parvient très bien.

« Pour un cerveau humain, c'est une tâche très simple », explique Zhaozhuo Xu, professeur adjoint d'informatique à l'École d'ingénierie : le traitement ne prend que quelques secondes.

« Et ce faisant, notre cerveau n'implique qu'un petit sous-ensemble de neurones, il est donc très économe en énergie », explique Denghui Zhang, professeur adjoint en systèmes d'information et analytique à la School of Business.

En quoi les LLM diffèrent du raisonnement humain

Les grands modèles de langage ou LLM, étudiés par les chercheurs, fonctionnent différemment. Bien qu’ils s’inspirent de certains concepts des neurosciences et des sciences cognitives, ils ne sont pas des imitations exactes du cerveau humain. Les LLM ont été construits sur des réseaux de neurones artificiels qui ressemblent vaguement à l'organisation des neurones biologiques, mais les modèles apprennent à partir de modèles présents dans d'énormes quantités de texte et fonctionnent à l'aide de fonctions mathématiques.

Cela donne aux LLM un avantage définitif sur les humains dans le traitement rapide de nombreuses informations. Mais lorsqu’il s’agit d’efficacité, en particulier pour les choses simples, les LLM perdent face aux humains. Quelle que soit la complexité de la tâche, ils doivent activer la majeure partie de leur réseau neuronal pour produire la réponse. Ainsi, que vous demandiez à un LLM de vous dire quelle heure il est ou de résumer « Moby Dick », une baleine d'un roman, le LLM mobilisera l'ensemble de son réseau, qui est consommateur de ressources et inefficace.

« Lorsque nous, les humains, évaluons une nouvelle tâche, nous activons une très petite partie de notre cerveau, mais les LLM doivent activer la quasi-totalité de leur réseau pour comprendre quelque chose de nouveau, même si c'est assez basique », explique Zhang. « Les LLM doivent effectuer tous les calculs, puis sélectionner la seule chose dont vous avez besoin. Vous effectuez donc beaucoup de calculs redondants, car vous calculez beaucoup de choses dont vous n'avez pas besoin. C'est très inefficace. »

Nouvelle recherche sur le raisonnement social des LLM

En travaillant ensemble, Zhang et Xu ont formé une collaboration multidisciplinaire pour mieux comprendre le fonctionnement des LLM et comment leur efficacité en matière de raisonnement social peut être améliorée.

Ils ont découvert que les LLM utilisent un petit ensemble spécialisé de connexions internes pour gérer le raisonnement social. Ils ont également constaté que les capacités de raisonnement social des LLM dépendent fortement de la manière dont le modèle représente les positions des mots, notamment via une méthode appelée codage positionnel rotatif (RoPE). Ces connexions spéciales influencent la manière dont le modèle prête attention aux différents mots et idées, guidant efficacement sa « concentration » lors du raisonnement sur les pensées des gens.

« En termes simples, nos résultats suggèrent que les LLM utilisent des modèles intégrés pour suivre les positions et les relations entre les mots afin de former des » croyances « internes et de faire des inférences sociales », explique Zhang. Les deux collaborateurs ont présenté leurs conclusions dans l'étude intitulée « Comment les grands modèles de langage encodent la théorie de l'esprit : une étude sur les modèles de paramètres clairsemés », publiée dans npj Intelligence Artificielle.

Vers une IA plus efficace

Maintenant que les chercheurs comprennent mieux comment les LLM forment leurs « croyances », ils pensent qu’il pourrait être possible de rendre les modèles plus efficaces.

« Nous savons tous que l'IA est coûteuse en énergie, donc si nous voulons la rendre évolutive, nous devons changer son fonctionnement », explique Xu. « Notre cerveau humain est très économe en énergie, nous espérons donc que cette recherche nous ramènera à réfléchir à la manière dont nous pouvons faire en sorte que les LLM fonctionnent davantage comme le cerveau humain, afin qu'ils n'activent qu'un sous-ensemble de paramètres en charge d'une tâche spécifique. C'est un argument important que nous souhaitons transmettre. »