Les chercheurs en IA exposent des vulnérabilités critiques au sein des principaux grands modèles de langage

Des chercheurs révèlent une feuille de route pour l’innovation de l’IA dans l’apprentissage du cerveau et des langues

L’une des caractéristiques de l’humanité est le langage, mais désormais, de nouveaux outils puissants d’intelligence artificielle composent également de la poésie, écrivent des chansons et ont de longues conversations avec des utilisateurs humains. Des outils comme ChatGPT et Gemini sont largement disponibles en appuyant simplement sur un bouton, mais à quel point ces IA sont-elles intelligentes ?

Un nouvel effort de recherche multidisciplinaire co-dirigé par Anna (Anya) Ivanova, professeure adjointe à l'École de psychologie de Georgia Tech, aux côtés de Kyle Mahowald, professeur adjoint au Département de linguistique de l'Université du Texas à Austin, s'efforce de découvrir juste ça.

Leurs résultats pourraient conduire à des IA innovantes qui ressemblent plus que jamais au cerveau humain et aider également les neuroscientifiques et les psychologues qui découvrent les secrets de notre propre esprit.

L'étude intitulée « Dissocier le langage et la pensée dans les grands modèles linguistiques » est publiée dans Tendances des sciences cognitives. Une prépublication antérieure de l'article a été publiée en janvier 2023. L'équipe de recherche a continué à affiner la recherche pour cette publication finale dans la revue.

« ChatGPT est devenu disponible alors que nous finalisions la prépublication », explique Ivanova. « Au cours de la dernière année, nous avons eu l'occasion de mettre à jour nos arguments à la lumière de cette nouvelle génération de modèles, incluant désormais ChatGPT. »

Forme contre fonction

L'étude se concentre sur les grands modèles de langage (LLM), qui incluent des IA comme ChatGPT. Les LLM sont des modèles de prédiction de texte et créent une écriture en prédisant quel mot viendra ensuite dans une phrase, tout comme un téléphone portable ou un service de messagerie comme Gmail pourrait suggérer le mot que vous voudrez peut-être écrire ensuite. Cependant, même si ce type d’apprentissage des langues est extrêmement efficace pour créer des phrases cohérentes, cela ne signifie pas nécessairement intelligence.

L'équipe d'Ivanova soutient que la compétence formelle – créer une phrase bien structurée et grammaticalement correcte – devrait être différenciée de la compétence fonctionnelle – répondre à la bonne question, communiquer les informations correctes ou communiquer de manière appropriée. L’équipe a également constaté que même si les LLM formés à la prédiction de texte sont souvent très bons dans les compétences formelles, ils ont toujours des difficultés avec les compétences fonctionnelles.

« Nous, les humains, avons tendance à confondre langage et pensée », explique Ivanova. « Je pense que c'est une chose importante à garder à l'esprit lorsque nous essayons de comprendre de quoi ces modèles sont capables, car utiliser cette capacité à être bon en langage, à être bon en compétence formelle, amène de nombreuses personnes à supposer que les IA sont également doués pour réfléchir, même si ce n'est pas le cas.

« C'est une heuristique que nous avons développée lors de nos interactions avec d'autres humains au cours de milliers d'années d'évolution, mais maintenant, à certains égards, cette heuristique est brisée », explique Ivanova.

La distinction entre compétence formelle et compétence fonctionnelle est également vitale pour tester rigoureusement les capacités d'une IA, ajoute Ivanova. Souvent, les évaluations ne font pas la distinction entre les compétences formelles et fonctionnelles, ce qui rend difficile l'évaluation des facteurs qui déterminent le succès ou l'échec d'un modèle. La nécessité de développer des tests distincts est l’une des conclusions les plus largement acceptées de l’équipe et que certains chercheurs dans le domaine ont déjà commencé à mettre en œuvre.

Création d'un système modulaire

Même si la tendance humaine à confondre compétences fonctionnelles et formelles a pu entraver la compréhension des LLM dans le passé, notre cerveau humain pourrait également être la clé pour débloquer des IA plus puissantes.

Tirant parti des outils des neurosciences cognitives alors qu'elle était associée postdoctorale au Massachusetts Institute of Technology (MIT), Ivanova et son équipe ont étudié l'activité cérébrale chez des individus neurotypiques via l'IRMf et ont utilisé des évaluations comportementales d'individus souffrant de lésions cérébrales pour tester le rôle causal des régions cérébrales dans le langage et la cognition – à la fois en menant de nouvelles recherches et en s’appuyant sur des études antérieures. Les résultats de l'équipe ont montré que le cerveau humain utilise différentes régions pour les compétences fonctionnelles et formelles, confirmant ainsi cette distinction dans les IA.

« Nos recherches montrent que dans le cerveau, il existe un module de traitement du langage et des modules séparés pour le raisonnement », explique Ivanova. Cette modularité pourrait également servir de modèle pour le développement des futures IA.

« En nous appuyant sur les connaissances du cerveau humain – où le système de traitement du langage est nettement distinct des systèmes qui soutiennent notre capacité à penser – nous soutenons que la distinction langage-pensée est conceptuellement importante pour réfléchir, évaluer et améliorer les grands modèles de langage, en particulier compte tenu des efforts récents visant à imprégner ces modèles d'une intelligence semblable à celle de l'humain », déclare Evelina Fedorenko, ancienne conseillère d'Ivanova et co-auteur de l'étude, professeur de sciences du cerveau et des sciences cognitives au MIT et membre du McGovern Institute for Brain Research.

Développer des IA selon le modèle du cerveau humain pourrait aider à créer des systèmes plus puissants, tout en les aidant à s'intégrer plus naturellement aux utilisateurs humains. « En général, les différences dans la structure interne d'un mécanisme affectent le comportement », explique Ivanova. « Construire un système doté d'une large organisation macroscopique similaire à celle du cerveau humain pourrait contribuer à garantir qu'il pourrait être plus aligné sur les humains à l'avenir. »

Dans le monde en développement rapide de l’IA, ces systèmes sont mûrs pour l’expérimentation. Après la publication de la prépublication de l'équipe, OpenAI a annoncé son intention d'ajouter des plug-ins à ses modèles GPT.

« Ce système de plug-in est en fait très similaire à ce que nous proposons », ajoute Ivanova. « Il faut une approche modulaire où le modèle de langage peut être une interface avec un autre module spécialisé au sein d'un système. »

Même si le système de plug-in OpenAI inclura des fonctionnalités telles que la réservation de vols et la commande de nourriture, plutôt que des fonctionnalités d'inspiration cognitive, il démontre que « l'approche a beaucoup de potentiel », explique Ivanova.

L’avenir de l’IA et ce qu’elle peut nous apprendre sur nous-mêmes

Bien que notre propre cerveau puisse être la clé pour débloquer des IA meilleures et plus puissantes, ces IA pourraient également nous aider à mieux nous comprendre. « Lorsque les chercheurs tentent d'étudier le cerveau et la cognition, il est souvent utile de disposer d'un système plus petit dans lequel vous pouvez réellement entrer, fouiller et voir ce qui se passe avant d'arriver à l'immense complexité », explique Ivanova.

Cependant, le langage humain étant unique, les systèmes modèles ou animaux sont plus difficiles à relier. C'est là qu'interviennent les LLM.

« Il existe de nombreuses similitudes surprenantes entre la façon dont on aborde l'étude du cerveau et l'étude d'un réseau neuronal artificiel » comme un grand modèle de langage, ajoute-t-elle. « Ce sont tous deux des systèmes de traitement de l'information dotés de neurones biologiques ou artificiels pour effectuer des calculs. »

À bien des égards, le cerveau humain est encore une boîte noire, mais les IA librement disponibles offrent une opportunité unique de voir le fonctionnement interne du système synthétique et de modifier les variables, et d'explorer ces systèmes correspondants comme jamais auparavant.

« C'est un modèle vraiment merveilleux sur lequel nous avons beaucoup de contrôle », déclare Ivanova. « Les réseaux de neurones, ils sont incroyables. »

Outre Anna (Anya) Ivanova, Kyle Mahowald et Evelina Fedorenko, l'équipe de recherche comprend également Idan Blank (Université de Californie, Los Angeles), ainsi que Nancy Kanwisher et Joshua Tenenbaum (Massachusetts Institute of Technology).