Dans un nouveau manifeste, Sam Altman d'OpenAI envisage une utopie de l'IA et révèle des angles morts flagrants

Les similitudes entre l'apprentissage humain et l'IA offrent des idées de conception intuitives

De nouvelles recherches ont trouvé des similitudes dans la façon dont les humains et l'intelligence artificielle intègrent deux types d'apprentissage, offrant de nouvelles perspectives sur la façon dont les gens apprennent ainsi que sur la façon de développer des outils d'IA plus intuitifs.

L'étude est publiée dans le Actes de l'Académie nationale des sciences.

Dirigée par Jake Russin, un associé de recherche postdoctorale en informatique à l'Université Brown, l'étude trouvée par la formation d'un système d'IA qui est flexible et les modes d'apprentissage progressif interagissent de manière similaire à la mémoire de travail et à la mémoire à long terme chez l'homme.

« Ces résultats aident à expliquer pourquoi un humain ressemble à un apprenant basé sur des règles dans certaines circonstances et à un apprenant incrémentiel dans d'autres », a déclaré Russin. « Ils suggèrent également quelque chose sur ce que les nouveaux systèmes d'IA ont en commun avec le cerveau humain. »

Le Russin tient une nomination conjointe dans les laboratoires de Michael Frank, professeur de sciences cognitives et psychologiques et directrice du Center for Computational Brain Science du Brown's Carney Institute for Brain Science, et Ellie Pavlick, professeur agrégé d'informatique qui dirige l'Institut de recherche sur l'IA sur l'interaction pour les assistants de l'IA chez Brown.

Selon la tâche, les humains acquièrent de nouvelles informations de deux manières. Pour certaines tâches, telles que l'apprentissage des règles de tic-tac-toe, « L'apprentissage » dans le contexte « permet aux gens de déterminer rapidement les règles après quelques exemples. Dans d'autres cas, l'apprentissage incrémentiel s'appuie sur des informations pour améliorer la compréhension au fil du temps, comme la pratique lente et soutenue impliquée dans l'apprentissage à jouer une chanson au piano.

Alors que les chercheurs savaient que les humains et l'IA intègrent les deux formes d'apprentissage, il n'était pas clair comment les deux types d'apprentissage fonctionnent ensemble. Au cours de la collaboration continue de l'équipe de recherche, la Russin – qui travaille le travail plie l'apprentissage automatique et les neurosciences informatiques – a développé une théorie selon laquelle la dynamique pourrait être similaire à l'interaction de la mémoire de travail humaine et de la mémoire à long terme.

Pour tester cette théorie, le Russin a utilisé le «méta-apprentissage» – un type de formation qui aide les systèmes AI à se renseigner sur l'acte d'apprentissage lui-même – pour démêler les propriétés clés des deux types d'apprentissage. Les expériences ont révélé que la capacité du système d'IA à effectuer un apprentissage en contexte a émergé après sa méta-appris à travers plusieurs exemples.

Une expérience, adaptée d'une expérience à l'homme, a testé l'apprentissage dans le contexte en mettant l'IA pour recombiner des idées similaires pour faire face à de nouvelles situations. S'il est enseigné sur une liste de couleurs et une liste d'animaux, l'IA pourrait-il identifier correctement une combinaison de couleurs et d'animaux (par exemple une girafe verte) qu'il n'avait pas vue ensemble auparavant? Après que l'IA a été méta-appris en étant contestée à 12 000 tâches similaires, il a acquis la capacité d'identifier avec succès de nouvelles combinaisons de couleurs et d'animaux.

Les résultats suggèrent que pour les humains et l'IA, un apprentissage en contexte plus rapide et plus flexible survient après qu'une certaine quantité d'apprentissage progressif a eu lieu.

« Lors du premier jeu de société, il vous faut un certain temps pour comprendre comment jouer », a déclaré Pavlick. « Au moment où vous apprenez votre centième jeu de société, vous pouvez acquérir rapidement les règles de jeu, même si vous n'avez jamais vu ce jeu particulier auparavant. »

L'équipe a également constaté des compromis, y compris entre la rétention et la flexibilité de l'apprentissage: similaire aux humains, plus il est difficile pour l'IA de terminer correctement une tâche, plus il se souviendra de comment l'exécuter à l'avenir. Selon Frank, qui a étudié ce paradoxe chez l'homme, c'est parce que les erreurs indiquent le cerveau pour mettre à jour les informations stockées dans la mémoire à long terme, tandis que les actions sans erreur apprises dans le contexte augmentent la flexibilité mais n'engagent pas de mémoire à long terme de la même manière.

Pour Frank, qui se spécialise dans la construction de modèles informatiques inspirés biologiquement pour comprendre l'apprentissage humain et la prise de décision, le travail de l'équipe a montré comment l'analyse des forces et des faiblesses de différentes stratégies d'apprentissage dans un réseau neuronal artificiel peut offrir de nouvelles perspectives sur le cerveau humain.

« Nos résultats tiennent de manière fiable sur plusieurs tâches et réunissent des aspects disparates de l'apprentissage humain que les neuroscientifiques n'avaient pas regroupés jusqu'à présent », a déclaré Frank.

Le travail suggère également des considérations importantes pour développer des outils d'IA intuitifs et dignes de confiance, en particulier dans des domaines sensibles tels que la santé mentale.

« Avoir des assistants d'IA utiles et dignes de confiance, la cognition humaine et de l'IA doit être consciente de la façon dont chacun fonctionne et de la mesure où ils sont différents et les mêmes », a déclaré Pavlick. « Ces résultats sont une excellente première étape. »