Les systèmes d’intelligence artificielle excellent en imitation, mais pas en innovation
Les systèmes d’intelligence artificielle (IA) sont souvent décrits comme des agents sensibles prêts à éclipser l’esprit humain. Mais l’IA ne dispose pas de la capacité humaine cruciale d’innovation, ont découvert des chercheurs de l’Université de Californie à Berkeley.
Alors que les enfants comme les adultes peuvent résoudre des problèmes en trouvant de nouvelles utilisations pour les objets du quotidien, les systèmes d’IA n’ont souvent pas la capacité de visualiser les outils d’une nouvelle manière, selon des découvertes publiées dans Perspectives sur la science psychologique.
Les modèles de langage d’IA comme ChatGPT sont entraînés passivement sur des ensembles de données contenant des milliards de mots et d’images produits par des humains. Cela permet aux systèmes d’IA de fonctionner comme une « technologie culturelle » similaire à l’écriture qui peut résumer les connaissances existantes, a expliqué Eunice Yiu, co-auteur de l’article, dans une interview. Mais contrairement aux humains, ils ont du mal à innover sur ces idées, a-t-elle déclaré.
« Même les jeunes enfants humains peuvent produire des réponses intelligentes à certaines questions qui [language learning models] « C’est impossible », a déclaré Yiu. « Au lieu de considérer ces systèmes d’IA comme des agents intelligents comme nous, nous pouvons les considérer comme une nouvelle forme de bibliothèque ou de moteur de recherche. Ils résument et nous communiquent efficacement la culture et la base de connaissances existantes.
Yiu et Eliza Kosoy, ainsi que leur conseillère doctorale et auteure principale de l’article, la psychologue du développement Alison Gopnik, ont testé en quoi la capacité des systèmes d’IA à imiter et à innover diffère de celle des enfants et des adultes. Ils ont présenté à 42 enfants âgés de 3 à 7 ans et à 30 adultes des descriptions textuelles d’objets du quotidien.
Dans la première partie de l’expérience, 88 % des enfants et 84 % des adultes ont pu identifier correctement quels objets « iraient le mieux » avec un autre. Par exemple, ils ont associé une boussole à une règle au lieu d’une théière.
Dans l’étape suivante de l’expérience, 85 % des enfants et 95 % des adultes ont également pu innover sur l’utilisation attendue des objets du quotidien pour résoudre des problèmes. Dans une tâche, par exemple, il a été demandé aux participants comment ils pouvaient tracer un cercle sans utiliser un outil classique tel qu’une boussole.
Face au choix entre un outil similaire comme une règle, un outil différent comme une théière à fond rond et un outil non pertinent comme un réchaud, la majorité des participants ont choisi la théière, un outil conceptuellement différent qui pourrait néanmoins remplir les mêmes fonctions. fonctionnent comme une boussole en leur permettant de tracer la forme d’un cercle.
Lorsque Yiu et ses collègues ont fourni les mêmes descriptions textuelles à cinq grands modèles de langage, les modèles se sont comportés de manière similaire à celle des humains lors de la tâche d’imitation, avec des scores allant de 59 % pour le modèle le moins performant à 83 % pour le modèle le plus performant. Les réponses des IA à la tâche d’innovation étaient cependant beaucoup moins précises. Les outils efficaces ont été sélectionnés entre 8 % du temps par le modèle le moins performant et 75 % du temps par le modèle le plus performant.
« Les enfants peuvent imaginer des utilisations complètement nouvelles pour des objets dont ils n’ont jamais vu ou entendu parler auparavant, comme utiliser le fond d’une théière pour dessiner un cercle », a déclaré Yiu. « Les grands modèles ont beaucoup plus de mal à générer de telles réponses. »
Dans une expérience connexe, ont noté les chercheurs, les enfants ont pu découvrir comment fonctionnait une nouvelle machine simplement en expérimentant et en explorant. Mais lorsque les chercheurs ont donné à plusieurs grands modèles de langage des descriptions textuelles des preuves produites par les enfants, ils ont eu du mal à tirer les mêmes conclusions, probablement parce que les réponses n’étaient pas explicitement incluses dans leurs données de formation, ont écrit Yiu et ses collègues.
Ces expériences démontrent que le recours de l’IA à la prévision statistique des modèles linguistiques n’est pas suffisant pour découvrir de nouvelles informations sur le monde, ont écrit Yiu et ses collègues.
« L’IA peut aider à transmettre des informations déjà connues, mais elle n’est pas innovatrice », a déclaré Yiu. « Ces modèles peuvent résumer la sagesse conventionnelle, mais ils ne peuvent pas étendre, créer, changer, abandonner, évaluer et améliorer la sagesse conventionnelle de la même manière qu’un jeune humain le peut. »
Cependant, le développement de l’IA n’en est qu’à ses débuts et il reste encore beaucoup à apprendre sur la manière d’étendre la capacité d’apprentissage de l’IA, a déclaré Yiu. S’inspirer de l’approche d’apprentissage curieuse, active et intrinsèquement motivée des enfants pourrait aider les chercheurs à concevoir de nouveaux systèmes d’IA mieux préparés à explorer le monde réel, a-t-elle déclaré.