Des chercheurs d'Apple suggèrent que l'intelligence artificielle est encore une illusion

Des chercheurs d'Apple suggèrent que l'intelligence artificielle est encore une illusion

Des chercheurs d’Apple Computer Company ont trouvé, via des tests, des preuves montrant que les réponses apparemment intelligentes données par les LLM basés sur l’IA ne sont guère plus qu’une illusion. Dans leur article publié sur le arXiv serveur de préimpression, les chercheurs affirment qu'après avoir testé plusieurs LLM, ils ont constaté qu'ils n'étaient pas capables d'effectuer un véritable raisonnement logique.

Au cours des dernières années, de nombreux LLM tels que ChatGPT se sont développés à tel point que de nombreux utilisateurs ont commencé à se demander s'ils possédaient une véritable intelligence. Dans ce nouvel effort, l'équipe d'Apple a abordé la question en supposant que la réponse réside dans la capacité d'un être intelligent, ou d'une machine, à comprendre les nuances présentes dans des situations simples, qui nécessitent un raisonnement logique.

L’une de ces nuances est la capacité de séparer les informations pertinentes des informations qui ne le sont pas. Si un enfant demande à un parent combien de pommes il y a dans un sac, par exemple, tout en notant que plusieurs sont trop petites pour être mangées, l'enfant et le parent comprennent que la taille des pommes n'a rien à voir avec le nombre de pommes présentes. . C’est parce qu’ils possèdent tous deux des capacités de raisonnement logique.

Dans cette nouvelle étude, les chercheurs ont testé plusieurs LLM sur leur capacité à véritablement comprendre ce qui leur est demandé, en leur demandant indirectement d'ignorer les informations qui ne sont pas pertinentes.

Leurs tests impliquaient de poser à plusieurs LLM des centaines de questions qui avaient déjà été utilisées pour tester les capacités des LLM, mais les chercheurs ont également inclus un peu d'informations non pertinentes. Et cela, ont-ils découvert, suffisait à confondre les LLM et à donner des réponses fausses, voire absurdes, à des questions auxquelles ils avaient précédemment répondu correctement.

Selon les chercheurs, cela montre que les LLM ne comprennent pas vraiment ce qu'on leur demande. Au lieu de cela, ils reconnaissent la structure d’une phrase, puis crachent une réponse basée sur ce qu’ils ont appris grâce à des algorithmes d’apprentissage automatique.

Ils notent également que la plupart des LLM qu'ils ont testés répondent très souvent avec des réponses qui peuvent sembler correctes, mais qui, après un examen plus approfondi, ne le sont pas, par exemple lorsqu'on leur demande ce qu'ils « ressentent » à propos de quelque chose et obtiennent des réponses qui suggèrent que l'IA pense qu'elle est capable de un tel comportement.