Apprendre à des robots à apprendre à d'autres robots

Par quoi remplacer le test de Turing ?

Dans un article publié dans Informatique intelligente, Philip Nicholas Johnson-Laird de l’Université de Princeton et Marco Ragni de l’Université de technologie de Chemnitz proposent une nouvelle alternative au test de Turing, un test marquant développé par le pionnier de l’informatique Alan Turing. L’article suggère qu’il est temps de ne plus se demander si une machine peut imiter les réponses humaines, mais plutôt de se concentrer sur une question plus fondamentale : « Un programme raisonne-t-il de la même manière que les humains ?

Le test de Turing, qui constitue depuis longtemps la pierre angulaire de l’évaluation de l’IA, implique un évaluateur humain qui tente de faire la distinction entre les réponses humaines et celles de la machine à une série de questions. Si l’évaluateur ne peut pas faire la différence de manière cohérente entre les deux, la machine est considérée comme ayant « réussi » le test. Bien qu’elle ait constitué une référence précieuse dans l’histoire de l’IA, elle présente certaines limites :

  • Mimétisme contre compréhension : Réussir le test de Turing implique souvent d’imiter les réponses humaines, ce qui en fait davantage un test de mimétisme et de génération de langage qu’un véritable raisonnement de type humain. De nombreux systèmes d’IA excellent dans l’imitation des conversations humaines, mais manquent de capacités de raisonnement approfondies.
  • Manque de conscience de soi : le test de Turing n’exige pas que l’IA soit consciente d’elle-même ou comprenne son propre raisonnement. Il se concentre uniquement sur les interactions et les réponses externes, négligeant l’aspect introspectif de la cognition humaine.
  • Échec de la réflexion : Alan Turing lui-même a reconnu que le test pourrait ne pas réellement répondre à la question de savoir si les machines peuvent penser. Le test porte davantage sur l’imitation que sur la cognition.

Johnson-Laird et Ragni présentent un nouveau cadre d’évaluation pour déterminer si l’IA raisonne réellement comme un humain. Ce cadre comprend trois étapes critiques :

1. Tests dans les expériences psychologiques :

Les chercheurs proposent de soumettre les programmes d’IA à une batterie d’expériences psychologiques conçues pour différencier le raisonnement humain des processus logiques standards. Ces expériences explorent diverses facettes du raisonnement, notamment la manière dont les humains déduisent des possibilités à partir d’affirmations composées et la manière dont ils condensent des possibilités cohérentes en une seule, entre autres nuances qui s’écartent des cadres logiques standards.

2. Réflexion personnelle :

Cette étape vise à évaluer la compréhension du programme de sa propre façon de raisonner, une facette essentielle de la cognition humaine. Le programme doit être capable d’introspecter ses processus de raisonnement et de fournir des explications pour ses décisions. En posant des questions qui nécessitent une connaissance des méthodes de raisonnement, les chercheurs cherchent à déterminer si l’IA fait preuve d’une introspection semblable à celle d’un humain.

3. Examen du code source :

Dans la dernière étape, les chercheurs approfondissent le code source du programme. La clé ici est d’identifier la présence de composants connus pour simuler les performances humaines. Ces composants comprennent des systèmes permettant des inférences rapides, un raisonnement réfléchi et la capacité d’interpréter des termes en fonction du contexte et des connaissances générales. Si le code source du programme reflète ces principes, le programme est considéré comme raisonnant de manière humaine.

Cette approche innovante, remplaçant le test de Turing par un examen des capacités de raisonnement d’un programme d’IA, marque un changement de paradigme dans l’évaluation de l’intelligence artificielle. En traitant l’IA comme un participant à des expériences cognitives et en soumettant même son code à une analyse semblable à une étude d’imagerie cérébrale, les auteurs cherchent à nous rapprocher de la compréhension si les systèmes d’IA raisonnent réellement à la manière des humains.

Alors que le monde poursuit sa quête d’une intelligence artificielle avancée, cette approche alternative promet de redéfinir les normes d’évaluation de l’IA et de nous rapprocher de l’objectif de comprendre comment les machines raisonnent. La route vers l’intelligence artificielle générale vient peut-être de faire un pas en avant significatif.

Fourni par l’informatique intelligente