L’IA peut « mentir et faire des conneries » comme son créateur, mais n’est toujours pas intelligente comme les humains, affirme un chercheur
L’émergence de l’intelligence artificielle a suscité des réactions diverses de la part des dirigeants technologiques, des politiciens et du public. Alors que certains vantent avec enthousiasme la technologie de l’IA telle que ChatGPT comme un outil avantageux ayant le potentiel de transformer la société, d’autres s’inquiètent du fait que tout outil portant le mot « intelligent » dans son nom a également le potentiel de dépasser l’humanité.
Anthony Chemero, de l’Université de Cincinnati, professeur de philosophie et de psychologie au Collège des Arts et des Sciences de l’UC, affirme que la compréhension de l’IA est brouillée par la linguistique : que bien qu’elle soit effectivement intelligente, l’IA ne peut pas être intelligente de la même manière que les humains, même bien que « il puisse mentir et BS comme son créateur ».
Selon notre usage quotidien du mot, l’IA est certainement intelligente, mais il existe des ordinateurs intelligents et ce depuis des années, explique Chemero dans un article qu’il a co-écrit dans la revue Comportement humain. Pour commencer, l’article indique que ChatGPT et d’autres systèmes d’IA sont des modèles de langage étendus (LLM), formés sur d’énormes quantités de données extraites d’Internet, dont une grande partie partage les préjugés des personnes qui publient les données.
« Les LLM génèrent des textes impressionnants, mais composent souvent des textes entiers », déclare-t-il. « Ils apprennent à produire des phrases grammaticales, mais nécessitent beaucoup plus de formation que les humains. Ils ne savent pas vraiment ce que signifient les choses qu’ils disent », dit-il. « Les LLM diffèrent de la cognition humaine car ils ne sont pas incarnés. »
Les gens qui ont fait des LLM qualifient d’« hallucinant » lorsqu’ils inventent des choses ; bien que Chemero dise : « il vaudrait mieux appeler ça des « conneries » », parce que les LLM se contentent de faire des phrases en ajoutant à plusieurs reprises le mot suivant le plus probable statistiquement – et ils ne savent pas ou ne se soucient pas de savoir si ce qu’ils disent est vrai.
Et avec un peu d’incitation, dit-il, on peut obtenir un outil d’IA pour dire « des choses désagréables qui sont racistes, sexistes et autrement biaisées ».
L’intention de l’article de Chemero est de souligner que les LLM ne sont pas intelligents de la même manière que les humains le sont parce que les humains sont incarnés : des êtres vivants qui sont toujours entourés d’autres humains et d’environnements matériels et culturels.
« Cela nous amène à nous soucier de notre propre survie et du monde dans lequel nous vivons », dit-il, soulignant que les LLM n’existent pas vraiment dans le monde et ne se soucient de rien.
Le principal point à retenir est que les LLM ne sont pas intelligents comme le sont les humains parce qu’ils « s’en foutent », dit Chemero, ajoutant : « Les choses comptent pour nous. Nous nous engageons à notre survie. Nous nous soucions du monde dans lequel nous vivons. dans. »