Oubliez les chatbots, c'est ainsi que les entreprises américaines utilisent vraiment l'IA

L’évolution nous oblige à traiter l’IA comme un humain, et nous devons nous débarrasser de cette habitude

Les ensembles de données utilisés pour entraîner les algorithmes d’IA peuvent sous-représenter les personnes âgées. Crédit : Pixabay/CC0 Domaine public

Le pionnier de l’intelligence artificielle (IA) Geoffrey Hinton a récemment démissionné de Google, avertissant des dangers de la technologie « devenant plus intelligente que nous ». Sa crainte est que l’IA réussisse un jour à « manipuler les gens pour qu’ils fassent ce qu’elle veut ».

Il y a des raisons pour lesquelles nous devrions nous préoccuper de l’IA. Mais nous traitons ou parlons fréquemment des IA comme si elles étaient humaines. Arrêter cela et réaliser ce qu’ils sont réellement pourrait nous aider à maintenir une relation fructueuse avec la technologie.

Dans un essai récent, le psychologue américain Gary Marcus nous a conseillé d’arrêter de traiter les modèles d’IA comme des personnes. Par modèles d’IA, il entend les grands modèles de langage (LLM) comme ChatGPT et Bard, qui sont désormais utilisés quotidiennement par des millions de personnes.

Il cite des exemples flagrants de personnes « attribuant trop » à l’IA des capacités cognitives de type humain qui ont eu diverses conséquences. Le plus amusant était le sénateur américain qui affirmait que ChatGPT « a appris la chimie tout seul ». Le plus déchirant a été le rapport d’un jeune Belge qui se serait suicidé après de longues conversations avec un chatbot IA.

Marcus a raison de dire que nous devrions cesser de traiter l’IA comme des personnes – des agents moraux conscients avec des intérêts, des espoirs et des désirs. Cependant, beaucoup trouveront cela difficile, voire presque impossible. En effet, les LLM sont conçus – par des personnes – pour interagir avec nous comme s’ils étaient humains, et nous sommes conçus – par l’évolution biologique – pour interagir avec eux de la même manière.

Bons mimiques

La raison pour laquelle les LLM peuvent imiter la conversation humaine de manière si convaincante découle d’une profonde perspicacité du pionnier de l’informatique Alan Turing, qui s’est rendu compte qu’il n’est pas nécessaire qu’un ordinateur comprenne un algorithme pour l’exécuter. Cela signifie que bien que ChatGPT puisse produire des paragraphes remplis de langage émotionnel, il ne comprend aucun mot dans aucune phrase qu’il génère.

Les concepteurs du LLM ont réussi à transformer le problème de la sémantique – l’agencement des mots pour créer du sens – en statistiques, en faisant correspondre les mots en fonction de leur fréquence d’utilisation antérieure. La perspicacité de Turing fait écho à la théorie de l’évolution de Darwin, qui explique comment les espèces s’adaptent à leur environnement, devenant de plus en plus complexes, sans avoir besoin de comprendre quoi que ce soit sur leur environnement ou sur elles-mêmes.

Le scientifique cognitif et philosophe Daniel Dennett a inventé l’expression « compétence sans compréhension », qui capture parfaitement les idées de Darwin et Turing.

Une autre contribution importante de Dennett est sa « position intentionnelle ». Cela stipule essentiellement que pour expliquer pleinement le comportement d’un objet (humain ou non humain), nous devons le traiter comme un agent rationnel. Cela se manifeste le plus souvent dans notre tendance à anthropomorphiser les espèces non humaines et d’autres entités non vivantes.

Mais c’est utile. Par exemple, si nous voulons battre un ordinateur aux échecs, la meilleure stratégie est de le traiter comme un agent rationnel qui « veut » nous battre. Nous pouvons expliquer que la raison pour laquelle l’ordinateur a roqué, par exemple, était parce qu' »il voulait protéger son roi de notre attaque », sans aucune contradiction dans les termes.

On peut parler d’un arbre dans une forêt comme « voulant grandir » vers la lumière. Mais ni l’arbre, ni l’ordinateur d’échecs ne représentent ces « besoins » ou ces raisons ; seulement que la meilleure façon d’expliquer leur comportement est de les traiter comme s’ils le faisaient.

Intentions et agence

Notre histoire évolutive nous a fourni des mécanismes qui nous prédisposent à trouver partout des intentions et des actions. Dans la préhistoire, ces mécanismes ont aidé nos ancêtres à éviter les prédateurs et à développer l’altruisme envers leurs plus proches parents. Ces mécanismes sont les mêmes qui nous font voir des visages dans les nuages ​​et anthropomorphisent des objets inanimés. Aucun mal ne nous arrive lorsque nous confondons un arbre avec un ours, mais beaucoup font l’inverse.

La psychologie évolutionniste nous montre comment nous essayons toujours d’interpréter tout objet qui pourrait être humain comme un humain. Nous adoptons inconsciemment la posture intentionnelle et attribuons toutes nos capacités cognitives et nos émotions à cet objet.

Avec la perturbation potentielle que les LLM peuvent causer, nous devons réaliser qu’il s’agit simplement de machines probabilistes sans intentions ni préoccupations pour les humains. Nous devons être extrêmement vigilants quant à notre utilisation du langage lorsque nous décrivons plus généralement les exploits humains des LLM et de l’IA. Voici deux exemples.

La première était une étude récente qui a révélé que ChatGPT est plus empathique et a donné des réponses de « meilleure qualité » aux questions des patients par rapport à celles des médecins. Utiliser des mots émotifs comme « empathie » pour une IA nous prédispose à lui accorder les capacités de penser, de réfléchir et de se soucier véritablement des autres, ce qu’elle n’a pas.

La seconde a été lorsque GPT-4 (la dernière version de la technologie ChatGPT) a été lancée le mois dernier, des capacités de plus grandes compétences en créativité et en raisonnement lui ont été attribuées. Cependant, nous assistons simplement à une augmentation de la « compétence », mais toujours pas de « compréhension » (au sens de Dennett) et certainement pas d’intentions, juste une correspondance de modèles.

Sûr et sécurisé

Dans ses récents commentaires, Hinton a évoqué une menace à court terme de « mauvais acteurs » utilisant l’IA à des fins de subversion. Nous pourrions facilement envisager qu’un régime ou une multinationale sans scrupules déploie une IA, formée sur les fausses nouvelles et les mensonges, pour inonder le discours public de désinformation et de deep fakes. Les fraudeurs pourraient également utiliser une IA pour s’attaquer aux personnes vulnérables dans des escroqueries financières.

Le mois dernier, Gary Marcus et d’autres, dont Elon Musk, ont signé une lettre ouverte appelant à une pause immédiate dans la poursuite du développement des LLM. Marcus a également appelé à une agence internationale pour promouvoir des technologies d’IA sûres, sécurisées et pacifiques « – le qualifiant de » Cern pour l’IA « .

De plus, beaucoup ont suggéré que tout ce qui est généré par une IA devrait porter un filigrane afin qu’il n’y ait aucun doute quant à savoir si nous interagissons avec un humain ou un chatbot.

La réglementation de l’IA est à la traîne de l’innovation, comme c’est souvent le cas dans d’autres domaines de la vie. Il y a plus de problèmes que de solutions, et l’écart risque de se creuser avant de se réduire. Mais en attendant, répéter l’expression de Dennett « compétence sans compréhension » pourrait être le meilleur antidote à notre compulsion innée à traiter l’IA comme des humains.