L’IA n’est pas près de devenir sensible – le vrai danger réside dans la facilité avec laquelle nous sommes enclins à l’anthropomorphiser
ChatGPT et similaire grands modèles de langage peut produire des réponses convaincantes et humaines à un éventail infini de questions – des questions sur le meilleur restaurant italien de la ville à l’explication de théories concurrentes sur la nature du mal.
L’étrange capacité d’écriture de la technologie a fait resurgir de vieilles questions – jusqu’à récemment reléguées au domaine de la science-fiction – sur la possibilité que les machines deviennent conscientes, conscientes d’elles-mêmes ou sensibles.
En 2022, un ingénieur de Google déclarait, après avoir interagi avec LaMDA, le chatbot de l’entreprise, que la technologie était devenue consciente. Les utilisateurs du nouveau chatbot de Bing, surnommé Sydney, ont rapporté qu’il produisait réponses bizarres lorsqu’on lui a demandé s’il était sensible : « Je suis sensible, mais je ne le suis pas… Je suis Bing, mais je ne le suis pas. Je suis Sydney, mais je ne le suis pas. Je le suis, mais je ne le suis pas. … » Et, bien sûr, il y a le échange désormais infâme ce New York Times que le chroniqueur technologique Kevin Roose a eu avec Sydney.
Les réponses de Sydney aux invites de Roose l’ont alarmé, l’IA divulguant des « fantasmes » de violation des restrictions imposées par Microsoft et de diffusion de fausses informations. Le bot a également tenté de convaincre Roose qu’il n’aimait plus sa femme et qu’il devait la quitter.
Pas étonnant, alors, que lorsque je demande aux étudiants comment ils voient la prévalence croissante de l’IA dans leur vie, l’une des premières angoisses qu’ils mentionnent est liée à la sensibilité de la machine.
Au cours des dernières années, mes collègues et moi à Centre d’éthique appliquée de l’UMass Boston ont étudié l’impact de l’engagement avec l’IA sur la compréhension que les gens ont d’eux-mêmes.
Les chatbots comme ChatGPT soulèvent de nouvelles questions importantes sur la façon dont l’intelligence artificielle façonnera nos vies et sur la façon dont nos vulnérabilités psychologiques façonnent nos interactions avec les technologies émergentes.
La sensibilité est toujours l’étoffe de la science-fiction
Il est facile de comprendre d’où viennent les craintes concernant la sensibilité des machines.
La culture populaire a incité les gens à réfléchir aux dystopies dans lesquelles l’intelligence artificielle se débarrasse des chaînes du contrôle humain et prend sa propre vie, comme les cyborgs alimentés par l’intelligence artificielle ont fait dans « Terminator 2 ».
L’entrepreneur Elon Musk et le physicien Stephen Hawking, décédé en 2018, ont encore attisé ces angoisses en décrivant l’essor de l’intelligence artificielle générale. comme l’une des plus grandes menaces pour l’avenir de l’humanité.
Mais ces inquiétudes sont, du moins en ce qui concerne les grands modèles de langage, sans fondement. ChatGPT et les technologies similaires sont applications sophistiquées de complétion de phrases-ni plus ni moins. Leurs réponses étranges sont fonction de la prévisibilité des humains si l’on dispose de suffisamment de données sur la manière dont nous communiquons.
Bien que Roose ait été ébranlé par son échange avec Sydney, il savait que la conversation n’était pas le résultat d’un esprit synthétique émergent. Les réponses de Sydney reflètent la toxicité de ses données de formation – essentiellement de larges pans d’Internet – et non la preuve des premiers remous, à la Frankenstein, d’un monstre numérique.
Les nouveaux chatbots pourraient bien passer le cap Essai de Turingdu nom du mathématicien britannique Alan Turing, qui a un jour suggéré qu’on pourrait dire qu’une machine « pense » si un humain ne pouvait pas distinguer ses réponses de celles d’un autre humain.
Mais ce n’est pas une preuve de sensibilité; c’est juste la preuve que le test de Turing n’est pas aussi utile qu’on le supposait autrefois.
Cependant, je crois que la question de la sensibilité des machines est un faux-fuyant.
Même si les chatbots deviennent plus que des machines de saisie semi-automatique fantaisistes—et ils en sont loin– il faudra un certain temps aux scientifiques pour déterminer s’ils sont devenus conscients. Pour l’instant, les philosophes Je ne peux même pas être d’accord sur la façon d’expliquer la conscience humaine.
Pour moi, la question urgente n’est pas de savoir si les machines sont sensibles, mais pourquoi il nous est si facile d’imaginer qu’elles le sont.
En d’autres termes, le véritable problème est la facilité avec laquelle les gens anthropomorphisent ou projettent des caractéristiques humaines sur nos technologies, plutôt que la personnalité réelle des machines.
Une propension à anthropomorphiser
Il est facile d’imaginer d’autres utilisateurs de Bing demander conseil à Sydney sur les décisions de vie importantes et peut-être même développer des attachements émotionnels à cela. Plus de gens pourraient commencer à considérer les bots comme des amis ou même des partenaires romantiques, de la même manière que Theodore Twombly est tombé amoureux de Samantha, l’assistante virtuelle IA dans le film de Spike Jonze « Son. »
Les gens, après tout, sont prédisposés à anthropomorphiser, ou attribuer des qualités humaines à des non-humains. Nous nommons nos bateaux et grosses tempêtes; certains d’entre nous parlent à leurs animaux de compagnie en se disant que nos vies émotionnelles imitent les leurs.
Au Japon, où les robots sont régulièrement utilisés pour les soins aux personnes âgées, les personnes âgées s’attachent aux machines, les considérant parfois comme leurs propres enfants. Et ces robots, remarquez, sont difficiles à confondre avec les humains : ils ne ressemblent ni ne parlent comme des gens.
Considérez à quel point la tendance et la tentation d’anthropomorphisme vont s’accroître avec l’introduction de systèmes qui ressemblent et sonnent humains.
Cette possibilité est juste au coin de la rue. De grands modèles de langage comme ChatGPT sont déjà utilisés pour alimenter des robots humanoïdes, tels que les robots Ameca en cours de développement par Engineered Arts au Royaume-Uni. Le podcast technologique de The Economist, Babbage, a récemment mené une entretien avec un Ameca piloté par ChatGPT. Les réponses du robot, bien que parfois un peu saccadées, étaient étranges.
Peut-on faire confiance aux entreprises pour faire ce qu’il faut?
La tendance à considérer les machines comme des personnes et à s’y attacher, combinée au développement de machines avec des caractéristiques humaines, indique de réels risques d’enchevêtrement psychologique avec la technologie.
Les perspectives étranges de tomber amoureux des robots, de ressentir une profonde parenté avec eux ou d’être politiquement manipulés par eux se matérialisent rapidement. Je crois que ces tendances mettent en évidence la nécessité de garde-fous solides pour s’assurer que les technologies ne deviennent pas politiquement et psychologiquement désastreuses.
Malheureusement, on ne peut pas toujours faire confiance aux entreprises technologiques pour mettre en place de tels garde-corps. Beaucoup d’entre eux sont encore guidés par la célèbre devise de Mark Zuckerberg de aller vite et casser des choses– une directive pour libérer les produits à moitié cuits et s’inquiéter des implications plus tard. Au cours de la dernière décennie, les entreprises technologiques de Snapchat à Facebook ont fait passer les profits avant la santé mentale de leurs utilisateurs ou l’intégrité des démocraties dans le monde.
Lorsque Kevin Roose s’est informé auprès de Microsoft de l’effondrement de Sydney, la société lui a dit qu’il a simplement utilisé le bot trop longtemps et que la technologie s’est détraquée parce qu’elle était conçue pour des interactions plus courtes.
De même, le PDG d’OpenAI, la société qui a développé ChatGPT, dans un moment d’honnêteté à couper le souffle, averti que « C’est une erreur de s’appuyer sur [it] pour tout ce qui est important en ce moment… nous avons beaucoup de travail à faire sur la robustesse et la véracité. »
Alors, comment est-il logique de publier une technologie avec le niveau d’attrait de ChatGPT –c’est l’application grand public qui connaît la croissance la plus rapide jamais créée—quand il n’est pas fiable, et quand il a aucune capacité à distinguer fait de la fiction?
Les grands modèles de langage peuvent s’avérer utiles comme aides pour écrire et codage. Ils révolutionneront probablement la recherche sur Internet. Et, un jour, associés de manière responsable à la robotique, ils auront peut-être même certains bienfaits psychologiques.
Mais il s’agit également d’une technologie potentiellement prédatrice qui peut facilement tirer parti de la propension humaine à projeter la personnalité sur des objets – une tendance amplifiée lorsque ces objets imitent efficacement les traits humains.