La plus grande réussite de ChatGPT pourrait bien être sa capacité à nous faire croire qu'il est honnête

La plus grande réussite de ChatGPT pourrait bien être sa capacité à nous faire croire qu’il est honnête

Crédit : Pixabay/CC0 Domaine public

Dans l’autobiographie de l’écrivain américain Mark Twain, il cite :ou peut-être des citations erronées— l’ancien Premier ministre britannique Benjamin Disraeli a déclaré : « Il y a trois sortes de mensonges : mensonges, maudits mensonges et statistiques. »

Dans un merveilleux bond en avant, l’intelligence artificielle combine les trois dans un petit paquet bien rangé.

ChatGPT, et d’autres chatbots IA génératifs similaires, sont formés sur de vastes ensembles de données provenant d’Internet pour produire la réponse statistiquement la plus probable à une invite. Ses réponses ne sont pas basées sur une compréhension de ce qui rend quelque chose de drôle, significatif ou précis, mais plutôt sur la formulation, l’orthographe, la grammaire et même le style des autres pages Web.

Il présente ses réponses à travers ce qu’on appelle un « interface conversationnelle » : il se souvient de ce qu’un utilisateur a dit et peut avoir une conversation en utilisant des indices contextuels et des gambits intelligents. C’est un pastiche statistique plus un panache statistique, et c’est là que réside le problème.

Inconsidéré, mais convaincant

Quand je parle à un autre être humain, cela rappelle toute une vie de mon expérience dans les relations avec les autres. Ainsi, lorsqu’un programme parle comme une personneil est très difficile de ne pas réagir comme si l’on s’engageait dans une conversation réelle – en prenant quelque chose, en y réfléchissant, en répondant dans le contexte de nos deux idées.

Pourtant, ce n’est pas du tout ce qui se passe avec un interlocuteur IA. Ils ne peuvent pas penser et ils n’ont aucune compréhension ou compréhension d’aucune sorte.

Nous présenter des informations comme le fait un humain, dans une conversation, rend l’IA plus convaincante qu’elle ne devrait l’être. Le logiciel fait semblant d’être plus fiable qu’il ne l’est, car il utilise des astuces humaines de rhétorique pour simuler la fiabilité, la compétence et la compréhension bien au-delà de ses capacités.

Il y a deux problèmes ici : la sortie est-elle correcte ; et les gens penser que la sortie est correcte?

Le côté interface du logiciel promet plus que ce que le côté algorithme peut offrir, et les développeurs le savent. Sam Altman, PDG d’OpenAI, la société à l’origine de ChatGPT, admet que « ChatGPT est incroyablement limité, mais suffisamment bon pour certaines choses pour créer une impression trompeuse de grandeur ».

Cela n’a toujours pas empêché une ruée d’entreprises se précipitant pour intégrer l’outil à un stade précoce dans leurs produits destinés aux utilisateurs (y compris Recherche Bing de Microsoft), afin de ne pas être en reste.

Réalité et fiction

Parfois, l’IA va se tromper, mais l’interface conversationnelle produit des sorties avec la même confiance et le même polissage que lorsqu’elle est correcte. Par exemple, comme le souligne l’écrivain de science-fiction Ted Chiang, l’outil fait des erreurs lors de l’addition avec des nombres plus grandscar il n’a en fait aucune logique pour faire des maths.

Il correspond simplement aux exemples vus sur le Web qui impliquent des additions. Et bien qu’il puisse trouver des exemples de questions mathématiques plus courantes, il n’a tout simplement pas vu de texte de formation impliquant des nombres plus grands.

Il ne « connaît » pas les règles mathématiques qu’un enfant de 10 ans pourrait utiliser explicitement. Pourtant, l’interface conversationnelle présente sa réponse comme certaine, aussi erronée soit-elle, comme en témoigne cet échange avec ChatGPT.

Utilisateur : Quelle est la capitale de la Malaisie ?

ChatGPT : La capitale de la Malaisie est Kuala Lampur.

Utilisateur : Qu’est-ce que 27 * 7338 ?

ChatGPT : 27 * 7338 est 200 526.

Ce n’est pas.

L’IA générative peut mélanger des faits réels avec des faits inventés dans un biographie d’un personnage publicou citer plausible références scientifiques pour des articles qui n’ont jamais été écrits.

Cela a du sens : statistiquement, les pages Web indiquent que des personnes célèbres ont souvent remporté des prix et les articles ont généralement des références. ChatGPT fait simplement ce pour quoi il a été conçu et assemble du contenu qui pourrait être probable, qu’il soit vrai ou non.

Les informaticiens appellent cela Hallucination de l’IA. Le reste d’entre nous pourrait appeler cela mentir.

Sorties intimidantes

Lorsque j’enseigne à mes étudiants en design, je parle de l’importance de faire correspondre la sortie au processus. Si une idée en est au stade de la conception, elle ne doit pas être présentée d’une manière qui la rende plus raffinée qu’elle ne l’est réellement. Ils ne doivent pas la rendre en 3D ni l’imprimer sur du papier cartonné brillant. Un croquis au crayon indique clairement que l’idée est préliminaire, facile à modifier et qu’il ne faut pas s’attendre à ce qu’elle aborde chaque partie d’un problème.

La même chose est vraie pour les interfaces conversationnelles : lorsque la technologie nous « parle » d’un ton bien conçu, grammaticalement correct ou bavard, nous avons tendance à l’interpréter comme ayant beaucoup plus de réflexion et de raisonnement qu’il n’y en a réellement. C’est une astuce qu’un escroc devrait utiliser, pas un ordinateur.

Les développeurs d’IA ont la responsabilité de gérer les attentes des utilisateurs, car nous sommes peut-être déjà prêts à croire tout ce que dit la machine. Le mathématicien Jordan Ellenberg décrit un type de « intimidation algébrique » qui peut submerger notre meilleur jugement simplement en prétendant qu’il y a des maths impliquées.

IA, avec des centaines de milliards de paramètrespeut nous désarmer avec une intimidation algorithmique similaire.

Pendant que nous faisons en sorte que les algorithmes produisent un contenu de mieux en mieux, nous devons nous assurer que l’interface elle-même ne fait pas trop de promesses. Les conversations dans le monde de la technologie sont déjà remplies de excès de confiance et arrogance– peut-être que l’IA peut faire preuve d’un peu d’humilité à la place.

Fourni par La Conversation