La règle tacite de la conversation qui explique pourquoi les chatbots IA se sentent si humains
Plus tôt cette année, un employé du secteur financier de Hong Kong a été amené à payer 25 millions de dollars à des escrocs qui avaient utilisé la technologie deepfake pour se faire passer pour le directeur financier de l'entreprise lors d'une vidéoconférence. Pensant que les images à l'écran étaient celles de ses collègues, le financier a autorisé le transfert de plusieurs millions de dollars à des fraudeurs se faisant passer pour des amis.
C’est un exemple dramatique, mais l’employé de bureau embobiné était loin d’être le seul à se laisser berner par l’IA générative. Cette technologie, qui s'appuie fortement sur de grands modèles linguistiques entraînés sur de grandes quantités de données pour apprendre et prédire les modèles de langage, est devenue de plus en plus répandue depuis le lancement de ChatGPT en 2022.
Comment expliquer pourquoi certaines personnes qui interagissent avec des chatbots d’IA générative sont si facilement convaincues qu’elles ont une conversation avec un certain type de personne ? La réponse réside peut-être dans les règles de conversation elles-mêmes et dans la manière dont elles sont profondément ancrées dans la manière dont nous interagissons avec le monde.
Pourquoi ce battage médiatique ?
Les systèmes d'IA générative basés sur des modèles linguistiques produisent un texte qu'un linguiste qualifierait de « non fondé » : il lui manque la compréhension mutuelle qui est une composante essentielle des conversations entre les gens. Cependant, lorsque les humains s’engagent dans une interaction, nous avons tendance à supposer que notre partenaire a un esprit.
Nous sommes programmés pour anthropomorphiser les différents non-humains avec lesquels nous interagissons. Avant les récents progrès de l’IA générative, il s’agissait principalement d’animaux.
Maintenant, ce sont des machines. Avant l’IA générative, nos interactions avec les ordinateurs impliquaient généralement un minimum d’échanges linguistiques. Cependant, avec l’IA générative, les systèmes informatiques nous reconnaissent d’une manière qui semble réelle. Cette « apparence réelle » constitue une grande partie du succès de la technologie.
Alors comment ça marche ?
Langage et pensée
Dans un article récent, les scientifiques américains Kyle Mahowald, Anna Ivanova et leurs collègues affirment que nous confondons langage et pensée. Étant donné que les systèmes d’IA générative peuvent utiliser le langage avec une certaine fluidité, nous pensons qu’ils peuvent réfléchir. (Pour mémoire, ils ne le peuvent pas.)
Les auteurs font la distinction entre la compétence linguistique formelle (connaissance des règles et des modèles statistiques du langage) et la compétence linguistique fonctionnelle (comment utiliser la langue dans des situations réelles).
Il ne suffit pas de produire des énoncés régis par des règles. Ils doivent également être utilisés de manière appropriée dans leur contexte. Dans cet exemple (créé avec l'aide de ChatGPT-4o lorsqu'il est invité à produire un exemple de réponse conversationnelle précise mais inappropriée), Alex propose une réponse qui, bien que factuellement correcte, ne répond pas au besoin de soutien de son ami.
Ami : Je panique à propos de ma présentation de demain.
Alex : Le stress active la réaction de combat ou de fuite de votre corps, augmentant ainsi la fréquence cardiaque et les niveaux de cortisol.
Mahowald et ses collègues affirment que notre croyance dans l’intelligence des systèmes d’IA générative vient de leur capacité à utiliser le langage. Cependant, une pièce cruciale du puzzle est ce qui arrive aux humains lorsque nous interagissons avec la technologie.
Les règles de la conversation
La clé pour comprendre l’attrait des chatbots génératifs d’IA pour les humains réside dans le genre qu’ils effectuent : la conversation. La conversation est régie par des règles et des routines.
Les routines conversationnelles varient selon les cultures et des attentes différentes sont en place. Dans les cultures occidentales, au moins, les linguistes considèrent souvent la conversation comme se déroulant selon quatre principes ou « maximes » énoncés en 1975 par le philosophe britannique du langage Paul Grice.
La maxime de qualité: soyez honnête; ne donnez pas d’informations fausses ou non étayées par des preuves.
La maxime de quantité: être aussi informatif que nécessaire ; ne donnez pas trop ou pas assez d’informations.
La maxime de pertinence: ne donnez que des informations pertinentes au sujet en discussion.
La maxime de manière: soyez clair, bref et ordonné ; éviter l'obscurité et l'ambiguïté.
Trouver la pertinence à tout prix
Les chatbots d’IA générative fonctionnent généralement bien en termes de quantité (péchant parfois de donner trop d’informations), et ils ont tendance à être pertinents et clairs (une raison pour laquelle les gens les utilisent pour améliorer leur écriture).
Cependant, ils ne respectent souvent pas la maxime de qualité. Ils ont tendance à halluciner et à donner des réponses qui peuvent sembler faisant autorité mais qui sont en réalité fausses.
L’essentiel du succès de l’IA générative réside cependant dans l’affirmation de Grice selon laquelle toute personne engagée dans une communication significative respectera ces maximes et supposera que les autres les suivent également.
Par exemple, la raison pour laquelle le mensonge fonctionne est que les personnes qui interagissent avec un menteur supposeront que l’autre personne dit la vérité. Les personnes qui interagissent avec quelqu’un qui propose un commentaire non pertinent tenteront à tout prix de trouver de la pertinence.
Le principe coopératif de Grice veut que la conversation soit soutenue par notre volonté globale de nous comprendre les uns les autres.
La volonté de coopérer
Le succès de l’IA générative dépend donc en partie du besoin humain de coopérer dans la conversation et d’être instinctivement attiré par l’interaction. Cette façon d'interagir par la conversation, apprise dans l'enfance, devient habituelle.
Grice a soutenu qu ' »il faudrait beaucoup d'efforts pour s'éloigner radicalement de cette habitude ».
La prochaine fois que vous utiliserez l’IA générative, faites-le avec prudence. N'oubliez pas qu'il ne s'agit que d'un modèle de langage. Ne laissez pas votre besoin habituel de coopération conversationnelle accepter une machine comme un être humain.