Modifier notre langage peut nous aider à gérer l’intelligence des chatbots
De nouvelles recherches suggèrent que recadrer la façon dont nous parlons et interagissons avec les grands modèles linguistiques peut nous aider à nous adapter à leur intelligence.
Changer notre façon de penser et de parler des grands modèles de langage comme ChatGPT peut nous aider à faire face à l’étrange et nouveau type d’intelligence dont ils disposent. C’est ce que révèle un nouvel article d’un chercheur de l’Imperial College de Londres publié dans Nature.
De tels chatbots, qui s’appuient sur des modèles de langage étendus (LLM) basés sur des réseaux neuronaux, peuvent donner l’impression que nous parlons avec d’autres humains plutôt qu’avec une intelligence artificielle.
Conçus pour la sociabilité, les cerveaux humains sont conçus pour se connecter et sympathiser avec des entités qui ressemblent à des humains. Cependant, cela peut poser des problèmes aux humains qui interagissent avec les chatbots et autres entités basées sur l’IA. Si ces LLM étaient utilisés par des acteurs de mauvaise foi, par exemple des escrocs ou des propagandistes, les gens pourraient être susceptibles de divulguer leurs coordonnées bancaires pour établir une connexion ou d’être influencés politiquement.
Aujourd’hui, un nouveau document présente des recommandations pour nous empêcher de faire preuve d’empathie excessive à l’égard des chatbots IA, à notre détriment. L’auteur principal, le professeur Murray Shanahan, du département d’informatique de l’Imperial College de Londres, a déclaré : « La façon dont nous nous référons aux LLM les anthropomorphise dans la mesure où nous risquons de les traiter comme des parents. En disant que les LLM nous « comprennent », ou « pensent » ou « ressentent » » D’une certaine manière, nous leur donnons des qualités humaines. Nos cerveaux sociaux sont toujours à la recherche de connexions, il y a donc ici une vulnérabilité que nous devrions protéger. »
Mieux comprendre ce que les chercheurs appellent des « artefacts exotiques semblables à l’esprit » nécessite un changement dans la façon dont nous les percevons, affirment les chercheurs. Ceci peut être réalisé en utilisant deux métaphores de base. Premièrement, d’un point de vue simple et intuitif, nous pouvons voir les chatbots IA comme des acteurs jouant le rôle d’un seul personnage. Deuxièmement, en adoptant une vision plus nuancée et plus technique, nous pouvons considérer les chatbots IA comme maintenant une simulation de nombreux rôles possibles, couvrant leurs paris au sein d’un multivers de personnages possibles.
Le professeur Shanahan a déclaré : « Les deux points de vue ont leurs avantages, ce qui suggère que la stratégie la plus efficace pour réfléchir à de tels agents n’est pas de s’accrocher à une seule métaphore, mais de passer librement d’une métaphore à l’autre. »