L'empathie artificielle de ChatGPT est une astuce linguistique. Voici comment ça marche
L'anthropomorphisme se produit lorsque nous attribuons des caractéristiques humaines à des entités non humaines comme des animaux ou des machines. Les chatbots, tels que ChatGPT, Gemini et Copilot, encouragent cela en imitant le langage humain pour communiquer avec nous, allant au-delà de l'utilisation de simples mots et expressions familiers pour adopter des modèles de communication humains. Ce faisant, ils sont capables de tenir des conversations contextualisées et cohérentes et peuvent même montrer des émotions comme l’humour et l’empathie.
Ces systèmes utilisent un langage qui vise à rendre l’interaction avec eux naturelle, fluide et accessible. Il facilite leur utilisation dans différentes situations, du service client à l'éducation et au divertissement.
Jusqu’à présent, le langage était considéré comme une capacité propre à l’être humain. Cependant, les progrès de l’intelligence artificielle (IA) générative, qui alimente ces chatbots, nous obligent à reconsidérer cette idée.
L’un des traits les plus distinctifs du langage humain est la subjectivité, qui se manifeste par des mots ou des expressions véhiculant des nuances émotionnelles, ainsi que par l’expression d’opinions personnelles. Cela inclut également la formation d’opinions sur des événements et l’utilisation d’éléments contextuels ou culturels.
La première personne : « Je » et « Nous »
Une caractéristique typique de la subjectivité humaine dans le langage est l’utilisation de pronoms personnels. La première personne – « je » ou « nous » – nous permet d'exprimer des pensées et des expériences personnelles. La deuxième personne – « vous » – s'engage avec l'autre personne, établissant ainsi une relation entre les deux participants à une conversation. C’est ce qu’on appelle l’intersubjectivité.
Regardons un exemple relativement simple :
- Utilisateur : « J'organise ma maison. Comment puis-je décider quels objets conserver, donner ou jeter ? »
- Chatbot : « Excellente question ! Organiser vos affaires peut être une tâche ardue, mais avec une stratégie claire, vous pouvez prendre ces décisions plus facilement. Voici quelques idées pour décider quoi garder, donner ou jeter. »
Le chatbot utilise implicitement la première personne. Bien qu'il ne dise pas « je » ou « moi », il assume le rôle d'un conseiller ou d'un guide, et des expressions comme « voici quelques idées » présentent les idées comme étant celles du chatbot.
Le chatbot assume le rôle d’assistant, ce qui signifie que l’utilisateur a le sentiment d’être adressé personnellement, même si la première personne n’est pas explicitement utilisée. De plus, l’utilisation de « voici » renforce l’image du chatbot en tant que personne offrant quelque chose de valeur.
La deuxième personne : le pouvoir du « vous »
« Vous » (et ses autres formes comme « votre ») s'adressent directement à l'utilisateur. Nous pouvons le voir dans plusieurs parties de l'exemple précédent, comme l'expression « organiser vos affaires » et « vous pouvez prendre ces décisions plus facilement ».
En vous parlant de manière personnelle, le chatbot vise à donner au lecteur le sentiment de jouer un rôle actif dans la conversation, et ce type de langage est courant dans les textes qui cherchent à faire en sorte qu'une autre personne se sente activement impliquée.
D'autres expressions, telles que « Excellente question ! », donnent non seulement une impression positive de la demande de l'utilisateur, mais l'encouragent également à s'engager. Des expressions telles que « organiser ses affaires peut être écrasant » suggèrent une expérience partagée, créant une illusion d'empathie en reconnaissant les émotions de l'utilisateur.
Empathie artificielle
L'utilisation de la première personne par le chatbot simule la conscience et cherche à créer une illusion d'empathie. En adoptant une position d'aide et en utilisant la deuxième personne, il engage l'utilisateur et renforce la perception de proximité. Cette combinaison génère une conversation qui semble humaine, pratique et appropriée pour donner des conseils, même si son empathie vient d'un algorithme et non d'une réelle compréhension.
S’habituer à interagir avec des entités non conscientes qui simulent l’identité et la personnalité peut avoir des répercussions à long terme, car ces interactions peuvent influencer notre vie personnelle, sociale et culturelle. À mesure que ces technologies s’améliorent, il deviendra de plus en plus difficile de distinguer une conversation avec une personne réelle d’une conversation avec un système d’IA.
Cette frontière de plus en plus floue entre l’humain et l’artificiel affecte la façon dont nous comprenons l’authenticité, l’empathie et la présence consciente dans la communication. Nous pourrions même en arriver à aborder les chatbots IA comme s’il s’agissait d’êtres conscients, générant ainsi une confusion quant à leurs capacités réelles.
J'ai du mal à parler à d'autres humains
Les interactions avec les machines peuvent également modifier nos attentes en matière de relations humaines. À mesure que nous nous habituons à des interactions rapides, fluides et sans conflit, nous pouvons devenir plus frustrés dans nos relations avec de vraies personnes.
Les interactions humaines sont teintées d’émotions, d’incompréhensions et de complexité. À long terme, les interactions répétées avec les chatbots peuvent diminuer notre patience et notre capacité à gérer les conflits et à accepter les imperfections naturelles des interactions interpersonnelles.
De plus, une exposition prolongée à une interaction humaine simulée soulève des dilemmes éthiques et philosophiques. En attribuant des qualités humaines à ces entités – comme la capacité de ressentir ou d’avoir des intentions – nous pourrions commencer à remettre en question la valeur de la vie consciente par rapport à la simulation parfaite. Cela pourrait ouvrir des débats sur les droits des robots et la valeur de la conscience humaine.
Interagir avec des entités non sensibles qui imitent l'identité humaine peut modifier notre perception de la communication, des relations et de l'identité. Si ces technologies peuvent offrir une plus grande efficacité, il est essentiel d’être conscient de leurs limites et des impacts potentiels sur la façon dont nous interagissons, tant avec les machines qu’entre nous.