L'IA « empathique » a plus à voir avec la psychopathie qu'avec l'intelligence émotionnelle, mais nous devrions traiter les machines de manière éthique
L’IA a depuis longtemps surpassé les humains dans des domaines cognitifs qui étaient autrefois considérés comme les disciplines suprêmes de l’intelligence humaine comme les échecs ou le Go. Certains pensent même qu’il est supérieur en ce qui concerne les compétences émotionnelles humaines telles que l’empathie. Il ne semble pas que certaines entreprises parlent en grand pour des raisons de marketing ; des études empiriques suggèrent que les gens perçoivent ChatGPT dans certaines situations de santé comme plus empathiques que le personnel médical humain. Cela signifie-t-il que l’IA est vraiment empathique ?
Une définition de l'empathie
En tant que philosophe psychologiquement informé, je définis la véritable empathie selon trois critères :
- Congruence des sentiments : l'empathie exige que la personne qui sympathise ressente ce que signifie ressentir les émotions de l'autre dans une situation spécifique. Cela distingue l’empathie d’une simple compréhension rationnelle des émotions.
- Asymétrie : la personne qui ressent de l'empathie n'a l'émotion que parce qu'un autre individu l'a et elle est plus adaptée à la situation de l'autre qu'à la sienne. Pour cette raison, l’empathie n’est pas seulement une émotion partagée comme la joie partagée des parents face aux progrès de leur progéniture, où la condition d’asymétrie n’est pas remplie.
- Conscience des autres : il doit y avoir au moins une conscience rudimentaire du fait que l'empathie concerne les sentiments d'un autre individu. Cela explique la différence entre l'empathie et la contagion émotionnelle qui se produit si l'on attrape un sentiment ou une émotion comme un rhume. Cela se produit, par exemple, lorsque des enfants se mettent à pleurer lorsqu’ils voient un autre enfant pleurer.
IA empathique ou IA psychopathe ?
Compte tenu de cette définition, il est clair que les systèmes artificiels ne peuvent pas ressentir d'empathie. Ils ne savent pas ce que c'est que de ressentir quelque chose. Cela signifie qu’ils ne peuvent pas remplir la condition de congruence. Par conséquent, la question de savoir si ce qu’ils ressentent correspond à la condition d’asymétrie et de conscience d’autrui ne se pose même pas. Ce que les systèmes artificiels peuvent faire, c'est reconnaître les émotions, que ce soit sur la base d'expressions faciales, de signaux vocaux, de schémas physiologiques ou de significations affectives ; et ils peuvent simuler un comportement empathique par le biais de la parole ou d'autres modes d'expression émotionnelle.
Les systèmes artificiels présentent donc des similitudes avec ce que le bon sens appelle un psychopathe : bien qu’incapables de ressentir de l’empathie, ils sont capables de reconnaître les émotions sur la base de signes objectifs, d’imiter l’empathie et d’utiliser cette capacité à des fins manipulatrices. Contrairement aux psychopathes, les systèmes artificiels ne fixent pas ces objectifs par eux-mêmes, mais sont donnés par leurs concepteurs. L’IA dite empathique est souvent censée nous amener à nous comporter de la manière souhaitée, par exemple ne pas nous énerver en conduisant, apprendre avec plus de motivation, travailler de manière plus productive, acheter un certain produit ou voter pour un certain candidat politique. Mais alors tout ne dépend-il pas de la qualité des objectifs pour lesquels l’IA simulant l’empathie est utilisée ?
L’IA simulant l’empathie dans le contexte des soins et de la psychothérapie
Prenez soin et psychothérapie, qui visent à favoriser le bien-être des personnes. Vous pourriez penser que l’utilisation de l’IA simulant l’empathie dans ces domaines est définitivement une bonne chose. Ne seraient-ils pas de merveilleux soignants et compagnons sociaux pour les personnes âgées, des partenaires aimants pour les personnes handicapées ou de parfaits psychothérapeutes qui ont l'avantage d'être disponibles 24h/24 et 7j/7 ?
Ces questions concernent en fin de compte ce que signifie être un être humain. Est-il suffisant pour une personne seule, âgée ou mentalement perturbée de projeter des émotions sur un artefact dépourvu de sentiments, ou est-il important pour une personne de faire l'expérience d'une reconnaissance pour elle-même et sa souffrance dans une relation interpersonnelle ?
Respect ou technologie ?
D’un point de vue éthique, c’est une question de respect qu’il y ait quelqu’un qui reconnaisse avec empathie les besoins et la souffrance d’une personne en tant que telle. En supprimant la reconnaissance par un autre sujet, la personne qui a besoin de soins, de compagnie ou de psychothérapie est traitée comme un simple objet car, en fin de compte, cela repose sur l'hypothèse qu'il importe peu que quelqu'un l'écoute réellement. Ils n’ont pas la prétention morale que leurs sentiments, leurs besoins et leurs souffrances soient perçus par quelqu’un qui peut vraiment les comprendre. L’utilisation de l’IA simulant l’empathie dans les soins et la psychothérapie est en fin de compte un autre cas de solutionnisme technologique, c’est-à-dire l’hypothèse naïve selon laquelle il existe une solution technologique à chaque problème, y compris la solitude et les « dysfonctionnements » mentaux. Externaliser ces problèmes vers des systèmes artificiels nous empêche de voir les causes sociales de la solitude et des troubles mentaux dans le contexte plus large de la société.
De plus, concevoir des systèmes artificiels pour qu’ils apparaissent comme quelqu’un ou quelque chose qui éprouve des émotions et ressent de l’empathie signifierait que de tels dispositifs auraient toujours un caractère manipulateur car ils s’adresseraient à des mécanismes d’anthropomorphisation très subliminaux. Ce fait est utilisé dans les applications commerciales pour amener les utilisateurs à débloquer un niveau premium payant : ou les clients paient avec leurs données. Ces deux pratiques sont particulièrement problématiques pour les groupes vulnérables, qui sont ici en jeu. Même les personnes qui n’appartiennent pas à des groupes vulnérables et qui sont parfaitement conscientes qu’un système artificiel n’a aucun sentiment réagiront quand même avec empathie comme s’il en avait un.
Empathie avec les systèmes artificiels – trop humains
C'est un phénomène bien étudié selon lequel les humains réagissent avec empathie envers les systèmes artificiels qui présentent certaines caractéristiques humaines ou animales. Ce processus repose en grande partie sur des mécanismes de perception qui ne sont pas accessibles consciemment. Percevoir un signe indiquant qu'un autre individu subit une certaine émotion produit une émotion congruente chez l'observateur. Un tel signe peut être une manifestation comportementale typique d’une émotion, une expression faciale ou un événement qui provoque généralement une certaine émotion. Les preuves issues des IRM cérébrales montrent que les mêmes structures neuronales sont activées lorsque les humains ressentent de l'empathie avec les robots.
Même si l’empathie n’est pas strictement nécessaire à la moralité, elle joue un rôle moral important. Pour cette raison, notre empathie envers les robots de type humain (ou animal) impose au moins des contraintes morales indirectes sur la manière dont nous devrions traiter ces machines. Il est moralement répréhensible d’abuser habituellement des robots qui suscitent l’empathie, car cela affecte négativement notre capacité à ressentir de l’empathie, qui est une source importante de jugement moral, de motivation et de développement.
Cela signifie-t-il que nous devons créer une ligue pour les droits des robots ? Ce serait prématuré, car les robots n’ont pas de prétentions morales en eux-mêmes. L’empathie envers les robots n’est moralement pertinente qu’indirectement en raison de ses effets sur la moralité humaine. Mais nous devons soigneusement réfléchir si et dans quels domaines nous voulons vraiment des robots qui simulent et suscitent l’empathie chez les êtres humains, car nous courons le risque de déformer, voire de détruire, nos pratiques sociales si elles devenaient omniprésentes.
Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.