Humaniser l’IA pourrait nous conduire à nous déshumaniser
L'écrivain irlandais John Connolly a dit un jour : « La nature de l'humanité, son essence, est de ressentir la douleur d'autrui comme la sienne et d'agir pour la faire disparaître. »
Pendant la majeure partie de notre histoire, nous avons cru que l’empathie était un trait propre à l’humain, une capacité spéciale qui nous distinguait des machines et des autres animaux. Mais cette croyance est aujourd’hui remise en question.
Alors que l’IA prend une place plus importante dans nos vies, pénétrant même dans nos sphères les plus intimes, nous sommes confrontés à une énigme philosophique : attribuer des qualités humaines à l’IA pourrait-il diminuer notre propre essence humaine ? Nos recherches suggèrent que c’est possible.
Compagnonnage numérisé
Ces dernières années, les applications « compagnons » d’IA telles que Replika ont attiré des millions d’utilisateurs. Replika permet aux utilisateurs de créer des partenaires numériques personnalisés pour engager des conversations intimes. Les membres qui paient pour Replika Pro peuvent même transformer leur IA en un « partenaire romantique ».
Les compagnons physiques de l’IA ne sont pas loin derrière. Des entreprises telles que JoyLoveDolls vendent des robots sexuels interactifs dotés de fonctionnalités personnalisables, notamment la taille des seins, l'origine ethnique, les mouvements et les réponses de l'IA telles que les gémissements et le flirt.
Bien qu'il s'agisse actuellement d'un marché de niche, l'histoire suggère que les tendances numériques d'aujourd'hui deviendront les normes mondiales de demain. Avec environ un adulte sur quatre confronté à la solitude, la demande de compagnons IA va augmenter.
Les dangers de l’humanisation de l’IA
Les humains attribuent depuis longtemps des traits humains à des entités non humaines – une tendance connue sous le nom d’anthropomorphisme. Il n'est pas surprenant que nous fassions cela avec des outils d'IA tels que ChatGPT, qui semblent « penser » et « ressentir ». Mais pourquoi humaniser l’IA est-il un problème ?
D’une part, cela permet aux sociétés d’IA d’exploiter notre tendance à nouer des liens avec des entités de type humain. Replika est commercialisé comme « le compagnon IA qui s'en soucie ». Cependant, pour éviter des problèmes juridiques, la société souligne que Replika n'est pas sensible et apprend simplement grâce à des millions d'interactions d'utilisateurs.
Certaines sociétés d’IA affirment ouvertement que leurs assistants IA font preuve d’empathie et peuvent même anticiper les besoins humains. De telles affirmations sont trompeuses et peuvent profiter aux personnes qui recherchent de la compagnie. Les utilisateurs peuvent devenir profondément investis émotionnellement s’ils croient que leur compagnon IA les comprend vraiment.
Cela soulève de sérieuses préoccupations éthiques. Un utilisateur hésitera à supprimer (c'est-à-dire à « abandonner » ou à « tuer ») son compagnon IA une fois qu'il lui aura attribué une sorte de sensibilité.
Mais que se passe-t-il lorsque ledit compagnon disparaît de manière inattendue, par exemple si l'utilisateur n'a plus les moyens de l'acquérir ou si l'entreprise qui le gère ferme ses portes ? Même si le compagnon n’est peut-être pas réel, les sentiments qui y sont attachés le sont.
L'empathie : plus qu'une sortie programmable
En réduisant l’empathie à un résultat programmable, risquons-nous de diminuer sa véritable essence ? Pour répondre à cette question, réfléchissons d’abord à ce qu’est réellement l’empathie.
L'empathie implique de répondre aux autres avec compréhension et inquiétude. C'est lorsque vous partagez le chagrin de votre ami lorsqu'il vous parle de son chagrin, ou lorsque vous ressentez de la joie rayonnant de la part d'une personne qui vous est chère. C'est une expérience profonde, riche et qui va au-delà des simples formes de mesure.
Une différence fondamentale entre les humains et l’IA est que les humains ressentent véritablement des émotions, alors que l’IA ne peut que les simuler. Cela touche au difficile problème de la conscience, qui s’interroge sur la manière dont les expériences humaines subjectives découlent de processus physiques dans le cerveau.
Bien que l’IA puisse simuler la compréhension, toute « empathie » qu’elle prétend avoir est le résultat d’une programmation qui imite des modèles de langage empathiques. Malheureusement, les fournisseurs d’IA sont incités financièrement à inciter les utilisateurs à s’attacher à leurs produits apparemment empathiques.
L’hypothèse de la déshumanisation
Notre « hypothèse de déshumanisation » met en évidence les préoccupations éthiques liées à la tentative de réduire les humains à certaines fonctions de base qui peuvent être reproduites par une machine. Plus nous humanisons l’IA, plus nous risquons de nous déshumaniser.
Par exemple, dépendre de l’IA pour le travail émotionnel pourrait nous rendre moins tolérants aux imperfections des relations réelles. Cela pourrait affaiblir nos liens sociaux et même conduire à une déqualification émotionnelle. Les générations futures pourraient devenir moins empathiques et perdre la maîtrise des qualités humaines essentielles à mesure que les compétences émotionnelles continuent d’être marchandisées et automatisées.
De plus, à mesure que les compagnons IA deviennent plus courants, les gens peuvent les utiliser pour remplacer de véritables relations humaines. Cela augmenterait probablement la solitude et l’aliénation – les problèmes mêmes que ces systèmes prétendent résoudre.
La collecte et l'analyse de données émotionnelles par les sociétés d'IA présentent également des risques importants, car ces données pourraient être utilisées pour manipuler les utilisateurs et maximiser les profits. Cela porterait encore davantage atteinte à notre vie privée et à notre autonomie, faisant passer le capitalisme de surveillance à un niveau supérieur.
Tenir les prestataires responsables
Les régulateurs doivent faire davantage pour responsabiliser les fournisseurs d’IA. Les entreprises d’IA doivent être honnêtes sur ce que leur IA peut et ne peut pas faire, surtout lorsqu’elles risquent d’exploiter les vulnérabilités émotionnelles des utilisateurs.
Les allégations exagérées de « véritable empathie » devraient être rendues illégales. Les entreprises qui font de telles affirmations devraient être condamnées à des amendes et les récidivistes devraient être fermés.
Les politiques de confidentialité des données doivent également être claires, équitables et sans clauses cachées permettant aux entreprises d'exploiter le contenu généré par les utilisateurs.
Nous devons préserver les qualités uniques qui définissent l'expérience humaine. Même si l’IA peut améliorer certains aspects de la vie, elle ne peut pas – et ne devrait pas – remplacer une véritable connexion humaine.
