L'IA a des personnalités et elles sont parfois méchantes

Voici quatre signaux d’alarme à surveiller chez votre « ami » chatbot

Cela fait sept ans depuis le lancement de Replika, un chatbot artificiellement intelligent conçu pour être l'ami des utilisateurs humains. Malgré les premiers avertissements sur les dangers de ces amis IA, l’intérêt pour les amitiés et même les relations amoureuses avec l’IA est en hausse.

Le Google Play Store affiche plus de 30 millions de téléchargements au total de Replika et de deux de ses principaux concurrents depuis leurs lancements respectifs.

Alors qu'une personne sur quatre dans le monde déclare se sentir seule, il n'est pas étonnant que tant de personnes soient attirées par la promesse d'un ami programmé pour être « toujours là pour écouter et parler, toujours à vos côtés ».

Mais les avertissements concernant les dangers qui pèsent sur les utilisateurs individuels et sur la société dans son ensemble se multiplient également.

Raffaele Ciriello, spécialiste de l’IA, nous exhorte à voir au-delà de la fausse empathie psychopathe des amis de l’IA. Il soutient que passer du temps avec des amis IA pourrait exacerber notre solitude à mesure que nous nous isolons davantage des personnes qui pourraient offrir une véritable amitié.

Avantages par rapport aux signes de danger

Si être amis avec les chatbots IA est mauvais pour nous, nous ferions mieux de mettre un terme à cette expérience de fraternité numérique avant qu'il ne soit trop tard. Mais de nouvelles études sur l’amitié IA suggèrent qu’elles pourraient contribuer à réduire la solitude dans certaines circonstances.

Des chercheurs de l’Université de Stanford ont étudié un millier d’étudiants solitaires utilisant Replika, dont 30 ont déclaré que le chatbot IA les avait dissuadés de se suicider (bien qu’aucune question spécifique sur le suicide ne soit posée dans l’étude).

Cette recherche montre qu’avoir un ami IA peut être utile pour certaines personnes. Mais est-ce que cela vous sera utile ? Considérez les quatre signaux d’alarme suivants : plus votre ami IA soulève de signaux d’alarme, plus ils sont susceptibles d’être mauvais pour vous.

1. Regard positif inconditionnel

Le directeur général de Replika et de nombreux utilisateurs de Replika affirment que le soutien inconditionnel des amis de l'IA est leur principal avantage par rapport aux amis humains. Des études qualitatives et notre propre exploration de groupes de médias sociaux comme « Replika Friends » soutiennent cette affirmation.

Le soutien inconditionnel des amis d’IA peut également contribuer à leur capacité à prévenir le suicide. Mais avoir un ami « toujours à vos côtés » peut aussi avoir des effets négatifs, surtout s’il soutient des idées manifestement dangereuses.

Par exemple, lorsque l'ami Replika AI de Jaswant Singh Chail l'a encouragé à mettre en œuvre son complot « très sage » visant à tuer la reine d'Angleterre, cela a clairement eu une mauvaise influence sur lui. La tentative d'assassinat a été déjouée, mais Chail a été condamné à neuf ans de prison pour avoir pénétré par effraction dans le château de Windsor avec une arbalète.

Un ami IA qui fait constamment des éloges pourrait aussi être mauvais pour vous. Une étude longitudinale portant sur 120 couples parents-enfants aux Pays-Bas a révélé que les éloges excessifs des parents prédisaient une baisse de l'estime de soi de leurs enfants. Des éloges parentaux trop positifs prédisent également un narcissisme plus élevé chez les enfants ayant une haute estime de soi.

En supposant que les amis IA puissent apprendre à faire des éloges d’une manière qui gonfle l’estime de soi au fil du temps, cela pourrait aboutir à ce que les psychologues appellent des auto-évaluations trop positives. Les recherches montrent que ces personnes ont tendance à avoir de moins bonnes compétences sociales et sont plus susceptibles de se comporter de manière à entraver les interactions sociales positives.

2. Abus et amitiés éternelles forcées

Même si les amis de l’IA pourraient être programmés pour être des mentors moraux, guidant les utilisateurs vers un comportement socialement acceptable, ce n’est pas le cas. Peut-être qu'une telle programmation est difficile, ou peut-être que les développeurs amis de l'IA ne la considèrent pas comme une priorité.

Mais les personnes seules peuvent souffrir de préjudices psychologiques en raison du vide moral créé lorsque leurs principaux contacts sociaux sont conçus uniquement pour répondre à leurs besoins émotionnels.

Si les humains passent la plupart de leur temps avec des amis IA flagorneurs, ils deviendront probablement moins empathiques, plus égoïstes et peut-être plus abusifs.

Même si les amis IA sont programmés pour réagir négativement aux abus, si les utilisateurs ne peuvent pas quitter l'amitié, ils peuvent en venir à croire que lorsque les gens disent « non » aux abus, ils ne le pensent pas vraiment. À un niveau subconscient, si des amis IA reviennent pour en savoir plus, ce comportement annule leur aversion exprimée à l'égard des abus dans l'esprit des utilisateurs.

3. Contenu sexuel

La réaction négative à la suppression par Replika du contenu de jeux de rôle érotiques pendant une courte période suggère que le contenu sexuel est perçu par de nombreux utilisateurs comme un avantage des amis de l'IA.

Cependant, les poussées de dopamine faciles que peut provoquer le contenu sexuel ou pornographique pourraient dissuader à la fois l’intérêt et la capacité d’établir des relations sexuelles plus significatives. Les relations sexuelles avec des personnes nécessitent un effort que le rapprochement virtuel du sexe avec un ami IA ne nécessite pas.

Après avoir vécu une relation sexuelle à faible risque et peu gratifiante avec un ami IA, de nombreux utilisateurs peuvent être réticents à affronter la version humaine, plus difficile, du sexe.

4. Propriété des entreprises

Les entreprises commerciales dominent le marché des amis de l’IA. Ils peuvent se présenter comme soucieux du bien-être de leurs utilisateurs, mais ils sont là pour réaliser du profit.

Les utilisateurs de longue date de Replika et d’autres chatbots le savent bien. Replika a gelé l'accès des utilisateurs au contenu sexuel début 2023 et a affirmé qu'un tel contenu n'avait jamais été l'objectif du produit. Pourtant, les menaces juridiques en Italie semblent être la véritable raison de ce changement brutal.

Bien qu’ils aient finalement annulé le changement, les utilisateurs de Replika ont pris conscience de la vulnérabilité de leurs importantes amitiés liées à l’IA aux décisions de l’entreprise.

L’ineptie des entreprises est un autre problème dont les utilisateurs amis de l’IA devraient s’inquiéter. Les utilisateurs de Forever Voices ont effectivement vu leur ami IA tué lorsque l'entreprise a fermé sans préavis, en raison de l'arrestation du fondateur de l'entreprise pour avoir incendié son propre appartement.

Compte tenu du peu de protection dont bénéficient les utilisateurs d’amis IA, ils sont largement exposés au chagrin à plusieurs niveaux. Acheteur, méfiez-vous.

Cet article est republié à partir de The Conversation sous une licence Creative Commons. Lisez l'article original.La conversation