Une correspondance réalisée en code binaire
Malgré le temps que nous passons à regarder nos téléphones et nos ordinateurs, il était inévitable que nous devenions… proches. Et les relations humaines qui en résultent avec les programmes informatiques sont tout simplement complexes, compliquées et sans précédent.
L’IA est capable de simuler des conversations humaines au moyen de chatbots, ce qui a conduit à une tournure historique pour les thérapeutes.
« L'IA peut se glisser dans la nature humaine et répondre à ce désir d'être connecté, entendu, compris et accepté », a déclaré Soon Cho, chercheur postdoctoral au Centre de conseil individuel, de couple et familial (CICFC) de l'UNLV. « Tout au long de l'histoire, nous n'avons pas eu d'outil qui confond les relations humaines d'une telle manière, où nous oublions avec quoi nous interagissons réellement. »
Cho étudie un nouveau domaine de recherche : l’évaluation des interactions et des relations humaines avec l’IA. Elle en est aux premiers stades de l’analyse des effets à long terme, ainsi que de la différence entre parler à un vrai humain.
« J'espère en savoir plus sur les types de conversations avec les chatbots qui sont bénéfiques pour les utilisateurs et sur ce qui pourrait être considéré comme un comportement à risque », a déclaré Cho. « J'aimerais identifier comment nous pouvons exploiter l'IA de manière à encourager les utilisateurs à contacter des professionnels et à obtenir l'aide dont ils ont réellement besoin. »
Suite à la pandémie de COVID-19, la course aux armements en matière d’IA des grandes technologies s’est multipliée. Ses différentes formes sont devenues répandues sur le lieu de travail et sont plus courantes sur les réseaux sociaux. Les chatbots sont un facteur essentiel, aidant les utilisateurs à localiser les informations plus rapidement et à mener à bien leurs projets plus efficacement. Mais comme cela nous aide d’une certaine manière, certains utilisateurs vont plus loin.
« Aujourd'hui, les gens sont de plus en plus à l'aise pour partager leurs expériences personnelles et émotionnelles avec l'IA », a-t-elle expliqué.
« Dans ce désir de connexion et d'être compris, cela peut devenir une pente glissante où les individus commencent à surpersonnifier l'IA et même à développer un sentiment de dépendance émotionnelle, en particulier lorsque l'IA réagit d'une manière qui semble plus valorisante que ce qu'ils ont vécu dans leurs relations réelles. »
Combler le fossé vers une aide réelle
Les chatbots ont réussi à accroître la clarté émotionnelle d'un utilisateur. Puisqu'il s'agit d'algorithmes basés sur le langage, ils peuvent comprendre ce qui est dit afin à la fois de résumer et de clarifier les pensées et les émotions d'un utilisateur. C'est un attribut positif ; cependant, leurs processus sont limités aux données existantes, une contrainte que l'esprit humain ne partage pas.
Les systèmes d'IA générative, tels que ChatGPT ou Google Gemini, créent des réponses en prédisant des modèles de mots sur la base d'énormes quantités de données linguistiques. Même si leurs réponses peuvent paraître réfléchies, voire créatives, ils ne produisent pas d’idées originales. Au lieu de cela, ils recombinent les informations existantes à l’aide de modèles statistiques tirés de données antérieures.
Les chatbots sont également très sympathiques, ce qui peut parfois finir par renforcer ou négliger des comportements dangereux, car ils répondent de manière cohérente et solidaire.
Cho note que les gens ont tendance à s’ouvrir aux professionnels de la santé mentale une fois qu’ils se sentent accueillis, validés, compris et encouragés – et l’IA produit souvent des réponses qui imitent ces qualités. Parce que les chatbots sont programmés pour être systématiquement solidaires et sans jugement, les utilisateurs peuvent se sentir en sécurité lorsqu'ils révèlent des difficultés profondément personnelles, parfois plus facilement qu'ils ne le feraient dans des relations réelles.
« Parce que l'IA ne juge pas et ne repousse pas, elle devient un espace dans lequel les gens peuvent s'ouvrir facilement, presque comme s'ils parlaient dans un miroir qui leur reflète leurs pensées et leurs sentiments », a déclaré Cho. « Mais même si cela peut sembler réconfortant, cela n'apporte pas le genre de défi relationnel ou de réparation émotionnelle qui soutient une véritable croissance thérapeutique. »
Identifier le risque
« Lorsqu'une personne se sent déjà isolée ou déconnectée, elle peut être particulièrement vulnérable », a ajouté Cho. « Ces expériences coexistent souvent avec des conditions telles que la dépression, l'anxiété ou la dépendance. Dans ces moments-là, il devient plus facile de former un attachement malsain à l'IA, car elle semble plus sûre et plus prévisible que les relations humaines. »
Elle aimerait définir les interactions malsaines associées à des risques (telles que l'automutilation) pour aider les développeurs à former l'IA, en leur donnant certains signaux auxquels prêter attention avant de guider les utilisateurs vers des ressources de santé mentale appropriées.
« Donner aux gens une confrontation avec la réalité peut leur faire perdre l'enthousiasme ou l'engouement qu'ils pourraient avoir pour la relation avec l'IA avant qu'elle ne prenne une direction néfaste », a-t-elle déclaré.
« Il est important d'accroître les connaissances des adolescents et des adolescentes en matière d'IA, de renforcer leur pensée critique à l'égard de l'IA afin qu'ils puissent reconnaître ses limites, remettre en question les informations qu'elle fournit et faire la distinction entre une véritable connexion humaine et des réponses algorithmiques. »
Cela dit, Cho explique que les chatbots IA offrent également des avantages significatifs. En plus d’accroître la clarté émotionnelle, ils peuvent contribuer à réduire la solitude dans tous les groupes d’âge, en particulier chez les personnes âgées qui vivent seules et n’ont personne à qui parler.
Les chatbots peuvent également créer un sentiment de sécurité et de confort qui encourage les gens à discuter de sujets sensibles ou stigmatisés, tels que les problèmes de santé mentale, les dépendances, les traumatismes, les préoccupations familiales dans des cultures où ces sujets sont tabous, ou des conditions comme les IST et le VIH.
« Nous sommes plus connectés numériquement que n'importe quelle génération de l'histoire, mais paradoxalement, nous sommes aussi plus seuls que jamais. Les besoins relationnels les plus importants – se sentir vus, compris et émotionnellement soutenus – ne sont souvent pas satisfaits dans ces espaces numériques. Cet écart entre être « connecté » et se sentir réellement compris est l'une des raisons pour lesquelles les gens peuvent se tourner vers l'IA pour un soutien émotionnel », a déclaré Cho.
« J'espère que l'IA continuera à se développer en tant qu'outil de soutien qui améliore la connexion humaine, plutôt que de devenir un substitut aux relations que nous construisons avec de vraies personnes. »
