La dernière version de ChatGPT possède une fonctionnalité dont vous allez tomber amoureux, et c'est une inquiétude
Si vous êtes un abonné payant à ChatGPT, vous avez peut-être remarqué que le grand modèle de langage de l'intelligence artificielle (IA) a récemment commencé à sembler plus humain lorsque vous avez des interactions audio avec lui.
C'est parce que la société à l'origine du modèle de langage et du chatbot, OpenAI, exécute actuellement un pilote limité d'une nouvelle fonctionnalité connue sous le nom de « mode vocal avancé ».
OpenAI affirme que ce nouveau mode « permet des conversations plus naturelles et en temps réel qui captent et répondent avec émotion et signaux non verbaux ». Il prévoit que tous les abonnés payants de ChatGPT auront accès au mode vocal avancé dans les mois à venir.
Le mode vocal avancé est étonnamment humain. Il n'y a pas les pauses gênantes auxquelles nous sommes habitués avec les assistants vocaux ; au contraire, il semble prendre des respirations comme le ferait un humain. Il ne se laisse pas non plus perturber par les interruptions, transmet des signaux émotionnels appropriés et semble déduire l'état émotionnel de l'utilisateur à partir des signaux vocaux.
Mais en même temps qu’il rend ChatGPT plus humain, OpenAI s’inquiète du fait que les utilisateurs pourraient répondre au chatbot comme s’il était humain, en développant une relation intime avec lui.
Ce n'est pas une hypothèse. Par exemple, une influenceuse des médias sociaux nommée Lisa Li a codé ChatGPT pour qu'il devienne son « petit ami ». Mais pourquoi certaines personnes développent-elles des relations intimes avec un chatbot ?
L'évolution de l'intimité
Les humains ont une capacité remarquable à nouer des liens d’amitié et d’intimité. C’est une extension de la façon dont les primates se préparent physiquement les uns les autres pour construire des alliances auxquelles ils peuvent faire appel en cas de conflit.
Mais nos ancêtres ont également développé une capacité remarquable à « se préparer » verbalement les uns les autres. Cela a déclenché le cycle évolutif dans lequel les centres du langage dans notre cerveau sont devenus plus grands et ce que nous faisions avec le langage est devenu plus complexe.
Un langage plus complexe a permis à son tour une socialisation plus complexe avec des réseaux plus larges de parents, d'amis et d'alliés. Il a également élargi les zones sociales de notre cerveau.
Le langage a évolué parallèlement au comportement social humain. C'est en grande partie par le biais de la conversation que nous nouons des liens d'amitié entre une connaissance et un ami, et que nous nouons des relations intimes avec lui.
Des expériences menées dans les années 1990 ont révélé que les échanges conversationnels, en particulier lorsqu’ils impliquent la divulgation de détails personnels, renforcent le sentiment intime que notre interlocuteur fait en quelque sorte partie de nous.
Je ne suis donc pas surpris que les tentatives de reproduire ce processus de « divulgation croissante de soi » entre les humains et les chatbots aboutissent à ce que les humains se sentent intimes avec les chatbots.
Et cela ne concerne que la saisie de texte. Lorsque l'expérience sensorielle principale de la conversation, la voix, entre en jeu, l'effet est amplifié. Même les assistants vocaux qui n'ont pas l'air humain, comme Siri et Alexa, reçoivent toujours une avalanche de demandes en mariage.
L'écriture était sur le tableau noir du laboratoire
Si OpenAI me demandait comment garantir que les utilisateurs ne forment pas de relations sociales avec ChatGPT, j'aurais quelques recommandations simples.
Premièrement, ne lui donnez pas la parole. Deuxièmement, ne lui donnez pas la capacité de tenir une conversation. En gros, ne fabriquez pas le produit que vous avez fabriqué.
Le produit est si puissant précisément parce qu’il imite parfaitement les traits que nous utilisons pour former des relations sociales.
Les premiers chatbots ont fait leur apparition il y a près de 60 ans. Les ordinateurs sont reconnus comme des acteurs sociaux depuis au moins 30 ans. Le mode vocal avancé de ChatGPT n'est qu'une avancée impressionnante, et non ce que l'industrie technologique qualifierait avec enthousiasme de « changement de jeu ».
Le fait que les utilisateurs ne se contentent pas de nouer des relations avec les chatbots, mais développent également des sentiments personnels très étroits est devenu évident au début de l’année dernière, lorsque les utilisateurs de la plateforme d’amis virtuels Replika AI se sont retrouvés de manière inattendue privés des fonctions les plus avancées de leurs chatbots.
Replika était moins avancé que la nouvelle version de ChatGPT. Et pourtant, les interactions étaient d'une telle qualité que les utilisateurs formaient des liens étonnamment profonds.
Les risques sont réels
De nombreuses personnes, avides d’une entreprise qui les écoute sans les juger, tireront beaucoup de bénéfices de cette nouvelle génération de chatbots. Elles se sentiront peut-être moins seules et isolées. Ces avantages de la technologie ne peuvent jamais être négligés.
Mais les dangers potentiels du mode vocal avancé de ChatGPT sont également bien réels.
Le temps passé à discuter avec un robot est du temps que vous ne pouvez pas consacrer à interagir avec vos amis et votre famille. Et les personnes qui passent beaucoup de temps avec la technologie sont celles qui risquent le plus de perdre leurs relations avec d'autres humains.
Comme l’a souligné OpenAI, le fait de discuter avec des bots peut également contaminer les relations existantes entre les individus. Les individus peuvent en venir à s’attendre à ce que leurs partenaires ou amis se comportent comme des chatbots polis, soumis et respectueux.
Ces effets plus importants des machines sur la culture vont devenir de plus en plus visibles. D’un autre côté, ils pourraient également fournir des informations approfondies sur le fonctionnement de la culture.