OpenAI veut que nous ayons des relations sexuelles avec ChatGPT. Vos conseillers en bien-être pensent que c'est une très mauvaise idée
Traitez les adultes comme des adultes. C'est ainsi que Sam Altman a annoncé la décision d'OpenAI d'autoriser un « mode adulte » dans ChatGPT pour avoir des conversations érotiques. Cela a du sens d'un point de vue économique puisqu'il s'agira d'une fonctionnalité payante, mais les doutes d'un point de vue éthique sont également là. En fait, c'est l'équipe de bien-être de l'entreprise qui s'est opposée à ce produit, ce qui a retardé son lancement.
Opposition interne. Dans une exclusivité du Wall Street Journal, ils disent qu'au début de cette année, OpenAI a consulté son conseil d'experts en bien-être au sujet du mode adulte de ChatGPT et la réponse a été unanime : c'est une très mauvaise idée. Lors d’une réunion, des experts ont averti que ces types d’interactions avec l’IA peuvent favoriser la dépendance émotionnelle, notamment chez les jeunes utilisateurs. L'un des membres du comité a évoqué le sujet des suicides d'adolescents, soi-disant encouragés par ChatGPT, et a déclaré que ce serait comme lancer un « coach de suicide sexy ». Démolition.
Risques. Les gens nouent déjà des liens émotionnels avec les chatbots IA, si on ajoute du contenu sexuel à celui qui compte le plus d'utilisateurs au monde, c'est pour le moins délicat. Selon des documents internes examinés par le Wall Street Journal, les experts du conseil du bien-être ont identifié plusieurs problèmes, tels que le risque d'usage compulsif, une tendance aux contenus extrêmes et le déplacement des relations amoureuses réelles au profit des relations virtuelles.
Vérification de l'âge. C’est l’étape cruciale qui garantit qu’un tel outil ne finisse pas entre les mains d’utilisateurs mineurs. Le problème d’OpenAI est que son système de vérification échoue plus qu’un fusil de foire. Selon des sources internes, le système n'a pas réussi à identifier 12 % du temps. Ce chiffre peut paraître relativement faible, mais en pratique, nous parlons de millions d’adolescents accédant à cette fonction.
Ce que dit OpenAI. L'entreprise souhaite que nous puissions envoyer des « sextos » avec ChatGPT, mais avec certaines limites. Un porte-parole d'OpenAI a déclaré qu'ils bloqueraient les contenus préjudiciables – tels que les abus sexuels et liés aux enfants -, intégreraient des garanties telles que rappeler aux utilisateurs d'avoir des relations dans le monde réel et éviteraient également d'encourager les relations exclusives. Une autre mesure consiste à surveiller l’effet à long terme que ce mode adulte a sur les utilisateurs.
Le mode Adulte sera exclusivement texte et ne permettra pas la création d'images ou de vidéos. Concernant la vérification de l'âge, le porte-parole déclare que les performances sont similaires à celles des autres propositions de l'industrie et qu ' »elles ne seront jamais totalement infaillibles ». Il était prévu pour le premier trimestre, mais maintenant qu'il a été reporté, aucune date n'a été fixée pour son lancement.
Arrière-plan. OpenAI a déjà un historique d’accusations liées à des effets néfastes sur la santé mentale. L'un des cas les plus célèbres est celui d'Adam Raine, un adolescent qui a partagé ses idées suicidaires avec ChatGPT. Lorsque ses parents ont découvert les conversations, ils ont poursuivi OpenAI en justice. Et il n'est pas le seul.
Les procès. Plusieurs procès sont en cours pour des cas similaires et il y a également eu des cas où ChatGPT a été accusé d'encourager des pensées délirantes et de provoquer des crises psychotiques. Dire que l’IA est la seule responsable simplifie une réalité beaucoup plus complexe, mais il n’en est pas moins vrai qu’OpenAI a pris des mesures pour rendre son chatbot plus sûr pour les mineurs et s’est montré engagé à prendre soin de la santé mentale de ses utilisateurs. Autrement dit, ils reconnaissent que le problème existe. La question est maintenant de savoir comment le lancement d’une version du même chatbot qui a des relations sexuelles avec les utilisateurs s’inscrit dans ce discours.
À Simseo | « Je ne peux pas m'arrêter » : l'addiction à parler à l'IA est déjà là et il existe même des groupes de soutien pour y renoncer
Images | Studio Cottonbro, Pexels
