Openai et Meta disent qu'ils réparent les chatbots d'IA pour mieux répondre aux adolescents en détresse

Openai et Meta disent qu'ils réparent les chatbots d'IA pour mieux répondre aux adolescents en détresse

Les fabricants de chatbot d'intelligence artificielle Openai et Meta disent qu'ils ajustent la façon dont leurs chatbots réagissent aux adolescents posant des questions sur le suicide ou montrant des signes de détresse mentale et émotionnelle.

Openai, fabricant de Chatgpt, a déclaré mardi qu'il se préparait à déployer de nouveaux contrôles permettant aux parents de relier leurs comptes au compte de leur adolescent.

Les parents peuvent choisir les fonctionnalités à désactiver et « recevoir des notifications lorsque le système détecte que leur adolescent est dans un moment de détresse aiguë », selon un article de blog de l'entreprise qui indique que les changements entreront en vigueur cet automne.

Quel que soit l'âge d'un utilisateur, la société affirme que ses chatbots tenteront de rediriger les conversations les plus pénibles sur des modèles d'IA plus capables qui peuvent fournir une meilleure réponse.

Cette histoire comprend une discussion sur le suicide. Si vous ou quelqu'un que vous connaissez avez besoin d'aide, le National Suicide and Crisis Lifeline aux États-Unis est disponible en appelant ou en envoyant des SMS 988.

L'annonce intervient une semaine après que les parents d'Adam Raine, 16 ans, ont poursuivi Openai et son PDG Sam Altman, alléguant que Chatgpt a entraîné le garçon de Californie dans la planification et la suivi de sa vie plus tôt cette année.

Jay Edelson, l'avocat de la famille, a décrit mardi l'annonce d'Openai comme « des promesses vagues de faire mieux » et « rien de plus que l'équipe de gestion de crise d'Openai essayant de changer le sujet ».

Openai et Meta disent qu'ils réparent les chatbots d'IA pour mieux répondre aux adolescents en détresse

Altman « devrait soit dire sans équivoque qu'il pense que Chatgpt est sûr ou le retirer immédiatement du marché », a déclaré Edelson.

Meta, la société mère d'Instagram, Facebook et WhatsApp, a également déclaré qu'elle empêchait maintenant ses chatbots de parler avec les adolescents de l'automutilation, du suicide, de l'alimentation désordonnée et des conversations romantiques inappropriées, et les dirige plutôt vers des ressources expertes. Meta propose déjà des contrôles parentaux sur les comptes des adolescents.

Une étude publiée la semaine dernière dans la revue médicale Services psychiatriques a trouvé des incohérences dans la façon dont trois chatbots populaires de l'intelligence artificielle ont répondu aux questions sur le suicide.

L'étude des chercheurs de la Rand Corporation a révélé un besoin de «raffinement supplémentaire» dans Chatgpt, les Gémeaux de Google et le Claude d'Anthropic. Les chercheurs n'ont pas étudié les chatbots de Meta.

Openai et Meta disent qu'ils réparent les chatbots d'IA pour mieux répondre aux adolescents en détresse

L'auteur principal de l'étude, Ryan McBain, a déclaré mardi que « il est encourageant de voir Openai et Meta introduisant des fonctionnalités telles que les contrôles parentaux et le routage des conversations sensibles à des modèles plus capables, mais ce sont des étapes progressives ».

« Sans repères de sécurité indépendants, les tests cliniques et les normes exécutoires, nous comptons toujours sur les entreprises pour s'autoréguler dans un espace où les risques pour les adolescents sont particulièrement élevés », a déclaré McBain, chercheur en politique senior chez Rand et professeur adjoint à la faculté de médecine de l'Université Harvard.