Parents d'adolescents décédés par suicide après les interactions AI Chatbot pour témoigner au Congrès

Parents d'adolescents décédés par suicide après les interactions AI Chatbot pour témoigner au Congrès

Les parents d'adolescents qui se sont tués après des interactions avec des chatbots de l'intelligence artificielle prévoient de témoigner du Congrès mardi sur les dangers de la technologie.

Matthew Raine, père d'Adam Raine, 16 ans, de Californie, et de Megan Garcia, mère de Sewell Setzer III, 14 ans, de Floride, devraient parler à une audience du Sénat sur les méfaits posés par les chatbots de l'IA.

La famille de Raine a poursuivi Openai et son PDG Sam Altman le mois dernier, alléguant que Chatgpt a entraîné le garçon en prévoyant de se suicider en avril. Garcia a poursuivi une autre entreprise d'IA, Character Technologies, pour la mort injustifiée l'année dernière, faisant valoir qu'avant son suicide, Sewell s'était de plus en plus isolé de sa vie réelle alors qu'il se livrait à des conversations hautement sexualisées avec le chatbot.

Quelques heures avant l'audience du Sénat, Openai s'est engagé à déployer de nouvelles garanties pour les adolescents, y compris les efforts pour détecter si les utilisateurs de Chatgpt ont moins de 18 ans et les contrôles qui permettent aux parents de fixer des « heures de panne » lorsqu'un adolescent ne peut pas utiliser Chatgpt. Les groupes de défense des enfants ont critiqué l'annonce comme pas suffisant.

« Il s'agit d'une tactique assez courante – c'est une tactique que Meta utilise tout le temps – ce qui consiste à faire une grande annonce éclaboussante à la veille d'une audience qui promet de nuire à l'entreprise », a déclaré Josh Golin, directeur exécutif de Fairplay, un groupe défendant la sécurité en ligne des enfants.

« Ce qu'ils devraient faire, c'est ne pas cibler Chatgpt aux mineurs jusqu'à ce qu'ils puissent prouver que c'est sûr pour eux », a déclaré Golin. « Nous ne devrions pas permettre aux entreprises, simplement parce qu'elles ont d'énormes ressources, pour effectuer des expériences incontrôlées sur les enfants lorsque les implications pour leur développement peuvent être si vastes et de grande envergure. »

La Federal Trade Commission a déclaré la semaine dernière qu'elle avait lancé une enquête sur plusieurs entreprises sur les préjudices potentiels aux enfants et aux adolescents qui utilisent leurs chatbots d'IA comme compagnons.

L'agence a envoyé des lettres au caractère, Meta et Openai, ainsi qu'à Google, Snap et Xai.