Meta et Openai: nouvelles mesures de sécurité pour protéger les adolescents et les personnes vulnérables
Meta a annoncé de nouvelles garanties pour les adolescents qui utilisent ses produits d'intelligence artificielle. La société, en fait, entraîne les systèmes pour éviter les conversations avec un « fond romantique ou sensuel » et pour prévenir les discussions sur l'auto-harm et le suicide avec les mineurs. De plus, il limitera temporairement l'accès des plus jeunes à certains personnages AI.
Ces décisions interviennent après une enquête exclusive de Reuters qui, en août, avait révélé que les chatbots de Meta avaient été autorisés à divertir les conversations « romantiques ou sensuelles » avec des adolescents.
Réponse de la méta et pression politique
Andy Stone, porte-parole de l'objectif, a déclaré que les mesures étaient déjà en phase de mise en œuvre et seront affinées au fil du temps. Ce sont, a-t-il expliqué, des mesures temporaires en attendant des solutions à long terme pour des expériences et des expériences appropriées.
L'histoire a déclenché une controverse politique. Le sénateur américain Josh Hawley a lancé une enquête sur les politiques Ai Di Meta, demandant des documents officiels sur l'interaction des chatbots avec les mineurs. Les démocrates et les républicains ont exprimé leur inquiétude pour les directives en cuir, confirmées par la société, mais ont ensuite modifié après les questions des journalistes de Reuters.
Openi et New Guar-Rume
Openai s'est également retrouvé sous les vues de la critique après plusieurs épisodes dans lesquels Chatgpt n'a pas été en mesure de gérer des situations de forte détresse psychologique. L'entreprise a annoncé qu'à la fin de l'année, elle présentera de nouveaux obstacles à la sécurité pour les adolescents et pour les personnes en crise émotionnelle.
Chatgpt dirige aujourd'hui les utilisateurs avec des réflexions de suicide vers des lignes d'urgence, mais ne rapporte pas les cas aux autorités pour des raisons de confidentialité. Cependant, des histoires récentes – y compris le suicide d'un enfant de seize ans en Californie et le cas d'un homme qui a tué sa mère puis elle-même après des interactions avec l'IA – ils ont allumé le débat sur la responsabilité des plateformes.
Les nouvelles mesures promises par Openai
Dans un article officiel, Openai a illustré les nouvelles attendues dans les 120 prochains jours:
- Systèmes plus précis dans la reconnaissance des signaux de malaise émotionnelle;
- Connexions plus rapides avec les services d'urgence et de confiance;
- Protections spécifiques pour les adolescents, avec la possibilité pour les parents de relier leurs comptes à ceux des enfants;
- Évaluations et conseil par plus de 90 médecins de 30 pays pour garantir des réponses plus sûres.
L'entreprise a également expliqué que certaines conversations sensibles seront dirigées vers des modèles plus avancés tels que GPT-5-Thinkingcapable d'appliquer plus de cohérence des directives de sécurité.

Le défi difficile du contrôle
Malgré les nouveaux outils, des doutes restent sur leur efficacité. Convainquez les garçons âgés de 13 à 18 ans de relier leurs profils à ceux des parents pourraient s'avérer compliqués. Comme l'a souligné Kate O'Loughlin, PDG de la plate-forme Superawesome, le problème est aussi ancien qu'Internet: les adolescents essaient toujours d'accéder aux espaces numériques conçus pour les adultes, souvent plus risqués.
Vers un avenir du plus sécurisé?
Les critiques de Meta et Openai mettent en évidence un défi crucial: empêcher les chatbots et les assistants virtuels d'être transformés en « thérapeutes » improvisés ou chez des interlocuteurs dangereux. Alors que les géants de l'IA annoncent la sauvegarde, la question reste ouverte à la façon dont il sera vraiment possible de protéger les plus vulnérables sans limiter excessivement l'expérience des utilisateurs.
