Openai ajoute des commandes parentales à Chatgpt pour la sécurité des adolescents

Openai ajoute des commandes parentales à Chatgpt pour la sécurité des adolescents

Openai a déclaré lundi qu'il ajoute des contrôles parentaux à Chatgpt qui sont conçus pour fournir aux adolescents des utilisateurs de la plate-forme populaire avec une expérience plus sûre et plus « adaptée à l'âge ».

L'entreprise agit après que la sécurité du chatbot AI pour les jeunes utilisateurs a fait la une des journaux. Les dangers de la technologie ont été récemment mis en évidence par un certain nombre de cas dans lesquels les adolescents ont pris leur vie après avoir interagi avec Chatgpt.

Aux États-Unis, la Federal Trade Commission a même ouvert une enquête sur plusieurs entreprises technologiques sur les préjudices potentiels aux enfants et aux adolescents qui utilisent leurs chatbots d'IA comme compagnons.

Dans un article de blog publié lundi, OpenAI a décrit les nouveaux contrôles des parents. Voici une ventilation:

Commencer

Les contrôles parentaux seront disponibles pour tous les utilisateurs, mais les parents et les adolescents auront besoin de leurs propres comptes pour en profiter.

Pour commencer, un parent ou un tuteur doit envoyer un e-mail ou un SMS pour inviter un adolescent à connecter ses comptes. Ou un adolescent peut envoyer une invitation à un parent. Les utilisateurs peuvent envoyer une demande en entrant dans le menu Paramètres, puis à la section « Contrôles parentales ».

Les adolescents peuvent dissocier leurs comptes à tout moment, mais les parents seront informés s'ils le font.

Garanties automatiques

Une fois les comptes liés, le compte Teen obtiendra des protections intégrées, a déclaré Openai.

Les comptes d'adolescents « obtiendront automatiquement des protections de contenu supplémentaires, y compris un contenu graphique réduit, des défis viraux, un jeu de rôle sexuel, romantique ou violent, et des idéaux de beauté extrêmes, pour aider à garder leur expérience adaptée à l'âge », a déclaré la société.

Les parents peuvent choisir de désactiver ces filtres, mais les utilisateurs des adolescents n'ont pas l'option.

Openai prévient que ces garde-corps ne sont « pas infaillibles et peuvent être contournés si quelqu'un essaie intentionnellement de les contourner ». Il a conseillé aux parents de parler avec leurs enfants d'une «utilisation saine de l'IA».

Réglage des paramètres

Les parents obtiennent un panneau de commande où ils peuvent ajuster une gamme de paramètres et désactiver les restrictions sur le contenu sensible mentionné ci-dessus.

Par exemple, votre adolescent reste-t-il debout après l'heure du coucher pour utiliser Chatgpt? Les parents peuvent définir un moment calme lorsque le chatbot ne peut pas être utilisé.

Les autres paramètres incluent la désactivation de la mémoire de l'IA afin que les conversations ne puissent pas être enregistrées et ne seront pas utilisées dans les réponses futures; désactiver la capacité de générer ou de modifier des images; désactiver le mode vocal; et vous retirer des chats utilisés pour former les modèles d'IA de Chatgpt.

Être informé

Openai est également plus proactif lorsqu'il s'agit de faire savoir aux parents que leur enfant pourrait être en détresse.

Il est en train de mettre en place un nouveau système de notification pour les informer lorsque quelque chose pourrait être « sérieusement faux » et qu'un utilisateur adolescent pourrait penser à se blesser.

Une petite équipe de spécialistes examinera la situation et, dans le cas rare qu'il y a « des signes de détresse aiguë », ils informeront les parents par e-mail, SMS et alerte poussante sur leur téléphone – à moins que le parent ne se soit retiré.

Openai a déclaré qu'il protégera la vie privée de l'adolescent en partageant uniquement les informations nécessaires aux parents ou aux intervenants d'urgence pour fournir de l'aide.

« Aucun système n'est parfait, et nous savons que nous pourrions parfois lever une alarme lorsqu'il n'y a pas de danger réel, mais nous pensons qu'il vaut mieux agir et alerter un parent afin qu'il puisse intervenir que de rester silencieux », a déclaré la société.