Des chercheurs examinent l'utilisation de l'IA générative par les adolescents et les problèmes de sécurité
Les adolescents utilisent l’intelligence artificielle générative à de nombreuses fins, notamment pour le soutien émotionnel et les interactions sociales. Une étude menée par des chercheurs d'Urbana-Champaign de l'Université de l'Illinois a révélé que les parents comprennent peu le GAI, la manière dont leurs enfants l'utilisent et ses risques potentiels, et que les plateformes GAI n'offrent pas une protection suffisante pour garantir la sécurité des enfants.
Le document de recherche du professeur de sciences de l'information Yang Wang, codirecteur du Social Computing Systems Lab, et du doctorant Yaman Yu est l'une des premières sources de données publiées sur les utilisations et les risques du GAI pour les enfants. Wang et Yu présenteront leurs résultats en mai 2025 lors du symposium de l'IEEE sur la sécurité et la confidentialité. L'article est publié sur le arXiv serveur de préimpression.
Wang et Yu ont déclaré que les adolescents utilisent souvent les plateformes GAI, mais que l'on sait peu de choses sur la manière dont ils les utilisent, et que leurs perceptions des risques et de la manière dont ils y font face n'ont pas été explorées auparavant par les chercheurs.
Les chercheurs ont analysé le contenu de 712 publications et de 8 533 commentaires sur Reddit pertinents pour l'utilisation de GAI par les adolescents. Ils ont également interrogé sept adolescents et 13 parents pour comprendre leurs perceptions de la sécurité et la manière dont les parents tentaient d'atténuer les risques.
Ils ont découvert que les adolescents utilisent souvent les chatbots GAI comme assistants thérapeutiques ou confidents pour leur apporter un soutien émotionnel sans jugement et les aider à faire face aux défis sociaux. Les chatbots IA sont intégrés aux plateformes de médias sociaux telles que Snapchat et Instagram, et les adolescents les intègrent dans des discussions de groupe, les utilisent pour acquérir des compétences sociales et les traitent parfois comme des partenaires romantiques.
Ils utilisent GAI à des fins académiques telles que la rédaction d'essais, la reformulation de textes et la génération d'idées. Des adolescents ont également posté sur Reddit des messages demandant du contenu sexuel ou violent et intimidant les chatbots IA.
« C'est un sujet très brûlant, avec beaucoup d'adolescents qui parlent de l'IA des personnages et de la façon dont ils l'utilisent », a déclaré Yu, faisant référence à une plateforme permettant de créer et d'interagir avec des chatbots basés sur les personnages.
Wang et Yu ont rapporté que les parents et les enfants avaient d’importantes idées fausses sur l’IA générative. Les parents ne comprenaient pas grand-chose, voire aucune, de l'utilisation de GAI par leurs enfants et leur exposition aux outils était limitée. Ils n'étaient pas au courant de l'utilisation par leurs enfants d'outils tels que Midjourney et DALL-E pour la génération d'images et l'IA des personnages. Ils considéraient l’IA comme un outil pour les devoirs et comme fonctionnant comme un moteur de recherche, tandis que les enfants l’utilisaient principalement pour des raisons personnelles et sociales, ont indiqué les chercheurs.
Les adolescents ont fait part de leurs préoccupations, notamment le fait de devenir trop dépendants ou dépendants des chatbots pour combler un vide dans leurs relations personnelles, l'utilisation de chatbots pour créer du contenu harcelant, l'utilisation non autorisée de leurs informations personnelles et la diffusion de contenus préjudiciables, tels que des remarques racistes. Ils étaient également préoccupés par le fait que l’IA remplace le travail humain et par la violation de la propriété intellectuelle.
Les parents ont l'impression que les plateformes d'IA collectent de nombreuses données, telles que les données démographiques des utilisateurs, l'historique des conversations et l'historique du navigateur, et ils s'inquiètent du fait que les enfants partagent des informations personnelles ou familiales.
Cependant, les parents « n'ont pas pleinement apprécié l'étendue des données sensibles que leurs enfants pouvaient partager avec GAI… y compris les détails des traumatismes personnels, les dossiers médicaux et les aspects privés de leur vie sociale et sexuelle », ont écrit les chercheurs. Les parents craignaient également que leurs enfants ne diffusent par inadvertance des informations erronées et qu’une dépendance excessive à l’IA conduise leurs enfants à éviter la pensée critique.
Les parents ont déclaré qu'ils souhaitaient une IA spécifique à leurs enfants, formée uniquement avec un contenu adapté à leur âge ou un système intégrant des fonctionnalités de contrôle de l'âge et du sujet. Les enfants ont déclaré que leurs parents ne les conseillaient pas sur les utilisations spécifiques du GAI et souhaitaient que les parents discutent de son utilisation éthique plutôt que de la restreindre, ont rapporté les chercheurs.
Les plateformes GAI offrent une protection limitée aux enfants, se concentrent sur la restriction du contenu explicite et n'offrent pas de fonctionnalités de contrôle parental adaptées à l'IA. Wang et Yu ont déclaré que les risques pour les enfants et les stratégies pour les atténuer sont plus complexes et nuancés que le simple blocage de contenus inappropriés. L'un des principaux défis pour identifier et prévenir les contenus inappropriés sur les plateformes GAI est leur nature dynamique, qui consiste à générer un contenu unique en temps réel, par rapport au contenu statique en ligne, ont-ils déclaré.
Les chercheurs ont déclaré qu'il était essentiel que les plateformes fournissent des explications transparentes sur leurs risques en matière de sécurité et de confidentialité identifiés par les experts et ont recommandé qu'elles proposent des filtres de contenu pouvant être adaptés aux besoins de chaque famille et aux stades de développement de leurs enfants.
Toutefois, les stratégies de sécurité ne peuvent pas être purement techniques et doivent aller au-delà du filtrage et des restrictions, en reconnaissant la tension entre l'autonomie des enfants et le contrôle parental sur la gestion des risques en ligne. Wang et Yu ont déclaré que les adultes doivent d'abord comprendre les motivations derrière les comportements des enfants sur GAI. Ils ont suggéré un chatbot d’assistance qui pourrait fournir un environnement sûr pour expliquer les risques potentiels, améliorer la résilience et proposer des stratégies d’adaptation aux utilisateurs adolescents.
« Les technologies de l'IA évoluent très rapidement, tout comme la manière dont les gens les utilisent », a déclaré Wang. « Il y a certaines choses que nous pouvons apprendre des domaines passés, comme la dépendance et les comportements inappropriés sur les réseaux sociaux et les jeux en ligne. »
Wang a déclaré que leurs recherches constituaient une première étape pour résoudre le problème. Lui et Yu créent une taxonomie de catégories de risques qui peuvent être utilisées pour discuter des risques et des interventions visant à les atténuer.
Cela aidera également à identifier les premiers signaux de comportement à risque, notamment le temps passé sur une plateforme GAI, le contenu des conversations et les modèles d'utilisation, tels que l'heure de la journée à laquelle les enfants utilisent les plateformes, a déclaré Wang.
Lui et Yu travaillent avec Karen Rudolph, professeur de psychologie dans l'Illinois et directrice du Family Studies Lab dont les recherches portent sur le développement des adolescents, pour établir des interventions adaptées à l'âge.
« Il s'agit d'un sujet très interdisciplinaire et nous essayons de le résoudre de manière interdisciplinaire en impliquant l'éducation, la psychologie et nos connaissances en matière de sécurité et de gestion des risques. Il doit s'agir d'une solution technique et d'interaction sociale », a déclaré Yu. dit.