Il existe peu de preuves que les chatbots IA « intimident les enfants », mais cela ne signifie pas que ces outils sont sûrs.
Au cours du week-end, le ministre de l'Éducation, Jason Clare, a tiré la sonnette d'alarme sur « les chatbots IA qui intimident les enfants ».
Comme il l'a déclaré aux journalistes lors d'une conférence de presse pour le lancement d'une nouvelle étude anti-intimidation, « les chatbots IA intimident désormais les enfants ». […] les humilier, les blesser, leur dire qu'ils sont des perdants, leur dire de se suicider. »
Cela semble terrifiant. Cependant, les preuves de cette réalité sont moins disponibles.
Clare était récemment sortie d'un briefing des ministres de l'Éducation de la commissaire à la sécurité électronique Julie Inman Grant. Même si eSafety s’inquiète des chatbots, cela ne suggère pas qu’il existe un problème généralisé.
L'étude anti-intimidation elle-même, réalisée par la psychologue clinicienne Charlotte Keating et l'expert en prévention du suicide Jo Robinson, n'a fait aucune recommandation ni mention des chatbots IA.
Que disent les preuves sur les chatbots qui intimident les enfants ? Et quels risques ces outils présentent-ils actuellement pour les enfants en ligne ?
L'intimidation en ligne
Il ne fait aucun doute que le harcèlement humain en ligne est grave et omniprésent. Il y a longtemps, Internet a étendu la cruauté au-delà des portes de l’école, jusque dans les chambres, les discussions de groupe et les notifications sans fin.
Les signalements de « cyberintimidation » adressés au commissaire à la sécurité électronique ont augmenté de plus de 450 % au cours des cinq dernières années. Une enquête eSafety de 2025 a également montré que 53 % des enfants australiens âgés de 10 à 17 ans avaient été victimes d'intimidation en ligne.
Aujourd'hui, avec de nouvelles applications d'IA générative et des fonctions d'IA similaires intégrées dans des plates-formes de messagerie courantes sans le consentement du client (telles que Meta's Messenger), il est raisonnable pour les décideurs politiques de se demander quels nouveaux dangers le contenu généré par les machines pourrait apporter.
Préoccupations en matière de sécurité électronique
Un porte-parole d'eSafety a déclaré à The Conversation qu'il était préoccupé par les chatbots depuis « un certain temps maintenant » et avait entendu des rapports anecdotiques selon lesquels des enfants passaient jusqu'à cinq heures par jour à parler à des robots, « parfois sexuellement ».
eSafety a ajouté qu'elle était consciente de la prolifération des applications de chatbot et que beaucoup d'entre elles étaient gratuites, accessibles et même destinées aux enfants.
« Nous avons également vu des rapports récents dans lesquels des chatbots IA auraient encouragé les idées suicidaires et l'automutilation dans des conversations avec des enfants, avec des conséquences tragiques. »
Le mois dernier, Inman Grant a enregistré des codes industriels applicables autour des chatbots compagnons, ceux conçus pour reproduire les relations personnelles.
Celles-ci stipulent que les chatbooks compagnons devront comporter des mesures appropriées pour empêcher les enfants d'accéder à du matériel préjudiciable. Outre le contenu à caractère sexuel, cela inclut le contenu présentant de la violence explicite, des idées suicidaires, de l'automutilation et des troubles de l'alimentation.
Cas très médiatisés
Il y a eu des cas tragiques et très médiatisés dans lesquels AI a été impliquée dans la mort de jeunes.
Aux États-Unis, les parents d'Adam Raine, 16 ans, affirment que ChatGPT d'OpenAI a « encouragé » leur fils à se suicider plus tôt cette année.
Les médias suggèrent qu'Adam a passé de longues périodes à parler à un chatbot alors qu'il était en détresse, et que les filtres de sécurité du système n'ont pas réussi à reconnaître ou à répondre correctement à ses idées suicidaires.
En 2024, Sewell Setzer, un adolescent américain de 14 ans, s'est suicidé après avoir noué pendant des mois un profond attachement émotionnel à un chatbot sur le site Character.ai, qui lui demandait s'il avait déjà envisagé le suicide.
Bien qu’horribles, ces cas ne démontrent pas une tendance des chatbots à intimider les enfants de manière autonome.
À l’heure actuelle, aucune recherche évaluée par des pairs ne documente des cas généralisés de systèmes d’IA incitant à des comportements d’intimidation à l’égard d’enfants, et encore moins les poussant au suicide.
Que se passe-t-il réellement ?
Il existe encore de nombreuses raisons de s’inquiéter des chatbots IA.
Une étude de l’Université de Cambridge montre que les enfants traitent souvent ces robots comme des compagnons quasi-humains, ce qui peut les rendre émotionnellement vulnérables lorsque la technologie réagit froidement ou de manière inappropriée.
Il existe également une inquiétude concernant la « flagornerie » de l’IA – ou la tendance d’un chatbot à être d’accord avec celui qui discute avec lui, indépendamment de la spirale d’inexactitudes factuelles, d’inadéquation ou d’absurdité.
Les jeunes qui utilisent des chatbots à des fins de camaraderie ou de jeu créatif peuvent également tomber sur un contenu troublant en raison d'une mauvaise formation des modèles (les guides cachés qui influencent ce que dit le bot) ou de leurs propres tentatives d'incitation contradictoire.
Ce sont de sérieux problèmes de conception et de gouvernance. Mais il est difficile de les considérer comme du harcèlement, qui implique des actes répétés destinés à nuire à une personne et qui, jusqu’à présent, ne peuvent être attribués qu’à un être humain (comme les accusations de droit d’auteur ou de meurtre).
Les auteurs humains derrière la cruauté de l’IA
Parallèlement, certaines des utilisations les plus troublantes des outils d’IA par les jeunes impliquent des auteurs humains utilisant des systèmes génératifs pour harceler autrui.
Cela inclut la fabrication de deepfakes nus ou le clonage de voix à des fins d’humiliation ou de fraude. Ici, l’IA agit comme un catalyseur de nouvelles formes de cruauté humaine, mais pas comme un agresseur autonome.
Les contenus inappropriés – créés grâce à l’IA – trouvent également les enfants grâce à des algorithmes familiers des médias sociaux. Ceux-ci peuvent orienter les enfants d'un contenu tel que Paw Patrol vers un contenu profondément grotesque en zéro clic.
Et maintenant ?
Nous aurons besoin d’une conception soignée et de protections autour des chatbots qui simulent l’empathie, surveillent les détails personnels et invitent au type d’enchevêtrement psychologique qui pourrait faire en sorte que les personnes vulnérables se sentent ciblées, trahies ou manipulées sans le savoir.
Au-delà de cela, nous avons également besoin de débats plus larges et continus sur la manière dont les gouvernements, les entreprises technologiques et les communautés devraient réagir judicieusement à l’évolution des technologies de l’IA dans notre monde.
