La recherche sur le forum Web Dark révèle la menace croissante des images de maltraitance des enfants générées par l'IA

La recherche sur le forum Web Dark révèle la menace croissante des images de maltraitance des enfants générées par l’IA

Le Royaume-Uni vise à être le premier pays au monde à créer de nouvelles infractions liées aux abus sexuels générés par l’IA. Les nouvelles lois rendront illégal de posséder, de créer ou de distribuer des outils d’IA conçus pour générer du matériel d’abus sexuel pour enfants (CSAM), passible d’une peine pouvant aller jusqu’à cinq ans de prison. Les lois rendront également illégal pour quiconque possède des « manuels pédophiles » qui apprennent aux gens à utiliser l’IA pour abuser sexuellement des enfants.

Au cours des dernières décennies, la menace contre les enfants des abus en ligne s’est multipliée à un rythme préoccupant. Selon l’Internet Watch Foundation, qui retrace et supprime les abus d’Internet, il y a eu une augmentation de 830% de l’imagerie en ligne des abus sexuels sur les enfants depuis 2014. La prévalence des outils de production d’images d’IA alimente cela.

L’année dernière, nous, à l’Institut international de recherche sur les services de police et de protection de l’Université Anglia Ruskin, avons publié un rapport sur la demande croissante de matériel d’abus sexuel généré par les enfants en ligne.

Les chercheurs ont analysé les chats qui ont eu lieu dans les forums Web Dark au cours des 12 mois précédents. Nous avons trouvé des preuves d’un intérêt croissant pour cette technologie et du désir des délinquants en ligne pour les autres d’en savoir plus et de créer des images d’abus.

En horrifiant, les membres du Forum ont fait référence à ceux qui créent l’imagerie AI-IA de «artistes». Cette technologie crée un nouveau monde d’opportunités pour les délinquants de créer et de partager les formes les plus dépravées de contenu de maltraitance pour enfants.

Notre analyse a montré que les membres de ces forums utilisent déjà des images et des vidéos non générées en AI pour faciliter leur apprentissage et former le logiciel qu’ils utilisent pour créer les images. Beaucoup ont exprimé leurs espoirs et leurs attentes que la technologie évoluerait, ce qui leur facilite la création de ce matériel.

Les espaces Web sombres sont cachés et uniquement accessibles via des logiciels spécialisés. Ils fournissent aux délinquants l’anonymat et la vie privée, ce qui rend difficile pour les forces de l’ordre de les identifier et de les poursuivre.

L’Internet Watch Foundation a documenté les statistiques sur l’augmentation rapide du nombre d’images générées par l’AI qu’ils rencontrent dans le cadre de leur travail. Le volume reste relativement faible par rapport à l’échelle des images non AI qui se trouvent, mais les nombres augmentent à un rythme alarmant.

L’organisme de bienfaisance a rapporté en octobre 2023 qu’un total de 20 254 images générées par l’IA avaient été téléchargées en un mois sur One Dark Web Forum. Avant la publication de ce rapport, on sait peu de choses sur la menace.

Les dommages de la violence d’IA

La perception des délinquants est que l’imagerie des abus sexuels sur les enfants générés par l’IA est un crime sans victime, car les images ne sont pas « réelles ». Mais il est loin d’être inoffensif, tout d’abord parce qu’il peut être créé à partir de vraies photos d’enfants, y compris des images complètement innocentes.

Bien qu’il y ait beaucoup de choses que nous ne savons pas encore sur l’impact des abus générés par l’IA, il existe une multitude de recherches sur les dommages des abus sexuels en ligne, ainsi que la façon dont la technologie est utilisée pour perpétuer ou aggraver l’impact de abus hors ligne. Par exemple, les victimes peuvent avoir un traumatisme continu en raison de la permanence de photos ou de vidéos, sachant simplement que les images sont là-bas. Les délinquants peuvent également utiliser des images (réelles ou fausses) pour intimider ou faire chanter les victimes.

Ces considérations font également partie des discussions en cours sur la pornographie profonde, la création dont le gouvernement prévoit également de criminaliser.

Tous ces problèmes peuvent être exacerbés avec la technologie de l’IA. De plus, il y aura également probablement un impact traumatisant sur les modérateurs et les enquêteurs devant voir les images d’abus dans les meilleurs détails pour identifier s’ils sont des images « réelles » ou « générées ».

Que peut faire la loi?

Le droit britannique interdit actuellement la prise, la fabrication, la distribution et la possession d’une image indécente ou d’un pseudo-photographie (une image photoréaliste créée numérique) d’un enfant.

Mais il n’y a actuellement aucune lois qui en font une infraction de posséder la technologie pour créer des images d’abus sexuels sur les enfants de l’IA. Les nouvelles lois devraient garantir que les policiers seront en mesure de cibler les agresseurs qui utilisent ou envisagent d’utiliser l’IA pour générer ce contenu, même s’ils ne sont pas actuellement en possession d’images lorsqu’ils sont étudiés.

Nous serons toujours derrière les délinquants en ce qui concerne la technologie, et les organismes d’application de la loi du monde entier seront bientôt submergés. Ils ont besoin de lois conçues pour les aider à identifier et à poursuivre ceux qui cherchent à exploiter les enfants et les jeunes en ligne.

C’est la bonne nouvelle que le gouvernement s’engage à agir, mais il doit être rapide. Plus la législation prend de temps pour la mise en œuvre, plus les enfants risquent d’être maltraités.

La lutte contre la menace mondiale prendra également plus que les lois dans un pays. Nous avons besoin d’une réponse entière du système qui commence lorsque la nouvelle technologie est en cours de conception. De nombreux produits et outils d’IA ont été développés pour des raisons entièrement authentiques, honnêtes et non nuisibles, mais elles peuvent facilement être adaptées et utilisées par les délinquants qui cherchent à créer un matériel nocif ou illégal.

La loi doit comprendre et y répondre, afin que la technologie ne puisse pas être utilisée pour faciliter les abus, et afin que nous puissions faire la différence entre ceux qui utilisent la technologie pour nuire et ceux qui l’utilisent pour de bon.