La demande d'images d'abus d'IA augmente sur le dark web

La demande d'images d'abus d'IA augmente sur le dark web

Selon un nouveau rapport de recherche publié par l'Institut international de recherche sur la police et la protection publique (IPPPRI) de l'Université Anglia Ruskin, il existe des preuves évidentes d'une demande croissante d'images d'abus sexuels sur mineurs générées par l'IA sur le dark web. Le rapport complet peut être consulté ici.

L’étude innovante du dark web cherche à comprendre comment les délinquants en ligne utilisent l’intelligence artificielle (IA) pour créer du matériel d’abus sexuel sur mineur (CSAM).

La publication de l'IPPPRI Insights intervient après que l'Internet Watch Foundation a partagé un rapport soulignant la croissance continue de cette technologie émergente en tant qu'outil d'exploitation des enfants.

Les chercheurs, Dr Deanna Davy et Professeur Sam Lundrigan, ont analysé les discussions qui ont eu lieu sur les forums du dark web au cours des 12 derniers mois et ont trouvé des preuves claires de l’intérêt croissant pour cette technologie, de l’utilisation continue de l’IA et du désir collectif des délinquants en ligne de voir d’autres en apprendre davantage et créer de nouvelles images d’abus.

Le Dr Davy a expliqué : « Nous savons sans l’ombre d’un doute que les contenus pédopornographiques produits par l’IA constituent un problème en pleine expansion, mais nous devons mieux comprendre comment les délinquants les créent, dans quelle mesure ils sont partagés et quel impact ils ont sur les parcours des délinquants. Cette compréhension nous aidera à prévenir et à combattre ces types d’infractions. »

L'étude, qui fait partie d'un programme de travail plus vaste sur la facilitation technologique des abus sexuels sur mineurs, a révélé que les membres du forum s'apprennent activement à créer du CSAM généré par l'IA en accédant à des guides et des vidéos en ligne et en partageant des conseils et des orientations entre eux.

L'analyse a également montré que les membres du forum utilisent leur propre stock d'images et de vidéos non générées par l'IA dont ils disposent déjà pour faciliter leur apprentissage, et que beaucoup d'entre eux ont partagé leurs espoirs et leurs attentes quant à l'évolution de la technologie, leur permettant de créer encore plus facilement ce type de matériel. Certains membres du forum ont également qualifié les créateurs d'images générées par l'IA d'« artistes ».

Le Dr Davy a conclu : « Nous savons que l’un des nombreux risques importants associés à l’utilisation de l’IA pour créer ce type de matériel est l’énorme défi qu’elle représente pour les forces de l’ordre chargées de comprendre, de coder et de réagir au matériel qu’elles trouvent. Il est essentiel que nos services de police et nos organismes de protection du public cherchent à mieux comprendre ce phénomène, afin de pouvoir répondre efficacement à ce changement technologique qui ne montre aucun signe de ralentissement. »

« Il existe une idée fausse selon laquelle les images générées par l'IA ne font pas de victimes, et cela ne pourrait pas être plus éloigné de la vérité. Nous avons constaté que de nombreux délinquants se procurent des images d'enfants pour les manipuler, et que le désir d'images « hardcore », allant jusqu'à « softcore », est régulièrement évoqué. »

Le professeur Lundrigan a ajouté : « Les conversations que nous avons analysées montrent qu’en raison de la prolifération de conseils et d’orientations sur la manière d’utiliser l’IA de cette manière, ce type de matériel pédopornographique se multiplie et les délits augmentent. Cela s’ajoute à la menace mondiale croissante de la maltraitance des enfants en ligne sous toutes ses formes, et doit être considéré comme un domaine essentiel à aborder dans notre réponse à ce type de crime. »