Des agents américains dénoncent un échec sur un point clé
Les réseaux sociaux utilisent depuis des années des systèmes automatisés pour tenter de détecter certains des délits les plus graves qui circulent sur Internet. Parmi eux figure l’exploitation sexuelle des enfants, un phénomène qui oblige les plateformes, les régulateurs et les forces de sécurité à surveiller chaque jour d’énormes volumes de contenus. La promesse de ces outils est claire : identifier les cas potentiels plus tôt et faciliter le travail des agents. Cependant, certaines équipes spécialisées aux États-Unis affirment que le volume de notifications qu'elles reçoivent des plateformes Meta a explosé et qu'une partie importante d'entre elles ne fournissent pas d'informations utiles pour agir.
Conflit entre échelle et utilité. Dans un procès en cours au Nouveau-Mexique, les procureurs soutiennent que Meta n'a pas divulgué de manière adéquate ce qu'elle savait des risques auxquels les mineurs sont confrontés sur ses plateformes et qu'elle a violé les lois de l'État sur la protection des consommateurs. Selon l'Associated Press, l'accusation fait également valoir que l'entreprise a présenté la sécurité de ses services d'une manière incompatible avec les risques encourus par les enfants et les adolescents. Cette affaire fait partie d'une vague plus large de poursuites intentées aux États-Unis contre de grandes entreprises technologiques pour les effets que leurs services peuvent avoir sur des mineurs.
Meta rejette cette interprétation. Dans son discours devant le jury, l'avocat de l'entreprise, Kevin Huff, a défendu que l'entreprise avait signalé les risques liés à l'utilisation de ses services et qu'elle avait introduit différents outils pour détecter et éliminer les contenus préjudiciables. Selon l'Associated Press, Huff a insisté sur le fait que le point central de l'affaire n'est pas de prouver l'existence de contenus problématiques sur les réseaux sociaux, mais plutôt de déterminer si l'entreprise a caché des informations pertinentes aux utilisateurs.
Des chercheurs en première ligne. Ceux qui ont fourni des chiffres et des exemples concrets de ce problème sont des agents qui travaillent directement dans les enquêtes sur l'exploitation des enfants sur Internet. Aux États-Unis, ces tâches incombent en grande partie au réseau d'unités connu sous le nom d'Internet Crimes Against Children (ICAC), un programme qui rassemble les forces de police à différents niveaux et est coordonné avec le ministère de la Justice pour enquêter et poursuivre les crimes commis contre des mineurs dans les environnements numériques. Ses agents reçoivent des notifications sur des cas possibles provenant de différentes sources, y compris des plateformes technologiques elles-mêmes.
Au cours de l’essai, certains de ces agents ont décrit comment ils subissaient l’augmentation des publicités des méta-plateformes. Benjamin Zwiebel, agent spécial de l'ICAC au Nouveau-Mexique, a expliqué devant le tribunal que bon nombre des notifications qu'ils reçoivent sont peu utiles pour faire avancer une enquête. « Nous recevons beaucoup de conseils de Meta qui ne sont que de la foutaise », a-t-il déclaré, selon The Guardian. Ses propos reflètent une préoccupation plus large au sein de ces unités : le volume des alertes est monté en flèche, mais toutes ne contiennent pas les informations nécessaires pour identifier un suspect ou déclencher une action policière.
Mauvaise qualité. Dans certains cas, les rapports envoyés depuis les plateformes contiennent des données qui ne décrivent pas un comportement criminel. Dans d’autres, ils pointent certes vers un possible délit, mais ils arrivent sans les éléments essentiels pour poursuivre l’enquête, comme des images, des vidéos ou des fragments de conversations permettant d’identifier les responsables. Sans ce matériel, les agents disposent de peu d’outils pour faire avancer le dossier ou demander de nouvelles procédures. Certains agents ont également noté qu'une partie de ces avis arrivent avec des informations incomplètes ou partiellement supprimées.
La machinerie du reportage de masse. Derrière cette multiplication des signalements se cachent plusieurs facteurs qui permettent de comprendre pourquoi le volume de signalements envoyés aux autorités est monté en flèche. Aux États-Unis, les entreprises technologiques sont tenues par la loi de signaler tout matériel d'abus sexuel sur des enfants qu'elles détectent sur leurs services au National Center for Missing & Exploited Children (NCMEC), une organisation qui fait office de centre national pour recevoir ces notifications et les distribue ensuite aux forces de police correspondantes. Les agents cités par The Guardian soulignent également les récents changements juridiques, tels que le Report Act, entré en vigueur en novembre 2024, comme un facteur possible qui aurait augmenté le nombre d'avis envoyés pour éviter le non-respect.
Meta dit qu'il fait le contraire. L'entreprise rejette l'idée que ses systèmes rendent le travail des autorités plus difficile et affirme qu'au contraire, elle collabore depuis des années avec les forces de sécurité pour détecter et poursuivre ce type de délit. Un porte-parole de Meta a déclaré que le ministère de la Justice des États-Unis avait reconnu à plusieurs reprises la rapidité avec laquelle l'entreprise répondait aux demandes des autorités et que le NCMEC avait évalué positivement son système de notification des avis.
Selon l'entreprise, en 2024, elle a reçu plus de 9 000 demandes d'urgence des autorités américaines et les a résolues dans un délai moyen de 67 minutes, un processus qui, selon elle, est encore plus accéléré lorsqu'il s'agit de cas liés à la sécurité des enfants ou au risque de suicide. Meta note également qu'elle signale au NCMEC tout matériel pouvant être lié à l'exploitation sexuelle des enfants et qu'elle travaille avec cette organisation pour aider à hiérarchiser les avis, notamment en étiquetant ceux qu'elle considère comme les plus urgents.
Un vrai problème. Quelle que soit la décision du jury du Nouveau-Mexique, l’affaire reflète une tension qui dépasse une seule entreprise ou un seul État. Les plateformes numériques opèrent à l’échelle mondiale et utilisent des systèmes automatisés pour détecter des contenus illicites en volumes qu’il serait impossible d’examiner manuellement. Cependant, l'expérience décrite par certains agents montre que l'augmentation du nombre de dénonciations ne se traduit pas toujours par des enquêtes plus efficaces.
Images | Dima Solomine | ROBIN WORRALL
À Simseo | Dario Amodei a fondé Anthropic parce qu'OpenAI ne prenait pas au sérieux les risques de l'IA. Maintenant tu vas céder à ces risques
