Le régulateur chinois de l'Internet forcera les algorithmes de recommandation à promouvoir "valeurs sociales dominantes"

L’IA générative est une machine génératrice de désinformation. Et au moins 16 pays l’utilisent déjà

En Chine, il existe un concurrent à Midjourney. Développé par Baidu, l’outil vous permet de générer des images à partir d’une « invite ». Le problème est que les citoyens ne peuvent pas générer certaines images : un mécanisme de censure filtre les mots sensibles dans la sphère politique et empêche, par exemple, que la place Tinananmen n’existe pas selon cette plateforme. Dans Midjourney, par exemple, Xi Jingping est également censuré. Ce sont des exemples clairs de ce qui arrive à la liberté sur Internet, en particulier dans la nouvelle ère de l’IA générative.

Des exemples partout. En septembre 2022, l’Iran a bloqué l’accès aux réseaux mobiles à ses citoyens, qui se sont soudain retrouvés à peine capables d’utiliser WhatsApp ou Instagram. En Birmanie, l’utilisation d’Internet est actuellement si restreinte que le pays se situe presque au niveau de la Chine. Aux Philippines, l’ancien président Rodrigo Duterte a profité d’une loi antiterroriste pour bloquer les sites Web qui, selon son gouvernement, critiquent son administration. C’est une mauvaise nouvelle pour la liberté sur Internet, et une utilisation dangereuse de l’IA générative y contribue.

L’IA générative pour le mal. Un nouveau rapport de Freedom House, un groupe de défense des droits de l’homme, révèle qu’au moins 16 pays ont utilisé des systèmes d’IA générative « pour semer le doute, discréditer les adversaires ou influencer le débat public ». L’objectif de cette recherche annuelle est de construire un classement selon la liberté d’Internet dans différents pays du monde. Parmi les facteurs figurent la limitation de la liberté d’expression, les coupures d’accès à Internet ou les représailles exercées contre la manière de s’exprimer en ligne.

Nous allons empirer. La dernière édition du rapport souligne à quel point la liberté sur Internet dans le monde a chuté pour la 13e année consécutive. La raison, au moins en partie, est la prolifération des systèmes d’intelligence artificielle générative. Selon Allie Funk, l’une des responsables du projet, « les progrès de l’IA aggravent encore cette crise ».

Le côté obscur. L’accès massif aux outils d’IA générative a presque fait disparaître l’obstacle à la génération de campagnes de désinformation. Les systèmes automatisés permettent des campagnes précises et des formes plus subtiles de censure en ligne, et ce nouveau rapport expose comment ces systèmes sont déjà utilisés dans au moins 16 pays.

Contrôle des messages. Au moins 47 gouvernements ont fait appel à des experts pour manipuler les débats en ligne en leur faveur, soit le double du nombre qui le faisait il y a dix ans, indique ce rapport. Il explique comment « les cadres juridiques d’au moins 21 pays obligent ou encouragent les plateformes numériques à déployer l’apprentissage automatique pour éliminer les discours politiques, sociaux et religieux défavorisés ».

Cela arrive aussi aux États-Unis et en Europe. Ces types d’outils sont utilisés partout dans le monde et, en fait, « même dans des environnements plus démocratiques, comme aux États-Unis et en Europe, les gouvernements ont envisagé ou ont effectivement imposé des restrictions sur l’accès aux sites Web et aux plateformes de médias sociaux les plus importants ». Nous avons un exemple récent en France, où la restriction des réseaux sociaux a été proposée comme moyen de lutter contre les émeutes des manifestations survenues dans le pays en juillet 2023.

Le dividende du menteur. Selon Funk, un accès aussi facile à ces systèmes d’IA générative peut miner la confiance dans les faits vérifiables. Selon le rapport, il s’agit du phénomène appelé « dividende du menteur », selon lequel les gens sont plus sceptiques quant à la véracité des informations, en particulier en temps de crise ou de conflit politique, lorsque les fausses informations peuvent proliférer.