Trump, Twitter et le grand débat sur le "la censure": qui a le pouvoir de marquer ce qui peut se dire sur les réseaux sociaux

ils mettent le renard et ils surveillent les poulets

Nous sommes étonnés de la capacité créative (ou du moins générative) de moteurs comme ChatGPT ou Stable Diffusion. Et pourtant, de plus en plus de voix critiques apparaissent avec des contenus créés par l’intelligence artificielle. Non pas parce qu’elles s’appuient sur des œuvres protégées par le droit d’auteur, mais parce que nous voyons déjà à quel point ces œuvres sont différenciées de celles créées par des êtres humains. une tâche délicate et complexe.

Dans OpenAI, ils disent avoir la solution, au moins pour détecter si un texte a été écrit par un humain ou une machine. Tout est fantastique jusqu’à ce que vous vous rendiez compte qu’il y a ici un dangereux conflit d’intérêts : un conflit dans lequel la même entreprise qui a créé le problème prétend être capable de le résoudre.

Le dilemme n’est pas nouveau et rappelle la fable du renard veillant sur les poules. Nous avons vécu un débat similaire lorsqu’en janvier 2021 nous avons été témoins d’un événement inhabituel : Twitter, Facebook et Instagram ont bloqué le compte de Donald Trump après la attentat contre le Capitole des États-Unis.

Cela signifie que plus que jamais les plateformes sont devenues des censeurs de ce qui y était publié, ce qui a généré pas mal de polémiques. En premier lieu, en raison de la difficulté à modérer les contenus sur les réseaux sociaux de cette envergure: des rapports comme ‘L’étage des traumatismes‘ a montré comment les modérateurs de Facebook devaient supporter des scènes terribles chaque jour. Le réseau social a pris fin les indemniser après le scandale

Ce n’est en aucun cas le seul exemple de désastre dans le domaine de la modération : nous en avons un terrible dans ce qui s’est passé avec YouTube Kids montrant des vidéos terrifiantes aux enfants, quelque chose qu’ils ont travaillé plus tard pour corriger mais qui reste difficile à contrôler.

Deuxièmement, parce que lorsque ces plateformes censurent, elles le font selon des préjugés et des critères secrets et privés. Ils sont juge et partie, et pas de possibilité de recours. YouTube ferme des comptes pour des raisons kafkaïennesTwitter bannit ceux qui utilisent la phrase « Je te tue » métaphoriquement et dans l’Apple App Store les applications sont censurées pour diverses raisons : certains justifiésOui d’autres moins.

Pour résoudre ce deuxième problème, l’Union européenne a lancé son Digital Services Act (DSA), un nouveau règlement qui veut réglementer tous les aspects qui affectent le contenu numérique, des algorithmes à la désinformation. Les entreprises devront en effet être beaucoup plus responsables de ce qui y est publié.

Le problème est gigantesque tant pour les entreprises — incapables de modérer tout ce que leurs utilisateurs (et bots) publient — que pour les régulateurs et les utilisateurs, qui sont confrontés à un scénario qu’il sera difficile de changer. Il n’y a pas de solution en vue, et la seule chose que nous pouvons sembler faire est d’essayer de minimiser le mal de toutes ces plateformes et de maximiser le bien.

Nous commençons également à voir quelque chose comme ça avec tout ce qui touche à l’intelligence artificielle. Si les réseaux sociaux posent des difficultés, les contenus créés (ou générés, insistons-y) par l’intelligence artificielle sont de grands mots. Beaucoup plus ancien.

En fait, la facilité et le faible coût de génération de ce contenu permettent de prévoir facilement que nous serons bientôt complètement inondés d’images, de textes, de vidéos et de musique entièrement générés par des machines. Non seulement cela : tout ce contenu deviendra probablement indiscernable de ce que nous, les humains, créerions.

Cela soulève des possibilités incroyables dans de nombreux domaines – pas seulement créatifs, mais aussi de recherche – mais aussi des menaces très réelles. Les deepfakes pourraient devenir notre pain quotidien, et voir une célébrité dire quelque chose de surprenant mais cohérent sur Twitter, Facebook ou TikTok sera aussi courant que dangereux. Les usurpations d’identité – comme celle récemment subie par la société pharmaceutique Eli Lilly – seront beaucoup plus redoutables, et ici détecter ce qui est réel et ce qui ne l’est pas sera crucial.

si vous le cassez, vous payez

Les responsables d’OpenAI ont pris conscience du problème qu’ils ont eux-mêmes créé : les textes écrits par un système d’intelligence artificielle comme ChatGPT présentent des avantages importants, mais aussi des risques. Nous l’avons vu dans secteur de l’éducationoù cet outil soulève la fin des devoirs.

Dans OpenAI, ils reconnaissent ce problème et en fait, dans l’annonce officielle de l’outil de détection (leur « classificateur d’IA »), ils ont consacré une section spécifique à « l’impact pour les éducateurs », soulignant le débat que ChatGPT a conduit parmi ce groupe. Ils donnent une série de Considérations particulières pour les éducateurs, mais rappelez-vous également que ce classificateur et d’autres outils similaires auront un impact sur « journalistesdes enquêteurs sur la désinformation et d’autres groupes.

Il sera intéressant de voir comment la précision de ces outils s’améliorera, mais avec des contenus de toutes sortes de plus en plus difficiles à distinguer des contenus créés par l’homme, la tâche semble d’une complexité redoutable. Adobe se vantait de pouvoir identifier les deepfakes en 2022, et Facebook allait y investir aussi, mais l’ancienne technique consistant à regarder les yeux ne semble plus aussi pertinente.

La même chose se produit avec le texte : à la proposition d’OpenAI DetectGPT est maintenant ajouté, visant à détecter les articles académiques écrits avec ChatGPT. Il existe des propositions intéressantes telles que insérer des filigranes (« filigranes ») invisibles dans les textes générés par l’intelligence artificielle, et l’un des créateurs d’OpenAI Il est en train de travailler précisément dans cette option.

Ces outils de détection, comme celui proposé par OpenAI, ils continueront d’avancer, sans doute. Le problème, c’est qu’il en sera de même pour les moteurs d’intelligence artificielle générative, qui deviennent chaque jour « plus humains ».

Là encore les solutions semblent difficiles, et la régulation – qui est généralement assez tardive – devrait commencer à se dessiner rapidement. Les solutions semblent complexes et insaisissables – amendes, obligeant à étiqueter les contenus générés par l’IA – et il est encore trop tôt pour dire jusqu’où le phénomène peut aller. Espérez le meilleur et préparez-vous au pire.

Photo: Karine