Le scandale d'édition de l'IA de YouTube révèle comment la réalité peut être manipulée sans notre consentement

Le scandale d'édition de l'IA de YouTube révèle comment la réalité peut être manipulée sans notre consentement

La divulgation, le consentement et le pouvoir de la plate-forme sont devenus des champs de bataille nouvellement revigorés avec la montée en puissance de l'IA.

Le problème est apparu récemment avec la décision controversée de YouTube d'utiliser des outils alimentés par l'IA pour « déblue, dénoise et améliorer la clarté » pour certains des contenus téléchargés sur la plate-forme. Cela a été fait sans le consentement, voire la connaissance, des créateurs de contenu pertinents. Les téléspectateurs du matériel ne savaient rien de l'intervention de YouTube.

Sans transparence, les utilisateurs ont un recours limité à identifier, et encore moins à répondre, au contenu édité par l'IA. Dans le même temps, de telles distorsions ont une histoire qui est considérablement antérieure aux outils d'IA d'aujourd'hui.

Un nouveau type de montage invisible

Des plateformes telles que YouTube ne sont pas les premières à s'engager dans une manipulation subtile d'image.

Pendant des décennies, les magazines de style de vie ont des photos « aérographees » pour adoucir ou affiner certaines fonctionnalités. Non seulement les lecteurs ne sont pas informés des changements, mais souvent la célébrité en question ne l'est pas non plus. En 2003, l'acteur Kate Winslet a décrié avec colère le choix de British GQ de modifier son tir de couverture – qui comprenait le rétrécissement de sa taille – sans son consentement.

Le public plus large a également montré un appétit pour éditer des images avant de publier sur les réseaux sociaux. Cela a du sens. Une étude de 2021 qui a examiné 7,6 millions de photos postées par l'utilisateur sur Flickr a trouvé des photos filtrées plus susceptibles d'obtenir des vues et des engagements.

Cependant, la récente décision de YouTube montre dans quelle mesure les utilisateurs peuvent ne pas être dans le siège du conducteur.

Tiktok a fait face à un scandale similaire en 2021, lorsque certains utilisateurs d'Android ont réalisé qu'un « filtre de beauté » avait été appliqué automatiquement à leurs publications sans leur consentement ni leur divulgation.

Cela est particulièrement préoccupant, car les recherches récentes ont trouvé un lien entre l'utilisation de filtres Tiktok améliorant l'apparence et les problèmes d'image de soi.

Les modifications non divulguées s'étendent également à la ligne hors ligne. En 2018, de nouveaux modèles d'iPhone se sont révélés automatiquement à l'aide d'une fonctionnalité appelée Smart HDR (gamme dynamique élevée) pour «lisse» la peau des utilisateurs. Cela a été décrit plus tard par Apple comme un «bug» et a été inversé.

Ces questions sont également entrées en collision dans la sphère politique australienne l'année dernière. Nine News a publié une photo modifiée par l'AI de la députée victorienne Georgie Purcell qui a exposé son ventre, alors qu'elle était couverte sur la photo originale. Ils n'ont pas dit aux téléspectateurs que l'image qu'ils ont utilisée avait été modifiée avec l'IA.

Le problème ne se limite pas non plus au contenu visuel. En 2023, l'auteur Jane Friedman a trouvé Amazon vendant cinq livres générés par l'AI sous son nom. Non seulement ils n'étaient pas ses œuvres, mais ils ont également posé le risque de préjudice de réputation significatif.

Dans chacun de ces cas, les altérations algorithmiques ont été présentées sans divulgation à ceux qui les ont vues.

La divulgation disparue

La divulgation est l'un des outils les plus simples que nous devons adapter à une réalité médiée par l'IA de plus en plus modifiée.

La recherche suggère que les entreprises qui sont transparentes quant à leur utilisation des algorithmes d'IA sont plus susceptibles d'être fiables par les utilisateurs avec la confiance initiale des utilisateurs dans l'entreprise et le système d'IA jouant un rôle important.

Bien que les utilisateurs aient démontré une diminution de la confiance dans les systèmes d'IA dans le monde, ils ont également montré une confiance croissante dans l'IA qu'ils ont eux-mêmes utilisés, y compris la conviction qu'il s'améliorera inévitablement.

Alors pourquoi les entreprises utilisent-elles toujours l'IA sans la divulguer? C'est peut-être parce que les divulgations de l'utilisation de l'IA peuvent être problématiques. La recherche a révélé que la divulgation de l'utilisation d'IA réduit systématiquement la confiance dans la personne ou l'organisation concernée, mais pas autant que si elles sont découvertes pour avoir utilisé l'IA sans divulgation.

Au-delà de la confiance, l'impact des divulgations est complexe. La recherche a révélé que les divulgations sur la désinformation générée par l'AI-AI sont peu susceptibles de rendre ces informations moins convaincantes pour les téléspectateurs. Cependant, ils peuvent faire hésiter les gens à partager le contenu, par peur de répandre la désinformation.

Naviguer dans l'inconnu généré par l'AI

Avec le temps, il ne sera plus difficile d'identifier l'imagerie AI confectée et manipulée. Même les détecteurs d'IA sophistiqués restent un pas en retard.

Un autre grand défi dans la lutte contre la désinformation – un problème aggravé par la montée en puissance de l'IA – est un biais de confirmation. Cela fait référence à la tendance des utilisateurs à être moins critique envers les médias (AI ou autrement) qui confirme ce qu'ils croient déjà.

Heureusement, il y a des ressources à notre disposition, à condition que nous ayons la présence d'esprit pour les rechercher. Les jeunes consommateurs de médias en particulier ont développé des stratégies qui peuvent repousser la vague de désinformation sur Internet. L'un d'eux est une triangulation simple, qui implique de rechercher plusieurs sources fiables pour confirmer une nouvelle.

Les utilisateurs peuvent également organiser leurs flux de médias sociaux en aimant délibérément ou en suivant les personnes et les groupes en qui ils ont confiance, tout en excluant des sources de moins bonne qualité. Mais ils peuvent faire face à une bataille difficile, car des plates-formes telles que Tiktok et YouTube sont enclines à un modèle de défilement infini qui encourage la consommation passive par rapport à l'engagement sur mesure.

Bien que la décision de YouTube de modifier les vidéos des créateurs sans consentement ni divulgation soit probablement dans ses droits légaux en tant que plate-forme, il place ses utilisateurs et contributeurs dans une position difficile.

Et compte tenu des cas précédents d'autres plates-formes importantes – ainsi que les plates-formes numériques de puissance démesurées, ce ne sera probablement pas la dernière fois que cela se produit.