Les vidéos hyperréalistes d'IA de l'application Sora pourraient déclencher une crise de confiance en ligne alors que les téléchargements augmentent

Les vidéos hyperréalistes d'IA de l'application Sora pourraient déclencher une crise de confiance en ligne alors que les téléchargements augmentent

Faire défiler l’application Sora peut donner l’impression d’entrer dans un multivers réel. Michael Jackson fait du stand-up ; l'extraterrestre des films « Predator » prépare des hamburgers chez McDonald's ; une caméra de sécurité domestique capture un élan s'écrasant à travers la porte vitrée ; La reine Elizabeth plonge du haut d'une table dans un pub.

De telles réalités improbables, des futurs fantastiques et des vidéos absurdes sont le pilier de l'application Sora, une nouvelle application vidéo courte publiée par le créateur de ChatGPT OpenAI.

Le flux continu de vidéos hyperréalistes courtes réalisées par l’intelligence artificielle est époustouflant et fascinant au début. Mais cela déclenche rapidement un nouveau besoin de reconsidérer chaque élément de contenu comme étant réel ou faux.

« Le plus grand risque avec Sora est qu'il rend impossible à surmonter le déni plausible et qu'il érode la confiance dans notre capacité à distinguer l'authentique du synthétique », a déclaré Sam Gregory, expert en deepfakes et directeur exécutif de WITNESS, une organisation de défense des droits de l'homme. « Les contrefaçons individuelles sont importantes, mais les véritables dégâts sont un brouillard de doute qui s'installe sur tout ce que nous voyons. »

Toutes les vidéos de l'application Sora sont entièrement générées par l'IA et il n'y a aucune option pour partager des images réelles. Mais dès la première semaine de son lancement, les utilisateurs partageaient leurs vidéos Sora sur tous les types de réseaux sociaux.

Moins d'une semaine après son lancement le 30 septembre, l'application Sora a dépassé le million de téléchargements, dépassant la croissance initiale de ChatGPT. Sora a également atteint le sommet de l'App Store aux États-Unis. Pour l'instant, l'application Sora n'est disponible que pour les utilisateurs iOS aux États-Unis, et les gens ne peuvent y accéder que s'ils disposent d'un code d'invitation.

Pour utiliser l'application, les utilisateurs doivent scanner leur visage et lire trois chiffres affichés à l'écran pour que le système capture une signature vocale. Une fois cela fait, les utilisateurs peuvent saisir une invite de texte personnalisée et créer des vidéos hyperréalistes de 10 secondes avec un fond sonore et des dialogues.

Grâce à une fonctionnalité appelée « Cameos », les utilisateurs peuvent superposer leur visage ou celui d'un ami dans n'importe quelle vidéo existante. Bien que toutes les sorties portent un filigrane visible, de nombreux sites Web proposent désormais la suppression du filigrane pour les vidéos Sora.

Lors de son lancement, OpenAI a adopté une approche laxiste en matière d'application des restrictions en matière de droits d'auteur et a autorisé la recréation de matériel protégé par droit d'auteur par défaut, à moins que les propriétaires ne se désengagent.

Les utilisateurs ont commencé à générer des vidéos d'IA présentant des personnages de titres tels que « Bob l'éponge », « South Park » et « Breaking Bad », ainsi que des vidéos inspirées du jeu télévisé « The Price Is Right » et de la sitcom des années 90 « Friends ».

Vint ensuite la reconstitution de célébrités décédées, notamment Tupac Shakur errant dans les rues de Cuba, Hitler affrontant Michael Jackson et des remixes du révérend Martin Luther King Jr. prononçant son discours emblématique « I Have A Dream », mais appelant à la libération du rappeur en disgrâce Diddy.

« S'il vous plaît, arrêtez de m'envoyer des vidéos IA de papa », a posté Zelda Williams, fille du regretté comédien Robin Williams, sur Instagram.

« Vous ne faites pas d'art, vous fabriquez des hot-dogs dégoûtants et sur-traités à partir de la vie d'êtres humains, de l'histoire de l'art et de la musique, puis vous les faites avaler à quelqu'un d'autre, en espérant qu'il vous donnera un petit coup de pouce et qu'il aimera ça. Dégoûtant. »

D'autres reconstitutions de célébrités décédées, notamment Kobe Bryant, Stephen Hawking et le président Kennedy, créées sur Sora, ont été publiées sur les sites de médias sociaux, recueillant des millions de vues.

Un porte-parole de Fred Rogers Productions a déclaré que la famille de Rogers était « frustrée par les vidéos d'IA déformant Monsieur Rogers diffusées en ligne ».

Des vidéos de M. Rogers tenant une arme à feu, saluant le rappeur Tupac et d'autres fausses situations satiriques ont été largement partagées sur Sora.

« Les vidéos sont en contradiction directe avec l'intentionnalité minutieuse et le respect des principes fondamentaux du développement de l'enfant que Fred Rogers a apportés à chaque épisode de Mister Rogers' Neighbourhood. Nous avons contacté OpenAI pour demander que la voix et l'image de Mister Rogers soient bloquées pour une utilisation sur la plateforme Sora, et nous nous attendons à ce qu'eux et d'autres plateformes d'IA respectent les identités personnelles à l'avenir », a déclaré le porte-parole dans une déclaration au Times.

Les agences artistiques et les syndicats hollywoodiens, dont la SAG-AFTRA, ont commencé à accuser OpenAI d'utilisation inappropriée de ressemblances. La tension centrale se résume au contrôle de l’utilisation des ressemblances d’acteurs et de personnages sous licence – et à une compensation équitable pour leur utilisation dans les vidéos IA.

À la suite des inquiétudes d'Hollywood concernant les droits d'auteur, Sam Altman a partagé un article de blog, promettant un plus grand contrôle pour les titulaires de droits afin de spécifier comment leurs personnages peuvent être utilisés dans les vidéos IA – et étudie les moyens de partager les revenus avec les titulaires de droits.

Il a également déclaré que les studios pouvaient désormais « accepter » que leurs personnages soient utilisés dans des recréations d'IA, un renversement par rapport à la position initiale d'OpenAI d'un régime de non-participation.

L'avenir, selon Altman, se dirige vers la création de contenu personnalisé pour un public de quelques-uns ou un public d'un seul.

« La créativité pourrait être sur le point de connaître une explosion cambrienne, et avec elle, la qualité de l'art et du divertissement pourrait considérablement augmenter », a écrit Altman, qualifiant ce genre d'engagement de « fan fiction interactive ».

Les successions des acteurs décédés, cependant, s’empressent de protéger leur image à l’ère de l’IA.

CMG Worldwide, qui représente les successions de célébrités décédées, a conclu un partenariat avec la société de détection de deepfake Loti AI pour protéger les listes d'acteurs et les successions de CMG contre toute utilisation numérique non autorisée.

Loti AI surveillera en permanence les usurpations d'identité de 20 personnalités représentées par CMG, dont Burt Reynolds, Christopher Reeve, Mark Twain et Rosa Parks.

« Depuis le lancement de Sora 2, par exemple, nos inscriptions ont été multipliées par 30 à mesure que les gens cherchent des moyens de reprendre le contrôle de leur image numérique », a déclaré Luke Arrigoni, co-fondateur et PDG de Loti AI.

Depuis janvier, Loti AI a déclaré avoir supprimé des milliers d'instances de contenu non autorisé, car les nouveaux outils d'IA ont rendu plus facile que jamais la création et la diffusion de deepfakes.

Après de nombreuses « représentations irrespectueuses » de Martin Luther King Jr., OpenAI a déclaré qu'elle suspendait la génération de vidéos à l'effigie de l'icône des droits civiques sur Sora, à la demande de la succession de King. Bien qu’il existe de forts intérêts en matière de liberté d’expression dans la représentation de personnages historiques, les personnalités publiques et leurs familles devraient en fin de compte avoir le contrôle sur la manière dont leur image est utilisée, a déclaré OpenAI dans un article.

Désormais, les représentants autorisés ou les propriétaires fonciers peuvent demander que leur image ne soit pas utilisée dans les camées Sora.

Alors que la pression juridique augmente, Sora est devenue plus stricte quant au moment où elle autorisera la recréation de personnages protégés par le droit d'auteur. Il publie de plus en plus d’avis de violation de la politique de contenu.

Désormais, la création de personnages Disney ou d'autres images déclenche un avertissement de violation de la politique de contenu. Les utilisateurs qui ne sont pas fans des restrictions ont commencé à créer des mèmes vidéo sur les avertissements de violation de la politique de contenu.

Il y a une viralité croissante dans ce qui a été surnommé « AI slop ».

La semaine dernière, des images de caméras circulaires d'une grand-mère poursuivant un crocodile à la porte ont été présentées, ainsi qu'une série de vidéos de « gros jeux olympiques » où des personnes obèses participent à des épreuves sportives telles que le saut à la perche, la natation et l'athlétisme.

Des usines de déchets dédiées ont transformé cet engagement en une source de revenus, générant un flux constant de vidéos dont il est difficile de détourner le regard. Un commentateur technique concis l’a surnommé « Cocomelon pour adultes ».

Même avec des protections croissantes pour les ressemblances de célébrités, les critiques préviennent que « l’appropriation de la ressemblance » occasionnelle de toute personne ou situation commune pourrait semer la confusion dans le public, accroître la désinformation et éroder la confiance du public.

Pendant ce temps, même si la technologie est utilisée par de mauvais acteurs et même par certains gouvernements à des fins de propagande et de promotion de certaines opinions politiques, les personnes au pouvoir peuvent se cacher derrière le flot de fausses nouvelles en prétendant que même des preuves réelles ont été générées par l'IA, a déclaré Gregory de WITNESS.

« Je suis préoccupé par la possibilité de fabriquer des images de manifestations, de mettre en scène de fausses atrocités ou d'insérer de vraies personnes avec des mots mis dans la bouche dans des scénarios compromettants », a-t-il déclaré.