Dans son documentaire le plus regardé, Netflix utilise l'IA pour générer du contenu qui n'existe pas. Et cela a ouvert un débat éthique
« What Did Jennifer Do » est actuellement le film documentaire le plus vu sur Netflix, et rivalise dans le Top 10 avec des productions telles que « The Batman » ou l'actuel numéro un, le film d'Aitana « Wall with Wall ». Cependant, un instant fugace de ses images remet en cause toute sa documentation, détruisant sa puissante approche.
Le film raconte le cas réel des parents de la jeune étudiante Jennifer, qui sont abattus lorsque des intrus entrent dans leur maison. Elle semble traumatisée par l'événement, mais bientôt des éléments qui ne correspondent pas à sa déclaration commencent à apparaître. Bientôt, nous apprendrons l'histoire de la fille qui, pour ne pas décevoir ses parents exigeants, a inventé toute une carrière triomphale au lycée et à l'université. Le film est basé sur une affaire réelle qui n'est même pas complètement close, car il y a des appels en cours et de nombreux doutes sur la manière dont le procès s'est déroulé.
Mais au-dessus de ces débats si typiques des produits, une autre question se pose : le site Futurism a détecté, quelques jours après la première, que dans le film Une paire d'images générées par l'IA sont utilisées comme documentation graphique. Les photographies présumées présentent « toutes les caractéristiques d'une photo générée par l'intelligence artificielle : mains et doigts détruits, traits du visage déformés, objets modifiés en arrière-plan et une dent de devant trop longue ».
Cela ouvre un débat très important sur l’utilisation de l’IA générative. Car si l'outil suscite déjà des débats éthiques lorsqu'il est utilisé dans la fiction (de la façon dont son utilisation enlève du travail aux professionnels qualifiés jusqu'à l'origine des matériaux qu'il utilise), dans le documentaire les questions se multiplient, puisque le spectateur a confiance que le matériel qu'il utilise sont montrés pour soutenir que le récit est authentique.
Bien entendu, cela a toutes sortes de ramifications : dans certaines occasions, les documentaires fictionnalisent des événements alors qu’ils ne disposent pas de matériel documentaire auquel recourir ou en tant que simple ressource esthétique/dramatique. Par exemple, les dramatisations de crimes si courantes dans les séries télévisées documentaires. Mais là, le langage visuel change pour que, instinctivement, le spectateur sache qu'il est face à une situation falsifiée. Le problème avec ces images que présente Netflix c'est qu'à aucun moment il n'est indiqué que ce sont de fausses photosmais ils sont utilisés pour que le spectateur sympathise avec la protagoniste, pour avoir la preuve qu'elle était « une fille normale ».
Rachel Antell, co-fondatrice de l'Archival Producers Alliance et experte en matière d'utilisation contraire à l'éthique des images par l'IA dans les documentaires, déclare au site Internet 404 que « même s'il est révélé que [un material] Elle est générée par l'IA, elle peut sortir de n'importe quel documentaire, atteindre Internet et d'autres films, et elle fait alors partie à jamais des archives historiques. » Et il recommande de prendre une série de mesures pour garantir la connaissance du spectateur : « Nous encourageons les gens à faire preuve de transparence quant à l'utilisation et, dans certains cas, le cas échéant, obtenir le consentement pour recréer des choses qui ne se sont pas nécessairement produites.
En-tête | Netflix
À Simseo | L’AI Pin a atteint ses premiers utilisateurs. Et leurs conclusions ne sont pas du tout encourageantes.