Les vidéos deepfake suscitent de faux souvenirs de films chez la moitié des participants
Dans une nouvelle étude, des clips vidéo deepfake de remakes de films qui n’existent pas réellement ont incité les participants à se souvenir faussement des films, mais de simples descriptions textuelles des faux films ont provoqué des taux de faux souvenirs similaires. Gillian Murphy de l’University College Cork, en Irlande, et Lero, du Science Foundation Ireland Research Centre for Software, et leurs collègues ont présenté ces résultats dans la revue en libre accès PLOS ONE.
Les vidéos Deepfake sont des clips qui ont été modifiés à l’aide de la technologie de l’intelligence artificielle (IA) pour remplacer la voix ou le visage d’une personne par celui d’une autre personne. Les outils de création de deepfakes sont récemment devenus beaucoup moins chers et plus accessibles, amplifiant les conversations sur les applications créatives potentielles ainsi que sur les risques potentiels, tels que la diffusion de fausses informations et la manipulation des souvenirs des téléspectateurs.
Pour explorer les risques et les avantages potentiels, Murphy et ses collègues ont invité 436 personnes à répondre à une enquête en ligne qui comprenait le visionnage de vidéos deepfake de faux remakes de films mettant en vedette différents acteurs, tels que Will Smith dans le rôle du personnage Neo – joué à l’origine par Keanu Reeves – dans The Matrix et Brad Pitt et Angelina Jolie dans Shining. Les autres faux remakes de l’étude étaient Indiana Jones et Captain Marvel.
À titre de comparaison, les participants ont également vu des clips de vrais remakes, notamment Charlie & The Chocolate Factory, Total Recall, Carrie et Tomb Raider. De plus, dans certains cas, les participants lisent les descriptions textuelles des remakes au lieu de regarder les deepfakes. Les participants n’ont été informés que les deepfakes étaient faux que plus tard dans l’enquête.
Conformément à des études antérieures, les vidéos et les descriptions deepfake ont suscité de faux souvenirs des faux remakes, avec une moyenne de 49% des participants pensant que chaque faux remake était réel. De nombreux participants ont déclaré se souvenir que les faux remakes étaient meilleurs que les originaux. Cependant, les taux de fausse mémoire à partir des descriptions textuelles étaient tout aussi élevés, ce qui suggère que la technologie deepfake n’est peut-être pas plus puissante que d’autres outils pour déformer la mémoire.
La plupart des participants ont déclaré être mal à l’aise avec l’utilisation de la technologie deepfake pour refondre des films, citant des préoccupations telles que le manque de respect pour l’intégrité artistique et la perturbation des expériences sociales partagées des films.
Ces découvertes pourraient aider à éclairer la conception et la réglementation futures de la technologie deepfake dans les films.
Les auteurs ajoutent : « Alors que les deepfakes sont très préoccupants pour de nombreuses raisons, telles que la pornographie non consensuelle et l’intimidation, l’étude actuelle suggère qu’ils ne sont pas particulièrement puissants pour déformer nos souvenirs du passé. Bien que les deepfakes aient amené les gens à former de faux souvenirs à des taux assez élevés dans cette étude, nous avons obtenu les mêmes effets en utilisant un texte simple. Essentiellement, cette étude montre que nous n’avons pas besoin d’avancées techniques pour déformer la mémoire, nous pouvons le faire très facilement et efficacement en utilisant des moyens non techniques.