De fausses photos de l’historique de l’IA obscurcissent le passé

De fausses photos de l’historique de l’IA obscurcissent le passé

Une vague de photos touchantes montrant de grands moments dans le temps fascine les historiens amateurs en ligne. Le problème ? Ils ne sont pas réels et pourraient obscurcir notre vision du passé.

Largement partagées sur les réseaux sociaux, les clichés atmosphériques en noir et blanc : une mère et son enfant mourant de faim pendant la Grande Dépression ; un soldat épuisé pendant la guerre du Vietnam – peut à première vue ressembler à de véritables documents historiques.

Mais ils ont été créés par l’intelligence artificielle, et les chercheurs craignent qu’ils ne brouillent les eaux de l’histoire réelle.

« L'IA a provoqué un tsunami de fausses histoires, en particulier d'images », a déclaré Jo Hedwig Teeuwisse, une historienne néerlandaise qui démystifie les fausses affirmations en ligne.

« Dans certains cas, ils créent même une version IA d'une vraie vieille photo. C'est vraiment bizarre, surtout quand l'originale est très célèbre. »

Une photo partagée sur Facebook montre deux jeunes hommes au visage frais posant devant un biplan antique : prétendument Orville et Wilbur Wright au moment de leur premier vol propulsé.

Mais ce ne sont pas les frères Wright.

De véritables photos d'archives de l'époque montrent Orville moustachu et son grand frère Wilbur portant des casquettes plates, ne ressemblant en rien au couple blond sur l'image sépia de l'IA.

Reproduction d'Hiroshima

Parmi les images créées à l'aide de Midjourney, un générateur d'images en ligne populaire basé sur l'IA, se trouve une série de fausses reproductions illustrant le moment où l'assassin présumé du président John F. Kennedy, Lee Harvey Oswald, a lui-même été abattu par Jack Ruby en 1963.

D'autres images de Midjourney prétendent montrer l'explosion de la bombe atomique sur Hiroshima en 1945, l'invasion de Prague par les troupes alliées soviétiques en 1968 et même une vision du Colisée romain dans l'Antiquité.

« Ils se concentrent souvent sur des événements trop anciens pour avoir été photographiés ou sur des moments mal documentés », explique Marina Amaral, une artiste spécialisée dans l'ajout de couleurs aux photographies en noir et blanc.

« Cela crée le risque que de faux visuels soient acceptés comme des faits, ce qui pourrait, au fil du temps, fausser notre compréhension de l'histoire et affaiblir la confiance du public dans les preuves visuelles en tant que source fiable d'apprentissage du passé. »

Repérer les fausses images

Pour l’instant, Amaral et Teeuwissen pensent qu’ils peuvent encore distinguer les fausses images historiques des vraies rien qu’en les regardant.

Les photos générées par l'IA comportent souvent des défauts révélateurs : trop de doigts sur une main, des détails manquants – comme l'absence d'hélice sur l'avion des frères Wright – ou, à l'inverse, des compositions trop parfaites.

« Les images générées par l'IA peuvent recréer le look, mais elles manquent de l'élément humain, de l'intention, de la raison derrière les choix du photographe », a déclaré Amaral.

« Ils sont peut-être visuellement convaincants, mais ils sont finalement creux. »

Pour Teeuwissen, « les vraies photos sont prises par de vraies personnes et il y a généralement quelque chose de flou, ou quelqu'un a l'air idiot par accident, le maquillage a l'air mauvais, et cetera ».

Mais elle estime que ce n'est « qu'une question de temps » avant que la qualité de l'image de l'IA rende les contrefaçons difficiles à détecter à l'œil nu – une perspective « dangereuse », dit-elle, qui amplifierait la désinformation.