Comment savoir si une photo est fausse? Vous ne pouvez probablement pas. C’est pourquoi de nouvelles règles sont nécessaires
Le problème est simple: il est difficile de savoir si une photo est réelle ou non. Les outils de manipulation photo sont si bons, si courants et faciles à utiliser, que la véracité d’une image n’est plus garantie.
La situation est devenue plus délicate avec l’absorption de l’intelligence artificielle générative. Toute personne ayant une connexion Internet peut cuire à peu près n’importe quelle image, plausible ou fantaisie, avec une qualité photoréaliste, et la présenter comme réelle. Cela affecte notre capacité à discerner la vérité dans un monde de plus en plus influencé par les images.
J’enseigne et recherche l’éthique de l’intelligence artificielle (IA), y compris la façon dont nous utilisons et comprenons les images numériques.
Beaucoup de gens nous demandent comment nous pouvons dire si une image a été modifiée, mais cela devient rapidement trop difficile. Au lieu de cela, je suggère ici un système où les créateurs et les utilisateurs d’images indiquent ouvertement les changements qu’ils ont apportés. Tout système similaire fera l’affaire, mais de nouvelles règles sont nécessaires si les images AI doivent être déployées de manière éthique – du moins parmi ceux qui veulent faire confiance, en particulier les médias.
Ne rien faire n’est pas une option, car ce que nous croyons des médias affecte à quel point nous nous faisons confiance et nos institutions. Il y a plusieurs voies à suivre. L’étiquetage clair des photos en fait partie.
Deepfakes et Fake News
La manipulation photo était autrefois la réserve des équipes de propagande du gouvernement, et plus tard, des utilisateurs experts de Photoshop, le logiciel populaire pour modifier, modifier ou créer des images numériques.
Aujourd’hui, les photos numériques sont automatiquement soumises à des filtres à correction des couleurs sur les téléphones et les caméras. Certains outils de médias sociaux « prédifient automatiquement » les images des visages des utilisateurs. Une photo est-elle prise par soi-même même réelle?
La base de la compréhension sociale partagée et du consensus – de la confiance de ce que l’on voit – est érodé. Ceci s’accompagne de la montée apparente des reportages de nouvelles indignes (et souvent malveillants). Nous avons une nouvelle langue pour la situation: fausses nouvelles (faux reportages en général) et DeepFakes (images manipulées délibérément, que ce soit pour mener la guerre ou obtenir plus de followers de médias sociaux).
Les campagnes de désinformation utilisant des images manipulées peuvent influencer les élections, approfondir les divisions, voire inciter à la violence. Le scepticisme envers les médias dignes de confiance n’a pas des gens ordinaires de la comptabilité des événements fondés sur des faits et a alimenté les théories du complot et les groupes marginaux.
Questions éthiques
Un autre problème pour les producteurs d’images (personnels ou professionnels) est la difficulté de savoir ce qui est autorisé. Dans un monde d’images trafiquées, est-il acceptable de vous emporter? Que diriez-vous de modifier un ex-partenaire d’une photo et de le publier en ligne?
Est-ce important que un journal occidental très respecté publie une photo du président russe Vladimir Poutine tirant son visage avec dégoût (une expression qu’il a sûrement faite à un moment donné, mais qu’aucune image réelle n’a été capturée, disons) en utilisant l’IA?
Les frontières éthiques se brouillent davantage dans des contextes très chargés. Est-il important que les publicités politiques de l’opposition contre le candidat à l’époque, Barack Obama, s’assombrissent délibérément sa peau?
Les images générées de cadavres à Gaza seraient-elles plus acceptables, peut-être plus morales, que les photographies réelles d’humains morts? Une couverture de magazine montre-t-elle un modèle modifié numériquement en normes de beauté inaccessibles, sans déclarer le niveau de manipulation photo, contraire à l’éthique?
Une solution
Une partie de la solution à ce problème social exige deux actions simples et claires. Tout d’abord, déclarez que la manipulation de photos a eu lieu. Deuxièmement, divulguez quel type de manipulation photo a été effectué.
La première étape est simple: de la même manière que les images sont publiées avec des crédits d’auteur, une «reconnaissance d’amélioration» claire et discrète devrait être ajoutée aux lignes de légende.
La seconde concerne la façon dont une image a été modifiée. Ici, j’appelle cinq « catégories de manipulation » (un peu comme une note de film). La responsabilité et la clarté créent une base éthique.
Les cinq catégories pourraient être:
C – corrigé
Modifications qui préservent l’essence de la photo originale tout en affinant sa clarté globale ou son attrait esthétique – comme l’équilibre des couleurs (comme le contraste) ou la distorsion de l’objectif. Ces corrections sont souvent automatisées (par exemple par les caméras pour smartphone) mais peuvent être effectuées manuellement.
E – amélioré
Modifications qui concernent principalement les ajustements de couleur ou de tonalité. Cela s’étend à une légère retouche cosmétique, comme l’élimination des imperfections mineures (telles que l’acné) ou l’ajout artificiel de maquillage, à condition que les modifications ne remodèlent pas les caractéristiques physiques ou les objets. Cela inclut tous les filtres impliquant des changements de couleur.
B – le corps a manipulé
Ceci est signalé lorsqu’une fonction physique est modifiée. Les changements dans la forme du corps, comme les bras amincissants ou les épaules à élargir, ou la modification de la couleur de la peau ou des cheveux, tombent dans cette catégorie.
O – Object a manipulé
Cela déclare que la position physique d’un objet a été modifiée. Un doigt ou un membre déplacé, un vase ajouté, une personne éditée, un élément d’arrière-plan ajouté ou supprimé.
G – Généré
Des représentations entièrement fabriquées mais photoréalistes, comme une scène qui n’a jamais existé, doit être signalée ici. Ainsi, toutes les images ont créé numériquement, y compris par l’IA générative, mais limité aux représentations photographiques. (Un dessin animé généré par l’AI du pape serait exclu, mais une photo de type photo du pontife dans une veste bouffante est notée G.)
Les catégories suggérées sont aveugles: elles sont (ou doivent être) déclenchées simplement par la survenue de toute manipulation. Ainsi, les filtres de couleur appliqués à une image d’un politicien déclenchent une catégorie E, que la modification rend la personne plus conviviale ou plus effrayante. Une caractéristique critique pour accepter un système de notation comme celle-ci est qu’elle est transparente et impartiale.
Les catégories CEBOG ci-dessus ne sont pas fixes, il peut y avoir un chevauchement: B (le corps manipulé) peut souvent impliquer E (amélioré), par exemple.
Faisabilité
Le logiciel de manipulation photo responsable peut indiquer automatiquement aux utilisateurs la classe de manipulation de photos effectuée. Si nécessaire, il pourrait le filigraner, ou il pourrait simplement le capturer dans les métadonnées de l’image (comme avec les données sur la source, le propriétaire ou le photographe). L’automatisation pourrait très bien garantir la facilité d’utilisation et peut-être réduire les erreurs humaines, encourageant l’application cohérente sur les plateformes.
Bien sûr, afficher la notation sera finalement une décision éditoriale, et les bons utilisateurs, comme les bons éditeurs, le feront de manière responsable, espérons-le ou l’amélioration de la réputation de leurs images et publications. Bien que l’on espère que les médias sociaux achèteraient ce type d’idéal éditorial et encourageraient les images étiquetées, beaucoup de place à l’ambiguïté et à la tromperie demeure.
Le succès d’une initiative comme celle-ci dépend des développeurs de technologies, des organisations de médias et des décideurs politiques collaborant pour créer un engagement partagé à la transparence dans les médias numériques.