12 000 personnes ont essayé de deviner quelles images ont été générées par l'IA et lesquelles ne l'ont pas été. Nous n'avons pas de très bonnes nouvelles
La détection d'images ou de vidéos générées avec l'intelligence artificielle est de plus en plus compliquée. Les petites erreurs qui nous mettaient auparavant en alerte – plus de doigts, des réflexes incohérents, des textures étranges – commencent à disparaître. Et avec eux, nos certitudes disparaissent également.
Mais dans quelle mesure perdons-nous cette capacité de distinguer le réel de l'artificiel? Est-il facile de confondre une photo authentique avec une création par l'IA? Une nouvelle étude de l'IA pour le bon laboratoire de Microsoft essaie de répondre à ces questions. Et il le fait avec des données qui nous invitent à réfléchir.
Plus de 12 000 personnes devant l'IA. Pour mesurer nos capacités avec des chiffres en béton, Microsoft a lancé une grande expérience à l'échelle basée sur un jeu en ligne simple, réel ou pas très. Le défi est direct: voir une image et décider si elle est réelle ou générée par IA.
Méthode. Entre le 1er et le 8 août 2024, les participants ont terminé 17 340 matchs et évalué quelque 287 000 images. L'ensemble comprenait 350 images réelles et environ 700 synthétiques, créées avec Dall-E 3, MidJourney V6, Amazon Titan V1, diffusion stable XL, diffusion stable-3, variantes de la détresse et des visages produits avec GANS. Les résultats ne sont pas encourageants: le taux de réussite moyen était de 62% et, appliqué uniquement aux images générées par l'IA, n'a augmenté que de 63%.

Encore plus frappant: les images qui ont le plus confondu les joueurs n'étaient pas fausses, mais authentiques. Trois vraies photos obtenues moins de 20% des succès, probablement parce que leur esthétique – des scènes très contrastées ou inhabituelles – rappelle ce que nous associons à l'IA.


Face bien, de mauvais paysages. Lors de la segmentation par thème, le modèle est clair: nous obtenons plus lorsque les gens apparaissent et échouent à haute voix avec des paysages naturels ou urbains. L'explication que les chercheurs donnent est double. D'une part, le cerveau humain est finement formé pour détecter les imperfections sur les visages; De l'autre, l'exposition continue à des images de modèles tels que MidJourney ou Dall-E nous a appris à reconnaître certaines caractéristiques stylistiques. D'un autre côté, les paysages « courants » générés par des moteurs moins populaires – ou par des algorithmes ajustés à l'esthétique amateur – sont mieux camouflés.
Les paramètres techniques ne suffisent pas. L'équipe a également mesuré la plage dynamique, l'exposition ou la netteté. Bien que de petites différences soient détectées, elles sont trop subtiles pour qu'un utilisateur moyen les perçoit à l'œil nu. L'intuition est donc absente.
Dépassé par des détecteurs automatiques. Microsoft a comparé les performances humaines avec son propre détecteur d'image IA, qui dépasse 95% des coups sûrs et maintient cette précision dans n'importe quelle catégorie. Le problème est que ces outils ne sont pas toujours disponibles et que de nombreuses images manquent d'eau ou de marques d'identification. Sans cette signature numérique, nous continuons à dépendre de notre jugement visuel.

Test. Si vous voulez vérifier par vous-même à quel point il est difficile de distinguer une vraie photo d'une création par l'IA, le réel ou non peut-être ouvert au public. Vous découvrirez peut-être que votre œil critique a toujours une marge d'amélioration.
Images | Microsoft
Dans Simseo | On pourrait penser que payer 200 euros par mois pour Claude lui permettrait de l'utiliser sans limites. Anthropic pense le contraire
