Image 1

Êtes-vous capable de distinguer une image réelle d’une image générée par l’IA ? Voici 20 photos pour le prouver

Des amis se sont rendus à Rome il y a quelques jours. Nous avons discuté sur WhatsApp et je leur ai demandé comment s’était passé le voyage. Ils m’ont dit qu’ils n’avaient pas pu voir le Vatican en raison d’une fermeture temporaire. Alors j’en ai profité pour leur demander s’ils avaient vu le Pape. « Dernièrement, c’est très moderne, je ne sais pas si vous en avez entendu parler », ai-je ajouté.

« Non, » m’ont-ils dit. J’ai donc envoyé une photo. Pas un vrai, mais un dans lequel le pape apparaît vêtu d’un manteau blanc unique. L’image est d’une telle qualité qu’il est difficile de la distinguer d’une vraie, et il serait difficile pour quelqu’un qui ne connaîtrait pas le fond de l’affaire de le savoir.

Mes amis, qui n’avaient pas entendu parler de tout le débat, ils ont avalé ça. Puis je leur ai envoyé une autre image, cette fois une de sa danse hip-hop. C’était bien sûr trop. Ils ont compris que je leur faisais une blague, mais si je n’avais envoyé que la première image, ils m’auraient cru. Difficile de ne pas le faire.

La situation est probablement beaucoup plus fréquente ces dernières semaines, et cette image du pape a encore déclenché un phénomène qui attendait depuis des mois pour éclore définitivement. Dans le cas du pape, le voir dans toutes sortes de scénariosdansant, révolutionner votre garde-robe ou faire Parkour– semblait logique, mais ce n’était qu’un exemple de jusqu’où des plates-formes comme Midjourney, DALL-E 2 ou Stable Diffusion peuvent aller.

Jouons au jeu des différences

On dit qu’une image vaut mille mots, mais nous avons voulu soulever cette question non pas avec une image, mais avec 20. Nous pensons qu’un bon moyen de montrer à quel point il est difficile de distinguer ce qui est réel de ce qui est généré par un L’IA c’est se mettre à l’épreuve avec un petit jeu

Ainsi, ci-dessous vous trouverez 10 blocs de deux images face à face. L’un d’eux est une photographie réelle prise par un être humain. L’autre est une image générée par Midjourney v5 qui tente justement de proposer une image similaire à la vraie pour nous embrouiller. Javier Lacort, éditeur chez Simseo et déjà avec de nombreuses tables dans ce domaine de la génération d’images par IA, a été en charge de cette partie.

L’opération est très simple : il suffit de comparer les images et cliquez sur celui que vous pensez être réel. Si vous avez raison, un message « Correct » apparaîtra. Si ce n’est pas le cas, un message « Wrong! This image is real! » apparaîtra. et le bouton vert deviendra rouge.

Vous pouvez trouver la solution et la liste des images réelles à la fin de l’article. Nous vous suggérons d’écrire votre liste séparément de celles que vous pensez être, puis de vérifier les résultats. S’il vous plaît, faites-nous savoir comment ça s’est passé 😉 C’est parti !Qu’en penses-tu? Bien que vous ayez probablement beaucoup (ou peut-être tous) raison, il y en a sûrement une qui vous a rendu la tâche particulièrement difficile ou qui a même réussi à vous tromper. Vous pouvez déjà vérifier la solution à la fin de l’article, mais nous voulions d’abord discuter de la situation actuelle dans ce domaine.

La fiction le semble de moins en moins

Les choses deviennent incontrôlables et nous voyons comment la puissance des intelligences artificielles génératives peut être facilement utilisée à des fins de désinformation. Eliot Higgins, fondateur du site bellingcat —une entreprise de journalisme d’investigation Open Source— voulait expérimenter cette technologie.

Tweet Par Eliot Higgins

Profitant du fait que Donald Trump comparaissait devant le bureau du procureur du district de Mnahattan, Higgins a imaginé à quoi ressembleraient les images de son arrestation. Il a partagé plusieurs fausses images sur Twitter montrant Trump résistant à l’arrestation et maîtrisé par la police.

Si l’on regardait les images il a été possible de détecter des pannesmais en réalité, la seule chose qui a déclenché les alarmes était de savoir que si tout ce qu’ils montraient s’était produit, cela serait apparu dans les médias du monde entier. Le fil avec environ 50 fausses images Il n’est pas perdu et comprend un hypothétique Trump faisant des poids en prison, se reposant contre une clôture ou s’échappant par un tunnel.

Peu importe que Higgins prévienne : les images redeviennent virales et rouvrent (encore plus) un débat pendant et probablement urgent. Et pendant ce temps, Higgins a indiqué sur BuzzFeed Actualités qu’il avait été banni de Midjourney. Le mot « arrêté » (« arrêté ») est désormais interdit dans les invites de cette plate-forme, en fait, mais cette interdiction – à la fois de la personne et du terme – ne semble pas être une mesure particulièrement efficace. Ils sont plutôt une tentative de mettre des portes sur le terrain.

L’intelligence artificielle nous trompe depuis longtemps. En 2018, dans notre podcast Captcha, nous avons testé à la fois notre collègue John Tones et un expert sur ces sujets, Andrés Torrubia. Nous leur avons montré quatre poèmes et ils devaient indiquer s’ils avaient été créés par une IA ou par un humain. Les deux se sont trompés dans l’un de ces poèmes (vous pouvez voir le moment à partir de la minute 26:00 de cette vidéo).

La question est devenue beaucoup plus sensible avec les IA génératrices d’images, qui ont montré que confondre l’être humain et faire passer une fausse image pour vraie ce n’est pas difficile. Même pas quand nous sommes censés le détecter : c’est arrivé avec le déjà célèbre concours de photographie qu’un utilisateur a gagné avec une image créée par l’IA : il ne l’a pas avoué jusqu’à ce qu’il ait vu comment il a fini par le gagner. C’était arrivé avant avec un concours d’art et malgré la colère des juges, ils ont tous mordu.

Les intelligences artificielles créatives vont encore tuer l'art.  Cela n'a aucune importance

comme indiqué dans Vox, les dernières avancées de plates-formes comme Midjourney ont rendu la qualité des images encore plus étonnante. Des experts dans l’art du « prompting » – on devrait quand même commencer à l’appeler ainsi – comme Nick St. Pierre sont devenus bien connus sur Twitter pour poster constamment des images qui pourraient passer pour réelles mais qui ont été générées avec cette plateforme.

Dans l’un d’eux, St. Pierre a montré à quoi ressembleraient des modèles avec les traits de Brad Pitt ou de John Oliver vêtus de vêtements Gucci. Bien que les images « chantent », le résultat était dans une certaine mesure réalisable.

Tweet Par Nick St Pierre

Beaucoup d’autres images créées par lui ils sont beaucoup plus indiscernables réalité, et montrer qu’une fois que vous contrôlez précisément les termes que vous devez entrer pour afficher les résultats que vous souhaitez, ils ne vous déçoivent généralement pas. Midjourney vous aide même à les trouver avec une « invite inversée ».

Tweet Par Nick St Pierre2

Pendant ce temps, nous voyons comment les entreprises et même les médias du monde entier commencent à expérimenter cette technologie. Lévi’s annoncé récemment qu’il allait collaborer avec Lalaland.ai, un studio qui génère des modèles par IA pour augmenter « le nombre et la diversité des modèles ». comme ils l’ont expliqué dans la coupeÀ une autre époque, la solution aurait été d’embaucher différents modèles pour obtenir cet effet.Les couvertures de certains grands magazines expérimentent déjà des IA génératives.

Journaux

Dans les médias, l’enjeu est sur la crête de la vague. revue cosmopolite utilisé DALL-E 2 pour créez votre première couverture grâce à une plateforme d’intelligence artificielle générative. Ils se vantaient d’être les premiers, mais quelques jours avant que The Economist ne fasse exactement le même avec une technique appelée modèle de fondation. Bien sûr, ils ne seraient pas les seuls.

réponses

Même les magazines photographiques comme le français Réponses Photo décidé de publier deux versions de son numéro de mars 2023. Une avec une couverture générée par l’IA et une avec une couverture utilisant une photo réelle créée par Raymond Depardon. Pouvez-vous deviner lequel est lequel ? (Réponse : celle de droite est celle de l’IA.)

Monde

En Espagne, nous avons déjà un exemple particulièrement notable. Le 3 avril, une photo des politiciens Pablo Iglesias et Yolanda Díaz est apparue en première page d’El Mundo, souriantes et apparemment en bonne harmonie. Dans la légende de la photo, la vérité a été révélée avec le texte « Une photo impossible ? » et expliquant que l’image avait été créée par le groupe United Unknown à l’aide de l’intelligence artificielle. Cela faisait partie d’un rapport sur le même sujet que ce texte traite également.

Cette couverture a généré un débat très important sur les réseaux sociaux tels que Twitter, où des journalistes de divers médias sont intervenus pour juger de la décision d’El Mundo. Dans le Huffington Post, ils ont interviewé les auteurs de l’image, et ils ont souligné que la controverse Cela parait « exagéré ».

almudena

Les avis étaient partagés, mais une conclusion était claire. C’est ce qu’a souligné Almudena Ariza, une correspondante bien connue de TVE, qui expliqué comment « La bonne chose que je vois dans tout cela, c’est que le melon s’est ouvert d’un débat urgent et nécessaire. Parce que l’IA va complètement transformer nos vies. »

Gonzalo

Pendant ce temps, Gonzalo Suárez, directeur de PAPEL, le magazine quotidien d’El Mundo, a partagé encore plus d’images générées par l’IA qui faisaient partie du rapport écrit par Rodrigo Terrasa et qu’il parlait précisément de l’impact que l’IA aura avec divers experts.

Comme l’a souligné Almudena Ariza, le melon a été ouvert. Le problème est loin d’être résolu et nous sommes pris dans une situation où les poursuites sont actuellement la seule chose qui freine ces plateformes —et pas grand-chose—.

Début 2020, l’Union européenne a officialisé la Stratégie numérique européenne et le Livre blanc sur l’intelligence artificiellemais des mesures efficaces pour réguler un monde dans lequel les IA génératives révolutionnent le concept d’art et de créativité doivent encore arriver et il ne semble pas qu’elles le feront à court terme.

En attendant, une chose est claire : il est de plus en plus difficile de différencier les images générées par une intelligence artificielle générative de celles réelles créées —par exemple, avec une caméra— par des êtres humains.

L’enquête que nous avons menée au début de ce texte est justement une petite expérience pour le démontrer, mais ce n’est que le début. La capacité d’écriture de plates-formes telles que ChatGPT est étonnante —elle est démontrée par les notes GPT-4 dans plusieurs examens—, mais c’est que la génération d’images la génération vidéo suivra.

Avec les deepfakes on aura un problème avec la vérité : même les vidéos ne serviront pas de preuves

Tout cela rend la menace des deepfakes utilisés non plus dans le domaine de la pornographie ou du divertissement, mais dans le domaine de la désinformation —par exemple, la politique, et en Espagne nous avons des élections en vue—, très réelle.

N’importe qui pourra nous convaincre de presque n’importe quoi avec une image ou une vidéo peu conflictuelle, et il se peut que chaque jour soit comme un Poisson d’avril ou un des jours Saints innocents dans lequel nous devons constamment évaluer si ce que nous lisons, voyons ou écoutons est réel ou non.

La chose est inquiétante si l’on tient compte du fait que les réseaux sociaux sont de plus en plus le lieu où de plus en plus de personnes obtiennent des informations, et la croissance du tik tok — ces données proviennent du Royaume-Uni, mais la même chose se passe aux États-Unis— en ce sens, il est puissant. Voici certainement une opportunité pour les petits et grands médias de parvenir à conserver une bonne réputation face à l’avalanche qui s’annonce.

C’est vrai que la désinformation a toujours existé et que la technologie a toujours été utilisée à cette fin, mais ce que l’intelligence artificielle soulève dans ce cas amène ce scénario à une autre dimension. Il sera intéressant de voir comment nous gérons cela.

Solution : les images réelles sont 1,3, 6, 7, 10, 12, 14, 15, 18 et 19.