Une fausse image d’une explosion au Pentagone devient brièvement virale
Une fausse image d’une explosion au Pentagone est brièvement devenue virale et a provoqué une baisse de dix minutes sur les marchés lundi, alimentant de nouvelles discussions sur le fait que l’IA générative pourrait causer des problèmes à la société.
L’image, que de nombreux observateurs soupçonnaient de provenir de l’intelligence artificielle, a été diffusée par plusieurs comptes, obligeant le Pentagone à commenter qu’il n’y avait pas eu une telle explosion.
« Nous pouvons confirmer qu’il s’agissait d’un faux rapport et que le Pentagone n’a pas été attaqué aujourd’hui », a déclaré un porte-parole.
Le service d’incendie d’Arlington, en Virginie, a également réagi en publiant sur les réseaux sociaux qu’il n’y avait pas eu d’explosion ou d’incident au Pentagone ou à proximité.
L’incident fait suite à d’autres occurrences de fausses images qui ont également créé un buzz récemment sur Internet, notamment l’arrestation de l’ancien président américain Donald Trump et le pape François dans une doudoune.
Le premier tweet trouvé par l’AFP partageant l’image du Pentagone provenait d’un compte faisant la promotion de QAnon qui avait déjà partagé de la désinformation, bien que la source originale de l’image ne soit pas connue.
Les technologies émergentes d’IA générative permettent aux non-spécialistes de créer plus facilement des images convaincantes en quelques instants, au lieu d’avoir besoin de l’expertise pour utiliser des programmes tels que Photoshop.
L’image partagée a fait trembler les marchés pendant quelques minutes, le S&P 500 trébuchant de 0,29% par rapport à sa clôture de vendredi avant de se redresser.
« Il y a eu une baisse probablement liée à ces fausses nouvelles lorsque les machines (commerciales) l’ont captée, mais je dirais que l’ampleur de la baisse ne correspondait pas à la nature apparemment mauvaise des fausses nouvelles », a déclaré Pat O’Hare. de Briefing.com.