Idealista se remplit d'images de maisons à vendre réalisées avec l'IA. Et il devient de plus en plus difficile de les identifier.
Le contenu généré par l’IA a tout inondé et il devient de plus en plus difficile de le distinguer. Le soi-disant AI Slop est partout ; sur les réseaux sociaux, sur Spotify, sur Wikipédia… même dans des niches aussi pointues que les patrons de crochet. Cette avalanche nous a amené à nous méfier de presque toutes les images que nous voyons en ligne, même si vous recherchez une maison, simplement parce que : Idealista est également remplie d'IA.
Poisson-chat domestique. Nous utilisons généralement ce terme lorsqu'une personne sur Internet se fait passer pour une autre personne et ment sur son apparence. C’est ce qui se passe sur certaines plateformes de ventes et de locations immobilières. Wired a déjà montré quelques cas d'images modifiées avec l'IA, mais ce n'est pas une tendance exclusive aux États-Unis, sur des plateformes comme Idealista et Fotocasa, de nombreuses publicités apparaissent également avec des images modifiées avec des outils d'IA.
« Pour que vous puissiez voir à quoi cela ressemblerait. » C’est l’excuse qu’utilisent de nombreux propriétaires et agences immobilières. Ce qu'ils font, c'est améliorer les photos à l'aide d'outils d'intelligence artificielle afin que la propriété paraisse plus récente qu'elle ne l'est réellement ou qu'elle aurait l'air rénovée. Dans l'annonce rapportée par cet utilisateur dans Dans les réponses au même message, un autre utilisateur montre cette autre annonce dans laquelle il a utilisé l'IA pour mettre de l'herbe dans le jardin de la maison, avec d'ailleurs un résultat assez mauvais.


Ce que vous demandez par rapport à ce que vous obtenez. Cliquez sur l'image pour ouvrir la publication sous X.
Des publicités plus accrocheuses. Dans la description des publicités signalées par les utilisateurs, ils préviennent que l'IA a été utilisée pour retoucher certaines images, mais ce qu'ils font habituellement, c'est mettre les images avec l'IA en premier pour attirer l'attention des personnes intéressées. Une fois à l’intérieur de l’annonce, vous découvrez la réalité : la maison s’effondre. Si cela est précisé dans la description et qu'ensuite ils mettent les vraies photos, ce n'est pas techniquement une arnaque, mais c'est une stratégie plutôt louche qui ajoute une autre couche de difficulté à la tâche déjà difficile de trouver une maison à acheter ou à louer.
Indétectable. Les premiers générateurs d'images n'étaient pas utiles pour faire des modifications car les images étaient à la base inventées, mais l'arrivée de Nano Banana a été un tournant puisqu'il permet d'effectuer des modifications tout en étant cohérent avec la photo originale. En septembre, des images sont apparues dans Idealista avec le filigrane Gemini. On ne peut pas savoir ce qu'ils ont retiré ou ajouté, mais cela pourrait être utilisé pour enlever de l'humidité ou certains défauts sans qu'il soit évident qu'ils ont utilisé de l'IA. Dans ce cas précis, ils ont laissé le filigrane, mais nombreux sont ceux qui ne savent pas ce que cela signifie, sans compter que le supprimer est très simple. Il peut y avoir beaucoup plus d’images modifiées par l’IA qui sont indétectables.
Idealista en fait la promotion. En 2023, la plateforme a publié un article expliquant comment tirer parti des outils d'IA pour corriger les images publicitaires. Ils ont montré des exemples tels que l'organisation de pièces, le remplissage de piscines ou l'ameublement de pièces vides. Ils ont également lancé le « texte intelligent » pour générer des descriptions de propriétés, une fonction similaire à celles trouvées sur d'autres plateformes telles que Wallapop. Ils ont récemment publié un autre article dans lequel ils mettaient en garde contre les escroqueries sur leur plateforme utilisant la génération de fausses images avec l'IA ; une confirmation qu’il s’agit d’une pratique assez répandue et pas toujours transparente.
Images | Pexels, édités avec Nano Banana Pro
À Simseo | Alibaba dispose d'une nouvelle IA Open Source pour générer des vidéos. Le problème est qu’il est utilisé pour générer des deepfakes pornographiques
