Le moteur de recherche de Google ne faisait pas de différence entre les images normales et les images générées par l'IA. Jusqu'à maintenant

Le moteur de recherche de Google ne faisait pas de différence entre les images normales et les images générées par l'IA. Jusqu'à maintenant

Trouver des images sur Google est très simple, mais les résultats soulèvent deux problèmes. La première est qu’il est souvent difficile de connaître leur origine et si elles sont protégées par le droit d’auteur. La seconde, encore plus pressante et inquiétante, est de savoir si ces images ne sont pas réelles, mais ont été générées par l’IA. Et c’est là que l’entreprise commence à proposer des solutions.

Plus de transparence. Google a annoncé mardi que son moteur de recherche commençait à être plus transparent lorsqu'il s'agit de déterminer si une image a été générée avec l'intelligence artificielle ou non. C'est une démarche qui fait partie de sa collaboration avec la Coalition for Content Provenance and Authenticity (C2PA).

Des étiquettes pour tout clarifier. La solution de Google est assez évidente : ils ajoutent des balises aux images dont Google a détecté qu'elles ont été générées ou modifiées à l'aide de modèles d'intelligence artificielle. Le déploiement de ces labels prendra un certain temps, mais nous commencerons à le constater dans les prochains mois.

Où verrons-nous ces étiquettes ?. La mesure finira par être affichée dans l'option « À propos de cette image » et sera appliquée au moteur de recherche, à Google Lens et à l'option « Cercle pour rechercher » sur Android. Chez Google, ils intègrent ce type d'informations dans leur plateforme publicitaire et envisagent de les ajouter même aux vidéos YouTube, ce qu'ils confirmeront avant la fin de l'année.

Mais ils ne dépendent pas d'eux-mêmes. Pour identifier ces images, Google utilisera les métadonnées que les membres du C2PA ont commencé à intégrer dans les images générées par l'IA. Des entreprises comme Amazon, Microsoft, OpenAI ou Adobe font partie de cette coalition, et certains développements importants comme Flux – une alternative populaire à Midjourney – commencent également à intégrer ces informations. Il faudra néanmoins attendre un certain temps avant que ces métadonnées soient largement adoptées… voire jamais.

Au moins c'est un début. La mesure aura donc une portée limitée au moins à court terme, mais c’est un bon premier pas compte tenu de l’avalanche d’images générées par l’IA qui inondent Internet. Ce type d'étiquetage peut être utile pour atténuer partiellement le danger posé par les deepfakes, et ce sera certainement un moyen utile de pouvoir croire ce que nous voyons… ou non.

À Simseo | Êtes-vous capable de distinguer une image réelle d’une image générée par l’IA ? Ici vous avez 20 photos pour le prouver