Si la question est « comment allons-nous reconnaître les images générées par l’IA », OpenAI a déjà son filigrane prêt
Le récent scandale concernant les images pornographiques de Taylor Swift générées avec des modèles d’IA générative a une fois de plus souligné la nécessité d’étiqueter ces images d’une manière ou d’une autre afin que nous puissions savoir qu’elles ne sont pas réelles. Il y a plusieurs efforts sur le marché, mais nous avons maintenant un pas en avant frappant.
OpenAI. La société a annoncé avoir commencé à créer des filigranes sur les images générées avec sa plateforme DALL-E 3. En effet, ces marques seront intégrées dans les images générées via le site ChatGPT et via l’API ChatGPT. l’application mobile disposera de cette option à partir du 12 février.
Vous les verrez et vous ne les verrez pas. Les filigranes inclus dans les images générées avec DALL-E 3 auront deux composants. Un visible, avec un symbole CR visible (de « content CRedentials ») qui apparaîtra dans le coin supérieur gauche de l’image, ainsi qu’un composant invisible faisant partie des métadonnées de l’image.
Vérification simple. Grâce à cet effort, tout utilisateur pourra consulter l’origine des images générées avec les plateformes OpenAI. Pour y parvenir, il suffira d’utiliser des sites Web tels que Content Credentials Verify, même si pour le moment, vous ne pouvez ajouter et vérifier que ce filigrane sur les images. Les vidéos et les textes ne disposent pas actuellement d’un mécanisme de ce type.

Le symbole CR sera le signe que nous pourrons connaître l’origine de cette image générée avec les modèles d’IA.
Une marque « légère ». Chez OpenAI, ils expliquent que ces métadonnées ont peu d’impact sur la latence, ce qui évitera que l’utilisation de cette technologie ralentisse ou détériore la qualité de ces images, qui ne seront pas non plus modifiées. Dans certaines tâches, la taille des images sera simplement légèrement plus grande.
Le CP2A à la rescousse. Le système utilisé trouve son origine dans le consortium C2PA dont sont membres des entreprises comme Adobe et Microsoft et qui promeut depuis longtemps ce mécanisme d’identification des images générées par l’IA. Adobe a déjà créé cette nouvelle icône « cr » sur les images et OpenAI est la première des entreprises de référence dans ce domaine à l’utiliser. Meta, par exemple, commence également à étiqueter les images générées par l’IA sur ses plateformes.
Ce n’est pas un mécanisme parfait. Bien que l’idée soit intéressante, les responsables d’OpenIA eux-mêmes indiquent que les métadonnées « peuvent être facilement supprimées, à la fois par inadvertance et intentionnellement ». De nombreuses plateformes de médias sociaux éliminent les métadonnées du contenu qu’elles ajoutent, et prendre une capture d’écran de n’importe quelle image sur les réseaux sociaux les élimine également. Pourtant, c’est un bon début pour résoudre l’un des gros problèmes du secteur, notamment lorsqu’il s’agit de limiter la portée des deepfakes.
À Simseo | Nous avons un énorme problème avec les images générées par l’IA. Google pense avoir la solution