OpenAI dévoile un outil pour détecter les images DALL-E
OpenAI, la société d'intelligence artificielle soutenue par Microsoft et à l'origine du populaire générateur d'images DALL-E, a annoncé mardi le lancement d'un nouvel outil visant à détecter si des images numériques ont été créées par l'IA.
L’authentification est devenue une préoccupation majeure dans le développement rapide de l’IA, les autorités s’inquiétant de la prolifération de deep fakes qui pourraient perturber la société.
Selon la société, le classificateur de détection d'images d'OpenAI, actuellement en cours de test, peut évaluer la probabilité qu'une image donnée provienne de l'un des modèles d'IA générative de la société, comme DALL-E 3.
OpenAI a déclaré que lors de tests internes sur une version antérieure, l'outil avait détecté avec précision environ 98 % des images DALL-E 3 tout en signalant de manière incorrecte moins de 0,5 % des images non IA.
Cependant, la société a averti que les images DALL-E 3 modifiées étaient plus difficiles à identifier et que l'outil ne signale actuellement qu'environ cinq à 10 % des images générées par d'autres modèles d'IA.
OpenAI a également déclaré qu'elle ajouterait désormais des filigranes aux métadonnées des images d'IA à mesure que de plus en plus d'entreprises s'inscriraient pour répondre aux normes de la Coalition pour la provenance et l'authenticité du contenu (C2PA).
Le C2PA est une initiative de l'industrie technologique qui établit une norme technique pour déterminer la provenance et l'authenticité du contenu numérique, dans le cadre d'un processus appelé filigrane.
Le géant Facebook Meta a annoncé le mois dernier qu'il commencerait à étiqueter les médias générés par l'IA à partir de mai en utilisant la norme C2PA. Google, un autre géant de l'IA, s'est également joint à l'initiative.