Les titans de la technologie promettent des filigranes pour exposer les créations de l’IA
La Maison Blanche a déclaré vendredi qu’OpenAI et d’autres acteurs de la course à l’intelligence artificielle se sont engagés à rendre leur technologie plus sûre avec des fonctionnalités telles que des filigranes sur des images fabriquées.
« Ces engagements, que les entreprises ont choisi de prendre immédiatement, soulignent trois principes qui doivent être fondamentaux pour l’avenir de l’IA – sûreté, sécurité et confiance – et marquent une étape cruciale vers le développement d’une IA responsable », a déclaré la Maison Blanche dans un communiqué.
Des représentants d’Amazon, d’Anthropic, de Google, d’Inflection, de Meta, de Microsoft et d’OpenAI devaient rejoindre le président américain Joe Biden plus tard vendredi pour annoncer les engagements, qui incluent le développement de « mécanismes techniques robustes » tels que des systèmes de filigrane pour s’assurer que les utilisateurs savent quand le contenu est généré par l’IA, selon un responsable de la Maison Blanche.
L’inquiétude que les images ou le son créés par l’intelligence artificielle soient utilisés à des fins de fraude et de désinformation s’est intensifiée à mesure que la technologie s’améliore et que l’élection présidentielle américaine de 2024 se rapproche.
Des moyens de savoir quand du son ou des images ont été générés artificiellement sont recherchés pour empêcher les gens d’être dupés par des contrefaçons qui semblent ou semblent réelles.
« Ils s’engagent à mettre en place un régime plus large pour permettre aux consommateurs de savoir plus facilement si le contenu est généré par l’IA ou non », a déclaré le responsable de la Maison Blanche.
« Il y a un travail technique à faire, mais le point ici est qu’il s’applique au contenu audio et visuel, et il fera partie d’un système plus large. »
L’objectif est qu’il soit facile pour les gens de savoir quand le contenu en ligne est créé par l’IA, a ajouté le responsable.
Les engagements des entreprises incluent des tests indépendants des systèmes d’IA pour les risques en matière de biosécurité, de cybersécurité ou d' »effets sociétaux », selon la Maison Blanche.
Common Sense Media a félicité la Maison Blanche pour son « engagement à établir des politiques essentielles pour réglementer la technologie de l’IA », selon le directeur général de l’organisation d’examen et de notation, James Steyer.
« Cela dit, l’histoire indiquerait que de nombreuses entreprises technologiques ne marchent pas réellement sur un engagement volontaire d’agir de manière responsable et de soutenir des réglementations strictes. »
Biden travaille également sur un décret visant à garantir que l’IA est sûre et digne de confiance, selon le responsable de la Maison Blanche.
Les filigranes pour le contenu généré par l’IA figuraient parmi les sujets abordés par le commissaire européen Thierry Breton avec le directeur général d’OpenAI, Sam Altman, lors d’une visite à San Francisco en juin.
« J’ai hâte de poursuivre nos discussions, notamment sur le filigrane », a écrit Breton dans un tweet qui comprenait un extrait vidéo de lui et Altman.
Dans le clip vidéo, Altman a déclaré qu’il « adorerait montrer » ce que fait OpenAI avec les filigranes « très bientôt ».
La Maison Blanche a déclaré qu’elle travaillerait également avec des alliés pour établir un cadre international régissant le développement et l’utilisation de l’IA.