OpenAI affirme que des acteurs soutenus par l'État ont utilisé son IA à des fins de désinformation
OpenAI, la société derrière ChatGPT, a déclaré jeudi avoir perturbé cinq opérations d'influence secrètes au cours des trois derniers mois qui cherchaient à utiliser ses modèles d'intelligence artificielle pour des activités trompeuses.
Dans un article de blog, OpenAI a déclaré que les campagnes perturbées provenaient de Russie, de Chine, d'Iran et d'une société privée basée en Israël.
Les auteurs de la menace ont tenté d'exploiter les puissants modèles de langage d'OpenAI pour des tâches telles que la génération de commentaires, d'articles, de profils de réseaux sociaux et le débogage de code pour les robots et les sites Web.
La société dirigée par le PDG Sam Altman a déclaré que ces opérations « ne semblent pas avoir bénéficié d'un engagement ou d'une portée significativement accrus du public grâce à nos services ».
Des entreprises comme OpenAI sont sous surveillance étroite car elles craignent que des applications comme ChatGPT ou le générateur d'images Dall-E puissent générer du contenu trompeur en quelques secondes et en grande quantité.
Cela est particulièrement préoccupant à l’heure où des élections majeures sont sur le point d’avoir lieu dans le monde entier et où des pays comme la Russie, la Chine et l’Iran sont connus pour utiliser des campagnes secrètes sur les réseaux sociaux pour attiser les tensions avant le jour du scrutin.
L'une des opérations perturbées, baptisée « Bad Grammar », était une campagne russe inédite ciblant l'Ukraine, la Moldavie, les pays baltes et les États-Unis.
Il a utilisé des modèles et des outils OpenAI pour créer de courts commentaires politiques en russe et en anglais sur Telegram.
La célèbre opération russe « Doppelganger » a utilisé l'intelligence artificielle d'OpenAI pour générer des commentaires sur des plateformes comme X dans des langues telles que l'anglais, le français, l'allemand, l'italien et le polonais.
OpenAI a également démantelé l'opération d'influence chinoise « Spamouflage » qui abusait de ses modèles pour rechercher des médias sociaux, générer du texte multilingue et déboguer du code pour des sites Web comme Revescum.com, non signalé auparavant.
Un groupe iranien, « l'Union internationale des médias virtuels », a été dissous pour avoir utilisé OpenAI pour créer des articles, des titres et du contenu publiés sur des sites Web liés à l'État iranien.
De plus, OpenAI a perturbé une société commerciale israélienne appelée STOIC, qui semblait utiliser ses modèles pour générer du contenu sur Instagram, Facebook, Twitter et ses sites Web affiliés.
Cette campagne a également été signalée par Meta, propriétaire de Facebook, plus tôt cette semaine.
Les opérations ont été publiées sur des plateformes comme Twitter, Telegram, Facebook et Medium, « mais aucune n'a réussi à engager un public important », a déclaré OpenAI.
Dans son rapport, la société a décrit les tendances qui exploitent l'IA, telles que la génération de volumes élevés de texte/d'images avec moins d'erreurs, le mélange d'IA et de contenu traditionnel et la simulation d'engagement via des réponses d'IA.
OpenAI a déclaré que la collaboration, le partage de renseignements et les garanties intégrées à ses modèles avaient permis ces perturbations.