Des chercheurs coréens proposent des normes internationales pour garantir la sécurité et la fiabilité de l'IA
Alors que la technologie de l’intelligence artificielle (IA) envahit rapidement nos vies et nos industries, garantir sa sécurité et sa fiabilité constitue un défi mondial. Dans ce contexte, les chercheurs coréens gagnent du terrain en dirigeant l’élaboration de deux normes internationales clés.
L'Institut de recherche en électronique et télécommunications (ETRI) a proposé à l'Organisation internationale de normalisation (ISO/IEC) la norme « AI Red Team Testing », qui vise à identifier de manière proactive les risques dans les systèmes d'IA, et la norme « Trustworthiness Fact Label (TFL) », qui vise à aider les consommateurs à comprendre facilement le niveau d'authenticité de l'IA, et a commencé son développement à grande échelle.
Grâce à cela, la Corée a élevé son statut de simple « adepte rapide » de la technologie à celui de « premier arrivé », fixant les règles de l’ère de l’IA.
« AI Red Team Testing » est une méthode d'exploration et de test agressive du niveau de sécurité d'un système d'IA. Par exemple, il identifie de manière proactive les situations dans lesquelles l'IA générative peut produire des informations incorrectes ou être exploitée pour contourner les protections des utilisateurs.
ETRI est l'éditeur de la norme ISO/IEC 42119-7, la norme internationale dans ce domaine, créant des procédures et des méthodes de test internationales communes pouvant être appliquées dans un large éventail de domaines, notamment la médecine, la finance et la défense nationale.
Parallèlement, l'ETRI, en collaboration avec le ministère de la Sécurité alimentaire et pharmaceutique, a organisé le premier « Atelier de défi et de technologie de l'équipe rouge sur les produits médicaux numériques avancés en matière d'IA » en Corée, à l'hôtel Novotel Dongdaemun de Séoul, les 4 et 5 septembre.
Ce défi est le premier événement de ce type en Asie et en Corée pour les dispositifs médicaux avancés d'IA, auquel des professionnels de la santé, des experts en sécurité et le grand public participeront pour examiner les préjugés et les risques de l'IA.
L'ETRI développe également une méthodologie d'évaluation de l'équipe rouge spécifique au domaine médical en collaboration avec le centre médical Asan de Séoul, et créera un système de test de l'équipe rouge pour les produits médicaux numériques qui appliquera une technologie avancée d'IA et effectuera des tests empiriques. En outre, il a formé un conseil avec de grandes entreprises telles que STA, NAVER, Upstage, SelectStar, KT et LG AI Research Institute pour renforcer la coopération en matière de normalisation internationale des équipes rouges d'IA.

Une autre norme clé concerne les étiquettes de faits de fiabilité (TFL).
L'étiquette est une visualisation d'un coup d'œil de la fiabilité d'un système d'IA, fournissant des informations transparentes aux consommateurs, un peu comme une étiquette nutritionnelle sur un produit alimentaire.
L'ETRI dirige le développement de la série de normes ISO/IEC 42117, qui peuvent être opérationnalisées de diverses manières, les entreprises fournissant elles-mêmes les informations ou les faisant vérifier et certifier par une organisation tierce.
À l’avenir, ETRI envisage même d’intégrer des facteurs ESG, comme l’empreinte carbone de l’IA.
En conjonction avec la norme du système de gestion de l'IA (ISO/IEC 42001), qui est utilisée comme norme de certification internationale pour les organisations utilisant l'IA, la norme servira de cadre pour démontrer la fiabilité des produits et services développés.
Ces deux normes s’alignent sur les stratégies saute-mouton Sovereign AI et AI G3 du gouvernement. Ceci est évalué comme un exemple qui va au-delà de la simple garantie de prouesses technologiques et apporte une contribution pratique à la compétition pour le leadership dans la création de règles mondiales en matière d’IA.
Tout comme le National Institute of Standards and Technology (NIST) aux États-Unis soutient la normalisation nationale et internationale pour réaliser la stratégie nationale en matière d’IA, l’ETRI envisage de soutenir la réalisation de la stratégie nationale en matière d’IA en développant des technologies de sécurité de l’IA et en dirigeant la normalisation internationale de la sécurité et de la fiabilité de l’IA, y compris les activités de l’AI Safety Research Institute.
Kim Wook, Premier ministre de l'Institut de planification et d'évaluation des technologies de l'information et des communications (IITP), a déclaré : « Assurer la sécurité et la fiabilité de l'IA facilitera l'utilisation de l'IA pour tout le monde, et ouvrir la voie en matière de normes internationales cette fois-ci est un tournant pour devenir un pays leader en matière de normes en matière d'IA. »
Lee Seung Yun, vice-président adjoint de la division Standards & Open Source Research de l'ETRI, a également déclaré : « Les tests de l'équipe rouge de l'IA et les labels de fiabilité sont des éléments techniques clés inclus dans les politiques réglementaires de l'IA aux États-Unis, dans l'UE et dans d'autres pays, et ces normes internationales serviront de critères communs pour évaluer la sécurité et la fiabilité des systèmes d'IA dans le monde.
« L'ETRI continuera à diriger la normalisation internationale dans le domaine de la sécurité et de la fiabilité de l'IA, faisant de la Corée le centre d'excellence non seulement pour l'IA souveraine, mais également pour les technologies de sécurité de l'IA souveraine. »
