La Commission européenne ouvre des candidats au panel scientifique sur l'IA, voici ce qu'il dit
La Commission européenne a commencé la sélection de 60 experts indépendants Pour configurer un panel scientifique en charge de la prise en charge de la mise en œuvre et de l'application duAI actesavec une attention particulière à Modèles et systèmes d'intelligence artificielle pour une utilisation générale (Gpai).
Le groupe fournira des conseils àÀ l'Office européen et les autorités nationales concernant les risques systémiques, la classification des modèles, les méthodes d'évaluation et de surveillance du marché croisé. Aura également la tâche de Signaler les risques émergents. Les membres seront nommés pour un Mandat de deux ansrenouvelable.
La candidature est ouverte aux experts en GPAI, à l'évaluation des modèles, à l'atténuation des risques, à la cybersécurité, aux mesures de calcul et à d'autres secteurs connexes. Un est requis Diplôme de doctorat ou expérience équivalenteainsi que indépendance des fournisseurs de l'IA. L'objectif est d'assurer un équilibre entre le sexe et la représentation entre les pays de l'UE, l'EFT et voir. Les questions ferment le 14 septembre.
Le mandat du panel se concentre sur les modèles et systèmes d'intelligence artificielle à usage général (GPAI). Les candidats doivent avoir des compétences dans le GPAI, dans les impacts de l'IA ou dans des secteurs connexes.
Le bureau de l'IA effectue une année: résultats, nouvelles initiatives et avenir du GPAI
LE'À l'Office européen célèbre son premier anniversaire, après avoir atteint l'altitude Plus de 100 experts Actifs dans des secteurs clés tels que les politiques publiques, la santé, la réglementation et la coopération internationale. Parmi les résultats obtenus comprennent:
- Les lignes directrices sur la définition et l'interdiction des systèmes d'IA,
- la création d'un Référentiel pour l'alphabétisation,
- la collaboration avec leAu conseil d'administration des États membres.
Le panel scientifique qui vient d'être annoncé sera bientôt flanqué d'un Forum consultatif. Pendant ce temps, un Code de conduite Pour GPAI, construit avec la contribution de plus de 1 000 experts, dont l'impact sera évalué d'ici août 2025. Ils sont également en cours Lignes directrices sur les concepts GPAI et un Consultation publique sur les systèmes à risque élevé. Le bureau prépare également un À ACT Service Desk Pour guider les développeurs et les autorités. Parmi les principaux résultats, citons la publication de directives sur la définition des systèmes d'IA et les interdictions, et la création d'un référentiel pour l'alphabétisation à l'IA.
Un appel aux règles GPAI au service de l'innovation européenne
Un groupe hétérogène composé de chercheurs AIreprésentants de la société civile, académique et Nobel comme Daron Acemoglu Et Geoffrey Hinton Il en a envoyé un Lettre au président de la Commission européenne. L'appel invite l'UE à résister à la pression contre les normes GPAI.
Selon les signataires, l'UE peut démontrer que Innovation industrielle Et la protection des droits fondamentaux peut coexister. Le code de conduite, développé en neuf mois avec la contribution des parties prenantes, implique principalement 5 à 15 grandes entreprises et s'aligne sur les pratiques de gestion des risques existantes.
Trois propositions clés:
- Test de la partie du troisième obligatoire pour les modèles de risque systémique;
- Mécanismes d'examen flexibles pour des mises à jour rapides en cas de nouvelles menaces;
- Renforcement du bureau de l'IA avec 100 experts en sécurité Et 200 pour la mise en œuvre.
L'UE peut démontrer sa capacité à fournir des outils favorables pour l'innovation industrielle, sans compromettre la santé, la sécurité et les droits fondamentaux.
États-Unis: chaos réglementaire et poussé vers le domaine mondial sur l'IA
Selon Euciv, Les États-Unis sont confrontés à un panorama réglementaire fragmentéavec presque 700 propositions de droit de l'IA en 2024dont 113 déjà approuvé. Le Colorado et le Texas ont été inspirés par la loi européenne, tandis que la Californie a choisi des approches ciblées sur Deepfake et les répliques numériques.

Meta s'est plainte avec la Maison Blanche A « Environnement réglementaire ingérable »avec des normes contrastées et plus strictes que celles de l'UE. Cependant, cette fragmentation pourrait faciliter l'application de la loi UE vers les entreprises américaines.
Avec le retour de Trump, la stratégie change: Le décret exécutif de Biden a été révoquél'IA devient un levier géopolitique. Big Tech fait maintenant pression pour un règlement fédéral unifié sur l'état
Le Kazakhstan est inspiré par l'UE pour le premier droit de l'IA en Asie centrale
Le Kazakhstan se tourne également vers l'Europe. Le pays développe sa première loi sur l'intelligence artificielle, ouvertement inspirée parAux actes européens. La loi, approuvée à la première lecture en mai, vise à garantir unÀ anthropocentrique et basé sur la confiance.
Deuxième SAIMOVA SHOWLANde l'Institut du parlementisme, l'objectif est être des pionniers régionaux et construire une législation conformément aux priorités nationales. Cependant, une analyse académique a mis en évidence quatre problèmes critiques par rapport au modèle de l'UE:
Le Kazakhstan vise à conduire, sans suivre, renforcer la confiance entre les humains et les systèmes d'IA, tout en protégeant l'intérêt public.
Générative AI et GPAI: la vision de l'Europe
Un récent Rapport du centre de recherche conjoint de la Commission européenne a analysé l'impact deÀ génératif (Genai) sur l'innovation, la productivité et la transformation sociale.
De nombreux systèmes Genai entrent dans la catégorie A « risque limité», Avec des obligations de transparence pour les utilisateurs Et Identification du contenu. Cependant, le Genai peut également faire partie des utilisations élevées ou inacceptables, telles que:
- Chatbots qui usurpent les membres de la famille,
- Systèmes qui cachent le comportement lors des tests.
Étant équipés d'une capacité GPAI, ces systèmes doivent s'adapter aux règles relatives. Le bureau développe un Code de conduite spécifiquebasé sur les meilleures pratiques disponibles.
Les pratiques interdites comprennent des manipulations et des tromperies basées sur l'IA, telles que les chatbots qui se font passer pour les membres de la famille ou les systèmes conçus pour masquer les comportements indésirables pendant l'évaluation.
Puisque de nombreux modèles Genai ont capacité gpaidevra s'adapter aux règles relatives.