L’Allemagne, l’Italie et la France se sont mises d’accord (seules et sans l’Espagne) sur la manière dont l’IA sera réglementée en Europe
L’Allemagne, la France et l’Italie ont pris les rênes de la régulation de l’intelligence artificielle (IA) en Europe peu après l’accord trouvé par le G7 le 30 octobre. Le gouvernement américain défend le développement d’une réglementation permissive qui ne mets pas d’obstacles au développement de cette technologie de rupture, alors que la France et l’Allemagne partagent une vision beaucoup plus stricte qui cherche à réguler l’IA par un contrôle strict.
Enfin, l’option qui a obtenu le soutien de la majorité n’est ni celle des États-Unis ni celle de l’Europe ; C’était celui du Japon. Sa proposition est à mi-chemin entre la permissivité américaine et la rigueur européenne, même si son laxisme n’entre pas en conflit avec la nécessité de protéger les droits d’auteur ou d’éviter la divulgation des données personnelles. C’est précisément sa plus grande force et la raison pour laquelle cette troisième voie a finalement réussi à s’imposer.
Cependant, il reste encore beaucoup de travail à faire. Et l’accord conclu par le G7 il y a à peine trois semaines propose un code de conduite qui devrait vraisemblablement être respecté par les entreprises travaillant dans le domaine de l’IA. Bien entendu, son entrée en vigueur nécessite de parcourir un itinéraire dans lequel de nombreuses organisations internationales sont impliquées, comme l’OCDE (Organisation de coopération et de développement économiques) ou l’Alliance mondiale sur l’intelligence artificielle.
L’Europe reste ferme et continue de travailler sur une loi stricte
Le code de conduite proposé par l’accord conclu par le G7 est volontaire, il ne conduira donc pas à l’approbation d’une ou plusieurs lois. Cependant, la réglementation sur laquelle travaille l’Union européenne depuis mai 2022 donnera forme à une loi. Sa stratégie préconise de classer les systèmes d’IA en trois niveaux avec des fonctionnalités différentes qui seront réglementées par des restrictions différentes en fonction des capacités de chacun d’eux.
L’Allemagne, la France et l’Italie défendent la nécessité de réglementer l’application de l’intelligence artificielle et non la technologie elle-même
C’est dans ce contexte que l’Allemagne, la France et l’Italie ont défini le cadre dans lequel sera élaborée la future réglementation européenne dans le but qu’elle soit prête et entre en vigueur dans les plus brefs délais. Cependant, la proposition de ces trois pays il faudra débattre bientôt à la Commission européenne, au Parlement européen et au Conseil de l’Europe pour donner la parole aux autres nations représentées dans ces institutions.
Le document préparé par les trois pays que j’ai mentionnés dans le paragraphe précédent défend la nécessité de réglementer l’application de l’intelligence artificielle et non la technologie elle-même. « Les risques inhérents à l’IA résident dans l’usage que nous allons faire des systèmes d’intelligence artificielle et non dans la technologie elle-même », lit-on dans la proposition de l’Allemagne, de la France et de l’Italie. En outre, il précise que « les modèles doivent inclure des informations pertinentes permettant de comprendre leur fonctionnement, leurs capacités et leurs limites, et doivent être soutenus par les meilleures pratiques de la communauté des développeurs ».
Quoi qu’il en soit, ce document initialement ne préconise pas l’imposition de sanctions. Ce qu’il propose, c’est que si des violations du code de conduite surviennent après un certain temps, les régulateurs mettent en place un système de sanctions adapté à l’ampleur des violations. Nous verrons comment les autres pays de l’Union européenne accueilleront le document signé par l’Allemagne, la France et l’Italie et si au final le mouvement Open Source est celui qui souffre le plus d’une réglementation moins laxiste que celle des États-Unis ou de la Chine, comme le disent certains experts. défendre.