Openi Boccia italien DDL sur l’IA: « Donc, les investissements à risque »
Lors d’une audience conjointe devant la Commission IX (transport) et la Commission X (activités productives) de la Chambre des députés, Openai – Le principal acteur mondial dans le domaine de l’intelligence artificielle générative et créateur de Chatgpt – a exprimé une critique articulée du projet de loi n. 2316, intitulé « Dispositions et délégations du gouvernement sur l’intelligence artificielle ». Le texte, déjà approuvé au Sénatest maintenant à l’examen de la chambre, mais les observations de la société américaine pourraient affecter le processus parlementaire.
DDL AI: défaut de s’aligner sur ACT, RGPD et NIS2
Selon OpenAI, la disposition italienne manque d’harmonisation avec les actes européens et d’autres réglementations communautaires fondamentales, telles que le RGPD sur la protection des données personnelles – en particulier les soins de santé – et la directive NIS2 sur la sécurité informatique.
« Nous pensons qu’il est essentiel que l’Italie contribue à cette harmonisation en assurant l’alignement de la législation nationale sur la législation européenne, tout en évitant l’introduction d’exigences divergentes qui entraveraient l’innovation et créeraient une incertitude légale pour les développeurs italiens et les utilisateurs d’unI », lit la note de l’entreprise.
Un frein sur l’adoption de l’IA et un obstacle aux investissements
Openai craint que la formulation actuelle du projet de loi puisse compromettre l’intégrité du marché unique européen. «Les risques de chevauchement et de conflits réglementaires ralentiraient l’adoption de l’IA en Italie et décourageraient les investissements au profit de juridictions plus cohérentes et prévisibles au sein de l’Union« , Dit l’entreprise.
Toute fragmentation réglementaire, en raison de l’introduction d’obligations non coordonnées avec le cadre européen, « Cela causerait également des dommages économiques évidents à notre pays en décourageant les investissements étrangers ». Un avertissement, celui d’Openai, qui ressemble à une alarme pour le législateur italien.

Huit articles du DDL à la sous-accusation: OpenII propose des changements substantiels
Il y a huit articles du projet de loi qu’Openai a identifié comme particulièrement problématique: 3, 6, 7, 8, 9, 13, 16 et 24, avec L’accent mis sur les articles 6, 8 et 16. « Bien que le projet de loi que je prétends être interprété «conformément aux actes de l’IA, différentes dispositions divergent néanmoins du texte européen et d’autres réglementations, compromettant potentiellement ces objectifs« , Lit le document transmis à la chambre.
Article 3 – Cybersécurité: obligations trop étendues
OpenII critique l’extension des obligations de cybersicacy à tous les systèmes d’IA, quel que soit le risque. « Le projet de loi nécessite des obligations de cyberssiculia pour tous les systèmes IA et les modèles GPAI … Cela va au-delà de la portée de la loi sur la loi de l’UE« .
Proposition: Limitez ces obligations uniquement aux systèmes à haut risque et aux modèles GPAI avec des risques systémiques, pour éviter les charges disproportionnées.
Article 6 – Emplacement des serveurs: une contrainte incompatible avec le RGPD
L’obligation de localiser les serveurs pour l’IA de l’AP en Italie contraste avec le principe de libre circulation des données sanctionnées par le RGPD. « La promotion de l’utilisation de l’IA dans les secteurs public et industriel fait l’objet de discussions au niveau européen …« .
Proposition: Supprimez l’article ou limitez-le aux cas liés à la sécurité nationale.
Article 7 – AI dans le secteur de la santé: Obligations vagues et pénalisantes
L’article exige que tous les systèmes d’IA dans le secteur de la santé soient « Fiable, périodiquement vérifié et mis à jour »sans distinguer le niveau de risque.
Proposition: Appliquer ces obligations uniquement aux systèmes à risque élevé, comme l’exige la loi, afin de ne pas freiner l’innovation dans le secteur.
Article 8 – Données sur les soins de santé et intérêt public: protection insuffisante
OpenAI conteste la qualification automatique de la recherche en santé telle que « Raison de l’intérêt public important », Craignant une réduction des garanties pour les données personnelles.
Proposition: Aligner dans l’art. 9 (2) j) du RGPD, demandant une évaluation d’impact et, si nécessaire, l’approbation d’un comité d’éthique indépendant.
Article 9 – Contrôle ministériel sur les données: risque de conflit avec la loi
Le transfert au ministère de la Santé des pouvoirs réglementaires sur le traitement des données par le biais de l’IA pourrait entrer en conflit avec les règles européennes sur le bac à sable réglementaire.
Proposition: Maintenir la cohérence avec le chapitre V et considérer 72 de la loi.
Article 13 – Professions intellectuelles: pénalité pour les pigistes
OpenI conteste les restrictions imposées à l’utilisation de l’IA dans des professions libres même en l’absence de risque élevé, en plus de l’introduction d’obligations de transparence non prévues par la loi.
Proposition: Reformuler l’article pour s’aligner rigoureusement sur la législation européenne.
ARTICLE 16 – Décrestations exécutives sans limites: incertitude réglementaire
La règle délègue le gouvernement à introduire de nouvelles obligations après l’entrée en vigueur de la loi, sans contraintes strictes.
Proposition: Insérez une clause de sauvegarde pour éviter les conflits avec les actes et fournir des consultations publiques et une vérification de la conformité avec l’Office européen de l’IA.
Article 24 – Responsabilité et suppression: désalignement des risques
Le risque selon OpenAI est que les nouvelles dispositions sur l’utilisation illégale, le retrait et la responsabilité divergent des normes harmonisées européennes.
Proposition: Présentez une clause qui constitue chaque nouveau décret à la cohérence avec la loi et nécessite une consultation avec le bureau européen.
Conclusion: une invitation à l’alignement européen
Les observations d’Openai représentent un appel clair à la politique italienne: aligner la législation nationale sur la loi et d’autres dispositions européennes pour éviter un effet boomerang sur le développement technologique, les investissements et la compétitivité. Le message est clair: « Seul un cadre réglementaire harmonisé peut garantir une certitude juridique, encourager l’innovation et protéger adéquatement les citoyens« .
