même l’open source n’est pas épargné
On connaît déjà le texte du nouveau règlement européen sur l’intelligence artificielle. Une loi sur l’IA qui affirme que tous les développements de l’IA sont conformes à une série de règles. Cependant, outre les grands éditeurs de logiciels, cette réglementation touchera également un groupe beaucoup plus spécifique : les développeurs open source.
Aucune exception pour l’open source. Les développeurs devront enregistrer leurs modèles qui entrent dans la catégorie à haut risque. Et la loi ne prévoit pas d’exception pour les modèles open source qui sont inclus dans les distributeurs. Ce dernier aura la responsabilité légale.
L’exemple le plus direct est Github. Ils (et Microsoft) seront légalement responsables des développements possibles sur l’IA de leurs utilisateurs. Et en cas de non-respect des nouvelles réglementations dans ces développements, l’Union européenne pourrait leur infliger des sanctions d’un million de dollars.
Un missile contre le mouvement. C’est ainsi qu’Andrés Miguel Torrubia le décrit, co-fondateur de l’Institut d’Intelligence Artificielle. Dans opinion d’expertla nouvelle régulation de l’IA en Europe « favorise les grands » et est un « missile aux mouvements open source ».
Torrubia considère le règlement comme un plan « dissuasif », car même si ces modèles sont distribués au grand jour, cela ne les dispense pas de passer par le processus de certification coûteux et de s’exposer à d’éventuelles amendes d’un million de dollars s’ils ne respectent pas les règlements.
En IA, avoir une culture de l’innovation est plus que jamais d’actualité. Le débat n’est pas nouveau. Dans la spirale réglementaire, il y a ceux qui défendent l’établissement de règles strictes pour tous et il y a ceux qui avertissent que l’établissement de trop de règles peut limiter la liberté de création et l’innovation.
Dans un secteur comme l’intelligence artificielle, où les innovations émergent chaque jour à une vitesse étonnante, maintenir un écosystème pro-innovation semble essentiel pour ne pas se laisser distancer. C’est ce que croit Torrubia, qui définit que « nous avons une réglementation qui essaie d’anticiper quelque chose que même ceux d’entre nous qui sont impliqués ne peuvent anticiper ».
Développements bloqués depuis l’Europe (préventivement). On l’a déjà vu avec Google Bard, qui est disponible dans 180 pays mais aucun n’est européen. Suite au texte du nouveau règlement et à sa position sur les développements open source, il se pourrait que Microsoft décide de laisser certains projets libres en Europe sur Github sans accès.
Face au risque que ces développements ne soient pas conformes à la réglementation, ils les bloquent directement pour éviter les problèmes.
La stratégie européenne : rendre BigTech responsable du travail des autres. Il n’est pas difficile d’anticiper l’importance qu’a dû avoir le fait que Github appartienne à Microsoft. À cette occasion, nous avons quelque chose de similaire à ce qui se passe avec les réseaux sociaux, où les grandes entreprises technologiques sont responsables de ce qui est publié.
De manière équivalente à la façon dont cette décision peut se terminer par une censure par Twitter, YouTube, Facebook ou qui que ce soit, avec la réglementation de l’IA, elle peut se terminer par une dérive anti-innovation, où en cas de doute, il est directement décidé de bloquer cette ouverture projet source.
C’est un niveau d’exigence qui a pour bonne part que ce qui arrive est adéquat, mais qui peut finir par bloquer les « justes pour les pécheurs ». L’Europe semble décidée à ce que l’IA n’avance pas si vite. Même si cela signifie manquer d’accès aux dernières nouveautés.