Fuite du projet de règlement européen sur l'IA : premières impressions de trois experts du domaine

pas de reconnaissance faciale et plus de transparence pour ChatGPT

La loi sur l’intelligence artificielle est un ensemble de mesures visant à réglementer le développement et l’utilisation des systèmes d’intelligence artificielle en Europe. Le texte a été adopté à une large majorité dans cette instance, ce qui ouvre la voie à son approbation définitive et à son application dans les mois à venir.

L’AI Act, sur le point de naître définitivement. Comme indiqué au Parlement européen, la loi sur l’intelligence artificielle est postulée comme le premier ensemble de lois dédiées à la réglementation de l’intelligence artificielle. Aujourd’hui, la commission du marché intérieur et la commission des libertés civiles ont approuvé le texte avec 84 voix pour, 7 contre et 12 abstentions. Les membres du Parlement européen (MPE) ont également approuvé d’importants amendements à la proposition de la Commission européenne, créée en 2021.

Reconnaissance faciale interdite. Parmi les modifications et changements figurent les interdictions qui affectent cette technologie. L’une des plus décisives est l’interdiction de la catégorisation biométrique et de la collecte et du suivi d’images de visages – par exemple, avec des caméras de sécurité – pour créer des bases de données pour la reconnaissance faciale. En effet, les systèmes d’information biométriques, initialement autorisés dans des situations particulières telles que les enlèvements ou les attentats terroristes, ont fini par être totalement interdits (sauf dans la poursuite des délits graves et uniquement sur autorisation judiciaire).

Score social, rien. L’utilisation de logiciels de reconnaissance des émotions entre les agences de sécurité, les contrôles aux frontières, les lieux de travail et les établissements d’enseignement est également interdite. Le Parlement européen met également son veto à l’utilisation des systèmes de notation sociale, c’est-à-dire ceux qui classent les personnes en fonction de leur comportement social, de leur statut socio-économique ou de leurs caractéristiques personnelles.

Santé et politique, sous surveillance. Les MPE ont encore élargi la définition des zones à haut risque lors de l’utilisation des systèmes d’IA. Parmi eux, le domaine de la santé se démarque, mais aussi ceux utilisés pour « influencer les électeurs dans les campagnes politiques » ou ceux utilisés sur les réseaux sociaux (avec plus de 45 millions d’utilisateurs) pour recommander des contenus.

ChatGPT doit être plus transparent. Parmi les mesures les plus innovantes figure l’obligation pour les modèles génératifs tels que ChatGPT de se conformer à des exigences de transparence supplémentaires, telles que révéler que le contenu a été généré par l’intelligence artificielle. Ces modèles devraient être conçus pour éviter de générer des contenus illégaux et de ne pas publier de résumés de données protégées par le droit d’auteur utilisées pour la formation. Ou ce qui revient au même : pas de plagiat, même si c’est sous forme de résumé.

Les prochaines étapes. Avant que le texte final de la loi ne commence sa négociation au Conseil européen, le projet devra être soutenu par l’ensemble du Parlement. Ce vote devrait avoir lieu lors des séances qui se tiendront entre le 12 et le 15 juin.

L’UE tente de définir ce qu’est l’IA. Du Parlement européen, ils étaient conscients de l’importance de définir clairement ce qu’est l’intelligence artificielle, car c’est finalement ce qui marque la portée de cette législation. Ici, ils ont opté pour une mise à jour plus large que celle définie par l’OCDE, qui a déjà admis qu’elle avait besoin d’une révision. Alors que la définition de l’OCDE explique que l’IA est liée à des « objectifs définis par l’homme », la nouvelle définition européenne de l’IA supprime cette partie et la laisse à « différents niveaux d’autonomie ». C’est ainsi que l’IA est définie : « ‘Système d’intelligence artificielle’ signifie un système basé sur une machine conçue pour fonctionner avec différents niveaux d’autonomie et qui peut, à des fins explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions, qui influencent dans des environnements physiques et virtuels.

Bienvenu, mais un peu dépassé. La loi sur l’IA est sans aucun doute une première étape importante pour réglementer le développement et l’utilisation des systèmes d’intelligence artificielle, mais le texte approuvé à la majorité au Parlement européen a un problème prévisible : il est basé sur la proposition de 2021, et depuis lors, le Le domaine de l’IA a fait des progrès incroyables. Il est vrai que l’utilisation de systèmes tels que ChatGPT est envisagée, par exemple, mais le texte ne mentionne rien sur l’Intelligence Générale Artificielle (AGI) dont l’apparition semble plus proche que jamais et qui impose des risques importants.