ChatGPT bouscule les plans bruxellois de régulation

ChatGPT bouscule les plans bruxellois de régulation

ChatGPT est apparu en novembre et a immédiatement généré un buzz en écrivant des textes comprenant des poèmes.

Comment protéger les personnes utilisant les nouvelles technologies alors qu’elles peuvent radicalement changer d’un jour à l’autre ?

C’est l’énigme à laquelle l’UE est confrontée alors qu’elle se précipite pour réglementer l’intelligence artificielle.

L’IA est largement utilisée, mais le robot conversationnel ChatGPT a transformé la façon dont les gens perçoivent la technologie et la façon dont les régulateurs doivent la surveiller pour se protéger contre les risques.

Créé par la startup américaine OpenAI, ChatGPT est apparu en novembre et a rapidement été saisi par les utilisateurs étonnés de sa capacité à répondre clairement aux questions difficiles, à écrire des sonnets ou du code et à fournir des informations sur les problèmes chargés.

ChatGPT a même réussi les examens médicaux et juridiques fixés pour les étudiants humains, obtenant des notes élevées.

Mais la technologie comporte également de nombreux risques car son système d’apprentissage et des modèles concurrents similaires sont intégrés dans des applications commerciales.

L’Union européenne était déjà profondément engagée dans le processus de création d’un cadre réglementaire en ligne et doit maintenant retourner à la planche à dessin pour déterminer comment réglementer efficacement l’IA.

La Commission européenne, l’exécutif de l’UE, a annoncé pour la première fois en avril 2021 un plan pour un règlement sur l’IA, et le Parlement européen espère finaliser ce mois-ci son texte de loi préféré sur l’IA.

Le commissaire européen à l’industrie, Thierry Breton, a déclaré que les députés, la commission et les États membres travaillaient ensemble pour « clarifier davantage les règles » sur la technologie de type ChatGPT – connue sous le nom d’IA à usage général – qui ont une vaste gamme de fonctions.

Opportunités vs risques

Les utilisateurs de médias sociaux se sont amusés à expérimenter la sortie ChatGPT, mais ce n’est pas un jeu. Les enseignants craignent que les élèves l’utilisent pour tricher, et les décideurs politiques craignent qu’il ne soit utilisé pour diffuser de fausses informations.

« Comme le montre ChatGPT, les solutions d’IA peuvent offrir de grandes opportunités aux entreprises et aux citoyens, mais peuvent également présenter des risques », a déclaré Breton.

« C’est pourquoi nous avons besoin d’un cadre réglementaire solide pour garantir une IA fiable basée sur des données de haute qualité. »

Il est prévu que la Commission européenne, le Conseil européen, qui représente les 27 États membres, et le parlement discutent d’une version finale de la loi sur l’IA à partir d’avril.

Dragos Tudorache, l’eurodéputé chargé de faire adopter la loi sur l’IA au Parlement, a déclaré que ChatGPT était l’un des exemples les plus connus et les plus connus d’IA à usage général et de divers dérivés.

Utilisant ce que l’on appelle un « grand modèle de langage », ChatGPT est un exemple d’IA générative qui, fonctionnant de manière non guidée, peut créer des tonnes de contenu original, y compris des images et du texte, en explorant des données passées.

« Nous proposerons en effet un ensemble de règles pour régir l’IA à usage général, et les modèles fondamentaux en particulier », a déclaré Tudorache, un eurodéputé roumain.

La semaine dernière, Tudorache et l’eurodéputé italien Brando Benifei ont présenté à leurs collègues législateurs un plan visant à imposer davantage d’obligations à l’IA à usage général, un texte qui ne figurait pas dans la proposition initiale de la commission.

Certains experts se plaignent que les risques de tels systèmes comme ChatGPT étaient toujours clairs et les avertissements ont été partagés avec les responsables de l’UE au début des travaux sur la loi sur l’IA.

« Notre recommandation à l’époque était que nous devrions également réglementer les systèmes d’IA qui ont une gamme d’utilisations », a déclaré Kris Shrishak, chercheur en technologie au Conseil irlandais pour les libertés civiles.

Mais il a ajouté qu’il était tout aussi important d’identifier les risques liés aux systèmes d’IA générative une fois qu’ils sont déployés.

‘Bonne base’

Shrishak a déclaré que l’efficacité de la loi dépendrait du projet final mais qu’elle « constitue une bonne base. Elle dispose de certains mécanismes pour identifier de nouveaux risques ».

Une question plus urgente serait l’application, a-t-il averti, ajoutant que le parlement s’efforçait de renforcer cet aspect.

« Le règlement n’est qu’un morceau de papier s’il n’est pas appliqué », a déclaré Shrishak à l’AFP.

Le PDG d’OpenAI, Sam Altman, a suggéré que les « grands gouvernements mondiaux » et les « institutions internationales de confiance » se réunissent et produisent un ensemble de règles qui disent explicitement ce que le système doit et ne doit pas faire.

Interrogé par un journaliste de l’AFP pour dire comment il allait s’autoréguler, le moteur ChatGPT a déclaré qu’il accueillerait favorablement « une régulation responsable et éthique ».

Et il a appelé à une loi qui « reconnaît les avantages potentiels de l’IA tout en abordant les risques et les défis potentiels ».