Un gel de la formation à l’intelligence artificielle n’aidera pas, selon un professeur
Le développement de l’intelligence artificielle (IA) est hors de contrôle, de l’avis d’environ 3 000 signataires d’une lettre ouverte publiée par des chefs d’entreprise et des scientifiques.
Les signataires appellent à un arrêt temporaire de la formation en particulier des systèmes d’IA performants. Le professeur Urs Gasser, expert en gouvernance des technologies numériques, examine les questions importantes dont la lettre détourne l’attention, explique pourquoi une « agence de contrôle technique de l’IA » aurait du sens et examine le chemin parcouru par l’UE par rapport à la États-Unis en matière de réglementation.
Les systèmes d’intelligence artificielle capables de rivaliser avec l’intelligence humaine peuvent entraîner de graves risques pour la société et l’humanité, affirment les auteurs de la lettre ouverte. Par conséquent, poursuivent-ils, pendant au moins six mois, aucun développement supplémentaire ne devrait être mené sur des technologies plus puissantes que le GPT-4 récemment introduit, successeur du modèle de langage ChatGPT.
Les auteurs appellent à la mise en place de règles de sécurité en collaboration avec des experts indépendants. Si les laboratoires d’IA ne parviennent pas à mettre en œuvre volontairement une pause de développement, les gouvernements devraient légalement imposer cette pause, déclarent les signataires.
Professeur Gasser, soutenez-vous les mesures d’urgence demandées dans la lettre ?
Malheureusement, la lettre ouverte absorbe beaucoup d’attention qui serait mieux consacrée à d’autres questions dans le débat sur l’IA. Il est exact de dire qu’aujourd’hui, personne ne sait probablement comment former des systèmes d’IA extrêmement puissants de manière à ce qu’ils soient toujours fiables, utiles, honnêtes et inoffensifs.
Néanmoins, une pause dans la formation à l’IA n’aidera pas à y parvenir, principalement parce qu’il serait impossible d’affirmer un tel moratoire au niveau mondial, et parce qu’il ne serait pas possible de mettre en œuvre les réglementations demandées dans un délai de seulement six mois. Je suis convaincu que ce qui est nécessaire, c’est un développement progressif des technologies parallèlement à l’application et à l’adaptation des mécanismes de contrôle.
Quels problèmes devraient de préférence retenir l’attention plutôt qu’un moratoire ?
Tout d’abord, la lettre ouverte convoque à nouveau le spectre de ce qu’on appelle une intelligence artificielle générale. Cela détourne l’attention d’une discussion équilibrée sur les risques et les opportunités représentés par le type de technologies qui entrent actuellement sur le marché. Deuxièmement, le document fait référence aux futurs modèles successeurs du GPT-4.
Cela détourne l’attention du fait que le prédécesseur de GPT-4, ChatGPT, nous présente déjà des défis essentiels que nous devons relever de toute urgence, par exemple la désinformation et les préjugés que les machines reproduisent et mettent à l’échelle. Et troisièmement, les demandes spectaculaires formulées dans la lettre nous détournent du fait que nous disposons déjà d’instruments que nous pourrions utiliser pour réglementer le développement et l’utilisation de l’IA.
Vers quoi ces réglementations seraient-elles orientées, de quels instruments disposons-nous ?
Ces dernières années ont vu le développement intensif de principes éthiques qui devraient guider le développement et l’application de l’IA. Celles-ci ont été complétées dans des domaines importants par des normes techniques et des meilleures pratiques. Plus précisément, les Principes de l’OCDE sur l’intelligence artificielle associent des principes éthiques à plus de 400 outils concrets.
Et l’Institut national américain des normes et de la technologie (NIST) a publié une directive de 70 pages sur la manière dont les distorsions dans les systèmes d’IA peuvent être détectées et gérées. Dans le domaine de la sécurité dans les principaux modèles d’IA, nous voyons de nouvelles méthodes comme l’IA constitutionnelle, dans laquelle un système d’IA « apprend » les principes de bonne conduite des humains et peut ensuite utiliser les résultats pour surveiller une autre application d’IA. Des progrès substantiels ont été réalisés en matière de sécurité, de transparence et de protection des données et il existe même des sociétés de contrôle spécialisées.
Maintenant, la question essentielle est de savoir s’il faut ou non utiliser de tels instruments, et si oui, comment. Revenons à l’exemple de ChatGPT : les journaux de discussion des utilisateurs seront-ils inclus dans le modèle pour la formation itérative ? Les plug-ins pouvant enregistrer les interactions des utilisateurs, les contacts et d’autres données personnelles sont-ils autorisés ? L’interdiction provisoire et l’ouverture d’une enquête sur les développeurs de ChatGPT par les autorités italiennes de protection des données sont des signes qui sont encore très flous ici.
La lettre ouverte exige qu’aucun développement supplémentaire des systèmes d’IA n’ait lieu tant que l’on ne peut pas être sûr que les systèmes d’IA auront des effets positifs et que leurs risques sont gérables. À quel stade du développement serait-il possible de prédire si bien les impacts d’un système d’IA que ce type de réglementation aurait du sens ?
L’histoire de la technologie nous a appris qu’il est difficile de prédire la « bonne » ou la « mauvaise » utilisation des technologies, même si les technologies comportent souvent les deux aspects et les impacts négatifs peuvent souvent être involontaires. Au lieu de se fixer sur un certain point dans une prévision, nous devons faire deux choses : Premièrement, nous devons nous demander quelles applications nous ne voulons pas en tant que société, même si elles étaient possibles. Nous avons besoin de lignes rouges claires et d’interdictions.
Je pense ici aux systèmes d’armes autonomes à titre d’exemple. Deuxièmement, nous avons besoin d’une gestion globale des risques, allant du développement à l’utilisation. Les exigences placées ici augmentent à mesure que l’ampleur des risques potentiels pour les personnes et l’environnement posés par une application donnée augmente. Le législateur européen a raison d’adopter cette approche.
Selon la proposition, des experts indépendants devraient évaluer les risques de l’IA.
Ce type d’inspection indépendante est un instrument très important, surtout lorsqu’il s’agit d’applications qui peuvent avoir un impact considérable sur les êtres humains. Et d’ailleurs, ce n’est pas une idée nouvelle : nous voyons déjà des procédures d’inspection et des instances comme celles-ci à l’œuvre dans la grande variété d’aspects de la vie, allant des inspections automobiles aux inspections générales d’équipements techniques et à l’audit financier.
Cependant, le défi est disproportionnellement plus grand avec certaines méthodes et applications d’IA, car certains systèmes se développent au fur et à mesure de leur utilisation, c’est-à-dire qu’ils sont de nature dynamique. Et il est également important de voir que les experts seuls ne pourront pas faire une bonne évaluation de tous les impacts sociétaux. Nous avons également besoin de mécanismes innovants qui incluent par exemple les personnes défavorisées et les groupes sous-représentés dans la discussion sur les conséquences de l’IA. Ce n’est pas une tâche facile, j’aurais aimé attirer plus d’attention.
Les auteurs abordent également le secteur politique. La politique serait responsable de l’ancrage d’une telle « agence d’inspection technique de l’IA » dans le système.
Nous avons en effet besoin de règles juridiques claires pour l’intelligence artificielle. Au niveau de l’UE, une loi sur l’IA est en cours de finalisation et vise à garantir que les technologies d’IA sont sûres et conformes aux droits fondamentaux. L’avant-projet de loi prévoit la classification des technologies d’IA en fonction de la menace qu’elles font peser sur ces principes, avec pour conséquence possible des interdictions ou des obligations de transparence.
Par exemple, il est prévu d’interdire l’évaluation des particuliers en fonction de leur comportement social, comme on le voit actuellement en Chine. Aux États-Unis, le processus politique dans ce domaine est bloqué au Congrès. Il serait utile que les personnalités éminentes qui ont écrit la lettre fassent pression sur les législateurs fédéraux américains pour qu’ils agissent au lieu d’appeler à un arrêt temporaire du développement technologique.