Alors que l'IA augmente, les législateurs tentent de rattraper leur retard

Alors que l’IA augmente, les législateurs tentent de rattraper leur retard

Les promoteurs de l’IA estiment qu’elle révolutionne l’expérience humaine, mais les critiques soulignent que la technologie risque de mettre les machines en charge de décisions qui changent la vie.

Des aspirateurs « intelligents » aux voitures sans conducteur en passant par les techniques avancées de diagnostic des maladies, l’intelligence artificielle s’est frayé un chemin dans tous les domaines de la vie moderne.

Ses promoteurs estiment qu’elle révolutionne l’expérience humaine, mais les critiques soulignent que la technologie risque de confier aux machines la responsabilité de décisions qui changent la vie.

Les régulateurs en Europe et en Amérique du Nord sont inquiets.

L’Union européenne adoptera probablement une législation l’année prochaine – la loi sur l’IA – visant à freiner l’ère de l’algorithme.

Les États-Unis ont récemment publié un projet de déclaration des droits de l’IA et le Canada réfléchit également à une législation.

L’utilisation par la Chine des données biométriques, de la reconnaissance faciale et d’autres technologies pour construire un puissant système de contrôle occupe une place importante dans les débats.

Gry Hasselbalch, un universitaire danois qui conseille l’UE sur la technologie controversée, a fait valoir que l’Occident risquait également de créer des « infrastructures totalitaires ».

« Je vois cela comme une énorme menace, quels que soient les avantages », a-t-elle déclaré à l’AFP.

Mais avant que les régulateurs ne puissent agir, ils sont confrontés à la tâche ardue de définir ce qu’est réellement l’IA.

« Le jeu de la tasse »

Suresh Venkatasubramanian de l’Université Brown, co-auteur de la Déclaration des droits de l’IA, a déclaré qu’essayer de définir l’IA était « un jeu de tasse ».

Toute technologie qui affecte les droits des personnes devrait être couverte par le projet de loi, a-t-il tweeté.

L’UE des 27 nations emprunte la voie la plus tortueuse pour tenter de définir le champ tentaculaire.

Son projet de loi énumère les types d’approches définies comme IA et inclut pratiquement tous les systèmes informatiques impliquant l’automatisation.

Le problème découle de l’évolution de l’utilisation du terme IA.

Pendant des décennies, il a décrit des tentatives de création de machines simulant la pensée humaine.

Mais le financement de cette recherche, connue sous le nom d’IA symbolique, s’est largement tari au début des années 2000.

La montée en puissance des titans de la Silicon Valley a vu l’IA renaître comme une étiquette fourre-tout pour leurs programmes de calcul numérique et les algorithmes qu’ils ont générés.

Cette automatisation leur a permis de cibler les utilisateurs avec de la publicité et du contenu, les aidant à gagner des centaines de milliards de dollars.

« L’IA était pour eux un moyen d’utiliser davantage ces données de surveillance et de mystifier ce qui se passait », a déclaré à l’AFP Meredith Whittaker, une ancienne employée de Google qui a cofondé l’AI Now Institute de l’université de New York.

Ainsi, l’UE et les États-Unis ont tous deux conclu que toute définition de l’IA doit être aussi large que possible.

« Trop difficile »

Mais à partir de ce moment, les deux puissances occidentales se sont largement séparées.

Le projet de loi sur l’IA de l’UE compte plus de 100 pages.

Parmi ses propositions les plus accrocheuses figurent l’interdiction complète de certaines technologies « à haut risque », le type d’outils de surveillance biométrique utilisés en Chine.

Cela limite également considérablement l’utilisation des outils d’IA par les agents de migration, la police et les juges.

Hasselbach a déclaré que certaines technologies étaient « tout simplement trop difficiles pour les droits fondamentaux ».

La Déclaration des droits de l’IA, quant à elle, est un bref ensemble de principes formulés dans un langage ambitieux, avec des exhortations telles que « vous devriez être protégé contre les systèmes dangereux ou inefficaces ».

Le projet de loi a été publié par la Maison Blanche et s’appuie sur la loi existante.

Les experts estiment qu’aucune législation dédiée à l’IA n’est probable aux États-Unis avant 2024 au plus tôt, car le Congrès est dans l’impasse.

‘Chair blessure’

Les opinions divergent sur les mérites de chaque approche.

« Nous avons désespérément besoin d’une réglementation », a déclaré à l’AFP Gary Marcus de l’université de New York.

Il souligne que les « grands modèles linguistiques » – l’IA derrière les chatbots, les outils de traduction, les logiciels de texte prédictif et bien d’autres – peuvent être utilisés pour générer une désinformation nuisible.

Whittaker a remis en question la valeur des lois visant à lutter contre l’IA plutôt que les « modèles commerciaux de surveillance » qui la sous-tendent.

« Si vous n’abordez pas cela à un niveau fondamental, je pense que vous mettez un pansement sur une blessure de chair », a-t-elle déclaré.

Mais d’autres experts ont largement salué l’approche américaine.

L’IA était une meilleure cible pour les régulateurs que le concept plus abstrait de confidentialité, a déclaré Sean McGregor, un chercheur qui relate les échecs technologiques pour la base de données des incidents d’IA.

Mais il a dit qu’il pourrait y avoir un risque de réglementation excessive.

« Les autorités existantes peuvent réglementer l’IA », a-t-il déclaré à l’AFP, citant des personnalités comme la Federal Trade Commission américaine et le HUD, un organisme de réglementation du logement.

Mais là où les experts sont largement d’accord, c’est la nécessité de supprimer le battage médiatique et le mysticisme qui entourent la technologie de l’IA.

« Ce n’est pas magique », a déclaré McGregor, comparant l’IA à une feuille de calcul Excel hautement sophistiquée.