Non, l'IA ne nous tuera probablement pas tous - et il y a plus dans cette campagne de peur qu'il n'y paraît

La véritable menace réside peut-être dans la manière dont les gouvernements choisissent de l’utiliser

Les risques importants que l’IA fait peser sur la sécurité mondiale deviennent plus évidents. C’est en partie la raison pour laquelle le Premier ministre britannique Rishi Sunak accueille d’autres dirigeants mondiaux au sommet sur la sécurité de l’IA les 1er et 2 novembre sur le célèbre site de décryptage de la Seconde Guerre mondiale, Bletchley Park. Pourtant, alors que la technologie de l’IA se développe à un rythme alarmant, la véritable menace pourrait venir des gouvernements eux-mêmes.

L’historique du développement de l’IA au cours des 20 dernières années fournit de nombreuses preuves de l’utilisation abusive de la technologie par les gouvernements à travers le monde. Cela inclut des pratiques de surveillance excessives et l’exploitation de l’IA pour diffuser la désinformation.

Même si l’attention s’est récemment portée sur les entreprises privées qui développent des produits d’IA, les gouvernements ne sont pas les arbitres impartiaux qu’ils pourraient sembler être lors de ce sommet sur l’IA. Au lieu de cela, ils ont joué un rôle tout aussi essentiel dans la manière précise dont l’IA s’est développée – et ils continueront de le faire.

Militariser l’IA

Des rapports constants indiquent que les principales nations technologiques se lancent dans une course aux armements en matière d’IA. Aucun État n’a réellement lancé cette course. Son développement a été complexe et de nombreux groupes – internes et externes aux gouvernements – ont joué un rôle.

Pendant la guerre froide, les agences de renseignement américaines se sont intéressées à l’utilisation de l’intelligence artificielle pour la surveillance, la défense nucléaire et l’interrogatoire automatisé des espions. Il n’est donc pas surprenant que ces dernières années, l’intégration de l’IA dans les capacités militaires se soit accélérée dans d’autres pays, comme le Royaume-Uni.

Les technologies automatisées développées pour être utilisées dans la guerre contre le terrorisme ont contribué au développement de puissantes capacités militaires basées sur l’IA, notamment des drones (véhicules aériens sans pilote) alimentés par l’IA qui sont déployés dans les zones de conflit actuelles.

Le président russe, Vladimir Poutine, a déclaré que le pays leader en matière de technologie de l’IA dirigerait le monde. La Chine a également déclaré sa propre intention de devenir une superpuissance en matière d’IA.

États de surveillance

L’autre préoccupation majeure est l’utilisation de l’IA par les gouvernements pour surveiller leurs propres sociétés. Alors que les gouvernements ont vu se développer les menaces nationales à la sécurité, notamment dues au terrorisme, ils ont de plus en plus déployé l’IA au niveau national pour renforcer la sécurité de l’État.

En Chine, cette situation a été poussée à l’extrême, avec le recours aux technologies de reconnaissance faciale, aux algorithmes des réseaux sociaux et à la censure d’Internet pour contrôler et surveiller les populations, y compris au Xinjiang où l’IA fait partie intégrante de l’oppression de la population ouïghoure.

Mais le bilan de l’Occident n’est pas non plus excellent. En 2013, il a été révélé que le gouvernement américain avait développé des outils autonomes pour collecter et trier d’énormes quantités de données sur l’utilisation d’Internet par les gens, apparemment pour lutter contre le terrorisme. Il a également été signalé que le gouvernement britannique avait accès à ces outils. À mesure que l’IA se développe, son utilisation à des fins de surveillance par les gouvernements constitue une préoccupation majeure pour les défenseurs de la vie privée.

Pendant ce temps, les frontières sont surveillées par des algorithmes et des technologies de reconnaissance faciale, qui sont de plus en plus déployées par les forces de police nationales. Il existe également des préoccupations plus larges concernant la « police prédictive », l’utilisation d’algorithmes pour prédire les points chauds de la criminalité (souvent dans les communautés ethniques minoritaires) qui sont ensuite soumis à des efforts de police supplémentaires.

Ces tendances récentes et actuelles suggèrent que les gouvernements ne seront peut-être pas en mesure de résister à la tentation d’utiliser une IA de plus en plus sophistiquée d’une manière qui suscite des inquiétudes en matière de surveillance.

Gouverner l’IA ?

Malgré les bonnes intentions du gouvernement britannique d’organiser son sommet sur la sécurité et de devenir un leader mondial dans l’utilisation sûre et responsable de l’IA, la technologie nécessitera des efforts sérieux et soutenus au niveau international pour que tout type de réglementation soit efficace.

Des mécanismes de gouvernance commencent à émerger, les États-Unis et l’Union européenne ayant récemment introduit une nouvelle réglementation importante sur l’IA.

Mais la gouvernance de l’IA au niveau international se heurte à de nombreuses difficultés. Il y aura bien sûr des États qui adhéreront à la réglementation sur l’IA et qui l’ignoreront ensuite dans la pratique.

Les gouvernements occidentaux sont également confrontés à des arguments selon lesquels une réglementation trop stricte de l’IA permettrait aux États autoritaires de réaliser leurs aspirations à prendre la tête de la technologie. Mais permettre aux entreprises de « se précipiter pour lancer » de nouveaux produits risque de déclencher des systèmes qui pourraient avoir d’énormes conséquences imprévues sur la société. Il suffit de voir comment une IA avancée de génération de texte telle que ChatGPT pourrait accroître la désinformation et la propagande.

Et même les développeurs eux-mêmes ne comprennent pas exactement comment fonctionnent les algorithmes avancés. Percer cette « boîte noire » de la technologie de l’IA nécessitera des investissements sophistiqués et soutenus de la part des autorités nationales dans les capacités de test et de vérification. Mais les capacités et les autorités n’existent pas à l’heure actuelle.

La politique de la peur

Nous sommes habitués à entendre parler d’une forme d’IA super intelligente qui menace la civilisation humaine. Mais il y a des raisons de se méfier d’un tel état d’esprit.

Comme le soulignent mes propres recherches, la « sécurisation » de l’IA – c’est-à-dire la présentation de la technologie comme une menace existentielle – pourrait être utilisée comme excuse par les gouvernements pour s’emparer du pouvoir, en abuser eux-mêmes ou adopter des approches étroites et égoïstes à l’égard de l’IA. qui n’exploitent pas les avantages potentiels qu’elle pourrait conférer à tous.

Le sommet sur l’IA de Rishi Sunak serait une bonne occasion de souligner que les gouvernements devraient garder la politique de la peur à l’écart des efforts visant à maîtriser l’IA.