Gen AI: in due anni l’adozione è quintuplicata, dal 6% del 2023 al 30% nel 2025

Appel : le développement de la « superintelligence » artificielle doit être interdit

Une alliance hétérogène remet étonnamment en question le paysage technologique : Steve Bannon, Meghan Markle (épouse du prince Harry) et l'acteur Stephen Fry ont rejoint un cercle d'environ un millier de personnalités publiques – des scientifiques et lauréats du prix Nobel aux chefs religieux, des dirigeants d'entreprise aux hommes politiques – pour demander une « interdiction du développement de la superintelligence », ou une interdiction du développement de ce qu'on appelle la superintelligence jusqu'à ce qu'il y ait un large consensus scientifique et un fort soutien du public. Au total, au 23 octobre, l'appel comptait plus de trois mille signataires et ce nombre continue de croître.

L'initiative est organisée par le Future of Life Institute (FLI), une organisation à but non lucratif engagée dans la réduction des risques extrêmes associés aux technologies « transformatrices » telles que l'IA.

Le contenu du recours : principe et conditions

« Nous appelons à une interdiction du développement de la superintelligence, qui ne soit pas levée avant qu’il n’y ait un large consensus scientifique sur le fait que cela se fera de manière sûre et contrôlable, et une forte adhésion du public. »

« Nous appelons à l'interdiction du développement de la superintelligence jusqu'à ce qu'il y ait un large consensus scientifique sur sa sécurité et sa contrôlabilité, ainsi qu'un fort soutien du public. »

En résumé, les signataires demandent que :

  1. le développement de systèmes dotés de capacités intellectuelles supérieures à celles humaines est interrompu,
  2. cette interdiction n'est levée qu'après l'obtention d'un consensus scientifique garantissant la sécurité et la contrôlabilité,
  3. il existe une large acceptation sociale comme condition préalable à la reprise du développement.

Il convient de souligner qu’il ne s’agit pas d’une interdiction générale de l’intelligence artificielle, mais plutôt d’un arrêt ciblé de la superintelligence, et l’appel précise que cela ne signifie pas une « pause totale » sur toutes les formes d’IA.

Lire le contenu complet de l'appel

Qui a signé l'appel : un front transversal

Parmi les signataires se distinguent des pionniers de l'IA comme Geoffrey Hinton et Yoshua Bengio (lauréats du Turing Award), l'ancienne présidente irlandaise Mary Robinson, le prince Harry, mais aussi des scientifiques chinois comme Andrew Yao et Ya-Qin Zhang, ancien président de Baidu. Parmi les autres noms figurent Susan Rice, ancienne conseillère à la sécurité nationale des États-Unis, l'amiral Mike Mullen, ainsi que des entrepreneurs technologiques tels que Steve Wozniak et Richard Branson, ainsi que des chefs religieux de diverses communautés, des personnalités telles que le père Paolo Benanti, qui fut conseiller du pape François sur les questions d'intelligence artificielle.

L’appel souligne un point essentiel : la perte de contrôle sur l’IA est considérée comme une menace pour la sécurité nationale, et tant les États-Unis que la Chine considèrent ce risque comme un intérêt stratégique qui doit être contrôlé.

Sam Altman, co-fondateur et PDG d'OpenAI, a déclaré que la superintelligence pourrait être atteinte d'ici cinq ans.

« Peu importe que ce soit dans deux ou quinze ans. Développer la superintelligence est inacceptable », a déclaré Max Tegmark, président de l'institut Future of life, selon qui aucune entreprise ne devrait être autorisée à lancer des projets de ce type « en dehors de tout cadre réglementaire ».

« On peut être favorable au développement d'outils d'intelligence artificielle plus puissants, par exemple pour guérir le cancer, sans atteindre la superintelligence », a-t-il ajouté.

Joshua Bengio, professeur d'informatique à l'Université de Montréal, écrit dans l'appel : « Les systèmes d'IA de pointe pourraient surpasser la plupart des gens dans la plupart des tâches cognitives d'ici quelques années. Ces progrès pourraient débloquer des solutions à des défis mondiaux majeurs, mais ils présentent également des risques importants. désalignement ou utilisation malveillante. Nous devons également veiller à ce que le public ait son mot à dire dans les décisions qui façonneront notre avenir collectif.

Yuval Noah Harari, auteur et professeur à l'Université hébraïque de Jérusalem, écrit : « La superintelligence risquerait de détruire le système d'exploitation même de la civilisation humaine et est totalement inutile. Si nous nous concentrons plutôt sur la création d'outils d'IA contrôlables pour réellement aider les gens aujourd'hui, nous pouvons réaliser de manière beaucoup plus fiable et sûre les incroyables avantages de l'IA. »

Opinions et différends dans le débat

Si l’appel recueille le soutien des contextes les plus disparates, des critiques émergent. Certains commentateurs affirment qu’une interdiction ferait reculer l’innovation technologique et nuirait à la compétitivité des secteurs émergents. D’autres soutiennent que la superintelligence reste un scénario spéculatif et que les mesures prudentielles déjà en place – telles que les réglementations et les contrôles – pourraient suffire.

En 2023, le Future of Life Institute a promu une lettre similaire appelant à un moratoire de six mois sur les expériences avancées d’IA, impliquant des signataires tels qu’Elon Musk et Stuart Russell. Cette nouvelle initiative est plus ciblée et moins radicale que le moratoire total proposé à l'époque.

Le contexte réglementaire : régulation et fragmentation mondiale

La pression en faveur de règles plus strictes en matière d’IA n’est pas isolée. En Europe, la loi européenne sur l'IA constitue la première tentative de réglementation globale : elle divise les systèmes d'IA en catégories de risque et interdit certaines utilisations (telles que les systèmes manipulateurs ou discriminatoires).
Cependant, sa mise en œuvre est progressive et critiquée par l’industrie en raison de la complexité réglementaire.

Aux États-Unis, la réglementation de l’IA est fragmentée : plusieurs États (Californie, Texas, Utah) ont approuvé des réglementations spécifiques ; une proposition de moratoire de 10 ans sur le développement de l’IA a été supprimée d’un projet de loi fédéral.
Au niveau international, certaines études proposent des traités mondiaux avec des limites de calcul (global computing cap) pour réglementer l'utilisation des ressources informatiques dans l'IA avancée.

Pourquoi maintenant ? La perspective d’un risque existentiel

La réémergence de cet appel coïncide avec un climat d’inquiétude croissant quant au potentiel d’une IA toujours plus puissante. FLI et d’autres défenseurs affirment qu’il n’est pas nécessaire d’atteindre la superintelligence pour obtenir des effets positifs de l’IA (par exemple en médecine, productivité, véhicules autonomes).
Mais la crainte que l’IA superintelligente échappe au contrôle humain, évolue de manière autonome ou prenne des décisions contraires aux intérêts humains alimente le sentiment d’urgence.

Un livre récent, Si quelqu'un le construit, tout le monde meurt (Si quelqu'un le construit, tout le monde meurt) d'Eliezer Yudkowsky et Nate Soares, présente des scénarios dans lesquels une superintelligence incontrôlée pourrait conduire à l'extinction de l'humanité.

Implications pour l'Italie et l'Europe

L’appel souligne à quel point le risque n’est pas seulement technologique, mais aussi politique, social et stratégique. En Italie et dans l’Union européenne, le débat sur l’IA s’est intensifié ces dernières années et les solutions réglementaires seront confrontées à des défis tels que :

  • équilibrer sécurité et innovation pour le tissu entrepreneurial,
  • coordonner les réglementations nationales avec les lois européennes,
  • promouvoir la transparence et le consensus public sur les technologies complexes,
  • participer au dialogue mondial sur les traités sur l’IA et la gouvernance internationale.

Si l’initiative du FLI et des signataires parvient à susciter une réponse politique cohérente, elle pourrait pousser les gouvernements et les institutions européennes à renforcer les piliers réglementaires déjà en cours, comme l’AI Act, en les intégrant aux mécanismes de gouvernance mondiale.


L’alliance inhabituelle entre des personnalités d’univers très différents témoigne de l’inquiétude et de la réflexion que suscite le thème de l’intelligence artificielle. La question centrale demeure : qui contrôle les machines qui pourraient surpasser l’intelligence humaine ? Et si le temps manque pour une réponse réglementée, cet appel pourrait marquer un tournant dans la manière dont les entreprises et les gouvernements régulent l’avenir technologique.