Un événement « cygne gris » pourrait-il faire échouer la révolution de l’IA ? Voici 3 risques auxquels nous devrions nous préparer

Un événement « cygne gris » pourrait-il faire échouer la révolution de l’IA ? Voici 3 risques auxquels nous devrions nous préparer

Le terme « cygne noir » fait référence à un événement choquant sur le radar de personne jusqu'à ce qu'il se produise réellement. C'est devenu un mot d'ordre dans l'analyse des risques depuis la publication en 2007 du livre « Le cygne noir » de Nassim Nicholas Taleb. Les attentats du 11 septembre sont un exemple fréquemment cité.

Moins de gens ont entendu parler des « cygnes gris ». Issus des travaux de Taleb, les cygnes gris sont des événements rares mais plus prévisibles. Autrement dit, des choses dont nous savons qu’elles pourraient avoir un impact énorme, mais nous ne nous y préparons pas (ou ne le ferons pas) de manière adéquate.

La COVID-19 en est un bon exemple : il existe des précédents de pandémie mondiale, mais le monde a quand même été pris au dépourvu.

Même s'il utilise parfois ce terme, Taleb ne semble pas être un grand fan des cygnes gris. Il a déjà exprimé sa frustration face au fait que ses concepts sont souvent mal utilisés, ce qui peut conduire à une réflexion bâclée sur les problèmes plus profonds liés aux risques véritablement imprévisibles.

Mais il est difficile de nier l’existence d’un large spectre de prévisibilité, et il est plus facile de prévoir l’arrivée de certains chocs majeurs. Cela n’est peut-être nulle part plus évident que dans le monde de l’intelligence artificielle (IA).

Mettre nos œufs dans le même panier

De plus en plus, l’avenir de l’économie mondiale et la prospérité humaine sont liés à une seule histoire technologique : la révolution de l’IA. Cela a transformé les questions philosophiques sur le risque en un dilemme de plusieurs milliards de dollars sur la manière dont nous nous alignons sur les futurs possibles.

La société technologique américaine Nvidia, qui domine le marché des puces d’IA, a récemment dépassé les 5 000 milliards de dollars américains (environ 7 700 milliards de dollars australiens) en valeur marchande. Les « Magnificent Seven » actions technologiques américaines – Amazon, Alphabet (Google), Apple, Meta, Microsoft, Nvidia et Tesla – représentent désormais environ 40 % de l'indice boursier S&P 500.

L’impact d’un effondrement de ces entreprises – et d’un krach boursier – serait dévastateur au niveau mondial, non seulement sur le plan financier, mais aussi en termes d’espoirs de progrès déçus.

Les cygnes gris de l'IA

Il existe trois grandes catégories de risques – au-delà du domaine économique – qui pourraient mettre un terme brutal à l’euphorie de l’IA. Ce sont des cygnes gris parce que nous pouvons les voir arriver, mais sans doute ne nous y préparons pas (ou ne le ferons pas).

1. Chocs sécuritaires et terroristes

La capacité de l’IA à générer du code, des plans malveillants et de faux médias convaincants en fait un multiplicateur de force pour les mauvais acteurs. Des modèles ouverts et bon marché pourraient aider à concevoir des essaims de drones, des toxines ou des cyberattaques. Les deepfakes pourraient usurper les commandements militaires ou semer la panique via de fausses émissions.

On peut soutenir que le risque le plus proche d’un « cygne blanc » – un risque prévisible avec des conséquences relativement prévisibles – découle de l’agression de la Chine contre Taiwan.

Les plus grandes entreprises mondiales d’IA dépendent fortement de l’industrie taïwanaise des semi-conducteurs pour la fabrication de puces avancées. Tout conflit ou blocus gèlerait du jour au lendemain le progrès mondial.

2. Chocs juridiques

Certaines sociétés d’IA ont déjà été poursuivies pour avoir prétendument utilisé du texte et des images récupérées sur Internet pour entraîner leurs modèles.

L’un des exemples les plus connus est l’affaire en cours entre le New York Times et OpenAI, mais il existe de nombreux différends similaires dans le monde.

Si un tribunal majeur devait décider qu’une telle utilisation est considérée comme une exploitation commerciale, cela pourrait donner lieu à d’énormes demandes de dommages et intérêts de la part des éditeurs, des artistes et des marques.

Quelques décisions de justice historiques pourraient contraindre les grandes entreprises d’IA à faire une pause dans le développement de leurs modèles, mettant ainsi un terme au développement de l’IA.

3. Une avancée de trop : les chocs d’innovation

L’innovation est généralement célébrée, mais pour les entreprises qui investissent dans l’IA, cela pourrait s’avérer fatal. Une nouvelle technologie d’IA qui manipule les marchés de manière autonome (ou même l’annonce que l’on le fait déjà) rendrait obsolètes les systèmes de sécurité financière actuels.

Et un modèle d’IA avancé, open source et gratuit pourrait facilement vaporiser les bénéfices des leaders actuels de l’industrie. Nous avons eu un aperçu de cette possibilité lors de la baisse de DeepSeek en janvier, lorsque des détails sur un modèle d'IA relativement moins cher et plus efficace développé en Chine ont fait chuter les valeurs technologiques américaines.

Pourquoi nous avons du mal à nous préparer aux cygnes gris

Les analystes des risques, notamment en finance, parlent souvent en termes de données historiques. Les statistiques peuvent donner une illusion rassurante de cohérence et de contrôle. Mais l’avenir ne se comporte pas toujours comme le passé.

Les sages d’entre nous appliquent la raison à des faits soigneusement confirmés et sont sceptiques quant aux discours du marché.

Les causes plus profondes sont psychologiques : notre esprit code les choses efficacement, s’appuyant souvent sur un seul symbole pour représenter des phénomènes très complexes.

Il nous faut beaucoup de temps pour remodeler nos représentations du monde et croire qu'un risque majeur imminent mérite d'être surmonté – comme nous l'avons vu avec la lenteur de la réponse mondiale au changement climatique.

Comment pouvons-nous lutter contre les cygnes gris ?

Rester conscient des risques est important. Mais ce qui compte le plus, ce n’est pas la prédiction. Nous devons concevoir une sorte de résilience plus profonde que Taleb appelle « antifragilité ».

Taleb soutient que les systèmes devraient être construits pour résister aux chocs, voire en bénéficier, plutôt que de s’appuyer sur une prévoyance parfaite.

Pour les décideurs politiques, cela signifie veiller à ce que la réglementation, les chaînes d’approvisionnement et les institutions soient construites pour survivre à une série de chocs majeurs. Pour les individus, cela signifie diversifier nos paris, garder les options ouvertes et résister à l’illusion que l’histoire peut tout nous dire.

Le plus gros problème du boom de l’IA est avant tout sa rapidité. Il remodèle le paysage mondial du risque plus rapidement que nous ne pouvons en cartographier les cygnes gris. Certains pourraient entrer en collision et provoquer des destructions spectaculaires avant que nous puissions réagir.