Intelligenza artificiale causale

L’intelligence artificielle doit désormais apprendre à comprendre le monde

L'intellect humain repose sur trois piliers fondamentaux : voir, c'est-à-dire observer le monde ; faire, intervenir là-dessus ; et imaginez ou simulez ce qui pourrait arriver en fonction de différents choix.
Aujourd’hui, l’intelligence artificielle n’occupe qu’un seul de ces piliers : celui de l’observation.

L’expansion des modèles frontières existants ne résoudra pas cette limitation. La percée qui a donné naissance à l’enthousiasme actuel pour l’IA a été l’architecture du transformateur, développée par Google puis étendue à de grands modèles de langage formés sur une grande partie de l’Internet public pour générer du texte et du code. Viennent ensuite les agents, qui connectent ces modèles dans des flux de travail automatisés.


Des modèles linguistiques aux « modèles du monde »

L'attention se porte désormais sur ce que l'on appelle les modèles mondiaux, des systèmes qui tentent de représenter l'environnement physique à l'aide d'énormes flux de vidéo et d'autres données.

Il s’agit d’une évolution importante par rapport aux grands modèles linguistiques. Cette forme d’« intelligence spatiale » est déjà utilisée dans le développement de technologies telles que les voitures sans conducteur ou les robots dans les usines.

Cependant, ces systèmes ne comprennent pas vraiment le monde qu’ils enregistrent. Au contraire, ils l’imitent en le reconstruisant objet tridimensionnel après objet tridimensionnel. Dans ce processus, ils risquent de confondre les coïncidences avec les causes réelles.

Le résultat est qu’ils peuvent agir sans pouvoir expliquer les raisons de leurs décisions, optimiser les processus sans comprendre ce qui se passerait si les conditions changeaient et produire des erreurs avec une grande certitude. Dans des secteurs critiques comme la santé, les réseaux énergétiques ou, pire encore, les armes autonomes, les conséquences pourraient être non seulement embarrassantes, mais aussi mortelles.


L'intuition d'Alan Turing

Il y a plusieurs décennies, Alan Turing affirmait qu’une machine véritablement intelligente devrait apprendre de l’expérience.

Ne vous contentez pas d'observer passivement, mais agissez, apprenez des conséquences de vos actes et posez-vous la question fondamentale : « Et si? »

Pour entraîner une machine à raisonner de cette manière, il faudra quelque chose de nouveau : un modèle causal du monde, une sorte de carte interne capable de décrire non seulement comment une partie de la réalité apparaît, mais aussi comment elle fonctionne réellement.


La science de la causalité

Au cours des vingt dernières années, un petit groupe de scientifiques a développé un véritable langage mathématique de cause à effet.

Cet ouvrage, popularisé par le livre Le livre du pourquoi de Judea Pearl, explique comment distinguer corrélation et causalité, formaliser les interventions et générer des contrefactuels, c'est-à-dire des scénarios alternatifs qui montrent ce qui aurait pu se produire.

Les modèles d’IA actuels reposent principalement sur des corrélations entre variables. Cette approche fonctionne bien dans les situations prédictives où la reconnaissance de formes est suffisante. Mais cela ne suffit pas pour relever les défis les plus importants de notre siècle.


Pourquoi nous avons besoin de modèles causals

Pensons à la planification de l'adaptation climatique dans les grandes métropoles. Ici, vous devez vous poser des questions sur des événements extrêmes qui ne se sont pas encore produits et qui pourraient ne jamais se produire.

La véritable découverte scientifique nécessite des modèles capables de généraliser, de suivre les règles causales d'un système et de générer des scénarios réalistes. Il ne suffit pas d’extrapoler à partir de données existantes ou d’automatiser des processus déjà connus.

Un exemple est celui des réseaux biologiques complexes. Pour développer de nouveaux bioproduits utiles à la transition énergétique ou pour traiter des maladies complexes, il faut comprendre comment interagissent les microbes du sol, la génétique végétale, l’eau, les nutriments, les parasites et les conditions météorologiques. En d’autres termes, nous devons comprendre qui influence quoi, quand et où.


Un choix pour l’avenir de l’IA

Le monde se trouve aujourd’hui à la croisée des chemins : d’une part, il peut continuer à investir d’énormes ressources dans la construction de gigantesques infrastructures pour alimenter les modèles d’IA existants. D’un autre côté, elle peut consacrer une partie de ces efforts au développement de systèmes capables de véritablement comprendre le fonctionnement du monde et de le modifier consciemment.


Un avantage également pour l’énergie et les ressources

Les modèles causals pourraient également apporter des avantages inattendus. L’approche actuelle, basée sur la recherche par force brute parmi des milliards de corrélations possibles, nécessite d’énormes quantités de données, d’énergie, d’émissions et d’investissements.

En revanche, les modèles causals sont de par leur conception plus parcimonieux. La formation et l'inférence pourraient devenir beaucoup plus efficaces parce que la machine ne rechercherait pas aveuglément dans les données, mais suivrait des lignes de causalité significatives dans les contraintes des lois physiques.


Implications pour la science et la technologie

Introduire la causalité dans l’intelligence artificielle pourrait profondément changer la manière dont les machines contribuent à la découverte scientifique.

Par exemple:

  • médecine : comprendre quels facteurs provoquent une maladie et quelles interventions la préviennent ;
  • énergie et climat : simuler les politiques environnementales et prédire les effets des émissions ;
  • agriculture : comprendre comment le sol, la génétique végétale, le climat et les nutriments interagissent.

Dans ces domaines, il ne suffit pas de simplement reconnaître des tendances dans les données. Nous avons besoin de modèles capables de généraliser et de simuler des scénarios jamais observés auparavant.


Un avantage également pour l’efficacité et la durabilité

Un autre aspect concerne les coûts énergétiques de l’IA. Les modèles les plus avancés nécessitent une infrastructure gigantesque et d’énormes quantités d’énergie pour la formation.

Les systèmes basés sur la causalité peuvent être plus efficaces, car ils utilisent des structures explicites qui représentent le fonctionnement du monde au lieu de rechercher des corrélations entre des milliards de variables. Cela réduirait les données, l’énergie et la puissance de calcul nécessaires pour obtenir des résultats utiles.

Sans une révolution dans la manière dont les machines comprennent les causes et les effets, le boom actuel de l’IA risque de se terminer non pas par une nouvelle ère de progrès, mais par une grande déception technologique.