Dans un nouveau manifeste, Sam Altman d'OpenAI envisage une utopie de l'IA et révèle des angles morts flagrants
À l’heure actuelle, beaucoup d’entre nous sont probablement familiers avec le battage médiatique sur l’intelligence artificielle. L’IA va rendre les artistes superflus ! L'IA peut faire des expériences en laboratoire ! L'IA mettra fin au chagrin !
Même selon ces critères, la dernière proclamation du directeur général d’OpenAI, Sam Altman, publiée cette semaine sur son site Web personnel, semble remarquablement hyperbolique. Nous sommes à l'aube de « l'ère de l'intelligence », déclare-t-il, alimentée par une « superintelligence » qui pourrait être dans « quelques milliers de jours ». La nouvelle ère apportera des « triomphes stupéfiants », notamment « la réparation du climat, l’établissement d’une colonie spatiale et la découverte de toute la physique ».
Altman et sa société – qui tente de lever des milliards auprès d’investisseurs et de proposer au gouvernement américain des centres de données d’une taille sans précédent, tout en licenciant du personnel clé et en abandonnant ses racines à but non lucratif pour donner à Altman une part de propriété – ont beaucoup à gagner du battage médiatique.
Cependant, même en mettant de côté ces motivations, il vaut la peine d’examiner certaines des hypothèses qui sous-tendent les prédictions d’Altman. En y regardant de plus près, ils révèlent beaucoup de choses sur la vision du monde des plus grands pom-pom girls de l'IA et sur les angles morts de leur réflexion.
Des machines à vapeur pour réfléchir ?
Altman fonde ses merveilleuses prédictions dans une histoire de l’humanité en deux paragraphes :
« Les gens sont devenus considérablement plus compétents au fil du temps ; nous pouvons déjà accomplir des choses que nos prédécesseurs auraient cru impossibles. »
C’est l’histoire d’un progrès absolu allant dans une seule direction, piloté par l’intelligence humaine. Les découvertes et les inventions cumulatives de la science et de la technologie – révèle Altman – nous ont conduits à la puce informatique et, inexorablement, à l’intelligence artificielle, qui nous mènera jusqu’au bout du chemin vers l’avenir. Cette vision doit beaucoup aux visions futuristes du mouvement singularitaire.
Une telle histoire est d’une simplicité séduisante. Si l’intelligence humaine nous a propulsés vers des sommets toujours plus élevés, il est difficile de ne pas conclure qu’une intelligence artificielle meilleure et plus rapide permettra de progresser encore plus loin et plus haut.
C'est un vieux rêve. Dans les années 1820, lorsque Charles Babbage a vu les machines à vapeur révolutionner le travail physique humain lors de la révolution industrielle anglaise, il a commencé à imaginer construire des machines similaires pour automatiser le travail mental. Le « moteur analytique » de Babbage n’a jamais été construit, mais l’idée selon laquelle la réalisation ultime de l’humanité impliquerait la mécanisation de la pensée elle-même a persisté.
Selon Altman, nous sommes maintenant (presque) au sommet de cette montagne.
L’apprentissage profond a fonctionné, mais pour quoi ?
La raison pour laquelle nous sommes si proches d’un avenir glorieux est simple, dit Altman : « l’apprentissage en profondeur a fonctionné ».
L’apprentissage profond est un type particulier d’apprentissage automatique qui implique des réseaux de neurones artificiels, vaguement inspirés des systèmes nerveux biologiques. Il a certainement connu un succès surprenant dans certains domaines : l’apprentissage profond est à l’origine de modèles qui se sont révélés capables d’enchaîner des mots de manière plus ou moins cohérente, de générer de jolies images et vidéos, et même de contribuer à la solution de certains problèmes scientifiques.
Les apports du deep learning ne sont donc pas anodins. Ils sont susceptibles d’avoir des impacts sociaux et économiques importants (à la fois positifs et négatifs).
Mais l’apprentissage profond ne fonctionne que pour un ensemble limité de problèmes. Altman le sait : « L’humanité a découvert un algorithme qui pourrait vraiment, véritablement apprendre n’importe quelle distribution de données (ou réellement les « règles » sous-jacentes qui produisent n’importe quelle distribution de données). »
C'est ce que fait l'apprentissage profond : c'est ainsi que cela fonctionne. C’est important, et c’est une technique qui peut s’appliquer à différents domaines, mais c’est loin d’être le seul problème qui existe.
Tous les problèmes ne sont pas réductibles à la correspondance de modèles. Tous les problèmes ne fournissent pas non plus les quantités massives de données dont l’apprentissage profond a besoin pour faire son travail. Ce n’est pas non plus ainsi que fonctionne l’intelligence humaine.
Un gros marteau à la recherche de clous
Ce qui est intéressant ici, c’est le fait qu’Altman pense que les « règles fondées sur les données » contribueront jusqu’à présent à résoudre tous les problèmes de l’humanité.
Il existe un adage selon lequel une personne tenant un marteau est susceptible de voir tout comme un clou. Altman tient désormais un gros marteau très coûteux.
L’apprentissage profond fonctionne peut-être, mais uniquement parce qu’Altman et d’autres commencent à réimaginer (et à construire) un monde composé de distributions de données. Il y a ici un danger que l’IA commence à limiter, plutôt qu’à étendre, les types de résolution de problèmes que nous effectuons.
Ce qui est à peine visible dans la célébration de l’IA par Altman, ce sont les ressources croissantes nécessaires également au fonctionnement de l’apprentissage profond. Nous pouvons reconnaître les grands progrès et les réalisations remarquables de la médecine moderne, des transports et des communications (pour n’en nommer que quelques-uns) sans prétendre que cela n’a pas entraîné un coût important.
Ils ont eu un coût à la fois pour certains humains – pour qui les gains du Nord global ont signifié des rendements décroissants – et pour les animaux, les plantes et les écosystèmes, impitoyablement exploités et détruits par la puissance extractive du capitalisme et de la technologie.
Bien qu’Altman et ses amis puissent rejeter ces opinions comme étant pinaillantes, la question des coûts est au cœur des prédictions et des préoccupations concernant l’avenir de l’IA.
Altman est certainement conscient que l'IA est confrontée à des limites, notant « qu'il reste encore beaucoup de détails à régler ». L’un d’eux est l’augmentation rapide des coûts énergétiques liés à la formation des modèles d’IA.
Microsoft a récemment annoncé un fonds de 30 milliards de dollars pour construire des centres de données IA et des générateurs pour les alimenter. Le géant technologique chevronné, qui a investi plus de 10 milliards de dollars dans OpenAI, a également signé un accord avec les propriétaires de la centrale nucléaire de Three Mile Island (tristement célèbre pour sa fusion en 1979) pour fournir de l’énergie à l’IA. Les dépenses effrénées suggèrent qu’il pourrait y avoir un soupçon de désespoir dans l’air.
Magie ou juste pensée magique ?
Compte tenu de l’ampleur de ces défis, même si nous acceptons la vision optimiste du progrès humain d’Altman jusqu’à présent, nous devrons peut-être reconnaître que le passé n’est peut-être pas un guide fiable pour l’avenir. Les ressources sont limitées. Les limites sont atteintes. La croissance exponentielle peut prendre fin.
Ce qui est le plus révélateur du message d’Altman, ce ne sont pas ses prédictions irréfléchies. Ce qui ressort plutôt, c’est son sentiment d’optimisme sans limite à l’égard de la science et du progrès.
Il est donc difficile d’imaginer qu’Altman ou OpenAI prennent au sérieux les inconvénients de la technologie. Avec tant de choses à gagner, pourquoi s’inquiéter de quelques problèmes insignifiants ? Alors que l’IA semble si proche du triomphe, pourquoi s’arrêter pour réfléchir ?
Ce qui émerge autour de l’IA est moins une « ère de l’intelligence » qu’une « ère de l’inflation » – gonflant la consommation de ressources, gonflant les valorisations des entreprises et, surtout, gonflant les promesses de l’IA.
Il est certainement vrai que certains d’entre nous font aujourd’hui des choses qui auraient semblé magiques il y a un siècle et demi. Cela ne veut pas dire que tous les changements intervenus entre cette époque et aujourd’hui ont été positifs.
L’IA a un potentiel remarquable dans de nombreux domaines, mais imaginer qu’elle détient la clé pour résoudre tous les problèmes de l’humanité – c’est aussi de la pensée magique.