L’un des plus grands experts en IA est clair sur ce qui se passera si nous créons une IA super-intelligente : « Cela nous tuera tous »
La semaine dernière, le Future of Life Institute (FLI) a publié une lettre ouverte avec une demande forte : suspendre le développement et la formation de nouvelles intelligences artificielles pendant six mois. La lettre était signée par des personnalités comme Elon Musk, et elle montrait une grande inquiétude face à cette évolution frénétique sans penser aux conséquences. Or un expert dans ce domaine va plus loin et affirme qu’il ne suffit pas de suspendre ce développement.
Il faut stopper complètement le développement de l’IA. C’est ce que pense Eliezer Yudkowsky, directeur du Machine Intelligence Research Institute. Cet expert étudie le développement de l’Intelligence Générale Artificielle — et ses dangers — depuis 2001 et est considéré comme l’un des fondateurs de ce domaine de recherche. Vient de paraître un éditorial dans Time dans lequel il soulève que le moratoire de six mois est mieux que rien, mais que la lettre du FLI « demande trop peu » pour résoudre la menace qui nous est posée.
Yudkowsky explique comment nous sommes dans un domaine inexploré dont les limites sont inconnues :
On ne peut pas prévoir à l’avance ce qui va se passer et quand, et il semble désormais possible d’imaginer qu’un laboratoire de recherche puisse franchir des lignes critiques sans le savoir.
Une IA super intelligente nous tuera tous. Bien qu’il y ait eu des analyses, telles que son propre— Concernant les risques, pour cet expert la conclusion de ses réflexions sur le développement de l’IA est claire et percutante :
Le résultat le plus probable de la construction d’une intelligence artificielle surhumaine, dans tout ce qui ressemble à distance aux circonstances actuelles, est que littéralement tout le monde sur Terre mourra. Pas comme dans « peut-être qu’il y a une possibilité lointaine », mais comme dans « c’est évidemment ce qui va arriver ».
Nous ne sommes pas prêts à survivre à une super IA. Yudkowsky pense que nous ne pouvons pas survivre à quelque chose comme ça sans précision et préparation. Sans eux, explique-t-il, une IA apparaîtra qui « ne fait pas ce que nous voulons et ne se soucie pas de nous ou des êtres vivants qui ressentent en général ». Il serait nécessaire d’imprégner ce sentiment et cette préoccupation pour ces vies dans l’IA, mais actuellement « nous ne savons pas comment le faire ». Face à une telle IA et dans la situation actuelle, le combat serait vain. Ce serait « comme si le 11e siècle essayait de combattre le 21e siècle ».
GPT-5, AGI et conscience de soi. Yudkowsky explique en outre comment « nous ne savons pas comment déterminer si les systèmes d’IA sont conscients d’eux-mêmes » parce que nous ne savons pas comment ils pensent et développer leurs réponses. En fait, il soutient que si le saut entre GPT-4 et un hypothétique GPT-5 est de la même ampleur que celui de GPT-3 à GPT-4, « nous ne pouvons plus dire à juste titre que cette IA n’est probablement pas auto- conscient. » . On parle déjà de GPT-5 comme d’une intelligence artificielle générale indiscernable de l’intelligence humaine.
Vous devez arrêter complètement le développement de l’IA.. Pour cet expert, la seule solution est d’arrêter complètement la formation des futures IA. « Il doit être indéfini et mondial. Il ne peut y avoir d’exceptions, y compris les gouvernements et les militaires. » Il éteindrait tous les grands groupes des GPU sur lesquels la formation à l’IA a lieu, limiterait la consommation d’énergie pouvant être utilisée pour les systèmes d’IA, et surveillerait même les ventes de cartes graphiques. Il a même parlé « d’être prêt à risquer un échange nucléaire », ce qui a incité une grande controverse puis clarifié dans un long message sur Twitter.
Il faudra des décennies pour être prêt. Yudkowsky rappelle qu’il nous a fallu plus de 60 ans depuis le début de cette discipline pour en arriver là, et cela pourrait prendre au moins 30 ans pour être prêts pour le développement sûr de l’IA. Sa conclusion est tout aussi décisive.
Nous ne sommes pas prêts. Nous ne sommes pas sur la bonne voie pour être beaucoup mieux préparés de si tôt. Si nous continuons ainsi, nous mourrons tous, y compris les enfants qui n’ont pas choisi cela et n’ont rien fait de mal. tuons-le [el desarrollo de IAs].
il est possible qu’à un moment donné, il mérite le prix Nobel de la paix pour cela – je continue de penser que les délais courts et le décollage lent sont probablement le quadrant le plus sûr des délais courts/longs et de la matrice de décollage lent/rapide.
—Sam Altman (@sama) 3 février 2023
Le PDG d’OpenAI n’est pas d’accord. Le discours de Yudkowsky n’est pas nouveau : il avertit du danger de développer ce type d’IA depuis le début des années 2000. Sam Altman, PDG d’OpenAI —la société responsable du développement de ChatGPT ou GPT-4— n’est pas d’accord avec ces déclarations et il connaît très bien Yudkowski. Dans ce selfie Récemment, par exemple, elle a posé avec lui et le partenaire de Musk, le chanteur Grimes.
Pas à pas? comme indiqué à Bloomberg Avant même la publication de l’éditorial du Time, Altman parlait sur Twitter de ce futur développement d’une intelligence artificielle générale :
Il y aura des moments effrayants alors que nous nous dirigeons vers des systèmes de niveau AGI et des perturbations importantes, mais les avantages peuvent être si stupéfiants qu’il vaut la peine de surmonter les grands défis pour y arriver.
Altman lui-même a reconnu dans un entretien avec ABC News cette préoccupation pour le développement de ces intelligences artificielles. « Nous devons être prudents. Je pense que les gens devraient être heureux que nous soyons un peu terrifiés à ce sujet. » Même ainsi, a-t-il précisé, ses développements « attendent que quelqu’un leur donne son avis. C’est un outil hautement contrôlé par l’être humain ».
En souvenir d’Oppenheimer. Dans une interview dans le New York Times L’éditeur a rappelé comment, lors d’une précédente réunion en 2019, Altman avait cité Robert Oppenheimer, l’un des principaux responsables de la création de la bombe atomique. Puis il a dit que « la technologie arrive parce qu’elle est possible ». Pour lui, expliqua-t-il, l’intelligence artificielle était aussi inévitable maintenant que le projet Manhattan l’était alors.
Et dans OpenAI, ils promettent un développement sûr et responsable. C’est le message de une des sections de votre site web. Il explique comment « les systèmes d’IA font désormais partie de la vie quotidienne. La clé est de s’assurer que ces machines sont alignées sur les intentions et les valeurs humaines ». Le message est le suivant, mais la vérité est que, bien qu’ils aient initialement partagé ouvertement des informations sur leurs progrès, l’entreprise est devenue beaucoup plus prudente dans ce qu’elle révèle sur ses projets.
Mais ils ne savent pas comment le faire (et ils ont des secrets). Les gestionnaires d’OpenAI eux-mêmes ils expliquent sur leur blog comment ils proposent un développement « itératif et empirique » pour aller pas à pas, mais reconnaissent que cet « alignement » de l’intelligence artificielle générale est complexe à réaliser, ce que Yudkowsky lui-même souligné en 2018.
Image: prédécesseur | Tech Crunch
À Simseo | Copilot, ChatGPT et GPT-4 ont changé à jamais le monde de la programmation. C’est ce que pensent les programmeurs