Les entreprises et les chercheurs en désaccord sur l'IA surhumaine

Les entreprises et les chercheurs en désaccord sur l’IA surhumaine

Le battage médiatique provient de dirigeants de grandes entreprises d’IA que l’intelligence informatique « forte » dépassera imminemment les humains, mais de nombreux chercheurs dans le domaine voient les affirmations comme un rotation marketing.

La croyance selon laquelle l’intelligence humaine ou bétlière – souvent appelée « intelligence générale artificielle » (AGI) – émergera des techniques actuelles d’apprentissage automatique alimente les hypothèses pour l’avenir, allant de l’hyperabundance livrée à la machine à l’extinction humaine.

« Les systèmes qui commencent à pointer vers AGI apparaissent », a écrit le chef d’Openai Sam Altman dans un article de blog le mois dernier. Dario Amodei d’Anthropic a déclaré que le jalon « pourrait survenir dès 2026 ».

Ces prédictions aident à justifier les centaines de milliards de dollars versés dans le matériel informatique et les fournitures d’énergie pour l’exécuter.

D’autres, cependant, sont plus sceptiques.

Le scientifique en chef de l’IA de Meta, Yann LeCun, a déclaré le mois dernier à l’AFP que « nous n’allons pas arriver à l’IA au niveau de l’homme en faisant réaliser des LLM » – les grands modèles de langue derrière les systèmes actuels comme Chatgpt ou Claude.

Le point de vue de LeCun semble soutenu par la majorité des universitaires dans le domaine.

Plus des trois quarts des répondants à une récente enquête de l’Association basée aux États-Unis pour l’avancement de l’intelligence artificielle (AAAI) ont convenu que la «réduction des approches actuelles» était peu susceptible de produire de l’AGI.

‘Genie hors de la bouteille’

Certains universitaires estiment que de nombreuses affirmations des entreprises, que les patrons ont parfois flanqué d’avertissements sur les dangers d’AGI pour l’humanité, sont une stratégie pour attirer l’attention.

Les entreprises ont « fait ces gros investissements, et ils doivent porter leurs fruits », a déclaré Kristian Kersting, un chercheur de premier plan à l’Université technique de Darmstadt en Allemagne et un boursier AAAI a choisi ses réalisations dans le domaine.

« Ils disent simplement: » C’est si dangereux que je ne peux que l’opérer, en fait j’ai moi-même peur, mais nous avons déjà laissé le génie hors de la bouteille, donc je vais me sacrifier en votre nom, mais alors vous dépendez de moi « . »

Le scepticisme parmi les chercheurs universitaires n’est pas total, avec des personnalités éminentes comme le physicien lauréat du Nobel Geoffrey Hinton ou le lauréat du prix Turing 2018 Yoshua Bengio avertissant des dangers de la puissante IA.

« C’est un peu comme » The Sorcerer’s Apprentice « de Goethe, vous avez quelque chose que vous ne pouvez soudainement plus contrôler », a déclaré Kersting – en préfabriquant à un poème dans lequel un Sorcerer potentiel perd le contrôle d’un balai qu’il a enchanté de faire ses tâches.

Une expérience de pensée similaire et plus récente est le «maximiseur de trombone».

Cette IA imaginée poursuivrait son objectif de fabriquer des trombones si résolus qu’il transformerait la Terre et, en fin de compte, tout l’affaire de l’univers en trombone ou en trombone, ce qui s’est d’abord débarrassé des êtres humains qu’il jugeait pourrait entraver ses progrès en le désactivant.

Bien qu’il ne soit pas «maléfique» en tant que tel, le maximiseur ne serait plus à court de ce que les penseurs sur le terrain appellent «l’alignement» de l’IA avec des objectifs et des valeurs humains.

Kersting a déclaré qu’il « pouvait comprendre » de telles craintes – tout en suggérant que « l’intelligence humaine, sa diversité et sa qualité sont si exceptionnelles qu’elle prendra beaucoup de temps, voire jamais » pour que les ordinateurs l’associent.

Il est beaucoup plus préoccupé par les dommages à court terme de l’IA déjà existante, comme la discrimination dans les cas où il interagit avec les humains.

‘La plus grande chose jamais’

Le Golfe apparemment Stark dans les perspectives entre les universitaires et les chefs de file de l’industrie de l’IA peut simplement refléter les attitudes des gens alors qu’ils choisissent un cheminement de carrière, a suggéré Sean O Heigeartaigh, directeur du programme AI: Futures and Responsibility à l’Université britannique de Cambridge.

« Si vous êtes très optimiste quant à la puissance des techniques actuelles, vous êtes probablement plus susceptible d’aller travailler dans l’une des entreprises qui mettent beaucoup de ressources pour essayer de le faire », a-t-il déclaré.

Même si Altman et Amodei peuvent être « assez optimistes » sur les échelles de temps rapides et AGI émerge beaucoup plus tard « , nous devrions y penser et le prendre au sérieux, car ce serait la plus grande chose qui se produirait jamais », a ajouté Heigeartaigh.

« Si c’était autre chose … une chance que les extraterrestres arrivent d’ici 2030 ou qu’il y aurait une autre pandémie géante ou quelque chose, nous aurions du temps pour la planifier. »

Le défi peut résider dans la communication de ces idées aux politiciens et au public.

Parler de super-ai « crée instantanément ce genre de réaction immunitaire … cela ressemble à de la science-fiction », a déclaré Oigeartaigh.