L’intelligence artificielle générale est loin d’être inévitable, selon des chercheurs
L’IA va-t-elle bientôt surpasser le cerveau humain ? Si vous demandez aux employés d’OpenAI, de Google DeepMind et d’autres grandes entreprises technologiques, c’est inévitable. Cependant, des chercheurs de l’Université Radboud et d’autres instituts présentent de nouvelles preuves que ces affirmations sont exagérées et qu’il est peu probable qu’elles se concrétisent un jour. Leurs conclusions sont publiées dans Cerveau informatique et comportement aujourd'hui.
Créer une intelligence générale artificielle (AGI) avec une cognition au niveau humain est « impossible », explique Iris van Rooij, auteur principal de l'article et professeur de sciences cognitives computationnelles, qui dirige le département de sciences cognitives et d'IA de l'université Radboud.
« Certains soutiennent que l'AGI est possible en principe, que ce n'est qu'une question de temps avant que nous ayons des ordinateurs capables de penser comme le pensent les humains. Mais le principe ne suffit pas à le rendre réellement réalisable. Notre article explique pourquoi poursuivre cet objectif est une folie. une course et un gaspillage des ressources de l'humanité », déclare van Rooji.
Des possibilités infinies avec une puissance limitée
Dans leur article, les chercheurs présentent une expérience de pensée dans laquelle une AGI peut être développée dans des circonstances idéales.
Olivia Guest, co-auteure et professeure adjointe en sciences cognitives computationnelles à l'université Radboud, déclare : « Pour le bien de l'expérience de pensée, nous supposons que les ingénieurs auraient accès à tout ce dont ils pourraient avoir besoin, depuis des ensembles de données parfaits jusqu'à la machine la plus efficace. méthodes d'apprentissage possibles. Mais même si nous donnons à l'ingénieur AGI tous les avantages, tous les avantages du doute, il n'existe aucune méthode imaginable pour réaliser ce que promettent les grandes entreprises technologiques.
En effet, la cognition, ou la capacité d’observer, d’apprendre et d’acquérir de nouvelles connaissances, est incroyablement difficile à reproduire grâce à l’IA à l’échelle où elle se produit dans le cerveau humain.
« Si vous avez une conversation avec quelqu'un, vous vous souviendrez peut-être de quelque chose que vous avez dit quinze minutes auparavant. Ou un an auparavant. Ou que quelqu'un d'autre vous a expliqué il y a la moitié de votre vie. Une telle connaissance pourrait être cruciale pour faire avancer la conversation que vous avez. . Les gens le font de manière transparente », explique van Rooij.
« Il n'y aura jamais assez de puissance de calcul pour créer une AGI à l'aide d'un apprentissage automatique capable de faire la même chose, car nous manquerions de ressources naturelles bien avant même de nous en approcher », ajoute Olivia Guest.
Une connaissance critique de l’IA est essentielle
L'article est le fruit d'une collaboration entre des chercheurs de l'Université Radboud, de l'Université d'Aarhus, de l'Université de Bristol, de l'Université d'Amsterdam, de l'Université Memorial de Terre-Neuve et de l'Université de Bayreuth, réunissant les domaines des sciences cognitives, des neurosciences, de la philosophie et de l'informatique. Selon les chercheurs, le battage médiatique actuel autour de l’IA crée un risque de malentendu sur ce dont les humains et les systèmes d’IA sont capables.
Peu de gens réalisent que les sciences cognitives sont cruciales pour évaluer les affirmations sur les capacités de l’IA. « Nous surestimons souvent ce dont les ordinateurs sont capables, tout en sous-estimant largement ce dont est capable la cognition humaine », explique van Rooij.
« Il est important que nous aidions les gens à développer des connaissances critiques en IA, afin qu'ils disposent des outils nécessaires pour juger de la faisabilité des affirmations des grandes entreprises technologiques. Si une entreprise apparaît en prétendant avoir une machine qui, lorsque vous appuyez sur un bouton, crée la paix mondiale, alors vous vous en méfierez aussi.
« Alors pourquoi sommes-nous si prompts à croire aux promesses des grandes technologies motivées par le profit ? Nous voulons contribuer à une meilleure compréhension des systèmes d'IA, afin que chacun puisse porter un regard critique sur les promesses de l'industrie technologique. »