L'avertissement de NVIDIA est désormais réel : la Chine a conçu une puce de vision par ordinateur extrêmement puissante

La technologie des transistors qui rendra possible l’IA générale est au four. Et cela changera radicalement le matériel

L’intelligence artificielle générale est un type de système automatique capable d’accomplir avec succès n’importe quelle tâche intellectuelle effectuée par des humains. Et ce n’est pas tout : ce type d’intelligence artificielle (IA), connu sous le nom d'AGI En raison de son nom en anglais (), vous devez également être capable de porter des jugements et de raisonner dans une situation d'incertitude basée sur l'apprentissage et la formation, ainsi que de communiquer en langage naturel, de planifier ou d'apprendre.

C'est la définition correcte de l'AGI avec laquelle mon collègue Javier Pastor a abordé l'article très complet qu'il a consacré à cette forme d'IA fin novembre dernier. Cependant, nous sommes également intéressés à connaître la définition proposée par OpenAI car elle introduit une nuance intéressante : l’intelligence artificielle générale est un système autonome qui dépasse la capacité humaine dans l’exécution de la plupart des tâches ayant une valeur économique.

Certains experts utilisent les termes « intelligence artificielle générale » et « intelligence artificielle forte » comme synonymes, mais d'autres préfèrent limiter cette dernière désignation aux seuls systèmes qui ont conscience de sa propre existence, et que, par conséquent, ils ont la capacité de développer leurs propres sentiments et expériences. Quoi qu’il en soit, il y a un autre débat sur la table qui mérite d’être étudié : il est possible que le matériel qui supporte ce type d’IA ambitieux soit radicalement différent de celui que nous utilisons aujourd’hui. C’est précisément ce que défend Extropic.

Les transistors que nous utilisons aujourd'hui ne sont pas idéaux pour « l'ère de l'IA »

Extropic est une startup américaine fondée par deux scientifiques spécialisés dans la recherche en intelligence artificielle : Guillaume Verdon et Trevor McCourt. Début décembre dernier, elle a annoncé le lancement d'un tour d'investissement de 14,1 millions de dollars visant à financer un projet extraordinairement ambitieux : le développement d'une nouvelle architecture matérielle spécialement conçue pour faire face de la manière la plus efficace possible aux problèmes artificiels. algorithmes de renseignement.

Et à la base de ce modèle matériel résident bien entendu les transistors. Selon Verdon et McCourt, la loi de Moore s'épuise parce que les transistors se rapprochent de l'échelle atomique, de sorte que le bruit thermique et d'autres effets de nature quantique peuvent ruiner leur capacité à fonctionner dans le domaine numérique. En outre, l’une des conséquences les plus évidentes du déploiement de grands centres de données pour les applications d’IA est que la consommation d’énergie explosece qui a conduit certaines entreprises à proposer d'héberger une centrale nucléaire à côté des plus grandes installations pour satisfaire tous leurs besoins énergétiques.

Ce nouveau paradigme informatique doit être capable de traiter des algorithmes d’IA probabilistes que les GPU actuels ne peuvent pas gérer.

Ces deux défis, les limitations imposées par les transistors actuels et les besoins croissants en énergie des grands centres de données, sont sur la table. Et pour les résoudre, selon Verdon et McCourt, il faut développer un tout nouveau paradigme informatique capable de garantir la mise à l’échelle du matériel pour l’IA au-delà des limites imposées par l’informatique numérique actuelle. De plus, les nouveaux accélérateurs pour l'IA doivent être beaucoup plus rapides et efficaces que les GPU actuels que NVIDIA, AMD, Huawei et les autres sociétés utilisent dans leurs grands centres de données. Et nous avons peut-être laissé pour la fin la chose la plus importante : ce nouveau paradigme informatique doit être capable de traiter des algorithmes d’IA probabilistes que les GPU actuels ne peuvent pas gérer.

L’avenir de l’intelligence artificielle générale dont nous avons parlé dans les premiers paragraphes de cet article est en jeu. Les idées que nous avons explorées jusqu'à présent sont compliquées, mais nous pouvons deviner ce que proposent les scientifiques d'Extropic plus précisément si l'on considère que la logique numérique que nous connaissons tous grâce à nos ordinateurs, smartphones et autres appareils est bonne pour les opérations déterministes, mais, curieusement, l'apprentissage automatique si important dans le domaine de l'intelligence artificielle est de nature probabiliste.

Pour comprendre avec une certaine précision de quoi nous parlons, il convient de rappeler que le déterminisme établit que le résultat d'un phénomène ou d'une opération est nécessairement déterminé par les conditions initiales. Cependant, le matériel adapté au traitement des algorithmes d’apprentissage automatique n’est pas déterministe ; C'est probabiliste. Cela signifie simplement que les données que l’algorithme nous renverra sont le résultat d’une distribution de probabilité.

Le matériel adapté au traitement des algorithmes d’apprentissage automatique n’est pas déterministe ; C'est probabiliste

Le cœur de la proposition d'Extropic respecte pleinement cette idée et la transfère à la base de sa plateforme matérielle. aux transistors. Dans cet article nous n'allons pas les étudier de manière aussi détaillée que possible pour ne pas compliquer excessivement le texte (si vous souhaitez connaître leur physique plus en profondeur, je vous suggère de jeter un oeil au super fil de discussion en X par le physicien André Côté).

Cependant, nous souhaitons au moins rappeler que la vitesse de commutation d'un transistor, qui identifie la vitesse à laquelle il peut basculer entre les états passant et bloqué, est conditionnée par la charge connectée au transistor, le courant et la tension. la polarisation, la structure interne du transistor, ses caractéristiques électriques naturelles, ou encore la température ambiante et sa capacité à dissiper l'énergie thermique sous forme de chaleur.


Transistor
Transistor

André Côté.

Cependant, la vitesse de commutation des transistors thermodynamiques sur lesquels travaillent les scientifiques d'Extropic n'est conditionnée que par le temps nécessaire à la chaleur ambiante pour agir sur eux et modifier leur état interne. Comme le dit à juste titre Côté, C'est beaucoup plus rapide et nécessite moins d'énergie La modification aléatoire de l'état d'un ensemble d'électrons induira un flux de courant net provenant de l'application d'une tension. Sur le papier, et c'est ce qui est vraiment important, les transistors thermodynamiques Extropiques sont bien plus efficaces que les transistors classiques, et, en plus, ils ont une vitesse de fonctionnement plusieurs millions de fois supérieure.

C’est le substrat physique sur lequel Guillaume Verdon et Trevor McCourt proposent de construire un tout nouveau paradigme informatique basé sur des puces thermodynamiques plus efficaces, plus rapides, au comportement éminemment probabiliste qui, en théorie, s’adaptent comme un gant au futur matériel d’IA. Une percée comme celle-ci a la capacité d’ouvrir la voie à l’intelligence artificielle générale, même si l’on ne sait pas encore quand cette forme très avancée d’IA sera prête. Elon Musk avait assuré en 2020 qu'il serait prêt en 2025, mais la plupart des scientifiques qui étudient dans ce domaine n'osent pas donner de date précise, la prédiction de Musk semble donc, une fois de plus, trop optimiste.

Images | C'est de l'ingénierie

Plus d'informations | Extropique

À Simseo | La Chine va devenir imbattable en matière d’intelligence artificielle. Ce n'est pas n'importe qui qui le dit, le PDG de Google le défend