La « loi de Huang » a mis en jeu la « loi de Moore » et anticipe le règne serein de NVIDIA
La « loi de Moore » est remise en question depuis un certain temps. Le développement de la technologie de lithographie a ralenti à mesure que les fabricants de semi-conducteurs se rapprochent des limites physiques imposées par le silicium. Et c’est précisément le pilier sur lequel il repose la « loi » postulée par Gordon Moore, co-fondateur d’Intel, en 1965. Cet ingénieur et physicien américain respecté a publiquement nié à plusieurs reprises que l’observation qu’il avait faite cette année-là ait reçu le statut de loi.
Et en réalité, ce qu’il a fait était une prédiction résultant d’une observation empirique, et non une loi appuyée par une étude scientifique minutieuse. Pourtant, depuis de nombreuses décennies, son observation s’impose comme la règle d’or utilisée par l’industrie microélectronique pour prédire le rythme de son développement à moyen et court terme.
Ce que Moore avait perçu il y a un peu plus de cinquante ans, c’est que le nombre de transistors dans les circuits intégrés doublerait chaque année et, en même temps, leur coût relatif diminuerait considérablement. Dix ans plus tard, il modifie son constat en augmentant le délai nécessaire pour que se réalise ce développement de la technologie d’intégration, le placer dans 24 mois, et pas dans un an. Et depuis lors, ses prévisions se sont réalisées avec une précision plus que raisonnable.
La « loi de Huang » dessine à l’horizon un avenir dans lequel NVIDIA et l’IA régneront
La « loi de Huang » fait référence à Jensen Huang, le PDG de NVIDIA, mais ne porte pas son nom. La personne responsable du nom de ce postulat est Tekla S. Perry, rédactrice en chef chez IEEE Spectrum, et elle l’a formulé dans l’article qu’elle a publié le 2 avril 2018 dans le but de décrire le développement très rapide que connaissaient déjà les processeurs graphiques. . Bien entendu, il est juste de rappeler que le véritable responsable de la vulgarisation de la « loi Huang » est Christopher Mims, chroniqueur au Wall Street Journal.
Tekla S. Perry a proposé cette « loi » après avoir assisté à une conférence de Jensen Huang.
Quoi qu’il en soit, la raison pour laquelle Tekla S. Perry a décidé de nommer cette « loi » après avoir assisté à une conférence donnée par Jensen Huang était que la « loi de Moore » ne semblait plus décrire correctement le développement vertigineux que connaissaient les GPU, notamment dans le domaine de l’intelligence artificielle. C’est en fait l’objet de la prédiction du fondateur de NVIDIA. Le graphique que nous publions sous ces lignes reflète très clairement de quoi nous parlons. Et ça impressionne.
Le titre du graphique contient l’idée la plus importante : au cours de la décennie entre 2012 et 2022, les performances des puces NVIDIA pour les applications d’intelligence artificielle ont été multipliées par 1 000. Rien de moins que 1 000. C’est certain; La « loi de Moore » ne reflète pas adéquatement cette évolution rapide. Il est cependant important de garder à l’esprit que l’impact du développement des procédés lithographiques n’explique pas cette évolution rapide.
Au cours de la décennie entre 2012 et 2022, les performances des puces NVIDIA pour les applications d’intelligence artificielle ont été multipliées par 1 000
Bill Dally, l’un des plus hauts responsables de NVIDIA dans le domaine scientifique, a donné il y a à peine deux semaines une conférence très intéressante dans laquelle il a expliqué le rôle crucial que joue innovation dans le domaine de la microarchitecture soutenir le développement des GPU pour l’intelligence artificielle. Il ne suffit plus de s’accrocher à l’amélioration de la lithographie et à la qualité des transistors ; Soit vous affinez l’architecture de vos puces, soit vous restez bloqué.
Dally est prudent et ne garantit donc pas que d’ici 2032 la capacité des GPU augmentera à nouveau de 1 000. En fin de compte, si l’on est rigoureux, il ne faut pas oublier que ni la « loi de Huang » ni la « loi de Moore » ne sont en réalité des lois. Ce ne sont que des prévisions raisonnablement fiables qui ne dureront pas éternellement.