Microsoft se tourne vers le champ de la microfluidique pour refroidir les puces AI
L'une des principales raisons pour lesquelles les centres de données d'IA aspirent autant de puissance est la nécessité de refroidir les processeurs qui sont très chauds. Mais Microsoft Corp. essaie une solution possible: l'envoi de liquide directement via de minuscules canaux gravés dans les puces.
La technologie est appelée microfluidique, et elle est utilisée dans des systèmes prototypes dans des conditions de test de l'entreprise, a déclaré Husam Alissa, qui supervise la technologie des systèmes de Microsoft. La technique a été appliquée aux puces de serveurs utilisées pour les applications de cloud Office et les unités de traitement graphique qui gèrent les tâches d'intelligence artificielle, a-t-il déclaré.
Parce que le fluide de refroidissement est appliqué directement sur les puces, il peut être une température relativement élevée – jusqu'à 70 ° C (158F) dans certains cas – tout en étant toujours efficace. La société a démontré la technologie au microscope sur son campus à Redmond, Washington, affirmant que les tests jusqu'à présent ont montré des améliorations significatives par rapport aux approches conventionnelles. Le refroidissement de cette manière pourrait également permettre à Microsoft de développer des puces plus puissantes en les empilant les uns sur les autres.
Les nouvelles du projet ont pesé sur les actions de Vertiv Holdings Co., qui fabrique des systèmes de refroidissement pour les centres de données. Le stock a chuté jusqu'à 8,4%, marquant sa pire baisse intrajournalière en plus de deux mois.
La technologie fait partie d'un effort plus large pour personnaliser le matériel dans les centres de données de Microsoft, qui se développent rapidement. Au cours de la dernière année, la société a ajouté plus de 2 Gigawatts de capacité.
« Lorsque vous opérez à cette échelle, l'efficacité est très importante », a déclaré Rani Borkar, vice-président des systèmes matériels et des infrastructures du bras de centre de données Azure de Microsoft, dans une interview.
La nouvelle technologie de refroidissement peut également permettre à Microsoft de surchauffer délibérément les puces afin d'obtenir de meilleures performances. Appelé l'overclocking, cela peut être utile pour gérer de brèves augmentation de la demande. Par exemple, les équipes de conférences de Microsoft conférennent des expériences sur les pics d'utilisation vers l'heure et la demi-heure, car c'est à ce moment que la plupart des réunions commencent.
Au lieu d'utiliser plus de puces, la société pourrait simplement overclocker celles pendant quelques minutes, a déclaré Jim Kleewein, un boursier technique de Microsoft qui travaille avec l'équipe matérielle pour répondre aux besoins de ses produits logiciels de bureau.
L'entreprise déploie également plus largement des fibres cœurs creuses pour le réseautage afin d'augmenter les vitesses de transmission des données. Cette approche utilise l'air pour fournir des données plutôt que le noyau de verre traditionnel.
Au Microsoft Lab, un morceau de matériau de quelques pouces peut être étiré pour connecter plusieurs kilomètres, a déclaré Jamie Gaudette, qui travaille sur l'ingénierie du réseau cloud. Le géant du logiciel s'est associé à Corning Inc. et Heraeus Covantics pour stimuler la production du matériel.
Microsoft vise également à développer du matériel pour les puces mémoire, mais n'a encore dévoilé aucun plan, a déclaré Borkar.
« Il y a des choses qui se passent du côté de la mémoire, mais ils ne sont pas à un point où nous voulons en discuter », a-t-elle déclaré. « La mémoire est quelque chose que je ne peux pas ignorer. »
Un objectif clé de l'industrie est la mémoire à large bande passante, ou HBM, un composant utilisé dans l'informatique de l'intelligence artificielle qui est fabriquée par des sociétés comme Micron Technology Inc. en ce moment, la puce MAIA AI de Microsoft – sur place par Borkar – les pressions sur HBM disponibles dans le commerce. C'est une technologie vitale, a-t-elle déclaré.
« Aujourd'hui, HBM est la fin et le tout », a déclaré Borkar. « Que va-t-il se passer ensuite? Nous regardons tout cela. »
