La Chine prendra un pas en arrière-plan aux États-Unis en IA tant que vous n'avez pas de souvenirs HBM3. Huawei est sur le point de les obtenir

La Chine prendra un pas en arrière-plan aux États-Unis en IA tant que vous n'avez pas de souvenirs HBM3. Huawei est sur le point de les obtenir

La Chine a un problème très grave dans le domaine du développement matériel pour les applications d'intelligence artificielle (IA). À l'heure actuelle, les fabricants de puces de mémoire chinois ne produisent pas de solutions capables de rivaliser avec les souvenirs les plus avancés que les entreprises sud-coréennes fabriquent Samsung et SK Hynix, ou la technologie American Micron. GPUS pour IA travaillent côte à côte avec des puces mémoire HBM (). En fait, ses performances sont largement conditionnées par ces souvenirs.

SK Hynix, Samsung et Micron fabriquent à grande échelle, bien qu'avec un succès différent, des souvenirs HBM3E à 12 couches. Les deux entreprises sud-coréennes produiront de grandes puces HBM4 à l'échelle au cours du deuxième semestre de 2025, et Micron sera la production de MBM Memories.

Et il semble que ce décalage soit sur le point de disparaître. La semaine dernière, le temps de titres moyens de l'État chinois a révélé que Huawei était sur le point de présenter une avancée technologique qui a poursuivi pour réduire la dépendance en Chine à l'égard des puces mémoire HBM de l'étranger. Et aujourd'hui, Digitimes Asia a collecté des nouvelles très importantes: cette entreprise teste déjà les premières puces HBM3 entièrement fabriquées en Chine. Comme nous venons de le voir, cette étape est cruciale pour ce pays asiatique, car il vous permet probablement d'accéder à une technologie qui n'est pas actuellement à votre portée.

Huawei ne se repose pas

Huawei investit plus de 25 000 millions de dollars par an dans le développement de son matériel pour l'IA, il ne faudra donc pas longtemps pour correspondre aux avantages des GPU produits par NVIDIA ou AMD. Jusqu'à présent, il avait deux talons d'Achille: son incapacité à fabriquer ses puces à l'aide de l'équipement de photolithographie ultraviolet extrême (UVE) produit par la société néerlandaise ASML et sa difficulté d'accéder aux circuits de mémoire HBM intégrés fabriqués à l'étranger. Ce dernier cessera d'être un problème.

Huawei investit plus de 25 000 millions de dollars par an dans le développement de son matériel pour l'IA

Et, comme nous l'avons expliqué la semaine dernière, lors de la célébration à Shanghai (Chine) du Forum des applications et au développement du raisonnement financier 2025 Huawei a annoncé un algorithme appelé UCM () qui, selon cette société, est en mesure d'accélérer considérablement l'inférence dans les grands modèles de l'IA. Une note pertinente: l'inférence est largement le processus de calcul effectué par les modèles de langage dans le but de générer les réponses qui correspondent aux demandes qu'ils reçoivent.

Pour atteindre son objectif, l'algorithme UCM affiche une stratégie très ingénieuse: décidez du type de mémoire qu'il est nécessaire de stocker chaque données en prenant comme indicateur fondamental les exigences de latence. En pratique, cet algorithme se comporte comme un cache gigantesque qui garantit que chaque données ira à la bonne mémoire, y compris HBM3, dans le but de minimiser la latence pendant l'inférence. S'il s'agit d'une données très souvent utilisées, elle sera stockée dans une mémoire très rapide, comme HBM3. Selon Huawei, cette technologie est en mesure de réduire la latence de l'inférence de 90%. Fait intéressant, cette entreprise prévoit de faire l'algorithme ouvert de l'UCM Source en septembre.

Plus d'informations | Digitimes Asia

Dans Simseo | Nvidia doit faire face à la méfiance absolue envers plusieurs législateurs américains. Son plan en Chine est en danger

Dans Simseo | Les États-Unis veulent mettre fin aux jetons pour les Chinois vendus à l'étranger. Et la Chine sait comment se défendre