est la vitesse à laquelle ils le considèrent
Meta n’a pas jeté l’éponge avec ses puces MTIA (Meta Training and Inference Accelerators). Et même s'ils n'avaient pas tout pour leur côté, arrêter de dépendre de NVIDIA est un bonbon bien juteux pour tirer des conclusions hâtives. Pour cette raison, ils ont présenté une feuille de route de quatre nouvelles puces avec lesquelles l'entreprise entend accélérer à la fois ses systèmes de recommandation de contenu et ses capacités d'IA générative. La première puce est désormais opérationnelle ; Les trois autres arriveront avant fin 2027. Vous trouverez ci-dessous tous les détails.
Dépendance. Depuis des années, Meta s'appuie presque entièrement sur NVIDIA et AMD pour alimenter ses centres de données. Le développement de notre propre silicium est compliqué, mais s’il est réalisé, cela peut constituer un pari financier et stratégique très réussi en ces temps.
Selon les déclarations de son vice-président de l'ingénierie, Yee Jiun Song, concevoir ses propres puces permet à l'entreprise « d'éliminer ce dont nous n'avons pas besoin », ce qui se traduit directement par une réduction des coûts. À cela s’ajoute une plus grande indépendance vis-à-vis d’éventuelles variations de prix ou restrictions d’approvisionnement.
C'est exactement ce que vous avez annoncé. Les quatre nouvelles puces sont les MTIA 300, 400, 450 et 500. Chacune a une utilisation différente :
- Le MTIA 300 est déjà en production et est destiné à entraîner les algorithmes qui décident du contenu que voient les utilisateurs de Facebook et d'Instagram.
- Le MTIA 400 (connu en interne sous le nom d'Iris) a terminé les tests en laboratoire et est en route vers les centres de données. Meta affirme offrir des performances « compétitives par rapport aux principaux produits commerciaux », selon son communiqué officiel.
- Le MTIA 450 (Arke) doublera la mémoire à haut débit par rapport au 400 et est prévu pour début 2027.
- Le MTIA 500 (Astrid), le plus avancé, arrivera mi-2027 et intégrera, selon l'entreprise, des améliorations dans le traitement des données de faible précision.
Les puces sont fabriquées par TSMC, le plus grand producteur mondial de semi-conducteurs, et ont été développées en collaboration avec Broadcom sur l'architecture ouverte RISC-V.
Le rythme est ce qui frappe le plus. Ce qui est inhabituel, ce n'est pas seulement que Meta fabrique ses propres puces, mais aussi la vitesse à laquelle elle envisage de le faire. Le cycle habituel dans l'industrie est d'un ou deux ans entre les générations. Meta vise à publier de nouvelles versions tous les six mois. « Le rythme de l'évolution de l'IA est si rapide que nous souhaitons toujours disposer de la puce la plus avancée disponible lorsque nous en avons besoin », a déclaré Song. Cette cadence accélérée est possible, selon l'entreprise, grâce à une conception modulaire qui permet de réutiliser les composants entre les générations.
Cela ne remplace pas NVIDIA. Il est important de ne pas perdre de vue le contexte. Meta reste l’un des plus gros acheteurs de GPU du marché. Il y a quelques semaines à peine, il a signé des accords de plusieurs millions de dollars avec NVIDIA et AMD pour fournir des puces pour les prochaines années, et a également conclu un accord pour louer de la capacité de calcul sur les puces Google, comme le partage Wired.
Les puces MTIA sont conçues pour des tâches spécifiques et internes (systèmes d'inférence et de recommandation), et non pour la formation de grands modèles de langage. Cette stratégie est donc complémentaire à vos projets de puces avec NVIDIA ou AMD.

Il ne faut pas non plus oublier que Meta a récemment dû abandonner sa puce de formation la plus ambitieuse, connue en interne sous le nom d'Olympus, après que le projet soit devenu compliqué dans la phase de conception, selon The Information. Susan Li, directrice financière de Meta, a confirmé lors d'un événement organisé par Morgan Stanley que l'entreprise continue d'avoir pour objectif de développer des processeurs capables de former des modèles, mais sans donner plus de détails.
Et maintenant quoi. Le véritable test de ce pari viendra lorsque les puces seront déployées à grande échelle. Le défi actuel est de garantir l'approvisionnement en mémoire HBM face à une crise de la RAM qui affecte l'ensemble du secteur technologique. Song lui-même a reconnu à CNBC que la société « est absolument préoccupée » par cette situation, bien qu'il ait déclaré avoir assuré l'approvisionnement pour ses projets actuels. À long terme, nous verrons si Meta peut réaliser quelque chose de similaire à ce que Google a fait avec ses TPU.
Image de couverture | Mariia Chalabaïeva et Meta
À Simseo | OpenClaw a provoqué un véritable séisme médiatique en Chine. Le gouvernement a empêché ses fonctionnaires de l'utiliser
