Centre de données Google1

Google affirme que ses puces Tensor sont plus rapides et plus efficaces

Nous vivons une époque extrêmement intéressante. Il y a bien longtemps que l’on n’a pas assisté à l’émergence d’une technologie aussi prometteuse, et en même temps inquiétante, que la intelligence artificielle. Bill Gates, pour ne citer qu’un exemple, parle du début d’une « nouvelle ère » et pointe même une révolution qui affectera diverses industries. Elon Musk, pour sa part, appelle à une pause dans le développement des systèmes les plus puissants.

Au cours de la dernière fois, nous avons appris que NVIDIA était devenu un acteur clé dans le monde de l’intelligence artificielle. Les puces du fabricant américain, qui offrent d’excellentes performances, densité de calcul et évolutivité, ont été utilisées pour former des modèles célèbres tels que DALL·E et GPT-4. Mais cette entreprise n’est pas la seule du secteur. Google a aussi ses puces, et assure qu’elles sont meilleures que celles de NVIDIA.

Google fabrique également du matériel pour l’intelligence artificielle

Le géant de Mountain View a présenté ses propres unités de traitement conçues pour les centres de données d’intelligence artificielle en 2016. Nous parlons de la TPU Google (Cloud Tensor Processing Unit pour son sigle en anglais), qui se sont améliorés au fil des années et sont déjà utilisés dans 90% des tâches d’apprentissage automatique de l’entreprise et sont cruciaux pour le fonctionnement du moteur de recherche et de YouTube.

Centre de données Google

De plus, à l’instar d’Azure de Microsoft (qui est alimenté par du matériel NVIDIA), Google Cloud permet aux entreprises et organisations extérieures de former leurs modèles d’IA à l’aide de son infrastructure cloud. En d’autres termes, au lieu de mettre en place leurs propres centres de données avec du matériel très coûteux et difficile à trouver, ils louent la puissance de calcul nécessaire à ceux de ces entreprises.

Sans aller plus loin, comme expliqué dans une publication officiellele célèbre générateur d’images textuelles Midjourney, qui dans sa version la plus récente nous a surpris par sa précision et son réalisme, a été entraîné à l’aide de Infrastructure Google Cloud. En d’autres termes, les puces de l’entreprise dirigée par Sundar Pichai ont joué un rôle de premier plan dans l’un des modèles d’IA les plus célèbres du moment.

Alors, les puces de Google sont-elles vraiment bonnes ? selon un article scientifique publié ce mercredi par l’entreprise, les Google TPUv4 lancés en 2021 sont jusqu’à 1,7 fois plus rapides et 1,9 fois plus performants en termes de consommation d’énergie que les NVIDIA A100 lancés en 2020. Les comparaisons, selon les auteurs de l’article, correspondent à des tâches d’entraînement Modèles IA de même taille.

La nouveauté de Midjourney est la "reverse prompting' : vous lui donnez une image, elle vous indique avec quelle invite elle a été créée

Il convient de noter que si la plupart des centres de données actuels sont alimentés par des puces NVIDIA A100, les entreprises migrent déjà vers les NVIDIA H100, qui améliorent les performances.performances de son prédécesseur. Ceux de Mountain View n’ont pas dit s’ils travaillaient sur une nouvelle version de leurs TPU, bien qu’ils le fassent vraisemblablement pour ne pas être laissés pour compte dans la course à l’intelligence artificielle.

Images: (1, 2, 3)

A Simseo : « Ça ne résoudra pas les défis » : Bill Gates réagit aussi à la lettre d’Elon Musk sur le risque de l’IA