Google vient de lever le voile sur sa puce d’IA de septième génération, baptisée Ironwood. Ce nouveau processeur marque une étape dans la stratégie d’infrastructure du géant. Il se concentre sur l’inférence, un segment clé du calcul qui permet aux modèles d’intelligence artificielle de générer des réponses en temps réel, que ce soit dans les chatbots ou d’autres applications.
Fruit de plus d’une décennie de recherche et de développement, Ironwood s’inscrit dans la continuité des TPU (Tensor Processing Units) maison de Google. Ils sont exclusivement disponibles via sa plateforme cloud ou en usage interne. À travers cette évolution, Google cherche à affirmer une alternative aux solutions dominantes du marché, notamment celles proposées par NVIDIA.

Amin Vahdat, vice-président en charge des systèmes, explique qu’Ironwood intègre désormais des fonctions qui, auparavant, reposaient sur des composants séparés. Cette unification permet une meilleure gestion de la mémoire et une montée en puissance des capacités de traitement. Les chiffres parlent d’eux-mêmes : jusqu’à 9 216 puces peuvent être regroupées pour former un seul pod, délivrant une puissance cumulée de 42,5 Exaflops. À titre de comparaison, cela dépasse largement les capacités annoncées pour El Capitan, un des supercalculateurs les plus avancés à ce jour.
Côté spécifications, chaque puce Ironwood dispose de 192 Go de mémoire HBM, contre 32 Go pour la génération précédente, Trillium. La bande passante mémoire grimpe à 7,2 Tbit/s, tandis que l’interconnexion interpuce atteint 1,2 Tbit/s bidirectionnelle. En termes d’efficacité énergétique, Google annonce un rapport performance/watt doublé par rapport à Trillium.
Ironwood joue également un rôle central dans le déploiement des modèles Gemini, la nouvelle famille d’intelligences artificielles de Google. Le nom du fabricant qui assemble ces puces reste toutefois inconnu pour le moment.