Google Cloud a annoncé mercredi le lancement de sa huitième génération de puces AI conçues sur mesure, appelées unités de traitement tensoriel (TPUs), qui seront désormais divisées en deux modèles distincts. La première, baptisée TPU 8t, est destinée à l’entraînement des modèles, tandis que la seconde, le TPU 8i, cible le traitement en continu des modèles, aussi appelé inférence. Cette évolution vise à optimiser la performance pour chaque étape clé de l’intelligence artificielle, en proposant des améliorations significatives par rapport aux générations précédentes.
Selon Google, ces nouvelles TPUs offrent des performances impressionnantes : jusqu’à trois fois plus rapides pour l’entraînement des modèles d’IA, une amélioration de 80 % du rapport performance-prix, ainsi qu’une capacité à faire fonctionner plus d’un million de TPUs en cluster. L’objectif est de fournir aux clients plus de puissance de calcul tout en réduisant drastiquement la consommation d’énergie et les coûts. Google insiste sur le fait que ces composants, nommés TPUs (et non GPU), ont été conçus pour une efficacité maximale grâce à leur faible consommation d’énergie, initialement dérivée du nom « Tensor ».
Google ne cherche pas encore à concurrencer frontalement Nvidia, mais à compléter son offre existante avec des systèmes hybrides, en maintenant notamment l’accès à la dernière génération de GPU de Nvidia, Vera Rubin, prévue pour cette fin d’année.
Cependant, l’enjeu pour Google est également celui de la collaboration. La société a annoncé travailler en partenariat avec Nvidia pour améliorer l’intégration de ses systèmes en réseau, notamment par le développement d’une technologie de connexion logicielle appelée Falcon, créée et open-sourcée par Google en 2023 dans le cadre du projet Open Compute. Cette synergie permettrait à Google de proposer une infrastructure hybride où TPUs et GPU coexistent, renforçant ainsi sa position de fournisseur d’infrastructure AI sans pour autant se défaire totalement de Nvidia.
Malgré ces avancées, certains analystes restent sceptiques quant à la capacité de Google à supplanter Nvidia à court terme. Patrick Moorhead, un expert en marché des puces, a par le passé plaisanté en déclarant que les TPU de Google pourraient être une menace pour Nvidia et Intel, mais la situation a évolué depuis 2016. La puissance de Nvidia, avec une capitalisation boursière proche de 5 000 milliards de dollars, témoigne de sa domination durable dans le secteur. Si Google peut renforcer sa part de marché grâce à ses nouvelles TPUs, il restera probablement en collaboration étroite avec Nvidia, plutôt que dans une compétition directe.
Aujourd’hui, le marché des puces AI reste dominé par Nvidia, mais la stratégie de Google et des autres géants du cloud pourrait, à terme, modifier la donne en favorisant une coexistence plus flexible entre différents acteurs technologiques.
En résumé, Google Cloud déploie une stratégie d’innovation autour de ses TPUs pour améliorer ses offres dans le domaine de l’intelligence artificielle, tout en renforçant ses partenariats avec Nvidia pour maintenir une infrastructure solide et complémentaire. La dynamique concurrentielle dans le secteur des puces AI reste donc fluide, avec des implications importantes pour l’avenir de l’informatique dématérialisée et de l’IA à grande échelle.
