Amazon a annoncé mardi la sortie d’un nouveau produit baptisé « AI Factories », destiné à permettre aux grandes corporations et aux gouvernements d’héberger leurs systèmes d’intelligence artificielle directement dans leurs centres de données. Selon AWS, ce dispositif repose sur un partenariat stratégique avec Nvidia, combinant la puissance des technologies des deux géants pour offrir une solution d’IA sur site, répondant aux préoccupations croissantes en matière de souveraineté des données.
Ce « AI Factory » offre aux clients la possibilité de fournir leur propre alimentation électrique et infrastructure physique tout en intégrant les solutions IA sans avoir à partager leur hardware avec des fournisseurs tiers. L’objectif est de garantir que les données restent sous contrôle strict, évitant ainsi qu’elles ne soient transférées vers des modèles ou des centres de traitement affiliés à des concurrents ou des États étrangers. En ce sens, cette offre répond à une demande croissante pour des solutions hybrides et privées dans un contexte de préoccupations géopolitiques et de protection des données.
Ce partenariat avec Nvidia, utilisant notamment les GPU Blackwell ou le nouveau chip Trainium3, illustre la volonté d’AWS et Nvidia de fournir des systèmes d’IA entièrement contrôlés par leurs clients, mêlant hardware propriétaire, logiciel et services cloud.
Les technologies déployées dans ces « AI Factories » combinent un large éventail d’outils : de l’infrastructure réseau et de stockage d’AWS, aux plateformes de gestion et de formation de modèles comme Amazon Bedrock et SageMaker. La solution offre une flexibilité maximale, permettant notamment d’intégrer ces systèmes avec d’autres services cloud d’AWS et de customiser l’approche selon les besoins spécifiques de chaque utilisateur. Cette offre s’inscrit également dans un contexte où d’autres géants du cloud, comme Microsoft, déploient des initiatives similaires.
En effet, Microsoft a récemment dévoilé sa propre série de « AI Factories » en octobre, ciblant ses centres de données mondiaux pour faire fonctionner des charges de travail d’OpenAI. La société a également indiqué qu’elle investit dans des centres de données locaux, notamment à Wisconsin et en Géorgie, afin de répondre aux enjeux de souveraineté des données. Bien que Microsoft propose « Azure Local », sa solution hardware managée, il reste clair que ces investissements massifs dans les centres de données privés et hybrides évoquent le retour à une logique basée sur des infrastructures internes, comme cela se pratiquait à la fin des années 2000.
Ce retournement vers d’importants investissements en centres de données privés et hybrides montre à quel point l’IA bouleverse la stratégie des géants du cloud, en valorisant la souveraineté et le contrôle au détriment d’une dépendance accrue aux services cloud publics.
