Les contrats d’infrastructure à un milliard de dollars alimentant l’essor de l’IA

Illustration générée par intelligence artificielle

Il faut beaucoup de puissance de calcul pour faire fonctionner un produit d’IA. Alors que l’industrie technologique s’efforce d’exploiter la puissance des modèles d’IA, une course parallèle se déroule pour construire l’infrastructure qui les alimentera. Lors d’un récent appel d’earnings, le PDG de Nvidia, Jensen Huang, a estimé qu’entre 3 000 et 4 000 milliards de dollars seraient dépensés pour l’infrastructure de l’IA d’ici la fin de la décennie, une grande partie de cet argent provenant des entreprises d’IA. Ce faisant, elles exercent une pression immense sur les réseaux électriques et poussent la capacité de construction de l’industrie à ses limites. Nous avons rassemblé tout ce que nous savons sur les plus grands projets d’infrastructure en matière d’IA, y compris les dépenses majeures de Meta, Oracle, Microsoft, Google et OpenAI. Nous continuerons à le mettre à jour au fur et à mesure que le boom se poursuit et que les chiffres augmentent encore.

Le premier investissement de 1 milliard de dollars de Microsoft dans OpenAI en 2019 est largement considéré comme le coup d’envoi de l’essor contemporain de l’IA. Cet accord historique a fait de Microsoft le fournisseur de cloud exclusif d’OpenAI, et à mesure que les exigences de la formation des modèles devenaient plus intenses, une part croissante de l’investissement de Microsoft a commencé à se traduire par des crédits cloud Azure plutôt que par des liquidités. Cette alliance a profité à chaque partie : Microsoft a pu revendiquer une augmentation des ventes d’Azure, tandis qu’OpenAI a obtenu un soutien financier pour son plus gros poste de dépense. Microsoft a progressivement porté son investissement à près de 14 milliards de dollars. Cependant, les relations entre les deux entreprises se sont récemment complexifiées, OpenAI annonçant en janvier qu’elle ne s’appuierait plus exclusivement sur le cloud de Microsoft, tout en poursuivant des partenariats avec d’autres fournisseurs.

Bien que des projets d’IA ambitieux continuent de se développer, des doutes émergent quant à leur viabilité à long terme.

Le 30 juin 2025, Oracle a révélé dans un dépôt auprès de la SEC avoir signé un contrat de services cloud de 30 milliards de dollars avec un partenaire non divulgué ; ce montant dépasse les revenus cloud de l’entreprise pour l’ensemble de l’année fiscale précédente. Par la suite, OpenAI a été confirmé comme étant ce partenaire, plaçant Oracle aux côtés de Google comme l’un des hôtes post-Microsoft d’OpenAI. Quelques mois plus tard, le 10 septembre, Oracle a annoncé un accord de cinq ans pour une puissance de calcul de 300 milliards de dollars, à commencer en 2027. Cette révélation a propulsé le cours de l’action d’Oracle, faisant brièvement de son fondateur, Larry Ellison, l’homme le plus riche du monde. La taille de cet accord est stupéfiante, car OpenAI n’a pas les 300 milliards de dollars nécessaires pour dépenser ; le montant présuppose une immense croissance pour les deux entreprises, mais surtout une grande confiance.

Nvidia, en particulier, a su tirer profit de la demande croissante pour ses GPU, devenant ainsi un acteur incontournable dans l’approvisionnement en infrastructure pour les entreprises d’IA. En septembre 2025, Nvidia a acquis une participation de 4 % dans Intel pour 5 milliards de dollars, tout en confirmant une autre affaire surprenante : un investissement de 100 milliards de dollars dans OpenAI, financé par des GPUs destinés aux projets de data center d’OpenAI. Cette dynamique de collaboration, qui semble circulaire, permet à Nvidia de maintenir la rareté et donc la valeur de ses GPUs, tandis qu’OpenAI exploite ses actions privées pour renforcer ses capitaux.

Cependant, pour des sociétés comme Meta, qui ont déjà un réseau d’infrastructure significatif, la tâche est plus complexe, bien que tout aussi coûteuse. Mark Zuckerberg a annoncé que Meta prévoyait de débourser 600 milliards de dollars pour l’infrastructure aux États-Unis d’ici la fin de 2028. Une partie de cette somme est allouée à des contrats cloud importants, mais d’autres ressources sont dirigées vers de nouveaux data centers massifs. Par exemple, un nouveau site de 2 250 acres en Louisiane, nommé Hyperion, devrait coûter 10 milliards de dollars à construire et fournir environ 5 gigawatts de puissance de calcul. Ce type de projet de grande envergure pose également de véritables problèmes environnementaux, illustrés par le cas de l’IA d’Elon Musk, dont le centre de données hybride à Memphis a rapidement créé des émissions de polluants chimiques importantes.

Pour conclure, l’ampleur des investissements en infrastructure IA soulève des questions sur la durabilité et l’impact environnemental de cette frénésie technologique. Alors que des projets comme Stargate cherchent à établir des collaborations ambitieuses pour influencer le paysage de l’IA aux États-Unis, les doutes subsistent sur leur capacité à répondre aux attentes initiales, exacerbés par les préoccupations financières et environnementales croissantes. L’avenir de ces projets de grande envergure reste incertain, témoignant ainsi des défis auxquels le secteur devra faire face.

Partagez cet article
article précédent

« La force du CIDJ, c’est sa vision 360 » (Isabelle Chambon, directrice générale) – Centre Inffo

article suivant

L’ancien Premier ministre britannique Rishi Sunak conseillera Microsoft et Anthropic

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles