Nvidia prêt à reprendre la vente de ses puces en Chine après des mois de retournements réglementaires

Generated with DALL·E 3

“`html

Nvidia a annoncé lundi qu’elle déposait des demandes pour relancer la vente de ses puces d’intelligence artificielle H20 en Chine, mettant fin à quelques mois chaotiques marqués par des restrictions imposées par l’administration Trump, suivies d’un revirement rapide après un dîner très médiatisé. Selon un article de blog, la société s’attend à recevoir bientôt des licences du gouvernement américain et à commencer les livraisons peu après. Nvidia introduit également une nouvelle puce « RTX Pro » spécialement conçue pour le marché chinois, la présentant comme « entièrement conforme » aux réglementations et idéale pour les applications de fabrication numérique, telles que les usines intelligentes et la logistique.

La puce H20 se situe au cœur d’une plus large confrontation technologique entre les États-Unis et la Chine. Bien qu’il ne s’agisse pas du processeur d’IA le plus avancé de Nvidia, la puce H20 est cependant la plus puissante que la société puisse légalement vendre en Chine en vertu des contrôles à l’exportation en vigueur. Conçue spécifiquement pour les tâches « d’inférence » — exécutant des modèles d’IA existants pour des applications quotidiennes — elle ne permet pas de former de nouveaux systèmes d’IA depuis zéro.

Cette situation illustre l’équilibre délicat que les décideurs américains doivent maintenir entre préoccupations de sécurité nationale et intérêts commerciaux puissants.

Au début de cette année, des géants technologiques chinois tels que ByteDance, Alibaba et Tencent avaient commencé à stocker ces puces en prévision de contrôles d’exportation plus stricts. L’attrait de la puce H20 réside en partie dans sa bande passante mémoire supérieure par rapport aux alternatives chinoises, de même que dans l’écosystème logiciel largement adopté de Nvidia qui facilite le déploiement du matériel. Les restrictions initialement imposées en avril par l’administration Trump ont potentiellement coûté entre 15 et 16 milliards de dollars de revenus à Nvidia, en se basant sur les dépenses des entreprises chinoises au cours du premier trimestre.

Ces contraintes, visant les puces dépassant certains seuils de performances, ont été de courte durée. Peu après qu’un dîner à un million de dollars par tête ait eu lieu à Mar-a-Lago, le président Trump a suspendu l’interdiction. Selon NPR, la Maison Blanche a modifié sa position après que Nvidia a promis de nouveaux investissements dans des centres de données aux États-Unis. En moins d’une semaine après la publication du rapport de NPR, Nvidia a annoncé des projets de construction de serveurs d’IA aux États-Unis, d’une valeur allant jusqu’à 500 milliards de dollars au cours des quatre années suivantes, en s’appuyant sur des partenaires tels que TSMC.

Ce retournement de situation a suscité des critiques de la part des législateurs américains, qui soutiennent qu’il compromet les efforts du pays pour limiter les capacités d’IA de la Chine. Ils citent en exemple le cas de DeepSeek, une startup chinoise qui a fait sensation début cette année en construisant un modèle impressionnant en utilisant les puces H800 de Nvidia, qui sont légèrement plus puissantes que la H20. En attendant, un porte-parole de Nvidia a déclaré que le PDG Jensen Huang a rencontré des responsables à Washington et à Pékin ce mois-ci pour « insister sur les bénéfices que l’IA apportera aux entreprises et à la société dans le monde entier ». La situation dans son ensemble met en lumière l’équilibre délicat auquel sont confrontés les décideurs politiques américains, avec des préoccupations en matière de sécurité nationale qui se heurtent à des intérêts commerciaux puissants.

“`

Partagez cet article
article précédent

Grok d’Elon Musk crée des compagnons IA, y compris une goth anime girl

article suivant

La Malaisie exigera des permis de commerce pour les puces d’IA américaines

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles