Nvidia a réalisé un bénéfice net de plus de 19 milliards de dollars au cours du dernier trimestre, a annoncé l’entreprise mercredi. Cependant, cela n’a pas suffi à rassurer les investisseurs quant à la poursuite de sa croissance rapide. Lors de sa conférence sur les résultats, les analystes ont interrogé le PDG Jensen Huang sur la manière dont Nvidia se comporterait si les entreprises technologiques commençaient à utiliser de nouvelles méthodes pour améliorer leurs modèles d’IA. La méthode qui sous-tend le modèle o1 d’OpenAI, ou “test-time scaling”, a été beaucoup évoquée. Il s’agit de l’idée que les modèles d’IA donneront de meilleures réponses si on leur donne plus de temps et de puissance de calcul pour “réfléchir” aux questions.
Plus précisément, elle ajoute plus de calcul à la phase d’inférence de l’IA, qui est tout ce qui se passe après qu’un utilisateur a appuyé sur entrée sur leur invite. Le PDG de Nvidia a été interrogé pour savoir s’il voyait les développeurs de modèles d’IA passer à ces nouvelles méthodes et comment les anciennes puces de Nvidia fonctionneraient pour l’inférence de l’IA. Huang a indiqué que o1, et le test-time scaling plus largement, pourraient jouer un rôle plus important dans l’activité de Nvidia à l’avenir, le qualifiant de “l’un des développements les plus excitants” et d'”une nouvelle loi d’échelle”. Huang a fait de son mieux pour assurer aux investisseurs que Nvidia est bien positionnée pour ce changement.
“Notre espoir et notre rêve sont qu’un jour, le monde fasse beaucoup d’inférence, et c’est alors que l’IA aura vraiment réussi”, a déclaré Huang.
Les propos du PDG de Nvidia concordent avec ceux du PDG de Microsoft, Satya Nadella, qui a déclaré lors d’un événement Microsoft mardi que o1 représente une nouvelle façon pour l’industrie de l’IA d’améliorer ses modèles. C’est une grande nouvelle pour l’industrie des puces car elle met l’accent sur l’inférence de l’IA. Alors que les puces de Nvidia sont la référence pour l’entraînement des modèles d’IA, il existe un large ensemble de startups bien financées qui créent des puces d’inférence d’IA ultra-rapides, comme Groq et Cerebras. Cela pourrait être un espace plus compétitif pour Nvidia.
Malgré des rapports récents indiquant que les améliorations des modèles génératifs ralentissent, Huang a déclaré aux analystes que les développeurs de modèles d’IA continuent d’améliorer leurs modèles en ajoutant plus de calcul et de données pendant la phase de pré-entraînement. Le PDG d’Anthropic, Dario Amodei, a également déclaré mercredi lors d’une interview sur scène lors du sommet de Cerebral Valley à San Francisco qu’il ne voit pas de ralentissement dans le développement des modèles. “Mise à l’échelle du préentraînement du modèle de base est intacte et continue”, a déclaré Huang mercredi. “Comme vous le savez, c’est une loi empirique, pas une loi physique fondamentale, mais la preuve est que cela continue de s’échelonner. Ce que nous apprenons, cependant, c’est que ce n’est pas suffisant.”
C’est certainement ce que les investisseurs de Nvidia voulaient entendre, puisque l’action du fabricant de puces a grimpé de plus de 180% en 2024 en vendant les puces d’IA sur lesquelles OpenAI, Google et Meta entraînent leurs modèles. Cependant, les partenaires d’Andreessen Horowitz et plusieurs autres dirigeants de l’IA ont déjà dit que ces méthodes commencent à montrer des rendements décroissants. Huang a noté que la plupart des charges de travail informatiques de Nvidia aujourd’hui concernent le pré-entraînement des modèles d’IA – et non l’inférence – mais il attribue cela davantage à l’état actuel du monde de l’IA. Il a dit qu’un jour il y aura simplement plus de gens qui exécuteront des modèles d’IA, ce qui signifie que plus d’inférence d’IA se produira. Huang a noté que Nvidia est la plus grande plateforme d’inférence au monde aujourd’hui et l’échelle et la fiabilité de l’entreprise lui confèrent un énorme avantage par rapport aux startups. “Tout le monde sait que s’ils innovent sur la base de CUDA et de l’architecture de Nvidia, ils peuvent innover plus rapidement, et ils savent que tout devrait fonctionner.”