Jeudi, la plateforme d’IA Clarifai a annoncé un nouveau moteur de raisonnement qu’elle affirme rendre l’exécution des modèles d’IA deux fois plus rapide et 40 % moins coûteuse. Conçu pour s’adapter à divers modèles et hôtes cloud, ce système utilise une gamme d’optimisations pour maximiser la puissance d’inférence à partir du même matériel. « C’est une variété de types d’optimisations, allant des noyaux CUDA aux techniques avancées de décodage spéculatif », a déclaré le PDG Matthew Zeiler. « Vous pouvez obtenir plus du même matériel, en gros. »
Les résultats ont été vérifiés par une série de tests de référence effectués par la société tierce Artificial Analysis, qui a enregistré des records inégalés dans l’industrie pour le débit et la latence. Ce processus se concentre spécifiquement sur l’inférence, qui représente les exigences de calcul pour faire fonctionner un modèle d’IA déjà entraîné. Avec la montée en puissance des modèles agentiques et de raisonnement, cette demande de calcul est devenue particulièrement intense, nécessitant plusieurs étapes en réponse à une seule commande.
Matthew Zeiler souligne que des améliorations logicielles et algorithmiques sont également essentielles pour réduire la nécessité de construire des centres de données massifs.
Initialement lancée en tant que service de vision par ordinateur, Clarifai s’oriente de plus en plus vers l’orchestration des calculs, alors que l’engouement pour l’IA augmente drastiquement la demande en GPUs et en centres de données. La société avait d’abord annoncé sa plateforme de calcul lors de l’événement AWS re:Invent en décembre, mais le nouveau moteur de raisonnement est le premier produit spécifiquement conçu pour des modèles agentiques multi-étapes.
Ce lancement intervient alors qu’une pression intense s’exerce sur l’infrastructure de l’IA, entraînant une série de contrats de plusieurs milliards de dollars. OpenAI a annoncé des projets de dépenses en centres de données pouvant atteindre 1 trillion de dollars, anticipant une demande future presque illimitée en capacités de calcul. Toutefois, malgré cette forte expansion matérielle, le PDG de Clarifai estime qu’il reste encore des progrès à réaliser dans l’optimisation de l’infrastructure existante.
« Il y a des astuces logicielles qui peuvent faire progresser un bon modèle comme celui-ci, comme le moteur de raisonnement de Clarifai », explique Zeiler. « Mais il y a aussi des améliorations algorithmiques qui peuvent aider à lutter contre le besoin de centres de données de gigawatts. Et je ne pense pas que nous ayons atteint la fin des innovations algorithmiques. »