Michael Gerstenhaber, vice-président des produits chez Google Cloud, se spécialise principalement sur Vertex AI, la plateforme unifiée de l’entreprise pour le déploiement de l’intelligence artificielle d’entreprise. Son rôle lui offre une vue d’ensemble sur la façon dont les entreprises utilisent concrètement les modèles d’IA, ainsi que sur ce qui reste à faire pour libérer tout le potentiel de l’IA agentique. Lors de notre entretien, une idée lui étant particulière a retenu mon attention : il explique que les modèles d’IA repoussent simultanément trois frontières essentielles.
Selon lui, ces trois frontières sont : l’intelligence brute, le délai de réponse et un troisième critère moins axé sur les capacités purement techniques, mais plutôt sur la rentabilité – soit la capacité à déployer un modèle à un coût suffisamment faible pour qu’il puisse fonctionner à grande échelle de façon imprévisible. Cette nouvelle approche offre une perspective innovante pour repenser ce que signifie réellement la performance d’un modèle, en particulier dans un contexte de développement de modèles “frontiers”.
« Les modèles d’IA repoussent à la fois l’intelligence brute, le délai de réponse et la rentabilité, ce qui constitue une nouvelle façon de concevoir leurs capacités. »
Avec une expérience relativement récente dans le domaine, Gerstenhaber est arrivé chez Google après un passage chez Anthropic. À la tête de Vertex AI, il fournit aux développeurs et entreprises un accès à des modèles intelligents et à une plateforme permettant leur déploiement. Cependant, il explique que Google ne fournit pas d’applications prêtes à l’emploi mais plutôt les outils techniques et l’infrastructure nécessaires pour que des acteurs tels que Shopify ou Thomson Reuters créent leurs propres solutions dans leurs domaines respectifs.
Ce qui distingue Google selon lui, c’est la cohérence de son écosystème intégré. La société contrôle tout, depuis ses centres de données, ses puces, ses modèles, jusqu’à ses interfaces d’IA et ses couches d’inférence. Cette intégration verticale lui confère un avantage, notamment dans la manière dont elle peut optimiser l’interconnexion entre ses différents composants, allant de l’infrastructure à l’agent intelligence en passant par les API et la gouvernance.
La compétition entre les grands laboratoires, tels que Google, OpenAI et Anthropic, est souvent perçue comme une course effrénée à la meilleure intelligence. Cependant, Gerstenhaber y voit plus une exploration de trois dimensions complémentaires : la puissance brute des modèles (comme Gemini Pro), leur capacité à fournir une réponse rapide adaptée à l’usage (par exemple, le support client ou l’application de politiques), et enfin, leur coût d’utilisation à grande échelle (crucial pour les plateformes modérant le contenu ou effectuant une surveillance à l’échelle mondiale). Chacun de ces usages implique des compromis spécifiques, ce qui complexifie la course au modèle ultime.
