VESSL AI lève 12 millions de dollars pour sa plateforme MLOps qui vise à réduire les coûts des GPU jusqu’à 80%

Generated with DALL·E 3

Alors que les entreprises intègrent de plus en plus d’intelligence artificielle dans leurs processus de travail et leurs produits, la demande pour des outils et des plateformes facilitant la création, les tests et le déploiement de modèles d’apprentissage automatique est croissante. Cette catégorie de plateformes, mieux connue sous le nom d’opérations d’apprentissage automatique, ou MLOps, est déjà un peu encombrée, avec des start-ups comme InfuseAI, Comet, Arrikto, Arize, Galileo, Tecton, et Diveplane, sans mentionner les offres des ténors du secteur comme Google Cloud, Azure, et AWS. Maintenant, une plateforme sud-coréenne de MLOps appelée VESSL AI cherche à se faire une place en se concentrant sur l’optimisation des dépenses de GPU grâce à une infrastructure hybride qui combine des environnements sur site et sur le cloud.

La start-up a récemment levé 12 millions de dollars lors d’un tour de financement de série A pour accélérer le développement de son infrastructure. Destinée aux entreprises qui souhaitent développer des modèles de langage de grande envergure (LLMs) et des agents d’IA verticaux sur mesure, l’entreprise compte déjà 50 clients d’entreprise, dont certains grands noms comme Hyundai, LIG Nex1, un fabricant d’armes et d’aérospatiale sud-coréen, TMAP Mobility, Yanolja, Upstage, ScatterLab et Wrtn.ai. L’entreprise a également noué des partenariats stratégiques avec Oracle et Google Cloud aux Etats-Unis. Elle compte plus de 2 000 utilisateurs, a déclaré à TechCrunch le co-fondateur et PDG de VESSL AI, Jaeman Kuss An.

“La stratégie multi-cloud de VESSL AI permet d’utiliser des GPU d’une variété de fournisseurs de services cloud comme AWS, Google Cloud, et Lambda”, dit An. “Ce système sélectionne automatiquement les ressources les plus économiques et efficaces, ce qui réduit considérablement les coûts pour les clients.”

VESSL AI a été fondée en 2020 par An, Jihwan Jay Chun (CTO), Intae Ryoo (CPO), et Yongseon Sean Lee (responsable technique) — les fondateurs ont auparavant travaillé chez Google, la société de jeux mobiles PUBG et des startups IA — pour répondre à un point douloureux qu’An a dû gérer lors du développement de modèles d’apprentissage automatique dans une startup technologique médicale précédente : le volume de travail immense impliqué dans le développement et l’utilisation des outils d’apprentissage automatique.

L’équipe a découvert qu’elle pourrait rendre le processus plus efficace — et notablement, moins cher — en exploitant un modèle d’infrastructure hybride. La plateforme MLOps de VESSL utilise donc une stratégie multicloud et des instances spot pour réduire les dépenses de GPU de près de 80%, a noté An, ajoutant que cette approche permet également de pallier les pénuries de GPU et de simplifier la formation, le déploiement, et l’exploitation de modèles d’IA, y compris des LLM à grande échelle.

Nommée pour ce tour de série A, qui porte le total des fonds levés par la société à 16,8 millions de dollars, on trouve des entreprises d’investissement comme A Ventures, Ubiquoss, Mirae Asset Securities, Sirius, SJ Investment Partners, Wooshin Venture Investment, et Shinhan Venture Investment. La startup compte 35 employés en Corée du Sud et dans un bureau de San Mateo aux États-Unis.

Partagez cet article
article précédent

Opco EP a accompagné 176 152 entrées en apprentissage en 2023 – Centre Inffo

article suivant

Comment mettre en place les astreintes dans la métallurgie ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles