Des géants technologiques tels qu’OpenAI se vantent souvent de modèles d’IA à billion de paramètres qui nécessitent d’énormes grappes de GPU coûteuses. Mais Fastino, une start-up basée à Palo Alto, adopte une approche différente. Elle annonce avoir inventé un nouveau type d’architecture de modèle d’IA qui est intentionnellement petite et spécifique à une tâche. Selon Fastino, ses modèles sont si petits qu’ils sont entraînés avec des GPU de jeu bas de gamme d’une valeur totale de moins de 100 000 dollars.
La méthode attire l’attention. Fastino vient de lever 17,5 millions de dollars en capital d’amorçage dirigé par Khosla Ventures, connu pour avoir été le premier investisseur d’OpenAI. Cela porte le financement total de la start-up à près de 25 millions de dollars. En novembre dernier, elle avait levé 7 millions de dollars lors d’un tour de pré-amorçage dirigé par M12, le bras de capital-risque de Microsoft, et Insight Partners. Ash Lewis, le PDG et co-fondateur de Fastino, déclare : “Nos modèles sont plus rapides, plus précis et coûtent une fraction du prix à entraîner tout en surpassant les modèles phares sur des tâches spécifiques”.
“Il est encore un peu tôt pour dire si l’approche de Fastino sera adoptée. L’espace de l’IA en entreprise est encombré, avec des entreprises comme Cohere et Databricks qui vantent également une IA qui excelle dans certaines tâches. De plus, les fabricants de modèles SATA axés sur l’entreprise, dont Anthropic et Mistral, offrent également de petits modèles. Il n’est pas non plus un secret que l’avenir de l’IA générative pour l’entreprise réside probablement dans des modèles linguistiques plus petits et plus concentrés. Le temps nous le dira, mais un vote de confiance précoce de Khosla ne fait certainement pas de mal.”
Fastino a développé une suite de petits modèles qu’elle vend à des clients entreprise. Chaque modèle se concentre sur une tâche spécifique dont une entreprise pourrait avoir besoin, comme la rédaction de données sensibles ou la synthèse de documents d’entreprise. Fastino ne divulgue pas encore ses premières métriques ou utilisateurs, mais affirme que sa performance impressionne les premiers utilisateurs. Par exemple, étant donné qu’ils sont si petits, ses modèles peuvent fournir une réponse complète en un seul jeton, a déclaré Lewis à TechCrunch, montrant le détail de la réponse donnée en quelques millisecondes.
Fastino insiste sur le fait qu’il se concentre avant tout sur la constitution d’une équipe d’IA de pointe. Il cible les chercheurs des principaux laboratoires d’IA qui ne sont pas obsédés par la construction du plus grand modèle ou par la performance sur des benchmarks. “Notre stratégie de recrutement est très orientée vers les chercheurs qui ont peut-être une pensée contradictoire sur la façon dont les modèles de langage sont construits actuellement”, déclare Lewis.