Il y a trois ans, Joe Fioti, cofondateur de Luminal, travaillait sur la conception de puces chez Intel lorsqu’il a pris conscience d’un problème crucial dans l’industrie technologique : la véritable limite n’était pas le hardware, mais le logiciel. « Vous pouvez fabriquer le meilleur matériel au monde, mais s’il est difficile à utiliser pour les développeurs, ils ne l’adopteront tout simplement pas », expliquait-il. Forte de cette réalisation, il a décidé de lancer une entreprise centrée exclusivement sur cette problématique.
Ce lundi, Luminal a annoncé avoir levé 5,3 millions de dollars en financement d’amorçage, une opération menée par Felicis Ventures, avec des investissements providentiels de personnalités telles que Paul Graham, Guillermo Rauch et Ben Porterfield. Fioti s’est entouré de cofondateurs issus d’entreprises renommées comme Apple et Amazon, et la société fait partie de la cohorte d’été 2025 de Y Combinator. La mission principale de Luminal est simple : fournir des capacités de calcul à la demande, à l’image de Neo-cloud telles que Coreweave ou Lambda Labs.
« Leur approche consiste à optimiser le compilateur permettant d’extraire plus de puissance de l’infrastructure existante, une étape fondamentale qui pourrait transformer la façon dont les modèles d’IA sont déployés. »
La particularité de Luminal réside dans son focus sur l’optimisation des compilateurs, ces couches intermédiaires entre le code écrit et le matériel GPU — une technologie qui a souvent été à l’origine de nombreuses difficultés dans l’industrie. Actuellement, le système CUDA de Nvidia domine ce domaine, mais Luminal mise sur l’ouverture partielle de cet écosystème pour proposer des solutions plus efficaces et plus adaptables. La société estime qu’en construisant des outils performants pour optimiser la pile logicielle, elle pourra tirer parti de la demande croissante pour des solutions d’inférence modèle plus rapides et moins coûteuses.
Elle opère dans un secteur en pleine expansion, partagé avec des startups telles que Baseten, Together AI, Tensormesh ou Clarifai, qui se concentrent toutes sur l’optimisation spécifique à leur niche. Cependant, Luminal doit composer avec la compétition féroce des équipes de recherche et développement des grands laboratoires, qui disposent d’un avantage certain en raison de leur capacité à optimiser pour une seule famille de modèles. Néanmoins, Fioti reste confiant : « Le marché est en croissance si rapide que, même si l’on passe six mois à affiner une architecture, il sera toujours économiquement intéressant de continuer à optimiser ».
En conclusion, Luminal mise sur une stratégie d’optimisation universelle pour répondre aux besoins variés du secteur, en s’appuyant sur ses compétences en compiler pour offrir des gains de performance significatifs ainsi qu’un positionnement avantageux face à la concurrence.
