Il y a beaucoup de choses qui peuvent mal tourner avec GenAI – surtout le GenAI tiers. Il invente des choses. Il est biaisé et toxique. Et il peut enfreindre les règles de droits d’auteur. Selon une récente enquête du MIT Sloan Management Review et du Boston Consulting Group, les outils d’IA tiers sont responsables de plus de 55% des défaillances liées à l’IA dans les organisations. Il n’est donc pas surprenant que certaines entreprises hésitent encore à adopter cette technologie. Mais que se passerait-il si GenAI était assorti d’une garantie ? C’est l’idée commerciale qu’a eue Karthik Ramakrishnan, entrepreneur et ingénieur électricien, il y a plusieurs années alors qu’il travaillait chez Deloitte en tant que Senior Manager. Il a co-fondé deux entreprises “AI-first”, Gallop Labs et Blu Trumpet, et a fini par réaliser que la confiance – et la capacité à quantifier le risque – freinait l’adoption de l’IA.
“Aujourd’hui, presque toutes les entreprises cherchent des moyens de mettre en œuvre l’IA pour augmenter l’efficacité et rester à la page sur le marché”, a déclaré Ramakrishnan lors d’une interview par e-mail avec TechCrunch. “Pour ce faire, beaucoup se tournent vers des fournisseurs tiers et mettent en place leurs modèles d’IA sans avoir une compréhension complète de la qualité des produits… L’IA évolue à un rythme si rapide que les risques et les dommages sont toujours en développement.” C’est pourquoi Ramakrishnan s’est associé à Dan Adamson, expert en algorithmes de recherche et fondateur de deux start-ups, pour créer Armilla AI, une entreprise qui offre des garanties sur les modèles d’IA pour les clients d’entreprise.
“Armilla prend un modèle – qu’il soit open source ou propriétaire – et réalise des évaluations pour en “vérifier la qualité”, en tenant compte du paysage réglementaire mondial en matière d’IA.”
Comment, vous le demanderez-vous, Armilla peut-elle le faire alors que la plupart des modèles sont des boîtes noires ou sont autrement protégés derrière des licences, abonnements et API? J’avais la même question. Ramakrishnan a répondu que c’était par des tests comparatifs – et une approche prudente de l’acquisition de clients. Armilla prend un modèle – qu’il soit open source ou propriétaire – et réalise des évaluations pour en “vérifier la qualité”, en tenant compte du paysage réglementaire mondial en matière d’IA. L’entreprise teste des choses comme les hallucinations, les préjugés raciaux et sexuels et l’équité, la robustesse générale et la sécurité à travers une série de applications théoriques et de cas d’utilisation, en utilisant sa technologie d’évaluation interne.
Si le modèle est approuvé, Armilla le soutient avec sa garantie, qui rembourse à l’acheteur du modèle tout frais qu’ils ont dû payer pour utiliser le modèle. “Ce que nous offrons vraiment aux entreprises, c’est la confiance dans la technologie qu’elles se procurent auprès des fournisseurs tiers d’IA”, a déclaré Ramakrishnan. “Les entreprises peuvent venir à nous et nous demander de faire des évaluations sur les fournisseurs qu’elles envisagent d’utiliser. Tout comme les tests d’intrusion qu’elles effectueraient pour une nouvelle technologie, nous effectuons des tests d’intrusion pour l’IA.”
Armilla, qui a lancé sa couverture fin 2023, soutenue par les transporteurs Swiss Re, Greenlight Re et Chaucer, revendique une dizaine de clients, dont une entreprise de santé qui applique GenAI pour traiter les dossiers médicaux. Ramakrishnan m’informe que la base client d’Armilla a augmenté de 2x mois après mois depuis le quatrième trimestre 2023. “Nous desservons deux publics principaux : les entreprises et les fournisseurs tiers d’IA”, a déclaré Ramakrishnan. “Les entreprises utilisent notre garantie pour établir une protection pour les fournisseurs tiers d’IA qu’elles se procuren. Les fournisseurs tiers utilisent notre garantie comme un gage de confiance envers leur produit, ce qui aide à raccourcir leurs cycles de vente.”
Les garanties pour l’IA ont un sens intuitif. Mais une partie de moi se demande si Armilla pourra suivre l’évolution rapide de la politique de l’IA (par exemple, la loi de New York City sur le biais de l’algorithme d’embauche, la loi de l’UE sur l’IA, etc.), ce qui pourrait la mettre en difficulté pour d’importantes indemnités si ses évaluations – et contrats – ne sont pas infaillibles. Ramakrishnan a balayé cette préoccupation. “La réglementation évolue rapidement dans de nombreuses juridictions indépendamment”, a-t-il déclaré, “et il sera crucial de comprendre les nuances de la législation à travers le monde. Il n’y a pas de ‘taille unique’ que nous pouvons appliquer comme norme mondiale, nous devons relier tout cela. C’est un défi – mais cela a l’avantage de créer une ‘moat’ pour nous.”