Mistral AI lance un nouveau modèle pour rivaliser avec GPT-4 et son propre assistant de chat | TechCrunch

Generated with DALL·E 3

La start-up parisienne Mistral AI, spécialisée dans l’intelligence artificielle, construit progressivement une alternative à OpenAI et Anthropic comme le montre sa dernière annonce. L’entreprise lance un nouveau modèle phare de langage à grande échelle appelé Mistral Large. En termes de capacités de raisonnement, il est conçu pour rivaliser avec d’autres modèles de premier plan, tels que GPT-4 et Claude 2. En plus de Mistral Large, la start-up lance également sa propre alternative à ChatGPT avec un nouveau service appelé Le Chat. Cet assistant de chat est actuellement disponible en version bêta.

Si vous ne connaissez pas Mistral AI, l’entreprise est surtout connue pour son tableau de capitalisation, car elle a levé une somme d’argent obscène en très peu de temps pour développer des modèles de base de l’IA. La société a été officiellement constituée en mai 2023. Quelques semaines après cela, Mistral AI a levé une ronde de financement de démarrage de 112 millions de dollars. En décembre, l’entreprise a clôturé un tour de financement de 415 millions de dollars avec Andreessen Horowitz (a16z) menant la ronde. Fondée par des anciens de DeepMind de Google et de Meta, Mistral AI s’est initialement positionnée comme une entreprise du secteur de l’IA axée sur l’open source.

Alors, comment Mistral Large se compare-t-il à GPT-4 et Claude 2? Comme toujours, c’est très difficile à dire. Mistral AI affirme qu’elle se classe en deuxième position après GPT-4 sur plusieurs benchmarks.

Bien que le premier modèle de Mistral AI ait été publié sous une licence open source avec accès aux poids des modèles, ce n’est pas le cas pour ses modèles plus grands. Le modèle commercial de Mistral AI ressemble de plus en plus à celui de OpenAI, car l’entreprise offre Mistral Large via une API payante avec une tarification basée sur l’utilisation. Il en coûte actuellement 8 dollars par million de jetons d’entrée et 24 dollars par million de jetons de sortie pour interroger Mistral Large. En jargon de langage artificiel, les tokens représentent de petits fragments de mots – par exemple, le mot “TechCrunch” sera divisé en deux tokens “Tech” et “Crunch” lorsqu’il sera traité par un modèle d’IA. Par défaut, Mistral AI prend en charge des fenêtres de contexte de 32k tokens (généralement plus de 20 000 mots en anglais). Mistral Large prend en charge l’anglais, le français, l’espagnol, l’allemand et l’italien.

Une alternative à ChatGPT: Mistral AI lance aujourd’hui un assistant de chat appelé Le Chat. N’importe qui peut s’inscrire et l’essayer sur chat.mistral.ai. La société déclare qu’il s’agit d’une version bêta pour l’instant et qu’il pourrait y avoir des “bizarreries”. L’accès au service est gratuit (pour l’instant) et les utilisateurs peuvent choisir entre trois modèles différents – Mistral Small, Mistral Large et un modèle prototype conçu pour être bref et concis appelé Mistral Next. Il est également à noter que Le Chat n’a pas accès au web lorsque vous l’utilisez. L’entreprise prévoit également de lancer une version payante de Le Chat pour les clients d’entreprise.

Enfin, Mistral AI utilise également l’annonce d’aujourd’hui pour annoncer un partenariat avec Microsoft. En plus de sa propre plateforme API, Microsoft va fournir les modèles Mistral à ses clients Azure. C’est un autre modèle dans le catalogue de modèles d’Azure, ce qui ne semble pas être un gros problème. Et pourtant, cela signifie également que Mistral AI et Microsoft entament des discussions pour des opportunités de collaboration et potentiellement plus. Le premier avantage de ce partenariat est que Mistral AI attirera probablement plus de clients avec ce nouveau canal de distribution. Quant à Microsoft, l’entreprise est l’investisseur principal de la filiale à but lucratif plafonné d’OpenAI. Mais elle a également accueilli d’autres modèles d’IA sur sa plateforme de cloud computing. Par exemple, Microsoft et Meta s’associent pour proposer des modèles de langage à grande échelle Llama sur Azure. Cette stratégie de partenariat ouvert est un bon moyen de garder ses clients Azure dans son écosystème de produits. Cela pourrait également aider en matière de contrôle anticoncurrentiel.

Partagez cet article
article précédent

Pour accompagner le vieillissement de la population, la nécessité d’adapter les logements

article suivant

Perturbateurs endocriniens et santé au travail : état des lieux – Actualité – INRS

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire plus d'articles