Moonshot AI, une initiative chinoise soutenue par des géants tels qu’Alibaba et HongShan (anciennement Sequioa China), a récemment dévoilé un nouveau modèle open-source baptisé Kimi K2.5. Ce modèle, conçu pour comprendre simultanément le texte, les images et la vidéo, marque une avancée significative dans le domaine de l’intelligence artificielle multimodale. Selon la société, Kimi K2.5 a été entraîné sur 15 trillions de tokens visuels et textuels, ce qui lui confère une capacité multimodale naturelle et impressionnante.
Les performances de Kimi K2.5 ont été évaluées sur plusieurs benchmarks et se révèlent très compétitives, voire supérieures à celles de certains modèles propriétaires. Notamment, dans le domaine du codage, il dépasse le Gemini 3 Pro au benchmark SWE-Bench Verified, tout en surpassant GPT 5.2 et Gemini 3 Pro dans le benchmark multilingue SWE-Bench. Sur la compréhension vidéo, il devance GPT 5.2 et Claude Opus 4.5 sur l’évaluation VideoMMMU, qui mesure la capacité d’un modèle à raisonner à partir de vidéos. Ces résultats témoignent de la robustesse et de l’efficacité de Kimi K2.5 dans des tâches complexes multimodales.
La société souhaite démocratiser l’accès à ses capacités de codage via le lancement d’un outil open-source appelé Kimi Code, rivalisant avec Claude Code d’Anthropic ou Gemini CLI de Google, permettant aux développeurs d’utiliser le modèle via leur terminal ou d’intégrer ses fonctions dans des logiciels de développement comme VSCode.
Pour exploiter ces capacités, Moonshot AI a également lancé Kimi Code, une plateforme open-source dédiée au codage, qui permet aux développeurs d’utiliser l’intelligence artificielle dans leurs projets. Ce nouvel outil est conçu pour concurrencer d’autres solutions existantes telles qu’Anthropic’s Claude Code ou Google’s Gemini CLI, en offrant une intégration simple avec des environnements populaires tels que VSCode, Cursor ou Zed. La particularité de Kimi Code réside dans sa capacité à traiter non seulement du texte, mais aussi des images et des vidéos comme entrées, une fonctionnalité devenue essentielle dans un contexte où les outils de codage assisté gagnent en popularité et en revenus, comme le montre le succès de Claude Code, qui a atteint 1 milliard de dollars de revenus récurrents annuels.
Fondée par l’ancien chercheur de Google et Meta, Yang Zhilin, Moonshot AI a levé 1 milliard de dollars lors d’un tour de financement Series B, valorisant la société à 2,5 milliards de dollars. Plus récemment, elle a recueilli 500 millions de dollars à une valorisation de 4,3 milliards, tout en recherchant actuellement une nouvelle levée de fonds qui pourrait évaluer la société à 5 milliards de dollars. La compétition est féroce en Chine, avec Deepseek, un concurrent direct, qui prévoit de lancer prochainement un modèle doté d’excellentes compétences en codage, ce qui souligne l’accélération de l’innovation dans cette région.
La fin de l’article souligne que Moonshot AI poursuit sa croissance rapide avec une stratégie visant à faire de ses modèles open-source des outils de référence pour la communauté et le développement AI dans le monde entier.
Ivan Mehta, journaliste spécialisé dans les évolutions technologiques mondiales, souligne que ces développements positionnent la Chine en leader potentiel dans le domaine de l’intelligence artificielle multimodale, notamment grâce à l’ouverture de ses modèles et à l’accent mis sur la compatibilité avec les outils de développement modernes. Avec un marché en pleine expansion et des investissements stratégiques massifs, Moonshot AI semble promis à un rôle clé dans la prochaine génération d’IA accessible et performante.
