Jeudi dernier, un incident inattendu a exposé le code source interne d’Anthropic, une entreprise spécialisée dans l’intelligence artificielle, suite à une erreur lors de la publication d’un package npm. En effet, un fichier de sources mappings (.map) de près de 60 Mo s’est retrouvé accessible publiquement. Ce fichier, destiné initialement à faciliter le débogage, contenait en réalité tous les pointeurs vers près de 1 900 fichiers TypeScript d’origine. Une véritable révélation qui a rapidement fait le tour de la communauté, dévoilant en détail l’architecture complexe de l’outil Claude Code, un système à plusieurs milliards de dollars de revenus annuels.
Ce qui aurait pu rester une simple erreur de packaging a rapidement pris une tournure explosive lorsque la découverte a été relayée par le développeur Chaofan Shou, de Solayer Labs, sur le réseau social X (ex-Twitter). En quelques heures, le code s’est retrouvé mirroré sur GitHub, accumulant plus de 41 500 forks, illustrant la curiosité grandissante autour de l’intelligence artificielle propriétaire d’Anthropic. Outre la fuite du code, cette situation a permis aux développeurs et chercheurs d’explorer en profondeur l’architecture interne de Claude Code, révélant ainsi un écosystème sophistiqué comprenant environ 40 outils internes, un moteur de requêtes de 46 000 lignes de TypeScript, ainsi qu’un système innovant de gestion de mémoire basé sur des fichiers légers.
La fuite de ce code dévoile un système de mémoire auto-correcteur et une architecture innovante qui pourrait bien influencer la conception d’IA open source à l’avenir.
Ce qui est d’autant plus frappant, c’est la façon dont est gérée la mémoire dans cette plateforme. Contrairement à des systèmes traditionnels, Claude Code utilise un fichier texte MEMORY.md ultra-léger pour indexer ses données, associant chaque entrée à une série de fichiers thématiques chargés à la demande. Ce procédé permet d’éviter la surcharge du contexte du modèle, limitant ainsi les hallucinations et améliorant la gestion de la mémoire à long terme. L’agent, quant à lui, maintient une mémoire sceptique, vérifiant le code et les données avant d’agir, ce qui représente une avancée intéressante dans la conception d’agents autonomes.
Une autre découverte importante concerne KAIROS, un mode autonome qui fonctionne en arrière-plan pour consolider la mémoire via un processus appelé autoDream. Pendant que l’utilisateur va chercher son café, l’agent nettoie, organise et restructure ses données dans des fichiers JSON, éliminant contradictions et optimisant sa compréhension. Ce concept, inédit dans le domaine open source, pourrait ouvrir la voie à de nouvelles méthodes de gestion mémoire automatiques, rendant les agents IA plus robustes et autonomes. Par ailleurs, le dump révèle aussi la roadmap interne d’Anthropic, avec des noms de codes pour divers modèles, et des statistiques sur leur fiabilité, comme un taux de fausses affirmations autour de 30% pour Capybara v8, une régression majeure par rapport à leurs versions précédentes.
Anthropic a confirmé la nature accidentelle de cette fuite, précisant qu’il ne s’agissait pas d’une faille de sécurité mais d’un problème de packaging humain. La société insiste sur le fait qu’aucune donnée client n’a été exposée, mais la version publique du code, désormais disséminée sur plusieurs plateformes, constitue une fuite d’informations internes que l’on aurait préféré garder confidentielles. Ces révélations augmentent la pression sur l’entreprise tout en inspirant la communauté de développeurs, qui pourra s’appuyer sur ces innovations pour créer des alternatives open source, notamment en s’inspirant du système de mémoire et de la gestion intelligente des données.
En conclusion, cette incidente met en lumière l’importance cruciale d’une configuration rigoureuse lors du déploiement de paquets logiciels, notamment via npm. Vérifier scrupuleusement le contenu à publier, notamment avec des commandes comme npm pack –dry-run, aurait pu éviter cette fuite colossale estimée à 2,5 milliards de dollars de propriété intellectuelle. La leçon est claire : un .npmignore bien configuré ne coûte rien et peut préserver des milliers de dollars en propriété exclusive. La diffusion inattendue du code d’Anthropic, en quelque sorte devenue open source sans le vouloir, pourrait bien redéfinir certains standards dans la conception d’IA autonomes, tout en offrant à la communauté des pistes inédites à explorer.
