Fuite code source Claude Code npm

Le code source de Claude Code sur GitHub : comment un simple fichier npm a tout révélé

Le 31 mars 2026, l'intégralité du code source de Claude Code, l'agent de programmation d'Anthropic, a été rendue publique sur GitHub. L'origine de cette fuite n'est pas une intrusion sophistiquée, mais un oubli lors de la publication de l'outil : un fichier de débogage a été laissé dans le registre npm. Cet article explique comment cette erreur technique s'est produite, quelles fonctionnalités secrètes ont été exposées, et pourquoi cet événement crée un contraste marquant avec le positionnement sécurité d'Anthropic.

Comment un simple fichier npm a exposé tout le projet

Pour comprendre la mécanique de cette fuite, il faut s'arrêter sur deux éléments. Claude Code est un outil que les développeurs installent depuis npm, le registre central qui distribue les librairies JavaScript. Avant de publier un outil, les développeurs compressent le code pour qu'il soit plus léger et rapide, le rendant illisible pour un humain.

Pour garder la possibilité de déboguer, ils génèrent un fichier source map (.map). Ce fichier agit comme un dictionnaire : il permet de traduire le code compressé vers le code source original lisible. La règle est de ne jamais l'inclure dans la version finale.

C'est pourtant ce qui s'est produit avec la version 2.1.88 de Claude Code. Un fichier de 60 Mo contenant le dictionnaire complet a été publié sur npm. À partir de cet élément seul, il est possible de reconstruire les 1 906 fichiers TypeScript qui composent l'outil. Le code a été rapidement extrait et archivé dans plusieurs dépôts GitHub publics.


Leak du code source du CLI de Claude Code

Le décalage avec le positionnement d'Anthropic

Si cette fuite fait réagir, c'est à cause du contexte propre à Anthropic. L'entreprise s'est construite sur une identité forte : être l'acteur de l'IA qui met la sécurité et la responsabilité au centre de ses développements.

Or, cette fuite de code s'inscrit dans un enchaînement inhabituel pour une entreprise de cette envergure. Quelques jours plus tôt, Anthropic avait déjà laissé accessible près de 3 000 documents internes à cause d'une erreur de configuration sur son système de gestion de contenu. Ces documents révélaient l'existence de Claude Mythos, un modèle décrit comme posant des "risques sans précédent en cybersécurité". Plus récemment, l'entreprise a également retiré un engagement public historique qui consistait à suspendre ses développements si la sécurité ne suivait pas.

L'entreprise alerte le monde sur les vulnérabilités induites par l'IA, tout en subissant des fuites de données dues à des erreurs de configuration basiques. Ce contraste pose la question de la maturité des processus internes face à la croissance très rapide de ses produits.

Quelles fonctionnalités secrètes le code révèle-t-il ?

Le code source mis au jour n'est pas qu'une simple interface. Il contient l'architecture complète de l'agent, avec des références à des fonctionnalités qui n'ont jamais été annoncées publiquement.

Nom de codeCe que le code révèle
KAIROSUn mode démon conçu pour fonctionner en arrière-plan, capable de consolider la mémoire et de s'activer selon un planning sans intervention humaine.
Buddy SystemUn système de type animal de compagnie virtuel (avec 18 espèces et des statistiques de rareté), intégré directement à l'interface.
Undercover ModeUn dispositif qui masque l'attribution IA dans les commits Git, activé automatiquement pour les employés d'Anthropic.
Coordinator ModeUn système d'orchestration permettant de gérer plusieurs agents travailleurs en parallèle.


Ces éléments montrent que l'interface de Claude Code est conçue pour préparer des scénarios d'utilisation beaucoup plus avancés que ce qui est actuellement proposé.

Le code est public : quel est l'impact réel ?

Avec le code entièrement disponible sur GitHub, deux conséquences concrètes se dessinent.

  • La première concerne la transparence architecturale. N'importe quel développeur peut désormais étudier comment Anthropic structure un agent d'IA : la gestion de la mémoire, l'enchaînement des actions, la logique de validation des permissions. C'est une référence technique précieuse qui va probablement inspirer la prochaine génération d'outils open-source.
  • La seconde concerne la sécurité défensive. Connaître le code permet d'identifier plus facilement les points faibles de l'interface. Anthropic a d'ailleurs déjà dû corriger une faille qui permettait à un dépôt malveillant de voler des clés API. La surface d'attaque potentielle est désormais plus étendue.

En revanche, cette fuite ne menace pas le cœur de l'activité d'Anthropic. Claude Code n'est qu'une interface : il envoie des requêtes à l'API et affiche les résultats. L'intelligence réelle — la capacité à raisonner et à écrire du code — reste hébergée sur les serveurs sécurisés de l'entreprise. On a trouvé le schéma du tableau de bord, mais le moteur reste inaccessible.

Sources


Le code de Claude Mythos a-t-il aussi fuité ?

Non. Seuls des documents internes décrivant le modèle Claude Mythos ont fuité via une erreur de configuration d'un système de gestion de contenu. Le code source du modèle lui-même n'a pas été exposé.

N'importe qui peut-il copier Claude Code grâce à la fuite du CLI ?

Pas dans son intégralité. Le code fuité permet de recréer l'interface et l'architecture de l'agent, mais les performances dépendent des modèles d'IA (Sonnet, Opus) qui restent privés et accessibles uniquement via l'API payante d'Anthropic.

Qu'est-ce qu'un fichier source map ?

C'est un fichier de correspondance utilisé en développement web. Il permet de faire le lien entre le code compressé exécuté par la machine et le code source original écrit par le développeur. Il ne doit pas être publié en production.

Anthropic a-t-il déjà fait des erreurs de sécurité par le passé ?

Oui. Un fichier source map avait déjà été exposé en février 2025. Anthropic l'avait retiré, mais le problème est réapparu dans la version 2.1.88 publiée fin mars 2026.

Sur le même sujet

vibe coding sécurité
Faille de sécurité de l'app Tea

Le leak de Tea : les limites actuelles du Vibe coding

Le piratage de l'app Tea a mis en lumière un problème majeur : le recours excessif au code généré par IA sans contrôle humain rigoureux. Cette pratique, appelée vibe coding, favorise la rapidité au détriment de la sécurité. Retour sur cet incident et les leçons à en tirer pour les développeurs.

OpenCode Open Source
OpenCode : Agent de codage open source

OpenCode : L'Agent de codage Open Source qui met les développeurs aux commandes

Dans l'univers des assistants de codage IA, des géants comme GitHub Copilot et Claude Code dominent le marché. Mais que se passe-t-il quand vous voulez garder le contrôle sur vos outils, votre code et vos données ? C'est là qu'intervient OpenCode, un agent de codage open source qui gagne en notoriété. Plus qu'une simple alternative, c'est une véritable philosophie : celle de redonner aux développeurs le pouvoir sur leur environnement de travail.

Claude Code Anthropic
Claude Code : réalité économique

Non, Claude Code ne vous rendra pas "riche sans rien faire depuis votre canapé"

Sur les réseaux sociaux, je vois ce discours partout : Claude Code transformerait chaque développeur en entrepreneur gagnant "1000$ sans rien faire depuis son canapé". Cette vision marketing masque une réalité économique bien plus complexe.
Cet article s'adresse aux développeurs indépendants et créateurs de petits projets qui s'interrogent sur la rentabilité réelle des outils d'IA comme Claude Code ou Codex. À l'heure où l'IA est présentée comme solution miracle, il devient essentiel d'évaluer froidement le retour sur investissement de ces technologies qui coûtent cher sans garantir de bénéfices concrets.

Claude Code Gemini CLI
Alternatives gratuites à Claude Code : comparatif complet

Alternatives gratuites à Claude Code : les meilleures solutions en 2026

Claude Code s'est imposé comme un assistant de développement IA performant, mais ses modèles payants (à partir de 20€ et jusqu'à 100€ par mois) pousse de nombreux développeurs à chercher des alternatives gratuites. Ce guide compare les solutions réellement gratuites, leurs limitations et leur pertinence pour un usage quotidien, en tenant compte des évolutions récentes et de l'émergence d'outils open source comme OpenCode.

RAG Retrieval-Augmented Generation
RAG : Retrieval-Augmented Generation expliqué

RAG en IA : définition, fonctionnement et cas d'usage

La RAG (Retrieval-Augmented Generation) est une technique qui permet à un modèle de langage d'interroger vos propres documents avant de générer une réponse. Concrètement : vous posez une question, l'IA cherche les informations pertinentes dans vos fichiers, puis répond en s'appuyant sur ce contenu. Cet article explique comment ça marche, pourquoi c'est utile, et comment l'utiliser avec vos propres données.

Fiabilité des données Biais algorithmique
Comment les IA choisissent-elles leurs sources pour nous répondre ?

Comment les IA choisissent-elles leurs sources pour nous répondre ?

Vous posez une question à une intelligence artificielle, et en une fraction de seconde, elle vous fournit une réponse détaillée, souvent citant des études, des articles ou des sites web. Ce processus peut sembler opaque, presque mystérieux. Pourtant, il n'y a pas de secret, mais des mécanismes complexes. Démystifions ensemble comment une IA comme ChatGPT, Claude ou Mistral "choisit" ses sources, et où se situent les limites de ce système.