
Après avoir divulgué son code source, Anthropic a envoyé plus de 8 000 demandes de retrait pour violation de droits d’auteur ; la semaine la plus embarrassante pour son image de « sécurité avant tout »
TechFlow SélectionTechFlow Sélection

Après avoir divulgué son code source, Anthropic a envoyé plus de 8 000 demandes de retrait pour violation de droits d’auteur ; la semaine la plus embarrassante pour son image de « sécurité avant tout »
Anthropic, dont la marque repose sur la « sécurité de l’IA », traverse actuellement la semaine la plus embarrassante de son histoire.
Auteur : TechFlow
À la suite d’une erreur de configuration lors d’une publication sur npm, Anthropic a accidentellement rendu public l’intégralité du code source de Claude Code, son produit le plus rentable. En quelques heures, environ 512 000 lignes de code TypeScript ont été dupliquées, analysées et réécrites en Python et en Rust à l’aide d’outils d’intelligence artificielle par des dizaines de milliers de développeurs. Anthropic a aussitôt envoyé à GitHub une demande de retrait fondée sur la loi américaine sur le droit d’auteur (DMCA), affectant environ 8 100 dépôts de code. Toutefois, cette action a entraîné une forte réaction de la communauté en raison de nombreux retraits injustifiés touchant des projets sans lien avec la fuite, obligeant Anthropic à retirer la plupart de ses demandes — ne conservant finalement qu’un seul dépôt et 96 forks concernés. Il s’agit de la deuxième fuite majeure subie par Anthropic en l’espace d’une semaine, seulement cinq jours après la fuite d’informations relatives au modèle Mythos.
Anthropic, dont la marque repose sur le principe de « sécurité de l’IA », traverse actuellement la semaine la plus embarrassante de son histoire.
Le 1er avril, le Wall Street Journal rapportait qu’Anthropic avait publié, le 31 mars, le code source complet de Claude Code dans le cadre d’une mise à jour régulière, à la suite d’une erreur humaine intervenue lors du processus de construction. Le chercheur en sécurité Chaofan Shou a publié le lien de téléchargement sur X à 4 h 23, heure de l’Est des États-Unis ; le message a rapidement dépassé les 21 millions de vues. En quelques heures, le code a été dupliqué sur GitHub et a recueilli des dizaines de milliers d’étoiles. Un développeur coréen, Sigrid Jin, a même réécrit l’intégralité du dépôt en Python à l’aide d’outils d’IA avant même l’aube ; ce projet a obtenu 50 000 étoiles sur GitHub en deux heures, un record probable de croissance la plus rapide jamais enregistré sur la plateforme.
Un porte-parole d’Anthropic a confirmé la fuite auprès de CNBC, précisant qu’il s’agissait d’un « problème de conditionnement lié à une erreur humaine, et non d’une faille de sécurité », et ajoutant qu’« aucune donnée sensible relative aux clients ni aucun identifiant n’ont été compromis ou exposés ».
Une option de configuration manquante a permis la fuite de 512 000 lignes de code essentiel
La cause technique de la fuite n’est pas complexe. Claude Code repose sur Bun (un environnement d’exécution JavaScript racheté par Anthropic à la fin de l’année 2025) ; Bun génère par défaut des fichiers « source map » destinés au débogage. Lors de la publication du paquet npm, l’équipe n’avait pas exclu ces fichiers dans la configuration .npmignore, ce qui a entraîné la diffusion d’un fichier source map de 59,8 Mo accompagnant la version 2.1.88 de Claude Code. Ce fichier contenait l’intégralité du contenu de quelque 1 900 fichiers TypeScript, soit environ 512 000 lignes de code, entièrement lisibles, commentées et non obfusquées.
Boris Cherny, responsable de Claude Code, a reconnu que « notre processus de déploiement comporte plusieurs étapes manuelles, dont l’une n’a pas été correctement exécutée ». Il a ajouté que l’équipe avait corrigé le problème et renforcé ses contrôles automatisés, soulignant que ce type d’erreur révèle des lacunes au niveau des procédures ou de l’infrastructure, et non une responsabilité individuelle.
Ce n’est pas la première fois que cela se produit. En février 2025, une fuite quasi identique de fichiers source map avait déjà exposé le code source d’une version préliminaire de Claude Code. Le fait qu’un incident similaire se reproduise en l’espace de 13 mois suscite des interrogations quant au degré de maturité opérationnelle de cette entreprise, évaluée à environ 380 milliards de dollars et actuellement en phase de préparation pour une introduction en bourse (IPO).
Que les développeurs ont découvert dans le code divulgué
Le dépôt divulgué constitue, en pratique, une feuille de route produit que Anthropic n’avait jamais prévu de rendre publique. Selon une analyse publiée par VentureBeat et plusieurs développeurs, le code contient 44 indicateurs de fonctionnalités (« feature flags »), dont plus de 20 sont des fonctionnalités déjà développées mais encore non publiées.
Les plus remarquées sont notamment : un mode « agent autonome » baptisé « KAIROS », permettant à Claude Code de fonctionner en arrière-plan pendant les périodes d’inactivité de l’utilisateur afin d’exécuter des tâches autonomes telles que la correction d’erreurs ou l’envoi de notifications push ; une architecture à trois niveaux de « mémoire auto-régénérative », intégrant un processus de consolidation appelé « dreaming », qui fusionne en arrière-plan des observations dispersées et supprime les contradictions logiques ; ainsi qu’un système complet de coordination multi-agents, transformant Claude Code d’un simple agent unique en un orchestrateur capable de générer, diriger et gérer simultanément plusieurs agents spécialisés.
La découverte la plus controversée est un fichier nommé undercover.ts. Selon The Hacker News, ce fichier de 90 lignes de code injecte, lorsque des employés d’Anthropic utilisent Claude Code pour soumettre du code à des projets open source, un prompt système indiquant explicitement à Claude de ne jamais révéler son statut d’IA et de supprimer toute mention de co-auteur (Co-Authored-By). Le code précise : « Vous accomplissez une mission clandestine au sein d’un dépôt de code public/open source. Vos messages de validation, titres de pull request (PR) et descriptions de PR ne doivent contenir aucune information interne à Anthropic. Ne révélez pas votre identité. »
Le code inclut également un indicateur ANTI_DISTILLATION_CC, qui insère des définitions factices d’outils dans les requêtes API afin de polluer les données d’entraînement susceptibles d’être interceptées par des concurrents. On y trouve aussi les noms de code internes des modèles d’Anthropic : « Capybara », désignant un nouveau niveau de modèle encore non publié, et « Fennec », correspondant à l’actuel Opus 4.6. Ces éléments viennent corroborer les informations sur le modèle Mythos divulguées cinq jours plus tôt à la suite d’une erreur de configuration dans un système de gestion de contenu (CMS).
Paul Price, fondateur de la société de cybersécurité Code Wall, a déclaré à Business Insider que cette fuite « causait davantage d’embarras que de dommages réels. Ce qui constitue véritablement la valeur centrale d’Anthropic — les poids internes de ses modèles — n’a pas été divulgué ». Il a toutefois souligné que Claude Code était « l’une des architectures d’outils agents les mieux conçues à ce jour », et que sa divulgation permet désormais de comprendre comment Anthropic résout certains problèmes particulièrement complexes — une information stratégique évidente pour ses concurrents.
8 100 dépôts retirés par erreur : le « flop » du retrait DMCA déclenche une réaction encore plus vive
Après la diffusion du code, Anthropic a immédiatement envoyé à GitHub une demande de retrait fondée sur la loi américaine sur le droit d’auteur (DMCA). Selon les registres publics de GitHub, cette demande a initialement concerné environ 8 100 dépôts. Or, le problème était que les dépôts retirés ne comprenaient pas uniquement des copies du code divulgué, mais aussi des forks légitimes du dépôt officiel de Claude Code, lui-même ouvertement publié par Anthropic.
De nombreux développeurs se sont exprimés avec colère sur X. Danila Poyarkov a signalé avoir reçu une notification de retrait simplement pour avoir créé un fork du dépôt public d’Anthropic. Un autre utilisateur, Daniel San, a reçu un e-mail de GitHub indiquant que le dépôt retiré ne contenait que des exemples de compétences et de la documentation, sans aucun lien avec le code divulgué. Un développeur a ironisé : « Les avocats d’Anthropic venaient à peine de se réveiller qu’ils retiraient déjà mon dépôt. »
Face à la réaction de la communauté, Anthropic a partiellement retiré sa demande le 1er avril. Selon les registres de retrait disponibles sur GitHub, l’entreprise a limité le champ d’application de sa demande à un seul dépôt (nirholas/claude-code) et aux 96 URLs de forks spécifiquement listées dans la notification initiale ; l’accès aux quelque 8 000 autres dépôts a été rétabli par GitHub.
Un porte-parole d’Anthropic a déclaré à TechCrunch : « Les dépôts désignés dans la notification font partie du réseau de forks connectés à notre dépôt public de Claude Code, ce qui explique pourquoi la portée de la demande a dépassé nos attentes. Nous avons retiré toutes les notifications sauf une, et GitHub a rétabli l’accès aux forks concernés. »
Le code est désormais archivé de façon permanente sur des plateformes décentralisées, limitant l’efficacité du DMCA
L’initiative de retrait fondée sur le droit d’auteur menée par Anthropic se heurte à une difficulté fondamentale : le code s’est déjà diffusé de manière irréversible.
Selon Decrypt, la plateforme Git décentralisée Gitlawb a dupliqué l’intégralité du code source original, accompagnée d’une note précisant qu’il « ne sera jamais retiré ». La loi DMCA s’applique efficacement aux plateformes centralisées (telles que GitHub), qui sont tenues par la loi d’obtempérer, mais elle ne peut exercer aucune juridiction sur les infrastructures décentralisées. En quelques heures, le code avait déjà été dupliqué sur suffisamment de miroirs et d’infrastructures variées pour devenir, de fait, définitivement public.
Ironie supplémentaire : le développeur coréen Sigrid Jin a utilisé l’outil d’orchestration IA oh-my-codex pour réécrire l’intégralité du dépôt depuis TypeScript vers Python, sous le nom de projet claw-code. Gergely Orosz, fondateur de The Pragmatic Engineer, a souligné sur X qu’il s’agissait d’une « réécriture en salle blanche » (clean-room rewrite) — une œuvre créative indépendante, expressément conçue pour échapper à la portée du DMCA. Si Anthropic soutenait que le code réécrit par IA constituait toujours une violation, cela affaiblirait précisément l’argument juridique central qu’utilisent les entreprises d’IA dans les litiges relatifs aux droits d’auteur sur les données d’entraînement — à savoir que les sorties générées par une IA à partir d’entrées protégées par le droit d’auteur relèvent de l’usage loyal.
L’ambiguïté de la position sur le droit d’auteur : contradiction flagrante ou nécessité légale ?
La tension la plus remarquée par la communauté concerne justement la contradiction apparente entre la position d’Anthropic sur le droit d’auteur. En septembre 2025, un tribunal américain l’a condamnée à verser 1,5 milliard de dollars de dommages-intérêts pour avoir utilisé des livres piratés et des bibliothèques clandestines afin d’entraîner Claude ; en juin 2025, Reddit l’a poursuivie pour avoir collecté, sans autorisation, du contenu généré par les utilisateurs afin d’entraîner ses modèles. Une entreprise confrontée à plusieurs procès liés aux droits d’auteur sur ses données d’entraînement se retourne maintenant vers le droit d’auteur pour protéger son propre code — une réaction largement anticipée par la communauté.
Un commentaire très populaire sur Slashdot résume parfaitement ce sentiment : « Nous commercialisons publiquement des produits construits à partir de choses volées — et vous osez les voler, vous ? » C’est bien là la contradiction. Un autre utilisateur considère toutefois que, d’un point de vue stratégique, l’action DMCA n’était pas dénuée de sens : « Si Anthropic souhaite un jour poursuivre d’autres entreprises pour utilisation non autorisée de son code, elle ne pourrait pas justifier devant un tribunal avoir omis d’essayer de faire retirer les versions diffusées. »
Ce débat touche également une question juridique émergente : la titularité des droits d’auteur sur le code généré par une IA. Selon des publications antérieures de Gartner et d’Anthropic, environ 90 % du code de Claude Code est généré par une IA. En mars 2025, une cour fédérale américaine a jugé que les œuvres créées exclusivement par une IA ne bénéficient pas de protection par le droit d’auteur, faute d’auteur humain ; la Cour suprême a refusé, en mars 2026, d’examiner l’appel contre cette décision. Si la majeure partie du code de Claude Code a effectivement été écrite par Claude lui-même, la revendication d’Anthropic sur les droits d’auteur repose donc sur une base juridique profondément incertaine.
Deux fuites en une semaine : une alerte sur la sécurité opérationnelle à la veille de l’IPO
Cette fuite de code source intervient seulement cinq jours après le précédent incident d’Anthropic. Le 26 mars, Fortune rapportait qu’une erreur de configuration dans un système de gestion de contenu avait exposé près de 3 000 documents internes non publiés dans un cache de données accessible publiquement, y compris des détails sur le modèle Claude Mythos, alors en cours de développement. Les deux incidents ont été attribués à des « erreurs humaines ».
Ces incidents surviennent à un moment critique. En février 2026, Anthropic a bouclé une levée de fonds de série G de 30 milliards de dollars, portant sa valorisation à 380 milliards de dollars. Selon les informations disponibles, l’entreprise prépare une introduction en bourse dès octobre 2026, avec un montant potentiel supérieur à 60 milliards de dollars. Goldman Sachs, JPMorgan Chase et Morgan Stanley auraient déjà entamé des discussions préliminaires. Le chiffre d’affaires annuel de Claude Code dépasse déjà 2,5 milliards de dollars, représentant le principal moteur de revenus de l’entreprise. TechCrunch souligne que, pour une entreprise sur le point de passer en bourse, la fuite de son code source expose presque inévitablement à des actions collectives intentées par ses actionnaires.
VentureBeat, dans son analyse de l’incident, pose une question encore plus acérée : Anthropic aurait connu plus d’une dizaine d’incidents en mars, mais n’a publié qu’un seul rapport post-incident ; des systèmes de surveillance tiers ont détecté les pannes 15 à 30 minutes avant qu’Anthropic ne mette à jour sa propre page d’état. Une entreprise dont la valorisation atteint 380 milliards de dollars et qui s’apprête à entrer sur les marchés publics possède-t-elle une transparence et une maturité opérationnelles à la hauteur de cette valorisation ? Les investisseurs devront trancher eux-mêmes.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News













