
Les soixante-douze heures de crise d’identité d’Anthropic
TechFlow SélectionTechFlow Sélection

Les soixante-douze heures de crise d’identité d’Anthropic
La crise d’identité aboutit souvent à la disparition de l’identité.
Rédaction : Ada, TechFlow
Mardi 24 février. Washington, le Pentagone.
Dario Amodei, PDG d’Anthropic, était assis en face du secrétaire à la Défense, Pete Hegseth. Selon plusieurs médias, dont NPR et CNN, citant des sources bien informées, l’atmosphère de la réunion était « courtoise », mais le contenu n’avait rien de diplomatique.
Hegseth lui avait lancé un ultimatum : lever, avant vendredi 17 h 01, les restrictions sur l’utilisation militaire de Claude afin de permettre au Pentagone de l’employer à « toutes fins légales », y compris le ciblage autonome d’armes et la surveillance de masse à l’intérieur des États-Unis.
À défaut, le contrat de 200 millions de dollars serait annulé ; la Loi sur la production de défense serait invoquée pour une réquisition forcée ; Anthropic serait classée comme « risque pour la chaîne d’approvisionnement », ce qui reviendrait à l’inscrire sur la même liste noire que les entités hostiles russes et chinoises.
Le même jour, Anthropic publiait sa troisième version de sa « Politique responsable d’extension » (RSP 3.0), supprimant discrètement l’un des engagements fondateurs de l’entreprise : ne pas entraîner de modèles plus puissants si les mesures de sécurité ne pouvaient être garanties.
Toujours ce même jour, Elon Musk publiait sur X un message affirmant : « Anthropic vole massivement des données d’entraînement — c’est un fait. » Par ailleurs, les « notes communautaires » de X ajoutaient un rapport selon lequel Anthropic aurait versé 1,5 milliard de dollars pour régler un litige lié à l’utilisation de livres piratés dans l’entraînement de Claude.
En soixante-douze heures, cette entreprise d’intelligence artificielle, qui se présentait comme dotée d’une « âme », endossa simultanément trois rôles : martyr de la sécurité, voleur de propriété intellectuelle, traître aux yeux du Pentagone.
Lequel est authentique ?
Peut-être tous.
« Obéis ou dégage » : la posture du Pentagone
Le premier niveau de l’histoire est simple.
Anthropic est la première entreprise d’IA à avoir obtenu un accès confidentiel au sein du ministère américain de la Défense. Le contrat, signé l’été dernier, porte sur un montant maximal de 200 millions de dollars. OpenAI, Google et xAI ont ensuite reçu chacun des contrats d’un montant équivalent.
Selon Al Jazeera, Claude aurait été utilisé lors d’une opération militaire américaine en janvier de cette année, une opération présumée impliquant l’enlèvement du président vénézuélien Nicolás Maduro.
Anthropic s’était toutefois fixé deux lignes rouges : refuser le ciblage d’armes entièrement autonome et rejeter toute forme de surveillance de masse à l’encontre des citoyens américains. L’entreprise estimait que la fiabilité actuelle de l’IA ne permettait pas de confier le contrôle d’armes à des systèmes automatisés, et qu’aucun cadre juridique n’encadrait encore son utilisation dans le domaine de la surveillance de masse.
Le Pentagone n’a pas accepté ces conditions.
David Sacks, conseiller présidentiel pour l’IA à la Maison-Blanche, avait accusé publiquement Anthropic, en octobre dernier sur X, de « faire usage de la peur comme arme » et de chercher à « capturer le régulateur ».
Les concurrents avaient déjà plié. OpenAI, Google et xAI avaient tous accepté que leurs IA soient utilisées par les forces armées « dans tous les scénarios légaux ». Le modèle Grok d’Elon Musk venait d’être approuvé cette semaine pour accéder aux systèmes confidentiels.
Anthropic restait le dernier à tenir bon.
À l’heure de la publication de cet article, Anthropic déclarait dans un communiqué récent ne pas envisager de céder. Toutefois, la limite fixée au vendredi à 17 h 01 approchait à grands pas.
Un ancien interlocuteur anonyme entre le ministère de la Justice et le ministère de la Défense, cité par CNN, exprimait sa perplexité : « Comment peut-on à la fois désigner une entreprise comme un “risque pour la chaîne d’approvisionnement” et exiger qu’elle travaille pour votre armée ? »
Bonne question — mais hors du champ de réflexion du Pentagone. Ce qui l’intéresse, c’est que, si Anthropic refuse de céder, des mesures coercitives seront prises… ou qu’elle devienne une paria à Washington.
L’« attaque par distillation » : une accusation humiliante
Le 23 février, Anthropic publiait un billet de blog virulent accusant trois entreprises chinoises d’avoir mené contre Claude une « attaque par distillation à l’échelle industrielle ».
Les accusées étaient DeepSeek, Moonshot AI et MiniMax.
Anthropic les accusait d’avoir utilisé 24 000 comptes factices pour lancer plus de 16 millions d’interactions avec Claude, visant spécifiquement à extraire ses capacités fondamentales en raisonnement agent, appel d’outils et programmation.
L’entreprise qualifiait cet acte de menace pour la sécurité nationale, affirmant que les modèles issus de cette distillation « ne conserveraient probablement pas leurs dispositifs de sécurité », et pourraient ainsi être exploités par des gouvernements autoritaires à des fins d’attaques cybernétiques, de désinformation et de surveillance de masse.
Le récit était parfait — et le timing, impeccable.
Cela intervenait juste après que l’administration Trump eut assoupli les restrictions à l’exportation de puces vers la Chine, et précisément au moment où Anthropic avait besoin d’arguments solides pour défendre sa position en faveur du maintien de ces restrictions.
Musk tira alors un coup de feu : « Anthropic vole massivement des données d’entraînement, et a versé des milliards de dollars pour régler les litiges qui en découlent. C’est un fait. »

Tory Green, cofondateur de la société d’infrastructures IA IO.Net, commentait ainsi : « Vous entraînez vos modèles sur l’ensemble des données disponibles sur le Web, puis vous qualifiez de “distillation” le fait que d’autres apprennent à partir de votre API publique ? »
Anthropic baptise « attaque » la distillation, alors que celle-ci constitue une pratique courante dans le secteur de l’IA. OpenAI l’utilise pour compresser GPT-4, Google pour optimiser Gemini, et Anthropic elle-même y a recours. La seule différence, cette fois, est que c’est Anthropic qui subit la distillation.
Le professeur d’IA Erik Cambria, de l’Université technologique de Nanyang (Singapour), déclara à CNBC : « La frontière entre usage licite et usage malveillant est souvent floue. »
Plus ironique encore : Anthropic venait de verser 1,5 milliard de dollars pour régler un litige lié à l’utilisation de livres piratés dans l’entraînement de Claude. Elle entraîne ses modèles sur l’ensemble des données publiques du Web, puis accuse autrui d’utiliser son API publique pour l’étudier. Ce n’est pas du double standard — c’est du triple standard.
Anthropic souhaitait jouer le rôle de la victime, mais s’est retrouvée exposée comme accusée.
La démolition de l’engagement sécuritaire : RSP 3.0
Le jour même de son affrontement avec le Pentagone et de sa bataille avec la Silicon Valley, Anthropic publiait sa troisième version de sa Politique responsable d’extension.
Jared Kaplan, chef scientifique d’Anthropic, déclara aux journalistes : « Nous pensons qu’arrêter l’entraînement des modèles d’IA ne servirait personne. Dans un contexte de développement accéléré de l’IA, faire unilatéralement une promesse… alors que les concurrents avancent à pleine vitesse, n’a aucun sens. »
Autrement dit : puisque les autres ne respectent pas les règles, nous cessons aussi de faire semblant.
Le cœur des versions RSP 1.0 et 2.0 était un engagement ferme : suspendre l’entraînement dès lors que les capacités du modèle dépasseraient la portée des mesures de sécurité mises en œuvre. Cet engagement avait valu à Anthropic une réputation unique dans la communauté de la sécurité IA.
Mais la RSP 3.0 l’a supprimé.
Elle le remplace par un cadre plus « souple », distinguant clairement deux voies : d’un côté, les mesures de sécurité que seule Anthropic peut mettre en œuvre ; de l’autre, les recommandations de sécurité nécessitant une collaboration à l’échelle du secteur. Un rapport sur les risques sera publié tous les trois à six mois, et soumis à l’examen d’experts externes.
Ça semble responsable ?
Chris Painter, expert indépendant de l’organisation à but non lucratif METR, après avoir lu une version préliminaire de la politique, déclara : « Cela montre qu’Anthropic considère désormais devoir entrer en mode “triage”, car ses méthodes d’évaluation et d’atténuation des risques ne suivent plus le rythme de l’accroissement des capacités. Cela prouve davantage que la société n’est pas préparée aux risques catastrophiques potentiels liés à l’IA. »
Selon TIME, Anthropic avait consacré près d’un an à des discussions internes sur cette réécriture, et la décision avait été adoptée à l’unanimité par le conseil d’administration et le PDG Amodei. Officiellement, la politique initiale avait été conçue pour favoriser un consensus sectoriel — or, ce consensus n’a jamais vu le jour. L’administration Trump a adopté une posture permissive envers le développement de l’IA, allant jusqu’à tenter d’abroger les lois réglementaires adoptées par certains États. Une loi fédérale sur l’IA demeure très lointaine. Bien qu’un cadre de gouvernance mondial ait semblé envisageable en 2023, trois ans plus tard, cette fenêtre est manifestement fermée.
Un chercheur anonyme, spécialiste depuis longtemps de la gouvernance de l’IA, alla droit au but : « La RSP est l’actif de marque le plus précieux d’Anthropic. Supprimer l’engagement de suspension de l’entraînement revient à ce qu’une entreprise de produits bio arrache discrètement le mot “bio” de ses emballages, puis vous explique que ses nouvelles procédures de contrôle sont plus transparentes. »
Une identité déchirée sous une valorisation de 380 milliards de dollars
Début février, Anthropic a bouclé un tour de financement de 30 milliards de dollars à une valorisation de 380 milliards de dollars, Amazon étant l’investisseur pivot. Depuis sa création, l’entreprise génère un chiffre d’affaires annuel annualisé de 14 milliards de dollars, multiplié chaque année par plus de dix au cours des trois dernières années.
Pendant ce temps, le Pentagone menace de la placer sur sa liste noire. Musk l’accuse publiquement de vol de données. Son engagement fondamental en matière de sécurité est supprimé. Mrinank Sharma, responsable de la sécurité IA chez Anthropic, a démissionné et écrit sur X : « Le monde court un grave danger. »
Contradiction ?
Peut-être la contradiction est-elle inscrite dans l’ADN même d’Anthropic.
Cette entreprise a été fondée par d’anciens cadres d’OpenAI, inquiets de la vitesse à laquelle OpenAI progressait sur la question de la sécurité. Ils ont alors créé leur propre société, développant des modèles encore plus puissants, et plus vite — tout en alertant le monde entier sur les dangers que ces modèles représentent.
Leur modèle économique peut se résumer en une phrase : « Nous avons plus peur de l’IA que quiconque, donc vous devriez nous payer pour la construire. »
Ce récit fonctionnait parfaitement entre 2023 et 2024. La sécurité IA était un mot-clé à Washington, et Anthropic était le lobbyiste le plus populaire.
En 2026, le vent a tourné.
Le label « IA wokiste » est devenu une arme d’attaque ; les projets de loi étatiques sur la régulation de l’IA ont été bloqués par la Maison-Blanche ; bien que la loi californienne SB 53, soutenue par Anthropic, ait été promulguée, le niveau fédéral reste totalement vide.
La carte de la sécurité, autrefois atout différenciant d’Anthropic, se transforme désormais en « passif politique ».
Anthropic pratique un équilibre délicat : elle doit rester suffisamment « sûre » pour préserver sa marque, tout en étant suffisamment « souple » pour ne pas être abandonnée par le marché ni par le gouvernement. Or, l’espace de tolérance des deux côtés se rétrécit.
Combien vaut encore le récit de la sécurité ?
En superposant les trois événements, le tableau devient limpide.
L’accusation contre les entreprises chinoises de « distillation » de Claude vise à renforcer le récit militant en faveur du maintien des restrictions à l’exportation de puces. Pour ne pas perdre pied dans la course aux armements, l’engagement de suspension sécuritaire a été supprimé. Le refus des demandes du Pentagone concernant les armes autonomes vise à conserver une dernière couche de protection morale.
Chaque étape obéit à une logique interne, mais ces logiques se contredisent mutuellement.
On ne peut pas à la fois affirmer que la « distillation » du modèle par des entreprises chinoises menace la sécurité nationale, tout en supprimant l’engagement destiné à empêcher que son propre modèle ne dérape. Si le modèle est vraiment si dangereux, il convient d’agir avec plus de prudence — non avec plus de précipitation.
À moins d’être Anthropic.
Dans le secteur de l’IA, l’identité ne se définit pas par les déclarations, mais par le bilan. Le récit de la « sécurité » d’Anthropic est essentiellement une prime de marque.
Au début de la course aux armements IA, cette prime avait de la valeur. Les investisseurs étaient prêts à payer une valorisation plus élevée pour une « IA responsable », le gouvernement accordait des passe-droits à une « IA digne de confiance », et les clients acceptaient de payer davantage pour une « IA plus sûre ».
Mais en 2026, cette prime s’évapore.
Anthropic ne fait plus face à une simple question de compromis — « Doit-elle céder ? » — mais à une question de hiérarchie : « À qui cédera-t-elle en premier ? » Céder au Pentagone nuira à sa marque. Céder aux concurrents rendra caduc son engagement en matière de sécurité. Céder aux investisseurs exigera de sacrifier les deux.
Vendredi à 17 h 01, Anthropic rendra sa réponse.
Mais quelle que soit cette réponse, une chose est désormais certaine : l’Anthropic qui s’était autrefois définie par la formule « Nous sommes différents d’OpenAI » devient progressivement identique à tous les autres.
L’aboutissement d’une crise identitaire est souvent la disparition de l’identité elle-même.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News











