
Anthropic のアイデンティティ・クライシス:72 時間
TechFlow厳選深潮セレクト

Anthropic のアイデンティティ・クライシス:72 時間
アイデンティティ・クライシスの終着点は、しばしばアイデンティティの消失である。
執筆:Ada、TechFlow
2月24日(火曜日)。ワシントンD.C.、ペンタゴン。
AnthropicのCEOダリオ・アモデイ氏は、国防長官ピート・ヘグセット氏の向かい側に座っていた。NPRやCNNなど複数のメディアが関係者を引用して報じたところによると、会談の雰囲気は「礼儀正しかった」が、内容はまったく穏やかではなかったという。
ヘグセット氏はアモデイ氏に対し、最終通告を与えた。「金曜日午後5時01分までに、Claudeの軍事利用制限を解除し、ペンタゴンが『すべての合法的用途』——自立型兵器の標的設定や国内における大規模監視を含む——にこれを活用できるよう許可せよ。」
さもなければ、2億ドルの契約を破棄する。また、『国防生産法』を発動して強制徴収を実施し、「サプライチェーンリスク企業」としてAnthropicを指定する。これは、ロシアおよび中国の敵対的実体と同列に扱うことを意味する。
同日、Anthropicは第3版「責任ある拡張方針(RSP 3.0)」を発表したが、創業以来最も核心的な約束——すなわち「安全性を確保できない限り、より強力なモデルの訓練を中止する」——を静かに削除していた。
同日、イーロン・マスク氏はX上で次のように投稿した。「Anthropicは大量の訓練データを盗用している。これは事実だ。」さらに、Xのコミュニティノートでは、Anthropicが盗版書籍を用いてClaudeを訓練したことにより15億ドルの和解金を支払ったとの報道が補足された。
72時間以内に、この「魂を持つ」と自称するAI企業は、同時に三つの役割を演じることになった:安全の殉教者、知的財産の窃盗犯、そしてペンタゴンへの反逆者。
どれが真実か?
おそらく、すべてが真実なのだ。
ペンタゴンの「服従せよ、さもなくば去れ」
物語の第一層は単純である。
Anthropicは、米国国防部から機密レベルのアクセス権を付与された初めてのAI企業である。昨夏に締結された契約の上限額は2億ドル。その後、OpenAI、Google、xAIもそれぞれ同規模の契約を獲得した。
アルジャジーラ紙の報道によると、Claudeは今年1月に行われた米軍作戦で使用された。その作戦はベネズエラのマドゥーロ大統領誘拐に関係していたとされる。
しかしAnthropicは二つのレッドラインを設定した:全自動兵器の標的設定を支援しない、米国市民に対する大規模監視を支援しない。Anthropicは、AIの信頼性が兵器操作に十分ではなく、また現在、大規模監視におけるAI活用を規律する法律・規則は存在しないと考えていた。
ペンタゴンはこれを認めなかった。
ホワイトハウスのAI顧問デイヴィッド・サックス氏は、昨年10月にX上でAnthropicを公然と非難し、「恐怖を武器として規制捕獲を図っている」と指摘した。
競合他社はすでに屈服した。OpenAI、Google、xAIはいずれも、軍が自社AIを「すべての合法的シナリオ」で活用することを承諾した。マスク氏のGrokは今週、機密システムへの参入を正式に承認されたばかりである。
Anthropicだけが最後まで立ち上がっている。
本稿執筆時点において、Anthropicは最新声明で譲歩するつもりはないとしているが、金曜日午後5時01分という期限は、もう目前に迫っている。
CNNに対し匿名でコメントした元司法省・国防部連絡担当者はこう困惑を表明した。「どうして、ある企業を『サプライチェーンリスク企業』と指定しながら、同時にその企業に自軍のために働かせようとするのか?」
優れた問いかけだが、これはペンタゴンの考慮範囲外である。彼らが気にしているのは、Anthropicが妥協しなければ、強制措置を取るか、あるいはワシントンから見放されるか、という二者択一の選択肢だけである。
「蒸留攻撃」:面目を失わせる告発
2月23日、Anthropicは、中国の3社がClaudeに対して「産業規模の蒸留攻撃」を実行したと主張する、言葉の鋭いブログ記事を発表した。
被告はDeepSeek、Moonshot AI、MiniMaxの3社である。
Anthropicは、これらが偽造アカウント2万4,000個を用いてClaudeに対して1,600万回を超えるインタラクションを実施し、エージェント推論・ツール呼び出し・プログラミングといったClaudeのコア能力を意図的に抽出したと非難している。
Anthropicはこの行為を国家安全保障上の脅威と位置付け、「蒸留後のモデルはセーフガードを保持しづらく、権威主義的政府によるサイバー攻撃・誤情報拡散・大規模監視に悪用される可能性がある」と警告した。
ストーリーは完璧であり、タイミングも完璧であった。
ちょうどトランプ政権が対中半導体輸出規制を緩和した直後であり、Anthropicが自らの半導体輸出規制に関するロビー活動の根拠を求めていた時期と重なっていた。
だがマスク氏が一発の銃撃を加えた。「Anthropicは大量の訓練データを盗用しており、数十億ドル規模の和解金を支払った。これは事実だ。」

AIインフラ企業IO.Netの共同創設者トリー・グリーン氏はこう述べている。「あなた方はウェブ全体のデータで自社モデルを訓練している。それなのに、他社が公開APIを通じてあなた方のモデルを学習することを『蒸留攻撃』と呼ぶのか?」
Anthropicは「蒸留」を「攻撃」と呼ぶが、この行為はAI業界では日常茶飯事である。OpenAIはGPT-4の圧縮にそれを用い、GoogleはGeminiの最適化にそれを用い、Anthropic自身も同様の手法を採用している。唯一の違いは、今回「蒸留」されたのが自分たち自身だということである。
シンガポール・ナンヤン工科大学のAI教授エリック・カンブリア氏がCNBCに対し述べたところによると、「合法的利用と悪意ある利用の境界線は、しばしば曖昧なものである」。
さらに皮肉なことに、Anthropicは先ごろ盗版書籍を用いたClaudeの訓練に関して15億ドルの和解金を支払ったばかりである。自社はウェブ上の全データでモデルを訓練し、他社がその公開APIを利用して学習することを非難する。これは単なる二枚舌ではなく、三枚舌である。
Anthropicは本来、被害者としての立場を演じようとしていたが、結果として被告として糾弾されてしまったのだ。
安全約束の撤廃:RSP 3.0
ペンタゴンとの対峙、シリコンバレー諸勢力との抗争が繰り広げられていたまさにその日に、Anthropicは第三版「責任ある拡張方針」を発表した。
Anthropicのチーフサイエンティスト、ジェレッド・カプラン氏はメディアの取材に対し、「AIモデルの訓練を停止することは、誰にとっても利益にならないと考えている。AIが急速に進化する中で、競合他社が全力で前進する一方で、自社が一方的に約束を守り続けることは意味がない」と語った。
言い換えれば、「相手がルールを守らないなら、こちらも建前はやめよう」ということである。
RSP 1.0および2.0の核となるのは、モデルの能力が既存の安全対策の適用範囲を上回った場合、訓練を一時停止するという明確な約束であった。この約束によって、AnthropicはAI安全分野において他に類を見ない評価を得ていた。
しかし、3.0ではこの約束が削除された。
代わりに提示されたのは、より「柔軟な」枠組みであり、Anthropic自身が実施可能な安全対策と、業界全体での協調が必要な安全提言を、二つの並行する軌道として分類するものである。3~6ヶ月ごとにリスク報告書を公表し、外部の専門家によるレビューを依頼する。
一見すると誠実に見えるだろうか?
非営利組織METRの独立審査員クリス・ペインタ氏は、政策の初期草案を読んだ後にこう述べている。「これはAnthropicが『トリアージ・モード』へと移行する必要性を認識したことを示す。リスクの評価・緩和手法が、能力の成長速度に追いつかないという認識である。これはむしろ、社会がAIの潜在的災害的リスクに対して準備不足であることを証明している。」
TIME誌の報道によると、Anthropicはこの改訂について約1年間にわたり内部で議論を重ね、CEOのアモデイ氏と取締役会は全会一致で承認した。公式見解では、当初の政策は業界全体の合意形成を促すことを目的としていたが、実際には業界全体がそれに追随できなかったため、改訂に至ったという。トランプ政権はAIの発展を放置する姿勢をとり、各州の関連法規を廃止しようとも試みた。連邦レベルでのAI関連法制化は未だ遠く、2023年に世界規模のガバナンス枠組み構築が可能だったかもしれないが、3年を経てば、その扉は明らかに閉ざされてしまった。
AIガバナンスを長年追跡してきた匿名の研究者は、さらに直接的にこう述べている。「RSPはAnthropicにとって最も価値のあるブランド資産である。訓練の一時停止約束を削除するというのは、有機食品メーカーがパッケージから『有機』という表示をこっそり剥がし、『我々の検査は今やより透明になった』と消費者に伝えるようなものだ。」
3,800億ドルの評価額に潜むアイデンティティの分裂
今月初め、Anthropicは3,800億ドルの評価額で300億ドルの資金調達を完了し、アマゾンがアンカー投資家となった。創業以来、年間化売上高は140億ドルに達している。過去3年間、この数字は毎年10倍以上ずつ増加している。
一方で、ペンタゴンはAnthropicをブラックリスト入りさせると脅している。マスク氏は公然とデータ盗用を非難している。自社の核となる安全約束は撤廃された。AnthropicのAI安全責任者、ムリナンク・シャルマ氏は退職後、X上でこう記している。「世界は危機にさらされている。」
矛盾しているだろうか?
いや、むしろ矛盾こそがAnthropicの本質なのかもしれない。
この企業は、かつてOpenAIの幹部たちが、同社が安全問題においてあまりにも急進的だと懸念して設立したものである。そして彼らは、自らが設立した企業で、さらに速いペースでより強力なモデルを開発し、同時に全世界に「これらのモデルがいかに危険か」を訴え続けているのだ。
そのビジネスモデルは一言で要約できる。「我々は誰よりもAIを恐れている。だからこそ、AIの開発を委ねるために、あなたは我々にお金を払うべきだ。」
この物語は2023~2024年に完璧に機能した。AI安全はワシントンのキーワードとなり、Anthropicは最も人気のあるロビイストとなった。
しかし2026年、風向きは変わった。
「目覚めたAI(woke AI)」というレッテルが攻撃の象徴となり、州レベルのAI規制法案はホワイトハウスによって阻止された。Anthropicが支援したカリフォルニア州SB53号は成立したものの、連邦レベルでは全くの空白状態である。
Anthropicの安全カードは、「差別化の強み」から「政治的負債」へと滑り落ちつつあるのだ。
Anthropicは複雑なバランス術を実践している。それは、ブランド維持のためには十分に「安全」である必要があり、同時に市場や政府から見放されないためにも十分に「柔軟」である必要があるというものだ。問題は、両者の許容範囲がいずれも狭まっている点にある。
安全という物語、今やどれほどの価値があるのか?
この三つの出来事を重ね合わせて見れば、全体像は明瞭になる。
中国企業によるClaudeの「蒸留」を非難するのは、半導体輸出規制強化のためのロビー活動の物語を強化するためである。軍備競争で遅れをとらないために、安全停止の約束を削除した。ペンタゴンの自立型兵器要求を拒否するのは、最後の道徳的外装を守るためである。
一見すると、それぞれに筋は通っているが、互いに矛盾する行動でもある。
自社モデルの「蒸留」が国家安全保障を脅かすと主張する一方で、自社モデルの暴走を防ぐための約束を削除することはできない。もしモデルが本当にそれほど危険だと考えるならば、慎重さを増すべきであり、むしろ過激化すべきではない。
ただし、それがAnthropicであれば話は別だ。
AI業界において、企業のアイデンティティは宣言によって定義されるのではなく、貸借対照表(バランスシート)によって定義される。Anthropicの「安全」物語は、本質的には一種のブランドプレミアムである。
AI軍備競争の初期段階では、このプレミアムは価値があった。投資家は「責任あるAI」に高い評価額を支払うことを厭わず、政府は「信頼できるAI」にグリーンライトを出し、顧客は「より安全なAI」に料金を支払った。
しかし2026年、このプレミアムは蒸発しつつある。
Anthropicが今直面しているのは、「妥協するか否か」という選択問題ではなく、「まず誰に妥協するか」という順位付けの問題である。ペンタゴンに妥協すればブランドが損なわれる。競合に妥協すれば安全約束が無効化される。投資家に妥協すれば、両方に譲歩せざるを得なくなる。
金曜日午後5時01分、Anthropicはその答えを提出するだろう。
しかし、その答えが何であれ、一つだけ確かなことがある。かつて「我々はOpenAIとは違う」というキャッチフレーズで存在意義を示していたAnthropicは、今や誰とも区別がつかない存在になりつつあるということだ。
アイデンティティ危機の終着点は、往々にしてアイデンティティの消滅である。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News











