
AIの今週を読み解く7つのサイン:モデルの漏洩、コードエンジン、人事管理
TechFlow厳選深潮セレクト

AIの今週を読み解く7つのサイン:モデルの漏洩、コードエンジン、人事管理
Anthropic の全体売上高の年間化ランレート(ARR)は、140億ドルに達すると推定されています。また、Claude Code 単体の年間化ランレート(ARR)は約25億ドルです。
著者:Tara Tan/StrangeVC
翻訳・編集:TechFlow
TechFlow 読者向け解説:今週のレポートは密度が非常に高く、AI業界の最も重要な動向を網羅する7つの独立したインテリジェンス・シグナルを収録しています。
とりわけ注目すべきは、Anthropic社がCMS設定ミスにより、内部コードネーム「Capybara」という新モデルの情報を誤って公開してしまったことです。このモデルはOpusより上位の階層に位置付けられます。
全文は以下の通りです:
ここ数か月の間に、我々は明らかに何らかの「エージェント型(agentic)」閾値を越えました。5年前には4~6週間かかっていた構築作業が、今では5分未満で完了します。また、6か月前には1~2時間の作業と大量のデバッグが必要だった同様のタスクも、現在では瞬時に実行可能です。
これは極めて顕著な相転移であり、我々はその全貌をまだ十分に理解していないかもしれません。アイデアと実行可能な製品との距離が崩壊したことで、業界全体が再定義されようとしています。これは、人類が構築・創造・問題解決のために用いるツールにおける飛躍的な進化です。
関連して、OpenAIによる買収以降、OpenClawは明らかに安定性を増しています。今後、AI分野において最も重要なオープンソースプロジェクトの一つとなる明確な道筋が描かれています。
それでは、今週の内容に入りましょう。
AnthropicのClaude Mythos情報漏洩が新たなモデル階層を明らかに
Anthropic社はCMSの設定ミスにより、未発表モデル「Claude Mythos」に関する詳細を誤って公開しました。漏洩した草案には、Opusより上位の新たな「Capybara」階層について記述があり、プログラミング、推論、サイバーセキュリティ能力において画期的な進展が報告されています。Anthropic社は、このモデルを早期アクセス顧客向けにテスト中であると確認し、「飛躍的進化(step-change)」かつ「これまでに構築された中で最も強力なモデル」と評価しています。(Fortune、The Decoder)
なぜ重要か:モデル自体に加え、さらに2点が特に注目に値します。第一に、漏洩草案は当該モデルのサイバーセキュリティ能力が「他のいかなるAIモデルよりもはるかに優れている」と警告しており、これが単一日取引内でサイバーセキュリティ関連銘柄の株価を押し上げる要因となりました。第二に、第4のモデル階層(CapybaraがOpusの上位)の導入は、Anthropic社がベンチマーク性能向上のためではなく、企業顧客向けの価格設定空間を構築しようとしていることを示唆しています。
Claude CodeがAnthropicのコア成長エンジンへと進化
Claude Codeは、現時点で公開されているGitHubへのコミットの約4%を占めています。今年末までには20%を超えると予測されています。Anthropic社の総売上高の年間ランレート(ARR)は約140億ドルと推定され、そのうちClaude Code単体のARRは約25億ドルに達すると見込まれます。このツールのユーザーはもはや開発者にとどまらず、非技術系ユーザーにも広がりつつあり、彼らはプロジェクト構築のためにターミナルコマンドの習得を始めています。(SemiAnalysis、Uncover Alpha、VentureBeat)
なぜ重要か:Claude Codeは、開発者による有機的な採用を通じて、顧客獲得コスト(CAC)を事実上ゼロまで圧縮しています。さらに、Cowork機能を介した非開発者層への拡大により、対象市場は世界中の2800万人のプロフェッショナル・デベロッパーという枠組みを大きく超えて拡大しています。
Cheng Lou氏のPretext:CSSに依存しないテキストレイアウト
Cheng Lou氏は、過去10年間で最も影響力のあるUIエンジニアの一人(React、ReasonML、Midjourneyの開発に関与)であり、今回「Pretext」という純粋なTypeScriptによるテキスト計測アルゴリズムを公開しました。これはCSSおよびDOM計測、ブラウザのリフローを一切回避する設計です。デモには、120fpsで数十万個のテキストボックスを仮想レンダリングすること、ピクセルの無駄を一切排した極限まで緊密なチャット吹き出し、レスポンシブなマルチカラム雑誌レイアウト、可変幅のASCIIアートなどが含まれます。(X投稿)
なぜ重要か:テキストのレイアウトおよび計測は、次世代UIの発展を妨げる潜在的なボトルネックであり続けてきました。CSSは静的なドキュメントを目的として設計されており、今日の主流となっている流体的・AI生成・リアルタイムインターフェースの設計には不向きです。もしPretextがデモで示された性能を実現できれば、AIネイティブなインターフェースの外観およびユーザーエクスペリエンスにおける最後の基礎的制約の一つを解消することになります。
Arm、設立35年にして初の自社設計チップを出荷
Arm社は、TSMCの3nmプロセスを採用し、Meta社と共同開発した136コアのデータセンター向けCPU「AGI CPU」を発表しました。これはArm社史上初めて、IPライセンスではなく完成品チップを販売する取り組みです。OpenAI、Cerebras、Cloudflareが初期パートナーとして名を連ねており、量産出荷は今年末から開始される予定です。(Arm Newsroom、EE Times)
なぜ重要か:現在のAIデータセンターはGPU中心の構成です。GPUは主にモデルの学習および実行を担い、CPUはデータフロー処理およびスケジューリングを担当します。しかし、エージェント型ワークロードは異なります。数千のAIエージェントが同時に動作し、それぞれがタスクの調整、API呼び出し、メモリ管理、システム間のデータルーティングを担当する場合、こうしたオーケストレーション作業はCPUに負荷集中します。Arm社は、これによりデータセンターの1ギガワットあたりのCPU需要が4倍に増加すると主張しています。(HPCwire、Futurum Group)
NVIDIAとEmerald AIがデータセンターを電力網の資産へと変革
NVIDIAとEmerald AIは、AES、Constellation、Invenergy、NextEra、Vistraと提携し、「フレキシブルAIファクトリー」の構築を発表しました。これは、計算負荷の調整によって電力網のバランスサービスに参加するというものです。第1号施設「Aurora」はバージニア州マナサスに建設され、2026年上半期の稼働が予定されています。(NVIDIA Newsroom、Axios)
なぜ重要か:AIインフラの拡大における最大のボトルネックは、チップではなく電力網への接続期間であり、多くの地域では3~5年の時間がかかります。電力網の柔軟性を実証できるデータセンターは、より迅速な接続が可能となり、規制上の障壁も小さくなります。これにより、AIインフラ投資家のエネルギー戦略の本質が再定義されます。「より多くの電力を供給する」ことではなく、「よりスマートな電力を供給する」ことが勝敗を分ける鍵となります。
中国当局がManus AIの経営陣の出国を制限
中国当局は、シンガポールに登録するAIスタートアップManus AIをMeta社が20億ドルで買収した直後、同社CEOの蕭宏氏およびチーフサイエンティストの紀一超氏の出国を制限しました。国家発展改革委員会は今月、両氏を北京に招喚し、監督審査期間中の渡航制限を課しました。(Reuters、Washington Post)
なぜ重要か:これは貿易制限ではなく、人材制限です。中国は、企業の登録地に関係なく、中国大陸出身のAI人材は国家管理下の資産であるというメッセージを発している可能性があります。
4000億パラメータの大規模言語モデルがiPhone 17 Pro上で完全ローカル実行
オープンソースプロジェクト「Flash-MoE」が、4000億パラメータのMoE(Mixture of Experts)モデルをiPhone 17 Pro搭載のA19 Proチップ上で完全に端末側で実行するデモを公開しました。SSDからGPUへの重みのストリーミングにより実現しています。このモデル(Qwen 3.5-397B、2ビット量子化、アクティブパラメータ数170億)はトークン生成速度0.6トークン/秒で動作し、残り5.5GBのRAMを確保しています。(WCCFTech、TweakTown、Hacker News)
なぜ重要か:これはあくまで概念実証であり、製品ではありません。12GBのRAMを搭載するスマートフォン上で4000億パラメータのモデルが動作する理由は、実行時におけるモデルの一部(エキスパート)のみがアクティブ状態となり、残りの部分は必要に応じて端末内蔵SSDからストリーミングされるためです。同様の手法を、はるかに小さなモデル(例:70億または140億パラメータ)に適用すれば、次世代の高速ストレージを備えたモバイルチップ上で、実際に実用可能な、会話レベルの速度を実現するAIを完全に端末側でローカル実行することが可能になります。クラウド接続は不要です。
AIエージェントが素粒子物理学実験全体を自律的に完遂
MITの研究者らは「JFC(Just Furnish Context)」と呼ばれるフレームワークを発表し、Claude Codeを基盤としたLLMエージェントが、高エネルギー物理学分析パイプライン全体(イベント選別、バックグラウンド推定、不確かさの定量化、統計的推論、論文執筆)を自律的に実行できることを実証しました。このシステムはALEPH、DELPHI、CMS検出器から公開されているデータを用いて動作します。(arXiv 2603.20179)
なぜ重要か:これは、方法論的に極めて厳密な領域において、エージェント型AIが科学ワークフローをエンドツーエンドで自動化できるという、最も明確な実証例の一つです。直接的な投資的含意としては、物理学、ゲノミクス、材料科学などの分野で長年にわたって蓄積されてきたアーカイブデータセットの再分析が挙げられます。これらの数十年分のデータは、いまだ十分に活用されていません。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News














