
七個信號讀懂 AI 這一週:模型洩露、代碼引擎、人員管控
TechFlow Selected深潮精選

七個信號讀懂 AI 這一週:模型洩露、代碼引擎、人員管控
Anthropic 整體營收年化運行率估計達到 140 億美元,Claude Code 單獨的年化運行率約為 25 億美元。
作者:Tara Tan / StrangeVC
編譯:深潮 TechFlow
深潮導讀:本期週報密度極高,七條獨立信號覆蓋了 AI 行業最關鍵的幾個走向。
其中最值得關注:Anthropic 通過 CMS 配置失誤意外洩露了內部代號"Capybara"的新模型,層級位於 Opus 之上。
全文如下:
過去幾個月,我們肯定已經跨越了某個 agentic 門檻。五年前需要四到六週完成的構建,現在不到五分鐘。六個月前,同樣的任務還是一到兩小時加大量調試。
這是一個相當顯著的相變,我們可能還沒有完全消化。想法與可運行產品之間距離的崩塌,將重寫整個行業。這是人類用於構建、創造和解決問題的工具的階躍式變化。
與此相關,OpenClaw 自 OpenAI 收購以來明顯更加穩定。它有著成為 AI 領域最重要開源項目之一的清晰路徑。
進入本週內容。
Anthropic 的 Claude Mythos 洩露揭示新模型層級
Anthropic 因 CMS 配置失誤,意外暴露了一個名為 Claude Mythos 的未發佈模型的細節。洩露的草稿描述了一個新的"Capybara"層級,位於 Opus 之上,在編程、推理和網絡安全能力上有重大突破。Anthropic 確認正在向早期訪問客戶測試該模型,稱其為"階躍式變化"和"迄今構建的最強大模型"。( Fortune, The Decoder)
為什麼重要:除模型本身之外,有兩件事更值得關注。第一,洩露的草稿警告該模型的網絡安全能力"遠超任何其他 AI 模型",這在單個交易日內推動了網絡安全股票的走勢。第二,引入第四個模型層級(Capybara 位於 Opus 之上)表明 Anthropic 正在為企業客戶構建定價空間,而不只是為基準測試構建性能空間。
Claude Code 正成為 Anthropic 的核心增長引擎
Claude Code 目前約佔所有公開 GitHub 提交的 4%,預計年底前將達到 20%以上。Anthropic 整體營收年化運行率估計達到 140 億美元,Claude Code 單獨的年化運行率約為 25 億美元。這款工具的使用者已從開發者擴展到非技術用戶,後者正在學習終端命令來用它構建項目。( SemiAnalysis, Uncover Alpha, VentureBeat)
為什麼重要:Claude Code 通過有機的開發者採用,將客戶獲取成本壓縮至接近零。通過 Cowork 向非開發者角色的擴展,將可尋址市場遠遠拓展到全球 2800 萬專業開發者之外。
Cheng Lou 的 Pretext:不依賴 CSS 的文本佈局
Cheng Lou 是過去十年最具影響力的 UI 工程師之一(React、ReasonML、Midjourney),他發佈了 Pretext,一個純 TypeScript 文本測量算法,完全繞過了 CSS、DOM 測量和瀏覽器重排。演示效果包括:以 120 幀每秒虛擬化渲染數十萬個文本框,零像素浪費的緊縮聊天氣泡,響應式多欄雜誌佈局,以及可變寬度的 ASCII 藝術。( X post)
為什麼重要:文本佈局和測量一直是阻礙新一代 UI 的隱性瓶頸。CSS 為靜態文檔設計,而非為如今成為主流的流體、AI 生成、實時界面設計。如果 Pretext 兌現演示效果,它將消除 AI 原生界面在外觀和體驗上的最後一批基礎性約束之一。
Arm 35 年來首次出貨自研芯片
Arm 發佈了 AGI CPU,一款基於臺積電 3nm 工藝、與 Meta 聯合開發的 136 核數據中心處理器。這是公司歷史上首次銷售成品芯片而非授權 IP。OpenAI、Cerebras 和 Cloudflare 是首批合作伙伴,批量出貨預計年底前開始。( Arm Newsroom, EE Times)
為什麼重要:當前 AI 數據中心以 GPU 為主。GPU 負責訓練和運行模型,CPU 主要處理數據流和調度。但 agentic 工作負載不同。當數千個 AI agent 同時運行,每個都在協調任務、調用 API、管理內存、跨系統路由數據時,這些編排工作落在 CPU 上。Arm 聲稱這將驅動每吉瓦數據中心容量的 CPU 需求增加 4 倍。( HPCwire, Futurum Group)
英偉達與 Emerald AI 將數據中心變成電網資產
英偉達與 Emerald AI 宣佈與 AES、Constellation、Invenergy、NextEra 和 Vistra 組建聯盟,構建"靈活 AI 工廠",通過調節計算負載來參與電網平衡服務。首個設施 Aurora 位於弗吉尼亞州馬納薩斯,將於 2026 年上半年開放。( NVIDIA Newsroom, Axios)
為什麼重要:AI 基礎設施擴張的最大瓶頸不是芯片,而是電網接入時間線,大多數地區需要 3 到 5 年。能夠展示電網靈活性的數據中心可以更快接入,面臨更少監管阻力。這重新定義了 AI 基礎設施投資者的能源命題:制勝論點不是"更多電力",而是"更智能的電力"。
中國限制 Manus AI 高管出境
中國當局在 Meta 以 20 億美元收購這家註冊在新加坡的 AI 初創公司後,限制 Manus CEO 蕭宏和首席科學家紀一超出境。國家發展改革委本月將兩位高管傳喚至北京,並在監管審查期間實施出行限制。( Reuters, Washington Post)
為什麼重要:這不是貿易限制,而是人員限制。中國可能正在發出信號:具有大陸背景的 AI 人才是受控資產,無論公司註冊在哪裡。
4000 億參數大模型在 iPhone 17 Pro 上本地運行
一個名為 Flash-MoE 的開源項目演示了一個 4000 億參數的混合專家模型完全在設備端運行,使用 iPhone 17 Pro 的 A19 Pro 芯片,通過 SSD 到 GPU 的權重流式傳輸實現。該模型(Qwen 3.5-397B,2 比特量化,170 億活躍參數)以每秒 0.6 個 token 的速度運行,還剩餘 5.5GB RAM。( WCCFTech, TweakTown, Hacker News)
為什麼重要:這是概念驗證,不是產品。4000 億參數模型能在 12GB 內存的手機上運行,原因是任意時刻只有一小部分模型處於活躍狀態(混合專家),其餘部分按需從手機內置 SSD 流式傳輸而非常駐內存。但把同樣的技巧應用到小得多的模型——比如 70 億或 140 億參數——在下一代存儲更快的移動芯片上,你就能得到真正可用、對話速度的 AI 完全在設備上本地運行,無需雲端。
AI Agent 自主完成了一整套粒子物理實驗
MIT 研究人員發表了一個名為 JFC(Just Furnish Context)的框架,展示了基於 Claude Code 構建的 LLM agent 能夠自主執行完整的高能物理分析流水線:事件篩選、背景估計、不確定性量化、統計推斷和論文撰寫。該系統在來自 ALEPH、DELPHI 和 CMS 探測器的開放數據上運行。( arXiv 2603.20179)
為什麼重要:這是 agentic AI 能夠在方法論嚴格性極高的領域自動化端到端科學工作流的最清晰演示之一。直接的投資含義指向對物理學、基因組學和材料科學領域遺留數據集的再分析——數十年的存檔數據至今仍未被充分挖掘。
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News














