
智譜、月之暗面、小米同臺圓桌會議:大模型真正開始“幹活”,算力仍是最大瓶頸
TechFlow Selected深潮精選

智譜、月之暗面、小米同臺圓桌會議:大模型真正開始“幹活”,算力仍是最大瓶頸
楊植麟主持、羅福莉張鵬拋乾貨,這場“龍蝦局”把AI未來聊透了。
作者:陳駿達
智東西 3月 27 日報道,今天,在中關村論壇上,智譜 CEO 張鵬、月之暗面 CEO 楊植麟(擔任主持)、小米 MiMo 大模型負責人羅福莉、無問芯穹 CEO 夏立雪和香港大學助理教授黃超罕見同臺,進行了一場圍繞開源大模型與智能體未來走向的深度對話。
這場對話以當下最火的 OpenClaw 切入,幾位嘉賓一致認為,智能體讓大模型真正開始“幹活”了。OpenClaw 可擴展大模型的能力邊界,但也對模型提出了更高要求,智譜正研究長程規劃、自我調試等能力,而羅福莉的團隊更關注通過架構創新把成本降下來、速度提上去,甚至實現模型自進化。
基礎設施也得跟上智能體的節奏。夏立雪認為現在的算力系統和軟件架構還是給人用的,不是給智能體用的,其實是用人的操作能力限制了 Agent 的發揮空間。因此,我們需要打造 Agentic Infra。
在多位嘉賓眼中,開源是推動大模型與智能體發展的核心動力之一。香港大學助理教授黃超便認為,開源生態的繁榮是智能體從“玩一玩”走向真正“打工人”的關鍵,只有通過社區共建,才能讓軟件、數據和技術全面轉向智能體原生形態,最終形成可持續的全球 AI 生態。
此外,幾位嘉賓還就大模型漲價、token 用量爆發、AI 未來 12 個月的關鍵詞等話題,展開討論。以下是這場圓桌論壇的核心觀點:
1、張鵬:模型變大後推理成本也會相應提高,近期智譜的漲價策略其實是迴歸到正常的商業價值上了,長期低價競爭不利於行業發展。
2、張鵬:智能體等新技術的爆發讓 token 用量增長了 10 倍,但實際需求可能增長 100 倍,仍有大量需求未被滿足,因此算力仍然是未來 12 個月內的關鍵問題。
3、羅福莉:從基座大模型廠商的視角來看,OpenClaw 保證了基礎大模型的下限,拉高了上限。國產開源模型+OpenClaw 的任務完成度已經非常接近 Claude。
4、羅福莉:DeepSeek 給國內大模型廠商帶來了勇氣和信心。一些看似是“為了效率妥協”的模型結構創新引發了真正的變革,讓業界在算力一定的情況下發揮出最高的智能水平。
5、羅福莉:接下來一年 AGI 歷程中最重要的事情是“自進化”。自進化讓大模型像頂尖科學家一樣去探索,是唯一能“創造新東西”的地方。小米已經藉助 Claude Code+頂尖模型,將研究效率提升 10 倍。
6、夏立雪:當 AGI 時代到來時,基礎設施本身都應該是智能體,自主管理整個基礎設施,根據 AI 客戶的需求去迭代基礎設施,實現自我進化、自我迭代。
7、夏立雪:OpenClaw 引爆了 token 用量。如今的 token 消耗速度,就像當年 3G 時代手機流量剛起步時,每個月只有 100M 額度的那種感覺。
8、黃超:未來很多軟件都不是面向人類的,軟件、數據和技術都會編程 Agent-Native 的形態,人類未來可能只需要使用那些“讓自己快樂的 GUI”。
以下是這場圓桌論壇的完整實錄:
01.OpenClaw 就是“腳手架”,大模型 token 消耗仍處於 3G 時代
楊植麟:很榮幸今天能邀請到各位重磅嘉賓,幾位嘉賓來自模型層、算力層再到 agent 層。今天最主要的關鍵詞是開源,然後還有 agent。
第一個問題來談談現在最流行的 OpenClaw。大家日常使用 OpenClaw 或者類似的產品有什麼覺得最有想象力或者印象深刻的點?從技術的角度來看,如何看待今天 OpenClaw 和相關的 Agent 的演進。

張鵬:很早我就開始自己玩 OpenClaw,當時還叫 Clawbot。我自己動手來折騰,畢竟也是程序員出身,玩這些東西還是有一些自己的體驗。
我覺得 OpenClaw 給大家帶來的最大突破點,或者說新鮮感就在於,它不再是程序員或極客們的專利。普通人也可以比較方便地使用頂尖模型的能力,尤其是在編程和智能體方面的能力。
所以我到現在為止,跟大家在交流的過程當中,我更願意把 OpenClaw 稱作“腳手架”。它提供的是一種可能性,在模型的基礎之上搭起了一個很牢固、很方便,但是又很靈活的腳手架。大家可以按照自己的意願,去使用很多底層模型提供的新奇功能。
原來自己的想法可能會受限於不會寫代碼,或者沒有掌握其他的相關技能,今天有了 OpenClaw,終於可以通過很簡單的交流就把它完成。
OpenClaw 給我帶來非常大的衝擊,或者說讓我重新認識了這件事。

夏立雪:其實我最開始用 OpenClaw 的時候是不太適應的,因為我習慣於跟大模型聊天的交流方式,使用後我感覺 OpenClaw 反應好慢。
但後來我意識到一個問題,就是它和之前的聊天機器人有一個很大的不同,本質是一個能幫我完成大型任務的“人”。我開始給它提交更復雜的任務,就發現其實它能夠做的很好。
這件事情給我帶來很大的感觸。模型一開始按照 token 去聊天,到現在能夠變成一個 agent,變成一個龍蝦,能夠幫你去完成任務。這件事對 AI 的整體想象力空間帶來很大的提升。
同時,它對於整個系統的能力的要求也變得很高。這也是為什麼我一開始用 OpenClaw,會覺得它有點卡。作為基礎設施層的廠商,我看到的是 OpenClaw 對於 AI 背後的大型系統和生態都帶來了更多的機遇和挑戰。
我們現在所有能夠用到的資源,想要支撐起這樣一個快速增長的時代是不夠的。比如說就拿我們公司來說,我們公司從一月底開始,基本上每兩週 token 用量就翻一番,到現在基本上漲了 10 倍。
上次見到這個速度,還是當年用 3G 手機消耗流量的時候。我有種感覺,現在的 token 用量,就像當年每個月只有 100M 手機流量的那個時代。
這種情況下,我們所有的資源都需要進行更好的優化,進行更好的整合。讓每一個人,不僅僅在 AI 領域,而是在整個社會中的每一個人都能夠去把 OpenClaw的 AI 能力用起來。
作為基礎設施的玩家,我對這個時代是非常激動、深有感觸的。我也認為這裡邊有很多的優化空間是我們仍然應該去探索,應該去嘗試的。
02.OpenClaw 拉高國產模型上限,交互模式突破意義重大
羅福莉:我自己是把 OpenClaw 當做 agent 框架演進過程中,一個極具革命性和顛覆性的事件來看待的。
其實我身邊所有在進行非常深度 coding 的人,他們的第一選擇還是 Claude Code。但是,我相信用 OpenClaw 的人會感受到,它在 Agent 框架上的很多設計是領先於 Claude Code 的。最近 Claude Code 有很多更新其實都是在向 OpenClaw 去靠近。
我自己使用 OpenClaw 時的感受是,這個框架給我自己帶來更多是想象力的隨時隨地的擴展。Claude Code 最開始只能在我的桌面上去延展我的創意,但是 OpenClaw 可以隨時隨地去延展我的創意。
OpenClaw 帶來的核心價值主要有兩點。第一點是它開源。開源這件事,非常有利於整個社區深度參與進來,重視並推動這個框架的演進,這是一個很重要的前置條件。
像 OpenClaw 這樣的 AI 框架,我覺得一個很大的價值在於,它把國內那些水平雖然接近閉源模型、但還沒完全追上的模型的上限拉到了很高。
在絕大多數場景下,你會發現它(國產開源模型+OpenClaw)的任務完成度已經非常接近 Claude 的最新模型。同時,它又很好地把下限保證了——通過一套 Harness 系統,或者說藉助它的 Skills 體系等多方面的設計,保障了任務的完整度和準確率。
總結一下,從基座大模型廠商的開發者角度來看,OpenClaw 保證了基礎大模型的下限,拉高了上限。

此外,我認為它給整個社區帶來的另一個價值是,它點燃了大家的認知,讓大家發現在大模型之外,Agent 這一層其實蘊藏著非常大的想象空間。
我最近也觀察到,社區裡除了研究員之外,越來越多的人開始參與到 AGI 的變革中來,更多人開始接觸像 Harness、Scaffold 這樣更強大的 Agent 框架。這些人某種程度上是在用這些工具替代自己的一部分工作,同時也是在釋放自己的時間,去投入到更有想象力的事情上。
黃超:我覺得首先從交互模式來講,OpenClaw 這次之所以能火,第一個原因可能是它給了一種更有“活人感”的體驗。其實我們做 Agent 也有一兩年了,但之前像 Cursor、Claude Code 這些 Agent,給人的感覺更多是一種“工具感”。而 OpenClaw 第一次以“即時通訊軟件嵌入”的方式,讓人更有一種接近心目中“個人賈維斯”的感覺。我覺得這可能是交互模式上的一個突破。
另外一點,它給整個社區帶來的啟發是:像 Agent Loop 這種簡單但高效的框架,再次被證明是可行的。同時,它也讓我們重新思考一個問題:我們到底是需要一個全能型的、能做所有事情的超級智能體,還是需要一個更好的“小管家”,像一個輕量級的操作系統或腳手架?
OpenClaw 帶來的思路是,通過這樣一個“小系統”或者說“龍蝦操作系統”和它的生態,讓大家真正有“玩起來”的心態,進而撬動整個生態裡的所有工具。
隨著 Skills、Harness 這類能力的出現,越來越多的人可以去設計面向 OpenClaw 這類系統的應用,去賦能各行各業。我覺得這一點天然就跟整個開源生態結合得非常緊密。在我看來,這兩點是我們獲得的最大啟發。
03.GLM 新模型專為“幹活”打造,漲價是對正常商業價值的迴歸
楊植麟:想問一下張鵬。最近看到智譜發佈了新的 GLM-5 Turbo 模型,我理解在 Agent 能力上做了很大的增強。能不能給大家介紹一下這個新模型和其他模型的不同之處?另外我們也觀察到有提價的策略,這反映了什麼樣的市場信號?
張鵬:這是個很好的問題。前兩天我們確實緊急更新了一波,這其實是我們整個發展路標中的一個階段,只是提前把它放了出來。
最主要的目的,是從原來的“簡單對話”轉向“真正幹活”——這也是大家最近普遍感受到的:大模型不再只是能聊天,而是真的能幫人幹活了。
但“幹活”背後隱含的能力要求非常高。模型需要自己去做長程的任務規劃、不斷試錯、壓縮上下文、調試,還可能要處理多模態信息。所以它對模型能力的要求,和傳統面向對話的通用模型其實不太一樣。GLM-5 Turbo 就是在這些方面做了專門加強,尤其是你提到的——讓它幹活、跑上七十二小時,怎麼能夠不停地 loop,這裡邊我們做了很多工作。
另外大家也很關注 token 消耗的問題。讓一個聰明的模型去幹複雜任務,token 的消耗量是巨大的。普通人可能感知不深,但看賬單的時候會發現錢掉得特別快。所以我們在這方面也做了優化,在面臨複雜任務時,模型能用更高效的 token 效率去完成。總體上,模型的架構還是多任務協同的通用架構,只是在能力上做了偏向性的加強。
提價這件事其實也很好解釋。剛才說了,現在不再是簡單地問一個問題就得到一個回答,背後的推理鏈路非常長。很多任務要通過寫代碼和底層基礎設施打交道,還要不斷 debug、修正錯誤,消耗量非常大。完成一個複雜任務需要的 token 量,可能是原來回答一個簡單問題的十倍甚至百倍。
所以價格上需要有一定的提升,模型也變大了,推理成本相應提高了。我們把它迴歸到正常的商業價值上,因為長期靠低價競爭也不利於整個行業的發展。這也是我們讓商業化能形成一個良性閉環,持續優化模型能力,給大家提供更好服務的。
04.打造更高效 token 工廠,基礎設施本身也應該是 Agent
楊植麟:現在開源模型越來越多,也開始形成生態,各種模型可以在不同的算力平臺上給用戶提供更多價值。隨著 token 用量的爆發,大模型也正在從訓練時代走向推理時代。想請教一下立雪,從基礎設施的層面來看,推理時代對於無問來說意味著什麼?
夏立雪:我們是一家誕生在 AI 時代的基礎設施廠商,現在也在為智譜、Kimi、Mimo 等提供支持,讓大家能把 token 工廠更高效地用起來。同時我們也在跟很多高校、科研院所合作。
所以我們一直在思考一件事:AGI 時代需要什麼樣的基礎設施?以及我們怎麼一步步去實現和推演它。我們現在對短期、中期、長期不同階段需要解決的問題,已經做好了充分準備。
當前最直接的問題,就是大家剛才聊到的——整個 Open 帶起來的 token 量暴增,對系統效率提出了更高的優化需求。包括價格的調整,其實也是在這個需求下的一種應對方式。
我們一直是通過軟硬件打通的方式來佈局和解決的。比如我們接入了幾乎所有種類的計算芯片,把國內十幾種不同的芯片和幾十個不同的算力集群統一連接起來。這樣能解決 AI 系統裡算力資源緊缺的問題,資源不足時,最好的辦法就是先把能用上的資源都用起來,然後讓每一個算力都用在刀刃上,發揮出最大的轉化效率。
所以在這個階段,我們要解決的就是怎麼打造一個更高效的 token 工廠。這裡邊我們做了很多優化,包括讓模型和硬件上的顯存等各種資源做最優適配,也在看最新的模型結構和硬件結構之間能不能產生更深的化學反應。但解決當前的效率問題,其實只是打造了一個標準化的 token 工廠。

面向 Agent 時代,我們認為這還不夠。因為 Agent 更像一個人,可以交給它一個任務。我堅定地認為,當前很多雲計算時代的基礎設施,是為服務一個程序、服務人類工程師設計的,而不是為 AI 設計的。這相當於我們做了一個基礎設施,上面是給人用的接口,再在上面包一層去接入 Agent,這種方式其實是用人的操作能力限制了 Agent 的發揮空間。
舉個例子,Agent 能做到毫秒級別去思考和發起任務,但像 K8s(kubernetes)這類底層能力,其實並沒有為此做好準備,因為人類發起任務大概是分鐘級的。所以我們需要更進一步的能力,我們把它叫“Agentic Infra”,也就是“智慧化的 token 工廠”,這是無問芯穹在做的事情。
更長遠地看,真正 AGI 時代到來時,我們認為連基礎設施本身都應該是智能體。我們打造的這套工廠,也應該是能自我進化、自我迭代的,能形成一個自主的組織。它相當於有一個 CEO,這個 CEO 本身就是一個 Agent,可能是 OpenClaw,去管理整個基礎設施,然後根據 AI 客戶的需求自己去提需求、迭代基礎設施。這樣 AI和 AI 之間才能更好地耦合。我們也在做一些探索,比如讓 Agent 之間更好地通信、做 Cache to Cache 這樣的能力。
所以我們一直在思考的是,基礎設施和 AI 的發展不應該是一個隔離的狀態——我接到需求就去實現,而是應該產生非常豐富的化學反應。這才是真正意義上的軟硬協同、算法和基礎設施的協同,也是無問芯穹一直想實現的使命。謝謝。
05.“為效率妥協”的創新也有意義,DeepSeek 給國內團隊帶來勇氣和信心
楊植麟:接下來想問一下福莉。小米最近通過發佈新模型、開源背後的技術,對社區做出了很大的貢獻。想問你,小米在做大模型方面,你覺得有什麼獨特的優勢?
羅福莉:我覺得可以先拋開小米有什麼獨特優勢這個話題,我更想聊一聊中國做大模型的團隊整體上的一個優勢。我覺得這個話題有更廣泛的價值。
大概兩年前,中國的基座模型團隊已經開始了非常好的突破——我們在有限的算力、尤其是在一些 NVLink 互聯帶寬受限的算力條件下,怎麼去突破這些低端算力的限制,做一些看似是“為了效率妥協”的模型結構創新,比如 DeepSeek V2、V3 系列,以及 MoE、MLA 等等。
但後來我們看到,由這些創新引發的是一個變革:在算力一定的情況下,怎麼發揮出最高的智能水平。這是 DeepSeek 給國內所有基座模型團隊帶來的勇氣和信心。雖然今天我們的國產芯片,尤其是推理芯片,以及訓練芯片,已經不再受這種限制,但正是在這種限制下,催生了我們對更高訓練效率、更低推理成本的模型結構的新探索。
就像最近出現的 Hybrid Sparse、Linear Attention 這類結構,比如 DeepSeek的 NSA、Kimi 的KSA,小米也有面向下一代結構的 HySparse。這些都是區別於 MoE 這一代結構的、面向 Agent 時代去做的模型結構創新。
我為什麼覺得結構創新如此重要?其實大家如果真正地去用 OpenClaw,會發現它越用越好用、越用越聰明。其中一個前提是推理的上下文長度。長上下文是一個我們聊了很久的話題,但現在真正有模型能在長上下文下表現很好、性能強勁、推理成本很低嗎?
其實很多模型不是做不到 1M 或10M 的上下文,而是因為推理 1M、10M 的成本太貴了、速度太慢了。只有把成本降下來、速度提上去,才能把真正高生產力價值的任務交給模型,才能在這種長上下文下完成更高複雜度的任務,甚至實現模型的自迭代。
所謂模型的自迭代,就是它可以在一個複雜環境裡,依靠超長的上下文完成對自我的進化。這種進化可能是對 Agent 框架本身的,也可能是對模型參數本身的——因為我認為上下文本身其實就是對參數的一種進化。所以怎麼實現一個長上下文的架構,怎麼在推理側做到長上下文高效推理,是一個全方位的競爭。
除了我剛剛提到的預訓練階段做好 long-context-efficient 的架構——這大概是我們一年前就開始探索的問題。現在真正要做到在長程任務上的穩定性和高上限的效果,是我們在後訓練階段正在迭代的創新範式。
我們在想怎麼構造更有效的學習算法,怎麼採集到真實環境下、在 1M、10M、100M 上下文裡真正具有長期依賴關係的文本,以及結合複雜環境產生的軌跡數據。這是我們後訓練正在做的事情。
但更長期來看,由於大模型本身的飛速進步,加上 Agent 框架的加持,就像立雪說的,推理需求在過去一段時間已經有近十倍的增長。那麼今年整個 token 用量的增長會不會到 100 倍?
這裡邊又進入另一個維度的競爭——算力,或者說推理芯片,甚至再往下到能源。所以我覺得,如果大家一起思考這個問題,我可能會從大家身上學到更多。謝謝。
06.Agent 有三大關鍵模塊,多 Agent 爆發將帶來衝擊
楊植麟:非常有洞察的分享。下面想問一下黃超,你開發過像 Nanobot 這樣很有影響力的 Agent 項目,也有很多社區的粉絲。想問你從 Agent的 Harness 或者應用層面來看,接下來有哪些技術方向是你覺得比較重要、值得大家關注的?
黃超:我覺得如果把 Agent 的技術抽象出來,關鍵就是 Planning、Memory和 Tool Use 這幾個模塊。

先說 Planning。現在的問題主要是在長程任務或者非常複雜的上下文中,比如 500 步甚至更長的步數,很多模型不一定能做很好的規劃。我覺得本質上是模型可能不具備這類隱性知識,尤其是在一些複雜的垂直領域。所以未來可能需要把各種複雜任務的知識固化到模型裡,這可能是一個方向。
當然,Skill、Harness 在某種程度上也在緩解 Planning 帶來的錯誤,因為它提供了高質量的 Skill,本質上也是在引導模型去完成一些比較難的任務。
再說 Memory。Memory 給人的感覺是,它好像總是存在信息壓縮不準確、檢索不準的問題。特別是在長程任務和複雜場景下,Memory 的壓力會暴增。現在像 OpenClaw 這類項目,大家用的其實都是最簡單的文件系統式的 Markdown 格式的 Memory,通過共享文件來做。未來 Memory 可能會走向分層設計,也需要讓它變得更通用。
老實講,現在的 Memory 機制很難做到通用——因為 Coding 場景、Deep Research 場景、多模態場景,它們的數據模態差別很大,怎麼對這些 Memory 做好的檢索和索引,同時又保持高效,這永遠是一個權衡。
另外,現在 OpenClaw 讓大家創建 Agent 的門檻大幅降低之後,未來可能不止一個“龍蝦”。我看到 Kimi 也有 Agent Swarm 這樣的機制出來,未來每個人可能會有“一群龍蝦”。
相比於單個龍蝦,一群龍蝦帶來的上下文暴增是可以想象的,這對 Memory 的壓力會非常大。現在其實還沒有一套很好的機制去管理這種“一群龍蝦”帶來的上下文,尤其是對複雜 Coding、科研發現這類場景,不管是模型還是整個 Agent 架構,壓力都很大。
再說 Tool Use,也就是 Skill 這塊。Skill 現在存在的問題,其實和當初 MCP 的問題類似——MCP 當時有質量不保障、安全風險等問題。現在 Skill 也一樣,看似有很多 Skill,但高質量的很少,低質量的 Skill 會影響 Agent 完成任務的準確度。另外還有惡意注入的問題。所以從 Tool Use 來看,可能需要靠社區把整個 Skill 生態做得更好,甚至讓 Skill 能在執行過程中自我進化出新的 Skill。
總的來說,從 Planning、Memory到 Tool Use,這些是當下 Agent 存在的一些痛點,也是未來可能的方向。
07.未來 12 個月關鍵詞:生態、可持續 token、自進化與算力
楊植麟:可以看到兩位嘉賓從不同視角討論了一個共同的問題——隨著任務複雜度增加,上下文會暴漲。從模型層面可以提升原生上下文長度,從 Agent Harness 層面,像 Planning、Memory、Multi-Agent 這樣的機制,也能在特定模型能力下支持更復雜的任務。我覺得這兩個方向接下來會產生更多化學反應,進一步提升任務的完成能力。
最後我們來一個開放式的展望。請各位用一個詞來描述接下來 12 個月大模型發展的趨勢以及你的期望。這次先從黃超開始。
黃超:12 個月在 AI 這個領域看起來好遙遠,都不知道 12 個月之後會發展成什麼樣。
楊植麟:本來這裡寫的是五年,我改掉了。
黃超:對,哈哈。我想到的一個詞是“生態”。現在 OpenClaw 讓大家很活躍,但未來 Agent 真的要成為“打工人”,而不只是大家玩一玩、圖個新鮮感。未來應該讓它真正沉澱下來,成為搬磚的工具、成為真正的 coworker。
這需要整個生態的努力,尤其是開源,把技術探索和模型技術都開源出來之後,需要整個社區一起共建——不管是模型的迭代,還是 Skill 平臺的迭代,還有各種工具,都需要更好地面向龍蝦去創造生態。
一個比較明顯的趨勢是,未來的軟件還會是給人用的嗎?我相信未來很多軟件可能都不一定是面向人類的——因為人類需要的是 GUI,而未來可能是面向 Agent 原生的使用。有趣的是,人可能只去用那些讓自己快樂的 GUI。而現在整個生態又從 GUI、MCP 轉到了 CLI 的模式。這就需要生態把軟件系統、數據、各種技術都變成 Agent Native 的形態,這樣整個發展才會更加豐富。
羅福莉:把問題縮小到一年,我覺得非常有意義。如果五年的話,從我心目中 AGI 的定義來看,我覺得已經實現了。所以如果用一句話描述接下來一年 AGI 歷程裡最關鍵的事情,我認為是“自進化”。
這個詞聽起來有點玄幻,過去一年大家也多次提到。但我最近對它有更深的體會,或者說對“自進化”怎麼做,有了更務實、更可行的方案。原因在於,有了強大的模型之後,我們在 Chat 範式下根本沒有發揮出預訓練模型的上限,而 Agent 框架把這個上限激活了。當我們讓模型執行更長時間的任務時,發現它可以自己去學習和進化。
一個簡單的嘗試是:在現有的 Agent 框架裡給它加上一個可驗證的條件限制,再給它設一個 Loop,讓模型不停地去迭代優化目標,就會發現它能持續拿出更好的方案。這種自進化現在其實已經能跑一兩天了,當然跟任務難度有關。
比如在一些科學研究上,像是探索更好的模型結構,因為模型結構有評估標準,比如更低的 PPL。在這種確定性的任務上,我們發現它已經能自主優化和執行兩三天了。
所以從我的角度看,自進化是唯一能“創造新東西”的地方。它不是替代我們現有的人的生產力,而是像頂尖科學家一樣,去探索世界上還沒有的東西。一年前我會覺得這個時間線要拉到三到五年,但最近我覺得確實應該縮小到一到兩年。可能很快我們就能用大模型疊加一個強大的自進化 Agent 框架,實現對科學研究至少指數級的加速。
最近我已經發現,我們組裡做大模型研究的同學,他們的 workflow 是高度不確定、高度創造性的,但藉助 Claude Code 加上頂尖模型,我們的研究效率已經提升了近十倍。我很期待這種範式輻射到更廣泛的學科和領域,所以我覺得“自進化”非常重要。
夏立雪:我的關鍵詞是“可持續 token”。我看到整個 AI 的發展還在一個長期持續的過程中,我們也希望它有長久的生命力。從基礎設施的角度看,一個很大的問題是資源終究是有限的。
就像當年講可持續發展一樣,我們作為一個 token 工廠,能否持續、穩定、大規模地提供 token,讓頂尖模型真正能為更多的下游服務,是我們看到的一個很重要的問題。
我們需要把視角放寬到整個生態——從能源到算力,再到 token,最終到應用,形成可持續的經濟化迭代。我們不僅要把國內的各種算力用起來,也在把這些能力輸出到海外,讓全球的資源都能打通和整合。
我也覺得“可持續”其實是在把中國特色的 token 經濟學做起來。過去我們講 Made in China,把中國低價的製造能力變成好的商品輸出到全球。
現在我們要做的是“AI Made in China”——把中國在能源等方面的優勢,通過 token 工廠可持續地轉化成優質的 token,輸出到全球,成為世界的 token 工廠。這是我今年想要看到的、中國給世界的人工智能帶來的價值。
張鵬:我就簡短一點。大家都在仰望星空,我就落地一點。我的關鍵詞是“算力”。
剛才也說了,所有技術、智能體框架讓大家創造力和效率提升了十倍,但前提是大家能真正用得起來。你不能一個問題提出去,讓它思考半天也不給答案,那肯定不行。也因為這樣,很多研究的進展、很多想做的事情都會受阻。
前兩年我記得有位院士在中關村論壇上說了一句話:“沒卡沒感情,談卡傷感情。”我覺得今天又到了這個地步,但情況又不一樣了。現在我們進入了推理階段,需求真的在爆發——十倍、百倍地增長。剛才你說用量漲了十倍,那其實需求可能是一百倍呢?還有大量的需求沒被滿足,怎麼辦?我們大家可能一起來想想辦法。
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News











