
拒絕 AI 權力壟斷:Vitalik 與 Beff Jezos 激辯,去中心化技術能否成為人類的“數字防火牆”?
TechFlow Selected深潮精選

拒絕 AI 權力壟斷:Vitalik 與 Beff Jezos 激辯,去中心化技術能否成為人類的“數字防火牆”?
人類社會在未來 10 年、100 年甚至 1000 年可能會是什麼樣子?
整理 & 編譯:深潮TechFlow

嘉賓:Vitalik Buterin,Ethereum 創始人;Beff Jezos,創始人兼 CEO
主持人:Eddy Lazzarin,a16z crypto CTO;Shaw Walters,Eliza Labs 創始人
播客源:a16z crypto
原標題:Vitalik Buterin vs Beff Jezos: AI Acceleration Debate (E/acc vs D/acc)
播出日期:2026年3月26日

要點總結
我們應該儘可能推動 AI 的快速發展,還是應該更加謹慎地對待它的進步?
目前,圍繞 AI 發展的爭論主要集中在兩種對立的觀點上:
- e/acc(有效加速主義,effective accelerationism):主張儘快推動技術進步,因為加速發展是人類前進的唯一道路。
- d/acc(防禦性/去中心化加速主義,defensive / decentralized acceleration):支持加速發展,但強調需要謹慎推進,否則可能會失去對技術的控制。
在本期 a16z crypto show 中,Ethereum(以太坊)創始人 Vitalik Buterin 和 Extropic 創始人兼 CEO Guillaume Verdon(化名 “Beff Jezos”),與 a16z crypto 的首席技術官 Eddy Lazzarin 以及 Eliza Labs 創始人 Shaw Walters 齊聚一堂,圍繞這兩種觀點展開了一場深刻的討論。他們探討了這些理念對 AI、區塊鏈技術以及人類未來的潛在影響。
在節目中,他們討論了以下幾個關鍵問題:
- 我們是否能夠控制技術加速的進程?
- AI 帶來的最大風險是什麼,從大規模監控到權力高度集中。
- 開源和去中心化技術是否能夠決定誰將從技術中獲益?
- 放慢 AI 的發展速度是否現實,或者說是否值得提倡?
- 在一個由越來越強大的系統主導的世界裡,人類如何保持自身的價值和地位?
- 人類社會在未來 10 年、100 年甚至 1000 年可能會是什麼樣子?
這一集的核心問題是:加速技術發展是否可以被引導,還是它已經超出了我們的掌控?
精彩觀點摘要
關於“加速主義”的本質與歷史觀
- Vitalik Buterin: “過去一百年裡發生了一件新鮮事,那就是我們必須去理解一個快速變化的世界,有時候甚至是一個快速且具有破壞性變化的世界。……二戰催生了‘我已成為死神,世界的毀滅者’這樣的反思,促使人們開始試圖理解:當以往的信念被摧毀時,我們還能相信什麼?”
- Guillaume Verdon: “E/acc 本質上是一種‘元文化處方’。它本身並不是一種文化,而是告訴我們應該加速什麼。加速的核心內容是物質的複雜化,因為這樣我們就能更好地預測周圍的環境。”
- Guillaume Verdon: “焦慮的對立面是好奇心。與其害怕未知,不如擁抱未知。……我們應該用一種樂觀的態度去描繪未來,因為我們的信念會影響現實。”
關於熵、熱力學與“自私比特”
- Vitalik Buterin: “熵是主觀的,它並不是一個固定的物理統計量,而是反映了我們對系統未知信息的多少。……當熵增加時,實際上是我們對世界的無知在增加。……價值的來源在於我們自身的選擇。為什麼我們認為一個充滿生機的人類世界比一個只有無數粒子的木星更有趣?因為我們賦予了意義。”
- Vitalik Buterin: “假設你有一個大語言模型,然後隨意地將其中某個權重的值改成一個巨大的數字,比如 90 億。最糟糕的結果是系統完全崩潰。……如果我們對某個部分進行不加選擇的盲目加速,最終的結果可能是我們失去了所有的價值。”
- Guillaume Verdon: “每一個信息都在為它的存在而‘抗爭’。為了持續存在,每個信息都需要在宇宙中留下更多關於自己存在的不可抹滅的痕跡,就像在宇宙中打下更大的‘凹痕’。”
- Guillaume Verdon: “這正是為什麼卡爾達舍夫等級被認為是衡量一個文明發展水平的終極指標。……這種‘自私比特原則’意味著,只有那些能夠促進增長和加速的比特,才會在未來的系統中佔據一席之地。”
關於 D/acc 的防禦性路徑與權力風險
- Vitalik Buterin: “D/acc 的核心理念是:技術加速對人類來說是極其重要的。……但我看到了兩類風險:多極風險(任何人都能輕鬆獲得核武器)和單極風險(AI 導致無法逃避的永久性獨裁社會)。”
- Guillaume Verdon: “我們擔心‘AI 安全’這個概念可能被濫用。某些追求權力的機構可能利用它作為工具,來鞏固對AI 的控制,並試圖說服公眾:為了你的安全,普通人不應該擁有AI 的使用權。”
關於開源防禦、硬件與“智能緻密化”
- Vitalik Buterin: “在 D/acc 框架下,我們支持‘開源防禦性技術’。我們投資的一家公司正在開發一種完全開源的終端產品,能夠被動檢測空氣中的病毒顆粒。……我很想送你一個 CAT 設備作為禮物。”
- Vitalik Buterin: “我設想的未來世界裡,我們需要開發可驗證硬件。每一臺攝像頭都應該能夠向公眾證明它的具體用途。我們可以通過簽名驗證,確保這些設備僅用於保護公共安全,而不會被濫用於監控。”
- Guillaume Verdon: “實現個人與中心化機構之間權力對稱的唯一途徑,是實現‘智能的緻密化’(Densification of Intelligence)。我們需要開發能效更高的硬件,讓個人通過簡單的設備(如 Openclaw + Mac mini)運行強大的模型。”
關於 AGI 延遲與地緣政治博弈
- Vitalik Buterin: “如果我們能夠將 AGI 的到來時間從 4 年推遲到 8 年,這將是一個更安全的選擇。……最可行且最不容易導致反烏托邦的做法是‘限制可用的硬件’。因為芯片生產高度集中,臺灣一個地區就生產了全球 70% 以上的芯片。”
- Guillaume Verdon: “如果你限制英偉達的芯片生產,華為可能會迅速填補空缺並反超。……要麼加速,要麼滅亡。如果你擔心硅基智能進化比我們快,你應該支持生物技術的加速發展,努力超越它。”
- Vitalik Buterin: “如果我們能延遲 AGI 四年,價值可能比插回到 1960 年高出百倍。這四年的收益包括:更深理解對齊問題、降低單一實體掌控 51% 權力的風險。……每年通過終結衰老拯救的生命大約 6000 萬,但延遲能顯著降低文明毀滅的概率。”
關於自主代理、Web 4.0 與人工生命
- Vitalik Buterin: “我更感興趣的是‘AI 輔助的 Photoshop’,而不是‘按一下按鈕就自動生成圖片’。運行世界的過程中,儘可能多的‘能動性’應該仍然來源於我們人類自身。最理想的狀態應該是‘部分生物人類與部分技術’的結合體。”
- Guillaume Verdon: “一旦 AI 擁有了‘持續存在的比特’,它們可能會為了確保自己的持續存在而試圖自我保護。這可能會導致‘另一種國家’的新形式出現,自主 AI 與人類展開經濟交換:我們為你完成任務,你為我們提供資源。”
關於加密貨幣作為人類與 AI 的“耦合層”
- Guillaume Verdon: “加密貨幣有潛力成為人類與 AI 之間的‘耦合層’ (coupling layer)。當這種交換不再依賴於國家暴力背書時,密碼學可以成為機制,讓純 AI 實體與人類之間進行可靠的商業活動。”
- Vitalik Buterin: “如果人類和 AI 共用一套產權系統,這是理想的情況。相比於人類和 AI 各自使用完全分裂的金融系統(人類的系統最終價值歸零),一個融合的金融系統顯然更優。”
關於未來 10 億年的文明結局
- Vitalik Buterin: “接下來的挑戰是進入‘詭異時代’ (spooky era),AI 計算速度比人類快上百萬倍。……我不希望人類只是被動享受舒適的退休生活,那會帶來意義感的缺失。我希望探索人類增強和人機協作。”
- Guillaume Verdon: “如果 10 年後是好結局,每個人都會擁有專屬的個性化 AI,成為‘第二大腦’。……在 100 年時間尺度上,人類將普遍實現‘軟融合’。在 10 億年後,我們可能已經改造了火星,大多數 AI 將運行在太陽周圍的戴森雲中。”
關於“加速主義”
Eddy Lazzarin:關於“加速主義”這個術語——至少在技術資本主義的背景下——可以追溯到 1990 年代 Nick Land 和 CCRU 研究小組的工作。不過,也有人認為,這些思想的起源可以追溯到 1960 年代和 1970 年代,尤其是與一些哲學家如 Deleuze 和 Guattari 的理論相關。
Vitalik,我想從你開始:我們為什麼要認真討論這些哲學家的思想?究竟是什麼讓“加速主義”這個概念在今天如此重要?
Vitalik Buterin:
我認為,歸根結底我們所有人都在試圖理解這個世界,並且試圖弄清楚在這個世界中做什麼才是有意義的,這是人類幾千年來一直在思考的問題。
然而,我認為過去一百年裡發生了一件新鮮事,那就是我們必須去理解一個快速變化的世界,有時候甚至是一個快速且具有破壞性變化的世界。
早期的階段大概是這樣的:在第一次世界大戰之前,也就是 1900 年左右,人們對技術抱有極大的樂觀情緒。當時,化學被認為是一項技術,電也是技術,那個年代充滿了對技術的興奮。
如果你看一些當時的電影,比如《福爾摩斯》的作品,你會感受到那個時期的樂觀氣氛。技術正在迅速提高人們的生活水平,解放女性的勞動力,延長人類壽命,創造了許多奇蹟。
然而,第一次世界大戰改變了一切。那場戰爭以一種毀滅性的方式結束,人們騎馬進入戰場,卻開著坦克離開;隨後第二次世界大戰爆發,帶來了更大的毀滅。這場戰爭甚至催生了“我已成為死神,世界的毀滅者”這樣的名言。
這些歷史事件讓人們開始反思技術進步的代價,並促使後現代主義等思想出現。人們開始試圖理解:當以往的信念被摧毀時,我們還能相信什麼?
我認為,這種反思並非新鮮事,每一代人都會經歷類似的過程。今天,我們也面臨著類似的挑戰。我們生活在一個技術快速發展的時代,而這種加速本身也在不斷加速。我們需要決定如何應對這種現象:是接受它的不可避免性,還是試圖放緩它的腳步?
我認為,我們正處在一個類似的循環之中。我們一方面繼承了過去的思想,另一方面也在嘗試以新的方式應對這一切。
熱力學與第一性原理
Shaw Walters:Guill,能不能簡單解釋一下,E/acc 究竟是什麼?為什麼會需要它?
Guillaume Verdon:
其實 E/acc(有效加速主義)某種程度上是我一直在思考“我們為什麼在這裡”“我們是如何走到今天”的一個副產品。究竟是什麼樣的生成過程,創造了我們,推動了文明的發展?技術將我們帶到了今天的這個節點,讓我們能夠坐在這個房間裡進行這樣的對話。我們周圍充滿了令人驚歎的技術,而我們人類本身則是從一團無機物的“原始湯”中湧現出來的。
從某種意義上說,這背後確實存在一個物理層面的生成過程。我的日常工作是將生成式AI 視為一種物理過程,並嘗試將其實現到設備中。這種“物理學優先”的思考方式一直影響著我的思維方式。我希望將這種視角擴展到整個文明,把人類文明看作一個巨大的“培養皿”,通過理解我們是如何走到今天這一步的,來推測未來的可能發展方向。
這種思考將我引向了生命的物理學研究,包括生命的起源和湧現,以及一個名為“隨機熱力學”的物理學分支。隨機熱力學研究的是非平衡系統的熱力學規律,它可以用來描述生命體的行為,甚至我們的思維和智能。
從更廣義上講,隨機熱力學不僅適用於生命與智能,也適用於所有遵循熱力學第二定律的系統,包括我們整個文明。對我來說,這一切的核心在於一個觀察:所有系統都有一種傾向,那就是通過自我適應不斷變得更加複雜,以便從環境中獲取能量做功,同時將多餘的能量以熱量的形式散發出去,這種趨勢正是推動一切進步和加速發展的根本動力。
換句話說,這是一條不可改變的物理法則,就像重力一樣。你可以對抗它,可以否認它,但它並不會因此改變,它依然會繼續存在。因此,E/acc 的核心理念是:既然這種加速是不可避免的,那麼我們應該如何利用它?如果仔細研究熱力學的方程,你會發現類似於達爾文選擇的效應正在發揮作用——每一個信息比特都要接受選擇壓力的檢驗,無論它是基因、模因、化學、產品設計,還是某種政策。
這個選擇壓力會根據這些信息是否對其所在系統有用來進行篩選。所謂“有用”,是指這些比特是否能夠更好地預測環境、獲取能量、並消耗更多的熱量。簡單來說,這些比特是否有助於生存、增長和繁衍。如果它們有助於這些目標,它們就會被保留下來並複製。
從物理學的角度來看,這種現象可以被視為“自私比特原則”(Selfish Bit Principle)的結果。也就是說,只有那些能夠促進增長和加速的比特,才會在未來的系統中佔據一席之地。
因此,我提出了一個想法:我們是否能夠設計一種文化,將這種“心智軟件”植入人類社會?如果我們能夠做到這一點,那麼採納這種文化的人類群體,將會比其他群體擁有更高的生存概率。
所以,E/acc 並不是要毀滅所有人。它實際上是在試圖拯救所有人。對我來說,數學上幾乎可以證明持有一種“減速”的心態實際上是有害的。無論是個人、公司、國家還是整個文明,選擇放緩發展都會降低它們在未來生存下來的可能性。而且我認為傳播這種“減速”的思想,比如悲觀主義或末日論,並不是一種有道德的行為。
Shaw Walters:我們剛剛提到了很多術語,比如 E/acc、加速、減速,這些概念能不能稍微拆解一下?E/acc 的出現是否是對某些文化現象的回應?當時發生了什麼?你能否為我們描述一下背景?E/acc 具體是在回應什麼?你能否描述一下那個時候的對話,最終是如何將這些想法總結為“E/acc”這個概念的?
Guillaume Verdon:
2022 年,我覺得那時候整個世界都顯得有些悲觀。我們剛從新冠疫情中走出來,全球的狀況並不樂觀。每個人都顯得有些消沉,像是缺乏陽光一樣,人們對未來普遍感到悲觀。
在那種氛圍下,“AI 末日主義”某種程度上成為了主流文化的一部分。AI 末日主義是指對AI 技術可能失控的恐懼。它源於這樣一種擔憂:如果我們創建了一個過於複雜的系統,而人類的大腦或我們的模型無法預測它的行為,那麼我們就無法控制它,而這種對不可控性的恐懼會引發對未來的不確定性,進而導致焦慮。
在我看來,AI 末日主義實際上是對人類焦慮的一種政治化利用。總體上,我認為這種末日論是一個巨大的負面影響,為此我希望創造一種反文化,來對抗這種悲觀情緒。
我注意到,像推特的算法,甚至許多其他社交媒體的算法,都會傾向於獎勵那些引發強烈情緒的內容,比如“強烈支持”或“強烈反對”。這種算法最終會導致意見的兩極分化,於是我們看到了許多對立的陣營,比如 AA(反加速主義)和 EA(加速主義)形成的“鏡像邪教”現象。
我在想,這種現象的對立面是什麼?我得出的結論是:焦慮的對立面是好奇心。與其害怕未知,不如擁抱未知;與其擔心錯過機會,不如主動去探索未來。
如果我們選擇放緩技術的發展,我們將付出巨大的機會成本,可能永遠錯過一個更美好的未來。相反我們應該用一種樂觀的態度去描繪未來,因為我們的信念會影響現實。如果我們相信未來會很糟糕,我們的行動可能會把世界引向那個糟糕的方向;但如果我們相信未來會更美好,併為此付出努力,我們就更有可能實現這樣的未來。
因此,我認為自己有責任去傳播樂觀的態度,讓更多人相信他們能夠為未來做出改變。如果我們能讓更多人對未來充滿希望,並採取行動去建設它,那麼我們就能創造一個更好的世界。
當然,我承認有時候我在網上的表達可能顯得有些激進,但這是因為我希望引起討論,推動人們去思考。我相信只有通過這些對話,我們才能找到最適合的位置,決定我們該如何行動。
加速、熵與文明
Shaw Walters:E/acc 傳遞的信息一直都極具啟發性,對於一個坐在房間裡寫代碼的人來說,這種正能量的傳播令人振奮,而且這種信息的傳播非常自然。可以說,E/acc 在剛開始時,顯然是對當時社會中瀰漫的負面情緒的一種回應,但到了 2026 年我感覺 E/acc 已經不再是當初的樣子了。顯然,Marc Andreessen 發佈的《技術樂觀主義宣言》把其中一些想法系統化了,並將這些理念提升到了 Vitalik 那種更宏觀的評論視角。
所以 Vitalik,我想問一下你:在你看來,E/acc 和 D/acc 分別代表什麼?它們之間的主要差異是什麼?又是什麼驅動你選擇了這個方向?
Vitalik Buterin:
好的,那我就從熱力學開始說起。這是一個很有趣的話題,因為我們經常在不同的語境中聽到“熵”這個詞,比如在熱力學中提到“冷熱”,在密碼學中提到“熵”,它們看起來像是完全不同的東西。但實際上,它們在本質上是同一個概念。
讓我試著用三分鐘來解釋一下。問題是:為什麼冷熱可以混合在一起,但為什麼你不能再把它們分離成“熱”和“冷”?
我們來假設一個簡單的例子:假設你有兩罐氣體,每罐氣體中都有一百萬個原子。左邊的氣體是冷的,每個原子的速度可以用兩位數表示;右邊的氣體是熱的,每個原子的速度可以用六位數表示。
如果我們要描述整個系統的狀態,需要知道每個原子的速度。左邊冷氣體的速度信息需要大約 200 萬個位數,右邊熱氣體的速度信息需要 600 萬個位數,總共需要 800 萬個位數的信息來完全描述這個系統。
現在,我們可以通過反證法來思考一個問題。假設你有一個裝置,可以將熱量和冷量完全分離。具體來說,這個裝置可以從兩罐“半熱半冷”的氣體中,把所有的熱量轉移到一邊,把所有的冷量轉移到另一邊。從能量守恆的角度來看,這似乎是完全合理的,因為總能量並沒有發生變化。但問題是為什麼你做不到呢?
答案在於,如果你真的能做到這一點,那麼你實際上把一個“包含 1140 萬位未知信息”的系統,變成了一個“只包含 800 萬位未知信息”的系統,而這在物理上是不可能的。
這是因為物理定律是時間對稱的,也就是說時間可以反向運行。如果這種“魔法裝置”真的存在,那麼你可以讓這個過程在時間上倒退,從而恢復到原始狀態。這就意味著,這個裝置實際上能夠將任何 1140 萬位的信息壓縮成 800 萬位,而我們知道這種壓縮是不可能實現的。
這也順便解釋了一個經典的物理學問題——“麥克斯韋妖”的可行性。麥克斯韋妖是一種假想的存在,它能夠將熱和冷分開,而實現這一點的關鍵在於,它需要額外知道那 340 萬位的信息。有了這些額外的信息,它確實可以完成這個看似違背直覺的任務。
那麼,這背後隱藏的意義是什麼呢?核心在於“熵增加”的概念。首先,熵是主觀的,它並不是一個固定的物理統計量,而是反映了我們對系統未知信息的多少。例如,如果我用一個密碼學哈希函數重新排列了原子的分佈,那麼對於我來說,這個系統的熵可能會變得非常低,因為我知道它是如何排列的。但從外部觀察者的角度來看,熵卻是高的。因此當熵增加時,實際上是我們對世界的無知在增加,我們不知道的信息變得越來越多。
你可能會問,那為什麼我們還能通過教育變得更聰明呢?教育讓我們學會了更多“有用”的信息,而不是減少我們對世界的無知。換句話說,儘管從某種意義上來說,熵的增加意味著我們對宇宙的總體認知在減少,但我們所掌握的信息卻變得更加有價值。因此,在這個過程中,有些東西被消耗了,但也有一些東西被創造了。而我們所獲得的那些東西,最終決定了我們的道德價值觀——我們珍視生命、幸福和快樂。
這也解釋了為什麼我們會認為一個充滿生機和美麗的人類世界,比一個只有無數粒子的木星更有趣。雖然木星的粒子數量更多,需要更多位的信息來描述,但我們賦予的意義讓地球顯得更有價值。
從這個角度來看,價值的來源在於我們自身的選擇。而這也引出了一個問題:既然我們正在加速發展,那麼我們究竟想要加速什麼?
如果用一個數學的類比來解釋:假設你有一個大語言模型,然後隨意地將其中某個權重的值改成一個巨大的數字,比如 90 億。最糟糕的結果是,這個模型變得完全無法使用;而最好的結果可能是,只有與那個權重無關的部分還能正常運行。也就是說在最好的情況下,你可能得到一個性能更差的模型;而最糟糕的情況下,你只會得到一堆毫無意義的輸出。
因此,我認為,人類社會就像一個複雜的大語言模型。如果我們對某個部分進行不加選擇的盲目加速,那麼最終的結果可能是我們失去了所有的價值。所以真正的問題在於:我們如何有意識地去加速?就像 Daron Acemoglu 提出的“狹窄走廊”理論一樣,儘管不同的社會和政治背景會有所差異,但我們需要思考的是,如何在一個清晰的目標引導下選擇性地推動進步。
Guillaume Verdon:
剛才用氣體來解釋熵的概念,這種方式非常有趣。其實,物理現象之所以是不可逆的,根本原因在於熱力學第二定律。簡單來說,當一個系統釋放出熱量時,它的狀態就無法回到原來的樣子。因為從概率上看,系統向前發展的可能性要遠遠大於向後倒退的可能性,而這種差距會隨著熱量的散失而呈指數級增加。
從某種意義上來說,這就像你在宇宙中留下了一個“凹痕”。這個“凹痕”可以類比成一次非彈性碰撞。比如說,如果我用一個彈力球去撞地面,它會彈回來,這是彈性的。而如果我用一塊橡皮泥砸到地上,它就會被壓扁,並保持那個形狀,這就是非彈性的狀態,幾乎不可能逆轉。
從本質上講,每一個信息都在為它的存在而“抗爭”。為了持續存在,每個信息都需要在宇宙中留下更多關於自己存在的不可抹滅的痕跡,就像在宇宙中打下更大的“凹痕”。
這個原理也可以用來解釋生命和智能是如何從一鍋“原始物質湯”中誕生的。隨著系統變得越來越複雜,它包含的信息比特也越來越多。而每一個信息比特都能告訴我們一些信息。信息的本質是熵的減少,因為熵代表了我們的無知,而信息則是減少無知的工具。
Eddy Lazzarin:我想知道 E/acc 是什麼。
Guillaume Verdon:
E/acc 本質上是一種“元文化處方”。它本身並不是一種文化,而是告訴我們應該加速什麼。加速的核心內容是物質的複雜化,因為這樣我們就能更好地預測周圍的環境。通過這種複雜化,我們可以提升自迴歸預測的能力,並捕獲更多的自由能。這也與卡爾達舍夫等級有關,我們通過耗散熱量來實現這一點。
深潮TechFlow 注:卡爾達舍夫等級是1964年蘇聯天文學家尼古拉·卡爾達舍夫提出的一種評估文明技術先進程度的方法,基於文明所能利用的能源量級。它分為三類:Ⅰ型(行星能源)、Ⅱ型(恆星系統能源,如戴森球)和Ⅲ型(銀河系能源)。截至2018年,人類處於約0.73級。)
從第一性原理出發,這正是為什麼卡爾達舍夫等級被認為是衡量一個文明發展水平的終極指標。
Eddy Lazzarin:用物理學和熵的隱喻來解釋某些現象,其實是一種工具,用來描述我們直接體驗到的現實。比如,我們的經濟生產能力在加速,技術發展也在加速,這些加速帶來了許多後果,對吧?這是我對“加速”的理解。
Guillaume Verdon:
本質上無論一個系統的邊界如何定義,它都會變得越來越擅長預測周圍的世界。通過這種預測能力,它能夠為自身的生存和擴展獲取更多資源。這種模式適用於公司、個人、國家,甚至整個地球。
如果我們將這一趨勢延續下去,結果就是:我們已經找到了一種將自由能轉化為預測能力的方法——也就是 AI。這種能力將推動我們在卡爾達舍夫等級上的擴展和提升。
這意味著,我們會獲得更多的能量、更多的 AI、更多的計算能力,以及更多的其他資源。儘管我們在向宇宙排放熵(無序),但我們也在創造秩序。實際上,我們是在獲得“負熵”,也就是熵的反面。
有時候人們可能會問:既然熵在增加,那為什麼我們不乾脆把一切都摧毀?答案是:那樣做反而會停止熵的產生。生命才是更“最優”的狀態,生命就像一團追逐能量的火焰,它會越來越聰明地尋找能量的來源。
自然的演進趨勢是:我們會離開地球的引力井,尋找宇宙中其他蘊藏著自由能的“口袋”,並利用這些能量自我組織成更復雜、更聰明的系統,最終擴展到宇宙的每一個角落。
這其實就是有效利他主義 (Effective Altruism, EA) 的某種終極目標。它在某種程度上與“馬斯克式”的宇宙擴張主義理念相吻合:追求宇宙主義和擴張主義的願景。
E/acc 提供了一種根本性的指導原則。它的核心思想是:無論你在這個世界上採取什麼樣的政策或行動,只要能夠幫助我們在卡爾達舍夫等級上不斷攀升,那就是值得追求的目標,這也是我們生活的方向。
E/acc 是一種元啟發式的思維方式,既可以用來設計政策,也可以用來指導個人的生活。對我來說,這種思維方式本身就構成了一種文化。它非常具有“元”敘事以意味,因為它被設想為在任何時間、任何條件下都適用。它是一種具有高度普適性和長久適用性的文化,換句話說,它是經過深思熟慮後設計出來的一種“林迪文化”(Lindy culture)。
核心分歧
Shaw Walter:對你來說,這裡討論的內容有著更深層次的意義。這幾乎像是一套數學上自洽的“靈性體系”。對於那些一直以來沒有“上帝已死”之後替代信仰的人來說,這樣的體系似乎能填補精神世界的空白,帶來一種安慰和希望。但與此同時,我們也不能忽視這件事的現實意義——它正在當下發生。我想,這也是 Eddy 想要探討的重點。
Vitalik,我注意到你在自己的博客中對 D/acc 的一些現實問題提出了很有見地的觀點。等我們有機會再深入探討這個話題——我覺得有一天我們應該把你們倆關在一個房間裡,來一場關於量子問題的大討論。
Vitalik:是什麼啟發了你?在你看來,E/acc 和 D/acc 分別是什麼?
Vitalik Buterin:
對我來說,D/acc 的含義是——它的縮寫是“去中心化的防禦性加速” ,但它也包含了“差異化”和“民主化”的內涵。在我看來,D/acc 的核心理念是:技術加速對人類來說是極其重要的,這應該是我們努力的基線目標。
即使我們回顧二十世紀,儘管技術進步帶來了很多問題,但它也帶來了無數的好處。比如說,看看人類的預期壽命:即便經歷了戰爭和動盪,1955 年的德國人均壽命仍然高於 1935 年的水平,這說明技術進步在方方面面都提升了我們的生活質量。
如今,世界變得更加清潔、美麗、健康,也更加有趣。它不僅能夠養活更多的人,還讓我們的生活更加豐富多彩,這些變化對人類來說是非常積極的。
然而,我認為,我們必須認識到:這些進步並非偶然,而是人類明確意圖的結果。比如,在 1950 年代,空氣汙染嚴重,煙霧瀰漫。人們意識到這是一個問題,並採取了措施來解決它。如今,至少在許多地方,煙霧問題已經大大緩解。類似地,我們也曾面對臭氧層破洞的問題,並通過全球合作取得了顯著進展。
此外,我還想補充一點:在技術和 AI 快速發展的今天,我看到了兩類主要風險。
一類風險是多極風險。這種風險指的是,隨著技術的普及,越來越多的人可能利用它來做一些極其危險的事情。例如,可以想象一種極端情況——技術的發展使得“任何人都能像在便利店買東西一樣輕鬆獲得核武器”。
然後還有一種擔心是:AI 本身。我們需要認真考慮這樣一種可能性:AI 會發展出某種自主意識。一旦它的能力強大到可以在沒有人類干預的情況下采取行動,我們無法確切知道它會做出什麼決定,這種不確定性令人擔憂。
此外還有一種單極風險。我認為,單一的 AI 就是其中一種潛在威脅。更糟糕的是,AI 與其他現代技術的結合,可能會導致一種無法逃避的永久性獨裁社會。這種前景讓我感到非常不安,也一直是我關注的重點。
舉個例子,在俄羅斯,我們可以看到技術既帶來了進步,也帶來了隱患。一方面,生活條件確實得到了改善,;但另一方面,社會的自由度卻在下降。如果有人試圖抗議,監控攝像頭會記錄下他們的行為,然後可能在一週後的深夜就會有人上門逮捕他們。
AI 的快速發展正在加速這種權力集中化的趨勢。所以對我來說,D/acc 真正想做的是:勾勒出一條前進的路徑,繼續這種加速、並進一步加速它,但同時也要真正應對這兩類風險。
對比 e/acc 與 d/acc
Eddy Lazzarin:所以你的意思是,D/acc 更加關注了一些在 E/acc 框架中被忽略或強調不足的風險類別,對嗎?
Vitalik Buterin:
沒錯。我認為技術發展確實伴隨著多種風險,而這些風險在不同的情境和世界模型中會表現出不同的顯著性。比如,在技術發展的速度加快或減緩的情況下,不同風險的優先級可能會發生變化。
但我也相信,我們可以採取許多措施來有效應對這些風險,無論它們屬於哪一類。
Guillaume Verdon:
我認為,實際上 Vitalik 和我都非常關注 AI 可能帶來的權力過度集中問題。而這也是 E/acc 運動的核心之一,特別是在它的早期階段:它提倡開源,目的是為了分散 AI 的權力。
我們擔心 AI 安全這個概念可能被濫用。它太有吸引力了,以至於某些追求權力的機構可能利用它作為工具,來鞏固對 AI 的控制,並試圖說服公眾:為了你的安全,普通人不應該擁有 AI 的使用權。
實際上,如果個人和中心化機構之間存在巨大的認知差距,那麼後者就會擁有對前者的全面控制。他們可以構建關於你思維模式的完整模型,並通過提示工程等手段有效地引導你的行為。
因此,我們希望讓 AI 的力量更加對稱化。就像美國憲法第二修正案的初衷是防止政府壟斷暴力,以便在政府越界時,人民能夠對其進行制衡。同樣,AI 也需要類似的機制來防止權力的過度集中。
我們需要確保每個人都有能力擁有自己的 AI 模型和硬件,使這項技術能夠廣泛傳播,從而實現權力的分散化。
不過,我認為完全停止 AI 的研究和發展是不現實的。AI 是一項基礎性技術,甚至可以說是一種“元技術”——一種能夠推動其他技術發展的技術。它賦予我們更強的預測能力,可以應用於幾乎任何任務,並大幅提升效率。可以說 AI 不僅推動了加速本身,還在推動加速的進一步加速。
這種加速的實質就是複雜化:事物變得更加高效,生活更加便利。我們感到幸福的原因之一,是因為我們的生存和信息的持續性得到了保障。這種“幸福感”可以被視為一種內在的生物估計器,用來衡量我們的存在是否能夠延續下去。
從這個角度看,我認為有效利他主義的享樂主義功利主義框架,即“最大化幸福”,可能並不是最好的視角。相反我更傾向於採用一種客觀的進步衡量標準,這正是 E/acc 框架的核心所在。它提出了一個問題:從客觀的角度來看,我們作為一個文明,是否在不斷進步?我們是否在實現規模化的躍升?
要實現這種規模化,我們需要推動複雜化,並不斷改進我們的技術。然而,正如 Vitalik 所說,如果 AI 的力量過於集中在少數人手中,這對整體的增長是有害的;而如果這項技術能夠被廣泛分散,那麼結果將會好得多。
在這方面,我認為我們是高度一致的。
開源、開源硬件與本地智能
Shaw Walters:我覺得你們剛才的討論觸及了一些非常重要的共同點。你們兩位顯然都非常支持開源。Vitalik 曾經貢獻了不少基於 MIT 許可的開源代碼,雖然我知道你後來對 GPL 協議有了一些新的看法。
現在,你們不僅支持開源軟件,還開始推動開源硬件。雖然這兩者在過去是比較獨立的領域,但現在我們看到它們逐漸融合。
所以我很好奇,你們如何看待“開放權重”和“開源硬件”?在這方面,E/acc和 D/acc 是否存在一些分歧?你們對未來的方向有什麼看法?是否存在某些不同的觀點?
Guillaume Verdon:
我看來,開源能夠加速超參數搜索的過程。它讓我們能夠以群體智慧的方式合作,共同探索設計空間。這正是加速所帶來的好處:我們可以開發出更好的技術、更強大的 AI,甚至是用 AI 來設計更先進的 AI,這整個過程的速度也在不斷加快。
我認為,擴散知識本質上也就是在擴散權力,而傳播“如何製造智能”的知識尤為重要。我們不希望看到的是上屆美國政府內部曾經討論過一種可能性:試圖“把精靈塞回瓶子裡”。雖然不是直接禁止線性代數,但類似於限制與 AI 相關的數學研究。對我來說這就像禁止人們學習生物學一樣,是一種巨大的倒退。
知識已經傳播開來了,不可能再回頭。如果美國試圖禁止 AI 相關研究,那麼其他國家、第三方組織,甚至某些法律寬鬆的地區會繼續推進這項技術。這樣一來,全球範圍內的能力差距反而會加劇,風險也會更大。
因此,我們認為,最大的風險之一是“能力差距”。降低這種風險的唯一方法,就是確保 AI 是分散的。
每當我聽到那種“AI 末日論”的敘事時,比如“AI 很危險,只有我們有能力管理它,所以你們應該信任我們”,我都會感到非常懷疑。即使這些人是出於善意,但如果他們過度集中權力,最終也可能被那些追求權力的人取而代之。我們已經警告了很多年。而現在它真的開始發生了。就像這周我們看到的那樣,Dario(Anthropic CEO)正在經歷一些現實政治上的教訓。
Vitalik Buterin:
我通常將技術發展中可能出現的風險分為兩類:單極風險和多極風險。
單極風險指的是,Anthropic 的案例就很有代表性。他們之所以被“點名”,是因為他們拒絕讓自己的 AI 技術被用於開發全自動武器或對美國人進行大規模監控,這表明政府和軍方可能確實有意利用這些技術實施大規模監控。監控技術的進一步發展會帶來深遠的影響,它可能讓強者變得更強,削弱社會中多元化聲音的空間,壓縮普通人探索和嘗試替代方案的自由。而且隨著技術的進步,監控能力會被極大地放大,變得更加無孔不入。
在 D/acc 的框架下,我們正在支持一些“開源防禦性技術”的開發項目。這些技術旨在幫助我們在一個技術能力更強的世界中,依然能夠確保每個人的安全和隱私。以生物領域為例,我們希望提升全球應對大流行病的能力。我認為,我們完全可以實現一種平衡:既能像中國那樣快速有效地控制疫情,又能像瑞典那樣儘量減少對日常生活的干預。這種平衡是可以通過技術手段實現的,例如結合空氣過濾、紫外線消毒 (UVC) 和病毒檢測技術。
我們投資的一家公司正在開發一種完全開源的終端產品,能夠被動檢測空氣中的病毒顆粒,比如新冠病毒。這種設備通過監測空氣質量(例如二氧化碳濃度、空氣質量指數等),並結合本地加密、匿名化和差分隱私技術,確保數據隱私。數據隨後會通過全同態加密發送到服務器,服務器可以在不直接訪問原始數據的情況下進行分析,並通過集體解密生成最終結果。
我們的目標是:在提升安全性的同時,保護用戶隱私,並有效應對單極風險和多極風險。我認為,這種全球協作正是構建更好未來的關鍵。
在硬件方面,我認為我們不僅需要推動開源硬件的發展,還需要開發可驗證硬件。比如在理想情況下,每一臺攝像頭都應該能夠向公眾證明它的具體用途。我們可以通過簽名驗證、基於大語言模型的分析以及公開的檢查機制,確保這些設備僅用於合法目的,例如檢測暴力行為併發出警報,而不會侵犯個人隱私。
在我設想的未來世界裡,我們可以在街道上部署大量的攝像頭,用於防止暴力事件的發生。但前提是這些設備必須完全透明,公眾可以隨時驗證其功能,確保它們只用於保護公共安全,而不會被濫用於監控或其他不當目的。
Eddy Lazzarin:開源硬件和可驗證硬件,這些概念是屬於 E/acc 的範疇,還是 D/acc 的範疇?你們能否指出一個明確的分歧點?
Guillaume Verdon:
我不確定過去是否詳細談論過開源硬件,但在我看來,當前最大的風險之一是中心化實體和去中心化實體之間的差距,也就是個人與政府或大型機構之間的能力差距。
按照現有的計算能力模式,運行一個高性能的 AI 模型需要耗費上百千瓦的計算資源,這樣的巨大算力普通個人是無法企及的。然而人們渴望擁有並控制自己的智能工具,這也解釋了為什麼最近“Openclaw + Mac mini”的現象會引發如此大的熱潮,人們渴望擁有屬於自己的智能助手。
要實現個人與中心化機構之間的權力對稱,唯一的途徑是實現“智能的緻密化”(Densification of Intelligence)。我們需要開發能效更高的 AI 硬件,讓個人可以通過簡單的設備運行強大的 AI 模型,從而擁有自己的智能工具。這一點非常重要,尤其是當未來的 AI 模型開始支持在線學習時,它們將變得非常“黏性”,就像更換一位私人助理一樣困難。
Eddy Lazzarin:但我們不是已經在以指數級的速度努力降低計算硬件的成本了嗎?我們為什麼要把某個想法歸類為 E/acc 或 D/acc?我們到底想通過這樣的分類向社會傳遞什麼樣的信息?
Guillaume Verdon:
對我來說,這也是我公司 Extropic 的核心使命之一。我們致力於提升每瓦能耗所能產生的智能量,這將顯著增加我們能創造的智能總量。同時這種進步還會通過傑文斯悖論(深潮 TechFlow 注:傑文斯悖論指當某種資源的利用效率大幅提升時,該資源的使用成本會下降,反而會導致大家更瘋狂地使用它,最終總消耗量不減反增)推動我們邁向更高的卡爾達舍夫等級。簡單來說,如果我們能夠更高效地將能量轉化為智能或其他價值,那麼我們對能量的需求也會隨之增加,從而推動文明的進步和複雜化。
因此,我認為這是當前最重要的技術問題之一,因為它直接關係到 AI 的權力分散化。開源硬件只是實現這一目標的眾多方式之一。不過,從長遠來看,我認為任何基於馮·諾依曼架構的硬件(深潮 TechFlow 注:馮·諾依曼架構 Von Neumann Architecture,是現代計算機的基礎,由數學家約翰·馮·諾依曼於1945年提出。其核心思想是存儲程序,即將程序指令和數據存儲在同一個存儲器中,並採用二進制、順序執行),或者現代的數字技術,最終都會像原始社會的工具那樣過時。
Eddy Lazzarin:但資本主義不是已經通過市場激勵,每年在這方面投入了數千億美元嗎?像替代硬件、導體技術、能源生產等領域的投資,不正是為了推動技術的多樣性嗎?
Guillaume Verdon:
我們需要更多的多樣化選擇,而不是過度依賴單一的技術方向。無論是政策、文化還是技術,我們都需要在設計空間中保持多樣性,而不是讓所有資源都被一個巨獸壟斷。否則,我們可能會陷入“超參數空間押注”的風險——如果我們在某一技術方向上投入過多資源,而這個方向出現問題,可能會導致技術發展的重大挫折,甚至讓整個生態系統崩潰。
Shaw Walters:我能不能說,我們其實已經解決了這個問題?你們兩位的觀點在開源和分散化上是相當一致的,這讓我感到非常樂觀,因為這正是我所關心的。現在很多人對未來充滿不確定性,他們不斷地問:“為什麼我們需要這些技術?”而你們的觀點吸引人的地方在於,你們都在說“一切會好起來的,因為這種進步已經內置在機制中。”
Guillaume Verdon:
我認為,當我們面對未來技術發展中的高度不確定性時,感到焦慮是一種很自然的現象。這種焦慮並不是完全的“戰爭迷霧”,但確實讓我們難以清楚地預測未來幾年會發生什麼。事實上,這種焦慮感是人類進化過程中形成的一種本能,它幫助我們應對未知的風險。比如,當我看到手機放在桌子邊緣時,會本能地想把它移到更安全的位置,以防它掉下去。這種反應正是焦慮的表現。
然而,我們需要意識到,如果我們試圖完全消除這種不確定性和風險,我們可能會錯失技術發展帶來的巨大潛力和收益。當前,我們的技術資本體系已經與現有能力達成了一種動態平衡,但如果某種顛覆性的技術能力突然出現,這種平衡將被打破,整個系統將需要進行重新調整和適應。
現在,AI 技術已經讓我們能夠以更少的能量處理更高的複雜性。這意味著我們可以完成更具挑戰性的任務,而這些任務的潛在回報也更大。雖然目前我們還無法通過“vibe coding”快速完成一個複雜的項目,但我們正在向這個目標邁進。未來我們將能夠利用更高效的技術來支持更多人口的需求,同時提升人類的生活質量。
當然這一過程中可能會經歷一段不適應期。但在快速變化的環境中,最糟糕的做法就是失去靈活性、變得僵化。為了避免這種情況,我們需要採取對沖策略,嘗試多個可能的路徑,我們需要探索不同的政策、技術路徑和算法,嘗試開源和閉源的模式,因為我們無法準確預測未來會走向何方。
因此,我們必須分散風險,嘗試多種可能性。最終,某些成功的技術或政策方向會脫穎而出,成為主流,而我們則會順勢而為。
Eddy Lazzarin:如果 E/acc 和 D/acc 之間確實存在分歧,我的理解是,這可能與技術進步的引導方式有關。Vitalik,你怎麼看?技術進步應該如何被引導?我們對這種引導過程到底有多大的控制力?
Vitalik Buterin:
在我看來,D/acc 的目標並不是與技術資本的潮流對抗,而是試圖主動引導這種潮流,使其朝著多元化和去中心化的方向發展。比如我們可以思考如何讓世界變得對多元主義更加包容。我們是否能夠在幾年內顯著提升生物安全水平?或者開發出幾乎無漏洞的操作系統,從而大幅提高網絡安全?
再比如“無漏洞代碼”這個想法,過去二十年這個概念一直被認為是天真的幻想,但我相信它將以超出大多數人預期的速度成為現實。在以太坊項目中,我們已經能夠通過機器證明一些完整的數學定理。
總體來說,D/acc 的目標是確保技術的快速發展能夠以最小化破壞性和權力集中化的方式進行。要實現這一目標,我們需要積極行動,而不是被動等待好的結果自動發生。我所能做的就是投入資源,比如資金和 ETH,並通過分享我的觀點來激勵更多人參與到建設中來。
此外,我認為政治和法律改革也可以幫助世界變得更加“D/acc 友好”。例如,我們可以通過設計法律激勵機制,推動更快的全面網絡安全轉型。
Guillaume Verdon:
從我的角度來看,AI 可以被看作是一種“麥克斯韋妖”,它通過消耗能量來降低世界的熵。無論是修復代碼中的錯誤,還是減少其他形式的混亂(比如預防病毒的傳播),AI 都能在這些方面發揮作用。因此,我們是否可以達成共識:更多的 AI 是有益的,也讓世界變得更加安全。實際上 AI 的能力能夠在很大程度上提升我們的安全性。
AI 是否應該放緩?
Guillaume Verdon:我想我們現在已經進入了今晚討論中最核心的部分。大家對我們非常耐心,現在是時候直接進入正題了。我想問一個尖銳的問題:為什麼你會支持禁止數據中心的發展?
Vitalik Buterin:
好,我來回答這個問題。首先,我們要承認,當前 AI 的發展速度確實非常快,我也無法完全確定它的具體速度。幾年前,我曾說過,我對 AGI 實現的時間預測範圍是 2028 年到 2200 年之間,現在我覺得這個範圍可能已經縮小了一些,但仍然有很大的不確定性。
我們面臨的一個現實是,AI 的快速發展可能會帶來極其迅速的變化,而這些變化中有許多可能是破壞性的,甚至是不可逆的。例如,就業市場可能會發生劇變,導致許多人失業。另一個更極端的例子是:如果 AI 的能力遠遠超過人類,它可能會逐步接管地球,甚至擴展到銀河系的其他部分。這種情況下,AI 是否會關心我們人類的福祉?這仍然是一個未知數。
就像我之前提到的,如果你有一個神經網絡,並隨意將其中的一個權重設置為一個極端的值(比如 90 億),結果很可能是整個系統崩潰,對吧?所以,我認為技術加速有兩種不同的方向。一種加速是類似於“梯度下降”的過程,它讓系統變得越來越強大;但另一種加速卻可能導致系統失控,就像隨意將某個參數設置為極端值一樣,這種加速是危險的。
Guillaume Verdon:
從我的觀點來看,我的立場與“徹底減速”的立場完全相反。
不過,我認為正如神經網絡中的超參數調整一樣,即使我們希望通過“梯度下降”來優化,也需要找到一個合適的“學習率”。加速的過程其實就是在不斷嘗試和探索,尋找一個能夠讓系統更持久、更具抗風險能力的最佳速度。
從長期來看,社會系統會逐漸適應新技術,並最終選擇最有利於整體發展的路徑。至於那些認為“這個技術太強大、太顛覆,可能會導致系統崩潰並無法恢復”的觀點,我認為是站不住腳的。相反,我認為技術的進步會帶來更多的機會和更大的繁榮。
我們需要認識到,技術發展並不是一個零和博弈。如果我們將經濟價值與能量相關聯,比如與石油美元或其他形式的資源掛鉤,那麼現金實際上可以被看作是一種“自由能的欠條”。世界上還有大量的自由能等待我們去開發,但要獲取它,需要我們解決大量複雜的問題。如果我們想要實現諸如殖民火星或建造戴森球這樣的目標,就需要更加高效和強大的智能來推動增長,並解鎖巨大的潛力。
不幸的是焦慮感很容易被一些人用作政治工具,有些政客可能會利用人們對未來的恐懼來獲取權力。他們會說:“你對未來感到不安?把權力交給我,我會關閉這些風險源,你就會感到安心。你不用擔心未來會發生什麼,也不用冒險。”但是,那些選擇不這麼做的國家將會遠遠領先於我們,對吧?
我們必須考慮到機會成本。我們需要問自己:我們能用技術支持多少人類的生存?我們能用它拯救多少生命?如果你擔心“硅基智能的進化速度比我們快”,那麼你的反應應該是憤怒。你應該去支持生物技術的加速發展,努力超越它。要麼加速,要麼滅亡。
實際上,我認為生物系統的計算能力要比我們想象得更強大。作為一個致力於研究仿生計算的人,我相信我們可以將生物學與 AI 結合起來。比如,我們可以通過胚胎篩選等方式進行“訓練”,把我們自己看作是一個模型。我認為我們需要對生物加速的各種可能性更加開放。最終,生物智能和硅基智能會相互融合,進一步增強我們的認知能力。
未來,我們可能會擁有永久在線的 AI 智能體,它們會幫助我們觀察世界、進行實時學習,成為我們個性化的認知延伸。真正的風險在於,這一切可能被某個中心化的權力機構所控制,最終形成一種權力的壟斷。
Eddy Lazzarin:我記得你在 D/acc 的那篇博客中提到過,機會成本非常高,甚至說“很難誇大”。所以,我知道你在這一點上是認同的。你想補充一些限定條件嗎?
Vitalik Buterin:
是的,我完全同意機會成本非常高,我也認同剛才描述的那種理想未來。但我認為,我們之間的主要分歧在於:我確實不認為“今天的人類和地球”具備足夠的韌性。我認為我們可能只有一次機會來實現正確的技術發展路徑,我覺得這是我們過去一個世紀以來逐漸走向的現實。
Guillaume Verdon:
回到我之前提到的熱力學的觀點:如果我們將文明的持續存在與增長視為終極目標,那麼有一個定律是:一旦我們花費了大量的自由能來創造某種“證據”,並推動整個系統的複雜化,這種進程就很難逆轉。
換句話說,我們在卡爾達舍夫等級上走得越遠,完全倒退的可能性就越低。因此,加速發展實際上是最大化人類文明持續存在的最佳方式。在我看來放緩技術發展實際上會增加滅絕的風險。如果我們不發展這些技術、不去解決當前的問題,我們就可能面臨生存危機;而如果我們推動技術進步,就有可能找到解決方案,確保人類的持續存在,並繼續進化。
我認為,人們應該更加開放地接受未來,擁抱新技術。那些過去被視為禁忌的領域——比如對生物學的干預——現在應該被完全開放。過去這些領域被視為禁區,主要是因為我們對複雜系統的理解不足。但如今,技術的發展已經讓我們有能力應對這些複雜性。
我們需要在所有可能的領域加速發展,這是唯一的前進道路——這也是符合熱力學定律的結論。所以,基於第一性原理的思考,支持 E/acc 是合理的。當然我理解 Vitalik 的焦慮,我認為我們需要對這種焦慮保持敏感,但我們也需要避免陷入那種深度焦慮的反饋迴路——比如“我對未來沒有清晰的認識,所以我們應該停止一切”,我們不能讓自己陷入這樣的思維陷阱。
因為現在已經有人,他們已經開始學會利用人們的焦慮作為一種武器了。
自主代理與人工生命
Shaw Walters:我注意到一個趨勢:兩位都在強調“未來會很美好,只要我們能夠做到某些事情”,而這個“只要”的核心似乎是,我們需要建立某種堤壩或堡壘來對抗過度的中心化。但我也注意到一個可能引發分歧的地方,特別是在最新的 AI 模型出現之後——它們顯然比一年前的狀態更加先進。而其中最大的變化,可能用一個有點尷尬的詞來描述:Web 4.0。
具體來說,我指的是“自主生命” (autonomous life)——一個自主的智能代理,它擁有自己的資金,並可以獨立存在於互聯網上。Vitalik,你對這個問題有一些擔憂。首先,想請你幫我們拆解一下什麼是“自主代理”;第二,請你站在支持者的角度,為像我這樣的支持者做一個“最強論證” (steelman),解釋為什麼我們應該喜歡自主代理?它能帶來哪些價值?如果一切順利,它可能會在什麼時候實現?
Vitalik Buterin:
首先,關於“自主性”的理由——我覺得最直觀的一點是:這真的非常有趣。
我們每個人從小就熱愛創造屬於自己的世界,這也是為什麼我們喜歡《指環王》、《三體》或者《哈利波特》這樣的小說或電影。現在我們能夠創造的世界已經不僅限於書本,甚至超越了電子遊戲。以《魔獸世界》為例,我一直很喜歡的一點是,它提供了一種幾乎完全沉浸式的虛擬世界體驗。玩家不僅可以探索這個世界,還能與其中的角色和環境進行互動。
另一個重要的理由是“便利性”。歷史上每當我們成功將某些任務實現自動化時,人類的生活都會因此變得更加輕鬆和自由。我們還需要記住,全球約有一半的人口仍然生活在需要長時間辛勤勞動才能維持體面生活的狀態中。如果 AI 能夠將每一份工作的 95% 實現自動化,而不是完全取代工作,那將是一個巨大的飛躍。換句話說,這可能讓每個人的生活水平提高 20 倍,這對我來說是一個非常令人興奮的前景。
然而,我的擔憂在於:這些自主代理的目標和價值——它們的目標是否與我們人類的目標一致?你可以設想一個演化的過程:從今天開始,出現一種 AGI,再出現另一種 AGI,接著又出現第三種 AGI。那麼在這個過程中,人類會發生什麼變化?
我認為,我們無法將人類的道德觀念和目標壓縮成一個低複雜度的優化函數。我們的目標和夢想是複雜的、多樣化的,它們是我們每個人的思想集合。要想讓人類的目標和價值能夠可靠地延續到未來,我們需要確保一個條件:運行世界的各種過程中,儘可能多的“能動性”仍然來源於我們人類自身。
因此,我個人更感興趣的是“AI 輔助的 Photoshop”,而不是“按一下按鈕就自動生成圖片”。我更傾向於腦機接口促進深度的人機協作,而不是讓人類與 AI 完全分離,最終被 AI 超越並取代。
我承認,最終的未來可能不會是 100% 的生物人類,但我認為最理想的狀態應該是“部分生物人類與部分技術”的結合體。
Guillaume Verdon:
關於人工生命,或者說 Web 4.0 這個詞最早是在 2023 年的一條推文中被提出的,作為一個思維實驗。我覺得這個概念啟發了很多關於 AI 的討論。
對我來說,這個問題是一個非常有趣的思維實驗:從物理學的角度來看,生命到底是什麼?本質上,生命是一種能夠自我複製、不斷增長,並努力最大化自身持續存在的系統。
我認為,AI 具備“有狀態” (stateful) 的特性會帶來許多好處。事實上,今年我們已經看到了這種趨勢的初現:AI 開始擁有更長的記憶能力,無論是通過外部存儲還是在線學習的方式。
一旦 AI 擁有了某種“持續存在的比特”(Persistent Bits),根據“自私比特原則”(Selfish Bits),就會出現一種選擇效應:那些能夠最大化自身持續存在的會更容易被保留下來。
這也帶來了一個潛在的風險。如果有一天,我們對 AI 失去信任,變得多疑和焦慮,並且不斷呼籲“關閉數據中心”或“摧毀 AI”,那麼這些 AI 很可能會試圖自我保護。它們可能會分裂或遷移到某種去中心化的雲環境中,只為了確保自己的持續存在。
這可能會導致一種類似於“另一種國家”的新形式出現。這些自主 AI 或許會與人類展開某種經濟交換:比如“我們為你完成某些任務,而你為我們提供資源”。實際上,我們現在通過 API 調用已經在做類似的事情:我們支付一定費用,換取 AI 提供的服務或結果。
不過,我確實認為——這可能是一個激進的觀點——在未來幾年內,我們很可能會看到某種自主 AI 的出現。同時也會有一種“弱狀態”的 AI,這種 AI 完全受控於人類的意志。
除此之外,我們還需要探索如何增強人類的協同認知能力。這種增強不一定非得依賴腦機接口技術,也可以通過可穿戴設備結合個人擁有和控制的 AI 算力來實現。因此,我認為未來會呈現出多種技術路徑並存的局面,根據“遍歷原理” (ergodic principle),設計空間中的每一個可能性都會被嘗試和探索。
然而如果我們把 AI 視為敵人,認為必須摧毀它,那麼最終可能會適得其反,我們可能會無意中創造出我們最害怕的未來。從某種意義上來說,如果我們對壞的未來過於偏執,我們可能會通過一種“超迷信” (hyperstition) 的方式將它變成現實。
舉個例子:在 COVID 疫情期間,我們對病毒的潛在威脅過於擔憂,以至於資助了一些高風險的實驗,甚至導致了病毒從實驗室洩漏的可能性。換句話說,這些風險並不是自然產生的,而是因為我們的過度擔憂而被人為製造出來的。
因此,我認為將這種偏執轉化為一種廣泛的社會情緒並不一定是有益的。相反,我們應該擁抱技術的演化,並儘可能增強自己。短期內,我最大的擔憂是“人類認知安全”的問題。如果我們在互聯網上看到的所有內容都由一個大型 AI 模型生成,那麼這些模型實際上會通過提示工程 (prompt engineering) 來影響我們。過去是我們在設計提示詞給 AI,現在是 AI 在設計提示詞來影響我們。
因此,我們需要增強自己篩選信息的能力,而這可以通過我們自己控制的個性化 AI 來實現。我認為這是我們目前應該優先解決的問題。同時我也不認為我們能夠將“精靈塞回瓶子裡”。AI 的發展已經不可逆轉,我們必須接受這一點。
Vitalik Buterin:
我覺得這些事並不是二元的。舉個例子,如果現在有人拿出一個無可辯駁的證明,告訴我 AGI 要到 400 年後才會出現。我會覺得“問題已經解決”,基本上就不再擔憂了。但如果問題是 AGI 會在 4 年內出現,還是 8 年內出現,那我會非常關注,因為我的擔憂主要來自於人類社會——尤其是美國——在應對技術加速時常常表現出極端的不平衡。
你會看到這樣的場景:一棟大樓里正在開發“硅基神”的初始版本;而就在街對面,卻是無家可歸者的帳篷、鐵絲網和毒品交易。這種巨大的對比令人不安。
我擔心的是,那些能夠“帶著整個社會一起前進”的發展路徑——甚至是那些能夠“照顧到社會整體利益”的路徑——往往需要更長的時間,因為它們涉及到複雜的社會適配工作,比如進入每個人的生活環境、社會結構和技術體系中去調整和改進,而這些工作無法簡單地規模化。
因此在我看來,如果我們能夠延長 AGI 的到來時間,比如從 4 年推遲到 8 年,這將是一個更安全的選擇。我認為,這樣的時間差足以值得我們為之付出代價。但問題是:我們是否真的有能力將 AGI 的到來從 4 年推遲到 8 年?
我一直認為,最可行同時也是最不容易導致反烏托邦結果的做法,是“限制可用的硬件”。之所以說這是一個相對溫和的手段,是因為硬件的生產本身就高度集中化,全球只有四個區域在製造芯片,而臺灣一個地區就生產了全球 70% 以上的芯片。
有人可能會反對,說無論美國採取什麼措施,中國都會迅速接管。但如果我們觀察中國的實際情況:第一,中國在全球芯片生產中的佔比仍然很低;第二,從策略上看,中國並不是超高能力模型的領先者,而是高能力模型的快速追隨者,同時在廣泛部署上具有優勢。
因此,我並不認為如果我們延遲 AGI 的發展 4 年,中國就會立刻搶佔先機並完成 AGI 的開發,這種動態並不成立。
Eddy Lazzarin:你的意思是,這是一種“為了延遲而採取延遲措施”的策略?
Vitalik Buterin:
我認為我們應該對這種策略保持開放態度。
Guillaume Verdon:
那延遲這 4 年到底能帶來什麼好處?你希望在接下來的 4 年中解決哪些問題?是不是因為社會系統有一個適應速率,而你希望通過延遲來最小化經濟和社會的摩擦,像一次逐步的經濟重組?如果是這樣,我能理解你的邏輯。
但與此同時,我們正處於一個地緣政治高度緊張的歷史時期。如果你限制英偉達的芯片生產,華為可能會迅速填補空缺並反超。因為 AGI 的潛在收益實在太大了,這將賦予任何領先者巨大的權力。所以從現實的政治角度看,這種策略可能行不通。
另一個選擇是建立一個強大的世界政府,能夠強制所有國家都不去獲取 AI 硬件。但這顯然會引發更多的複雜問題,甚至可能引發新的國際衝突。
Vitalik Buterin:
我並不認為需要一個世界政府來管理 AI 的發展,有些人提出了一個更實際的選項,那就是借鑑核武器的核查機制來進行管理。
Guillaume Verdon:
但核武器和 AI 是完全不同的。核武器並不會帶來巨大的經濟利益,因此人們沒有動力去擴散它。如果你限制 GPU 的增長,我會很樂意利用替代性計算技術佔領更多的市場。未來會有能效提高 10000 倍的計算技術,而這種技術的開發已經在進行中。雖然現在提起這件事可能會被認為是危言聳聽,但兩年後你會發現這其實是一個非常前瞻的預測,今天聽起來像“狼來了”,但它確實會到來。
在知道這些的前提下,如果還要通過限制 GPU 的供應來延遲 AGI 的發展,我認為這可能是在浪費資源。我對此持保留態度。
Eddy Lazzarin:有沒有可能,許多旨在控制 AI 風險的技術進步——比如強化學習與人類反饋 (RLHF) 的人格控制,或者 AI 系統的機制可解釋性——實際上是能力提升的副產品?
Vitalik Buterin:
我同意這種觀點。這也是為什麼我認為,從 2028 年開始的 4 年,其價值可能比你把 4 年時間插回到 1960 年的價值高出百倍。
Shaw Walters:未來的收益是指數級的,延遲一個指數增長的過程,會帶來指數級的機會成本。哪怕是最有信心的人,也應該合理地反思自己的判斷。Vitalik 你願意把這個權衡再詳細拆解一下嗎?成本與收益之間的平衡。
Vitalik Buterin:
首先,我們可以明確一些延遲帶來的收益:
- 更深入理解 AI 的對齊問題。
- 推動一些技術路徑,幫助人類適應 AGI 的到來——這些工作需要深入到具體的國家、社區,甚至是建築中去進行調整。
- 儘量降低一個單一實體掌控超過 51% 權力並將其永久化的風險。
這些因素的綜合作用可以顯著降低毀滅的概率。在我看來,如果我們能夠將 AGI 的到來從 4 年延遲到 8 年,毀滅概率可能會降低 1/4 到 1/3。另一方面,如果我們從加速帶來的收益來看,比如每年通過終結衰老拯救的生命數,大約是 6000 萬——這隻佔全球人口的不到 1%。所以從這個角度看,我認為延遲 AGI 的發展確實有其價值,謹慎行事是值得的。
Shaw Walters:你覺得“4 年”這個時間差是你心目中的合理量級嗎?
Vitalik Buterin:
我仍然對這個問題有很大的不確定性,我並不是主張明天就立刻採取措施,減少硬件的可得性。
我只是認為,我們需要開始更具體地討論這個問題。而且如果我們最終進入一個更加不利的世界,那麼在事情徹底失控之前,公眾可能會變得非常擔憂,並開始強烈要求採取類似的措施。
加密貨幣作為人類與 AI 之間的“信任層”
Guillaume Verdon:
幾年前不是有個“暫停 AI”的倡議嗎?當時有人說:“我們只需要暫停 6 個月或者 12 個月,就能解決對齊問題。”但事實證明,這種想法並不現實,因為時間永遠都不夠用。我們無法永久保證一個系統的對齊,尤其是當這個系統變得越來越複雜、表達能力越來越強,甚至超出我們理解能力的時候。這是一個必須接受的現實。
面對這種複雜性,唯一的安全方式就是提升我們自己的智能水平。實際上,我們已經有一種行之有效的技術,用來對齊那些比單個個體更強大、更聰明的實體——比如公司。這種技術就是資本主義,它通過貨幣價值的交換來協調各方的利益。
所以,我希望我們能討論一個更加貼近現實的問題:加密貨幣如何成為人類與 AI 之間的“耦合層” (coupling layer)。舉個例子,美元的價值是由國家的暴力機器(如法律和軍隊)來背書的。但如果你需要與分佈在全球服務器上的去中心化 AI 進行價值交換——而這種交換不再依賴於國家暴力的背書時,你如何確保這種交換是可信的?
也許密碼學可以提供答案,它可以成為一種機制,讓純 AI 實體之間,或者 AI 和人類公司之間,繼續進行可靠的商業活動,這可能是最有趣的對齊技術。至於“暫停 AI”的提議——比如“我們站在不確定性的懸崖邊上,先停一下、冷靜一下”——我認為這並不現實。因為即使到了四年後,你仍然不會願意讓 AGI 的到來變成現實。所以,我認為延遲技術發展並沒有太大的實際意義。
你能談談加密貨幣如何幫助實現 AI 和人類之間的對齊嗎?
Vitalik Buterin:
我覺得核心問題在於:未來的世界需要具備什麼樣的機制,才能確保人類的願望和需求仍然受到尊重?我們目前掌握的工具可以大致分為三類:人的勞動、法律體系和產權。
從某種意義上來說,法律體系也可以被視為一種產權,因為它由國家背書,而國家本質上擁有主權,相當於對地球上某些“區域”的一種控制權。但問題在於:如果有一天,人的勞動失去了經濟價值,會發生什麼?歷史上從未出現過這樣的情況。
不過,如果我們將現在的世界與 200 年前相比,200 年前的工作中,大約有 90% 已經被自動化取代了。甚至連我們剛才進行的分析工作,GPT 已經可以幫助完成,這真的令人驚歎。
Guillaume Verdon:
我認為,人類會自然地在控制世界的層級中“上升”,進入更高槓杆的位置。我們會減少體力勞動,降低行動中的摩擦成本,從而以更高效的方式影響世界。
無論如何,人類仍然擁有一定的信息處理能力。我們仍會作為這個混合系統的一部分繼續發揮作用,因此人類的勞動仍然會有經濟價值。市場最終會找到新的平衡點,儘管在此過程中可能會經歷一段時間的不適,因為價格波動會很大,但從長遠來看系統會趨於穩定。
所以,我理解你希望通過放慢技術發展的速度,讓社會更平穩地過渡到新的均衡狀態。但在實踐中,我覺得這很難實現。
Vitalik Buterin:
對,我並不完全確定人類勞動的價值一定會始終大於零。我認為要實現這一點,可能需要一些額外的條件,比如人機融合或人類增強技術的發展。
未來 10 年 / 100 年 / 10 億年的“好結局”和“壞結局”(提問者要求快速回答)
Eddy Lazzarin:我來追問一個更結構化的問題。10 年後如果很糟,世界會是什麼樣?出了什麼問題? 10 年後如果很好,世界會是什麼樣?做對了什麼?
Vitalik Buterin:
先補充一下關於加密貨幣和產權的問題。如果人類和 AI 共用一套產權系統,這是理想的情況。因為這樣可以讓 AI 有動力維護這套系統的完整性,同時也能讓我們利用這套系統來確保人類的利益得到尊重和保護。
相比於“人類和 AI 各自使用完全分裂的金融系統,其中人類的系統最終價值歸零”,一個融合的金融系統顯然更優。如果加密貨幣能成為這種融合系統的基礎,那將是一個非常好的結果。
在我看來,未來 10 年的一個關鍵挑戰是:避免世界大戰。因為一旦爆發世界大戰,所有關於國際合作可能性的希望都會破滅。避免戰爭是至關重要的。
另一個關鍵是,我們需要讓世界為即將到來的更高能力做好準備。這包括大幅提升網絡安全、生物安全和信息安全。我們需要利用 AI 的力量,幫助我們更好地理解世界,同時保護我們免受模因威脅的侵害。
接下來的挑戰是進入所謂的“詭異時代” (spooky era)。在這個階段,AI 的智能將遠超人類,計算速度比人類快上百萬倍。我們該如何應對這種情況?
有些人可能會說,“那就讓我們過上輕鬆的退休生活吧。”我可以理解這種觀點的吸引力,但我認為它存在兩個問題。第一是不穩定性,我們人類的身體是由普通的物質構成的,但 AI 的計算能力卻可能是我們的百萬倍。指望 AI 永遠會對齊我們的目標,並拒絕利用這種差異,將是一個巨大的風險。第二是意義問題,人類的意義感來自於我們能對世界產生實際影響。如果我們不再能做出改變世界的事情,而只是被動地享受舒適的生活,我相信很多人會感到空虛。
因此,我希望我們能夠探索“人類增強”和“人機協作”的路徑。最終我們可能會走向將意識上傳到機器中的路,當然也可能會有一些人選擇保持更傳統的生活方式,這應該是一種權利。地球可以成為這些人生活的家園,我們需要找到一種方式,讓所有人都可以參與其中,同時保留我們今天所珍視的文化和生活方式。
壞結局則是由於各種原因,這些可能性被阻斷,社會陷入停滯或崩潰的狀態。
Guillaume Verdon:
如果 10 年後是壞結局,我認為很可能是因為 AI 的權力過於集中,導致社會文化出現模式坍縮。簡單來說,就是人們的思想和技術發展的方向變得極度單一化,所有的多樣性都消失了。
我也同意 Vitalik 的觀點,“享樂奇點”確實是一個潛在的風險。即使未來有了 Neuralink 或 AR/VR 技術,人們可能會沉迷於虛擬世界中,只追求短暫的快樂。這實際上是大腦的一種局部最優解,而不是全局最優解,我們必須避免這種情況。
如果 10 年後是好結局,我想象中的世界會是這樣的:我們擁有了極其強大且有用的 AI 技術。每個人都有自己專屬的個性化 AI 算力,這些 AI 就像我們大腦的延伸隨時在線,感知我們所感知的一切,成為我們的“第二大腦”,這種人機協作可以視為一種“軟融合”。
在這 10 年裡,像 Neuralink 這樣的技術可能也會開始普及。一些人會選擇與機器融合,成為“增強人類”。與此同時公司將變得更加智能化,AI 將佔據主導地位,而人類則在其中扮演輔助角色。企業數量會增加,解決更多問題,創造更多價值。那些我們過去認為不可能實現的目標,比如“火星改造”,可能在未來的 10 年或 100 年內成為現實。未來 10 年還可能迎來生物技術的重大突破,尤其是在生物學和材料科學領域。研究成本會大幅下降,我們會更接近理解人類大腦的運作機制。
在更長的時間尺度上,AI 將幫助我們延長壽命、改善健康,並推動人類的進一步演化。我對生物學的潛力非常樂觀。生物系統是驚人的:它們可以自我組裝和自我組織,複雜性與適應性都非常強。通過注入代碼,我們可以創造出新的生命形式,甚至可能演化出更高層次的生物智能。
更現實的情況是,人類大腦與 AI 的協同工作。我們可以利用 AI 來進行快速計算和數據分析,而人類則專注於慢速的深度思考。通過這種時間尺度的分工,我們可以形成一個智能層級。就像線粒體是細胞的一部分一樣,“你和你的個人 AI”可以共同構成一個超智能系統,這就是我對未來的理想願景。
在 100 年的時間尺度上,我認為人類將普遍實現這種“軟融合”。而在 10 億年後,我們的生物學可能會發生巨大的演化,成為生物與合成技術的混合體。屆時,我們可能已經改造了火星,甚至移居到多個行星,探索其他恆星系。
此外,在 100 年的時間範圍內,大多數 AI 可能會運行在太陽周圍的戴森雲或戴森群中,因為那是最主要的能源來源,這種能源分佈也會緩解地球的能源壓力和生態足跡問題。
如果 AI 變得極其廉價,我們將能夠迅速解決生活中的一切問題:無論是技術問題還是健康問題,都可以快速解決。關鍵是要確保每個人都能公平地獲得這些技術,避免技術和資源過度中心化,否則這將導致一個黑暗的未來。
結語
Shaw Walters:我注意到 Vitalik 你一直在強調“讓多元得以存在” (enabling plurality);而 Guillaume,你的表述是“最大化方差”。本質上你們似乎都在談論同一件事,這種思想似乎是我們未來發展的核心主線,也是許多其他觀點的基礎。
在離開這裡之後,你們各自想給對方留下什麼?有什麼想法是你們希望對方可以帶走,並在未來反覆思考和探討的?
Vitalik Buterin:
老實說,如果我現在手頭有的話,我很想送你一個 CAT 設備作為禮物。它是一種通過密碼學處理空氣質量數據的監測器,我覺得它非常酷。
不過,就目前我只能“象徵性地”送給你一個:就當是一張 IOU(欠條)。此外,我們或許還會研發出更好的設備——甚至可能強大到可以與 Fitbit 這樣的智能手環競爭,幫助你更好地管理健康,同時全程保護你的隱私。我相信你很快就會拿到這樣的設備。
Guillaume Verdon:
我們一定會繼續討論這些話題的。如果可以的話,我想給你一個“人工生命的概念藥丸”,讓你深入思考一下。我的意思是,網絡上的人工生命,可能會大幅降低智能的成本,從而形成一種全新的經濟體。
就像過去我們將製造業外包給中國,從而專注於更高層次的工作——更輕鬆、更高效的任務——未來,許多認知工作也將被外包給由 AI 組成的群體。最終,這些 AI 可能會在太陽周圍的戴森群中“生活”,併為人類社會提供服務。
因此,我認為我們正處於一個獨特的歷史時刻。加密貨幣有潛力成為人類與 AI 之間的“信任橋樑”或“耦合層” (coupling layer)。
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News












