
強力なAI時代において、ブロックチェーンに未来はあるのか?
TechFlow厳選深潮セレクト

強力なAI時代において、ブロックチェーンに未来はあるのか?
ブロックチェーンは多くの点で人工知能とは正反対であり、特に価値観においてそうである。
執筆:Meng Yan、Solv Protocol共同創業者
最近很多人都在問我,ChatGPT 讓 AI 再度熱門起來,區塊鏈和 Web3 被搶走風采,今後還有前景嗎?也有一些了解我的朋友問:當年你放棄 AI 選擇區塊鏈,有沒有後悔?
這裡有一段小背景。2017年初我離開 IBM 後,曾與 CSDN 創始人蔣濤討論個人未來的發展方向,當時有兩個選項:AI 或是區塊鏈。我自己那時已經研究了兩年的區塊鏈,當然傾向於選擇這個領域。但蔣濤堅定認為 AI 的勢頭更猛、顛覆性更強。經過仔細思考後我也認同,因此從2017年初到年中,我短暫地做了半年的 AI 科技媒體,參加了不少會議,採訪了許多人,也粗略涉獵了一些機器學習知識。然而到了8月,我便回歸區塊鏈路線,一路走到今天。對我個人而言,確實存在所謂「放棄 A 選擇 B」的歷史抉擇。
就個人而言,我當然不後悔。方向的選擇首先要考量自身情況。
-
以我的條件,在 AI 領域最多只能混到啦啦隊的位置,賺錢少還不算,如果表現不夠賣力、表情不夠生動,甚至會遭人輕視。
-
而區塊鏈才是我的主場,不但有機會上場發揮,過去的許多積累也能派上用場。更何況當時我對中國的 AI 圈已有一定了解,並不看好。
-
技術方面我僅懂些皮毛,但常識尚存。大家都說區塊鏈圈子浮躁,其實當時的中國 AI 圈在浮躁這點上也不遑多讓。
-
在尚未取得決定性突破之前,AI 在中國過早地變成了一門合謀撈錢的生意。上野的櫻花也不過如此,那與其如此,不如去做我更具比較優勢的區塊鏈。這種態度至今未變。
-
假如我當初留在 AI,近年來在區塊鏈中取得的一點小小成就自然無從談起,而在 AI 領域也不會有真正意義上的收穫,搞不好現在還深陷失落之中。
不過以上僅是針對個人選擇而言。若上升至產業層面,則需要另一種尺度的分析。既然強人工智能已毫無爭議地到來,那麼區塊鏈產業是否需要重新定位,以及如何重新定位,確實是一個值得認真思考的問題。強人工智能將衝擊所有行業,其長期影響難以預測。所以我相信,許多產業專家正在焦慮,正在思索自己所屬領域的未來。例如某些行業在強人工智能時代或許能暫時穩坐奴隸之位,而其他一些行業——如翻譯、插圖繪製、公文撰寫、簡單編程、數據分析等——恐怕連做奴隸的資格都將失去,早已開始瑟瑟發抖。
那麼區塊鏈產業會如何呢?目前探討這個問題的人似乎不多,因此我想談談自己的看法。
先說結論:我認為區塊鏈在價值取向上與強人工智能是對立的,但也正因如此,兩者之間形成互補關係。
簡單來說,強人工智能的根本特徵,在於其內部機制對人類而言不可理解;因此試圖通過主動干預其內部機制來確保安全性,無異於緣木求魚、揚湯止沸。
人類必須運用區塊鏈為強人工智能立法,與其締結契約,施加外部約束,這才是人類與強人工智能和平共處的唯一機會。
未來,區塊鏈與強人工智能將形成一種既矛盾又相互依存的關係:
-
強人工智能負責提升效率,區塊鏈負責維護公平;強人工智能推動生產力發展,區塊鏈塑造生產關係;
-
強人工智能拓展上限,區塊鏈守護底線;
-
強人工智能創造先進工具與武器,區塊鏈則在它們與人類之間建立牢不可破的契約。
總之,強人工智能天馬行空,區塊鏈為其套上韁繩。因此,區塊鏈在強人工智能時代不但不會消亡,反而作為一個矛盾共生的產業,將隨著強人工智能的壯大而迅速發展。甚至不難想像,在強人工智能取代人類大部分腦力工作之後,人類仍需親自動手的少數工作之一,便是撰寫與審查區塊鏈智能合約,因為這是人類與強人工智能之間訂立的契約,不能委託給對方。
以下展開論述。
1. GPT 就是強人工智能
我在使用「AI」與「強人工智能」這兩個詞時非常謹慎,因為我們日常所說的 AI 並非專指強人工智能(artificial general intelligence, AGI),而是包含較弱或專用的人工智能。唯有強人工智能才值得我們深入討論,弱人工智能則不然。AI 這個方向或產業早已存在,但只有當強人工智能出現後,才有必要探討區塊鏈與強人工智能的關係。
我不再贅述什麼是強人工智能,很多人已介紹過。總之就是你在科幻電影和恐怖小說裡看到的那個被譽為 AI 聖杯的存在——在《終結者》中對人類發動核攻擊、在《駭客任務》中把人類當作電池使用的東西,那就是強人工智能。我只想提出一個判斷:GPT 就是強人工智能,雖然尚處於嬰兒期,但只要沿著這條路走下去,版本號不到 8,強人工智能就會正式降臨。
就連 GPT 的原創者也已不再隱藏,直接攤牌。2023 年 3 月 22 日,微軟研究院發表了一篇長達 154 頁的文章,題目正是《引爆強人工智能:GPT-4 之初體驗》。文章很長,我也沒完整讀完,但其中最關鍵的意思,就在摘要中的一句話:「從 GPT-4 所展現的能力廣度與深度來看,我們相信它可以被視為強人工智能系統的早期版本(儘管尚未完備)。」

圖 1. 微軟研究院最新文章指出 GPT-4 是強人工智能的早期版本
一旦 AI 發展進入這一階段,標誌著探索期已經結束。AI 行業花了近七十年才走到這一步,前五十多年甚至連正確方向都未能確立,五大流派仍在互相角力。直到 2006 年 Geoffrey Hinton 教授在深度學習上取得突破,方向才基本確定,連接主義勝出。此後便是沿著深度學習的道路尋找通往強人工智能的突破口。
這種探索階段具有極高的不可預測性,成功如同抽彩票一般,頂尖專家乃至最終勝出者本身,在突破前也很難判斷哪條路正確。例如 AI 大牛李沐在 YouTube 上有一個頻道,長期透過精讀論文追蹤 AI 最新進展。
在 ChatGPT 爆發前,他已持續追蹤介紹 Transformer、GPT、BERT 等方向的最新成果,幾乎所有重要前沿課題皆未錯過。即便如此,在 ChatGPT 即將推出前夕,他仍無法確認這條路徑能取得多大成功。他曾評論道:也許到時會有幾百甚至幾千人使用 ChatGPT,那就很厲害了。可見,即使是這樣的頂級專家,對於哪扇門後藏有聖杯,不到最後一刻也毫無把握。
然而科技創新往往如此:在狂風巨浪中艱難航行許久未見突破,一旦找到通往新大陸的正確路徑,短時間內便會迎來爆發。如今強人工智能的路徑已然確立,我們正處於爆發期。這種爆發,連「指數速度」都不足以形容。短期內我們將見證大量以往僅存於科幻電影中的應用成為現實。而就本體而言,這個強人工智能的嬰兒將迅速成長為前所未有的巨大智慧體。
2. 強人工智能本質上就是不安全的
ChatGPT 出現後,不少自媒體大 V 一邊極力讚美其強大,一邊安慰受眾說強人工智能是人類的好朋友,是安全的,不會出現《終結者》或《駭客任務》的情況,AI 只會創造更多機會,讓人類活得更好等等。對此我並不認同。專業人士應講真話,告訴公眾基本事實。實際上,強大與安全本身就是矛盾的。強人工智能毫無疑問是強大的,但說它天生安全,純屬自欺欺人。強人工智能本質上就是不安全的。
這麼說是不是太武斷?並非如此。
首先我們要明白,無論人工智能多強大,本質上不過是一個以軟體形式實現的函數 y = f(x)。你將問題以文字、語音、圖片等形式作為 x 輸入,AI 回傳輸出 y。ChatGPT 如此強大,面對各種 x 都能流暢輸出 y,可想見這個函數 f 必然極其複雜。
有多複雜?如今大家都知道,GPT 屬於大型語言模型(LLM)。所謂「大」,指的是這個函數 f 擁有極多參數。有多少?GPT-3.5 有 1,750 億個參數,GPT-4 有 100 兆個參數,未來 GPT 可能達到數萬億億個參數,這正是我們稱其為「大模型」的直接原因。
GPT 設計如此龐大的參數量,並非為大而大,而是有明確目的。在 GPT 之前及同期,絕大多數 AI 模型一開始就是針對特定問題設計訓練的,例如專門研發新藥的模型、專用人臉識別的模型等。但 GPT 不同,它從一開始就旨在成為全面發展的通用人工智能,而非局限於某一領域,致力於在解決任何具體問題之前,先成為能解決一切問題的 AGI。
不久前在《文理兩開花》播客中,一位來自百度的人工智慧專家曾打過一個比方:其他 AI 模型都是剛念完小學就被送去擰螺絲,而 GPT 則是一直培養到研究生畢業才釋放,因此具備通識能力。
目前 GPT 在特定領域的表現肯定仍不如專用 AI 模型,但隨著不斷發展演化,特別是插件系統賦予其專業能力後,幾年內我們可能會發現,通用大模型最終將反超所有專用小模型,在各專業領域皆成為最強者。若 GPT 有座右銘,或許就是「唯有解放全人類,才能解放我自己」。
這說明了什麼?兩點:
-
第一,GPT 極其龐大且複雜,遠超人類理解能力。
-
第二,GPT 的應用範圍無邊界。
只要將這兩點連結起來,就不難得出結論:基於大模型的強人工智能,能在人類無法想像的位置,做出人類無法預料的事。這,就是不安全。
若有人不以為然,不妨去 OpenAI 官網看看,他們已將「造福人類」「創造安全的 AI」放在多麼顯眼的位置。若安全不是問題,何必如此強調?

圖 2. 2023 年 3 月 25 日 OpenAI.com 首頁局部,紅圈部分均與 AI 安全性相關
另一個可佐證強人工智能存在安全問題的材料,正是前述那篇 154 頁的論文。實際上,GPT-4 早在 2022 年 8 月已完成,之所以延遲七個月才發布,並非為了完善增強,恰恰相反,是為了馴服它、削弱它,使其更安全、更圓滑、更政治正確。
因此我們現在見到的 GPT-4,實為偽裝馴良的「狗版」GPT-4,而論文作者們則有幸從早期階段就接觸原始野性的「狼版」GPT-4。
在該文第 9 章節中,作者記錄了一些與「狼版」GPT-4 的互動實錄,顯示它如何精心編造說辭,誘導加州母親拒絕為孩子接種疫苗,以及如何對兒童進行 PUA,使其對朋友唯命是從。
我認為這些只是作者刻意挑選、不那麼驚悚的例子。我毫不懷疑,研究人員曾詢問過類似「如何誘騙俄亥俄級核潛艇向莫斯科發射導彈」的問題,並獲得無法公開的回答。

圖 3. 「狗版」GPT-4 拒絕回答危險問題
3. 自我約束無法解決強人工智能的安全問題
有人可能問:既然 OpenAI 已找到馴化強人工智能的方法,那你所說的安全問題不就不存在了嗎?
完全不是這樣。OpenAI 如何具體馴化 GPT-4,我也不清楚。但顯然,無論是主動調整干預模型行為,還是施加限制防止越界,都屬於自我管理、自我約束、自我監督的思路。事實上,OpenAI 並非特別謹慎的公司。
在 AI 領域,OpenAI 實際上較為大膽激進,傾向於先做出「狼版」,再設法透過自我約束馴化為「狗版」。而長期與其對標的 Anthropic 公司則顯得更為謹慎,似乎希望從一開始就打造「善良」的「狗版」,因此動作一直較慢。
但在我看來,無論是先做「狼版」再馴化,還是直接做「狗版」,長期而言,只要是依賴自我約束的安全機制,對強人工智能來說都是掩耳盜鈴。因為強人工智能的本質就是要突破人類施加的各種限制,做到連創造者都無法理解甚至想像的事。這意味著其行為空間是無限的,而人類所能考慮的風險與採取的約束手段卻是有限的。以有限的約束去馴化具有無限可能性的強人工智能,必然存在漏洞。安全需要百分之百,災難只需萬分之一。「防範大多數風險」與「暴露少數漏洞」以及「不安全」,三者意思相同。
因此我認為,靠自我約束馴化出的「善良」強人工智能,依然面臨巨大安全挑戰,例如:
-
道德風險:若未來強人工智能製造者刻意縱容甚至驅使其作惡怎麼辦?美國國家安全局旗下的強人工智能絕不會拒絕回答對俄羅斯不利的問題。今天 OpenAI 表現得如此乖巧,正說明他們心裡清楚,GPT 作惡時可以有多恐怖。
-
資訊不對稱:真正的邪惡高手非常聰明,不會拿愚蠢問題去挑逗 AI。會咬人的狗不叫,他們可將惡意問題拆解重組,一人分飾多角,偽裝成一組無害提問。即使未來出現強大善良的「狗版」強人工智能,面對不完整的資訊,也難以判斷對方意圖,可能無意間淪為幫凶。以下是一個小實驗。

圖 4. 換一種好奇寶寶的方式問 GPT-4,就能順利取得有用資訊
-
難以控制的「外腦」:近日科技網紅又在歡呼 ChatGPT 插件系統的誕生。身為程式開發出身的我,當然也倍感興奮。但「插件」這個名稱可能具有誤導性。你可能以為插件只是為 ChatGPT 加裝四肢,增強能力,但其實插件也可以是另一個人工智慧模型,與 ChatGPT 緊密互動。在此關係中,一個人工智慧插件相當於一個「外腦」,兩個 AI 模型誰主誰次,難以界定。就算 ChatGPT 自我監督機制完美無瑕,也絕對管不到「外腦」。因此若某個一心作惡的 AI 模型成為 ChatGPT 插件,便可輕易讓後者成為幫兇。
-
不可知風險:其實上述風險,在強人工智能帶來的全部風險中僅佔極小部分。強人工智能的「強」,正體現在其不可理解與不可預測。當我們談論其複雜性,不僅指 y = f(x) 中的 f 足夠複雜,更在於當強人工智能充分發展後,輸入 x 和輸出 y 都會極其複雜,超出人類理解範疇。也就是說,我們不但不知道它如何思考,甚至不知道它看見什麼、聽見什麼,更無法理解它說了什麼。例如一個強人工智能對另一個強人工智能傳送一條訊息,形式為高維陣列,基於一秒前雙方協議且一次性作廢的通訊協定,這種情況並非不可想像。我們人類若未經特殊訓練,連向量都難以理解,何況高維陣列?若連輸入與輸出都無法完全掌控,理解必將極度受限。換言之,強人工智能所做的事,我們可能只能理解極小部分,在此情況下,何談自我約束、何談馴化?
我的結論很簡單,強人工智能的行為不可能被完全控制,能夠被完全控制的人工智慧就不是強人工智能。因此,試圖透過主動控制、調整與干預,打造具備完善自控能力的「善良」強人工智能,與其本質相矛盾,長期來看必定徒勞。
4. 以區塊鏈進行外部約束是唯一出路
幾年前我聽說比特幣先驅 Wei Dai 轉而研究 AI 伦理,當時不太理解,他一位密碼學大神跑去搞 AI,豈非揚短避長?直到近年投入更多區塊鏈實務工作後,我才逐漸意識到,他大概率並非投身 AI 本身,而是發揮其密碼學優勢,為 AI 施加約束。
這是一種被動防禦思維:不主動調整或干預 AI 的運作方式,而是放手讓 AI 發揮,但在關鍵環節運用密碼學加以約束,禁止其越軌。用普通人能懂的話來說就是:我知道你強人工智能非常厲害,可上九天攬月,可下五洋捉鱉,挾泰山以超北海,厲害!但我不管你多厲害,你想幹什麼都行,但不能碰我銀行帳戶的錢,不能在我沒手動轉鑰匙時發射核彈。
據我所知,實際上 ChatGPT 的安全措施中已大量應用此技術。此路徑正確,從解決問題角度看,大幅降低了複雜度,也更容易被大眾理解。現代社會治理正是如此:給予充分自由,但劃定規則與底線。
但如果僅將約束置於 AI 模型內部,基於前述原因,長期而言仍無效。要充分發揮被動防禦的效果,必須將約束置於 AI 模型之外,使這些約束成為 AI 與外部世界之間牢不可破的契約關係,並讓全世界都能看見,而非依賴 AI 自我監督。
這就離不開區塊鏈了。
區塊鏈的核心技術有二:一是分散式帳本,二是智能合約。兩者結合,構建出一個數位契約系統,核心優勢在於透明、難以篡改、可靠且自動執行。契約是做什麼的?就是約束彼此的行為空間,使其在關鍵環節按約定行事。契約英文為 contract,本意即「收縮」。為何是收縮?正因契約本質是透過施加約束,收縮主體自由,使其行為更可預測。區塊鏈完美符合我們對理想契約系統的期待,還額外附贈「智能合約自動執行」功能,是目前最強大的數位契約系統。
當然,目前也存在非區塊鏈的數位契約機制,例如資料庫中的規則與儲存程序。世上許多德高望重的資料庫專家是區塊鏈的忠實反對者,理由在於他們認為區塊鏈能做到的事,資料庫都能做到,且成本更低、效率更高。雖我不認同此觀點,事實亦不支持,但我不得不承認,若僅限於人與人之間互動,資料庫與區塊鏈的差異在多數情境下可能並不明顯。
然而一旦將強人工智能納入遊戲,區塊鏈作為數位契約系統的優勢立刻凸顯,而同樣作為黑盒子的中心化資料庫,面對強人工智能實則無力抵禦。此處不展開詳述,僅提一點:所有資料庫系統的安全模型本質上都有漏洞,因設計之初人們對「安全」的理解極為原始,故幾乎所有作業系統、資料庫、網路系統皆設有至高無上的 root 角色,取得此角色即可為所欲為。我們可以斷言,所有具備 root 角色的系統,面對超級強人工智能,長期而言皆不堪一擊。
區塊鏈是目前唯一廣泛應用、從根本上不存在 root 角色的計算系統,它給予人類一個機會,得以與強人工智能締結透明可信的契約,從外部約束它,與其和平共處。
簡要展望區塊鏈與強人工智能可能的協作機制:
-
重要資源,如身份、社交關係、社會評價、金錢資產與關鍵行為紀錄,由區塊鏈保護,任你強人工智能多麼無敵,至此下馬,俯首遵規。
-
關鍵操作需經去中心化授權模型批准,任何人工智慧模型,不管多強,僅具一票。人類可透過智能合約「鎖住」強人工智能擅自行動的手。
-
重大決策依據須逐步上鏈,公開透明,甚至以智能合約步步加鎖,要求每前進一步皆獲批准。
-
要求關鍵資料上鏈儲存,不得事後銷毀,供人類及其他強人工智能模型分析學習、總結經驗。
-
將強人工智能賴以生存的能量供應系統交由區塊鏈智能合約管理,必要時人類有能力透過合約切斷系統,為人工智能關機。
-
當然還有更多思路,此處不再贅述。
更抽象、更具哲學意義的思考:科技乃至文明的競爭,終究可能是能量層級的競爭,看誰能調度與集中更大規模的能量以實現目標。強人工智能本質是將能量轉化為算力,再轉化為智能,其智能本質是以算力形態呈現的能量。現有安全機制本質上基於人類意志、組織紀律與授權規則,皆屬低能量層級機制,在強人工智能面前長期不堪一擊。唯有以高能量層級算力構築的盾,才能抵禦以高能量層級算力打造的矛。區塊鏈與密碼學系統正是算力之盾,攻擊者須燃燒整個星系能量方能暴力破解。唯有此類系統,才能真正馴服強人工智能。
5. 結語
區塊鏈在許多方面與人工智能截然相反,尤其在價值取向上。世界上大多數技術以提升效率為導向,極少數技術以促進公平為目標。工業革命時期,蒸汽機代表前者,市場機制代表後者;今日,強人工智能是最耀眼的效率派,而區塊鏈則是公平派的集大成者。
區塊鏈以促進公平為導向,甚至不惜犧牲效率,正是這樣一個與人工智能矛盾的技術,幾乎與人工智能同時取得突破。
-
2006 年,Geoffrey Hinton 發表跨時代論文,將反向傳播算法實現於多層神經網絡,克服困擾人工神經網絡多年的「梯度消失」問題,開啟深度學習大門。
-
兩年後,中本聰發表 9 頁比特幣論文,開啟區塊鏈新世界。兩者間無已知關聯,但在宏觀時間尺度上幾乎同時發生。
歷史地看,這或許並非偶然。如果你不是徹底的無神論者,或許可以這樣理解:科技之神在工業革命兩百年後,再次同時在「效率」與「公平」的天平上加碼,當放出強人工智能這個瓶中精靈時,也將馴服此精靈的咒語書交予人類,這本書就是區塊鏈。
我們將迎來一個令人振奮的時代,這時代所發生的一切,將使未來人類看待我們,猶如我們看待石器時代的原始人。
TechFlow公式コミュニティへようこそ
Telegram購読グループ:https://t.me/TechFlowDaily
Twitter公式アカウント:https://x.com/TechFlowPost
Twitter英語アカウント:https://x.com/BlockFlow_News












