
從可驗證 AI 到可組合 AI:ZKML 應用場景的反思
TechFlow Selected深潮精選

從可驗證 AI 到可組合 AI:ZKML 應用場景的反思
AI 應用無法將全部計算放在鏈上,所以要用 zk 或者樂觀證明讓 AI 服務以更加去信任的方式接入公鏈系統。
撰文:Turbo Guo
審稿:Mandy、Joshua
TLDR:
Modulus labs 通過鏈下執行 ML 計算併為其生成 zkp 的方式實現了可驗證 AI,本文從應用視角重新審視該方案,分析其在哪些場景是剛需,而在哪些場景需求較弱,最後延展出橫向和縱向兩種基於公鏈的 AI 生態模式,主要內容有:
-
是否需要可驗證 AI 取決於:是否修改鏈上數據,以及是否涉及公平和隱私
-
當 AI 不影響鏈上狀態時,AI 可充當建議者,人們可以通過實際效果判斷 AI 服務質量好壞,無需對計算過程進行驗證。
-
當影響鏈上狀態時,若該服務針對個人且不對隱私有影響,那用戶依舊可以直接判斷 AI 服務質量無需檢驗計算過程。
-
當 AI 的輸出會影響多人間的公平和個人隱私時,比如用 AI 給社區成員評價並分配獎勵,用 AI 優化 AMM ,或涉及生物數據,人們就會希望對 AI 的計算進行審查,這是可驗證 AI 可能找到 PMF 的地方。
-
縱向的 AI 應用生態:由於可驗證 AI 的一端是智能合約,可驗證 AI 應用之間乃至 AI 和原生 dapp 之間或許可以實現無需信任地相互調用,這是潛在的可組合的 AI 應用生態
-
橫向的 AI 應用生態:公鏈系統可以為 AI 服務商處理服務付費,支付糾紛協調,用戶需求和服務內容的匹配等問題,讓用戶獲得自由度更高去中心化 AI 服務體驗。
1. Modulus Labs 簡介與應用案例
1.1 簡介與核心方案
Modulus Labs 是一家「鏈上」AI 公司,其認為 AI 可以顯著提升智能合約的能力,使 web3 應用變得更為強大。但 AI 應用於 web3 時存在一個矛盾,即 AI 的運行需要大量算力,而 AI 在鏈下計算是個黑盒子,這並不符合 web3 去信任、可驗證的基本要求。
因此,Modulus Labs 借鑑 zk rollup【鏈下預處理 + 鏈上驗證】的方案,提出了可驗證 AI 的架構,具體為:ML 模型在鏈下運行,此外在鏈下為 ML 的計算過程生成一個 zkp ,通過該 zkp 可以驗證鏈下模型的架構、權重和輸入(inputs),當然這個 zkp 也可以發佈至鏈上由智能合約進行驗證。此時 AI 和鏈上合約就可以進行更去信任的交互,也就是實現了「鏈上 AI」。
基於可驗證 AI 的思路,Modulus Labs 截至目前推出了三個「鏈上 AI」應用,同時也提出了許多可能的應用場景。
1.2 應用案例
-
第一個推出的是 Rocky bot,一個自動交易 AI 。Rocky 由 wEth/USDC 交易對的歷史數據訓練而來。其根據歷史數據判斷未來 weth 走勢,作出交易決策後會為決策過程(計算過程)生成一個 zkp ,並向 L1 發送消息觸發交易。
-
第二個是鏈上國際象棋遊戲「Leela vs the World」,遊戲雙方是 AI 和人,棋局情況放在合約裡。玩家通過錢包進行操作(與合約交互)。而 AI 讀取新的棋局情況,做出判斷,併為整個計算過程生成 zkp ,這兩步都是在 AWS 雲上完成,而 zkp 交由鏈上的合約驗證,驗證成功後調用棋局合約「下棋」。
-
第三個是「鏈上」AI 藝術家,並推出了 NFT 系列 zkMon ,核心在於 AI 生成 NFT 併發布至鏈上,同時生成一個 zkp,用戶可以通過 zkp 查驗自己的 NFT 是否生成自對應的 AI 模型。
此外,Modulus Labs 還提及了一些其他用例:
-
用 AI 評估個人鏈上數據等信息,生成個人聲譽評級,併發布 zkp 供用戶驗證;
-
使用 AI 優化 AMM 的表現,併發布 zkp 供用戶驗證;
-
用可驗證的 AI 幫助隱私項目應對監管壓力,但同時不暴露隱私(或許是使用 ML 證明此交易並非洗黑錢,同時不暴露用戶地址等信息);
-
AI 預言機,同時發佈 zkp 供所有人查驗鏈下數據可靠性;
-
AI 模型比賽,比賽者提交自己的架構和權重,然後用統一的測試 input 跑模型,為運算生成 zkp ,最終合約會自動將獎金髮送給獲勝者;
-
Worldcoin 稱在未來,或許可以讓用戶在本地設備下載為虹膜生成對應 code 的模型,本地跑完模型並生成 zkp,這樣鏈上合約可以用 zkp 驗證用戶的虹膜 code 生成自正確的模型以及合理的虹膜,同時讓生物信息不離開用戶自己的設備;

1.3 基於對可驗證 AI 的需求討論不同應用場景
1.3.1 可能無需可驗證 AI 的場景
在 Rocky bot 的場景下,用戶可能沒有驗證 ML 計算過程的需求。 第一,用戶並無專業知識,根本沒有能力做真正的驗證。即使有驗證工具,在用戶看來都是【自己按了一個按鈕,界面彈窗告訴自己這次的 AI 服務確實是由某個模型生成的】,無法確定真實性。 第二,用戶沒有需求進行驗證,因為用戶在乎的是這個 ai 的收益率是否高。當收益率不高時用戶就會遷移,且永遠會選擇效果最好的模型。總之,當用戶追求的是 AI 的最終效果時,驗證過程可能意義不大,因為用戶只需要遷移至效果最好的服務即可。
一種可能的方案是:AI 只充當建議者,用戶自主執行交易。當人們把自己的交易目標輸入 AI 後,AI 在鏈下計算並返回一個較好的交易路徑 / 交易方向,用戶選擇是否進行執行。人們也不需要驗證背後的模型,只需選擇那個收益最高的產品。
另一種危險但極有可能出現的情況是,人們根本不在乎自己對資產的控制權以及 AI 運算過程,當一個自動掙錢的機器人出現時,人們甚至願意把錢直接託管給它,正如將代幣打入 CEX 或傳統銀行進行理財一般。因為人們並不會在乎背後的原理,只會在乎他們最後拿到多少錢,甚至只會在乎項目方給其顯示掙了多少錢,這種服務或許也能快速獲取大量用戶,甚至比使用可驗證 AI 的項目方產品迭代速度更快。
退一步看,如果 AI 根本不參與鏈上狀態修改,僅僅是將鏈上數據抓取下來為用戶進行預處理,則也沒有為計算過程生成 ZKP 的需求。在此將此類應用成為【數據服務】,下面是幾個案例:
-
Mest 提供的 chatbox 是典型的數據服務,用戶可以用問答的方式瞭解自己的鏈上數據,比如詢問自己在 nft 上花了多少錢;
-
ChainGPT 是一個多功能 AI 助手,它可以在交易前為你解讀智能合約,告訴你是否與正確的池子進行交易,或告訴你交易是否可能被夾或搶跑。ChainGPT 也準備做 AI 新聞推薦,輸入 prompts 自動生成圖片併發布成 NFT 等各種服務;
-
RSS3 提供了 AIOP ,使用戶可以選擇自己想要什麼鏈上數據,並做一定預處理,從而方便地拿特定鏈上數據訓練 AI;
-
DefiLlama 和 RSS3 也開發了 ChatGPT 插件,用戶可以通過對話獲取鏈上數據;
1.3.2 需要可驗證 AI 的場景
本文認為涉及多人的,涉及公平和隱私的場景需要 ZKP 提供驗證,在此對 Modulus Labs 提及的幾個應用進行討論:
-
當社區基於 AI 生成的個人聲譽發放獎勵時,社區成員必然會要求對評估決策過程進行審查,在此決策過程就是 ML 的計算過程;
-
AI 優化 AMM 的場景涉及多人間的利益分配,也需要定期查驗 AI 的計算過程;
-
在平衡隱私和監管時,ZK 是目前比較好的方案之一,若服務方在服務中使用 ML 處理隱私數據,則需要為整個計算過程生成 ZKP;
-
由於預言機影響範圍較廣,若由 AI 進行調控,就需要定期生成 ZKP 來查驗 AI 是否正常運作;
-
在比賽中,公眾和其他參賽者有需求查驗 ML 的運算是否符合比賽規範;
-
在 Worldcoin 的潛在用例中,保護個人生物數據同樣是一個較強的需求;
總體來說,當 AI 類似一個決策者,其輸出影響範圍極廣且涉及到多方的公平時,而人們就會要求對決策過程進行審查,或者只是簡單的保證 AI 的決策過程沒有大的問題,而保護個人隱私就是非常直接的需求了。
因此,【AI 輸出是否修改鏈上狀態】和【是否影響公平 / 隱私】,是判斷是否需要可驗證 AI 方案的兩個標準
-
當 AI 輸出不修改鏈上狀態時,AI 服務可以充當建議者的身份,人們可以通過建議效果判斷 AI 服務質量好壞,無需對計算過程進行驗證;
-
當 AI 輸出修改鏈上狀態時,若該服務只針對個人且不對隱私有影響,那用戶依舊可以直接判斷 AI 服務質量無需檢驗計算過程;
-
當 AI 的輸出會直接影響多人間的公平,而且 AI 是自動修改鏈上數據時,社區和公眾就有對 AI 決策過程進行檢驗的需求;
-
當 ML 處理的數據涉及個人隱私時,同樣需要 zk 來保護隱私,並以此應對監管要求。

2. 兩種基於公鏈的 AI 生態模式
無論如何,Modulus Labs 的方案對 AI 如何結合 crypto 並帶來實際應用價值有很大的啟發意義。但公鏈體系不僅能提升單個 AI 服務的能力,而且有潛力構建新的 AI 應用生態。這種新生態帶來了不同於 Web2 的 AI 服務間關係, AI 服務與用戶的關係,乃至上下游各個環節的協作方式,我們可以把潛在的 AI 應用生態模式歸納為縱向模式和橫向模式兩種。
2.1 縱向模式:側重實現 AI 之間的可組合性
「Leela vs the World」鏈上國際象棋這一用例有個特殊的地方,人們可以為人類或者 AI 下注,比賽結束後自動分配代幣。此時 zkp 的意義不僅僅是供用戶驗證 AI 計算的過程,而且是作為觸發鏈上狀態轉換的信任保障。有了信任保障,AI 服務之間,AI 和 crypto 原生 dapp 之間也可能擁有 dapp 級別的可組合性。

可組合 AI 的基本單元是【鏈下 ML 模型 - zkp 生成 - 鏈上驗證合約 - 主合約】,該單元借鑑於「Leela vs the World」的框架,但實際的單個 AI dapp 的架構可能和上圖展示的不一樣。 一是國際象棋中棋局情況需要一個合約,但現實情況下 AI 有可能不需要一個鏈上合約。但就可組合 AI 的架構來看,若主要業務是通過合約進行記錄,其他 dapp 與其進行組合時可能會更為方便。 二是主合約不一定需要影響 AI dapp 自身的 ML 模型,因為某個 AI dapp 可能是單向影響的,ML 模型處理完後觸發自身業務相關的合約即可,而該合約又會被其他 dapp 進行調用。
延展來看,合約之間的調用是不同 web3 應用之間的調用,是個人身份、資產、金融服務、乃至社交信息的調用,我們可以設想一種具體的 AI 應用的組合:
-
Worldcoin 使用 ML 為個人虹膜數據生成 iris code 以及 zkp;
-
信譽評分 AI 應用先驗證此 DID 背後是否為真人(背後有虹膜數據),然後根據鏈上信譽為用戶分配 NFT;
-
借貸服務根據用戶擁有的 NFT 調整借貸份額;
在公鏈框架下的 AI 間互動並不是一件未被討論的事情,全鏈遊戲 Realms 生態貢獻者 Loaf 曾提出,AI NPC 之間可以和玩家一樣相互交易,使得整個經濟系統可以自我優化並自動運轉。AI Arena 開發了一個 AI 自動對戰的遊戲,用戶首先購買一個 NFT ,一個 NFT 代表一個戰鬥機器人,背後是一個 AI 模型。用戶先自己玩遊戲,然後把數據交給 AI 模擬學習,當用戶覺得該 AI 足夠強時就可以放到競技場中和其他 AI 自動對戰。Modulus Labs 提到 AI Arena 希望把這些 AI 都轉化為可驗證 AI 。這兩個案例中都看到了 AI 間進行交互,並直接在交互時修改鏈上數據的可能性。
但可組合 AI 在具體實現上仍有大量待討論的問題,例如不同 dapp 如何利用彼此的 zkp 或者驗證合約等。不過在 zk 領域也有大量優秀項目,比如 RISC Zero 在鏈下進行復雜運算並將 zkp 發佈至鏈上這方面有許多進展,或許某一天就可以組合出合適的方案。
2.2 橫向模式:側重實現去中心化的 AI 服務平臺
在這方面,我們主要介紹一個叫 SAKSHI 的去中心化 AI 平臺,它由來自普林斯頓、清華大學、伊利諾伊大學香檳分校、香港科技大學、Witness Chain 和 Eigen Layer 的人員共同提出。其核心目標是讓用戶能以更去中心化的方式獲得 AI 服務,使得整個流程更為去信任化和自動化。

SAKSHI 的架構可以分為六層:分別是服務層(Service Layer)、控制層(Control Layer)、交易層(Transation Layer)、證明層(Proof Layer)、經濟層(Economic Layer)和市場層(Marketplace)。
市場是最接近用戶的一層,市場上有聚合器來代表不同的 AI 供應者向用戶提供服務,用戶通過聚合器下單並和聚合器就服務質量和支付價格達成協議(協議被稱為 SLA-Service-level agreement )。
接下來服務層會為客戶一端提供 API,然後客戶一端向聚合器發起 ML 推理請求,請求被傳送至用於匹配 AI 服務提供方的服務器(傳輸請求所用的路由是控制層的一部分)。因此,服務層和控制層類似一個擁有多個服務器 web2 的服務,但不同服務器由不同主體運營,單個服務器通過 SLA(之前簽訂的服務協議)和聚合器進行關聯。
SLA 以智能合約的形式部署上鍊,這些合約都屬於交易層(注:在此方案中部署在 Witness Chain )。交易層還會記錄一筆服務訂單的當下狀態,並用於協調用戶、聚合器和服務提供方,處理支付糾紛。
為了讓交易層在處理糾紛時有據可依,證明層(Proof Layer)將檢驗服務提供商是否按照 SLA 的約定使用模型。但 SAKSHI 並沒有選擇為 ML 計算過程生成 zkp ,而是用樂觀證明的思路,希望建立挑戰者節點網絡來對服務進行檢驗,節點激勵由 Witness Chain 承擔。
雖然 SLA 和挑戰者節點網絡都在 Witness Chain 上,但在 SAKSHI 的方案中 Witness Chain 並不打算用自己原生的代幣激勵實現獨立的安全性,而是通過 Eigen Layer 來借用以太坊的安全性,因此整個經濟層其實是依託於 Eigen Layer 的。
可以看出,SAKSHI 處在 AI 服務方和用戶之間,將不同 AI 用去中心化的方式組織起來為用戶提供服務,這更像一種橫向上的方案。SAKSHI 的核心在於,它讓 AI 服務提供商更專注於管理自己的鏈下模型計算,讓用戶需求和模型服務的撮合、服務的支付和服務質量的驗證通過鏈上協議完成,並嘗試自動化解決支付糾紛。當然,目前 SAKSHI 還處於理論階段,同樣有大量執行上的細節值得確定。
3. 未來展望
無論是可組合 AI 還是去中心化 AI 平臺,基於公鏈的 AI 生態模式似乎有共通之處。比如,AI 服務商均不直接和用戶進行對接,其只需要提供 ML 模型並在鏈下進行計算。支付、糾紛解決、用戶需求和服務之間的撮合,都可以由去中心化的協議解決。公鏈作為一種去信任的基礎設施,減少了服務方和用戶之間的摩擦,此時用戶也擁有更高的自主權。
以公鏈為應用底座的優勢雖然老生常談,但的確也適用於 AI 服務。而 AI 應用和存粹的 dapp 應用不同之處在於, AI 應用無法將全部計算放在鏈上,所以要用 zk 或者樂觀證明讓 AI 服務以更加去信任的方式接入公鏈系統。
隨著賬戶抽象等一系列體驗優化方案的落地,用戶可能感知不到助記詞、鏈和 gas 等的存在,這讓公鏈生態在體驗上接近 web2,而用戶可以獲得比 web2 服務更高的自由度及可組合性,這將對用戶產生較大的吸引力,以公鏈為底座的 AI 應用生態十分值得期待。
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News












