
關於模型、Infra、應用,目前尚未被解決的核心問題
TechFlow Selected深潮精選

關於模型、Infra、應用,目前尚未被解決的核心問題
是否存在一個「資本天花板」,即只有大公司才能承擔前沿模型的昂貴成本?
撰文:Elad
在大多數領域,伴隨著時間的推移能讓我們對事物有更清晰的認識。但在生成式 AI 領域,情況可能正相反。我們認為這一領域目前還處於非常早的時期,對於新的變量、模態和系統變化十分複雜。在這早期的探索中,從大量信息中過濾篩選,在模糊中摸索實踐,探索出可能的路徑並沉澱深思考也是我們一直在做的事。
Elad 是一位連續創業者,也是 Airbnb、Coinbase、Figma、Notion、Pinterest 等知名項目的早期投資人。本文帶來近期他在 LLMs、基礎設施層和 AI 應用層提出的目前還未被解決的問題,內容深刻全面,歡迎共同討論反饋。
大型科技公司通過鉅額投資塑造了 LLM 的市場格局,這引出一個關鍵問題:在這樣的市場環境下,小型創業公司和獨立開發者如何找到立足點?是否存在一個「資本天花板」,即只有大公司才能承擔前沿模型的昂貴成本?
開源模型如 Llama 和 Mistral 在 LLM 領域也發揮了重要作用,開源模型提供了一種對抗私有模型的手段,促進技術的普及和創新。然而,商業使用的限制和可持續發展仍是開源大模型需要解決的關鍵問題。

01.LLM 問題
在某種意義上,LLM 有兩種類型, 一是處於技術前沿的通用模型(比如 GPT-4),一類是其他所有模型。2021 年 Elad 就預測,由於需要鉅額資本,前沿模型市場將逐漸演變成少數幾家公司的寡頭市場。同時,非前沿大模型將更多地受價格驅動,開源模型的影響力將增強。
現在的情況似乎正在朝這個方向發展。前沿 LLM 很可能成為寡頭市場,當前的競爭者包括像 OpenAI、Google、Anthropic 這樣的閉源模型,以及 Llama(Meta)和 Mistral 這樣的開源模型。儘管未來一兩年內這個名單可能會有所變化,但前沿模型的訓練成本不斷增加,而其他通用模型的成本每年都在下降,性能卻在提升。例如,現在訓練 GPT-3.5 的成本可能只有兩年前的五分之一。
隨著模型規模的擴大,資金越來越多地來自雲服務提供商和大型科技公司。例如,微軟對 OpenAI 的投資超過 100 億美元,Anthropic 則從亞馬遜和谷歌那裡獲得了 70 億美元的投資。NVIDIA 也在這一領域投資甚多。與此相比,這些公司通過風險投資獲得的資金體量就顯得微不足道。隨著前沿模型訓練成本的飆升,新興資金方主要集中在大型科技公司,或是像阿聯酋這樣支持本地企業的國家政府。這種趨勢正在影響市場,並可能提前決定潛在贏家。
這些雲服務提供商的投資與其帶來的收益相比,只是冰山一角。例如,微軟的 Azure 每季度能帶來 250 億美元的收入,OpenAI 獲得的約 100 億美元的投資僅相當於 Azure 六週的收入。但是 AI 對 Azure 的收入影響巨大。近期 Azure 的收入因為 AI 增長了 6 個百分點,這相當於每年增加 50 億至 60 億美元。儘管收入並非淨利潤,但這仍然十分引人注目,說明這類大型雲服務商有動力為更多大型模型提供資金。同時,Meta 在 Llama 模型上的表現也不容忽視,他們最近宣佈將提供 200 億美元的預算用於資助大規模模型訓練。
關於 LLMs 的幾個核心問題
雲服務提供商是否在通過提供大規模計算 / 資本來造就少數前沿玩家,並通過這種規模鎖定寡頭市場?當雲服務提供商停止資助新的 LLM 公司,轉而持續資助現有公司時,會發生什麼?雲服務提供商是基礎模型的最大資助者,而不是風險投資。鑑於他們在併購方面受到限制,並且雲服務使用會帶來收入,這樣做是合理的。但這可能導致市場動態的某些扭曲。這將如何影響 LLM 的長期經濟和市場結構?這是否意味著可能很快看到新的 LLM 公司因為缺乏足夠的資本和人才而持續終結?
OSS(開源軟件)模型是否會改變 AI 的經濟結構,從基礎模型轉向雲計算?Meta 是否會繼續資助開源模型?如果是,例如 Llama-N 是否會趕上最前沿的大模型?一個在 AI 前沿領域表現卓越的開源模型,有潛力改變部分 AI 基礎設施的架構,從 LLM 轉向雲計算和推理服務提供商,並減少其他 LLM 基礎模型公司的收入。
Llama2 使用條款中有一點,如果使用者的用戶少於 7 億,則允許開放商業使用許可。這阻止了一些大型競爭對手使用這一模型。一個大型雲服務提供商,需要向 Meta 支付 Llama 的許可費。這為 Meta 創造了一種長期控制 Llama 並獲得收益的方式

如何看待模型的價格與性能之間的關係?如果與正常人類完成任務的速度相比,緩慢但性能卓越的模型可能非常有價值。最新的 Gemini 模型似乎正在朝這個方向發展,它具有 100 萬 + 標記上下文窗口。上下文窗口長度的提高和理解深度可以改變用戶對 AI 用途的思考。在光譜的另一端,Mistral 展示了小型、快速、廉價的推理高性能模型的價值。下面的表格對這一問題進行了細分。

基礎模型的架構將如何演變?具有不同架構的代理模型是否會在某種程度上取代 LLM 的未來潛力?何時引入其他形式的記憶和推理?

政府是否支持或將其採購導向本地區的 AI 頭部企業?政府是否希望支持反映其本地價值觀、語言等不同文化需求的模型?除了雲服務提供商和全球大型科技公司之外,其他潛在的資本來源是國家。現在在歐洲、日本、印度、阿聯酋、中國和其他國家都有優秀的大模型公司。僅憑政府收入,就可能創造出幾家價值數十億美元的本地化 AI 基礎模型公司。
02.基礎設施問題
有幾種類型的基礎設施公司,用途各不相同。例如,Braintrust 提供評估、提示、日誌記錄和代理,幫助公司從「基於感覺」的 AI 分析轉向數據驅動。Scale.ai 和其他公司在數據標註、微調和其他領域發揮著關鍵作用。

AI 基礎設施中最大的不確定性問題與 AI 雲堆棧的演變有關。初創企業和大企業對 AI 雲服務的需求非常不同。對於初創企業來說,新的雲服務提供商和工具(例如 Anyscale、Baseten、Modal、Replicate、Together 等)正在走上一條正確的道路,帶來客戶和收入的增長。
對於那些有特殊需求的大企業來說,還有一些懸而未決的問題。例如:當前的 AI 雲公司是否需要為大型企業構建一個本地 /BYOC/VPN 版本的產品?大型企業可能會優化:
(a) 使用已經預算的現有云市場信用購買服務;
(b) 由於延遲和性能問題,會考慮是否從網絡應用 / 數據託管地(如 AWS、Azure、GCP)進行完整往返;
(c) 關注安全性、合規性(如 FedRAMP、HIPAA 等)。
人工智能雲的短期初創市場可能與長期企業需求不同。
AI 雲服務的採用的多大程度上是由於 GPU 資源受限 /GPU 仲裁導致的?在主要雲服務提供商缺乏 GPU 的情況下,公司們正爭相尋找足夠的 GPU 來滿足他們的需求,這加速了擁有自己 GPU 雲的新創公司的採用。NVIDIA 可能採取的一種潛在策略是優先向這些新提供商分配 GPU,以減少超大規模雲服務提供商的議價能力,並分割市場,以及通過創業公司加速行業發展。GPU 瓶頸何時結束,這將如何影響新的 AI 雲服務提供商?看起來,主要雲平臺上 GPU 短缺的結束對於那些唯一業務是 GPU 雲的公司可能是負面的,而那些擁有更多工具和服務的公司如果發生這種情況,應該能更容易過渡。
在 AI 雲服務中,還有哪些服務正在被整合?它們是否交叉銷售嵌入式模型和 RAG(可重複使用的生成式代理)?是否提供連續更新、精細調整或其他服務?這對數據標註者或提供重疊服務的其他公司有何影響?哪些服務直接被整合到模型提供商中,哪些通過雲服務提供?
在人工智能雲市場中,不同公司將追求哪種商業模式?
AI 雲世界確實有兩個市場細分:初創企業和中大型企業。「僅 GPU」的商業模式默認適用於初創企業細分市場,他們對雲服務的需求較少。對於大型企業來說,可能更多地受限於主要平臺上的 GPU 雲約束。那麼,提供開發者工具、API 端點、專業硬件或其他方面的公司,是否會演變為兩種類似的模型——(a) 針對 AI 的「Snowflake/Databricks」模型或 (b) 針對 AI 的「Cloudflare」模型?如果是這樣,哪些公司採用了哪種模型?
新興的 AI 雲規模有多大?能達到 Heroku、Digital Ocean、Snowflake 或 AWS 的規模嗎?
在擁有非常長的上下文窗口模型的情況下,AI 技術棧是如何演變的?應該如何思考上下文窗口與提示工程、精細調整、RAG 以及推理成本之間的相互作用?
監管機構防止併購的政策如何影響這個市場?至少有十幾家公司正在構建與 AI 雲相關的產品和服務。在一個積極反對科技行業併購的政府管理下,創業者應該如何考慮退出策略?AI 雲之間是否應該進行整合,以擴大市場規模和優化所提供的服務?
03.AI 應用問題

ChatGPT 是許多 AI 創始人的起點。在 ChatGPT 以及之前的 Midjourney 和 Stable Diffusion 之前,多數人並沒有密切關注現在正在經歷的 Transformer/Diffusion 模型革命。距離模型和技術最近的人,這些 AI 研究人員和基礎設施工程師第一批開始創辦基於這項技術的新公司。而遠離模型和技術的工程師、設計師和產品經理們,直到現在才意識到 AI 的重要性。

ChatGPT 在大約 15 個月前推出。如果決定辭職需要 9-12 個月,與合夥人一起頭腦風暴初步想法需要幾個月,再花幾個月時間來實施,根據這個時間週期,市場上應該會很快湧現一波 AI 相關的應用程序。
B2B 應用:在新興的 B2B 應用浪潮中,哪些將是重要的公司和市場?在哪些領域,現有企業將獲得價值,而初創企業又將獲得價值?
消費者:最早的 AI 產品是「專業消費者」產品,也就是在個人和商業用例中都可以使用。像 ChatGPT、Midjourney、Perplexity 和 Pika 這樣的應用就是例子。為什麼在 AI 生態系統中為普通消費者構建的產品如此之少?之前在 2007-2012 年的社交產品群體彷彿已經不再是如今的 AI 產品用戶。AI 產品的使用與構建需要更新鮮的血液,讓更智能、創新的用戶加入進來,共同構建下一波偉大的 AI 消費者浪潮。
Agents:AI Agents 可以做很多事情。哪些將是強有力的專注產品領域,而哪些初創企業則在尋找用例?
以上就是這份完整的 AI 領域的值得思考的問題清單。生成式 AI 的發展是所有人正在經歷的令人興奮的技術革命時刻。我們將會看到更多值得期待和有趣的創造。對上面這些問題的思考可能有助於創業者們更好的滿足市場的需求,推動這個領域的發展。
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News










