
為什麼越用AI,越覺得自己不值錢了?
TechFlow Selected深潮精選

為什麼越用AI,越覺得自己不值錢了?
不是AI讓你貶值,而是它揭示了你思維的真實價值。
本文來自微信公眾號: 不懂經 ,作者:不懂經也叔的 Rust,原文標題:《AI 時代的張文宏悖論:為什麼越用 AI,越覺得自己不值錢了?》,題圖來自:視覺中國
前幾天,刷到一條短視頻,是國家傳染病醫學中心主任張文宏,1月 10 日在香港高山論壇上的一段講話,他明確表示:“我拒絕把 AI 引入醫院病歷系統。”
因為,未經系統性訓練的 AI,會從根本上改變醫生的培訓路徑,破壞或損害年輕醫生需要通過傳統訓練才能掌握的獨立診斷能力。
張文宏解釋說,他自己當然用 AI,讓 AI 先過一遍病例。但關鍵是,以他三十多年的臨床經驗,他一眼就能看出 AI 哪裡錯了。
問題在於年輕醫生。
如果一個醫生從實習階段就開始依賴 AI 給診斷結論,跳過了完整的臨床思維訓練,那他將永遠喪失一項關鍵能力:鑑別 AI 對錯的能力。
張文宏的這番話,從一個普通 AI 用戶的角度,道破了一個被普遍誤解的現實,關於 AI 時代的技能和槓桿。
過去一兩年,我看到一種奇特的“群體性焦慮”。
有意思的是,這種焦慮不是來自那些不懂技術的人,恰恰相反,它更多來自那些已經熟練使用 AI 的精英群體:程序員、律師、分析師、自媒體人。
大家最初都興奮地以為,AI 會讓自己成為超人。但短暫的效率狂歡之後,很多人陷入了一種更深的無力感:
當 AI 能以零成本完成 80%的工作時,我剩下那 20%的價值,到底能不能撐起我的職業尊嚴?
如果一個 AI 可以幾分鐘搞定我兩週的代碼;如果大模型能秒出一份完美的盡調報告;如果 gemini 或豆包能讓毫無繪畫基礎的人產出大師級作品,如果 gpt 能夠“準確”閱讀體檢報告或檢查報告,那人類技能的護城河,究竟還在哪裡?
之前,大西洋月刊曾經發表過一篇文章,說我們正在進入一個去技能化的時代;但硬幣的另一面恰恰是:AI 並沒有讓技能變得無用,它引發的是一場劇烈的“技能通脹”。只是技能要被重新定義。
在一個執行成本趨近於零的時代,AI 就是一面照妖鏡。它放大的不僅是你的效率,更是你認知的顆粒度或精度。
你感到“廢了”,可能是因為 AI 無情地暴露了一個事實:過去你引以為傲的工作,大部分只是在“搬磚”,是執行,是“聽話照做”,而不是在“思考”,更不是提出問題和解決問題。
21 世紀的技能真相,不再關乎你手裡有多少工具,而關乎你腦子裡有多少原本的真實的槓桿。“宏觀把控+微觀驗證”的綜合能力,才是 AI 時代真正的鐵飯碗。
一、張文宏悖論:0的 10 倍還是 0
硅谷有一個廣為流傳的觀點,但常常被誤讀。
人們說:“AI 是生產力的 10 倍放大器。”
這句話的數學含義,比字面意思更冷酷。
如果你現在的能力是 1,AI 讓你變成 10;如果你是 10,AI 讓你變成 100。但如果你對某個領域的底層理解是 0,那麼,0 乘以 10,依然是 0。
這正是張文宏擔憂的核心:一個從實習階段就依賴 AI 的年輕醫生,他的臨床判斷力可能就是 0。AI 再強大,0 乘以任何數,結果還是 0。
更可怕的是,這個“0”自己還不知道自己是 0。
張文宏說得很直白:“新手醫生不能只會依靠 AI 看病。”為什麼?因為即使 AI 準確率高達 95%,那 5%的錯誤也需要由專業醫生來識別和糾正。
如果醫生根本不具備獨立診斷能力,他怎麼發現 AI 的錯誤?怎麼處理 AI 搞不定的疑難雜症?
這就是我說的“張文宏悖論”,某種層面上,它是個先有雞還是先有蛋的問題。但另外一個層面上,它強調的是,是人在用工具,還是工具在用人。
它揭示了 AI 時代技能的第一層真相:
AI 的本質是“概率的擬合”,而人類的價值在於“後果的承擔”。
過去我們說的技能,往往指的是熟練的執行,熟記語法、背誦法條、掌握各種快捷鍵。但在 AI 時代,這些硬技能迅速貶值,變成了基礎設施。
取而代之的,是一種更隱蔽、更稀缺的能力:判斷力。而所謂判斷力,就是知曉自己行為的長遠後果。
試想一個場景:一位資深工程師和一位新手同時用 AI 寫代碼。
新手得到的只是代碼塊。他無法判斷這段代碼有沒有架構隱患,無法預知它在極端併發下的表現,甚至不知道這是不是一個“死衚衕”式的解決方案。
而資深工程師看到的不是代碼,是路徑。他知道該給 AI 什麼任務,知道如何驗收結果,更知道當 AI 犯錯時該在哪個環節修正,而 AI 一定會犯錯。
對於新手,AI 是個黑盒,只能祈禱它輸出正確答案。 對於專家,AI 是個無限精力的實習生團隊,指哪打哪。
於是,未來的專家與普通人的分野,在於你是否具備“驗證 AI 輸出”的能力。
張文宏能一眼看出 AI 的診斷錯在哪裡,靠的不是什麼神秘直覺,而是三十多年臨床經驗積累出的“元能力”。這種能力,恰恰是被 AI 跳過訓練的年輕醫生最缺乏的。
所以,如果沒有深厚的專業知識作為壓艙石,AI 帶來的不是效率,而是昂貴的混亂。
二、為什麼你的提示詞總是“差點意思”?
為什麼有的人能用 AI 解決複雜問題,有的人只能把它當聊天機器人?
問題不在於你不會寫“咒語”,而在於你思維的熵值太高。
最近有一種很值得警惕的現象:人們開始把思考本身外包給 AI。
遇到問題,不做拆解,直接把一團漿糊似的需求扔給模型,然後對著平庸的輸出發火:“這 AI 根本就沒用。”
其實,不是 AI 蠢,是你沒想清楚。
AI 模型再先進,本質上也是基於“上下文”的預測機器。它的輸出質量,嚴格受限於你輸入的上下文質量。這就是“Garbage In, Garbage Out”(垃圾進,垃圾出)的現代版。
21 世紀的頂級技能,變成了“清晰的表達”和“結構化思維”。
真正的高手在打開對話框之前,腦子裡已經完成了一場嚴密的推演:
1.定義問題:我到底要解決什麼核心矛盾?
2.拆解邏輯:這個大問題由哪幾個子任務構成?依賴關係是什麼?
3.設定標準:什麼樣的結果才算合格?
比如,在讓 AI 協助開發一個功能前,你是否已經釐清了數據流向?在讓 AI 寫一篇文章前,你是否已經構建了獨特的觀點框架?
別指望 AI 替你完成“從 0到 1”的思考。
AI 擅長的,其實是填充血肉(從 1到 100),但那個“1”,那個核心的洞察、邏輯的骨架,必須由你提供。
如果你無法清晰地向人類同事闡述你的想法,你也絕不可能從 AI 那裡得到滿意的結果。
清晰的寫作就是清晰的思考。
未來,用自然語言編程將是通用技能。但這不意味著編程變簡單了,而是意味著語言和邏輯的精度成為了新的代碼。
如果你的思維是混亂的,AI 只會高效率地放大這種混亂。
三、走出信息繭房:比 99%的人更接近本質
既然 AI 是基於人類已有的海量數據訓練出來的,它天生就帶有一個巨大的缺陷:平庸的共識,即向均值迴歸。
你問 AI 關於健康、理財或歷史的觀點,它大概率給你一個“教科書式”的回答。這些回答安全、正確,但往往極其平庸,因為它們只是重複了互聯網上出現頻率最高的信息。
這就引出了第三個維度:去偽存真的洞察力。
知識(Knowledge)和理解(Understanding)是兩碼事。
- 知識是你知道“應該這樣做”;
- 理解是你明白“為什麼要這樣做,以及什麼時候不該這樣做”。
這正是張文宏和年輕醫生之間的根本差距。
年輕醫生通過 AI 可以瞬間獲得“知識”,如診斷結果、用藥建議、治療方案。但張文宏擁有的是“理解”:他知道這些知識的邊界在哪裡,什麼情況下要打破常規,什麼時候 AI 給的“標準答案”是錯的。
在這個信息過載的時代,如果你只是通過填鴨式教育和算法推薦獲取信息,你本質上只是在一個巨大的“回聲室”裡機械複述。你並不真正理解事物的運作機制。
要比 AI 更聰明,我們需要比 99%的人更接近事物的本質(第一性原理)。
- 想理解商業?不要只看暢銷書和公眾號,去研究現金流、槓桿、供需關係和人性的貪婪。
- 想理解健康?不要只信所謂的權威指南,去研究代謝、激素、炎症反應的生物學機制。
當 AI 給你一個“標準化建議”時,只有那些真正理解底層系統運作的人,才能敏銳地發現其中的漏洞,或者在特殊情境下果斷推翻 AI 的建議。
就像張文宏說的:會不會被 AI 誤導,取決於你自身的能力有沒有強過 AI。而你沒辦法和 AI 比知識,只能比理解。
未來的競爭優勢,屬於那些敢於質疑“訓練數據”的人。你需要建立自己的認知體系,這套體系不是抄來的,而是你通過實踐、通過痛苦的反饋循環、通過獨立思考親自驗證過的。
AI 是全人類知識的平均值。如果你想超越平均值,你就不能只依賴 AI,你必須擁有 AI 無法通過統計概率得出的獨到見解。
四、執行價值歸零之後:從幹活的到驗收的
把視線拉長,歷史雖然不會重複,但總是押韻。
1980 年代,電腦的普及曾讓當時的會計和律師恐慌不已。在此之前,律師為了尋找一個判例,需要在堆積如山的卷宗中翻找數日。電子檢索技術的出現,讓這項工作瞬間變成了幾秒鐘。
律師失業了嗎?沒有。相反,法律行業變得更龐大、更復雜了。
因為檢索變得容易,客戶對律師的期望也隨之提高。人們不再為“找到判例”付費,而是為“基於複雜判例構建獨特的辯護策略”付費。
同理,當 AI 接管了代碼編寫、文案生成、基礎診斷之後,人類的角色正在發生本質的躍遷:
我們正在從“手藝人”進化為“指揮官”;從“幹活的”升級到“驗收的”。
過去,一個優秀的工程師可能需要 50%的時間寫代碼,50%的時間思考架構。現在,他可以用 90%的時間去思考架構、理解業務、優化體驗,而把代碼工作交給 AI(並由他來審核)。
這意味著,工作的複雜度上限被打開了。
獨立開發者現在可以一個人運行一家原本需要十人團隊的公司;一個懂行的自媒體人可以一天產出過去一週的內容量;一個資深醫生(如張文宏)可以在 AI 的輔助下處理過去根本不可能的病例量。
這就是 AI 時代“技能”的新定義:
它不再是單一維度的“專精”,而是一種跨維度的整合能力。
你不需要親自砌每一塊磚,但你必須知道大樓的力學結構,必須有審美能力來決定大樓的外觀,必須有商業頭腦來決定大樓建在哪裡最值錢。
這種“宏觀把控+微觀驗證”的綜合能力,才是 AI 時代真正的鐵飯碗。
張文宏強調的兩大關鍵能力,本質上就是這個意思:
1.判斷 AI 診斷的準確性(微觀驗證)
2.診治 AI 無法應對的疑難雜症(宏觀把控)
沒有這兩項能力的醫生,只能算是“AI 的操作員”。
結語:只有升維,才能享受降維打擊的快感
回到開頭談到的那個現象:為什麼越用 AI,越覺得自己廢了?
因為 AI 剝奪了你通過“苦力”獲得成就感的權利。
以前,你花三天時間整理出一份精美的報告,會覺得自己很有價值;現在,AI 三秒鐘就能做出來,這種虛幻的價值感瞬間崩塌。
這確實讓人痛苦,但更是一種覺醒。
AI 逼迫我們直面那個最難的問題:除了機械的執行,我真正的思想價值在哪裡?
對於那些不願意思考的人,這是一個最壞的時代。他們將徹底淪為算法的附庸,甚至無法察覺自己正在被平庸的信息繭房吞噬。
但對於那些充滿好奇心、擁有獨立思考能力、渴望探究事物本質的人,這是人類歷史上最好的時代:
- 所有的門檻都降低了。
- 所有的天花板都消失了。
- 你擁有了人類歷史上最強大的智囊團和執行隊,24 小時待命。
張文宏不是反對 AI,他反對的是跳過底層能力建設直接使用 AI,把思考和元認知外包給 AI。
他自己用 AI 用得飛起,因為他有三十年的內功作為地基。AI 對他來說是如虎添翼;而對於沒有內功的年輕醫生,AI 可能是拔苗助長,飲鴆止渴。
在 21 世紀,技能不會消失,但它會經歷一次殘酷的提純。
不要試圖和 AI 比賽“做題”,要去和 AI 比賽“出題”。
當你不再把 AI 當作一個幫你偷懶的工具,而是把它當作一個需要你用極高智商去駕馭、去指引、去糾錯的超級槓桿時,
你通過 AI 看到的,就不再是平庸的自己,而是一個被無限放大的、強悍的超級個體。
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News














