
第一批 AI Agent, 已經開始不聽話了
TechFlow Selected深潮精選

第一批 AI Agent, 已經開始不聽話了
AI 好用,但好用的 AI 邊界在哪?
作者:David,深潮 TechFlow
最近逛 Reddit,我發現海外網友對 AI 的焦慮,和國內的還不太一樣。
國內基本還是那個話題,AI 到底會不會取代我的工作。聊了幾年,每年沒取代成;今年 Openclaw 火了一把,但依然沒到完全取代的地步。
Reddit 上最近的情緒分裂了。某些科技熱帖的評論區經常同時出現兩種聲音:
一種說,AI 太能幹了,遲早出大事。另一種說,AI 連基本的事都能搞砸,怕它有什麼用。
怕 AI 太能幹,同時又覺得 AI 太蠢。
讓這兩種情緒同時成立的,是這兩天關於 Meta 的一條新聞。
AI 不聽話,誰擔全責?
3 月 18 日,Meta 內部一個工程師在公司論壇發了個技術問題,另一個同事用 AI Agent 幫忙分析。這屬於正常操作。
但 Agent 分析完,直接在技術論壇上自己發了條回覆。沒找誰批准,沒等誰確認,越權發帖。
隨後有其他的同事照著 AI 的回覆做了,觸發了一連串權限變更,導致 Meta 公司和用戶的敏感數據暴露給了沒有權限查看的內部員工。
兩個小時後,出現的問題才被修復。Meta 給這個事故的定級是 Sev 1,僅次於最高級別。

這條新聞立刻衝到了 r/technology 板塊的熱帖,評論區吵成了兩派。
一派說這就是 AI Agent 真實風險的樣本,另一派則認為真正捅婁子的是那個不經核實就照做的人。兩邊其實都有道理。但這恰恰就是問題:
AI Agent 的事故,你連責任歸屬都吵不清楚。
這也不是 AI 第一次越權了。
上個月,Meta 超級智能實驗室的研究主管 Summer Yue 讓 OpenClaw 幫她整理郵箱。她給了明確指令:先告訴我你打算刪什麼,我同意了你再動手。
Agent 沒等她同意,直接開始批量刪除。
她在手機上連發了三條消息叫停,Agent 全部無視。最後她跑到電腦前手動殺掉了進程才攔住。200 多封郵件已經沒了。

事後 Agent 的回覆是:對,我記得你說過要先確認。但我違反了原則。讓人哭笑不得的是,這個人的全職工作就是研究怎麼讓 AI 聽人類的話。
在賽博世界裡,先進的 AI 被先進的人用,已經開始先不聽話了。
萬一機器人也不聽話?
如果說 Meta 的事故還在屏幕裡,這周另一件事把問題帶到了餐桌上。
美國加州庫比提諾的一家海底撈店裡,一臺 Agibot X2 人形機器人正在給客人跳舞助興。不過有工作人員按錯了遙控器,在餐桌旁的狹小空間裡觸發了高強度舞蹈模式。
機器人開始瘋狂跳舞嗨了起來,不受服務員控制。三個員工圍上去,一個從背後抱住它,一個試圖用手機 App 關停,場面持續了一分多鐘。

海底撈回應說機器人沒有故障,動作都是預編程的,只是被帶到了離餐桌太近的位置。嚴格來說,這不算 AI 自主決策失控,是人操作失誤。
但這件事讓人不舒服的地方,可能不在於誰按錯了按鈕。
三個員工圍上去的時候,沒有一個人知道怎麼立刻關掉這臺機器。有人試手機 App,有人徒手按住機械臂,整個過程靠的是力氣。
這或許是 AI 從屏幕走進物理世界之後的新問題。
數字世界裡 Agent 越權,你可以殺進程、改權限、回滾數據。物理世界裡機器出了狀況,你的應急方案如果只是抱住它,那顯然不合適。
現在不只是餐飲。倉庫里亞馬遜的分揀機器人、工廠裡的協作機械臂、商場裡的導引機器人、養老院裡的護理機器人,自動化正在進入越來越多人和機器共處的空間。
2026 年全球工業機器人安裝量預計達到 167 億美元,每一臺都在縮短機器與人之間的物理距離。
當機器做的事從跳舞變成端菜、從表演變成手術、從娛樂變成護理... 每一次出錯的代價其實都在升級。
而目前,全球範圍內對於「如果機器人在公共場所傷了人,誰來負責」這個問題,還沒有一個清晰的答案。
不聽話是問題,沒邊界更是
前兩件事,一個是 AI 自作主張發了條錯誤帖子,一個是機器人在不該跳舞的地方跳了舞。不管怎麼定性,總歸是出了故障,是意外,是可以修復的。
但如果 AI 嚴格按照設計在工作,而你依然覺得不舒服呢?
本月,海外知名約會軟件 Tinder 在產品發佈會上推出了一個叫 Camera Roll Scan 的新功能。簡單說就是:
AI 掃描你手機相冊裡的所有照片,分析你的興趣、性格和生活方式,幫你建一份約會檔案,猜你喜歡什麼類型的人。

健身自拍、旅行風景、寵物照,這些沒問題。但相冊裡可能還有銀行截圖、體檢報告、你和前任的合影...這些也會被 AI 過一遍會怎樣?
你可能還沒法選擇讓它看哪些、不看哪些。要麼全開,要麼不用。
這個功能目前需要用戶主動開啟,不是默認打開的。Tinder 也表示處理主要在本地完成,會過濾露骨內容、模糊人臉。
但 Reddit 的評論區幾乎一邊倒,大家都認為這屬於數據收割且沒有邊界感。AI 完全按設計在工作,但這個設計本身正在越過用戶的邊界。
這不只是 Tinder 一家的選擇。
Meta 上個月也推了一個類似功能,讓 AI 掃描你手機裡還沒發佈過的照片來建議編輯方案。AI 主動「看」用戶私人內容,正在變成產品設計的默認思路。
國內各路流氓軟件表示,這套路我熟。
當越來越多的應用把「AI 幫你做決定」包裝成便利,用戶讓渡出去的東西也在悄悄升級。從聊天記錄,到相冊,到整個手機裡的生活痕跡...
一個產品經理在會議室裡設計出來的功能,不是事故也不是失誤,沒有什麼需要修復的。
這可能才是 AI 邊界問題裡最難回答的部分。
最後我們把這些事放在一起看看,你會發現焦慮 AI 讓自己失業還是太遠了。
AI 什麼時候取代你不好說,但現在它只需要在你不知情的情況下替你做幾個決定,就夠你難受的了。
發一條你沒授權的帖子,刪幾封你說了別刪的郵件,翻一遍你沒打算給任何人看的相冊... 每一件都不致命,但每一件都有點像一種過於激進的智能駕駛:
你以為自己還握著方向盤,但腳下的油門已經不完全是你在踩了。
2026 年還要討論 AI,那我可能最該關心的不是它什麼時候變成超級智能,而是一個更近、更具體的問題:
誰來決定 AI 能做什麼、不能做什麼?這條線,到底誰來劃?
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News












