
給 OpenAI 造機器人的人,看見了可怕的未來
TechFlow Selected深潮精選

給 OpenAI 造機器人的人,看見了可怕的未來
當一個負責造機器人的人,因為擔心機器人殺人而辭職,這件事本身就說明了很多問題。
作者:極客老友
2026 年 3 月 7 日,當我看到 Caitlin Kalinowski 辭職的消息時,第一反應不是震驚,而是——「終於有人用行動說話了」。
Kalinowski 是 OpenAI 的硬件與機器人工程負責人,2024 年 11 月才剛剛加入,不到一年半就選擇離開。
她的理由直接而沉重——對 OpenAI 與美國國防部簽署合同後可能引發的國內監控和自主武器應用,感到無法接受。
這不是一次普通的人才流失。這是一個親手參與構建 AI 軀體的人,用辭職告訴世界:她不願意為自己造出的東西,負責它可能會做出的事。
要理解 Kalinowski 的離開,必須先回到大約一週前發生的事。
2 月 28 日,Sam Altman 宣佈 OpenAI 與美國國防部達成協議,允許五角大樓在其分類網絡中使用 OpenAI 的 AI 模型。消息一出,輿論炸鍋。
有意思的是,這份合同的「參照物」是友商 Anthropic。
就在此前不久,Anthropic 拒絕了五角大樓提出的類似合作,堅持要求在合同中寫入更嚴格的倫理護欄,結果國防部長 Pete Hegseth 在 X 上直接點名怒批,稱 Anthropic 的行為是「傲慢與背叛的大師課」,並呼應特朗普政府下令停止與 Anthropic 的合作。
OpenAI隨後接手了這筆生意。
用戶的反應相當激烈。2 月 28 日當天,ChatGPT 的卸載量較前一天暴增 295%,#QuitGPT 運動迅速席捲社交媒體,數字抵制的支持者在三天內超過 250 萬。Claude 趁勢超越 ChatGPT 成為美國日均下載量第一,登頂 Apple App Store 免費應用榜首。
迫於壓力,Altman 在 3 月 3 日公開承認自己「不應該倉促推出這份合同」,稱「這只是看起來機會主義和草率」,並宣佈修訂合同措辭,明確「AI 系統不應被故意用於對美國人員和公民的國內監控」。
但這個「故意」二字,本身就是一個漏洞。電子前沿基金會的律師一針見血地指出,情報和執法機構經常依賴「偶然」或「商業購買」的數據來規避更強的隱私保護——加一個「故意」,並不等於真正的限制。
Kalinowski 的辭職,正是在這個背景下發生的。
01 她看見的,比我們想象的更具體
在大多數人還在討論「OpenAI 是不是在向政府妥協」的時候,Kalinowski 其實面對的是一個更具體、更殘酷的問題——她的團隊,正在造機器人。
硬件與機器人工程,不是寫代碼、調參數的抽象工作。這是在給 AI 裝上手、裝上腳、裝上眼睛。當 OpenAI與國防部的合作從「模型使用」,延伸向未來可能的「具身 AI 軍事應用」,Kalinowski 的工作性質就變了。
自主武器領域的研究者們早就在警告這一天的到來。
現有的美國國防部政策,並不要求自主武器在使用武力前必須經過人工審批。換句話說,OpenAI 簽下的那份合同,在技術上並沒有阻止其模型,成為「讓 GPT 決定殺死某人」的系統的一部分。
這不是危言聳聽。喬治敦大學政府採購法講師 Jessica Tillipman 分析 OpenAI 修訂後的合同時,明確指出合同措辭「沒有給 OpenAI 一個類似 Anthropic 式的自由來禁止合法的政府使用」,它只是聲明五角大樓不能用 OpenAI 技術違反「現有法律和政策」——但現有法律在自主武器的監管上本身就存在巨大空白。
牛津大學的治理專家也有類似判斷,認為 OpenAI 的協議「不太可能彌補」AI 驅動的國內監控和自主武器系統在治理層面留下的結構性漏洞。
Kalinowski 的離開,是她個人對這個判斷的回應。
02 OpenAI 內部,正在發生什麼
Kalinowski 不是第一個走的人,也大概率不是最後一個。
有數據顯示,OpenAI倫理團隊和 AI 安全團隊的離職率已經高達 37%,而大多數人給出的離職原因,都是「與公司價值觀不符」或「無法接受 AI 用於軍事用途」。研究科學家 Aidan McLaughlin 在內部發文寫道,「我個人認為這筆交易不值得」。
值得注意的是,這一波離職潮發生的時間節點——恰好是 OpenAI正在快速擴張商業版圖的階段。就在國防合同風波前後,公司宣佈與 AWS 將現有的 380 億美元協議擴展 1000 億美元,期限八年;同時重新調整了對外披露的支出目標,預計到 2030 年總收益將超過 2800 億美元。
商業加速,安全團隊持續出走。這個剪刀差,是理解 OpenAI 當下處境最重要的座標軸。
一家公司的價值觀,最終體現在它留住了什麼人、留不住什麼人。當那些最關注「這項技術會被怎麼用」的人開始陸續離開,剩下的組織結構會滑向哪個方向,並不難推斷。
Anthropic 在這場博弈裡選擇了另一條路——拒絕合同,承受國防部的怒火,但贏得了大量用戶的信任。那段時間 Claude 的下載量逆勢上升,某種程度上證明,「有原則的拒絕」在商業上並不一定是輸家策略。
但 Anthropic 也付出了代價——它被政府踢出局,至少暫時如此。
這是真正的困境所在:沒有一種選擇是完美的。
拒絕,意味著可能失去影響力,甚至被排除在規則制定之外。接受,意味著用自己的技術,為自己無法完全控制的行為背書。
Kalinowski 的答案是第三條路——離開。
這是她能做的最誠實的事。
03 硅谷的靈魂之戰,剛剛開始
如果把視角拉遠一點,這件事的意義遠超過一個人的辭職。
AI 與軍事的結合,是整個行業遲早要面對的選擇題。五角大樓有預算、有需求、有技術整合能力,它不會停止向 AI 公司拋出橄欖枝。而 AI 公司——無論是追求 AGI 的 OpenAI、強調安全的 Anthropic,還是其他玩家——遲早都要在這道題前給出自己的答案。
Altman 的策略,是試圖在接受商業現實的同時,通過合同措辭來劃定底線。但正如多位法律和治理專家所指出的,那些措辭更像是公關層面的保護,而非技術層面的硬約束。
更根本的問題是,當 AI 模型被部署進分類網絡,當它開始參與軍事決策,外部世界根本沒有能力驗證,那些「保證」是否真的在執行。
透明度的缺失,本身就是最大的風險。
Kalinowski 在 OpenAI 待了不到一年半,卻在這個節點選擇離開。她沒有公開發表長篇聲明,沒有指名道姓地批評任何人,只是用行動劃出了自己的邊界。
某種意義上,這比任何一篇政策文章都更有力量。
AI 硬件和機器人工程,原本是硅谷最令人興奮的前沿領域之一。Kalinowski 走的時候,她帶走的不只是一份簡歷,還有一個問題,留給所有還留在這個行業裡的人——
你為自己造的東西,願意負責到哪一步?
歡迎加入深潮 TechFlow 官方社群
Telegram 訂閱群:https://t.me/TechFlowDaily
Twitter 官方帳號:https://x.com/TechFlowPost
Twitter 英文帳號:https://x.com/BlockFlow_News














