
给 OpenAI 造机器人的人,看见了可怕的未来
TechFlow Selected 深潮精选

给 OpenAI 造机器人的人,看见了可怕的未来
当一个负责造机器人的人,因为担心机器人杀人而辞职,这件事本身就说明了很多问题。
作者:极客老友
2026 年 3 月 7 日,当我看到 Caitlin Kalinowski 辞职的消息时,第一反应不是震惊,而是——「终于有人用行动说话了」。
Kalinowski 是 OpenAI 的硬件与机器人工程负责人,2024 年 11 月才刚刚加入,不到一年半就选择离开。
她的理由直接而沉重——对 OpenAI 与美国国防部签署合同后可能引发的国内监控和自主武器应用,感到无法接受。
这不是一次普通的人才流失。这是一个亲手参与构建 AI 躯体的人,用辞职告诉世界:她不愿意为自己造出的东西,负责它可能会做出的事。
要理解 Kalinowski 的离开,必须先回到大约一周前发生的事。
2 月 28 日,Sam Altman 宣布 OpenAI 与美国国防部达成协议,允许五角大楼在其分类网络中使用 OpenAI 的 AI 模型。消息一出,舆论炸锅。
有意思的是,这份合同的「参照物」是友商 Anthropic。
就在此前不久,Anthropic 拒绝了五角大楼提出的类似合作,坚持要求在合同中写入更严格的伦理护栏,结果国防部长 Pete Hegseth 在 X 上直接点名怒批,称 Anthropic 的行为是「傲慢与背叛的大师课」,并呼应特朗普政府下令停止与 Anthropic 的合作。
OpenAI随后接手了这笔生意。
用户的反应相当激烈。2 月 28 日当天,ChatGPT 的卸载量较前一天暴增 295%,#QuitGPT 运动迅速席卷社交媒体,数字抵制的支持者在三天内超过 250 万。Claude 趁势超越 ChatGPT 成为美国日均下载量第一,登顶 Apple App Store 免费应用榜首。
迫于压力,Altman 在 3 月 3 日公开承认自己「不应该仓促推出这份合同」,称「这只是看起来机会主义和草率」,并宣布修订合同措辞,明确「AI 系统不应被故意用于对美国人员和公民的国内监控」。
但这个「故意」二字,本身就是一个漏洞。电子前沿基金会的律师一针见血地指出,情报和执法机构经常依赖「偶然」或「商业购买」的数据来规避更强的隐私保护——加一个「故意」,并不等于真正的限制。
Kalinowski 的辞职,正是在这个背景下发生的。
01 她看见的,比我们想象的更具体
在大多数人还在讨论「OpenAI 是不是在向政府妥协」的时候,Kalinowski 其实面对的是一个更具体、更残酷的问题——她的团队,正在造机器人。
硬件与机器人工程,不是写代码、调参数的抽象工作。这是在给 AI 装上手、装上脚、装上眼睛。当 OpenAI与国防部的合作从「模型使用」,延伸向未来可能的「具身 AI 军事应用」,Kalinowski 的工作性质就变了。
自主武器领域的研究者们早就在警告这一天的到来。
现有的美国国防部政策,并不要求自主武器在使用武力前必须经过人工审批。换句话说,OpenAI 签下的那份合同,在技术上并没有阻止其模型,成为「让 GPT 决定杀死某人」的系统的一部分。
这不是危言耸听。乔治敦大学政府采购法讲师 Jessica Tillipman 分析 OpenAI 修订后的合同时,明确指出合同措辞「没有给 OpenAI 一个类似 Anthropic 式的自由来禁止合法的政府使用」,它只是声明五角大楼不能用 OpenAI 技术违反「现有法律和政策」——但现有法律在自主武器的监管上本身就存在巨大空白。
牛津大学的治理专家也有类似判断,认为 OpenAI 的协议「不太可能弥补」AI 驱动的国内监控和自主武器系统在治理层面留下的结构性漏洞。
Kalinowski 的离开,是她个人对这个判断的回应。
02 OpenAI 内部,正在发生什么
Kalinowski 不是第一个走的人,也大概率不是最后一个。
有数据显示,OpenAI伦理团队和 AI 安全团队的离职率已经高达 37%,而大多数人给出的离职原因,都是「与公司价值观不符」或「无法接受 AI 用于军事用途」。研究科学家 Aidan McLaughlin 在内部发文写道,「我个人认为这笔交易不值得」。
值得注意的是,这一波离职潮发生的时间节点——恰好是 OpenAI正在快速扩张商业版图的阶段。就在国防合同风波前后,公司宣布与 AWS 将现有的 380 亿美元协议扩展 1000 亿美元,期限八年;同时重新调整了对外披露的支出目标,预计到 2030 年总收益将超过 2800 亿美元。
商业加速,安全团队持续出走。这个剪刀差,是理解 OpenAI 当下处境最重要的坐标轴。
一家公司的价值观,最终体现在它留住了什么人、留不住什么人。当那些最关注「这项技术会被怎么用」的人开始陆续离开,剩下的组织结构会滑向哪个方向,并不难推断。
Anthropic 在这场博弈里选择了另一条路——拒绝合同,承受国防部的怒火,但赢得了大量用户的信任。那段时间 Claude 的下载量逆势上升,某种程度上证明,「有原则的拒绝」在商业上并不一定是输家策略。
但 Anthropic 也付出了代价——它被政府踢出局,至少暂时如此。
这是真正的困境所在:没有一种选择是完美的。
拒绝,意味着可能失去影响力,甚至被排除在规则制定之外。接受,意味着用自己的技术,为自己无法完全控制的行为背书。
Kalinowski 的答案是第三条路——离开。
这是她能做的最诚实的事。
03 硅谷的灵魂之战,刚刚开始
如果把视角拉远一点,这件事的意义远超过一个人的辞职。
AI 与军事的结合,是整个行业迟早要面对的选择题。五角大楼有预算、有需求、有技术整合能力,它不会停止向 AI 公司抛出橄榄枝。而 AI 公司——无论是追求 AGI 的 OpenAI、强调安全的 Anthropic,还是其他玩家——迟早都要在这道题前给出自己的答案。
Altman 的策略,是试图在接受商业现实的同时,通过合同措辞来划定底线。但正如多位法律和治理专家所指出的,那些措辞更像是公关层面的保护,而非技术层面的硬约束。
更根本的问题是,当 AI 模型被部署进分类网络,当它开始参与军事决策,外部世界根本没有能力验证,那些「保证」是否真的在执行。
透明度的缺失,本身就是最大的风险。
Kalinowski 在 OpenAI 待了不到一年半,却在这个节点选择离开。她没有公开发表长篇声明,没有指名道姓地批评任何人,只是用行动划出了自己的边界。
某种意义上,这比任何一篇政策文章都更有力量。
AI 硬件和机器人工程,原本是硅谷最令人兴奋的前沿领域之一。Kalinowski 走的时候,她带走的不只是一份简历,还有一个问题,留给所有还留在这个行业里的人——
你为自己造的东西,愿意负责到哪一步?
欢迎加入深潮TechFlow官方社群
Telegram订阅群:https://t.me/TechFlowDaily
Twitter官方账号:https://x.com/TechFlowPost
Twitter英文账号:https://x.com/BlockFlow_News














