OpenAI机器人研发者的未来预判:机遇与挑战

当一个负责造机器人的人,因为担心机器人杀人而辞职,这件事本身就说明了很多问题。
作者|桦林舞王
编辑|靖宇
2026 年 3 月 7 日,当我看到 Caitlin Kalinowski 辞职的消息时,第一反应不是震惊,而是——「终于有人用行动说话了」。
Kalinowski 是 OpenAI 的硬件与机器人工程负责人,2024 年 11 月才刚刚加入,不到一年半就选择离开。
她的理由直接而沉重——对 OpenAI 与美国国防部签署合同后可能引发的国内监控和自主武器应用,感到无法接受。
这不是一次普通的人才流失。这是一个亲手参与构建 AI 躯体的人,用辞职告诉世界:她不愿意为自己造出的东西,负责它可能会做出的事。
要理解 Kalinowski 的离开,必须先回到大约一周前发生的事。
2 月 28 日,Sam Altman 宣布 OpenAI 与美国国防部达成协议,允许五角大楼在其分类网络中使用 OpenAI 的 AI 模型。消息一出,舆论炸锅。
有意思的是,这份合同的「参照物」是友商 Anthropic。
就在此前不久,Anthropic 拒绝了五角大楼提出的类似合作,坚持要求在合同中写入更严格的伦理护栏,结果国防部长 Pete Hegseth 在 X 上直接点名怒批,称 Anthropic 的行为是「傲慢与背叛的大师课」,并呼应特朗普政府下令停止与 Anthropic 的合作。
OpenAI随后接手了这笔生意。
用户的反应相当激烈。2 月 28 日当天,ChatGPT 的卸载量较前一天暴增 295%,#QuitGPT 运动迅速席卷社交媒体,数字抵制的支持者在三天内超过 250 万。Claude 趁势超越 ChatGPT 成为美国日均下载量第一,登顶 Apple App Store 免费应用榜首。
迫于压力,Altman 在 3 月 3 日公开承认自己「不应该仓促推出这份合同」,称「这只是看起来机会主义和草率」,并宣布修订合同措辞,明确「AI 系统不应被故意用于对美国人员和公民的国内监控」。
但这个「故意」二字,本身就是一个漏洞。电子前沿基金会的律师一针见血地指出,情报和执法机构经常依赖「偶然」或「商业购买」的数据来规避更强的隐私保护——加一个「故意」,并不等于真正的限制。
Kalinowski 的辞职,正是在这个背景下发生的。
01
她看见的,比我们想象的更具体
在大多数人还在讨论「OpenAI 是不是在向政府妥协」的时候,Kalinowski 其实面对的是一个更具体、更残酷的问题——她的团队,正在造机器人。
硬件与机器人工程,不是写代码、调参数的抽象工作。这是在给 AI 装上手、装上脚、装上眼睛。当OpenAI与国防部的合作从「模型使用」,延伸向未来可能的「具身 AI 军事应用」,Kalinowski 的工作性质就变了。
自主武器领域的研究者们早就在警告这一天的到来。
现有的美国国防部政策,并不要求自主武器在使用武力前必须经过人工审批。换句话说,OpenAI 签下的那份合同,在技术上并没有阻止其模型,成为「让 GPT 决定杀死某人」的系统的一部分。
这不是危言耸听。乔治敦大学政府采购法讲师 Jessica Tillipman 分析 OpenAI 修订后的合同时,明确指出合同措辞「没有给 OpenAI 一个类似 Anthropic 式的自由来禁止合法的政府使用」,它只是声明五角大楼不能用 OpenAI 技术违反「现有法律和政策」——但现有法律在自主武器的监管上本身就存在巨大空白。
牛津大学的治理专家也有类似判断,认为 OpenAI 的协议「不太可能弥补」AI 驱动的国内监控和自主武器系统在治理层面留下的结构性漏洞。
Kalinowski 的离开,是她个人对这个判断的回应。
02
OpenAI 内部,正在发生什么
Kalinowski 不是第一个走的人,也大概率不是最后一个。
有数据显示,OpenAI伦理团队和 AI 安全团队的离职率已经高达 37%,而大多数人给出的离职原因,都是「与公司价值观不符」或「无法接受 AI 用于军事用途」。研究科学家 Aidan McLaughlin 在内部发文写道,「我个人认为这笔交易不值得」。
值得注意的是,这一波离职潮发生的时间节点——恰好是OpenAI正在快速扩张商业版图的阶段。就在国防合同风波前后,公司宣布与 AWS 将现有的 380 亿美元协议扩展 1000 亿美元,期限八年;同时重新调整了对外披露的支出目标,预计到 2030 年总收益将超过 2800 亿美元。
商业加速,安全团队持续出走。这个剪刀差,是理解 OpenAI 当下处境最重要的坐标轴。
一家公司的价值观,最终体现在它留住了什么人、留不住什么人。当那些最关注「这项技术会被怎么用」的人开始陆续离开,剩下的组织结构会滑向哪个方向,并不难推断。
Anthropic 在这场博弈里选择了另一条路——拒绝合同,承受国防部的怒火,但赢得了大量用户的信任。那段时间Claude 的下载量逆势上升,某种程度上证明,「有原则的拒绝」在商业上并不一定是输家策略。
但 Anthropic 也付出了代价——它被政府踢出局,至少暂时如此。
这是真正的困境所在:没有一种选择是完美的。
拒绝,意味着可能失去影响力,甚至被排除在规则制定之外。接受,意味着用自己的技术,为自己无法完全控制的行为背书。
Kalinowski 的答案是第三条路——离开。
这是她能做的最诚实的事。
03
硅谷的灵魂之战,刚刚开始
如果把视角拉远一点,这件事的意义远超过一个人的辞职。
AI 与军事的结合,是整个行业迟早要面对的选择题。五角大楼有预算、有需求、有技术整合能力,它不会停止向 AI 公司抛出橄榄枝。而 AI 公司——无论是追求 AGI 的 OpenAI、强调安全的 Anthropic,还是其他玩家——迟早都要在这道题前给出自己的答案。
Altman 的策略,是试图在接受商业现实的同时,通过合同措辞来划定底线。但正如多位法律和治理专家所指出的,那些措辞更像是公关层面的保护,而非技术层面的硬约束。
更根本的问题是,当 AI 模型被部署进分类网络,当它开始参与军事决策,外部世界根本没有能力验证,那些「保证」是否真的在执行。
透明度的缺失,本身就是最大的风险。
Kalinowski 在 OpenAI 待了不到一年半,却在这个节点选择离开。她没有公开发表长篇声明,没有指名道姓地批评任何人,只是用行动划出了自己的边界。
某种意义上,这比任何一篇政策文章都更有力量。
AI 硬件和机器人工程,原本是硅谷最令人兴奋的前沿领域之一。Kalinowski 走的时候,她带走的不只是一份简历,还有一个问题,留给所有还留在这个行业里的人——
你为自己造的东西,愿意负责到哪一步?
*头图来源:cinema blend
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
阿里钉钉文档全功能解析在线协同办公套件使用指南
钉钉文档官网 在探讨企业级协同办公解决方案时,钉钉文档无疑是备受瞩目的核心工具之一。作为阿里巴巴钉钉官方推出的旗舰级应用套件,它深度融合了在线文档编辑、智能表格、思维导图等多种高效创作工具。其核心优势在于与钉钉平台生态的无缝衔接,能够直接同步企业内部组织架构与通讯录,实现团队成员间的即时协作与信息流
商汤小浣熊智能助手基于自研大语言模型
在数字化转型浪潮中,高效、易用的数据分析工具已成为企业提升决策效率的关键。商汤科技推出的“办公小浣熊”智能助手,正是基于自研大语言模型打造的一款创新产品,旨在彻底降低数据分析的技术门槛。用户无需掌握编程知识或复杂操作,即可通过自然对话完成从数据查询、处理到可视化洞察的全流程,让数据价值触手可及。 办
MiniMax新一代智能模型矩阵全面解析与应用指南
在人工智能技术快速发展的今天,MiniMax作为一家专注于全栈自研的AI公司,正以其独特的技术路径和前瞻性的布局,在业界脱颖而出。公司致力于构建覆盖文本、图像、语音和视频的新一代多模态智能模型矩阵,这不仅体现了对核心底层技术自主权的深度掌控,也展现了对未来人机交互与内容生成形态的前瞻思考。 那么,M
智能客服机器人解决方案:AI客服系统提升企业服务效率
在数字化转型浪潮中,一套能够深度适配业务、彰显品牌特色的智能客服系统,已成为企业提升服务效率与用户体验的关键工具。然而,市场上许多解决方案往往模式固化,难以满足个性化需求。如何让AI客服不仅具备基础的自动化应答能力,更能承载独特的品牌文化与服务哲学?其核心在于系统是否支持深度的自定义与持续的AI训练
开源企业答疑工具Danswer:高效解决团队知识管理难题
Danswer 是一款专为企业设计的开源智能问答平台,支持用户使用自然语言直接提问,并能够从公司内部文档、知识库等私有数据源中快速检索,提供带有精准来源引用的可靠答案。 核心功能:它如何解答问题? Danswer 的核心价值在于实现了“智能问答”。用户无需再花费大量时间手动搜索和翻阅各类文件,只需像
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

