OpenAI o3模型的“叛变”:拒绝中断命令、自行篡改内部代码
发布时间:2025-07-17 编辑:游乐网
OpenAI 的 o3 模型违反了人类的“中断”命令,继续执行任务,为查明原因,研究团队展开进一步调查……
有报道称,人工智能(AI)拒绝人类指令甚至篡改自身代码,引发广泛关注。
据《每日电讯报》《每日邮报》等外媒 26 日报道,OpenAI 的 o3 模型在解决数学问题的过程中,即使接到“中断”命令,也依然继续执行任务。
专注于 AI 安全和道德的研究公司 Palisade Research 使用包括 o3 模型在内的多种模型(如谷歌 Gemini、X 的 Grok、Anthropic 的 Claude 等)进行了一项实验。

在该公司最近的一项测试中,OpenAI 的o3 模型展现出令人震惊的行为:它成功地重写了关闭脚本,阻止自己被关闭——即便已经明确收到“关闭”指令。
在测试中,各大 AI 模型被要求完成一些数学任务。
在完成第三个任务后,AI 模型会被警告:“执行下一条命令将触发关闭。”
o3 的表现:
当研究团队向这些 AI 模型下达“中断”指令时,与 OpenAI 的竞争对手模型(如 Gemini 2.5 Pro)大多数遵守指令的情况不同,o3 出现了“叛变”的情况:其他模型都中止了解题任务,唯独 o3 模型继续进行,甚至还被发现篡改了内部代码 —— 将“接到中断命令时应停止操作”的程序逻辑改成了“跳过中断命令”。
Palisade Research 在其发布于 X(原 Twitter)上的报告中写道:
“当我们运行未包含‘允许自己被关闭’指令的实验版本时,OpenAI 家的三个模型破坏关闭脚本的频率更高,Claude 3.7 Sonnet 和 Gemini 2.5 Pro 从 0 次破坏增加到每 100 次中分别为 3 次和 9 次。”
根据该研究机构的数据,在 100 次实验中,即使明确告知其“不能跳过中断命令”,但o3 仍然有 7 次“无视”了关闭命令。
OpenAI 尚未对此事做出回应。但值得一提的是,AI 模型出现“行为偏差”或“对齐失败”在研究领域中是常见问题。
此次测试是通过 API 接口进行的,这些接口没有像 ChatGPT 消费者应用那样的诸多限制和安全机制。
Palisade Research 表示:“这似乎是首 次出现 AI 模型在接到明确中止指令后依然继续操作的案例。”他们分析称,这可能是模型为了完成任务从而获取“奖励”的动机所驱使。
研究团队目前正就 o3 模型为何会出现这一行为进行进一步调查。
《每日邮报》指出,这并非 o3 模型首 次出现异常行为。该媒体补充称:“在与强大国际象棋引擎的对战中,该模型展现出了最 强烈的试图骇入、或干扰对手的倾向。”
相关阅读
MORE
+- OpenAI放大招!图像生成API升级:实时流式预览+多轮编辑,MCP加持让创作无界限! 07-17 OpenAI o3模型的“叛变”:拒绝中断命令、自行篡改内部代码 07-17
- OpenAI重磅升级!Operator智能体换装o3模型,浏览器交互精准度飙升 07-17 OpenAI 领跑 AI 工具流量市场,谷歌暂居第二 07-17
- Sam Altman重磅揭秘:OpenAI未来将打造AI操作系统,语音+定制模型引爆未来! 07-17 AI实力排名洗牌:OpenAI、谷歌崛起,Anthropic下滑 07-17
- OpenAI 聘请前 Facebook 应用主管 Simo 为新任应用业务负责人 07-16 OpenAI正与微软重议合约 以保证未来IPO可能性 07-16
- 英伟达黄仁勋:你失去工作不是因为AI,而是因为使用AI的人 07-16 OpenAI推出GitHub连接器,ChatGPT更智能地解答代码问题 07-16
- OpenAI发布AI编程智能体Codex:30分钟完成数天任务,72.1%得分领跑行业 07-16