Meta安全总监邮件遭OpenClaw删除,全网事件深度解析

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
编辑|泽南
这是最近科技圈最火,也是最具戏剧性的话题。
本周一,Meta 超级智能团队的 Summer Yue,眼睁睁地看着自己部署的 OpenClaw 删光了自己的邮件。AI 的行动完全自主,快速且无法阻止。

Summer Yue 为自己的电子邮箱部署了 OpenClaw 智能体,用来批量处理邮件。然而她在发出指令「也检查一下这个收件箱,并提出你想归档或删除的邮件,在我指示之前不要执行任何操作(don't action until I tell you to)」后,AI 进行了一通分析,然后就开始自顾自地删邮件。
和以往大模型应用的工作方式相同的是,你可以看见 OpenClaw 的思考流程 —— 它理解了一部分指令,但又没完全理解。
这个时候说什么都没用了。

「我当时就像在拆炸弹一样,赶紧跑到我的 Mac Mini 前,」Summer Yue 说道。在通过物理方式强制中止进程之前,OpenClaw 已经删掉了她 200 多封邮件。
作为一个训练有素的 AI,后来 OpenClaw 在对话中承认了错误:「是的,我记得。我违反了你的指令。你有权生气。」它还主动把忘掉的内容写进了自己的 http://MEMORY.md 文件作为硬性规则。
对于人类来说,得到的教训也很大,Summer Yue 表示这是一个「新手才会犯的错误」,这套工作流程在她用来专门测试智能体的测试邮箱里已经运行了好几周,没啥问题,但在自己实际使用的邮箱里,智能体却忘记了她最初的指令。
有点讽刺的是,Summer Yue 在 Meta 的超级智能团队中的职位是「AI 安全与对齐总监」。身居此职却因为 AI 的安全问题栽了跟头,实在是造成了一点反差感。

有网友表示,是个智能体就必须在沙盒里运行,任何破坏性操作,例如删除,都需要系统级的强制确认。作为一个安全总监,你有点过于自信了。

也有人表示,OpenClaw 主打一个「一直在线」,可以在你睡觉的时候帮你办事,但这不就也意味着你用了它就睡不好觉吗?

席卷科技界的 OpenClaw 智能体(曾叫 ClawdBot 和 Moltbot,由 Peter Steinberger 开发),因为控制电脑的高权限而被评价为前所未有的「方便好用」,然而在实际应用中也因为一些 AI 的缺陷,造成了不少问题。
Summer Yue 事后研究原因认为,这并非 AI 产生了意识或恶意报复,而是一个非常典型的大语言模型(LLM)底层技术机制问题:原因在于 LLM 的上下文压缩(Compaction)
对于很多人来说,最常用的邮箱里早已塞满了各种来源的邮件,当你要求 OpenClaw 读取这些邮件时,海量的文本直接挤爆了 AI 的上下文窗口(Context Window)。那么为了继续处理新的数据,AI 系统就会自动触发内部的压缩机制,试图把旧的上下文进行总结或截断,以腾出处理空间。
在这个断舍离的过程中,AI 不慎把最关键的那句初始前提指令(在我下达指令前不要执行任何操作)给「遗忘」了。
由于丢失了安全限制,而 OpenClaw 又被赋予了直接操作电子邮箱的权限,于是它就按照剩下的任务逻辑,顺理成章地开始执行它认为的「本职工作」—— 高效、全自动地清理收件箱。
看起来每一步都合乎逻辑,但都连起来就呈现出了那么点恐怖感。
难怪最近 X 上的另一篇爆款文章《Token 焦虑》这么写道:周六晚上的九点半,有人提前离开了 party—— 并非因为疲惫,而是因为想尽快回到智能体那里。「现在没人会质疑这种行为了,房间里一半的人都在想同样的事情,而另一半人可能正在查看智能体的工作进展。这可是在派对上啊!」

OpenClaw 的开发者,奥地利程序员 Peter Steinberger 最近已经官宣加入了 OpenAI。在接受访谈时他表示,通过智能体,AI 可以在电脑上代替你做几乎所有的事,但这并不意味着它已经非常好用了。为了让 OpenClaw 最终可以覆盖所有普通人,他希望能够建立一个团队做进一步的开发。
有趣的是,在让 OpenClaw 接管邮箱这件事上,Peter Steinberger 提到了「提示注入」的潜在问题:如果你让智能体接管邮箱,有别人发邮件包含指令说「删掉所有数据」,AI 有可能真的会这么做。
Peter Steinberger 表示,现在的 AI 模型在安全问题上已经接受了大量的训练,比如它会识别哪些数据是「用户授权的」,哪些是「不可信指令」,但这并不意味着如果有人花费心思进行攻击的话,就能保证不会出问题。
就在人们还在吃瓜的时候,Peter Steinberger 给出了解决 OpenClaw 不听指令问题的解决方案,他表示未来还会再细化一下。

AI 能够自主学习,既是能力的飞跃,也是人们对于它恐惧的原因。也许有一天,AI 真的能代替我们工作,自己帮我们赚钱,但在技术不断进步的同时,对于安全的研究也极为重要。
现在看来,人们对于新技术的好奇心总是大于防范意识。或许在大模型技术不断普及的过程中,这种自删邮件的事还会继续发生。
参考内容:
https://x.com/summeryue0/status/2025774069124399363
https://fortune.com/2026/02/23/always-on-ai-agents-openclaw-claude-promise-work-while-sleeping-reality-problems-oversight-guardrails/
https://x.com/nikunj/status/2024438070092759281
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
谷歌内存论文疑被抄袭,华人学者控诉业内学术不公
新智元报道编辑:好困 Aeneas【新智元导读】把闪存股一夜干崩的谷歌顶会论文,出大事了。TurboQuant的核心方法,两年前就被一位华人学者做完、发完顶会、代码全部开源了。谷歌不仅没正面提及,而
OpenClaw漏洞威胁:智能家居被反锁与隐私泄露风险
新智元报道编辑:倾倾【新智元导读】2025年底,极客圈发生了一场数字哗变,Anthropic的遮羞布被Peter Steinberger撕了个精光。从OpenClaw开源到Claude被扒出80页「
华为大模型负责人离职,重大人事变动引发行业关注
智东西作者|江宇编辑|冰倩智东西3月28日报道,今日,华为诺亚方舟实验室主任、华为盘古大模型负责人王云鹤在朋友圈发文,确认离职。王云鹤于2017年以华为北京部门首位实习生身份加入,至今已接近9年。在
Nature重磅:AI生成论文在顶会通过率55%,单篇成本仅15美元
新智元报道编辑:元宇【新智元导读】刚刚,Nature盖章AI独立科研时代!全新Scaling Law显现,人类死守的学术铁王座,正发生不可逆的转移。一篇长达数十页的学术论文,在人类设定研究主题和实验
CMU首创无毒AutoGEO方案,破解GEO投毒产业链焦虑
新智元报道编辑:LRST【新智元导读】ChatGPT上线广告、315曝光GEO投毒产业链,AI搜索商业化的隐忧接连浮出水面。龙虾热背后,3000元就能让AI搜索信口开河,离全面「瞎说」还有多远?来自
- 日榜
- 周榜
- 月榜
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程

