独家解密最新Claude模型,三千份密档揭示Anthropic未来布局
克雷西 梦瑶 发自 凹非寺
量子位 | 公众号 QbitAI
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
抓马!向来标榜安全的Claude,竟然把自家模型泄露了!?
新模型代号“Mythos”,又叫“Capybara(卡皮巴拉)”,比当下Claude最强的Opus模型还大还强。

甚是离谱的是,这波曝光,甚至不是外部攻击,而是一次权限配置失误。
一篇Anthropic自家博客草稿,被错误设为公开,于是,这只“卡皮巴拉”就这么水灵灵地被全网围观了。
更让人绷不住的是,CEO也没能逃过这场风波,他的度假计划,也被这位马大哈员工公开到了网上??

(你说这事儿闹的...)
比Opus 4.6更夯的Claude Mythos
事情的起因,源于一场荒诞的技术性「手滑」。(doge)
几天前,Anthropic内部的内容管理系统(CMS)在进行版本迁移时,出现了一个致命的配置疏忽。
将一个存储公司核心资产的数据库权限,从内部私有错点成了完全公开,直接把内部机密资产的数据库权限直接「开盒」。
而且还是完全没有加密的那种,结果可想而知——大量图片、PDF和博客草案直接在互联网上《裸奔》。
好巧不巧,这个漏洞恰好被剑桥大学研究员和网络安全公司LayerX Security的在扫描过程中发现。
不看不知道,一看吓一跳,里的内容可以说是让研究人员直接倒吸一口凉气——
3000份Anthropic内部保密未公开的资产档案,赫然呈现在眼前。(瞪大眼.jpg)

而其中的一篇保密但没保密成功的数据资料里,直接爆出了还在测试的秘密模型——Claude Mythos。
有网友在文章下架之前把A社的两篇博客草稿保存了下来,这两篇一篇管这个模型叫Mythos,另一篇则称之为Capybara,但除了名称之外,这两篇草稿的其他内容基本一样。

在泄露文件中,曾多次使用质的飞跃这种说法来形容Mythos,甚至据说比目前的最强模型Opus更大且更智能。
没有概念没关系,人家资料里直接拿对比说话了:
在具体能力上,相较于Claude Opus 4.6,Mythos在软件编码、学术推理和网络安全等测试中的得分显著更高。
不仅如此,泄漏文件中还提到,目前Anthropic已完成了对于该模型的相关训练。
并且还说了这么一句话:
Claude Mythos,就是迄今为止公司开发过的最强大的AI模型!!!
嚯!比Opus4.6还强大的模型,何意味?
要知道,目前Anthropic主要有三款模型:分别是轻量级模型Haiku、中量级模型Sonnet,以及旗舰型模型Opus。
在具体表现上,不久前发布的Opus 4.6,在复杂长文本处理和推理能力上已经处在当前模型第一梯队。
在GDPval-AA(一项评估金融、法律和其他领域经济价值知识工作任务的性能指标上),Opus 4.6比GPT-5.2高出144个Elo!!!

如果真要像文件里所说的,Mythos能比Opus 4.6还强。
那么,这事儿还真就真不太好说了。
反正我估计隔壁OpenAI真得瑟瑟发抖了...
奥特曼:原本以为大家还在一个量级里切磋,谁知道人家私下搞这一套秘密玩法啊??
安全风险让A社自己都害怕
Anthropic承认,其内容管理系统配置中的“人为错误”导致草稿博客文章变得可访问。
按照A社的说法,这些材料属于“考虑发布的内容的早期草稿”,也就是说早晚会公开,但因为泄露被提前了。
有网友锐评,因为有了Claude Code,导致被公开的文件更容易被发现,A社这波是被自己家的产品反噬了??

(有点太鲨人诛心了啊...)
事儿越闹越大,再不站出来说两句都不太好了。
人家A社发言人也承认了,他们确实正在训练和测试一款新模型。
我们正在开发一款通用模型,它在推理、编码和网络安全方面都有显著提升。鉴于其强大的功能,我们正在谨慎地发布这款模型。按照行业惯例,我们正在与一小部分早期用户合作测试该模型。我们认为这款模型是一次飞跃,也是我们迄今为止构建的最强大的模型。
由于该模型在代码和网络安全领域的能力远超现有水平,甚至可能被用于发起大规模网络攻击,公司将其限制在极少数早期访问客户范围内进行封闭测试。
这种分阶段披露的做法是为了给网络防御组织留出提前量,让他们能够利用模型的能力先行加固代码库,以应对未来可能出现的AI攻击。
有人更是呼吁,这样的模型无论如何都不应该公开,因为根本不存在绝对坚固的防御系统。

其实,目前已经有的Opus 4.6,就已经具备了发现生产代码库中此前未知漏洞的能力。
A社已经承认,这项功能具有双重用途,这意味着它既可以帮助黑客,也可以帮助网络安全防御者发现并修复代码中的漏洞。
还有隔壁OpenAI,在发布GPT-5.3-Codex时,也称其是根据“网络安全准备框架”评定的首个“高能力”网络安全相关任务模型,也是首个直接训练用于识别软件漏洞的模型。
也就是说,不管Anthropic还是OpenAI,它们最新一代的前言模型,都已经破了某个门槛,将带来新的网络安全风险。
不过也有人认为,泄露的信息并不等于100%的事实,无法排除炒作成分,所以还是拭目以待最终交付的产品究竟如何。

(让我们小小期待一下模型的亮相吧~)
参考链接:
[1]https://x.com/ns123abc/status/2037379495376642481
[2]https://x.com/AiBattle_/status/2037372470232006699
[3]https://x.com/MarioNawfal/status/2037371145075167391
[4]https://x.com/Yuchenj_UW/status/2037387996694200509
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
苏黎世联邦理工学院研发AI幻觉检测器 让说谎无所遁形
与AI对话时,我们常常惊叹于它们似乎无所不知:能解读复杂的法律条文,引用前沿的医学研究,甚至为你推荐编程解决方案。但你是否想过,这些流畅回答的背后,可能隐藏着大量“编造”的内容?就像一个口若悬河的朋友,听起来头头是道,实则可能在信口开河。 2026年2月,一项由苏黎世联邦理工学院(ETH Zuric
华盛顿大学首创APRIL数据集让AI从编译器错误中修复数学证明
华盛顿大学数学AI实验室、计算机科学与工程系以及数学系近期联合发布了一项突破性研究成果,论文编号为arXiv:2602 02990v1。这项研究首次系统性地解决了AI数学证明领域的一个核心挑战:如何训练人工智能模型,使其能够像人类数学家一样,理解并利用编译器的错误反馈信息,从而自主修复形式化证明中的
三星MeKi技术突破:手机ROM变身大模型算力新引擎
这项由三星研究院中国与韩国团队共同主导的前沿研究,于2026年1月正式发表于AI Model TF期刊,论文编号为arXiv:2602 03359v1。该研究创新性地提出了一种名为MeKi的全新架构,精准解决了移动AI领域长期存在的核心挑战——如何在资源受限的智能手机上,高效部署并运行更强大的大语言
清华大学团队分享AI训练提速10倍的简单技巧
这项突破性研究由清华大学与Intellifusion公司联合团队共同完成,相关论文已于2026年2月发表在机器学习领域的顶级期刊上,论文编号为arXiv:2602 01212v1。对该技术细节感兴趣的读者,可通过此编号查询并下载完整的学术论文进行深入研读。 在人工智能技术迅猛迭代的当下,训练大规模语
AI智能体评测为何存在不公北邮团队深度解析
这项由北京邮电大学、伊利诺伊大学芝加哥分校和重庆邮电大学联合开展的研究,于2026年2月以预印本形式发布(论文编号:arXiv:2602 03238v1)。研究团队系统性地揭示了当前大型语言模型智能体评估体系中存在的根本性缺陷,并深入论证了建立标准化、统一化评测框架的紧迫性与必要性。 回想学生时代的
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

