AI共识新突破:推理延迟激降20倍,Token消耗锐减4.4倍

新智元报道
编辑:LRST
【新智元导读】多智能体AI系统需要明确的共识机制来协调不同AI主体的决策。新理论框架将多智能体推理建模为分布式共识过程,大幅提升系统性能,降低延迟和计算成本,使多智能体AI从实验阶段迈向实际应用。
过去一年,LLM Agent几乎成为所有 AI 研究团队与工业界的共同方向。
OpenAI在持续推进更强的推理与工具使用能力,Google DeepMind将推理显式建模为搜索问题,Anthropic则通过规范与自我批判提升模型可靠性。
一个非常清晰的行业趋势正在形成:单模型能力正在接近结构性边界,多智能体被视为下一步。
Advaita Research/Hetu联合创始人Jialin Li发布的最新研究论文,为多智能体协作共识提出了明确的理论框架,并给出了一组生产级系统指标的跃迁式改善:在accuracy基本不变的前提下,实现最高20×端到端延迟下降,最高11×的P99尾延迟改善,以及最高4.4×的token成本削减。

论文链接:https://arxiv.org/pdf/2512.20184
英文版链接:https://x.com/advaita_labs/status/2018576622048473241
这项工作将多智能体推理的问题,从prompt与workflow设计,重新拉回到系统设计和工程层面:一致性语义、停止条件与尾延迟治理。
在工程语境中,论文给出的核心判断可以概括为一句话:当前多智能体系统,缺乏一套明确的Agentic Consensus(智能体共识)系统语义。
Advaita Research / Hetu CMO Stephanie Yu从系统工程视角对论文进行了解读。
研究背景
在当前主流路线中,大型研究机构对Agent的探索大致可以分为三类,但它们在一个关键问题上保持了共同的沉默:当多个随机推理主体并行工作时,系统何时可以认为已经达成稳定一致?
OpenAI:强化单主体推理能力
OpenAI的路线始终围绕test-time scaling,包括self-consistency、多路径推理、更强的 chain-of-thought、更成熟的 tool use。
该体系在单主体条件下具有非常清晰的工程优势:推理质量高度可控、行为一致性强、工程复杂度集中。
其隐含前提同样明确:系统只有一个决策主体。
一旦扩展为多个planner、多个actor并行执行,一致性不再由模型内部保证,而被外包给上层workflow的规则组合。
Google DeepMind搜索式推理
Tree-of-Thoughts等方法将推理显式建模为搜索问题,通过评估函数在候选路径中选择最优解。
该范式在离线推理和数学问题上表现稳定,但在系统层面呈现出两个明显特征:推理过程高度同步、停止条件由搜索深度或预算上限决定。
本质上,这类方法优化的是路径质量,而不是在并发、延迟与成本约束下的决策时机问题。
Anthropic/Meta启发式协调
Anthropic的constitutional debate,以及Meta、Stanford 提出的多 Agent debate / society-of-minds,引入了多主体交互。
在工程实现上,这类系统通常依赖:固定agent数、固定轮数、barrier synchronization(等待所有 agent 完成)、多数投票或规则聚合。
但这些机制并没有给出稳定一致性的系统定义。
当主流Agent路线仍在强化「如何更好地推理」,将多智能体视为推理技巧的叠加时,
Advaita Research的这项研究把问题下沉到了系统层:在多个随机推理主体并行时,如何定义、验证并稳定达成一致。
把多智能体当成分布式系统
论文提出的核心方法体系为Aegean,其根本重构在于:多智能体推理不再被视为workflow编排问题,而被建模为一个分布式共识过程。
不同于传统分布式系统,智能体决策呈现随机不确定性,使得现有共识协议架构无法适用。论文针对多智能体环境提出了新的共识理论框架,并给出了严谨的多智能体共识的正确性定义。
论文之后基于理论框架提出了新的共识协议。其核心机制包括三点:
(1)Quorum-fast,而不是wait-all
系统不再等待所有agent,只要达到 quorum 即推进决策,延迟不再由最慢 agent 决定。
(2)稳定性窗口(β),而不是「一致就停」
一致性必须在时间维度上持续存在,才能被视为有效共识,从而过滤暂时性多数。
(3)Streaming共识与即时取消
在token生成过程中持续检测共识状态,一旦满足稳定条件,立即终止剩余生成。
详细结果与实验分析
论文指出:多智能体推理,本质上是运行在随机推理主体之上的分布式共识问题。
一旦缺乏明确的共识语义,工程失败并非偶发,而是呈现出高度可预测的系统性模式。
暂时性一致:多数并不稳定标题
论文系统性测量了decision flip现象(在现有Agent workflow中几乎未被显式建模)。
结果显示:在引入agent间 reasoning exchange后,准确率提升的同时,多数决策在相邻轮次发生反转的频率显著上升。
以MMLU为例:100个样本中出现64次 decision flip,意味着系统在连续轮次中反复改变多数结论。
在缺乏稳定性约束时,任何基于「当前多数」的提前停止或投票机制,都可能发生在transient agreement(暂时性一致)上。
这不是推理能力问题,而是共识未被定义的问题。
同步模型错误:P99被最慢agent定义
当前多Agent系统普遍采用barrier synchronization,论文在AIME(1 req/s)场景下,对比了主流做法与引入共识机制后的系统表现:
多Agent baseline(MaxRound = 6)最慢请求为6571秒,P99 延迟为8749秒
引入共识机制后,最慢请求约325秒,P99延迟为772 秒;
在相同任务条件下:P99 延迟改善约11×,平均延迟改善约20×
该差异并非来自模型推理能力,而来自同步范式从「等所有人」转向「达成共识即可推进」。
算力浪费:token消耗发生在收敛之后
论文进一步量化了多智能体系统中长期被忽视的问题:收敛之后的无效计算。
在多个基准任务上,引入Agentic Consensus后:
GSM8K:4.4×减少(约 1.3K vs 5.7K)
MMLU:3.3×减少(约 3.3K vs 10.7K)
AIME:1.3×减少(约 46.0K vs 59.9K)
IMO:1.1×减少(约 64.8K vs 73.8K)
与此同时,accuracy波动被控制在约2.5%以内。
这表明:token成本下降来自共识驱动的早停与取消机制,而不是通过牺牲质量实现。
数字刻画了系统边界
在引入Agentic Consensus(Advaita Research 提出的多智能体共识建模方法)后,系统行为出现了清晰的数量级变化:平均延迟降低1.2–20×,P99尾延迟最高改善11×,token消耗降低1.1–4.4×,accuracy波动约2.5%
这些指标共同指向同一个系统级结论:多智能体推理的性能瓶颈,并不来自模型能力,而来自协作机制是否具备可操作的共识语义。
工程判断与应用前景
Agentic Consensus并不是一个附加能力,而是一条明确的系统分界线。
当Agent作为真实系统中的行动单元运行时,问题不再是:「单个模型能否推理得更好」,而是在多个随机推理主体并行的情况下,系统是否具备可判断、可停止、可扩展的一致性语义。
论文给出的核心判断标准是:如果一个多智能体系统无法明确回答「何时算达成一致、何时可以安全停止、延迟由谁决定」,那它在工程上仍停留在workflow,而非系统。
从这个角度看:decision flip、P99被最慢agent定义、收敛后的token浪费,都不是实现细节上的瑕疵,而是系统尚未进入「共识可操作阶段」的信号。
Advaita Research的这项工作,并不是提出一种新的Agent玩法,而是把Agentic Consensus提升为一个工程判断标准:多智能体推理,是否已经从「推理技巧的叠加」,迈入「具备可验证共识语义的系统」。
当这个标准成立,多智能体才能真正从demo走向production;当它不成立,再复杂的推理流程,也只是在同步成本之上叠加计算。
参考资料:
https://arxiv.org/pdf/2512.20184

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
零一万物迎来三位新高管 李开复详解一把手工程
零一万物近期完成核心高管团队调整。前百度高管沈鹏飞加盟,统筹国内ToB与ToG业务拓展。同时擢升赵斌强、宁宁为副总裁,分别负责AI模型研发与国际业务咨询。此次布局旨在协同市场、技术与国际三大方向,全面升级企业级大模型解决方案能力,以支撑其“AllintoB”与“一把手工程”战略的落地推进。
MiniMax高级研究总监钟怡然半年前离职独家消息
MiniMax高级研究总监钟怡然半年前离职。他曾主导关键项目MiniMax-01的研发,其创新的LightningAttention架构显著提升了模型的长上下文处理效率。公司对其过往贡献表示感谢并送上祝福。
爱诗科技B+轮融资1亿元 ARR突破4000万美元
爱诗科技完成B+轮1亿元融资,年度经常性收入突破4000万美元。旗下PixVerse平台全球用户超一亿,月活用户达1600万,商业化后收入年增超十倍。其自研视频大模型迭代迅速,通过Agent助手降低创作门槛,并借助社交模板驱动全球增长。平台API生态发展强劲,单月调用量翻倍,推动AI视频从娱乐向产业应用升级。
太初元碁联合产业链伙伴推出AI落地北京方案
在2025人工智能计算大会上,30余家企业联合发布“北京方案”,旨在通过芯片厂商、大模型公司及行业应用方的全链路协作,构建开放标准,整合国产芯片与主流大模型,夯实自主技术底座。太初元碁展示了高性能计算与AI融合的解决方案,并以案例说明AI正从认知引擎转向智能行动主体。
小模型崛起成为AI新战场
AI行业风向正从小模型转向。腾讯、阿里和OpenAI相继推出小参数模型,显示小模型重回舞台中心。如今的小模型专为终端部署设计,称为端侧智能,能在手机等设备本地运行,应用于故障预警、智能座舱等场景。凭借低算力需求和本地化优势,小模型正开辟大模型之外的新战场。
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

