当前位置: 首页
AI
DeepSeek新模型以小数据少算力追赶国际巨头,R2亮相在即

DeepSeek新模型以小数据少算力追赶国际巨头,R2亮相在即

热心网友 时间:2025-12-03
转载

近年来,人工智能领域开源模型与闭源模型的竞争日益白热化。面对闭源阵营的强势发展,开源模型一度承受着被拉开差距的压力。然而,一家名为 DeepSeek 的公司通过两款新发布的模型为开源阵营注入了强劲动力,迅速引发了行业高度关注。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

本次发布的两款模型分别为 DeepSeek V3.2 和 DeepSeek-V3.2-Speciale。其中,DeepSeek V3.2 展现出与 GPT-5 相媲美的实力,而高性能版本 DeepSeek-V3-2-Speciale 表现更为抢眼——不仅直接超越了 GPT 系列,更与被视为闭源模型标杆的 Gemini 系列打得难分难解。更令人瞩目的是,这两款模型在 IMO 2025(国际数学奥林匹克)、CMO 2025(中国数学奥林匹克)等一系列权威赛事中连夺金牌,成绩斐然。

值得一提的是,这是 DeepSeek 今年第九次发布新模型。虽然备受期待的 R2 模型尚未亮相,但这次发布的新型号已足够让人惊喜。人们不禁好奇:DeepSeek 究竟是如何凭借更少的数据量和有限的显卡资源,打造出能与国际巨头抗衡的模型?

深入研究后发现,为实现这一目标,DeepSeek 在技术层面进行了诸多创新。首先,他们将稀疏注意力(DSA)技术正式应用于主力模型。稀疏注意力并非首次出现——在之前的 V3.2-EXP 版本中,DeepSeek 仅对其进行了验证性测试,考察其对模型性能的影响;而现在,这项技术已被全面整合进核心架构中。在日常使用大模型时,用户常常会遇到这样的困扰:随着对话内容增多,模型回答逐渐混乱,甚至直接拒绝继续交流。这源于大模型原生注意力机制的先天不足——在该机制下,每个新生成的 token 都要与之前所有 token 进行计算,导致句子长度增加时,模型计算量呈平方级增长。例如句子长度翻倍,计算量增至四倍;长度变为三倍,计算量则变为九倍,严重制约了模型处理长文本的能力。

而稀疏注意力技术相当于为大模型添加了固定页数的“目录”,帮助模型筛选重点内容。此后,模型只需计算当前 token 与“目录”的关系,如同阅读时先看目录,再根据兴趣深入阅读相应章节,从而显著提升大模型处理长文本的能力。相关数据表明,随着句子长度增加,传统 V3.1 模型的推理成本不断攀升,而采用稀疏注意力的 V3.2 模型推理成本则基本保持稳定,有效降低了计算资源消耗。

除了优化注意力机制,DeepSeek 还高度重视开源模型的后训练工作。大模型的训练过程类似于人类的学习历程:大规模预训练如同从小学到高二的知识积累阶段,无论是闭源模型还是开源模型,在此阶段都需要全面学习各类知识。然而,在高考冲刺阶段,即模型的后训练环节,闭源模型通常会投入大量资源,采用强化学习等方法进行针对性训练,以提升模型在特定任务上的表现。

相比之下,开源模型在此阶段的投入相对较少,导致模型虽具备基础能力,但在解决复杂问题时表现欠佳。为弥补这一短板,DeepSeek 设计了一套全新的强化学习协议——在预训练结束后,投入超过总训练算力 10% 的资源对模型进行强化训练,有效提升了模型应对复杂问题的能力。同时,DeepSeek 还推出了擅长长时间思考的特殊版本——DeepSeek-V3.2-Speciale。传统大模型因上下文长度限制,在训练过程中会对深度思考内容进行标注惩罚,思考内容过长则扣分;而 DeepSeek-V3.2-Speciale 取消了这一限制,鼓励模型自由思考,充分发挥其潜力,最终使其能够与 Gemini 3 一较高下。

在智能体能力方面,DeepSeek 同样不遗余力。一方面,为提升模型基础能力,DeepSeek 构建了虚拟环境,合成大量数据用于辅助训练。具体而言,DeepSeek-V3.2 使用了 24,667 个真实代码环境任务、50,275 个真实搜索任务、4,417 个合成通用 agent 场景以及 5,908 个真实代码解释任务进行后训练。另一方面,DeepSeek 优化了模型调用工具的流程。此前几代模型存在一个明显问题:将思考与调用工具过程分离,导致模型调用外部工具后,需要重新构建推理链,造成效率低下。即使是简单查询,如询问日期,模型也需从头开始推理。为解决这一问题,DeepSeek 对模型架构进行了改进,使工具调用过程中,模型的思考过程得以保留,工具调用记录和结果也会像聊天记录一样保存在上下文中,仅在用户提出新问题时重置推理链,大幅提高了模型使用工具的效率。

尽管 DeepSeek 的新模型取得了显著进步,但仍存在一些不足。例如,在与 Gemini 3 Pro 的对比测试中,面对同一道复杂题目,Gemini 3 Pro 仅需 4,972 个 Tokens 即可给出答案,而 DeepSeek-V3.2-Speciale 则需要 8,077 个 Tokens,消耗量高出近六成。不过从成本角度看,DeepSeek 具有明显优势。在该测试中,DeepSeek 的 8,000 多个 Tokens 仅花费 0.0032 美元,而 Gemini 3 Pro 不到 5,000 个 Tokens 却消耗 0.06 美元,成本高出约 20 倍。这一对比突显了 DeepSeek 在性价比方面的竞争力。

在开源模型与闭源模型差距逐渐扩大的背景下,DeepSeek 凭借持续的技术创新和优化策略,不断缩小这一差距。其一如既往的技术突破——从 V2 的 MoE 架构,到 V3 的多头潜在注意力(MLA),再到如 DeepSeek Math V2 的自验证机制以及 V3.2 的稀疏注意力(DSA),都展现出其在算法研究方面的深厚积累。DeepSeek 致力于在有限数据资源的基础上,深度挖掘智能潜能,为人工智能领域的发展提供了新的思路和方向。人们不禁期待,DeepSeek 未来还将带来哪些惊喜?尤其是备受瞩目的 R2 模型何时能够亮相。

来源:https://www.itbear.com.cn/html/2025-12/1037578.html

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章
更多
逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话

逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话

新智元报道编辑:元宇【新智元导读】一个让AI像原始人一样说话的插件,在HN上一夜爆火,冲破2w星。它的核心只是一条简单粗暴的prompt:删掉冠词、客套和一切废话,号称能省下75%的输出token。

时间:2026-04-07 14:55
季度利润翻 8 倍,最赚钱的「卖铲人」财报背后,内存涨价狂潮如何收场?

季度利润翻 8 倍,最赚钱的「卖铲人」财报背后,内存涨价狂潮如何收场?

AI 时代最赚钱的公司,可能从来不是做 AI 的那个。作者|张勇毅编辑|靖宇淘金热里最稳赚的人,从来不是淘金的,是卖铲子的。这句老话在 2026 年的科技行业又应验了一次。只不过这次卖铲子的不是英伟

时间:2026-04-07 14:49
Claude Code Harness+龙虾科研团来了!金字塔分层架构+多智能体

Claude Code Harness+龙虾科研团来了!金字塔分层架构+多智能体

Claw AI Lab团队量子位 | 公众号 QbitAI你还在一个人做科研吗?科研最难的,从来不是问题本身,而是一个想法从文献到实验再到写作,只能靠自己一点点往前推。一个人方向偏了没人提醒,遇到歧

时间:2026-04-07 14:43
让离线强化学习从「局部描摹」变「全局布局」丨ICLR'26

让离线强化学习从「局部描摹」变「全局布局」丨ICLR'26

面对复杂连续任务的长程规划,现有的生成式离线强化学习方法往往会暴露短板。它们生成的轨迹经常陷入局部合理但全局偏航的窘境。它们太关注眼前的每一步,却忘了最终的目的地。针对这一痛点,厦门大学和香港科技大

时间:2026-04-07 14:37
美国犹他州启动新试点项目:AI为患者开具精神类药物处方

美国犹他州启动新试点项目:AI为患者开具精神类药物处方

IT之家 4 月 5 日消息,据外媒 PC Mag 当地时间 4 月 4 日报道,美国医疗机构 Legion Health 在犹他州获得监管批准,启动一项试点项目,允许 AI 系统为患者开具精神类药

时间:2026-04-07 14:30
热门专题
更多
刀塔传奇破解版无限钻石下载大全 刀塔传奇破解版无限钻石下载大全
洛克王国正式正版手游下载安装大全 洛克王国正式正版手游下载安装大全
思美人手游下载专区 思美人手游下载专区
好玩的阿拉德之怒游戏下载合集 好玩的阿拉德之怒游戏下载合集
不思议迷宫手游下载合集 不思议迷宫手游下载合集
百宝袋汉化组游戏最新合集 百宝袋汉化组游戏最新合集
jsk游戏合集30款游戏大全 jsk游戏合集30款游戏大全
宾果消消消原版下载大全 宾果消消消原版下载大全
  • 日榜
  • 周榜
  • 月榜
热门教程
更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程