国产算力机会来了!DeepSeek V4全量开源,华 为寒武纪成最大赢家?
DeepSeek V4正式发布:开源王者归来,AI竞争进入“实用主义”时代
掐指一算,距离DeepSeek上一次重大版本更新,已经过去了整整484天。尽管期间小修小补的迭代从未间断,也总能引发一阵讨论,但社区翘首以盼的,始终是那个代号“V4”的跨越式升级。现在,等待结束了。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

图源:DeepSeek
4月24日上午10点56分,DeepSeek V4正式亮相,并且一出手就是“双响炮”——面向不同场景的Flash和Pro两个版本同步推出。消息瞬间引爆全球科技圈,相关推文在极短时间内收获数万点赞、数百万浏览,评论区更是挤满了来自世界各地的开发者和研究者。

图源:X
热度之高,甚至迫使DeepSeek官方不得不在推文下亲自出面“维稳”,留言提醒:“请仅以我们官方账号发布的 DeepSeek 新闻为准。其他渠道的声明并不代表我们的观点。” 这番表态,直接针对的是此前在开源社区流传甚广的一个谣言:称DeepSeek V4可能迫于压力不再开源,或仅开源一个“阉割版”。如今,V4以大家最熟悉的Apache 2.0许可证全模型、全量开源,所有猜测与恐慌不攻自破。难怪有海外网友激动地留言:“开源人工智能之王,回来了。”

图源:X
是的,那个熟悉的DeepSeek,带着更强大的实力和更清晰的路线图,回来了。
开源王者,以怎样的姿势归来?
此次发布的DeepSeek V4预览版,清晰地划分了两种应用路径:V4-Pro主打复杂推理、高阶智能体和高强度任务;V4-Flash则瞄准高频调用、低成本部署和快速响应场景。这种分工,本身就透露着对市场需求的深刻洞察。
技术规格上,V4-Pro采用了总参数1.6T、激活参数49B的混合专家模型架构;V4-Flash则为284B总参数、13B激活参数。两者均支持惊人的100万token上下文长度。尽管参数规模差距明显,但官方透露,通过精妙的算法优化,两个模型在日常任务中的表现被拉到了同一水平线。

图源:DeepSeek
这背后,其实揭示了一个行业共识:下一阶段的大模型竞争,光“强”是不够的,还必须“省”和“开”。如果你深度体验过各类AI助手,一定会对云端Token的消耗速度感到心惊。随着AI应用场景的拓宽和能力边界的延伸,Token成本已经成为所有用户——无论是个人开发者还是大型企业——都必须精打细算的关键指标。
事实上,大量日常任务,诸如办公辅助、内容摘要、数据整理等,并不需要动用“Pro”级别的重型模型。这些场景更看重速度、稳定性和极致的成本控制。将模型一分为二,让轻量化的Flash版本在特定任务中保持媲美Pro的性能,无疑能为使用者节省下可观的费用。
当然,DeepSeek V4最引人注目的特性之一,莫过于百万级别的上下文窗口。对普通用户而言,这意味着更长的文档、更复杂的多轮对话、更完整的项目资料,都可以被一次性“喂”给模型处理,无需再费心切割分段。连贯性的提升,直接带来了体验的质变。

图源:DeepSeek
与此同时,V4在智能体能力和推理逻辑上的大幅增强,配合超长上下文,使其具备了出色的连贯操作与复杂任务规划能力。这显然是在为即将到来的“智能体”应用生态大爆发,提前铺好基础设施。
更关键的是,DeepSeek V4延续了其一向的高性价比路线。过去,许多模型竞赛热衷于比拼参数规模和基准测试分数,但DeepSeek似乎更执着于工程效率和实际使用门槛。它的目标很明确:不是单纯炫技,展示技术的天花板有多高,而是切实地降低更多人使用AI的成本。

图源:DeepSeek
这种思路对中国市场尤为重要。这里拥有海量的中小企业、垂直行业和内容创作需求,但它们很难长期承受海外闭源模型高昂的调用费用。如果DeepSeek V4能在性能与价格之间继续保持精妙的平衡,它完全有可能成为更广泛应用场景中的“基础模型”。
更何况,单就开源模型阵营而言,DeepSeek V4在目前的各项主流测试中几乎都占据了榜首位置,其表现甚至足以媲美海外闭源模型的最新版本(需注意,V4测试时,GPT-5.5和Opus 4.7尚未发布)。开源意味着,一旦投入前期硬件成本,后续的使用近乎零边际成本。这种诱惑力,对任何有规模应用需求的企业来说,都是难以抗拒的。
国产算力,终于等来主场
谈到硬件成本,就不得不提DeepSeek V4对国产算力芯片的深度支持。在V4的开发过程中,华&为、寒武纪等中国芯片企业深入参与,与DeepSeek团队共同基于国产芯片重构了AI大模型的底层算法逻辑,并完成了深度的生态适配。
过去很长一段时间,国产AI芯片面临的核心困境,并非没有产品,而是缺乏足够强大、足够主流的真实业务负载,来验证其能否稳定、高效地运行顶尖大模型。用通义千问、Kimi、豆包等模型来测试当然可行,但由于这些模型大多基于CUDA生态开发,在昇腾等国产芯片上运行往往需要兼容层转换,相当于牺牲部分效率来换取硬件自主,难以完全展现国产芯片的真实性能。
DeepSeek V4的出现,恰好填补了这一空白。它既具备长上下文处理需求,又拥有复杂的推理能力,未来注定会被海量开发者和企业调用。如果国产芯片能在这样的模型上跑出稳定、优异的表现,其说服力将远胜于任何纸面参数。这同时也能证明,经过深度软硬件协同优化的国产模型,在性能和性价比上,完全有能力跻身全球第一梯队。

图源:正软商城
对华&为昇腾而言,DeepSeek V4无疑是今年最具分量的生态项目。尽管昇腾此前已在政企、云计算等多个领域积累了案例,但要形成繁荣的开发者生态,离不开头部模型和主流开发框架的全力支持。
除了华&为,寒武纪同样值得关注。作为首批宣布支持DeepSeek V4的芯片企业之一,它的亮相表明,只有那些在开发早期就深度介入优化的芯片,才能在发布首日实现无缝适配。一个有趣的细节是,此次首批完成适配的国产AI芯片种类,甚至超过了英伟达芯片。尽管早前有传闻称DeepSeek可能放弃CUDA生态支持,但事实证明这纯属误传。
实际上,DeepSeek的早期版本确实基于英伟达硬件训练,后续才逐步向华&为昇腾迁移,并且将首批硬件访问权限独家提供给华&为,相当于开展了一场深度的“联合研发”。

图源:正软商城
这种深度协同的效果是立竿见影的。基于昇腾950超节点,DeepSeek V4-Pro在8K输入场景下可实现约20毫秒的单token解码延迟,单卡解码吞吐量约4700 TPS;V4-Flash则可实现约10毫秒的延迟,吞吐量约1600 TPS。这一性能,达到了英伟达此前可对华出口的H20算力卡的2.87倍。
这些数字的意义,绝非仅仅为国产芯片的宣传海报增添几行光彩。更重要的是,它让市场首次能够以接近真实业务负载的方式,客观评估国产AI算力的实际效能。它也清晰地揭示了一个道理:大模型推理的性能,不能只看芯片的峰值算力,显存访问效率、并行调度能力、低精度计算优化、通信带宽以及推理框架的协同,同样至关重要。
英伟达的护城河,从来就不只是硬件,而是其构建的庞大CUDA生态。因此,国产芯片的追赶之路,不能单纯依靠硬件参数的堆砌(在现有制程限制下也非易事),而必须推动模型、框架和应用的整体迁移,实现真正的软硬件一体化协同。可以说,DeepSeek V4为其他国产顶级大模型蹚出了一条路,用事实告诉大家:基于国产芯片的深度优化,这条路走得通,而且能走得很出色。
CPU也被DeepSeek重新点燃
在梳理资料时,另一则新闻引起了注意:英特尔最新财报显示,其第一季度营收超出市场预期,盘前股价随之飙升近30%。细看财报,数据中心与人工智能业务部门营收达到51亿美元,同比增长22%,成为最大亮点。

图源:百度股票
这并非巧合。AI浪潮带来的需求,正从GPU逐渐外溢到CPU领域。而DeepSeek,恰恰是推动这一趋势的关键力量之一。其V4版本引入了一项年初备受关注的技术:mHC架构。该架构的核心思想是“查算分离”。
具体来说,传统AI大模型的参数调用和推理计算全部在GPU上完成,既挤占宝贵算力,也消耗大量显存。而mHC架构则将模型中静态的、非实时调用的参数数据,存储到CPU所管理的系统内存中,GPU只需处理推理所需的活跃数据即可。
这一设计巧思,直接将超大参数模型对显存的巨大压力,转移到了CPU的系统内存上。而即便是消费级CPU平台,如今也能轻松支持128GB甚至256GB的内存。这意味着,万亿参数级别的DeepSeek V4,无需堆砌天价的显卡阵列,也能实现相当程度的本地化部署。
当然,代价是CPU需要更深度地介入AI推理流程。这使得那些具备高性能、高能效,尤其是支持高内存带宽的处理器变得格外抢手。以英特尔至强6处理器为例,其最高支持12通道内存,单条内存容量可达256GB,这意味着单颗CPU就能挂载高达3TB的系统内存(特定型号甚至支持4TB)。
从产业链角度看,mHC架构某种程度上降低了对HBM这类高端显存的需求,却将压力传导给了普通的DRAM内存。短期看,这可能让显存价格有所回落(毕竟DRAM制造工艺相对成熟),但长期而言,很可能让所有类型的内存都处于持续紧张的状态,整个消费电子行业可能仍需面对成本压力。

图源:veer
此外,随着类“智能体”应用的普及,PC对CPU的要求也水涨船高。因为AI需要一颗高效的CPU在设备端进行指令调度、上下文管理和任务执行。这也使得英特尔新近发布的酷睿Ultra 300系列处理器备受关注,其高能效核与强大端侧算力相结合的设计,恰好契合了这类应用的需求。
在开源模型与开源AI应用的双重驱动下,CPU市场的增长故事或许才刚刚开始。这也让我们意识到,在当前的AI浪潮中,如何最大化地利用和优化现有的、庞大的计算硬件生态,将是决定AI能否真正普及的关键前提。
写在最后
回过头看,DeepSeek V4的意义,早已超越了“又一个强大的国产大模型问世”本身。它更像一个清晰的信号,宣告AI竞争进入了新的阶段:模型能力固然是基石,但模型能否被广泛用起来,能否跑在更经济、更易获取的硬件上,才是决定胜负的下一个关键。
这不禁让人联想到操作系统历史上的经典对决。同为图形化界面的先驱,macOS虽然性能与体验出众,但由于长期局限于苹果自家硬件,其市场份额始终无法与开放给全球硬件生态的Windows相提并论。AI领域正在上演相似的故事:闭源模型纵然强大,但高昂的使用成本和部署门槛,将无数普通开发者和小型企业挡在了门外。
DeepSeek V4的路径,恰恰瞄准了这些痛点。开源,意味着使用门槛的极大降低;百万级上下文和增强的智能体能力,让它成为真正的生产力工具;而对国产乃至多元芯片生态的深度支持,则确保了其能在不同的硬件环境中高效运行。这无异于为全球AI开发者开辟了一条新的、更平坦的道路。
484天的等待是值得的。DeepSeek这次带回的,不只是一个更强大的V4模型,更是一个预示着更开放、更低成本、更触手可及的AI未来。
2026第十九届北京国际汽车展览会将于4月24日至5月3日在北京中国国际展览中心(顺义馆)和首都国际会展中心(新国展二期)举行,本届车展以“领时代·智未来”为主题,集中展现汽车工业的更多黑科技。
比亚迪、小米、鸿蒙智行(问界等)、小鹏、蔚来、岚图等头部品牌集结,多款重磅新车首秀;地平线、Momenta、卓驭等供应商集体秀肌肉,AI大模型深度赋能,高阶智驾、动力电池、超快充技术等前沿科技集中亮相,看点拉满!
正软商城旗下「电车通」将派出报道团直击现场,以“关注电动车,更懂智能化”的专业视角,带来一线独家报道,敬请关注!

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
上汽大众ID.ERA 9X正式登场!四驱大六座布局,售价29.98万起开启智能出行新体验
上汽大众ID ERA9X正式上市:一款瞄准高端市场的六座纯电SUV 高端新能源市场的竞争,又迎来了一位重量级选手。今日,上汽大众全新中大型纯电SUV——ID ERA9X正式推向市场。新车一口气推出了PRO四驱版、MAX四驱版和ULTRA四驱版三款配置,官方指导价定在30 98万至35 98万元区间。
安森美与吉利深化合作:碳化硅技术赋能浩瀚-S电混架构升级
安森美与吉利深化战略合作:碳化硅技术如何重塑电混性能边界 新能源汽车的竞争,早已从单纯的续航里程,转向了底层核心技术的较量。最近,安森美(onsemi)与吉利汽车集团宣布建立更广泛的全球战略合作关系,将双方的合作推向了新的高度。这次合作的核心,是围绕先进的碳化硅技术展开深度协同,目标很明确:将安森美
新能源下半场竞争升级,沃尔沃以体系化布局锚定长期优势
新能源浪潮席卷汽车行业后,“转型”已不再是车企讨论的焦点,真正的较量在于如何完成这场变革。 面对这场变革,不同车企选择了不同的路径:有的以速度换取市场空间,有的以价格抢占规模,还有的试图通过堆砌参数建立短期优势。然而,随着行业进入深水区,这些策略的局限性逐渐显现——短期有效,长期未必可持续。沃尔沃在
徕芬CEO叶洪新预热AirFold手持风扇下月发布
徕芬官宣5月新品发布会:7款新品齐发,折叠风扇率先亮相 徕芬科技又有大动作了。就在今天,其CEO叶洪新通过微博正式宣布,品牌将于5月举办一场重磅新品发布会。这次发布会的规模可不一般,计划一口气推出7款新产品,被官方称为自2025年推出直线往复式剃须刀以来,产品矩阵最大规模的一次集中更新。 在预热信息
矽芯微成都基地首片晶圆成功加工下线,成为国内投产速度最快晶圆中道加工fab厂
四川矽芯微成都基地实现首片8寸晶圆下线,投产速度创国内纪录 4月22日,来自成都高新区的消息显示,四川矽芯微科技有限公司其成都基地项目近期取得关键进展:首片8寸晶圆成功加工下线,并顺利完成小批量试生产。值得注意的是,该项目从启动到投产,创造了国内晶圆中道加工fab厂的最快速度,预计将为成都高新区集成
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

