国产AI基础设施变革新势力崛起与未来趋势
近期,AI领域迎来一项重要进展:被业界广泛称为“源神”的DeepSeek,开源了包括FlashMLA、DeepEP、DeepGEMM、DualPipe以及3FS系统在内的一系列底层核心组件。这一系列举措,几乎覆盖了AI基础设施(AI Infra)中从计算、网络到存储的关键环节,为整个行业的性能优化与成本控制提供了极具价值的实践参考。
这股开源浪潮,也正在激发国内AI基础设施领域的深度思考与积极行动。行业参与者们都在探索,如何基于这些前沿思路,为大模型的训练与推理阶段,寻找更高效、更经济的系统性解决方案。驿心科技,正是其中一家快速响应的创业公司。
上周DeepSeek开源3FS等组件,实际上揭示了一个核心挑战:数据在存储、网络传输与GPU计算之间的协同效率,已成为制约当前AI训练和推理性能的关键瓶颈之一。而突破这一瓶颈,正是驿心科技全力投入研发的技术方向。

驿心科技创立于2023年9月,由前旷视科技创始合伙人吴文昊创立。公司的目标清晰而坚定:从基础架构层面进行原创性研发,基于标准的GPU服务器本地存储和通用的以太网络,构建出能够媲美甚至超越传统基于RDMA存储网络或商业训练存储方案的整体能力。这一路径的优势在于,能显著降低大模型实际部署的总体拥有成本(TCO)和工程复杂度,为后续在DeepSeek这类主流大模型上进行深度性能优化奠定基础,最终全面提升模型的运行效率与实用性。
一个关键细节值得关注:驿心科技解决方案所依托的硬件,完全是标准的企业级服务器和通用网络设备,无需任何定制化的硬件、专用网络或深度修改的系统内核。相比之下,传统AI基础设施部署中常见的高性能文件存储方案,往往需要搭配定制服务器、特定网络交换设备以及深度定制的操作系统。两者对比,驿心提出的这套AI基础设施一体化方案,在部署灵活性、总体成本和运维效率上的优势便凸显出来。
架构演进催生的新机遇
通常,我们将AI基础设施划分为硬件供应链和云服务两层。但随着过去两年AGI(通用人工智能)技术的迅猛发展,大模型本身正呈现出“基础设施化”的明显趋势,甚至有观点认为,未来模型可能演变为一种新的“操作系统”。
在这一宏观背景下,技术架构的重构与供应链的重塑,为AI基础设施领域的创业公司开辟了新的市场空间。
首先从架构层面看。高性能计算(HPC)、云计算和AI三者对基础设施的需求各有侧重。传统云基础设施并非专为AI或HPC工作负载设计,这种错配会导致资源利用效率的损耗:云服务的商业模式本质上是围绕网络虚拟化构建,通过共享(超卖)CPU、网络、存储等资源来实现盈利,而当其无法以最优方式支撑计算密集型AI任务时,价值损耗便产生了。
而AI基础设施的兴起,正在重构这一价值链条。因为AI基础设施是以GPU计算为核心进行设计的,传统云厂商受制于其通用架构和既有利益,很难提供完全最优化的底层设施。
再看AI与HPC。AI虽源于HPC,两者都追求千卡、万卡级别的集群规模,但计算范式存在本质区别:HPC聚焦于科学仿真模拟,追求计算过程的确定性和结果的高精度;而AI的核心是概率统计,其目标是让下一个词元(token)的预测更加准确。
除了技术架构,国内AI芯片及服务器供应链的重构也在催生巨大的基础设施机遇,DeepSeek的崛起无疑加速了这一进程。
然而,在产业重构的同时,算力设备成本、能源消耗、数据中心空间限制和资金投入这四大现实瓶颈,也正严峻地制约着AI算力的规模化发展。针对这些核心痛点,驿心科技依托GPU服务器本地存储与通用以太网络,构建了一套独具特色的一体化解决方案:

Tier-0 ← Tier-1 存储架构
首先是AI集群一体化方案的技术创新。驿心的Tier-0存储架构,能够高效利用GPU服务器内部的本地存储空间。这意味着企业在构建AI计算集群时,无需再额外部署独立的专用存储集群和昂贵的存储网络,从而大幅降低了模型落地的初始投资和长期运维成本,并显著加快了集群部署上线速度。这不仅减轻了企业和科研机构的经济负担,更使得前沿的AI模型能够以更快的节奏从研发走向规模化应用。
其次在AI数据存储与管理层面,驿心科技支持跨多云、多数据中心的全局统一文件系统,实现大模型数据的上传、同步与版本更新无缝衔接,提供集中化的存储管理视图,极大提升了AI研发中的数据访问与管理效率。该方案不仅能兼容传统的文件与对象存储接口,也能与DeepSeek最新开源的3FS并行文件系统良好协同;它具备智能的数据分层与缓存机制,能动态响应AI工作负载对数据的高速访问需求,提升训练和推理任务的数据吞吐速度;同时,它还提供了强大的数据安全、保护与容灾功能,并能够弹性扩展,轻松应对AI项目中持续快速增长的海量数据。
在模型优化层面,驿心科技积极拥抱并融入开源生态。其基础设施解决方案为后续在DeepSeek等通用大模型上的深度优化提供了坚实基础,能够帮助客户充分挖掘模型潜力,实现训练与推理的全流程加速,从而在激烈的市场竞争中构建技术优势。
驿心这套方案之所以能精准应对当前AI训练与推理的复杂挑战,与其创始人吴文昊横跨HPC、云计算和AI三大领域的独特技术背景与产业经验密不可分:

从1999年清华本科毕业赴美深造,到2008年加入微软,吴文昊长期深耕于高性能计算领域。博士期间,他的研究方向集中于矩阵计算的高性能实现与并行计算MPI协议。2008年进入微软后,他负责微软HPC及Azure云的产品管理工作。2011年,作为Azure存储团队的项目经理,他主导了将Mellanox高速网络技术引入Azure云平台的项目。
2013年,吴文昊离开微软,加入企业级闪存市场先锋Fusion-io,并于2015年回国加入旷视科技,自此将职业重心完全转向AI领域,直至2020年离开。
基于对AI产业的多维度洞察,驿心科技目前重点聚焦并服务三大类客户群体:
第一类是云服务商与大模型厂商。这类客户的痛点在于自研技术门槛高、系统交付周期长及客户服务成本高昂,同时他们需要专业的存储解决方案、高效的网络互联能力、跨云数据同步与迁移支持,以及轻量化的运维管理界面。据吴文昊透露,驿心已在某国内头部互联网公司完成了严格的技术验证测试,而该大厂在全球范围内仅评估了两家供应商,除驿心外,另一家是美国知名存储公司。
第二类是AI研发类客户。涵盖智能汽车、自动驾驶、机器人等垂直行业,它们对AI算力和GPU存储能力的需求正在爆发式增长。这类企业致力于利用AI技术最快速度形成其所在行业的业务闭环,例如自动驾驶,就是通过智能汽车这一物理产品与视觉语言模型(VLA)服务相结合来实现的。这就需要驿心提供专业的AI基础设施解决方案以及VLA模型与数据处理能力,来协助它们构建垂直行业的端到端解决方案。目前,驿心正深化与比亚迪电子的合作,共同为AI研发类客户提供软硬件一体化的联合解决方案。
吴文昊也将这部分客户形象地称为“AI工厂”。他认为:“从第一性原理思考,DeepSeek的成功正表明中国具备成为全球‘AI工厂’的完整生态。无论GPU产自何处,若要构建高效的AI生产能力,最终的软硬件集成与优化供应链必将汇聚于中国。”
第三类是寻求智能化转型的传统行业客户。包括半导体、高端制造、金融、能源等领域,它们需要的是安全、稳定、可弹性扩展的企业级存储解决方案。与纯粹的AI研发企业相比,这类企业的AI应用需求增长迅速,正积极向AI领域拓展,处于渐进式迭代过程中。一旦其AI业务形成成熟闭环,它们有望进化成为新的AI研发驱动型企业。为此,驿心通过与主流OEM厂商合作,提供了针对不同细分行业的存算一体机集成方案。
展望未来
DeepSeek通过开源与工程化实践,在通往AGI的道路上迈出了坚实一步。同时,它也揭示了中美两国在AGI软硬件协同发展上的不同路径:美国的AGI基础设施发展更倾向于平台化与生态化,而中国的AGI实践,如DeepSeek,则更强调通过算法创新驱动的软硬件深度协同优化,来降低底层成本、提升整体效率。
驿心科技的发展路径与此有异曲同工之妙——在海外市场,其与HammerSpace等伙伴联合提供的方案更偏向于标准化与水平解耦;而在国内市场,驿心则提供了更加垂直整合、深度优化的一体化解决方案。吴文昊认为,正如DeepSeek从模型层面向下进行软硬一体优化的方法论所展现的强大竞争力,整个AI基础设施领域的软硬件协同优化与垂直整合,同样存在着广阔的市场机遇与创新空间。
那么,驿心科技和DeepSeek的具体实践有何异同呢?
吴文昊的总结颇为精辟:“需求是创新之源。对于大语言模型(LLM)这样的超级单一应用,其数据访问与使用模式趋于简化和统一,这反而更容易针对这些固定模式进行极致的深度优化。”他指出,“在LLM时代,从存储、网络到GPU的数据传输带宽与效率才是关键瓶颈。因此,我们的AI基础设施能力聚焦于优化数据存储与供给管道,直接服务于模型效能提升。”
具体而言,在存储架构层面,针对大模型训练和推理的数据密集型特点,通过Tier-0架构直接整合GPU服务器内部的本地存储空间。遵循“如无必要,勿增实体”的设计哲学,这种直接整合不仅有效应对了成本、机房空间和能耗等核心约束,还极大提升了数据访问的IO性能与有效带宽。
在模型优化层面,针对DeepSeek这类主流开源模型,驿心结合算力调度、网络优化、分布式KV缓存(KV Cache)等技术,旨在提高大型LLM集群的整体吞吐量和推理效率。同时,通过高可靠的Tier-0/Tier-1分级存储方案保障模型与训练数据的持久性与可用性,并支持模型的持续预训练、微调与推理加速。
目前,驿心科技的最新一轮融资已接近完成。展望未来,公司计划在多模态AI和边缘侧(端侧)AI基础设施方面寻求更多技术突破。吴文昊分析指出:“未来的AI基础设施,特别是面向多模态的AI存储系统,将迎来巨大增长,因为图像、视频等多模态数据的数据量相比纯文本语言模型要大数十甚至上百倍。”此外,“端侧AI的成熟也需要经过两到三个技术周期,才能达到如今语言模型的成熟度。因此,未来在边缘侧,数据的实时生成、合成、存储与高效利用也存在许多待解决的技术挑战,这其中同样蕴藏着新的创业机遇。”
总而言之,中国AI行业整体向AGI迈进,不仅需要算法研究人员持续不断的创新,也需要更多像驿心科技这样拥有深厚技术积累的基础设施创业团队加入。只有产学研用各方紧密协作,才能真正定义并塑造下一代AI基础设施的发展蓝图,这无疑是整个行业赢得未来的关键所在。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
百川智能联合创始人谢剑离职内幕与未来动向
百川智能联合创始人谢剑即将离职,原因与去向未明。谢剑拥有深厚AI研发管理经验,曾参与百度核心业务,2023年与王小川共同创立百川智能并取得多项技术成果。近期该公司高管持续动荡,商业化、医疗、金融业务负责人及联合创始人等相继离开,创始团队仅剩两人。密集人事变动或预示行业面临。
DeepSeek强化学习与通用人工智能发展路径深度解析
DeepSeek通过大规模强化学习替代监督微调,显著提升推理能力。研究证实从指令微调到强化学习的训练路径有效,并在隐式推理、符号神经融合、混合智能体及数学推理等领域取得进展。
百度云企业级大模型应用落地产业实践与对话
AI大模型正从技术探索转向产业落地。百度以文心大模型为基础,结合算力平台,推动其在金融、医疗等领域的应用。智能客服、数字人定制、编程工具等产品,分别助力企业降本增效、满足场景需求并提升开发效率。统一的基础设施进一步降低了应用门槛与复杂度。
夸克AI务实进阶:从浪潮到落地应用之路
夸克从搜索转向AI助理更易被接受,因其在用户熟悉路径中嵌入能力,顺应使用习惯。产品注重设计:页面纯净、交互流畅,如模拟问诊引导描述病情。功能从场景出发,力求一步到位。近期PC端升级为“系统级全场景AI”,渗透数字生活,以精准答案回应传统搜索痛点。行业竞争显示,卓越体验需技术通过产品。
AI陪伴赛道能否复制泡泡玛特的商业奇迹
AI正从工具转向情感陪伴,核心从解决问题变为共度时光,以满足现代人情感需求。这需平衡技术可控性、沉浸感与人设鲜活度,并通过角色定义与个性化互动建立连接。硬件凭借“在场感”占优,软件则迭代更快。市场出海取决于定位与资源。尽管挑战众多,该领域已展现出创造深度情感连接的潜力。
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

