我国首个:类脑脉冲大模型“瞬悉 1.0”问世,在国产 GPU 算力平台完成训练推理
9 月 8 日消息,中国科学院自动化研究所今日官宣,该所李国齐、徐波团队在发表原创内生复杂性理论系列论文的工作基础上,与沐曦 MetaX 合作,打造了类脑脉冲大模型“瞬悉 1.0”(SpikingBrain-1.0),在国产千卡 GPU 算力平台上完成全流程训练和推理,实现了大模型在超长序列推理上数量级的效率和速度提升,展示了构建国产自主可控的新型非 Transformer 大模型架构生态的可行性。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
研究团队开源了 SpikingBrain-1.0-7B 模型并开放 SpikingBrain-1.0-76B 测试网址,同步公开了经工业界大规模验证的类脑脉冲大模型 SpikingBrain-1.0 中英文技术报告。
当前,基于 Transformer 架构的大模型在 Scaling law 驱动下,通过增加网络规模、算力资源和数据量提升模型智能水平,但模型的基本计算单元为简单的点神经元模型,我们将此路径称为“基于外生复杂性”的通用智能实现方法。Transformer 架构的固有缺点训练时开销随序列长度呈平方级增长以及推理时显存占用也随序列长度线性增加,构成了资源消耗的主要瓶颈,导致其处理超长序列的能力受限。
研发团队借鉴大脑神经元内部复杂工作机制提出“基于内生复杂性”的大模型构架方式,打造类脑脉冲大模型“瞬悉 1.0”( SpikingBrain-1.0),在理论上建立了脉冲神经元内生动力学与线性注意力模型之间的联系,揭示了现有线性注意力机制是树突计算的特殊简化形式,从而清晰地展示了一条不断提升模型复杂度和性能的新型可行路径。

研发团队进而构建并开源了基于脉冲神经元、具有线性(SpikingBrain-1.0-7B)及混合线性复杂度(SpikingBrain-1.0-76B,激活参数量 12B)的新型类脑基础模型,开发了面向国产 GPU(沐曦 MetaX 曦云 C550)集群高效训练和推理框架、Triton 算子库、模型并行策略以及集群通信原语。
SpikingBrain-1.0 在多个核心性能上实现突破:
第一,极低数据量上的高效训练:训练阶段具有线性或近线性复杂度,显著提升长序列训练效率,并能依托高效转换训练范式,以约为主流大模型 2% 的预训练数据量实现与众多开源 Transformer 模型在多任务语言理解(MMLU), 中文多任务语言理解(CMMLU、Ceval), 常识推理能力(ARC、HS)任务上相媲美的性能。
第二,推理效率的数量级提升:推理阶段结合脉冲神经元事件驱动特性,SpikingBrain 具有常数或部分层常数级别的复杂度和存储开销,SpikingBrain-7B 模型在 100 万 Token 长度下 TTFT(生成第一个 Token 所需时间)相比 Transformer 架构加速达到 26.5 倍,400 万 Token 长度下加速超过 100 倍。同时在手机 CPU 端 64k-128k-256k 长度下较 Llama3.2 的同规模模型 Decoding 速度提升 4.04x-7.52x-15.39x,在超长序列处理能力上展现出数量级的效率和速度提升。
第三,国产自主可控类脑大模型生态的构建:SpikingBrain 适配了面向国产 GPU 集群的高效训练和推理框架、Triton 算子库、模型并行策略以及集群通信原语,表明了构建国产自主可控的新型非 Transformer 大模型架构生态的可行性。
第四,基于动态阈值脉冲化的多尺度稀疏机制:设计细粒度的两阶段动态阈值脉冲化策略,结合粗粒度的混合专家模型(MoE)方案,在 7B 模型上实现了超过 69.15% 的稀疏度,长序脉冲占比约 1.85%,为低功耗的类脑大模型运行提供有力支撑。

中国科学院自动化研究所表示,这是我国首次提出大规模类脑线性基础模型架构、并首次在国产 GPU 算力集群上构建类脑脉冲大模型的训练和推理框架。提出的模型解决了脉冲驱动限制下的大规模类脑模型性能退化问题,其超长序列处理能力在法律 / 医学文档分析、复杂多智能体模拟、高能粒子物理实验、DNA 序列分析、分子动力学轨迹等超长序列任务建模场景中具有显著的潜在效率优势。本次发布的大模型为新一代人工智能发展提供了非 Transformer 架构的新技术路线,并将启迪更低功耗的下一代神经形态计算理论和芯片设计。
附 SpikingBrain-1.0-7B 开源地址:
https://github.com/BICLab/SpikingBrain-7B
试用 :
https://controller-fold-injuries-thick.trycloudflare.com
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
AI 的记忆不是硬盘——从 40 个真实 Bug 说起
这是 AI 认知架构实战笔记 系列的第 2 篇 上一篇我们聊了「给 AI 写灵魂文件」这件事,这一篇,我们来看看,当这份灵魂文件真正运转起来之后,现实究竟会给我们带来多少“惊喜”——或者更准确地说,是漏洞。项目名为 WorkBuddy-Configure,已部署在 gitee 和 gitcode 上
OpenClaw给每个Agent单独指定workspace
OpenClaw中为每个Agent配置独立工作区的最佳实践 在大模型智能体协作平台上,实现多个Agent之间的文件隔离是确保项目管理井然有序的关键需求。如果您正在使用OpenClaw平台,为不同角色的智能体分配专属工作空间可以有效避免文件冲突、权限混乱等问题。本指南将详细介绍在OpenClaw中为每
OpenClaw更新操作
前言 对于 OpenClaw 的忠实用户而言,每一次版本迭代都意义非凡。新功能密集、改动幅度大是它的显著特点,这固然令人欣喜,但伴随而来的更新操作也时常会遇到一些预料外的状况。本文旨在系统梳理我们在升级过程中遇到的常见问题与解决方案,帮助您在下次更新时更加顺畅,有效规避不必要的麻烦。 一、OpenC
openclaw源码
项目资源与开源社区 对于希望深入研究OpenClaw技术生态的开发者与研究者,以下几个核心的开源仓库提供了关键的切入点和持续更新的资源集合。 首先,OpenClaw项目的主仓库位于: https: github com openclaw openclaw 这里是所有核心代码、文档和官方进展的枢纽,
关停 Sora 后 OpenAI 转身收购 TBPN 播客,亲自下场做媒体
OpenAI关闭Sora后战略转向:收购TBPN播客,深度布局内容生态 四月初的科技界新闻不断,一则来自科技媒体9to5Mac的报道引发了行业的强烈关注。OpenAI在近期宣布正式收购知名科技商业播客品牌The Browser Pane。这一战略动作紧随其视频应用Sora的停止运营之后,被外界普遍视
- 日榜
- 周榜
- 月榜
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程

