当前位置: 首页
AI
清华大学校友团队:DeepSeek出手终结ResNet十年统治

清华大学校友团队:DeepSeek出手终结ResNet十年统治

热心网友 时间:2026-01-02
转载


免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

新智元报道

编辑:桃子 好困

【新智元导读】2026年架构革命的枪声已经打响!ResNet用十年证明了「加法捷径」能救训练,但也暴露了「只加不减」的天花板。DeepSeek新年王炸之后,普林斯顿和UCLA新作DDL让网络学会忘记、重写和反转。

新年第一天,DeepSeek祭出大杀器——mHC,对「残差连接」做出了重大改进,引爆全网。

紧接着,另一篇重磅研究诞生了!

斯坦福著名教授Christopher Manning读完后直言,「2026年,将成为改进残差连接之年」。

拓展阅读:刚刚,DeepSeek扔出大杀器,梁文锋署名!暴力优化AI架构



这篇来自普林斯顿和UCLA新研究,提出了一个全新架构:Deep Delta Learning(DDL)。

它不再把「捷径」(shortcut)当作固定的恒等映射,而让它本身也能学习并随数据变化。


论文地址:https://github.com/yifanzhang-pro/deep-delta-learning/blob/master/Deep_Delta_Learning.pdf

一个是mHC流形约束超连接,一个是DDL深度增量学习,几乎在同一时间,传递出一个强烈的信号:

残差连接,正在进入一个必须被重新设计的时代。



那么,这篇论文主要解决了什么问题?

ResNet用了十年「加法」

终于被改写了

2015年,ResNet(残差网络)横空出世后,「加法捷径(shortcut)」几乎成为了深度网络的默认配置。

它解决了梯度消失的难题,撑起了现代深度学习的高楼。


ResNet通过残差学习,解决了深度神经网络训练中的核心难题——层数加深,AI性能不升反降。

ResNet为什么能训得这么深?

因为它只做了一件极其「保守」的事,当深度网络什么都学不会的时候,至少别把输入弄坏。

如今,无论是CNN、ViT,还是各种混合架构,那条「直接把输入加回去」的残差连接,成为了标配。

这套架构设计稳定的同时,也带来了一个后果——

神经网络几乎只会累加信息,却很难修改状态。

经典ResNet核心更新公式非常简单:


从动力系统角度看,它等价于对微分方程做一步前向欧拉离散。

这意味着,对应的线性算子所有特征方向的特征值都是+1,网络只能「平移」状态,而不能反转、选择性遗忘。

换句话说,旧特征很难被彻底清除,中间表示几乎不会被「反转」,深度网络在表达复杂动态时,显得有些笨重。

如果「捷径」永远只是恒等映射,深度神经网络不够灵活,本质上只能「加法叠加」。

来自普林斯顿和UCLA的最新论文,第一次系统性提出——

这条「捷径」,其实限制了深度神经网络的想象力。

此外,近期一些研究还指出,缺乏负特征值,是深度网络建模能力的隐形天花板。

让深度网络学会「忘记」

如果允许「捷径」本身可以被学习,可以选择性遗忘,甚至可以反转某些特征,会发生什么?

DDL给出的答案是:用一个rank-1的线性算子,替代固定的identity shortcut。

简单来说,DDL把ResNet的「固定加法捷径」,升级成了一个可控的状态更新机制。

其核心变化只有一个——

每一层不再只是加新东西,而会先决定:要不要保留旧状态。


在这个全新架构中,引入了一个非常关键的标量β,这个数值决定了当前层如何对待已有特征。

增量残差块

DDL不再把隐藏状态,看成一个向量,而是一个矩阵


这个设计,让网络状态具备了「记忆矩阵」的含义,也为后续的Delta Rule的对齐埋下了伏笔。

其核心更新公式如下所示:


而DDL真正的关键所在,是Delta Operator,让「捷径」不再是I,而是


这是一个rank-1 的对称线性算子,其谱结构异常简单。即d−1个特征值恒为1,只有一个特征值是1−β。

换句话说,一个标量β,就能精确控制某个特征方向的命运。

DDL将三种几何行为,统一在一个模块中,以下当β ∈ [0, 2]时,不同情况——

当β接近0时,DDL什么都不做

这一层几乎被跳过,DDL的行为和ResNet完全一致,非常适合深层网络的稳定训练。

当β接近1时,DDL会先忘掉,再写入

这时,网络会主动「清空」某个特征方向,再写入新的内容,类似一次精准的状态重置。

这也恰恰是,传统ResNet很难做到的事。

当β接近2时,DDL就会实现特征反转

某些特征会被直接「翻转符号」,深度网络第一次具备了「反向表达」的能力,这对建模振荡、对立关系非常关键。

值得注意的是,它还出现了负特征值,这是普通残差网络几乎不可能产生的行为。

目前,论文主要提出了DDL核心方法,作者透露实验部分即将更新。


残差网络,2.0时代

为什么这一方法的提出,非常重要?

过去十年,传统残差网络的一个隐患是:信息只加不减,噪声会一路累积。

DDL明确引入了忘记、重写、反转,让网络可以主动清理无用特征,重构中间表示,让建模成为非单调动态过程。

神经网络可以自己决定,如何处理输入的信息。

DDL不会推翻ResNet,当门控(gate)关闭时,它就是普通残差网络,当它完全打开时,便进入了全新的表达空间。


ResNet让深度学习进入了「可规模化时代」,而DDL提出的是下一步——

让深度神经网络不仅稳定,而且具备真正的状态操控能力。

也许多年后回头看,残差网络真正的进化,不仅仅是更深,还会改自己。

最后的最后,我们让ChatGPT分别总结下DDL和mHC的核心贡献:


一位网友对这两种革命性架构的亮点总结:


这一切,只说明了一件事:残差连接,真正被当成「可设计对象」来认真对待。

这就像是一个「时代切换」的信号,过去模型变强=更大+更深+更多参数,现在「模型变强=更合理的结构约束」。

作者介绍

Yifan Zhang

Yifan Zhang是普林斯顿大学的博士生,也是普林斯顿AI实验室的Fellow,师从Mengdi Wang教授、姚期智教授和Quanquan Gu教授。

此前,他获得了清华大学交叉信息研究院计算机科学硕士学位并成为博士候选人;本科毕业于北京大学元培学院,获数学与计算机科学理学学士学位。

个人研究重点是:构建兼具高扩展性和高性能的LLM及多模态基础模型。

Yifeng Liu


Yifeng Liu是加州大学洛杉矶分校的计算机博士,本科毕业于清华信息科学与技术学院,姚班出身。

Mengdi Wang


Mengdi Wang是普林斯顿大学电气与计算机工程系以及统计与机器学习中心的副教授。

她曾获得了MIT电气工程与计算机科学博士学位,在此之前,她获得了清华大学自动化系学士学位。

个人研究方向包括机器学习、强化学习、生成式AI、AI for science以及智能系统应用。

Quanquan Gu


Quanquan Gu是UCLA计算机科学系的副教授,同时领导UCLA通用人工智能实验室。

他曾获得伊利诺伊大学厄巴纳-香槟分校计算机科学博士学位,分别于2007年和2010年获得了清华大学学士和硕士学位。

个人研究方向是人工智能与机器学习,重点包括非凸优化、深度学习、强化学习、LLM以及深度生成模型。

参考资料:

https://x.com/chrmanning/status/2006786935059263906

https://x.com/yifan_zhang_/status/2006674032549310782?s=20

https://github.com/yifanzhang-pro/deep-delta-learning/blob/master/Deep_Delta_Learning.pdf

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定新智元极速推送!


来源:https://www.163.com/dy/article/KI9LMBKA0511ABV6.html

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章
更多
我用WorkBuddy“克隆“了一个我,从此每句话像我自己说的

我用WorkBuddy“克隆“了一个我,从此每句话像我自己说的

如何使用WorkBuddy深度学习我的说话方式,让每一份文案都自带个人风格 作为一名企业培训师,每年主讲上百场课程是行业常态。无论是线下公开课、线上直播,还是视频号、公众号的内容创作,每天的工作状态不是在授课,就是在准备各种讲稿的路上。早期借助通用AI工具辅助创作,写作效率确实有所提升,但生成的内容

时间:2026-04-05 14:34
英国视障跑者挑战马拉松,将借助智能眼镜“看”到赛道、辨别方向

英国视障跑者挑战马拉松,将借助智能眼镜“看”到赛道、辨别方向

英国视障跑者挑战马拉松,将借助智能眼镜“看”到赛道、辨别方向 最近有一则科技助残的新闻,让人眼前一亮。当地时间4月2日,英国BBC报道称,视障跑者克拉克·雷诺兹正计划借助一项创新技术,参加一场全程马拉松。这项技术的巧妙之处在于,它能让世界另一端有视力的志愿者,实时“看到”雷诺兹眼前的景象,并为他提供

时间:2026-04-05 11:03
彻底卸载 OpenClaw (龙虾) 指南

彻底卸载 OpenClaw (龙虾) 指南

彻底卸载 OpenClaw (龙虾) 指南 想把 OpenClaw(大家常叫它“龙虾”)从你的系统里清理干净?这事儿得讲究个章法,胡乱删除往往治标不治本,残留的服务和文件就像散落在角落的贝壳,时不时硌你一下。接下来,咱们就按一套稳妥的流程,帮你把它请走。 卸载原则 核心原则就一句话:先停服务,再卸工

时间:2026-04-05 10:43
AI 让英国学生“不会思考”,近 6000 名英格兰中学教师表示担忧

AI 让英国学生“不会思考”,近 6000 名英格兰中学教师表示担忧

AI让英国学生“不会思考”?近6000名教师敲响教育警钟 一项来自英国教育界的深度调查,为当前AI技术涌入课堂的热潮带来了冷静思考。据英国《卫报》4月2日报道,英格兰的中学教师们普遍观察到一种现象:随着人工智能在教育中的应用日益广泛,学生的批判性思维能力与深度思考习惯正面临下滑风险。这项由英国全国教

时间:2026-04-05 08:55
OpenClaw使用kimi web_search返回401问题

OpenClaw使用kimi web_search返回401问题

1 故障现象:OpenClaw无法联网搜索的典型报错 许多开发者在配置OpenClaw AI助手的搜索功能时,常常会遭遇一个典型故障:日常对话交互完全正常,但一旦触发需要联网查询信息的指令,界面便会立刻弹出“抱歉,我目前无法使用网络搜索功能(需要配置 API 密钥)”或“HTTP 401: Inv

时间:2026-04-05 08:26
热门专题
更多
刀塔传奇破解版无限钻石下载大全 刀塔传奇破解版无限钻石下载大全
洛克王国正式正版手游下载安装大全 洛克王国正式正版手游下载安装大全
思美人手游下载专区 思美人手游下载专区
好玩的阿拉德之怒游戏下载合集 好玩的阿拉德之怒游戏下载合集
不思议迷宫手游下载合集 不思议迷宫手游下载合集
百宝袋汉化组游戏最新合集 百宝袋汉化组游戏最新合集
jsk游戏合集30款游戏大全 jsk游戏合集30款游戏大全
宾果消消消原版下载大全 宾果消消消原版下载大全
  • 日榜
  • 周榜
  • 月榜
热门教程
更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程