当前位置: 首页
AI
北大林宙辰团队ICLR 2026研究:基于最优传输的时序预测模型训练方法

北大林宙辰团队ICLR 2026研究:基于最优传输的时序预测模型训练方法

热心网友 时间:2026-05-16
转载

在时间序列预测领域,一个长期存在的现象引人深思:模型架构本身,从经典的循环神经网络到前沿的Transformer,再到各类频域与混合模型,其演进可谓日新月异。然而,绝大多数模型的训练,却始终依赖于同一类损失函数——以均方误差(MSE)为代表的逐点误差度量。

这导致了方法论上的隐性停滞:研究焦点持续向提升模型表达能力倾斜,而对损失函数背后所隐含的统计前提与根本假设,却缺乏系统性的审视与革新。

那么,逐点误差损失的核心假设究竟是什么?它默认,在给定历史序列的条件下,未来各个时间步的预测目标是彼此独立的。但关键在于,这一假设与时间序列数据真实的生成机制存在根本性矛盾。现实世界的时间序列由复杂的随机过程演化而来,前后时刻之间通常存在显著的自相关性与依赖关系。将多步预测强行拆解为一组独立的回归任务,无疑为损失函数植入了结构性偏差,使得模型难以有效捕捉标签序列的整体趋势、周期模式、内在相关性以及复杂的条件依赖。

针对这一核心矛盾,北京大学林宙辰教授团队进行了深度剖析,并创新性地提出了DistDF:一种通过联合分布对齐来训练预测模型的新型损失函数。这项工作的价值,不仅在于为时间序列预测提供了更优的工具,更在于对序列建模中“我们究竟应该优化什么”这个长期被默认的命题,给出了一个颠覆性的答案。

当独立性假设被实验数据证伪

当前,时间序列预测的主流方法普遍采用均方误差(MSE)作为损失函数:

$$\mathcal{L}_{\text{MSE}} = \|\mathbf{y} - g_\theta(\mathbf{x})\|^2=\sum_{t=1}^\mathrm{T}\left(y_t-g_{\theta,t}(\mathbf{x})\right)$$

这个简洁公式的背后,隐含着一个强烈的统计学假设:给定历史序列后,未来各时间点的观测值彼此独立。然而,真实世界的时间序列标签通常存在显著的自相关性。因此,MSE所依赖的独立性假设与数据的真实生成过程相悖,这直接导致了它作为一种损失函数是存在偏差的(具体论证见定理1)。

[定理1] 考虑单变量标签序列$$\mathbf{y}\in\mathbb{R}^{T\times 1}$$,其条件自相关矩阵为$$\mathbf{\Sigma}_\mathbf{x}\in\mathbb{R}^{T\times T}$$,则标签序列的实用负对数似然可表示为:$$\mathcal{L}_\mathrm{NLL} = \left\|\mathbf{y}-\hat{\mathbf{y}}\right\|_{\mathbf{\Sigma}^{-1}}^2$$。显然,仅当$$\mathbf{\Sigma}_\mathbf{x}$$是单位阵,即标签自相关不存在时,才有$$\mathcal{L}_\mathrm{NLL} = \mathcal{L}_\mathrm{MSE}$$。

研究团队通过详尽的实证分析验证了这一矛盾:即使在给定历史序列的条件下,标签序列依然呈现出显著的条件相关结构,从而在数据层面证伪了独立性假设。实验进一步揭示,即便对标签进行频域变换或主成分分析等预处理,变换后的序列中依然存在残余相关性。这意味着,即使在变换后的特征空间里应用MSE,其固有的结构性偏差依然无法根除。

DistDF:基于分布对齐的序列预测损失函数

为了从根本上规避传统方法的独立性假设,DistDF的核心思想是直接对齐模型预测序列的条件分布$$\mathbb{P}(\hat{\mathbf{y}}|\mathbf{x})$$与真实标签序列的条件分布$$\mathbb{P}(\mathbf{y}|\mathbf{x})$$。直观上,这可以通过最小化两个条件分布之间的距离$$\mathrm{Disc}(\mathbb{P}(\hat{\mathbf{y}}|\mathbf{x}),\mathbb{P}(\mathbf{y}|\mathbf{x}))$$来实现。

然而,直接操作会遇到严峻的样本稀缺挑战。对于一段特定的历史序列$$\mathbf{x}$$,数据集中通常只有一个对应的真实标签序列$$\mathbf{y}$$,模型也只会产生一个预测序列$$\hat{\mathbf{y}}$$。这种“单样本”场景使得直接估计条件分布距离在统计上极不稳定且不可靠。

如何破解这一难题?团队巧妙地运用了概率论中的基本恒等式:$$\mathbb{P}(\mathbf{y},\mathbf{x}) = \mathbb{P}(\mathbf{y}|\mathbf{x})\mathbb{P}(\mathbf{x})$$。由于边缘分布$$\mathbb{P}(\mathbf{x})$$是模型与数据共享的,如果联合分布实现了对齐,那么条件分布自然也就对齐了。基于此洞见,他们将棘手的条件分布匹配问题,转化为了更可行、更稳定的联合分布匹配问题。

进一步结合最优传输理论,论文证明了联合分布的Wasserstein距离构成了条件分布Wasserstein距离期望的上界:

$$\int \mathcal{W}_p\left(\mathbb{P}(\mathbf{y}|\mathbf{x}), \mathbb{P}(\hat{\mathbf{y}}|\mathbf{x})\right) d\mathbb{P}(\mathbf{x}) \leq \mathcal{W}_p \left(\mathbb{P}(\mathbf{y},\mathbf{x}), \mathbb{P}(\hat{\mathbf{y}},\mathbf{x})\right)$$

因此,通过最小化历史-预测联合分布$$\mathbb{P}(\hat{\mathbf{y}},\mathbf{x})$$与历史-标签联合分布$$\mathbb{P}(\mathbf{y},\mathbf{x})$$之间的Wasserstein距离,就能有效驱动条件分布的对齐,从而实现预测模型的无偏训练。更重要的是,这一转换允许我们利用整个数据集的样本批量估计联合分布距离,显著提升了估计的统计效能与可靠性。

DistDF的具体实现流程清晰而高效:

首先,构造联合序列:$$\mathbf{z}=[\mathbf{y},\mathbf{x}]$$和$$\hat{\mathbf{z}}=[\hat{\mathbf{y}},\mathbf{x}]$$;

接着,计算这两个联合序列之间的Wasserstein距离:$$\mathcal{L}_\mathrm{dist}=\mathcal{W}_p \left(\mathbb{P}(\mathbf{z}), \mathbb{P}(\hat{\mathbf{z}})\right)$$,

最后,与传统的MSE损失进行加权融合,形成最终训练目标:$$\mathcal{L}_{\alpha} = \alpha \cdot \mathcal{L}_\mathrm{dist} + (1-\alpha) \cdot \mathcal{L}_\mathrm{MSE}$$

作为一种与模型架构无关的损失函数,DistDF可以灵活适配于各类时间序列预测模型。

大量实验一致验证其性能优势

论文首先将DistDF与现有旨在削弱标签相关性的损失函数(如FreDF和Time-o1)进行了全面对比。结果表明,这些方法虽然通过标签变换减少了似然估计的偏差并提升了性能,但残差偏差仍然存在,因此性能仍有提升空间。而DistDF通过直接最小化条件分布之间的距离,实现了预测模型的无偏训练,从而在多个基准数据集上取得了最佳的预测精度。

其次,通过系统的消融实验,团队验证了分布对齐中两个关键统计矩的作用:分别考察仅对齐一阶矩(均值)、仅对齐二阶矩(协方差)以及同时对齐二者的情形。结果显示,两者单独对齐时均能带来性能提升,而二者同时对齐时效果最为显著,证明了完整分布对齐的必要性。

此外,论文还对模型输出的预测序列进行了可视化分析。结果表明,采用DistDF训练的模型能够更敏锐地捕捉并跟随序列中的突发变化与转折点,使得预测序列在整体形态、波动模式上更加贴近真实数据。这进一步说明,DistDF的作用不仅在于降低数值误差,更在于引导模型学习到了真实未来时间序列的整体概率分布形态。

最后,论文广泛验证了DistDF与不同预测模型的兼容性与普适性。实验结果显示,无论基础模型是简单的线性模型还是复杂的深度网络(如Transformer、Informer等),引入DistDF作为训练策略后,模型的预测性能几乎都能获得一致且显著的提升。这一结果强有力地表明,DistDF的作用并非弥补特定模型结构的缺陷,而是提供了一种更优的、通用的训练范式与优化信号。

「多任务学习」亟需分布对齐视角

从更广阔的机器学习视角看,这项研究深刻地重新审视了多任务学习场景中的损失函数设计。研究团队强调,多任务学习的核心目标不应局限于对T个独立的任务标签进行逐点建模,而应转向对一个在任务维度上具有内在相关结构的随机过程进行整体建模。

在这一全新视角下,传统损失函数(如MSE)所隐含的“给定输入条件下各任务标签相互独立”的假设,实际上将一个高维、相关的随机过程建模任务,错误地简化并退化为一组彼此独立的标量回归任务。正是由于忽略了输出标签之间的内生相关性结构,这些传统损失函数才引入了系统性的偏差。

DistDF通过将预测序列与真实标签序列建模为完整的概率分布,实现了对任务维度上相关结构的整体性建模。优化基于分布对齐的损失函数,使得模型能够显式地学习并复现标签序列的整体形态、协方差结构以及复杂的条件依赖关系。

更进一步,这项研究揭示的问题具有高度的普适性。只要机器学习任务的输出构成具有显著相关性的序列——无论是语音识别中的梅尔频谱、图像生成中的像素序列、自然语言处理中的文本,还是用户行为分析中的轨迹序列——如果仍然沿用基于独立性假设的损失函数(如MSE或MAE),就必然会引入结构性偏差,限制模型性能上限。因此,DistDF所倡导的联合分布对齐思想,不仅为时间序列预测指明了新方向,也同样为语音合成、视频预测、轨迹生成等序列输出任务提供了深刻的启示。它并非针对时间序列的特定技巧,而是为多任务学习与序列建模问题提供了一种更为通用、更为本质的损失函数构造新范式。

本工作得到了北京市科学技术委员会、中关村科技园区管理委员会的大力支持。

来源:https://www.leiphone.com/category/ai/5oydINXpChEjEWjL.html

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章
更多
DeepSeek终端助手发布 美国开发者打造命令行AI工具

DeepSeek终端助手发布 美国开发者打造命令行AI工具

最近在终端编程工具领域,有个项目挺有意思,叫 DeepSeek-TUI。简单来说,你可以把它看作是为 DeepSeek 模型量身打造的“终端版编程智能体”,类似于 Claude Code 或 GPT 的 Codex 这类工具,当然,这个类比只是为了方便理解。 这事儿起因还挺有趣。前两天在社交媒体上,

时间:2026-05-16 18:26
Claude AI梦境研究:人工智能的潜意识与进化

Claude AI梦境研究:人工智能的潜意识与进化

Claude开始“做梦”了。这听起来有点科幻,但确实是Anthropic为其Claude Managed Agents平台推出的最新功能——“Dreaming”。 就像人有时白天百思不得其解,睡一觉反而豁然开朗一样,现在AI也学会了这招。这项功能允许AI在工作间隙“睡觉”反思,进行记忆清理、规律总结

时间:2026-05-16 18:26
宇树人形机器人应用商店UniStore正式开放

宇树人形机器人应用商店UniStore正式开放

今天,人形机器人领域迎来一个里程碑式进展。宇树科技正式宣布,其全球首创的人形机器人任务动作应用商店——UniStore官方共享应用平台,现已面向全球开发者与用户全面开放。 通俗地讲,UniStore平台相当于人形机器人的“专属应用商店”。开发者能够上传自主编写的机器人动作程序与任务模块,用户则可像在

时间:2026-05-16 18:14
Midjourney体积雾模拟教程 轻松营造氛围感画面

Midjourney体积雾模拟教程 轻松营造氛围感画面

在Midjourney中创作具有真实空气感与空间深度的雾气效果时,你是否常遇到画面扁平或质感虚假的困扰?这通常源于提示词与参数组合不够精准——真正的体积雾效需要一套系统化的指令策略,而非简单添加“fog”一词。以下这套经过反复验证的实战方法,将引导你把“雾气”从一层单调的贴图,转化为真正弥漫于场景之

时间:2026-05-16 18:14
智能电池摄像头选购指南 灵活安装与安全监控全解析

智能电池摄像头选购指南 灵活安装与安全监控全解析

如今,家庭安防的选择越来越丰富,其中,智能电池摄像头以其独特的灵活性和强大的安全性能,正成为许多用户的首选。它不再仅仅是“记录画面”,而是通过先进的目标检测算法,将主动预警和智能监控提升到了一个新高度。无论是实时记录动态,还是及时推送通知,都让安全防护变得更加主动和便捷。加上其免布线的安装特性和多样

时间:2026-05-16 18:14
热门专题
更多
刀塔传奇破解版无限钻石下载大全 刀塔传奇破解版无限钻石下载大全
洛克王国正式正版手游下载安装大全 洛克王国正式正版手游下载安装大全
思美人手游下载专区 思美人手游下载专区
好玩的阿拉德之怒游戏下载合集 好玩的阿拉德之怒游戏下载合集
不思议迷宫手游下载合集 不思议迷宫手游下载合集
百宝袋汉化组游戏最新合集 百宝袋汉化组游戏最新合集
jsk游戏合集30款游戏大全 jsk游戏合集30款游戏大全
宾果消消消原版下载大全 宾果消消消原版下载大全
  • 日榜
  • 周榜
  • 月榜
热门教程
更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程