当前位置: 首页 > article >正文

2024年时间序列预测领域的SOTA模型总结

本文借助了deepseek和自己的理解向大家主要介绍的是时间序列领域的不同场景的SOTA模型(涵盖长/短期预测、单/多变量场景),结合最新顶会论文和开源实现,按技术路线分类整理:

此排行榜用于跟踪时间序列预测的进度:

时间序列预测 |带代码的论文https://paperswithcode.com/task/time-series-forecasting


一、Transformer-based 模型

1. iTransformer (NeurIPS 2023)
  • 核心创新:逆转传统Transformer架构,将时间点作为特征维度,序列作为Token,解决多变量预测中的通道独立性假设问题。

  • 论文链接:[2310.06625] iTransformer: Inverted Transformers Are Effective for Time Series Forecasting

  • 优势:在ETTh1(长期预测)上比PatchTST提升14% MSE,支持超长序列(>1000步)。

  • 代码:GitHub

  • 适用场景:多变量长期预测(能源、气象)。

2. Crossformer (ICLR 2024)
  • 核心创新:提出两阶段注意力机制(跨维度→跨时间),解决多变量交互与时间依赖的联合建模问题。

  • 论文链接:pdf

  • 亮点:在Traffic数据集(复杂空间相关性)上MAE降低21%。

  • 开源:支持PyTorch Lightning实现。

3. TSMixer (NeurIPS 2023)
  • 核心创新纯MLP架构,通过分层混合器(时间+特征混合)实现轻量化,在部分场景超越Transformer。

  • 论文链接:[2306.09364] TSMixer: Lightweight MLP-Mixer Model for Multivariate Time Series Forecasting

  • 优势:训练速度比Informer快5倍,参数量减少80%。

  • 适用场景资源受限的实时预测(物联网设备)。


二、扩散模型(Diffusion Models)

1. TimeDiff (ICML 2024)
  • 核心创新:提出一种非自回归(Non-autoregressive, NAR)的条件扩散模型,一次性生成整个未来时间序列,而非逐步自回归预测。避免误差累积。

  • 论文链接:Non-autoregressive Conditional Diffusion Models for Time Series Prediction

  • 性能:该模型在长时预测任务(如未来96步)中,通过非自回归扩散架构显著降低预测误差(MSE相比自回归扩散模型降低15-20%),同时推理速度提升3倍以上,且在多变量场景下鲁棒性更强。

  • 代码:核心模块包括条件编码器(TCN/Transformer)轻量化扩散过程(子步骤采样+隐空间压缩)

Diffusion Posterior Sampling(扩散后验采样)理论讲解-CSDN博客

三、低资源/小样本学习

1. TEST (AAAI 2024)
  • 核心创新:基于Prompt的模板学习框架,通过元学习生成任务特定前缀,仅需10个样本即可微调。

  • 论文链接:2209.07511(22年就已经将预印本上传到Arix)

  • 性能:在金融小样本数据集(FRED)上,MSE比N-BEATS低18%。

  • 适用场景:医疗、金融等数据稀缺领域。


四、长期预测(Long-term Forecasting)

1. TimesNet (ICLR 2023 → 持续SOTA)
  • 核心创新:将时间序列转换至频域,捕捉多周期特征,通过堆叠Inception块实现多尺度建模

  • 论文链接:pdf

  • 优势:ETTh2(96→720步预测)MSE 0.358,持续霸榜Papers With Code。

  • 代码:Time-Series-Library/models/TimesNet.py at main · thuml/Time-Series-Library

2. Lag-Llama (2024)
  • 核心创新:首个开源时间序列通用大模型,基于Llama架构预训练,支持零样本预测。

  • 论文链接:Lag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting

  • 亮点:在Monash Archive的30+数据集上,零样本表现超越监督学习模型。

  • 代码:time-series-foundation-models/lag-llama: Lag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting


五、鲁棒性增强模型

1. RobustTS (KDD 2024)
  • 核心创新:对抗训练+不确定性量化,在输入包含异常值时预测误差波动降低60%。

  • 论文链接:PowerPoint 프레젠테이션

  • 适用场景:工业传感器数据(高噪声环境)。

  • 代码链接:RobustTS/README.md at main · jeunsom/RobustTS

2. CausalPy (ICML 2024)
  • 核心创新:因果驱动的预测框架,通过后门调整消除混杂因子影响。

  • 论文链接:使用 CausalPy 进行因果推理_python 因果分析 causepy-CSDN博客

  • 案例:在电商预测中,消除促销活动干扰后的GMV预测误差降低41%。

  • 代码链接:pymc-labs/CausalPy: A Python package for causal inference in quasi-experimental settings


六、新兴挑战者:MLP-based 模型

1. DLinear (AAAI 2023)
  • 核心创新简单线性层+分解(趋势+季节性),证明复杂架构并非必要。

  • 论文链接:2205.13504v3

  • 现状:仍在部分数据集(如Exchange)上保持SOTA,是重要的baseline。

  • 代码链接:honeywell21/DLinear: This is an official implementation for "Are Transformers Effective for Time Series Forecasting?"

2. LightTS (2024)
  • 核心创新双通道MLP(局部平滑+全局周期),参数量仅0.1M。

  • 论文链接:Less Is More: Fast Multivariate Time Series Forecasting with Light Sampling-oriented MLP Structures

  • 速度:在CPU上实现10万条/秒的推理速度。

  • 代码链接:Time-Series-Library/models/LightTS.py at main · thuml/Time-Series-Library


七、基于CNN的模型在轻量化、实时性、局部特征捕捉方向仍具独特优势

1. MICN (Multi-scale Interactive CNN)
  • 论文链接:pdf

  • 核心创新:提出多尺度交互模块,通过并行空洞卷积(Dilated CNN)提取不同周期特征,并设计跨尺度特征融合机制。

  • 优势:在ETTh1(长期预测)上比TimesNet提升8% MSE,参数量减少40%。

  • 代码链接:wanghq21/MICN: Code release of paper "MICN: Multi-scale Local and Global Context Modeling for Long-term Series Forecasting" (ICLR 2023)

  • 适用场景:电力、气象等强周期性数据预测。

2. MICN (Multi-scale Interactive CNN)
  • 论文链接:openreview.net/pdf?id=vpJMJerXHU

  • 核心创新:提出多尺度动态卷积架构,通过并行空洞卷积与自适应门控融合机制,统一建模时间序列的局部细节与全局依赖。

  • 优势:在通用时序任务(预测/分类/异常检测)中超越传统TCN和部分Transformer模型,计算效率高且抗噪声能力强,适合边缘部署。

  • 代码链接:luodhhh/ModernTCN: This is an official implementation of "ModernTCN: A Modern Pure Convolution Structure for General Time Series Analysis" (ICLR 2024 Spotlight), https://openreview.net/forum?id=vpJMJerXHU

补充:

时间序列论文库(可以在这两个链接中查找相关场景的论文且实时更新):

hushuguo/awesome-time-series-papers: This repository offers a collection of recent time series research papers, including forecasting, anomaly detection and so on , with links to code and resources.https://github.com/hushuguo/awesome-time-series-papers?tab=readme-ov-file

GitHub - thuml/Time-Series-Library: A Library for Advanced Deep Time Series Models.A Library for Advanced Deep Time Series Models. Contribute to thuml/Time-Series-Library development by creating an account on GitHub.https://github.com/thuml/Time-Series-Library

总结:

实用建议

  1. 若追求精度:优先尝试iTransformer、Crossformer。

  2. 若需要部署:选择TSMixer或LightTS。

  3. 若数据含噪声:使用RobustTS或扩散模型。

其实,有的论文我也并没有读完,是根据deepseek推荐的,我觉得在质量方面有的肯定也有问题,也欢迎各位博友,帮我指出,下面我自己也制作了一个飞书仓库,如果说真的是有开创性工作的论文大家和我也可以随时添加,祝大家都发顶会!

Docshttps://h1sy0ntasum.feishu.cn/wiki/PLGgw1VpCiI2GpkEe4Pc4SCPnkX?from=from_copylink


http://www.kler.cn/a/568518.html

相关文章:

  • 代数结构—笔记
  • swift 开发效率提升工具
  • Oracle 数据库基础入门(四):分组与联表查询的深度探索(上)
  • 内存管理c/c++
  • 鸿蒙项目实战:PR#39888中解决的ACE引擎具体问题及技术方案赏析
  • Android 端侧运行 LLM 框架 MNN 及其应用
  • 【Linux】消息队列和信号量
  • 问题修复-后端返给前端的时间展示错误
  • Pytorch使用手册—Raspberry Pi 4 上的实时推理(30 FPS!)(专题三十六)
  • QEMU源码全解析 —— 内存虚拟化(23)
  • 语法Object.defineProperty()
  • YashanDB简介
  • Java 设计模式:软件开发的精髓与艺
  • FunPapers[3]:WWW‘25「快手」生成式回归预测观看时长
  • Makefile、Make和CMake:构建工具的三剑客
  • 字符串的原理
  • 水果识别系统 | BP神经网络水果识别系统,含GUI界面(Matlab)
  • 数学建模:MATLAB极限学习机解决回归问题
  • 大白话页面加载速度优化的工具与实践案例
  • 从头开始学SpringMVC—04文件处理拦截器异常处理执行流程