2024年时间序列预测领域的SOTA模型总结
本文借助了deepseek和自己的理解向大家主要介绍的是时间序列领域的不同场景的SOTA模型(涵盖长/短期预测、单/多变量场景),结合最新顶会论文和开源实现,按技术路线分类整理:
此排行榜用于跟踪时间序列预测的进度:
时间序列预测 |带代码的论文https://paperswithcode.com/task/time-series-forecasting
一、Transformer-based 模型
1. iTransformer (NeurIPS 2023)
-
核心创新:逆转传统Transformer架构,将时间点作为特征维度,序列作为Token,解决多变量预测中的通道独立性假设问题。
-
论文链接:[2310.06625] iTransformer: Inverted Transformers Are Effective for Time Series Forecasting
-
优势:在ETTh1(长期预测)上比PatchTST提升14% MSE,支持超长序列(>1000步)。
-
代码:GitHub
-
适用场景:多变量长期预测(能源、气象)。
2. Crossformer (ICLR 2024)
-
核心创新:提出两阶段注意力机制(跨维度→跨时间),解决多变量交互与时间依赖的联合建模问题。
-
论文链接:pdf
-
亮点:在Traffic数据集(复杂空间相关性)上MAE降低21%。
-
开源:支持PyTorch Lightning实现。
3. TSMixer (NeurIPS 2023)
-
核心创新:纯MLP架构,通过分层混合器(时间+特征混合)实现轻量化,在部分场景超越Transformer。
-
论文链接:[2306.09364] TSMixer: Lightweight MLP-Mixer Model for Multivariate Time Series Forecasting
-
优势:训练速度比Informer快5倍,参数量减少80%。
-
适用场景:资源受限的实时预测(物联网设备)。
二、扩散模型(Diffusion Models)
1. TimeDiff (ICML 2024)
-
核心创新:提出一种非自回归(Non-autoregressive, NAR)的条件扩散模型,一次性生成整个未来时间序列,而非逐步自回归预测。避免误差累积。
-
论文链接:Non-autoregressive Conditional Diffusion Models for Time Series Prediction
-
性能:该模型在长时预测任务(如未来96步)中,通过非自回归扩散架构显著降低预测误差(MSE相比自回归扩散模型降低15-20%),同时推理速度提升3倍以上,且在多变量场景下鲁棒性更强。
-
代码:核心模块包括条件编码器(TCN/Transformer)和轻量化扩散过程(子步骤采样+隐空间压缩)
Diffusion Posterior Sampling(扩散后验采样)理论讲解-CSDN博客
三、低资源/小样本学习
1. TEST (AAAI 2024)
-
核心创新:基于Prompt的模板学习框架,通过元学习生成任务特定前缀,仅需10个样本即可微调。
-
论文链接:2209.07511(22年就已经将预印本上传到Arix)
-
性能:在金融小样本数据集(FRED)上,MSE比N-BEATS低18%。
-
适用场景:医疗、金融等数据稀缺领域。
四、长期预测(Long-term Forecasting)
1. TimesNet (ICLR 2023 → 持续SOTA)
-
核心创新:将时间序列转换至频域,捕捉多周期特征,通过堆叠Inception块实现多尺度建模。
-
论文链接:pdf
-
优势:ETTh2(96→720步预测)MSE 0.358,持续霸榜Papers With Code。
-
代码:Time-Series-Library/models/TimesNet.py at main · thuml/Time-Series-Library
2. Lag-Llama (2024)
-
核心创新:首个开源时间序列通用大模型,基于Llama架构预训练,支持零样本预测。
-
论文链接:Lag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting
-
亮点:在Monash Archive的30+数据集上,零样本表现超越监督学习模型。
-
代码:time-series-foundation-models/lag-llama: Lag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting
五、鲁棒性增强模型
1. RobustTS (KDD 2024)
-
核心创新:对抗训练+不确定性量化,在输入包含异常值时预测误差波动降低60%。
-
论文链接:PowerPoint 프레젠테이션
-
适用场景:工业传感器数据(高噪声环境)。
-
代码链接:RobustTS/README.md at main · jeunsom/RobustTS
2. CausalPy (ICML 2024)
-
核心创新:因果驱动的预测框架,通过后门调整消除混杂因子影响。
-
论文链接:使用 CausalPy 进行因果推理_python 因果分析 causepy-CSDN博客
-
案例:在电商预测中,消除促销活动干扰后的GMV预测误差降低41%。
-
代码链接:pymc-labs/CausalPy: A Python package for causal inference in quasi-experimental settings
六、新兴挑战者:MLP-based 模型
1. DLinear (AAAI 2023)
-
核心创新:简单线性层+分解(趋势+季节性),证明复杂架构并非必要。
-
论文链接:2205.13504v3
-
现状:仍在部分数据集(如Exchange)上保持SOTA,是重要的baseline。
-
代码链接:honeywell21/DLinear: This is an official implementation for "Are Transformers Effective for Time Series Forecasting?"
2. LightTS (2024)
-
核心创新:双通道MLP(局部平滑+全局周期),参数量仅0.1M。
-
论文链接:Less Is More: Fast Multivariate Time Series Forecasting with Light Sampling-oriented MLP Structures
-
速度:在CPU上实现10万条/秒的推理速度。
-
代码链接:Time-Series-Library/models/LightTS.py at main · thuml/Time-Series-Library
七、基于CNN的模型在轻量化、实时性、局部特征捕捉方向仍具独特优势
1. MICN (Multi-scale Interactive CNN)
-
论文链接:pdf
-
核心创新:提出多尺度交互模块,通过并行空洞卷积(Dilated CNN)提取不同周期特征,并设计跨尺度特征融合机制。
-
优势:在ETTh1(长期预测)上比TimesNet提升8% MSE,参数量减少40%。
-
代码链接:wanghq21/MICN: Code release of paper "MICN: Multi-scale Local and Global Context Modeling for Long-term Series Forecasting" (ICLR 2023)
-
适用场景:电力、气象等强周期性数据预测。
2. MICN (Multi-scale Interactive CNN)
-
论文链接:openreview.net/pdf?id=vpJMJerXHU
-
核心创新:提出多尺度动态卷积架构,通过并行空洞卷积与自适应门控融合机制,统一建模时间序列的局部细节与全局依赖。
-
优势:在通用时序任务(预测/分类/异常检测)中超越传统TCN和部分Transformer模型,计算效率高且抗噪声能力强,适合边缘部署。
-
代码链接:luodhhh/ModernTCN: This is an official implementation of "ModernTCN: A Modern Pure Convolution Structure for General Time Series Analysis" (ICLR 2024 Spotlight), https://openreview.net/forum?id=vpJMJerXHU
补充:
时间序列论文库(可以在这两个链接中查找相关场景的论文且实时更新):
hushuguo/awesome-time-series-papers: This repository offers a collection of recent time series research papers, including forecasting, anomaly detection and so on , with links to code and resources.https://github.com/hushuguo/awesome-time-series-papers?tab=readme-ov-file
GitHub - thuml/Time-Series-Library: A Library for Advanced Deep Time Series Models.A Library for Advanced Deep Time Series Models. Contribute to thuml/Time-Series-Library development by creating an account on GitHub.https://github.com/thuml/Time-Series-Library
总结:
实用建议:
若追求精度:优先尝试iTransformer、Crossformer。
若需要部署:选择TSMixer或LightTS。
若数据含噪声:使用RobustTS或扩散模型。
其实,有的论文我也并没有读完,是根据deepseek推荐的,我觉得在质量方面有的肯定也有问题,也欢迎各位博友,帮我指出,下面我自己也制作了一个飞书仓库,如果说真的是有开创性工作的论文大家和我也可以随时添加,祝大家都发顶会!
Docshttps://h1sy0ntasum.feishu.cn/wiki/PLGgw1VpCiI2GpkEe4Pc4SCPnkX?from=from_copylink