当前位置: 首页 > article >正文

【论文阅读】LightTS:少即是多:基于轻采样的MLP结构的快速多元时间序列预测

Less Is More: Fast Multivariate Time Series Forecasting with Light Sampling-oriented MLP Structures

原文链接:Less Is More: Fast Multivariate Time Series Forecasting with Light Sampling-oriented MLP Structures

目录

原文

摘要

1.引言

2.相关工作

统计方法

基于深度学习的方法

3.我们的模型

问题定义

体系结构概述

连续采样和间隔采样

信息交换块

训练过程

4.实验

实验设置

比较的基线方法

主要结果

FLOPS和运行时间的比较 

​编辑

鲁棒性分析

消融实验

5.讨论:通道投影研究

6.结论


 

原文

摘要

  多元时间序列预测在金融、交通、能源、医疗等领域有着广泛的应用。为了捕捉复杂的时间模式,大量的研究设计了基于RNN、GNN和Transformer的复杂神经网络结构。然而,复杂模型的计算量往往很大,因此在应用于大规模真实数据集时,其训练和推理效率面临严峻挑战。本文首先介绍了一个轻量级的深度学习体系结构LightTS,该体系结构仅基于简单的基于MLP的结构。LightTS的核心思想是在两种精细的下采样策略(包括间隔采样和连续采样)之上应用基于MLP的结构,这一点受到下采样时间序列通常保留其大部分信息的关键事实的启发。我们在八个广泛使用的基准数据集上进行了广泛的实验。与现有的最新方法相比,LightTS在其中5种方法上表现出了更好的性能,在其余方法上表现出了相当的性能。此外,LightTS的效率非常高。在最大的基准测试数据集上,与以前的SOTA方法相比,它使用的FLOPS不到5%。此外,在长序列预测任务中,LightTS具有鲁棒性,并且预测精度的方差比先前的SOTA方法小得多。我们的代码和数据集可在匿名链接中获取。https://tinyurl.com/5993cmus

CCS概念·计算方法→人工智能。关键词:时间序列预测,多层感知器

1.引言

  多元时间序列作为一种基本的真实世界数据类型,它由多个时间相关的变量组成,更重要的是,每个变量不仅依赖于其过去的值,而且还依赖于其他变量。多变量时间序列预测已成为经济、交通、能源、医疗等领域的重要应用任务。重要的建模挑战在于捕获1)每个变量的复杂时间模式(包括短期局部模式和长期全局模式)以及2)不同变量之间的复杂相互依赖性。由于深度学习对复杂模式建模的能力,特别是其在计算机视觉和自然语言处理任务中的成功应用,将深度神经网络应用于多变量时间序列预测[15]而不是传统方法(如ARIMA [3],Holt-Winters [5]等)的研究兴趣显着增长。

  特别是,随着计算能力的提高和神经网络架构的发展,许多最近的研究将目光转向了RNN,GNN和Transformer领域。例如,LSTNet [8]和TPR-LSTM [17]使用卷积神经网络(CNN),递归神经网络(RNN)和注意力机制[22]的混合来捕获长期/短期依赖性。Informer [27]和Autoformer [23]进一步探索了Transformer在捕获时间序列的长距离依赖性方面的潜力。MTGNN [24],StemGNN [4]和IGMTF [25]使用图神经网络(GNNs)来显式地建模变量之间的依赖关系。虽然所有这些提出的复杂深度学习模型在特定场景下都表现出了良好的性能,但引入的复杂深度学习模型神经网络结构通常表示计算上昂贵的训练和推理过程,特别是当面对具有长输入长度和许多多个相关变量的时间序列时。此外,复杂的神经网络架构由于大量的参数[7,27]而总是数据饥饿的,这可能会导致训练模型在可用训练数据量有限时不鲁棒。受上述挑战的启发,我们自然会提出一个问题,是否有必要应用复杂且计算昂贵的模型来实现多变量时间序列预测的最新性能?

  在本文中,我们探讨了使用简单和轻量级神经网络架构的可能性,即,仅使用简单的多层感知器(MLP)结构,对多变量时间序列进行精确预测。具体来说,由于时间序列的趋势,季节性和不规则特征,下采样时间序列通常保留其大部分信息[11],因此我们提出了LightTS,这是一种完全基于简单的基于MLP的结构构建的轻型深度学习架构。LightTS的核心思想是在两种精细的下采样策略(包括间隔采样和连续采样)之上应用基于MLP的结构,其灵感来自多变量时间序列的关键特征。更具体地说,连续采样侧重于捕获短期局部模式,而间隔采样侧重于捕获长期依赖性。在采样策略之上,我们提出了一种基于MLP的架构,可以在不同的下采样子序列和时间步长之间交换信息。通过这种方式,模型可以自适应地从局部和全局模式中选择有用的信息进行预测。此外,由于每次模型只需要处理下采样后输入序列的一小部分,因此我们的模型在处理输入长度很长的时间序列时非常高效

  本文的主要工作如下:

  • 提出了一种简单、高效、准确的多变量时间序列预测模型LightTS。据我们所知,这是第一次证明了基于MLP的结构在多变量时间序列预测中的巨大潜力。
  • 根据时间序列的特殊性,提出了连续抽样和区间抽样两种方法。采样方法有助于有效捕获长/短期模式,并提高长输入序列的效率。
  • 实验结果表明,LightTS能够胜任短序列和长序列预测任务。在8个广泛使用的基准测试数据集中,LightTS的性能超过了最先进的方法。此外,LightTS的效率非常高。与之前的SOTA方法相比,LightTS在最大基准测试数据集上使用的FLOPS不到5%。此外,在长序列预测任务中,LightTS具有鲁棒性,并且预测精度的方差比先前的SOTA方法小得多。

  我们希望我们的研究结果可以激发超越RNN,GNNN和Transformers领域的进一步研究。我们对论文的其余部分进行了如下组织。我们从第二节的相关工作开始。我们在3.1中正式定义了我们的问题,并在3.2节中提出了我们的模型LightTS。我们目前的实验结果见第四节。我们将在第5节进行讨论。我们在第6节总结了我们的论文。

2.相关工作

时间序列预测方法通常可以分为基于统计和基于深度学习的方法。

统计方法

  时间序列预测的统计方法已经研究了很长时间。传统的方法包括自回归(AR)、移动平均(MA)和自回归移动平均(阿尔马)。自回归综合移动平均模型(ARIMA)[3]通过引入积分的概念来扩展阿尔马模型。向量自回归模型(VAR)[3]是AR模型的一个扩展,它捕捉了不同时间序列之间的线性相关性。高斯过程(GP)[6]是一种贝叶斯方法,用于模拟连续函数上的多元时间序列的分布。统计方法因其简单性和可解释性而受到欢迎。然而,这些方法需要强的假设(例如平稳假设),并且不能很好地扩展到大型多元时间序列数据。

基于深度学习的方法

  最近,基于深度学习的方法在时间序列预测中越来越受欢迎。LSTNet [8]和TPR-LSTM [17]都采用卷积神经网络,递归神经网络和注意力机制[22]来建模不同时间序列之间的短期局部依赖性和长期时间依赖性。MTGNN [24],StemGNN [4]和IGMTF [25]利用图神经网络来显式地对不同时间序列之间的相关性进行建模。SCINet [11]对时间序列进行下采样,并使用卷积滤波器来提取特征和交互信息。VARMLP [26]是一种混合模型,它将AR模型和具有单个隐藏层的MLP相结合,这与我们提出的LightTS有很大不同。

  长序列时间序列预测(LSTF)在预测领域受到了越来越多的关注.LSTF对于各种实际应用(例如,能源消耗规划)。LSTNet [8]等基于RNN的模型在LSTF [27]中的预测能力有限。Informer [27]在LSTF任务的时间复杂度和存储器使用方面改进了vanilla Transformer [22]。自动生成器[23]使用分解和自相关机制来实现更好的结果。实验结果表明,LightTS算法在长序列时间序列预测中具有较高的预测效率和预测效果。

  提出一个用于多变量时间序列预测的纯MLP模型的部分动机是N-BEATS [15]。N-BEATS是第一个用于单变量时间序列预测的纯深度学习方法,在M4竞赛中实现了SOTA [13,15]。在N-BEATS的烧蚀研究中,其中反向残余连接被禁用,该架构变为纯MLP基结构。该架构显示出与N-BEATS相当的结果以及M4竞赛3的获胜解决方案。这一发现支持了这样一个事实,即经过精心设计,基于MLP的结构在捕获时间序列的历史模式方面是强大的。最近,已经为计算机视觉提出了几种基于MLP的架构,例如MLP混合器[20],gMLP [10]和ResMLP [21]。这种架构利用通道和空间令牌上的信息交换。与这些结构相比,我们的模型是不同的,因为我们考虑了在原始输入和下采样子序列的信息交换。

图1:LightTS的概述。在第一部分中,模型捕获了每个时间序列的短期/长期依赖关系并提取了特征。在第二部分中,模型学习不同时间序列之间的相互依赖关系并进行预测。

3.我们的模型

问题定义

我们首先制定多变量时间序列预测的问题。在时间戳t处,给定固定长度T的回看窗口,我们有一系列观测结果:𝑥𝑡𝑋𝑡𝑥𝑡-1、𝑥𝑡|𝑥𝑖∈ R𝑁},其中𝑁是时间序列的个数(即,多变量样本中的变量)。给定一个预测范围L,我们的目标是预测多个时间戳上的值{0}+1,...,𝑥𝑡或者是预测值为1/2+ 1/2,称为单步预测。长序列时间序列预测通常具有比100大得多的预测精度[27]。𝐿

体系结构概述

我们在图1中展示了LightTS的整体架构。回想一下,在多变量时间序列预测中有两个主要挑战:(1)捕获短期局部模式和长期全局模式;(2)捕获不同时间序列变量之间的相互依赖性。LightTS还包括两个部分,分别对应于这两个挑战。在第一部分中,我们处理不同的时间序列(即,输入变量)独立地进行,而不考虑它们的相互依赖性。这部分的目的是捕捉短期/长期的依赖关系,并提取每个时间序列相应的特征(第一次挑战)(The First Challenge),在第二部分中,我们连接所有时间序列并学习不同输入变量之间的相关性(第二个挑战)。这两个部分的关键组成部分是两种采样方法,称为连续采样和间隔采样,以及三个信息交换块(IEBlock),我们将在以下小节中详细介绍。

连续采样和间隔采样

我们首先介绍了LightTS中使用的采样策略。与其他序列数据(如自然语言和音频数据)相比,时间序列是一种特殊的序列,因为对时间序列进行下采样通常会保留其大部分信息[11]。然而,简单的下采样方法(如均匀采样)可能会导致信息丢失。受此启发,我们设计了连续和间隔采样,这有助于模型在不消除任何标记的情况下捕获局部和全局时间模式。

我们的采样方法将每个长度为T的时间序列转化为若干个长度为C的互不重叠的子序列。对于连续采样,每次我们连续地选择连续的C token作为一个子序列。因此,对于一个输入序列Xt,我们将其下采样为一个子序列,并获得一个2D矩阵,其中第j列为

对于间隔采样,每次我们以固定的时间间隔对C进行采样。与连续采样类似,区间采样的下采样矩阵的第j列为𝑡𝑋𝑖𝑛𝑡𝑗

所提出的采样方法有助于模型专注于特定的时间模式。例如,对于连续采样,我们将时间序列子采样为连续片段,而不使用长程信息。因此,该模型将更加关注短期局部模式。对于区间采样,我们将局部细节放在一边,模型将专注于长期的全局模式。这样的设计使得模型训练起来更有效,因为我们只需要处理输入序列的一小部分,特别是当输入序列很长的时候。我们强调,与朴素的下采样方法不同,我们在这里不消除任何标记。相反,我们保留所有原始令牌并将其转换为几个不重叠的子序列。下面的部分提出了一种基于MLP的架构,以从下采样的子序列中学习有用的特征。

图2:IEBlock和瓶颈设计的概述。

信息交换块

信息交换块(IEBlock)是我们为LightTS设计的基本构建块。简而言之,一个IEBlock采用一个形状为×的2矩阵,其中是时间维度,是通道维度。𝑊𝐷IEBlock的目标是利用沿着不同维度的信息交换,并输出另一个形状为“x”的特征图(“x”是与输出特征维度对应的超参数)。得到的矩阵可以看作是输入矩阵的提取特征。IE块是LightTS的关键组件,用于下采样部分和预测部分。

我们称这种架构为“瓶颈架构”,其中中间层特征维度远小于输出层特征维度。请注意,我们在下采样部分和预测部分都使用了IEBlock。在不同的地方,“”和“”可能有不同的含义。例如,在采样部分中,m对应于子序列的长度m,m对应于子序列的数量m。𝑇在预测部分中,λ对应于在第一部分中提取的特征维度,λ对应于时间序列变量的数量λ。在IEBlock中,我们在每个时间步上重复应用通道投影。当输入时间序列很长时,这样的操作导致昂贵的计算成本。因此,我们在IEBlock中提出了一个瓶颈设计。首先,我们使用一个时间投影来映射行数从到′。𝐻然后,信道投影被应用于传输信息。𝐹最后,我们使用一个输出投影将特征“"映射到所需的输出长度”“。我们称之为瓶颈设计,因为超参数F′比F和H小得多。

训练过程

现在,我们可以描述LightTS的训练过程。在第一部分中,我们将每个长度为的时间序列转换为一个2的矩阵,其形状为×,然后我们使用两个IEBlock-A和IEBlock-B(图1中的IEBlock-A和IEBlock-B)来提取相应的时间特征,并获得形状为R×的特征矩阵。𝑇𝐶每个特征矩阵然后通过简单的线性映射R→ R向下投影到R。𝐶𝐹因此,我们将每个时间序列映射到一个维数为的特征向量。这部分的重点是在不考虑不同时间序列变量相关性的情况下捕获长/短期时间模式。在第二部分中,我们将在第一部分中获得的所有特征连接起来。我们在时间维度上连接来自连续和间隔采样的特征,在通道维度上连接所有时间序列变量。这样,我们就得到了一个形状为R2×的输入矩阵。最后,我们引入了R2× → R×的另一个IEBlock-C.𝐿𝑁IEBlock-C的目标是从时间维度联合收割机短期局部模式和长期全局模式,从渠道维度结合不同输入变量之间的相关性。IEBlock-C的输出是我们最终的预测。

4.实验

我们在八个公共基准数据集上验证了LightTS,从短序列预测到长序列预测。在以前的研究[8,27]之后,我们使用单步设置用于短序列预测,多步设置用于长序列预测。我们证明了LightTS在准确性,效率和鲁棒性方面分别优于以前的方法。

实验设置

数据集。在表1中,我们总结了八个基准数据集的统计数据。根据先前研究[11,27]中的实验设置,对于短序列预测,我们使用太阳能、交通、电力和汇率数据集[8,24];对于长序列预测,我们使用电力Transformer温度(ETTh 1、ETTh 2、ETTm 1)、电力和天气数据集[27]。我们在附录A.1中提供了有关数据集的更多详细信息。

评估指标。为了进行公平比较,我们使用了与之前研究相同的评价指标[8,27]。我们使用均方误差(MSE)和平均绝对误差(MAE)来进行长序列预测。我们使用均方根误差(RSE)和经验相关系数(CORR)进行短序列预测。读者可以在附录A.2中找到更详细的信息。

比较的基线方法

我们将基线方法总结如下:

短序列预测。

  • AR:自回归模型。
  • VARMLP [26]。AR模型和MLP相结合的混合模型。
  • GP [16]。高斯过程模型。· RNN-GRU [24].一个带有GRU隐藏单元的递归神经网络。
  • LSTNet [8]。结合卷积神经网络和递归神经网络的混合模型。
  • TPR-LSTM [17].一种结合了递归神经网络和注意力机制的混合模型。
  • TCN [2]。典型的时间卷积网络。
  • SCINet [11]。样本卷积和交互作用的预测模型。
  • MTGNN [24]。一种基于GNN的方法,显式地对不同时间序列之间的相关性进行建模。

长序列预测除了LSTNet和SCINet,我们还比较了以下用于长序列预测的基线方法:

  • LogTrans [9]。Transformers的一个变体,具有LogSparse自注意机制。
  • Reformer[7]。Transformers的一个高效变体,具有局部敏感哈希。
  • LSTMa [1]。具有动态编码向量长度的递归神经网络的一种变体。
  • Informer[27]。Transformers的一个变体,带有ProbSparse自我注意机制。
  • Autoformer[23]。具有分解预测架构的变形金刚的变体。 

主要结果

表2和表3显示了LightTS的主要结果。我们可以观察到,LightTS在大多数情况下可以实现最先进或相当的结果。在下文中,我们分别讨论了短序列预测和长序列预测的结果。4.3.1长序列预测。表2给出了长序列预测任务的实验结果。LightTS在ETTh1、ETTh2、ETTm1和Electricity数据集的所有范围内都实现了最先进的结果,并在Weather数据集中实现了第二好的结果。特别是,对于最长的预测范围,LightTS分别将ETTh1,ETTh2,ETTm1和Electricity数据集的MSE降低了9.21%,33.90%,34.18%和13.60%。与Transformer模型(LogTrans、Reformer、Informer)、基于RNN的模型(LSTNet、LSTMa)和基于CNN的模型(TCN、SCINet)相比,LightTS在长序列预测任务中实现了显著的改进。一方面,连续和间隔采样可以帮助模型捕获短期的局部模式和长期的全局依赖性。另一方面,这种下采样设计对于模型有效处理非常长的输入序列至关重要。

短序列预测。表3给出了短序列预测任务的实验结果。我们可以观察到LightTS在Solar-Energy数据集上取得了最先进的结果。特别是在Solar-Energy数据集上,LightTS在第3、6、12、24层分别降低了4.16%、4.61%、3.90%、2.73%的RSE。我们还观察到RSE和CORR的评估指标不一致。例如,在Traffic数据集上,LightTS在RSE方面达到了最先进的结果,但在CORR方面略有落后。对于Traffic、Electricity和Exchange-Rate数据集,现有模型中没有一个能够始终优于其他模型。LightTS在这些数据集上提供了与MTGNN和SCINet相当的结果。此外,正如我们将在下一节中看到的,LightTS非常高效,在FLOPS和运行时间方面比MTGNN和SCINet具有显著的优势。

FLOPS和运行时间的比较 

我们比较了LightTS与以前的SOTA模型(Autoformer,MTGNN,SCINet)的FLOPS和运行时间。我们在表4和表5中给出了短序列预测中三个最大数据集和长序列预测中四个数据集的结果。LightTS、MTGNN和SCINet的超参数与生成表2和表3中的预测结果。结果表明,LightTS算法无论是在短序列预测还是长序列预测中,在FLOPS和运行时间上都具有明显的优势。对于Traffic数据集(具有最多变量的最大数据集),LightTS的FLOPS比MTGNN小96.2%,比SCINet小99.4%。此外,LightTS在每个历元的运行时间方面实现了MTGNN的44.5倍和SCINet的13.8倍的加速。对于长序列预测任务中的电力数据集,LightTS的FLOPS比SCINet小93.5%,比Autoformer小97.2%。。我们在具有两个12核Intel(R)Xeon(R)CPU E5-2690 v4@2.60GHz和一个Tesla V100 PCIe 16 GB的服务器上执行实验。

表2:长序列时间序列预测任务多步设定下的基线比较。

表3:短序列时间序列预测任务单步设置下的基线比较。

表4:Autoformer、MTGNN、SCINet和LightTS的FLOPS [19]。最佳型号用粗体标记。我们在表2和表3中报告了与每个数据集的最长预测范围相对应的模型的FLOPS。太阳能:SolarEnergy。ECL:电力。 

表5:我们报告了Autoformer,MTGNN,SCINet和LightTS的一个epoch的运行时间(以秒为单位)。我们在表2和表3中报告了具有最长预测范围的每个数据集的运行时间。每个模型的实验环境和批量相同。最好的模型用粗体标出。太阳能:太阳能。ECL:电力。 

鲁棒性分析

鲁棒性是长序列时间序列预测的关键问题。对趋势或季节性的错误预测会随着时间的推移逐渐积累,导致令人难以置信的误导性预测。在实验过程中,我们发现以前的长序列预测模型在随机种子中不具有鲁棒性,而LightTS可以提供稳定的结果。我们在表6中列出了ETTh1、ETTm1、天气和电力数据集上AutoFormer、SCINet和LightTS的标准差。我们可以观察到LightTS在预测准确性方面的差异比AutoFormer和SCINet小得多。我们还提出了不同的随机种子预测的阴影区LightTS,SCINet,和图3中的AutoFormer。我们可以观察到,LightTS在不同随机种子中的预测阴影区域比SCINet和AutoFormer小得多。LightTS在长序列预测中无论从准确性还是鲁棒性上都比现有方法有明显的优势。 

图3:从ETTh1(上排)和电力(下排)中随机选择的预测序列。阴影区域是在五种不同随机种子下进行训练的预测结果范围。

表6:LightTS、AutoFormer和SCINet在长序列预测中预测精度的平均值和标准差。我们在表2中报告了不同数据集的最长预测时间范围的结果。其结果是由五个随机种子估计的𝑚𝑒𝑎𝑛𝑠𝑡𝑑LightTS在预测准确性方面的差异比AutoFormer和SCINet小得多。

消融实验

我们进行了一项消融研究,以调查我们在LightTS中提出的组件的有效性。我们将没有不同组件的LightTS命名为:

  • w/o CP:没有通道投影的LightTS。通过这种方式,我们不依赖于不同时间序列的相互依赖性来进行预测。
  • w/o IS:LightTS,没有间隔采样。
  • w/o CS:LightTS,没有连续采样。

图4:Traffic数据集中一个变量的地面实况(黑色)和预测(橙子),预测范围为24。该变量有每日模式(短期局部模式)和每周模式(长期模式)。绿色箭头指向每日模式,其中连续采样的(a)和(B)在预测方面比(c)更准确。蓝色箭头指向每周模式,其中(a)和(c)具有区间采样,在预测方面比(B)更准确。

我们用不同的随机种子重复每个实验5次。我们在表7中报告了五次运行的RSE和CORR的平均值和标准差。通道投影的引入显著提高了太阳能和电力数据集的性能。这两个数据集的相互依赖性是显而易见的。相反,汇率数据集中的相互依赖性并不明显。MTGNN [24]中的观察结果类似,其中MTGNN在汇率方面也未能实现理想的结果。删除通道投影可改进ExchangeRate数据集中的结果。当不同时间序列之间的相互依赖性不明显时,强制模型捕获相互依赖性可能会对模型的性能产生负面影响。区间和连续采样的效果对所有数据集都很明显。我们还在图4中演示了区间采样和连续采样如何影响LightTS的预测。结果表明,连续采样有助于LightTS捕捉短期局部模式,而间隔采样有助于LightTS捕捉长期模式。

表7:不同数据集的消融研究结果。每个数据集的预测范围设置为24。每个设置的最佳结果以粗体标记。太阳能:SolarEnergy。汇率:汇率。

5.讨论:通道投影研究

多变量时间序列预测的主要挑战之一是捕捉不同时间序列之间的相互依赖性。在LightTS的设计中,IEBlock C中的通道投影是唯一能够传递不同时间序列信息的模块。在LightTS的实现中,通道投影是一个简单的线性层。问题是,一个简单的线性层是否足以模拟不同时间序列之间的相互依赖关系?回答这个问题有两个困难。第一个困难是如何量化LightTS建模的不同时间序列之间的相互依赖性。第二个困难是如何衡量LightTS所建模的相互依赖性的质量。

 

图5:由LightTS和MTGNN建模的相互依赖性之间的相关性。在我们的消融研究中,太阳能和电的通道投影的改进是显著的,这表明在这两个数据集中不同变量之间的相互依赖性是明显的。 

对于第一个困难,我们使用Deep SHAP(DeepLIFT + Shapley值)[12,18]来解释(和量化)LightTS中不同时间序列之间的相互依赖性。Deep SHAP是一种流行的方法,用于解释基于DeepLIFT [18]和SHAP [12]的深度学习模型的预测。对于给定的输入矩阵X,我们假设LightTS的预测为:

 

𝒚ˆ = ( ˆ𝑦 1,𝑦 ˆ 2, ...,()。对于第n个时间序列的预测,𝑘𝑦𝑘𝑁Deep SHAP可以解释输入矩阵中的每个元素如何对LightTS的预测做出贡献。假设输入数据的深度SHAP值为=()×,其中是预测数据的输入数据的属性。𝑗𝑥𝑖𝑗𝑖𝑠𝑘𝑁𝑗𝑖𝑠𝑘𝑆𝑘𝑋由于Deep SHAP是一种加性特征归因方法[12],因此Deep SHAP值的总和近似于预测[12]: 0 +=1 =1其中 0表示所有输入均缺失的模型输出[12]。𝑗𝑠𝑖𝑗𝑇𝑖𝑁𝑘𝑦因此,时间序列的输入对时间序列的预测的贡献如何,换句话说,LightTS对时间序列的预测如何依赖于时间序列。𝑖𝑘𝑘𝑦𝑘𝑖𝑗𝑖𝑠𝑘𝑗𝑇𝑖𝑠𝑘我们使用矩阵=(1,2,.,𝒆𝒆𝑵以量化LightTS中不同时间序列之间的相互依赖性,其中,𝑠𝑘𝑠𝑘𝒆𝒌𝑠𝑘𝑁)𝑇.更多实施细节见附录A.3。

 问题转向如何衡量LightTS所建模的相互依赖性的质量。对于许多多变量时间序列数据,时间序列之间的“真实的”相互依赖性没有定义。在这种情况下,我们使用MTGNN [24]建模的相互依赖性作为“地面实况”来衡量LightTS建模的相互依赖性的质量。MTGNN [24]是一种基于GNN的方法,它在训练过程中显式学习图结构,是多变量时间序列预测中最先进的方法之一。按照上述步骤,我们还可以计算矩阵k=(k1,k2,.,(c)以量化MTGNN中的相互依赖性。我们计算以下度量:= 1 = 1(,)其中(·,·)是两个向量之间的皮尔逊相关性。𝒎𝒊𝒆𝒊𝑖𝑁𝑁𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑡𝑖𝑜𝑛我们在图5中展示了我们实验中8种情况的结果。我们可以看到,LightTS建模的相互依赖性与MTGNN建模的相互依赖性高度相关。这些实证研究结果表明,一个简单的通道投影是足够的学习不同的时间序列之间的相互依赖性。

6.结论

本文提出了LightTS,一个简单的模型,仅基于多层感知器。LightTS的核心思想是在两种下采样策略之上应用基于MLP的架构。连续和间隔采样有助于模型捕获短期局部模式和长期时间依赖性。此外,由于该模型只需要处理下采样后的一小部分输入序列,因此我们的模型在处理具有很长输入序列的时间序列时非常高效。大量的实验表明,LightTS在短序列和长序列的多变量时间序列预测任务中是准确的,有效的,和鲁棒性。

 


http://www.kler.cn/a/582442.html

相关文章:

  • 实现客户端的网络不影响主线程且随时与服务器通信
  • html-表格标签
  • 蓝桥杯省赛真题C++B组-裁纸刀2022
  • 计算机视觉实战|NeRF 实战教程:基于 nerf_recon_dataset 的三维重建
  • MySQL库和表的操作详解:从创建库到表的管理全面指南
  • 45.HarmonyOS NEXT Layout布局组件系统详解(十二):高级应用案例与性能优化
  • 无标记点动作捕捉系统,无需穿戴设备,摄像头智能采集人体运动姿态
  • Webpack 优化深度解析:从构建性能到输出优化的全面指南
  • TDengine SQL 函数
  • JVM和运行时数据区
  • 国产化信创操作系统的电脑,能运行windows程序吗
  • 关于回归中R2指标的理解
  • docker搭建elk
  • 【学写LibreCAD】 4.1 RS_Undoable文件
  • 【Linux内核系列】:文件系统
  • 一文说清docker及docker compose的应用和部署
  • UI显示不出来问题(有的能显示出来一个方法,有的数据显示不出来另一个方法),多次尝试无果
  • CSPM-3级国标认证,项目管理如何成为组织变革的核心引擎?
  • 裂变营销策略在“开源链动2+1模式AI智能名片S2B2C商城小程序”中的应用探索
  • JavaScript性能优化实战:让你的Web应用飞起来