idea有了!多尺度时间序列新SOTA!
🧀当我们面对复杂模式和多变周期的应用场景(比如金融市场分析)时,采用多尺度时间序列来做分析和预测是个更好的选择。
🧀这是因为:传统时序方法通常只用固定时间窗口来提取信息,难以适应不同时间尺度上的模式变化。但多尺度时间序列通过调整时间分辨率和距离,不仅能捕捉到时序的局部细节,还能把握其长期趋势和周期性变化。这就大大提升了模型对新数据集的适应性和不同应用场景迁移能力,让我们能够实现更精确的时间序列预测。
🧀举个比较热门的例子:Pathformer。 Pathformer结合了时间分辨率和时间距离的概念,采用自适应Pathways来根据输入时序的时间特征动态提取和聚合多尺度特征,取得了SOTA预测效果。
🧀除此之外,研究者们已经开发了很多创新的多尺度时间序列方案,我挑选了最新的10篇给各位作参考,开源代码贴心附上,欢迎各位讨论~
我还整理出了相关的论文+开源代码,以下是精选部分论文
论文1
标题:
A Multi-Scale Decomposition MLP-Mixer for Time Series Analysis
用于时间序列分析的多尺度分解MLP-Mixer
方法:
-
多尺度分解:提出一种多尺度分解方法,将输入时间序列分解为多个不同层次的子序列,通过不同层的MLP-Mixer学习不同时间尺度的特征。
-
多尺度时间分块:将时间序列沿时间维度划分为非重叠的多尺度分块,不同层使用不同大小的分块来捕捉不同时间尺度的模式。
-
MLP模块:在不同维度(通道、分块内和分块间)使用MLP模块,捕获通道间相关性、分块内变化和分块间变化。
-
残差损失:提出一种新的残差损失函数,约束分解残差的均值和自相关性,以提高分解的完整性。
创新点:
-
多尺度分解:通过多尺度分解,模型能够更好地捕捉时间序列中复杂的多尺度时间变化模式,显著提升了时间序列分析任务的性能,例如在长期预测任务中,MSE最高降低了9.8%。
-
多尺度时间分块:多尺度时间分块方法允许模型专注于不同时间尺度的特征学习,提高了模型对不同时间尺度模式的建模能力,例如在短期预测任务中,OWA最高降低了5.6%。
-
残差损失:残差损失函数的引入有效约束了分解残差,使得模型能够更彻底地分解时间序列数据,从而在预测任务中取得了更好的结果,例如在异常检测任务中,F1分数最高提升了33.1%。
论文2
标题:
MSGNet: Learning Multi-Scale Inter-Series Correlations for Multivariate Time Series Forecasting
MSGNet:学习多变量时间序列预测中的多尺度序列间相关性
方法:
-
频率域分析:利用快速傅里叶变换(FFT)提取时间序列的显著周期模式,并将时间序列分解为不同时间尺度。
-
自适应图卷积:引入自适应混合跳图卷积层,动态学习每个时间尺度上的序列间相关性。
-
多头注意力机制:结合多头注意力机制捕捉时间序列的内部依赖性。
-
多尺度模块:通过多个ScaleGraph块,对不同时间尺度的序列进行建模和聚合。
创新点:
-
多尺度建模:通过频率域分析和多尺度建模,MSGNet能够捕捉不同时间尺度上的序列间相关性,显著提升了多变量时间序列预测的准确性,例如在ETTh1数据集上,MSE降低了30.2%,MAE降低了33.1%。
-
自适应图卷积:自适应图卷积层能够动态学习序列间的复杂相关性,提高了模型对不同时间尺度模式的建模能力,使得模型在不同数据集上均表现出色。
-
多头注意力机制:结合多头注意力机制,MSGNet能够更好地捕捉时间序列的内部依赖性,进一步提升了预测性能,例如在ETTm2数据集上,MSE降低了26.5%,MAE降低了29.4%。
论文3
标题:
Breaking the Context Bottleneck on Long Time Series Forecasting
打破长序列时间序列预测中的上下文瓶颈
方法:
-
多尺度分解:提出Logsparse Decomposable Multiscaling(LDM)框架,通过多尺度分解将时间序列分解为不同尺度的子序列。
-
Logsparse Scale:引入Logsparse Scale,通过稀疏化处理减少长序列输入的过拟合问题,增强模型对长上下文的处理能力。
-
Transformer预测器:结合传统的Transformer预测器和多尺度分解,提高长序列预测的准确性和效率。
-
多尺度去噪:通过多尺度去噪机制,进一步清理扩散后的目标时间序列,提高预测精度。
创新点:
-
多尺度分解:通过多尺度分解,LDM能够有效处理长序列时间序列预测中的非平稳性和复杂模式,显著提升了预测性能,例如在ETTh1数据集上,MSE降低了11.7%,MAE降低了13.7%。
-
Logsparse Scale:Logsparse Scale的引入有效减少了长序列输入的过拟合问题,使得模型能够更好地处理长上下文,例如在ETTm2数据集上,MSE降低了12.1%,MAE降低了13.9%。
-
多尺度去噪:多尺度去噪机制进一步提高了预测精度,使得模型在长序列预测任务中表现出色,例如在ETTh2数据集上,MSE降低了13.1%,MAE降低了14.2%。
论文4
标题:
Generative Time Series Forecasting with Diffusion, Denoise, and Disentanglement
基于扩散、去噪和解耦的生成式时间序列预测
方法:
-
双向变分自编码器(BVAE):提出一种双向变分自编码器,用于生成时间序列的潜在表示。
-
耦合扩散概率模型:通过耦合扩散过程,同时增强输入和目标时间序列,减少数据的随机不确定性。
-
多尺度去噪分数匹配:引入多尺度去噪分数匹配机制,进一步清理扩散后的时间序列,提高预测精度。
-
解耦潜在变量:通过最小化总相关性,解耦潜在变量,提高模型的可解释性和稳定性。
创新点:
-
耦合扩散概率模型:通过耦合扩散过程,模型能够有效减少时间序列的随机不确定性,显著提升了预测性能,例如在Traffic数据集上,MSE降低了90%,CRPS降低了73%。
-
多尺度去噪分数匹配:多尺度去噪分数匹配机制进一步提高了预测精度,使得模型在不同数据集上均表现出色,例如在Electricity数据集上,MSE降低了71%,CRPS降低了31%。
-
解耦潜在变量:通过解耦潜在变量,模型的可解释性和稳定性得到了显著提升,例如在ETTh1数据集上,MSE降低了40%,CRPS降低了27%。