Transformer-based models have shown strong performance in time-series forecasting by leveraging self-attention to model long-range temporal dependencies. However, their effectiveness depends critically on the quality and structure of input representations derived from raw multivariate time-series data, particularly as sequence length and data scale increase. This paper proposes a two-stage forecasting framework that explicitly separates local temporal representation learning from global dependency modelling. In the proposed approach, a convolutional neural network operates on fixed-length temporal patches to extract short-range temporal dynamics and non-linear feature interactions, producing compact patch-level token embeddings. Token-level self-attention is applied during representation learning to refine these embeddings, after which a Transformer encoder models inter-patch temporal dependencies to generate forecasts. The method is evaluated on a synthetic multivariate time-series dataset with controlled static and dynamic factors, using an extended sequence length and a larger number of samples. Experimental results demonstrate that the proposed framework consistently outperforms a convolutional baseline under increased temporal context and remains competitive with a strong patch-based Transformer model. These findings indicate that structured patch-level tokenization provides a scalable and effective representation for multivariate time-series forecasting, particularly when longer input sequences are considered.


翻译:基于Transformer的模型通过利用自注意力机制建模长程时间依赖关系,在时间序列预测任务中展现出强大性能。然而,其有效性在很大程度上取决于从原始多元时间序列数据中提取的输入表示的质量与结构,尤其是在序列长度和数据规模增加的情况下。本文提出了一种两阶段预测框架,明确将局部时间表示学习与全局依赖关系建模相分离。在该方法中,卷积神经网络在固定长度的时间片段上进行操作,以提取短程时间动态特征和非线性特征交互,从而生成紧凑的片段级标记嵌入。在表示学习阶段应用标记级自注意力机制以优化这些嵌入表示,随后通过Transformer编码器建模片段间的时间依赖关系以生成预测。该方法在一个具有受控静态与动态因子的合成多元时间序列数据集上进行评估,使用了更长的序列长度和更大的样本数量。实验结果表明,所提出的框架在增加时间上下文的情况下持续优于卷积基线模型,并与基于片段的强Transformer模型保持竞争力。这些发现表明,结构化的片段级标记化为多元时间序列预测提供了可扩展且有效的表示方法,尤其是在考虑更长输入序列时。

0
下载
关闭预览

相关内容

数学上,序列是被排成一列的对象(或事件);这样每个元素不是在其他元素之前,就是在其他元素之后。这里,元素之间的顺序非常重要。
【ICML2022】Transformer是元强化学习器
专知会员服务
56+阅读 · 2022年6月15日
阿里巴巴发布最新《时间序列Transformer建模》综述论文
专知会员服务
137+阅读 · 2022年2月16日
【NeurIPS 2021】流形上的注意力机制:规范等变的Transformer
专知会员服务
237+阅读 · 2020年12月15日
时空序列预测方法综述
专知
22+阅读 · 2020年10月19日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
基于LSTM深层神经网络的时间序列预测
论智
22+阅读 · 2018年9月4日
基于 Keras 用深度学习预测时间序列
R语言中文社区
23+阅读 · 2018年7月27日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【ICML2022】Transformer是元强化学习器
专知会员服务
56+阅读 · 2022年6月15日
阿里巴巴发布最新《时间序列Transformer建模》综述论文
专知会员服务
137+阅读 · 2022年2月16日
【NeurIPS 2021】流形上的注意力机制:规范等变的Transformer
专知会员服务
237+阅读 · 2020年12月15日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员