📌 时序论文阅读

https://dearrongerr.github.io/Rongerr.github.io/literature/TSP/

期刊/年份 模型 论文题目 代码 作者团队 复现笔记 创新点
NeurIPS2021 Autoformer Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting https://github.com/thuml/Autoformer 清华大学吴海旭 点击跳转 序列分解,自相关注意力
NeurIPS2022 TDformer First De-Trend then Attend:Rethinking Attention for Time-Series Forecasting - 美国在读PHD, 在亚马逊AI实验室 ①从数学的角度证明线性注意力条件下,时域频域小波域注意力的的等价
②STL 分解序列,趋势项 MLP,季节项傅里叶注意力
SegRNN SegRNN: Segment Recurrent Neural Network for Long-Term Time Series Forecasting https://github.com/lss-1138/SegRNN 华南理工大学 点击跳转 将时间序列分段,然后嵌入,先交换维度,分段,然后送入 RNN 迭代
ICLR2023 TimesNet 作者知乎专栏 自己摘出模型主要部分的 git 仓库 清华软院机器学习组,吴海旭 点击跳转 时序数据,一维转二维,
encoderOnly
topk 识别傅里叶能量最高的周期 96 -> 4天×24小时 数据
参数比较多,init 就有点慢
ICLR 2024
(Spotlight)
iTransformer ITRANSFORMER: INVERTED TRANSFORMERS AREEFFECTIVE FOR TIME SERIES FORECASTING https://github.com/thuml/iTransformer 清华软院机器学习组,阿里集团

时序论文相关工作

分成频域模型和时域模型叙述的

实际上应该是:

RNN 系,former 系,Linear 系

单输入,多输入

短时预测,长时预测

👾 本站运行时间:
发表了59篇文章 · 总计11万6千字
使用 Hugo 构建
主题 StackJimmy 设计