https://dearrongerr.github.io/Rongerr.github.io/literature/TSP/
期刊/年份 | 模型 | 论文题目 | 代码 | 作者团队 | 复现笔记 | 创新点 |
---|---|---|---|---|---|---|
NeurIPS2021 | Autoformer | Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting | https://github.com/thuml/Autoformer | 清华大学吴海旭 | 点击跳转 | 序列分解,自相关注意力 |
NeurIPS2022 | TDformer | First De-Trend then Attend:Rethinking Attention for Time-Series Forecasting | - | 美国在读PHD, 在亚马逊AI实验室 | ①从数学的角度证明线性注意力条件下,时域频域小波域注意力的的等价 ②STL 分解序列,趋势项 MLP,季节项傅里叶注意力 |
|
SegRNN | SegRNN: Segment Recurrent Neural Network for Long-Term Time Series Forecasting | https://github.com/lss-1138/SegRNN | 华南理工大学 | 点击跳转 | 将时间序列分段,然后嵌入,先交换维度,分段,然后送入 RNN 迭代 | |
ICLR2023 | TimesNet | 作者知乎专栏 | 自己摘出模型主要部分的 git 仓库 | 清华软院机器学习组,吴海旭 | 点击跳转 | 时序数据,一维转二维, encoderOnly topk 识别傅里叶能量最高的周期 96 -> 4天×24小时 数据 参数比较多,init 就有点慢 |
ICLR 2024 (Spotlight) |
iTransformer | ITRANSFORMER: INVERTED TRANSFORMERS AREEFFECTIVE FOR TIME SERIES FORECASTING | https://github.com/thuml/iTransformer | 清华软院机器学习组,阿里集团 |
时序论文相关工作
分成频域模型和时域模型叙述的
实际上应该是:
RNN 系,former 系,Linear 系
单输入,多输入
短时预测,长时预测