TSP¶
约 665 个字 预计阅读时间 3 分钟
- NIPS(暑假要开始,收稿量非常大,同时质量非常过硬)——OpenReview
- ICLR(暑假刚结束)——OpenReview
- ICML(寒假结束)
关于分类:
- Oral:12 分钟口头陈述
- Splotlights(特别关注):4 分钟的口头演示
- Posters(海报):其余被接收的论文都是海报演示
- ORALS > Splotlights > POSTERS
- NeurIPS2019、LogTrans
- ICLR2020、Reformer
- NeurIPS2021 、Autoformer、清华大学吴海旭
- AAAI2021(Best Paper)、Informer
- ICLR2022 (Oral)、Pyraformer、上海交通大学、蚂蚁集团
- ICML2022、Fedformer、阿里达摩院
- IJCAI2022、Triformer
- NeuraIPS2022、SCINet
- AAAI2023 、 LTSF-Linear(DLinear、NLinear)
- NeurIPS2023 、TLNets
- NeurIPS2023 (Spotlight)、WITRAN、北京交通大学万怀宇团队
- ICLR2023、Crossformer
- 2023、TimesNet
- ICLR2023、PatchTST
- ICLR2023、SegRNN、华南理工大学
- ICLR2024、TimeMixer、蚂蚁集团、清华大学吴海旭
- ICLR 2024、、iTransformer、
- 2024、UnetTSF、中国科学技术大学、中国科学院
- VLDB2024(CCF-A)、TFB、华东师范大学决策智能实验室,华为云
PaperWithCode:Time Series Forecasting
- 特征之间的相关性、通道独立
- 注意力机制、复杂度
论文关键词¶
former 系、linear 系、RNN 系分别适用于什么情况?(TFB 中做了详细的实验,有结论。
- former 系适用于周期性明显的数据¶
Informer¶
概率稀疏自注意力
Autoformer¶
引入序列分解&自相关机制
基本遵循原始 Transformer 的设计 框架
应用于2022北京冬奥会 10 分钟天气预测、清华软院
Pyraformer¶
金字塔注意力,很复杂,有证明,引入了新概念:最大信号传递路径
Fedformer¶
频域信息,傅里叶&小波,改进Autoformer、专家混合分解,有频域的都不简单
TSF-Linear¶
: Informer、Pyraformer、Autoformer、Fedformer
提出了 6 个质疑:
- 难道不是历史回溯窗口越长越好吗?(还真不是,输入序列太长了以后,Transformer 系的模型性能反而下降了)
- Transformer 系模型从回溯窗口学到了什么?(close input&far input)
- 自注意力机制有用吗?(Informer 逐渐演变为线性模型性能 upup)
- Temporal Embedding真的保留了时间的顺序信息吗?(作者对输入颠倒顺序,发现Transformer 系的模型并没有受到太大的影响)
- 嵌入策略起了什么作用?
- 是训练数据集的规模限制了模型的性能吗?(然而并没有,反而保存了完整周期信息的训练数据更好)
- 效率和复杂度的优先级真的那么重要吗?
WITRAN¶
RNN 系文章
水波纹信息传输循环加速网络
- 非逐点语义信息捕获
- 内存占用 & 时间复杂度
贡献:
(1)水波纹信息传输:WIT
(2)水平垂直 门控选择单元: HVGSU
(3)循环加速网络:RAN
2025-03-02 16:39:45 2025-04-15 16:14:28