作者:杰少

Deep Transformer Models for TSF

简 介

Transformer技术在诸多问题,例如翻译,文本分类,搜索推荐问题中都取得了巨大的成功,那么能否用于时间序列相关的数据呢?答案是肯定的,而且效果非常棒。本篇文章我们就基于Transformer的方法动态地学习时间序列数据的复杂模式,并且在时间序列相关的问题上取得了目前最好的效果。

方法

01

问题定义

假设时间序列有个每周的数据点:

对于一个步的预测,监督的ML模型的输入就是

我们输出的就是:

每个输出点可以是一个标量或者是一个包含了大量特征的向量。

02

模型框架

1. Encoder

Encoder由输入层、位置编码层和四个相同编码器层的堆栈组成。

输入层通过一个完全连接的网络将输入的时间序列数据映射到一个维度为的向量。这一步对于模型采用多头注意机制至关重要。

  • 使用sin和cos函数的位置编码,通过将输入向量与位置编码向量按元素相加,对时间序列数据中的顺序信息进行编码。

最终的向量被输入到四个encoder层。每个encoder层由两个子层组成:一个self-attention的子层和一个全连接的前馈子层。每个子层后面都有一个normalization层。编码器生成一个维向量,往后传入decoder层。

2. decoder层

此处Transformer的Decoder设计架构和最早的Transformer是类似的。Decoder包括输入层、四个相同的解码器层和一个输出层。Decoder输入从编码器输入的最后一个数据点开始。输入层将解码器输入映射到维向量。除了每个编码器层中的两个子层之外,解码器插入第三个子层以在编码器输出上应用自注意机制。

最后,还有一个输出层,它将最后一个Decoder层的输出映射到目标时间序列

我们在解码器中使用前look-ahead masking和在输入和目标输出之间的one-position的偏移,以确保时间序列数据点的预测将仅依赖于先前的数据点。

实验

01

效果比较

  • Transformer架构的效果远好于其他的效果

02

Time Delay Embedding实验

对于一个标量的序列数据,它的delay embedding(TDE)就是将每个scalar值映射到一个唯独的time-delay的空间,

我们发现并非是越大越好,在5-7之间是最好的。

小结

本文提出的基于Transformer的时间序列数据预测方法。与其他序列对齐的深度学习方法相比,

  • Transformer的方法利用self-attention对序列数据进行建模,可以从时间序列数据中学习不同长度的复杂依赖关系。

  • 基于Transformer的方案具有非常好的可扩展性,适用于单变量和多变量时间序列数据的建模,只需对模型实现进行最小的修改。

参考文献

  1. https://arxiv.org/pdf/2001.08317.pdf

往期精彩回顾适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑
AI基础下载黄海广老师《机器学习课程》视频课黄海广老师《机器学习课程》711页完整版课件

本站qq群851320808,加入微信群请扫码:

【数据挖掘】谷歌提出最新时序框架--Deep Transformer相关推荐

  1. 识别迷雾中的物体,谷歌提出最新目标检测算法Context R-CNN

    晓查 发自 凹非寺  量子位 报道 | 公众号 QbitAI 你能从下面的照片里看到什么吗? 呃,看起来像清晨的浓雾,但浓雾后面是什么,真的看不清楚.其实这是一群牛羚在山上行走. 虽然人眼已经无能为力 ...

  2. 思维碰撞!谷歌提出ViTGAN,用视觉Transformer训练GAN

    点上方计算机视觉联盟获取更多干货 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:新智元 AI博士笔记系列推荐 周志华<机器学习>手推笔记正式开源!可打印版本附pdf下载链接 卷积 ...

  3. 《强化学习周刊》第30期:Deep Mind开展人机交互的新试点研究、MIT提出神经进化优化框架...

    No.30 智源社区 强化学习组 强 化 学  习 研究 观点 资源 活动 关于周刊 强化学习作为人工智能领域研究热点之一,其研究进展与成果也引发了众多关注.为帮助研究与工程人员了解该领域的相关进展和 ...

  4. 谷歌提出 RNN 版 Transformer,或为长文本建模的当前最优解

    文 | 小轶 今天给大家介绍一篇谷歌的最新工作,解决的是 Transformer 的长文本处理问题.在原生 Transformer 中,attention 的复杂度是输入序列长度的平方级别,因此限制了 ...

  5. 谷歌提出MaskGIT:掩码生成图像Transformer

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 转载自:机器之心 来自谷歌研究院的研究者提出了一种使用双向 transformer 解码器的新型图像合成模型 ...

  6. ICCV2021 视频领域的纯Transformer方案!谷歌提出ViViT,在多个视频分类基准上SOTA!代码已开源!...

    关注公众号,发现CV技术之美 ▊ 写在前面 在本文中,作者提出了纯基于Transformer的视频分类模型.本文的模型从输入视频中提取时空token,然后由一系列Transformer层进行编码.为了 ...

  7. 7 Papers Radios | GCN大佬公开博士论文;谷歌提出扩展型BERT架构

    点击上方↑↑↑"视学算法"关注我 来源:公众号 机器之心 授权 本周的重要论文包括谷歌提出的扩展型 BERT 架构 Tapas,以及 GCN 作者的博士论文. 目录: SYNTHE ...

  8. 《预训练周刊》第27期:谷歌发布最新看图说话模型、GitHub:平台上30%的新代码受益于AI助手Copilot...

    No.27 智源社区 预训练组 预 训 练 研究 观点 资源 活动 关于周刊 本期周刊,我们选择了9篇预训练相关的论文,涉及少样本理解.图像检测.决策图.大模型微调.对话微调.分子建模.蛋白质结构预测 ...

  9. 【2021最新综述】Deep Neural Approaches to Relation Triplets Extraction:A Comprehensive Survey

    [2021最新综述]Deep Neural Approaches to Relation Triplets Extraction:A Comprehensive Survey 1 Introducti ...

最新文章

  1. java数据类型转化_JAVA基本数据类型及其转换
  2. Android5.0之CardView的使用
  3. Interface继承至System.Object?
  4. 爬虫篇 --- 分布式爬虫
  5. OpenCV3如何使用SIFT和SURF Where did SIFT and SURF go in OpenCV 3?
  6. mysqld: Can‘t create directory ‘D:\software\mysql-8.0.28-winx64\mysql-8.0.28-winx64\bin\ oftware\mys
  7. c语言c99标准_自学C语言之一
  8. CentOs搭建svn
  9. Python判断两个单词的相似度
  10. 如何用anaconda创建python项目_PyCharm+cmd中使用Anaconda 与 新建Python环境(Windows)
  11. 智能问答:LSTM 句子相似度分析
  12. 能搜python题的软件_中国大学MOOC的APP用Python玩转数据期末考试搜题公众号答案...
  13. 项目讨论:本地手机经销商怎样用移动站点开展本地营销?
  14. 蓝湖及PS测量设计稿的使用
  15. 让HTML img垂直居中的三种办法:
  16. sea新浪云计算机平台,新浪云计算SAE免费申请使用及域名绑定
  17. Pixelmator for Mac(图像编辑器)
  18. Android 天气APP(六)旋转风车显示风力、风向
  19. stm32直流电机控制—PID算法篇
  20. 火星超大nasa开源全景图分享

热门文章

  1. Sublime Text 2 代码片断
  2. UVA 307 Sticks
  3. 日本語を勉強するの日記(八)
  4. 深度优先 广度优先
  5. [0] OpenCV_Notes - 琐碎
  6. linux查找文件find
  7. 位操作在算法中的运用
  8. 新东方王强老师的感悟
  9. 转载:【opencv入门教程之三】:图片的载入|显示|输出
  10. JetPack——网络库封装