点击上方“AI遇见机器学习”,选择“星标”公众号

重磅干货,第一时间送

来自:机器之心

首次!无残差连接或归一化层,也能成功训练深度transformer。

尽管取得了很多显著的成就,但训练深度神经网络(DNN)的实践进展在很大程度上独立于理论依据。大多数成功的现代 DNN 依赖残差连接和归一化层的特定排列,但如何在新架构中使用这些组件的一般原则仍然未知,并且它们在现有架构中的作用也依然未能完全搞清楚。

残差架构是最流行和成功的,最初是在卷积神经网络(CNN)的背景下开发的,后来自注意力网络中产生了无处不在的 transformer 架构。残差架构之所以取得成功,一种原因是与普通 DNN 相比具有更好的信号传播能力,其中信号传播指的是几何信息通过 DNN 层的传输,并由内核函数表示。

最近,使用信号传播原则来训练更深度的 DNN 并且残差架构中没有残差连接和 / 或归一化层的参与,成为了社区感兴趣的领域。原因有两个:首先验证了残差架构有效性的信号传播假设,从而阐明对 DNN 可解释性的理解;其次这可能会实现超越残差范式的 DNN 可训练性的一般原则和方法。

对于 CNN,Xiao et al. (2018)的工作表明,通过更好初始化提升的信号传播能够高效地训练普通深度网络,尽管与残差网络比速度显著降低。Martens et al. (2021) 的工作提出了 Deep Kernel Shaping (DKS),使用激活函数转换来控制信号传播,使用 K-FAC 等强二阶优化器在 ImageNet 上实现了普通网络和残差网络的训练速度相等。Zhang et al. (2022) 的工作将 DKS 扩展到了更大类的激活函数,在泛化方面也实现了接近相等。

信号传播中需要分析的关键量是 DNN 的初始化时间内核,或者更准确地说,是无限宽度限制下的近似内核。对于多层感知机(MLP)以及使用 Delta 初始化的 CNN,该内核可以编写为仅包含 2D 函数的简单层递归,以便于进行直接分析。跨层 transformer 的内核演化更加复杂,因此 DKS 等现有方法不适用 transformer 或实际上任何包含自注意力层的架构。

在 MLP 中,信号传播是通过查看(一维)内核的行为来判断的,而 transformer 中的信号传播可以通过查看(高维)内核矩阵在网络层中的演化来判断。

该研究必须避免一种情况:对角线元素随深度增加快速增长或收缩,这与不受控制的激活范数有关,可能导致饱和损失或数值问题。避免秩崩溃(rank collapse)对于深度 transformer 的可训练性是必要的,而是否可以训练深度无残差 transformer 仍是一个悬而未决的问题。

ICLR 2023 盲审阶段的这篇论文解决了这个问题,首次证明了无需残差连接或归一化层时也可能成功训练深度 transformer。为此,他们研究了深度无残差 transformer 中的信号传播和秩崩溃问题,并推导出三种方法来阻止它们。具体而言,方法中使用了以下组合:参数初始化、偏置矩阵和位置相关的重缩放,并强调了 transformer 中信号传播特有的几种复杂性,包括与位置编码和因果掩蔽的交互。研究者实证证明了他们的方法可以生成可训练的深度无残差 transformer。

在实验部分,在 WikiText-103 和 C4 数据集上,研究者展示了使用他们主要的方法——指数信号保持注意力(Exponential Signal Preserving Attention, E-SPA),可以通过延长大约五倍的训练时间使得标准 transformer 与文中无残差 transformer 的训练损失相当。此外通过将这一方法与残差连接结合,研究者还表明无归一化层的 transformer 能够实现与标准 transformer 相当的训练速度。

论文地址:https://openreview.net/pdf?id=NPrsUQgMjKK

对于这篇论文,Google AI 首席工程师 Rohan Anil 认为是 Transformer 架构向前迈出的一大步,还是一个基础性的改进。

构造无捷径可训练的深层 Transformer

迄今为止,纠正 Transformer 秩崩溃(rank collapse)的唯一策略依赖于残差连接,该方式跳过了自注意力层固有的可训练性问题。与此相反,该研究直接解决这个问题。首先通过注意力层更好地理解信号传播,然后根据见解(insights)进行修改,以在深度 transformer 中实现对忠实信号的传输,无论是否使用残差连接,都可以对信号进行训练。

具体而言,首先,该研究对仅存在注意力的深度 vanilla transformer 进行了一下简单设置,之后他们假设该 transformer 具有单一头(h = 1)设置或具有多头设置,其中注意力矩阵 A 在不同头之间不会变化。如果块 l≤L 初始化时有注意力矩阵 A_l,则最终块的表示形式为 X_L:

对于上式而言,如果采用正交初始化,那么就可以在初始化时正交。

在上述假设下,如果采用表示跨位置输入核矩阵,经过一些简化处理后,可以得到如下公式:

从这个简化公式(深度仅注意力 transformer 中的核矩阵)中,可以确定对 (A_l)_l 的三个要求:

  1. 必须在每个块中表现良好,避免退化情况,如秩崩溃和爆炸 / 消失的对角线值;

  2. A_l 必须是元素非负 ∀l;

  3. A_l 应该是下三角∀l,以便与因果掩码注意力兼容。

在接下来的 3.1 和 3.2 节中,该研究专注于寻找满足上述需求的注意力矩阵,他们提出了 3 种方法 E-SPA、U-SPA 和 Value-Skipinit,每种方法都用来控制 transformer 的注意力矩阵,即使在很深的深度也能实现忠实的信号传播。此外,3.3 节演示了如何修改 softmax 注意力以实现这些注意力矩阵。

下图中,该研究对提出的两个 SPA 方案进行了验证,U-SPA 和 E-SPA,结果显示即使在网络较深时也能成功地避免仅注意力 vanilla transformers 中的秩崩溃现象。

实验

WikiText-103 基线:首先,该研究验证了没有残差连接的标准深度 transformer 是不可训练的,即使它们有归一化层 (LN) 和 transformed 激活,但本文的方法可以解决这个问题。如图 2 所示,可以清楚地看到,从标准 transformer 中移除残差连接使其不可训练,训练损失稳定在 7.5 左右。正如图 1 所示,标准 transformer 遭受了秩崩溃。

另一方面,该研究提出的 E-SPA 方法优于 U-SPA 和 Value-Skipinit。然而,与本文无残差方法相比,带有残差和 LN 的默认 transformer 仍然保持训练速度优势。

在表 1 中,该研究使用提出的方法评估了 MLP 块中不同激活函数的影响,以及 LN 在无残差 transformer 的使用。可以看到在深度为 36 处,本文方法针对一系列激活实现了良好的训练性能:DKS-transformed GeLU、TAT-transformed Leaky ReLU 以及 untransformed GeLU ,但不是 untransformed Sigmoid。通过实验还看到,层归一化对于训练速度而言相对不重要,甚至在使用 SPA 时对 transformed activation 的激活有害,因为 SPA 已经具有控制激活规范的内置机制。

在图 3 中,我们看到一种不需要更多迭代就能匹配默认 transformer 训练损失的方法是使用归一化残差连接。

表 2 显示带有归一化残差和 LN 的 E-SPA 优于默认的 PreLN transformer。

下图 4(a)表明 E-SPA 再次优于其他方法;4(b)表明训练损失差距可以通过简单地增加训练时间来消除。

ICLR盲审阶段就被评审赞不绝口的论文:会是Transformer架构的一大创新吗?相关推荐

  1. 论文的盲审和抽查有什么区别呢?

    论文盲审和论文抽检,其实都是检验论文的一种方法.所谓论文抽查,就是从一组数据中抽取一部分的检验数据,属于选择性检验.而盲审就是将未署名的学位论文交给不知道论文作者是谁的专家进行审核,与样本数据没有直接 ...

  2. 北邮计算机学院盲审名单,北京邮电大学

    各学院.研究院: 根据北京市教委关于研究生毕业及学历电子注册工作的安排,为保障我校研究生毕业工作顺利进行,现将我校2019年春季学期毕业硕士研究生(下称硕士生)的具体相关事宜安排如下: 一.2019年 ...

  3. 盲审不到4分的论文竟中了ICLR 2019??!!ICLR 2019官方这样回应

    ↑ 点击上方[计算机视觉联盟]关注我们 论文:<Encoding Category Trees Into Word-Embeddings Using Geometric Approach> ...

  4. 常识介绍---投稿---评审部分已审回、 评审已审回、 终审,盲审和外审

    最近省大创要结题了发了一篇论文.由于人生第一次写论文,投稿很多步骤不熟悉,造成了很多乌龙,最主要的是稿件审核问题,如下(未完待续): 一.审稿问题 1. 系统在接收投稿后,会发送收稿回执和交审理费通知 ...

  5. 学术圈要炸锅:论文作者和审稿人串通欺骗盲审,ACM Fellow发文痛斥!顶会“想中就中”...

    作者 | 琰琰.维克多 近日,ACM Fellow.美国里普罗维登斯布朗大学计算机科学卓越教学的罗伊斯家族教授迈克尔·利特曼(Michael L. Littman)在ACM通讯上发文,痛斥部分学者威胁 ...

  6. 研究生论文“盲审”“查重”再加码!毕业或将变的更加困难

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 本文整理自交汇点.东南大学研究生院.青塔人才等 2022年,研究生毕 ...

  7. 复旦大学硕士盲审 计算机学院,《复旦大学论文抽检、盲审工作的通知.doc

    关于做好2012年上半年硕士学位论文抽检.盲审工作的通知 学位办字[2012]3号 各院系: 为切实把好我校硕士学位论文质量关,本学期我校仍同时开展上海市硕士学位论文抽检工作及校内硕士学位论文双盲评阅 ...

  8. 复旦大学硕士盲审 计算机学院,上海市硕士论文盲审 复旦大学论文抽检、盲审工作的通知...

    关于做好2012年上半年硕士学位论文抽检.盲审工作的通知 学位办字[2012]3号 各院系: 为切实把好我校硕士学位论文质量关,本学期我校仍同时开展上海市硕士学位论文抽检工作及校内硕士学位论文双盲评阅 ...

  9. 华科计算机博导刘云生论文,关于对博士学位论文进行盲审的通知

    各院(系): <华中科技大学博士学位论文评审暂行规定(试行)>(校研[2013]15号文)已印发,请各院(系)遵照执行.现就具体工作事项通知如下: 一.送审材料 1.经导师.院系审核通过后 ...

最新文章

  1. TypeScript 1
  2. 近期论文中的数据集整理0409
  3. 前端学习记录 JS DOM
  4. .NET Framework、C#语言、IDE、CLR 版本历史及其差异(最新)
  5. JSP中base href=%=basePath%的作用
  6. 汉诺塔游戏的python实现——递归函数
  7. 定向输出命令_网络工程师之linux重定向命令和管道命令详解
  8. kafka的分区策略(partition assignment strategy)
  9. 介绍一个好用的日期倒计时工具
  10. [vue-cli]vue-cli3你有使用过吗?它和2.x版本有什么区别?
  11. eclipse实现Android登录功能,eclipse开发安卓登录
  12. Virtual Treeview 5 0 0的安装以及入门
  13. ModelArts黑科技揭秘|弹性训练,让训练资源张弛有度
  14. dnf新起号怎么才不出人脸_DNF玩家花8千买号,还不到1年,眼前的一幕让他目瞪口呆...
  15. 解决:浏览器无法及时更新css样式等改动
  16. 【c++】构造函数初始化列表中成员初始化的次序性
  17. gateway网关_使用Sentinel实现gateway网关及服务接口限流
  18. 物资申请php,危废企业申请经营许可证需满足的条件及申请程序
  19. Spatial Transformer Networks(STN)-代码实现
  20. 阿里云视频服务之点播服务

热门文章

  1. 叮咚买菜业绩大幅低于预期,2023年前景堪忧
  2. 数据结构-第二章(5)-链式存储结构
  3. .Net给图片加上文字
  4. 晶振测试-振荡裕度 (OA) 测试
  5. python全栈学习总结六:装饰器
  6. iPad 使用 Teamviewer 远程输入英文引号问题解决
  7. docx文档怎么排列图片_Python-docx 对 word 文本处理实现自动化操作!
  8. 计算机视觉六大技术:图像分类、目标检测、目标跟踪、语义分割、实例分割、影像重建..
  9. 详解远程一键重装纯净版Win10/8/7/Vista/XP的方法和步骤
  10. 使用UE4动画混合空间实现侧向和后退移动