点上方蓝字计算机视觉联盟获取更多干货

在右上方 ··· 设为星标 ★,与你不见不散

仅作学术分享,不代表本公众号立场,侵权联系删除

转载于:作者丨Lilian

来源丨炼丹笔记

AI博士笔记系列推荐

周志华《机器学习》手推笔记正式开源!可打印版本附pdf下载链接

01 准备

02 Attention 以及 Self-Attention

1.Attention

  • 是神经网络中的一种机制:模型可以通过选择性地关注给定的数据集来学习做出预测。Attention的个数是通过学习权重来量化的,输出则通常是一个加权平均值。

2.Self-Attention

  • 是一种注意机制,模型利用对同一样本观测到的其他部分来对数据样本的剩下部分进行预测。从概念上讲,它感觉非常类似于non-local的方式。还要注意的是,Self-attention是置换不变的;换句话说,它是对集合的一种操作。

而关于attention和self-attention存在非常多的形式,我们之前常见的Transformer是依赖于scaled-dot-product的形式,也就是:给定query矩阵Q, key矩阵K以及value矩阵V,那么我们的输出就是值向量的加权和,其中,分配给每个值槽的权重由Quey与相应Key的点积确定。

对于一个query以及一个key向量, 























,我们计算下面的值:

其中, 









是keys的集合。

03 Multi-Head Self-Attention

multi-head self-attention是Transformer的核心组成部分,和简单的attention不同之处在于,Multihead机制将输入拆分为许多小的chunks,然后并行计算每个子空间的scaled dot product,最后我们将所有的attention输出进行拼接,

其中, 








是concate操作, 是权重矩阵,它将我们的输出embeddings(L*d)的映射到query,key,value矩阵,而且 























是输出的线性转化,这些权重都是在训练的时候进行训练的。

04 Transformer

Transformer,很多时候我们也称之为"vanilla Transformer", 它有一个encoder-decoder的结构,decoder的Transformer可以在语言建模的时候获得非常好的效果

Encoder-Decoder结构

Encoder生成一个基于attention的表示,能够从一个大的上下文中定位一个特定的信息片段。它由6个身份识别模块组成,每个模块包含两个子模块、一个multihead self-attention和一个point-wise全连接前馈网络。

按point-wise来说,这意味着它对序列中的每个元素应用相同的线性变换(具有相同的权重)。这也可以看作是滤波器大小为1的卷积层。每个子模块都有一个剩余连接和layer normalization。所有子模块输出相同维度的数据。

Transformer的decoder功能是从encoder的表示中抽取信息。该结构与encoder非常相似,只是decoder包含两个多头注意子模块,而不是在每个相同的重复模块中包含一个。第一个多头注意子模块被屏蔽,以防止位置穿越。

Positional Encoding

因为self-attention操作是permutation不变的,所以使用正确的位置编码是非常重要的,此处我们使用如下的位置编码来提供order信息,位置编码,我们可以直接将它们加入到我们到vanilla Transformer中,

  • (1).Sinusoidal positional encoding,给定token的位置 












    ,维度, 














  • (2).Learned positional encoding,对每个学习得到对列向量,对每个绝对位置进行编码。

辅助Loss

为了取得更好的效果,我们一般会加入辅助loss,

  • 除了在序列末尾只生成一个预测之外,还要求每个immediatge位置能做出正确的预测,迫使模型预测给定的较小上下文(例如,上下文窗口开头的前几个tokens)。

  • 每个中间Transformer也用于进行预测。随着训练的进行,较低层的权重对总损失的贡献越来越小。

  • 序列中的每个位置可以预测多个目标,即,对未来token的两个或多个预测。

05 ACT(Adaptive Computation Time)

Adaptive Computation Time是一种动态决定递归神经网络需要多少计算步骤的机制。

我们有一个RNN模型 




,它由输入的权重 









,一个参数话的状态迁移函数 







一个输出权重 









和一个输出的bias 









组成。给定一个输入序列 






















,输出的序列 





























是由:














ACT使上述RNN设置能够在每个输入元素上执行数量可变的步骤。大量的计算步骤会导致中间状态序列 































并且输出 































, 它们都共享相同的迁移状态函数 







, 以及相同的输出权重 



















:

其中是一个二元的flag,来表示是否输入步是递增的。

step的个数 







是由额外的sigmoidal halting单元 




决定的,带有相关的权重矩阵 









以及bias 









, 对于第 




输入元素在中间步骤 




处输出一个中止概率 












:








































为了使计算在一个步骤后停止,ACT引入了一个小常数 




(例如0.01),因此每当累积概率超过 






时,计算就会停止。

其中 




为中间步骤个数的上限。

最终状态和输出的mean-field的update:

避免对每个输入进行不必要的思考,ACT增加了ponder cost

用此来鼓励中间计算步骤的小的次数。

06 Improved Attention Span

提高Attention Span的目的是使可用于self-attention的上下文更长、更有效、更灵活。

1. Longer Attention Span(Transformer-XL)

vanilla Transformer有一个固定的和有限的注意广度。在每个更新步骤中,该模型只能处理同一段中的其他元素,并且没有任何信息可以在分离的固定长度段之间流动。也就是说层数固定不够灵活,同时对于算力需求非常大,导致其并不适合处理超长序列。

这种context segmentation会导致几个问题:

  • 模型不能捕获非常长期的依赖关系;

  • 在没有上下文或上下文很薄的情况下,很难预测每个片段中的前几个tokens。

  • 评估是昂贵的。每当segment右移一位时,新的segment就会从头开始重新处理,尽管有很多重叠的tokens。

Transformer-XL解决来上下文的segmentation问题:

  • 对于segments之间的隐藏状态进行重复使用;

  • 使用位置编码使其适用于重新使用的states;

Hidden state Reuse:

我们对第 




层 






的segment的隐藏状态打标签为 

























,除了对相同segment 


















的最后一层的英藏状态,我们还依赖于之前的segment 














的相同层的隐藏状态。通过从前面隐藏状态加入信息,模型可以将attention的广度进行扩大,可以在多个segments之间发挥作用:

key和value依赖于扩展的隐藏状态,同时query仅仅只依赖于当前步的隐藏状态, 








是序列长度的维度的concatenation操作。

2. Relative Positional Encoding

为了处理这种新的attention span的形式,Transformer-XL提出了一种新的位置编码。如果使用相同的方法对绝对位置进行编码,则前一段和当前段将分配相同的编码,这是不需要的。

为了保持位置信息流在各段之间的一致性,Transformer XL对相对位置进行编码,因为它足以知道位置的offset,从而做出更好的预测,即: 






,在一个key向量 











以及它的query之间 











如果我们省略 


















并且对它们以softmax的形式进行normalize,我们可以重写在位置的query和位置 




的key之间的attention分数:

上面的几项又可以被表示为:

  • 用相对位置编码 


















    替换 









    ;

  • 用两个可训练的参数 




    (针对内容)和 




    (针对位置)替换 















    ;

  • 将 









    划分为两个矩阵, 












    用于内容信息, 












    用于位置信息;

3. Adaptive Attention Span

Transformer的一个关键优势是能够捕获长期依赖关系。根据上下文的不同,模型可能更愿意在某个时候比其他人更进一步地注意;或者一个attention head可能有不同于另一个attention head的注意模式。如果attention span能够灵活地调整其长度,并且只在需要时再往回看,这将有助于减少计算和内存开销,从而在模型中支持更长的最大上下文大小(这就是Adaptive Attention Span的动机)。

后来Sukhbaatar等人提出了一种self-attention机制以寻找最优的attention span,他们假设不同的attention heads可以在相同的上下文窗口中赋予不同的分数,因此最优的span可以被每个头分开训练。

给定第 




个token,我们需要计算该token和其它在位置 











的keys的attention权重,其中 









定义了第 




个token第上下文窗口:

增加了一个soft mask函数 









来控制有效的可调attention span,它将query和key之间的距离映射成一个 








值。 















参数化, 




要学习:

其中 




是一个超参数,它可以定义 









的softness:

soft mask函数应用于注意权重中的softmax元素:a_{}

在上面的等式, 




是可微的,所以可以和模型的其它部分一起联合训练,参数 























每个head可以分开学习,此外,损失函数有额外的 









惩罚 






















利用Adaptive Computation Time,该方法可以进一步增强attention span的长度,动态地适应当前输入。attention head在时间t的跨度参数 









是一个sigmoid函数, 
























,其中向量 




和偏置标量 




与其他参数一起学习。

在具有自适应注意广度的Transformer实验中,Sukhbatar等人发现了一个普遍趋势,即较低层不需要很长的注意广度,而较高层的一些attention heads可能会使用非常长的注意广度。适应性attention span有助于大大减少失败的次数,特别是在一个有许多注意层和大上下文长度的大模型中。

4. Localized Attention Span (Image Transformer)

Transformer最初用于语言建模。文本序列是一维的,具有明确的时间顺序,因此attention span随着上下文大小的增加而线性增长。

然而,如果我们想在图像上使用Transformer,我们还不清楚如何定义上下文的范围或顺序。Image Transformer采用了一种图像生成公式,类似于Transformer框架内的序列建模。此外,图像Transformer将self-attention span限制在局部邻域内,因此模型可以放大以并行处理更多的图像,并保持可能性损失可控。

encoder-decoder架构保留用于image-conditioned生成:

  • encoder生成源图像的上下文化的每像素信道表示;

  • decoder自回归地生成输出图像,每个时间步每像素一个通道。

让我们将要生成的当前像素的表示标记为查询 




。其表示将用于计算 




的其他位置是关键向量 






















它们一起形成一个内存矩阵 




。 




的范围定义了像素查询 




的上下文窗口。

Image Transformer引入了两种类型的localized 




,如下所示。

  • (1).1D Local Attention:输入图像按光栅扫描顺序(即从左到右、从上到下)展平。然后将线性化后的图像分割成不重叠的查询块。上下文窗口由与 




    相同的查询块中的像素和在此查询块之前生成的固定数量的附加像素组成。

  • (2).2D Local Attention:图像被分割成多个不重叠的矩形查询块。查询像素可以处理相同内存块中的所有其他像素。为了确保左上角的像素也可以有一个有效的上下文窗口,内存块将分别向上、左和右扩展一个固定的量。

07 Less Time and Memory Cost

如何减少计算和内存的消耗。

1. Sparse Attention Matrix Factorization (Sparse Transformers)

  • 一般Transformer的计算和存储开销随序列长度呈二次增长,因此很难应用于很长的序列。

Sparse Transformer

引入分解的self-attention,通过稀疏矩阵分解,我们可以将训练上百层的dense的attention网络,这样序列长度就可以到达16384.

给定attention链接的模式集合 


























,其中 









记录key位置的集合,第 




个query向量可以扩展为:

尽管 









的size是不固定的, 



















是size为 









的,因此, 




























在自回归的模型中,一个attention span被定义为 



















, 它允许每个token可以处理过去的所有其它位置。

在分解的self-attention中,被分解为树的依赖,例如对于没对 








,其中 






, 存在一条路径链接 




和 




更加精确地说,集合 









被划分为 




个non-overlapping的子集,第 




个子集被表示为 





























,所以输出位置 




和任意的 




的路径有最大长度 






,例如,如果 


















是 




和 




的索引路径,我们有

Sparse Factorized Attention

Sparse Transformer提出了两类分解的attention,

  • Strided attention(stride 











    ,在图像中,每个像素可以链接到所有到之前 




    个像素raster scanning顺序,然后那些像素在相同列中相互链接。   






     






  • Fixed attention,一个小的tokens集合总结之前的位置并且向未来的位置传递信息:

其中 




是一个超参数.

Use Factorized Self-Attention in Transformer

存在三种方式使用sparse factorized attention模式的方法:

  1. 每个residual block的attention type,把它们交错起来, ,其中 




    是当前residual模块的index;

  2. 设置一个单独的head,它负责所有分解head负责的位置, ;

  3. 食欲哦那个一个multi-head attention机制,但是和原始的transformer不同,每个head可以接受上面的一种模式,1或者2.

稀疏Transformer还提出了一套改进方案,将Transformer训练到上百层,包括梯度检查点、在backward pass的时候重新计算attention和FF层、混合精度训练、高效的块稀疏实现等。

2. Locality-Sensitive Hashing (Reformer)

Reformer模型旨在解决Transformer中的下面几个痛点:

  • 具有N层的模型中的内存比单层模型中的内存大N倍,因为我们需要存储反向传播的activations。

  • 中间FF层通常相当大。

  • 长度为的序列上的注意矩阵通常在记忆和时间上都需要 












    的内存和时间;

Reformer进行了两种改变:

  • 将dot-product的attention替换为locality-sensitive hashing(LSH) attention,这将时间复杂度 












    从降低为 











    ;

  • 将标准residual block替换为reversible residual layer,这样在训练期间只允许存储一次激活,而不是 




    次(即与层数成比例)。

Locality-Sensitive Hashing Attention

在attention 










中,我们更加关注大的只,对于每个 











,我们在寻找 




中于 









最近的一个行向量,为了寻找它,我们在attention机制中加入:Locality-Sensitive Hashing (LSH)

如果它保留了数据点之间的距离信息,我们称hashing机制 









是locality-sensitive的,这么做相近的向量可以获得相似的hash,Reformer中,给定一个固定的随机矩阵 

















,其中 




是超参数,hash函数为

在LSH attention中,一个query只可以和在相同的hashing bucket中的位置进行交互, 



































,

  • attention矩阵通常是稀疏的;

  • 使用LSH, 我们基于hash buckets可以对keys和queries进行排序

  • 设置 






    ,这样,一个bucket中的keys和queries相等,更便于批处理。有趣的是,这种“共享QK”配置并不影响Transformer的性能。

  • 使用 




    个连续的group在一起的query的batching,

Reversible Residual Network

Reversible Residual Network的动机是设计一种结构,使任何给定层的激活都可以从下一层的激活中恢复,只需使用模型参数。因此,我们可以通过在backprop期间重新计算激活来节省内存,而不是存储所有激活。

给定一层 






, 传统的residual layer都是做的 











,但是reversible layer将输入和输出split为 


































,然后执行下面的操作:

reversing就是:

我们将相同的思想应用到Transformer中得到:

内存可以通过chunking 前向计算进行操作:

08 Make it Recurrent (Universal Transformer)

Universal Transformer将Transformer中的自我注意与RNN中的循环机制结合起来,旨在受益于Transformer的长期全局receptive field和RNN的学习inductive偏差。

Universal Transformer使用自适应计算时间动态调整步长。如果我们固定步数,一个通用变换器就相当于一个多层变换器,具有跨层共享的参数。

在较高的层次上,Universal Transformer可以看作是学习每个token的隐藏状态表示的递归函数。递归函数在标记位置之间并行演化,位置之间的信息通过self-attention进行共享。

给定长度为 




的序列,Universal Transformer在第步迭代更新表示 


















,在第0步, 









被出事为输入embedding矩阵,所以的位置编码在multi-head self-attenion中被并行处理,然后在经过一个recurrent transition function

Transition( 




)可以是一个 separable convolution或者fully-connected neural network。

在Universal Transformer的自适应版本中,循环步数 




由ACT动态确定。每个位置都配有一个动态停止机制。一旦每令牌循环块停止,它将停止进行更多的循环更新,而只是将当前值复制到下一步,直到所有块停止或直到模型达到最大步长限制。

09 Stabilization for RL (GTrXL)

Self-attention避免了将整个过去压缩成一个固定大小的隐藏状态,并且不像RNN那样受到梯度消失或爆炸的影响。强化学习任务肯定能从这些特质中受益。然而,即使在有监督学习中,也很难训练Transformer,更不用说在RL环境中了。毕竟,稳定和训练一个LSTM代理本身可能是相当具有挑战性的。

Gated Transformer-XL (GTrXL)是使用Transformer到RL中的一次尝试,GTrXL可以在Transformer-XL上成功稳定的训练。

  • layer normalization应用于residual模块中的输入流,而不应用于shortcut流。这种重新排序的一个关键好处是允许原始输入从第一层流到最后一层。

  • Residual连接被GRU样式选通机制取代。

参考文献:https://lilianweng.github.io/lil-log/2020/04/07/the-transformer-family.html#locality-sensitive-hashing-reformer

end

我是王博Kings,一名985AI博士,在Github上开源了机器学习、深度学习等一系列手推笔记,获得了不少同学的支持。

这是我的私人微信,还有少量坑位,可与相关学者研究人员交流学习 

目前开设有人工智能、机器学习、计算机视觉、自动驾驶(含SLAM)、Python、求职面经、综合交流群扫描添加CV联盟微信拉你进群,备注:CV联盟

王博Kings 的公众号,欢迎关注,干货多多

王博Kings的系列手推笔记(附高清PDF下载):

博士笔记 | 周志华《机器学习》手推笔记第一章思维导图

博士笔记 | 周志华《机器学习》手推笔记第二章“模型评估与选择”

博士笔记 | 周志华《机器学习》手推笔记第三章“线性模型”

博士笔记 | 周志华《机器学习》手推笔记第四章“决策树”

博士笔记 | 周志华《机器学习》手推笔记第五章“神经网络”

博士笔记 | 周志华《机器学习》手推笔记第六章支持向量机(上)

博士笔记 | 周志华《机器学习》手推笔记第六章支持向量机(下)

博士笔记 | 周志华《机器学习》手推笔记第七章贝叶斯分类(上)

博士笔记 | 周志华《机器学习》手推笔记第七章贝叶斯分类(下)

博士笔记 | 周志华《机器学习》手推笔记第八章集成学习(上)

博士笔记 | 周志华《机器学习》手推笔记第八章集成学习(下)

博士笔记 | 周志华《机器学习》手推笔记第九章聚类

博士笔记 | 周志华《机器学习》手推笔记第十章降维与度量学习

博士笔记 | 周志华《机器学习》手推笔记第十一章特征选择与稀疏学习

博士笔记 | 周志华《机器学习》手推笔记第十二章计算学习理论(上)

博士笔记 | 周志华《机器学习》手推笔记第十二章计算学习理论(下)

博士笔记 | 周志华《机器学习》手推笔记第十三章半监督学习

博士笔记 | 周志华《机器学习》手推笔记第十四章概率图模型

点个在看支持一下吧

超全!一文看懂 9 种Transformer结构!相关推荐

  1. 设计模式——结构型模式之代理模式和适配器模式(类比+图解,从无到有,一文看懂几种模式的区别)

    设计模式 系列文章: 一.创建型模式--工厂模式 二.创建型模式--单例模式.原型模式 三.创建型模式--建造者模式 四.结构型模式--装饰者模式 五.结构型模式--代理模式.适配器模式 文章目录 设 ...

  2. 一文看懂5种ESD防护方法!

    静电放电(ESD)理论研究的已经相当成熟,为了模拟分析静电事件,前人设计了很多静电放电模型.常见的静电模型有:人体模型(HBM),带电器件模型,场感应模型,场增强模型,机器模型和电容耦合模型等.芯片级 ...

  3. dp主机_HDMI和DP是什么?一文看懂两种接口的区别

    现在市面上主流的显示器和显卡,都会有好几个连接线接口,例如DP接口.HDMI接口,甚至HDMI接口也会分成两种.今天我们就来聊聊DP和HDMI的相关知识吧. HDMI 目前最主流的接口,全称是高清多媒 ...

  4. 一文看懂四种共享单车主流电子围栏技术

    共享单车之所以与中国的高铁,支付宝和网购一道,被老外称之为中国的新四大发明之一,就源于它以绿色环保,高效共享的方式解决了人们最后一公里出行问题.对比原来的有桩停放的"共享单车",现 ...

  5. 2021-11-06一文看懂融合定位技术6种打开方式,深圳核芯物联国产蓝牙aoa融合定位生态合能伙伴方案展示 核芯物联岳毅恒

    一文看懂融合定位技术6种打开方式,深圳核芯物联国产蓝牙aoa融合定位生态合能伙伴方案展示 原创 市大妈 物联传媒 今天 方案素材:属于核芯物联国产蓝牙aoa融合定位生态伙伴所有 本文来源:物联传媒 本 ...

  6. 【目标检测】32、让你一文看懂且看全 NMS 及其变体

    文章目录 一.NMS 1.1 背景 1.2 方法 1.3 代码 1.4 不足 二.Soft NMS 2.1 背景 2.2 方法 2.3 效果 2.4 代码 2.5 不足 三.Softer NMS 3. ...

  7. 一文看懂「生成对抗网络 - GAN」基本原理+10种典型算法+13种应用

    生成对抗网络 – Generative Adversarial Networks | GAN 文章目录 GAN的设计初衷 生成对抗网络 GAN 的基本原理 GAN的优缺点 10大典型的GAN算法 GA ...

  8. 判别两棵树是否相等 设计算法_一文看懂生成对抗网络 - GANs?(附:10种典型算法+13种应用)...

    生成对抗网络 – GANs 是最近2年很热门的一种无监督算法,他能生成出非常逼真的照片,图像甚至视频.我们手机里的照片处理软件中就会使用到它. 本文将详细介绍生成对抗网络 – GANs 的设计初衷.基 ...

  9. 决策树 随机森林 xgboost_一文看懂随机森林-RandomForest(附4个构造步骤+4种实现方式评测+10个优缺点)...

    随机森林是一种由决策树构成的集成算法,他在很多情况下都能有不错的表现.本文将介绍随机森林的基本概念.4 个构造步骤.4 种方式的对比评测.10 个优缺点和 4 个应用方向. 什么是随机森林? 随机森林 ...

最新文章

  1. 具有OpenCV和相似度测量的视频输入
  2. python清洗完数据做什么_Python 数据的清洗和准备
  3. Js引擎解析执行 阅读笔记
  4. WordPress博客主题KRATOS双栏响应式博客主题
  5. 09年3月编程语言排行榜:Visual Basic与PHP的暗战
  6. mac安装和卸载mysql_mysql的安装与卸载
  7. 利用语义分割对木薯根坏死进行评分
  8. Xcode 快速开发 代码块
  9. c# 开发项目的过程
  10. 对离散点进行积分的python程序实现_Stochastic Calculus(Python)(四)
  11. poj1054The Troublesome FrogDP
  12. brew 镜像_ps镜像快捷键,ps镜像图片效应功能怎么用?
  13. anjuta 连接mysql_anjuta的基本使用方法(包括如何设置MYSQL)
  14. Struts1.x使用入门
  15. Vue动态渲染本地图片
  16. 如何准备面试?“-80,阿里Java开发面试解答
  17. vue-有初始化动画的节点进度条的实现
  18. 荣耀3ch30-u10 android5,华为荣耀3C联通版 (H30-u10 2G RAM)一键救砖教程,轻松刷回官方系统...
  19. ZOJ 3717 二分+2-sat判定。
  20. js 日期增加加天数计算

热门文章

  1. # 生成单色位二维码图_如何2个小时内学会ps抠图-纯干货
  2. c语言递归求塔移动次数,c语言递归调用汉诺塔
  3. js事件里面套事件怎么不管用_原生js利用localstorage实现简易TODO list应用
  4. matlab 平滑曲线连接_【仪光学习】技能分享 | 前方高能:如何用Matlab轻松实现数学建模...
  5. python存储json数据_python 存储json数据
  6. java二分法排序算法_Java中使用二分法排序
  7. Java银行类编程题
  8. arp包多久发一次_多久洗一次头发合适?洗头越频繁,掉的头发越多?
  9. mac nginx加载php 配置,Mac下Nginx安装环境配置详解
  10. 马杰c语言程序设计基础,【我校自编教材】程序设计基础(C语言版)