Abstract & Introduction & Related Work

  • 研究任务

    • 预训练语言模型
  • 已有方法和相关工作
  • 面临挑战
    • 越来越大的模型需要更多的计算资源和时间去训练
  • 创新思路
    • 因子化嵌入参数化
    • 跨层参数共享
    • 用SOP替换NSP
  • 实验结论
    • sota

ALBERT用了两个很重要的技术来减少参数规模

  1. 因子化嵌入参数化。通过将大的词汇嵌入矩阵分解成两个小矩阵,我们将隐藏层的大小与词汇嵌入的大小分开。这种分离使得在不大幅增加词汇嵌入的参数大小的情况下,更容易增长隐藏的大小。
  2. 跨层参数共享。这种技术可以防止参数随着网络的深度而增长。这两种技术都大大减少了BERT的参数数量而不严重损害性能,从而提高了参数效率。类似于BERT-large的ALBERT配置的参数数量减少了18倍,训练速度可以提高约1.7倍。减少参数的技术也作为一种正则化的形式,稳定了训练
  3. 为了进一步提高ALBERT的性能,我们还引入了一个用于句序预测的自监督损失(SOP)。SOP主要关注的是句间连贯性,旨在解决原始BERT中提出的下句预测(NSP)损失的无效性(Yang等人,2019;Liu等人,2019)

THE ELEMENTS OF ALBERT

MODEL ARCHITECTURE CHOICES

Factorized embedding parameterization

BERT,RoBERTa,XLNet用的都是wordpiece embedding,E的大小与隐藏层的大小H相联系

出于建模和实际的原因,这一决定似乎是次优的,具体如下

从建模的视角,wordpiece embedding意思是去学习上下文独立的表示,但是隐藏层的embedding是学习上下文依赖的表示

正如关于语境长度的实验所表明的那样(Liu等人,2019),类似BERT的表征的力量来自于使用语境来提供学习这种依赖语境的表征的信号。因此,将WordPiece嵌入大小E与隐藏层大小H分开,可以使我们更有效地使用总的模型参数,这是由建模需求决定的,H>>E

从实践的角度,NLP往往需要一个大的vocab size V,如果E=H,在嵌入矩阵中,V * E的矩阵大小很容易导致数十亿的参数量,大部分在训练阶段的更新都很稀疏

因此把embedding矩阵从 O(V×E)O(V \times E)O(V×E) 分解成 O(V×E+E×H)O(V \times E + E \times H)O(V×E+E×H),E<<H。

我们选择对所有的wordpiece使用相同的E,因为与whole-word embedding相比,它们在文档中的分布更加均匀,在whole-word embedding中,不同的词有不同的嵌入大小(Grave等人(2017);Baevski & Auli(2018);Dai等人(2019))是重要的

Cross-layer parameter sharing

ALBERT的默认跨层共享所有参数

图1显示了使用BERT-large和ALBERT-large配置的每一层的输入和输出嵌入的L2距离和余弦相似度(见表1)。我们观察到,ALBERT的层与层之间的过渡要比BERT的平滑得多。这些结果表明,权重共享对稳定网络参数有一定的影响。尽管与BERT相比,两个指标都有下降,但即使在24层之后,它们也没有收敛到0。这表明,ALBERT参数的解空间与DQE发现的空间有很大不同

Inter-sentence coherence loss

我们推测NSP任务作用不大是因为它过于简单,因为负样例是从不同的文档采样过来的

我们坚持认为,句间建模是语言理解的一个重要方面,但我们提出了一个主要基于连贯性的损失。也就是说,对于ALBERT,我们使用了一个句序预测(SOP)损失,它避免了主题预测,而是专注于句子间的连贯性建模。SOP损失使用与BERT相同的技术(来自同一文件的两个连续片段)作为正样例,并使用相同的两个连续片段作为负样例,但其顺序被调换。这迫使模型学习关于话语层面一致性属性的更精细的区分。正如我们在第4.6节中所显示的,事实证明NSP根本不能解决SOP的任务(也就是说,它最终学习了更容易的话题预测信号,并在SOP任务中表现为随机水平),而SOP可以在合理的程度上解决NSP的任务,大概是基于分析错位的一致性线索。因此,ALBERT模型持续改善了多句子编码任务的下游任务表现

MODEL SETUP

一些超参数的设定

EXPERIMENTAL RESULTS










DISCUSSION

虽然ALBERT-xxlarge的参数比BERT-large少,得到的结果也明显更好,但由于其结构更大,计算成本更高。因此,下一步的重要工作是通过稀疏注意(Child等人,2019)和块状注意(Shen等人,2018)等方法,加快ALBERT的训练和推理速度。一个正交的研究路线,可以提供额外的表示能力,包括硬例挖掘(Mikolov等人,2013)和更有效的语言建模训练(杨等人,2019)。此外,尽管我们有令人信服的证据表明,句子顺序预测是一项更加持续有用的学习任务,可以带来更好的语言表征,但我们假设,可能有更多的维度尚未被目前的自我监督训练损失所捕获,可以为所产生的表征创造额外的表征能力

Remark

减少参数量,而且work,是好文明!

Raki的读paper小记:ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS相关推荐

  1. Raki的读paper小记:Prompting ELECTRA: Few-Shot Learning with Discriminative Pre-Trained Models

    Abstract&Introduction&Related Work 研究任务 基于提示学习的ELECTRA 已有方法和相关工作 ELECTRA 面临挑战 基于判别模型的预训练模型的f ...

  2. Raki的读paper小记:OFA: UNIFYING ARCHITECTURES, TASKS, AND MODALITIES THROUGH A SIMPLE Seq2Seq FRAMEWORK

    Abstract&Introduction&Related Work 研究任务 多模式预训练的统一范式 包括图像生成.visual-grounding(visual grounding ...

  3. Raki的读paper小记:Image as a Foreign Language: BEIT Pretraining for All Vision and Vision-Language Tasks

    Abstract&Introduction&Related Work 研究任务 语言+视觉模态预训练任务 已有方法和相关工作 masked data已经成为一种主流 面临挑战 现有的多 ...

  4. Raki的读paper小记:Named Entity Recognition without Labelled Data: A Weak Supervision Approach(半成品)

    Abstract & Introduction & Related Work 研究任务 无标注数据NER学习 已有方法和相关工作 Unsupervised domain adaptat ...

  5. Raki的读paper小记:Forget-free Continual Learning with Winning Subnetworks

    Abstract&Introduction&Related Work 研究任务 用子网络做CL 已有方法和相关工作 彩票假说(LTH)证明了稀疏子网络(称为中奖彩票)的存在,这些子网络 ...

  6. Raki的读paper小记:Neuro-Inspired Stability-Plasticity Adaptation for Continual Learning in Sparse Nets

    Abstract&Introduction&Related Work 研究任务 Continual Learning 已有方法和相关工作 面临挑战 创新思路 利用持续学习过程中的持续稀 ...

  7. Stetman读paper小记:BackdoorBench - A Comprehensive Benchmark of Backdoor Learning

    之前因为参与了实验室后门攻击的项目,阅读了一下这篇关于后门学习的综合性基准测试的研究工作,在此记录一下学习笔记与心得. 1 摘要 这篇文章介绍了一个名为BackdoorBench的基准测试,用于评估后 ...

  8. Stetman读paper小记:ATTEQ-NN

    注:本周笔者阅读了龚雪鸾.陈艳娇的文章ATTEQ-NN:Attention-based QoE-aware Evasive Backdoor Attacks.本文讲了作者设计的一种基于注意力机制的后门 ...

  9. Albert: A lite bert for self-supervised learning of language representations (Albert)

    Albert 历史意义: 1.Albert 各层之间采用参数共享和embedding因式分解减少参数量 2.在nlp预训练模型中正式采用轻量级bert模型 nlp领域(各个下游任务都有自身的模型)  ...

  10. ALBERT: 轻量级的BERT

    ALBERT 前言 embedding参数因式分解 参数共享 SOP instead of NSP 结论 其他压缩方法 前言 当前的趋势是预训练模型越大,效果越好,但是受限算力,需要对模型进行瘦身.这 ...

最新文章

  1. 手把手教你如何加入到github的开源世界! (转)
  2. from flask.ext.wtf import Form 报错 ModuleNotFoundError: No module named 'flask.ext'
  3. matlab mbuild setup,关于mbuild的一个问题
  4. php协程和goroutine,golang中四种方式实现子goroutine与主协程的同步
  5. YBTOJ:伞兵空降(二分图匹配)
  6. 亚信安全“双引擎”AI技术 亮相2017华为全联接大会
  7. ajax嵌套ajax的坏处,promise解决ajax的多重嵌套
  8. angular2 学习二 directives - 使用组件
  9. 第五章:Redis pipeline流水线
  10. 【单片机学习】51单片机【串口】,详细介绍
  11. google Play 应用被下架暂停
  12. 开源测试平台RunnerGo,测试工程师必备
  13. iSCSI target initiator
  14. openwrt mysql改密码_openwrt的路由器重置root密码
  15. Type safety: The expression of type List needs unchecked conversion to conform to ListXXX解决办法
  16. excel连接mysql速度太慢,excel表格数据太大-excel太大,运行缓慢该怎么办
  17. Shiro logout 302重定向,shiro 302解决方案
  18. 安卓webview中键盘遮挡输入框如何解决
  19. puzzle(004.1)日历拼图
  20. 深度linux触摸板失灵,deepin下触摸板无法使用

热门文章

  1. Mysql之insert,update,delete
  2. c语言操作数据库sql
  3. c51语言自定义头文件,C51语言头文件包括的内容有
  4. excel 直接查询企查查数据_EXCEL在多表中查询数据(函数中引用工作表的办法)...
  5. 【算法笔记HDU4825】Xor Sum(01字典树模版)
  6. 【算法笔记】输出st-en的所有路径(DAG--dfs)
  7. 可变换大小的星星c语言源程序,五邑大学试卷_C语言程序设计_信息学院各专业_B卷1教学内容.doc...
  8. 2019蓝桥:奇数倍数问题
  9. 网格搜索、随机搜索和贝叶斯调参总结与python代码实践
  10. 金融现金贷用户数据分析和用户画像