BERT论文系列导读

导读

文本摘要主要分为抽取式文本摘要和生成式文本摘要,抽取式文本摘要因为发展的时间比较长,因此在工业界应用的范围比较广。比较常用的抽取式文本摘要的算法就是Textrank,但是呢,本文要介绍一篇和BERT相关的抽取式摘要的模型。当然作为对比,本文也介绍了另一篇文章,结合了Textrank和BERT的模型,希望对大家有所启发。

Bert With Summarization

首先介绍一下模型的结构,原始的BERT的输出是针对Token而不是句子的,而且原始BERT的输入只有两个句子,并不适合文本摘要。

因此首先作者对BERT的结构做了一些更改,让他变得更适合文本摘要这个任务,作者的更改可以在下图体现到:作者使用[CLS]和[SEP]区分每一个句子,在原始的BERT中[CLS]表示一整个句子或者句子对的内容,在这里作者修改了模型结构,使用[CLS]来区分每一个句子

作者对每一个句子增加了segment embedding,segment embedding由句子的奇偶顺序决定,例如对于句子[sen1, sen2, sen3, sen4, sen5]他们的segment embedding就是[EA, EB, EA, EB, EA]。

Summarization layer

得到了句子的向量之后,接下来要做的工作就是判断这句话是否要组成文本的摘要。这就是一个二分类的工作了,作者尝试了三种summarization layer,分别是传统的全连接层

Inter-sentence Transformer

结构如下图所示,初始位置的句子向量为position embedding,之后每一个位置的输入都是由上一个位置的输入经过多头Attention层,layer norm和全连接层之后的输出结果。最后的输出依然是一个二分类。RNN层

这里是在BERT之后接了LSTM层,LSTM是非常适合NLP任务的一种结构,当然最后输出也是一个二分类的结果。

实验结果

作者在CNN Daily和NYT两个公开数据集上进行了实验,实验效果如下图所示,其中Lead是抽取文本的前三句话作为摘要

REFRESH是优化了ROUGE矩阵的抽取式文本摘要系统

NEUSUM是抽取式文本摘要的state-of-art的效果

PGN是Pointer Generator,生成式文本摘要

DCA是当前生成式文本摘要的state-of-art的效果

结论:抽取式文本摘要的效果优于生成式(甚至PGN的效果不如规则?)这一点我保持怀疑。BERT+Transformer的效果超过了目前抽取式模型的SOTA效果。

缺点:RNN是一层的和多层Transformer对比不太合理

实验结果显示生成式模型的效果还差于规则的结果,这点保持怀疑

没有解释对于过长的文本的是怎么处理的

推荐资料

这里给大家推荐另一篇论文——Sentence Centrality Revisited for Unsupervised Summarization。本文结合了Bert和Textrank算法,使用微调Bert作为Sentence encoder,来计算文本之间的相似度。最后的效果也是超过了SOAT的效果。

下面是提问和思考环节两篇文章对BERT的使用有什么区别

PACSUM对BERT做了怎么样的微调

bert做文本摘要_Fine-tune BERT for Summarization: BERT和文本摘要相关推荐

  1. 使用BERT做中文文本相似度计算与文本分类

    转载请注明出处,原文地址: https://terrifyzhao.github.io/2018/11/29/使用BERT做中文文本相似度计算.html 简介 最近Google推出了NLP大杀器BER ...

  2. 尝试用bert做文本聚类

    尝试用bert做文本聚类 以前文本聚类多以TF-IDF构建词权重的方法进行,在本文中尝试用bert提取的向量做文本聚类.对于bert模型,尝试提取不同层的特征,尝试对bert做fun-tune,观察相 ...

  3. 如何用最强模型BERT做NLP迁移学习?

    作者 | 台湾大学网红教授李宏毅的三名爱徒 来源 | 井森堡,不定期更新机器学习技术文并附上质量佳且可读性高的代码. 编辑 | Jane 谷歌此前发布的NLP模型BERT,在知乎.Reddit上都引起 ...

  4. 成本砍砍砍!不用数据也能用 BERT 做对比学习?

    文 | 小昌 编 | 小戏 来自 | 夕小瑶的卖萌屋 大家好,我是小昌,今天和大家聊一聊如何从 BERT 中获取好的句子表征. 大家都知道,BERT 的设计初衷是为了获得更好的单词表征.但是,利用 B ...

  5. bert 中文 代码 谷歌_如何用最强模型BERT做NLP迁移学习?

    作者 | 台湾大学网红教授李宏毅的三名爱徒 来源 | 井森堡,不定期更新机器学习技术文并附上质量佳且可读性高的代码. 编辑 | Jane 谷歌此前发布的NLP模型BERT,在知乎.Reddit上都引起 ...

  6. 如何使用bert做word embedding

    调研目的:如何使用第三方库快速对数据进行预训练,得到embedding  知乎一: 请问如何用nlp预训练模型做word embedding ,如bert怎么提取出embedding? 作者(香港大学 ...

  7. bert做语义相似度文章的注解

    之前查找bert做语义相似度资料时使用了一个博主的代码,原文:https://blog.csdn.net/u012526436/article/details/84637834 网上如何做fine-t ...

  8. python nlp文本摘要实现_用TextRank算法实现自动文本摘要

    [51CTO.com快译]1. 引言 文本摘要是自然语言处理(NLP)领域中的应用之一,它必将对我们的生活产生巨大影响.随着数字媒体和出 版业的不断发展,谁还有时间浏览整篇文章/文档/书籍来决定它们是 ...

  9. bert下游_原来你是这样的BERT,i了i了! —— 超详细BERT介绍(三)BERT下游任务...

    原来你是这样的BERT,i了i了! -- 超详细BERT介绍(三)BERT下游任务 BERT(Bidirectional Encoder Representations from Transforme ...

最新文章

  1. Android Framework------之Keyguard 简单分析
  2. C#数据结构-双链表
  3. seo外链重要性_为什么网站速度对于SEO至关重要?以及如何加快网站速度
  4. docker+elasticsearch的安装
  5. 微信抽奖助手网络或服务器错误,微信抽奖助手怎样运用 抽奖助手运用办法
  6. 泛函分析 06.02 线性算子的谱理论 - 有界线性算子的谱集
  7. 【虹科车用总线技术】PCAN-USB使用手册
  8. 中国人口空间分布数据集1990-2021年
  9. matlab视频文件处理,Matlab处理视频文件1
  10. Environment Mapping
  11. arduino蓝牙主从机通讯
  12. 编辑中的word变成只读_word文件怎么将只读模式改为可以修改
  13. with ties 的用法
  14. 我的世界java刷雪机_我的世界自动造/刷雪机制作图文教程
  15. 浅谈Zebra斑马打印机三种打印方式的利弊
  16. 官能化poss甲基丙烯酰氧丙基笼型聚倍半硅氧烷
  17. 滤波电容为什么要靠近放置,储能电容为什么均匀放置?去耦半径是什么?滤波电容如何打孔?
  18. 2020最流行的React组件库推荐
  19. 视频笔记-吾爱破解ximo脱壳视频1~10
  20. 格式工厂绿色便携版,无需安装直接运行,专注视频格式转换软件

热门文章

  1. matlab 读取 通达信,Matlab读取通达信数据库需要学习那些方面的知识?
  2. 【mycat】mycat相关概念
  3. 大数据从业者必读书籍《数据仓库工具箱》-第一章笔记
  4. C语言课程设计:图书信息管理系统
  5. 黑客故事:如何逼小偷把 iPhone 还回来的
  6. 手机当电脑音响_高颜值蓝牙音响,这六款值得拥有
  7. 2012年1月凯立德地图普高清全分辨率懒人包P1750-D5616-2721J09(完美破解,已上路实测,永久下载地址)...
  8. 将一个源码包软件转换成一个 RPM 软件包
  9. Android开发艺术探索笔记
  10. Java 防止XSS攻击(Spring boot Spring 方式)