NLP-生成模型-2016-生成式摘要模型:Seq2Seq+Attention+Copy【Pointer网络的Copy机制解决Decoder端的OOV问题】【抽取式+生成式】【第一个生成式摘要模型】
《原始论文:Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond》
Seq2Seq(BiGRU-UniGRU)+Attention+Copy【Copy机制解决Decoder端的OOV问题】【第一个生成式摘要模型】【抽取式+生成式】
同一作者的抽取式摘要模型(效果比其生成式摘要模型好)
《论文:SummaRuNNer: A Recurrent Neural Network based Sequence Model for Extractive Summarization of Documents》
与PGNet的区别
《论文:Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond》:不将Copy拷贝机制计算出的概率分布与在固定Vocab上计算的生成式的概率分布进行加和;(Copy机制只计算OOV词汇在源文本中所有词汇上的概率分布)
《论文:Get To The Point: Summarization with Pointer-Generator Networks》:将Copy拷贝机制计算出的概率分布与在固定Vocab上计算的生成式的概率分布进行加和;
参考资料:
【读】seq2seq—(3)Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond
NLP-生成模型-2016-生成式摘要模型:Seq2Seq+Attention+Copy【Pointer网络的Copy机制解决Decoder端的OOV问题】【抽取式+生成式】【第一个生成式摘要模型】相关推荐
- NLP-生成模型-2017-PGNet:Seq2Seq+Attention+Coverage+Copy【Coverage解决解码端重复解码问题;Copy机制解决解码端OOV问题】【抽取式+生成式】
PGNet模型训练注意事项: Coverage机制要在训练的最后阶段再加入(约占总训练时间的1%),如果从刚开始训练时就加入则反而影响训练效果: Copy机制在源文本的各个单词上的概率分布直接使用At ...
- 文本生成任务之营销文本生成(Seq2seq+attention、Pointer Generator Network、Converage、Beam Search、优化技巧、文本增强)
文章目录 引言 项目任务简介 0. 数据预处理 0.1 将json文件转化成txt文件 0.2 词典处理 0.3 自定义数据集SampleDataset(Dataset类) 0.4 生成Dataloa ...
- NLP-阅读理解:“阅读理解”综述(Machine Reading Comprehension, MRC)【完形填空、多项选择、抽取式(答案片段抽取)、生成式(自由作答)】《机器阅读理解数据集》
<原始论文:Neural Machine Reading Comprehension: Methods and Trends> 一.阅读理解概述 所谓的机器阅读理解(Machine Rea ...
- Seq2Seq+Attention生成式文本摘要
任务描述: 自动摘要是指给出一段文本,我们从中提取出要点,然后再形成一个短的概括性的文本.自动的文本摘要是非常具有挑战性的,因为当我们作为人类总结一篇文章时,我们通常会完整地阅读它以发展我们的理解,然 ...
- 自然语言处理NLP——中文抽取式自动文摘(包括中文语料库处理、三种方法实现自动文摘、Rouge评价方法对自动文摘进行打分)
利用三种方法实现抽取式自动摘要,并给摘要结果打分(一.textrank 二.word2vec+textrank 三.MMR 四.Rouge评测) 具体代码我上传到了Github上,其中有45篇小论文( ...
- Tensorflow 自动文摘: 基于Seq2Seq+Attention模型的Textsum模型
Github下载完整代码 https://github.com/rockingdingo/deepnlp/tree/master/deepnlp/textsum 简介 这篇文章中我们将基于Tensor ...
- seq2seq模型_用 CNN 实现 Seq2Seq 模型
之前比较常用的 sequence to sequence 学习方法大多数都利用了 RNN,但是 RNN 需要逐个处理序列数据,速度相对较慢.FaceBook 在 2017 年提出了一种使用 CNN 实 ...
- 图片的描述生成任务、使用迁移学习实现图片的描述生成过程、CNN编码器+RNN解码器(GRU)的模型架构、BahdanauAttention注意力机制、解码器端的Attention注意力机制
日萌社 人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新) Encoder编码器-Decoder解码器框架 + Atten ...
- TensorFlow学习之LSTM ---机器翻译(Seq2Seq + Attention模型)
一.理论知识 Seq2Seq模型的基本思想:使用一个循环神经网络读取输入句子,将这个句子的信息压缩到一个固定维度的编码中:再使用另一个循环神经网络读取这个编码,将其"解压"为目标语 ...
最新文章
- 工作中感受到的消息中间件在分布式系统中的使用场景
- html框架集 target
- 表盘时针的html代码,html5画布操作的简单学习-简单时钟
- YUV格式学习:NV12和YUV420P格式互换
- C语言百叶窗动画效果算法,用vb实现“百叶窗”的图形特效_visualbasic教程
- java 7 学习笔记_Java学习笔记7
- Html5新特性 canvas画板画直线和等比缩放居中裁剪图片
- Java的八大常用类
- 企业经常说绩效管理难,误区在哪?附绩效管理系统解决方案
- 干货丨3分钟了解今日头条推荐算法原理(附视频+PPT)
- css语义化命名_为什么我只在生产中使用语义命名
- 10年网安经验分享:一般人别瞎入网络安全行业
- PPT中加水印的方法
- 华为又走在美国芯片企业前面,将率先发布5nm工艺芯片
- 简述关系数据库的数据完整性规则_认识关系数据库的完整性规则
- CS1061号错误是什么
- 用python写剪刀石头布游戏
- SpringBoot使用com.alibaba.druid.filter.config.ConfigTools对数据库密码加密
- 探索Wiring Pi
- Node Classification with Graph Neural Networks(使用GNN进行节点分类)