前文

中文分词、词性标注、命名实体识别是自然语言理解中,基础性的工作,同时也是非常重要的工作。在很多NLP的项目中,工作开始之前都要经过这三者中的一到多项工作的处理。在深度学习中,有一种模型可以同时胜任这三种工作,而且效果还很不错--那就是biLSTM_CRF。

biLSTM,指的是双向LSTM;CRF指的是条件随机场。

biLSTM词性标注

本文是以字为单位进行处理。从下往上看,w0,w1...表示句子里面的字,经过biLSTM处理,输出每个字对应每个标签的分数,我们将最大数值表示对该字预测的标签。既然,biLSTM已经能够进行满足词性标注,那为什么还要再最后加上CRF层呢?

biLSTM词性标注

从这幅图中,可以看出,预测结果明显是错的,那为什么会出现这种错误呢,因为biLSTM只能够预测文本序列与标签的关系,而不能预测标签与标签之间的关系,标签之间的相互关系就是CRF中的转移矩阵。

biLSTM_CRF词性标注

这就是完整的biLSTM_CRF的模型图,文本序列经过biLSTM模型处理,输出结果传入CRF层,最后输出预测结果。

下面,进入正题,biLSTM_CRF模型在tensorflow中的实现。

运行环境

python 3.6

tensorflow 1.2

本文GITHUB 欢迎Star和Fork。

正文

1.数据预处理

2.模型构建

3.模型训练与测试

4.模型验证

5.总结

1.数据预处理

首先是将预测数据进行处理,转成模型能够识别的数字。

数据原格式

数据是以列形式存储,截图翻转了一下。

我从训练文本中,抽取频数在前5000的字,实际只抽取到了4830左右个字。加入'','','',分别表示填充字符,未知字符,数字字符。一起存入字典。

字典

标签同样也有对应的字典。

# 将tag转换成数字

tag2label = {"O": 0, "B-PER": 1, "I-PER": 2, "B-LOC": 3, "I-LOC": 4, "B-ORG": 5, "I-ORG": 6}

依据字典与标签字典,将文字与标签分别转成数字。第一行是文本,第二行是标签。

文本与标签

下一步是生成batch的操作。

生成batch后,需要对batch内句子padding到统一的长度,并计算每句的真实长度。

2.模型构建

采用双向LSTM对序列进行处理,将输出结果进行拼接。输入shape[batch,seq_Length,hidden_dim],输出shape[batch,seq_length,2*hidden_dim]。

with tf.name_scope('biLSTM'):

cell_fw = tf.nn.rnn_cell.LSTMCell(pm.hidden_dim)

cell_bw = tf.nn.rnn_cell.LSTMCell(pm.hidden_dim)

outputs, outstates = tf.nn.bidirectional_dynamic_rnn(cell_fw=cell_fw, cell_bw=cell_bw,inputs=self.embedding,

sequence_length=self.seq_length, dtype=tf.float32)

outputs = tf.concat(outputs, 2)#将双向RNN的结果进行拼接

#outputs三维张量,[batchsize,seq_length,2*hidden_dim]

我们从本文的第一幅图中,可以看出,整个biLSTM完整的输出格式是[batch,seq_length,num_tag]。num_tag是标签的数量,本实验中是标签数量是7。所以我们需要一个全连接层,将输出格式处理一下。

with tf.name_scope('output'):

s = tf.shape(outputs)

output = tf.reshape(outputs, [-1, 2*pm.hidden_dim])

output = tf.layers.dense(output, pm.num_tags)

output = tf.contrib.layers.dropout(output, pm.keep_pro)

self.logits = tf.reshape(output, [-1, s[1], pm.num_tags])

self.logits就是需要输入CRF层中的数据。代码的第三行,对output的变形,表示将[batch,seq_length,2hidden_dim]变成[batchseq_length,2*hidden_dim],最后处理时再变形为[batch,seq_length,num_tag]。

下面就是CRF层的处理:

with tf.name_scope('crf'):

log_likelihood, self.transition_params = crf_log_likelihood(inputs=self.logits, tag_indices=self.input_y, sequence_lengths=self.seq_length)

# log_likelihood是对数似然函数,transition_params是转移概率矩阵

#crf_log_likelihood{inputs:[batch_size,max_seq_length,num_tags],

#tag_indices:[batchsize,max_seq_length],

#sequence_lengths:[real_seq_length]

#transition_params: A [num_tags, num_tags] transition matrix

#log_likelihood: A scalar containing the log-likelihood of the given sequence of tag indices.

这一步,是调用from tensorflow.contrib.crf import crf_log_likelihood函数,求最大似然函数,以及求转移矩阵。最大似然函数前加上"-",可以用梯度下降法求最小值;

with tf.name_scope('loss'):

self.loss = tf.reduce_mean(-log_likelihood) #最大似然取负,使用梯度下降

转移矩阵可以帮助维特比算法来求解最优标注序列。

def predict(self, sess, seqs):

seq_pad, seq_length = process_seq(seqs)

logits, transition_params = sess.run([self.logits, self.transition_params], feed_dict={self.input_x: seq_pad,

self.seq_length: seq_length,

self.keep_pro: 1.0})

label_ = []

for logit, length in zip(logits, seq_length):

#logit 每个子句的输出值,length子句的真实长度,logit[:length]的真实输出值

# 调用维特比算法求最优标注序列

viterbi_seq, _ = viterbi_decode(logit[:length], transition_params)

label_.append(viterbi_seq)

return label_

3.模型训练与测试

训练时,共进行12次迭代,每迭代4次,将训练得到的结果,保存到checkpoints;loss的情况,保留到tensorboard中;每100个batch,输出此时的训练结果与测试结果。

模型训练

模型的loss由最初在训练集54.93降到2.29,在测试集上由47.45降到1.73。我们看下,保存的模型在验证集上的效果。

4.模型验证

我从1998年的人民网的新闻素材中,随机抽取了几条语句。

模型验证

ORG表示组织名词,LOC表示地理名词,PER表示人名。从验证结果上看,模型在命名实体识别上,效果还可以。

5.总结

模型训练数据从github上获取的,在训练时使用未训练的字向量,不知道使用预训练字向量是否可以提高准确率。受限于电脑的性能,训练数据仅使用50000条;提高机器性能,加大训练数据的量,准确性应该可以进一步提高。写这篇博客,主要是介绍实验过程,希望能够给需要的人带来帮助。

参考

bilstmcrf词性标注_深度学习--biLSTM_CRF 命名实体识别相关推荐

  1. 用深度学习做命名实体识别(五)-模型使用

    通过本文,你将了解如何基于训练好的模型,来编写一个rest风格的命名实体提取接口,传入一个句子,接口会提取出句子中的人名.地址.组织.公司.产品.时间信息并返回. 核心模块entity_extract ...

  2. 用深度学习做命名实体识别(四)——模型训练

    通过本文你将了解如何训练一个人名.地址.组织.公司.产品.时间,共6个实体的命名实体识别模型. 准备训练样本 下面的链接中提供了已经用brat标注好的数据文件以及brat的配置文件,因为标注内容较多放 ...

  3. 基于深度学习的命名实体识别研究综述——论文研读

    基于深度学习的命名实体识别研究综述 摘要: 0引言 1基于深度学习的命名实体识别方法 1.1基于卷积神经网络的命名实体识别方法 1.2基于循环神经网络的命名实体识别方法 1.3基于Transforme ...

  4. NLP入门(五)用深度学习实现命名实体识别(NER)

    前言   在文章:NLP入门(四)命名实体识别(NER)中,笔者介绍了两个实现命名实体识别的工具--NLTK和Stanford NLP.在本文中,我们将会学习到如何使用深度学习工具来自己一步步地实现N ...

  5. 超详综述 | 基于深度学习的命名实体识别

    ©PaperWeekly 原创 · 作者|马敏博 单位|西南交通大学硕士生 研究方向|命名实体识别 论文名称:A Survey on Deep Learning for Named Entity Re ...

  6. 一文详解深度学习在命名实体识别(NER)中的应用

    近几年来,基于神经网络的深度学习方法在计算机视觉.语音识别等领域取得了巨大成功,另外在自然语言处理领域也取得了不少进展.在NLP的关键性基础任务-命名实体识别(Named Entity Recogni ...

  7. 自然语言处理(NLP)之用深度学习实现命名实体识别(NER)

    几乎所有的NLP都依赖一个强大的语料库,本项目实现NER的语料库如下(文件名为train.txt,一共42000行,这里只展示前15行,可以在文章最后的Github地址下载该语料库): played ...

  8. 用深度学习做命名实体识别(二):文本标注工具brat

    本篇文章,将带你一步步的安装文本标注工具brat. brat是一个文本标注工具,可以标注实体,事件.关系.属性等,只支持在linux下安装,其使用需要webserver,官方给出的教程使用的是Apac ...

  9. spacy spaCy主要功能包括分词、词性标注、词干化、命名实体识别、名词短语提取等等

    spaCy主要功能包括分词.词性标注.词干化.命名实体识别.名词短语提取等等https://zhuanlan.zhihu.com/p/51425975

最新文章

  1. 全年营业额怎么计算_会计税法计算公式大全
  2. phpcms开启、关闭在线编辑模板的方法
  3. 斯坦福大学UFLDL教程列表
  4. DOM 之通俗易懂讲解
  5. 抓取从源地址为10.0.0.111主机访问目标主机10.0.0.222的80/tcp端口的流量?
  6. 判断是否为自然数java_java判断输入的是否是自然数
  7. 公众号里面套页面_微信公众号页面模板有什么用?开通的方法是什么?
  8. C#OOP之十一 委托和事件
  9. 山东理工大学ACM平台题答案关于C语言 1231 绝对值排序
  10. Microsoft Visio 2003 对象导入 word 进行编辑
  11. Python 寻找完美数
  12. 北斗/GPS差分定位技术有哪些?
  13. 关于int型最大值最小值的思考
  14. 用webBrowser打开网页出现脚本错误怎么办?
  15. 9.后台管理系统主页面布局以及左侧导航栏设计
  16. docker+阿里云镜像服务
  17. [转]《Python编程金典》读书笔记
  18. hihocoder1636-Pangu and Stones
  19. 计算机辅助工业设计简化功能的作用,计算机辅助工业设计CAID-天津大学研究生e-Learning平台.PDF...
  20. 李刚 疯狂Python讲义 读书笔记

热门文章

  1. php的Allowed memory size of 134217728 bytes exhausted问题解决办法
  2. 如何在Android中使用Intent拨打电话?
  3. 删除StringBuilder的最后一个字符?
  4. 如何检查对象是否为数组?
  5. Python的__init__和self是做什么的?
  6. java aciss_C语言ACISS表.doc
  7. ftp主动和被动模式_ftp协议,深入理解ftp协议只需3步
  8. hp-ux 查看系统负载_linux性能分析之平均负载
  9. linux keepalived 脚本,Linux下安装Keepalived及原理分析
  10. TypeScript学习(二):任意类型及推论