Bert模型是谷歌2018年10月底公布的,反响巨大,效果不错,在各大比赛上面出类拔萃,它的提出主要是针对word2vec等模型的不足,在之前的预训练模型(包括word2vec,ELMo等)都会生成词向量,这种类别的预训练模型属于domain transfer。而近一两年提出的ULMFiT,GPT,BERT等都属于模型迁移,简单说BERT 模型是将预训练模型和下游任务模型结合在一起的,核心目的就是:是把下游具体NLP任务的工作逐渐移到预训练产生词向量上。

在使用的时候(链接: https://pan.baidu.com/s/1Mv7iVBaBNEusd7qqbOkYow 提取码: 6inw),或者https://github.com/yuanxiaosc/Entity-Relation-Extraction),一般是需要下面三个脚本的,我们也不必修改,直接拿过来使用就ok。
modeling.py
optimization.py
tokenization.py

其中tokenization是对原始句子内容的解析,分为BasicTokenizer和WordpieceTokenizer两个,一般来说BasicTokenizer

主要是进行unicode转换、标点符号分割、中文字符分割、去除重音符号等操作,最后返回的是关于词的数组(中文是字的数组),WordpieceTokenizer的目的是将合成词分解成类似词根一样的词片。例如将"unwanted"分解成["un", "##want", "##ed"]这么做的目的是防止因为词的过于生僻没有被收录进词典最后只能以[UNK]代替的局面,因为英语当中这样的合成词非常多,词典不可能全部收录。FullTokenizer的作用就很显而易见了,对一个文本段进行以上两种解析,最后返回词(字)的数组,同时还提供token到id的索引以及id到token的索引。这里的token可以理解为文本段处理过后的最小单元。上述来源https://www.jianshu.com/p/22e462f01d8c,更多该脚本的内容可以看该链接,下面主要用到FullTokenizer这个类。

真正需要修改是:
run_classifier.py
run_squad.py

分别是解决分类,读理解任务,其实套路差不多,我们具体来看一下run_classifier.py。

首先BERT主要分为两个部分。一个是训练语言模型(language model)的预训练(run_pretraining.py)部分。另一个是训练具体任务(task)的fine-tune部分,预训练部分巨大的运算资源,但是其已经公布了BERT的预训练模型。

这里需要中文,直接下载就行,总得来说,我们要做的就是自己的数据集上进行fine-tune。

run_classifier.py中的类如下

InputExample类主要定义了一些数据预处理后要生成的字段名,如下:

guid就是一个id号,一般将数据处理成train、dev、test数据集,那么这里定义方式就可以是相应的数据集+行号(句子),text_a 就是当前的句子,text_b是另一个句子,因为有的任务需要两个两个句子,如果任务中没有的话,可以将text_b设为None,label就是标签,InputFeatures类主要是定义了bert的输入格式,形象化点就是特征,即上面的格式使我们需要将原始数据处理成的格式,但并不是bert使用的最终格式,且还会通过一些代码将InputExample转化为InputFeatures,这才是bert最终使用的数据格式,当然啦这里根据自己的需要还可以自定义一些字段作为中间辅助字段,但bert最基本的输入字段就需要input_ids,input_mask和segment_ids这三个字段,label_id是计算loss时候用到的,input_ids,segment_ids分别对应单词id和句子(上下句标示),Input_mask就是记录的是填充信息,具体看下面:

DataProcessor,这是一个数据预处理的基类,里面定义了一些基本方法。XnliProcessor、MnliProcessor、MrpcProcessor、ColaProcessor四个类是对DataProcessor的具体实现,这里之所以列举了四个是尽可能多的给用户呈现出各种demo,具体到实际使用的时候我们只需要参考其写法,定义一个自己的数据预处理类即可,其中一般包括如下几个方法:get_train_examples,get_dev_examples,get_test_examples,get_labels,_create_examples。其中前三个都通过调用_create_examples返回一个InputExample类数据结构,get_labels就是返回类别,所以重点就是以下两个函数:

这里的tokenization的convert_to_unicode就是将文本转化为utf-8编码。

上述就是数据预处理过程,也是需要我们自己根据自己的数据定义的,其实呢,这并不是Bert使用的最终样子,其还得经过一系列过程才能变成其能处理的数据格式,该过程是通过接下来的四个方法完成的:
convert_single_example
file_based_convert_examples_to_features
file_based_input_fn_builder
truncate_seq_pair

只不过一般情况下我们不需要修改,它都是一个固定的流程
convert_single_example:

bert的输入:

代码中的input_ids,segment_ids分别代表token,segment,同时其还在句子的开头结尾加上了[CLS]和SEP]标示。

input_ids中就是记录的是使用FullTokenizer类convert_tokens_to_ids方法将tokens转化成单个字的id。segment_ids就是句子级别(上下句)的标签,大概形式:

# (a) For sequence pairs:
 #  tokens:   [CLS] is this jack ##son ##ville ? [SEP] no it is not . [SEP]
 #  type_ids: 0     0  0    0    0     0       0 0     1  1  1  1   1 1
 # (b) For single sequences:
 #  tokens:   [CLS] the dog is hairy . [SEP]
 #  type_ids: 0     0   0   0  0     0 0

当没有text_b的时候,就都是0。还有一个input_mask,其就是和最大长度有关,假设我们定义句子的最大长度是120,当前句子长度是100,那么input_mask前100个元素都是1,其余20个就是0。最后返回的就是一个InputFeatures类。

file_based_convert_examples_to_features

很简单啦,因为在训练的时候为了读写快速方便便将数据制作成TFrecords 数据格式,该函数主要就是将上述返回的InputFeatures类数据,保存成一个TFrecords数据格式,关于TFrecords数据格式的制作可以参考这篇《TFrecords 制作数据集小例子(多标签)》。
file_based_input_fn_builder

对应的就是从TFrecords 解析读取数据。
truncate_seq_pair

就是来限制text_a和text_b总长度的,当超过的话,会轮番pop掉tokens。

至此整个数据的预处理才算处理好,其实最后最关键的就是得到了那个TFrecords文件

下面看模型部分
create_model
model_fn_builder

整个模型过程采用了tf.contrib.tpu.TPUEstimator这一高级封装的API

model_fn_builder是壳,create_model是核心,其内部定义了loss,预测概率以及预测结果等等。
model_fn_builder

其首先调用create_model得到total_loss, per_example_loss, logits, probabilities等等,然后针对不同的状态返回不同的结果(output_spec),如果是train则返回loss,train_op等,如果是dev则返回一些评价指标如accuracy,如果是test则返回预测结果。下一步

create_model

这里可以说整个Bert使用的最关键的地方,我们使用Bert大多数情况无非进行在定义自己的下游工作进行fine-tune,就是在这里定义的。见下面的代码:

def create_model(bert_config, is_training, input_ids, input_mask, segment_ids,labels, num_labels, use_one_hot_embeddings):"""Creates a classification model."""model = modeling.BertModel(config=bert_config,is_training=is_training,input_ids=input_ids,input_mask=input_mask,token_type_ids=segment_ids,use_one_hot_embeddings=use_one_hot_embeddings)# In the demo, we are doing a simple classification task on the entire# segment.## If you want to use the token-level output, use model.get_sequence_output()# instead.output_layer = model.get_pooled_output()hidden_size = output_layer.shape[-1].valueoutput_weights = tf.get_variable("output_weights", [num_labels, hidden_size],initializer=tf.truncated_normal_initializer(stddev=0.02))output_bias = tf.get_variable("output_bias", [num_labels], initializer=tf.zeros_initializer())with tf.variable_scope("loss"):if is_training:# I.e., 0.1 dropoutoutput_layer = tf.nn.dropout(output_layer, keep_prob=0.9)logits = tf.matmul(output_layer, output_weights, transpose_b=True)logits = tf.nn.bias_add(logits, output_bias)probabilities = tf.nn.softmax(logits, axis=-1)log_probs = tf.nn.log_softmax(logits, axis=-1)one_hot_labels = tf.one_hot(labels, depth=num_labels, dtype=tf.float32)per_example_loss = -tf.reduce_sum(one_hot_labels * log_probs, axis=-1)loss = tf.reduce_mean(per_example_loss)return (loss, per_example_loss, logits, probabilities)

首先调用modeling.BertModel得到bert模型,bert模型的输入:input_ids,input_mask,segment_ids

model = modeling.BertModel(config=bert_config,is_training=is_training,input_ids=input_ids,input_mask=input_mask,token_type_ids=segment_ids,use_one_hot_embeddings=use_one_hot_embeddings

config是bert的配置文件,在开头下载的中文模型中里面有,直接加载即可,use_one_hot_embeddings是根据是不是用GPU而定的,其他字段上述都说过。

bert模型的输出其有两种情况:

model.get_sequence_output()
model.get_pooled_output()

第一种输出结果是[batch_size, seq_length, embedding_size]

第二种输出结果是[batch_size, embedding_size]

第二种结果是第一种结果在第二个维度上面进行了池化,要是形象点比喻的话,第一种结果得到是tokens级别的结果,第二种是句子级别的,其实就是一个池化。

需要我们我们定义部分

这部分就是需要我们根据自己的任务自己具体定义,假设是一个简单的分类,那么就是定义一个全连接层将其转化为[batch_size, num_classes],output_weights和output_bias就是对应全连接成的权值,后面就是loss,使用了tf.nn.log_softmax应该是一个多分类,多标签的话可以使用tf.nn.sigmoid。总得来说,使用bert进行自己任务的时候,可以千变万化,变的就是这里这个下游。
最后就是主函数(main),主要就是通过人为定义的一些配置值(FLAGS)将上面的流程整个组合起来,这里大体说一下流程:

processors = {"cola": ColaProcessor,"mnli": MnliProcessor,"mrpc": MrpcProcessor,"xnli": XnliProcessor,}

这里就是定义数据预处理器的,记得把自己定义的预处理包含进来,自己起一个名字,到时候通过外部参数字段task_name来指定用哪个(简单说就是处理哪个数据)。

数据预处理完了,就使用tf.contrib.tpu.TPUEstimator定义模型:

最后就是根据不同模式(train/dev/test,这也是运行时可以指定的)运行estimator.train,estimator.evaluate,estimator.predict。

总结:

1. 总体来说,在进行具体工作时,需要改的核心就是:

1) 继承DataProcessor定义一个自己的数据预处理类;

2) 在create_model中定义自己的具体下游工作。

2. 关于bert上游的具体模型定义这里没有,实在感兴趣可以看modeling.py脚本,优化器部分是optimization.py

3. 这里没有从头训练bert模型,因为耗时耗力,没有资源一般来说很难,关于预训练的部分是run_pretraining.py

二、实践

结合一个例子就会更清楚一点(链接: https://pan.baidu.com/s/1Mv7iVBaBNEusd7qqbOkYow 提取码: 6inw),或者

https://github.com/yuanxiaosc/Entity-Relation-Extraction

这个例子是一个比赛,其目的是从给定的一个句子中抽取所有三元组(关于三元组抽取,这里有另外一篇《当Bert遇上Keras:这可能是Bert最简单的打开姿势 - 科学空间|Scientific Spaces)》,涉及到的关系有:

例子 输入句子: "text": "《古世》是连载于云中书城的网络小说,作者是未弱"

输出三元组: "spo_list": [{"predicate": "作者", "object_type": "人物", "subject_type": "图书作品", "object": "未弱", "subject": "古世"}, {"predicate": "连载网站", "object_type": "网站", "subject_type": "网络小说", "object": "云中书城", "subject": "古世"}]}

解决思路如下:

先使用bert搭建关系的分类模型,简单来看就是一个多标签分类任务,类别就是上述的那几种关系

接着用预测出来的关系和文本,使用bert搭建一个实体抽取的模型,其简单来看也是一个分类模型,类别是:

SUB对应的就是subject,B-SUB就是第一个实体开始的位置,后续的是I-SUB,OBJ就是第二个实体,所以第二个模型就是预测每一个tokens的标示,最后根据标示可提取出实体对。

第二个模型是一个多分类的单标签任务,我们知道一句话中有可能有多个三元组,为此在进行第二个模型的时候,是先依据第一个模型预测出来的关系类如当前句子预测出3个关系,那么就重复该句话分成3个样本,那么3个样本就对应的是3个多分类单标签任务,为了使实体对和关系对应,所以第二个模型在计算loss的时候是综合考虑了关系和tokens标示的预测的。过程中所有结果都会生成保存在out文件夹下。

1. 总体简介

run_predicate_classification.py, run_sequnce_labeling.py分别对应的就是第一,二个模型,其写法套路参考就是上述介绍的run_classifier.py函数。produce_submit_json_file.py 就是将结果转化成比赛需要提交的数据格式,注意到最后的格式还需要实体对的类型,我们通过上面得到了三元组,但是还缺实体的类型,代码中是使用了字典,依据关系确定对应实体类型。

例如当前是父亲关系的话,这一对实体应该说的是两个人。pretrained_model是一个文件夹,将预训练好的中文模型解压文件夹放到该文件夹下。bert也是一个文件夹,主要放一些run_predicate_classification.py, run_sequnce_labeling.py需要用到的脚本,其实主要的就是上述介绍的那三个基本的脚本modeling.py,optimization.py,tokenization.py。bin该文件夹下主要就是一些数据预处理的文件。evaluation文件夹是评价函数,predicate_classifiction和subject_object_labeling是对应的第一个模型和第二个模型进行前需要的数据预处理脚本。raw_data该文件夹下主要就是放的原始数据。

2. 预测阶段

准备关系分类数据

python bin/predicate_classifiction/predicate_data_manager.py

原始数据train和dev两个json文件大体样式是:

test.json: 没有spo_list,待预测

运行完上述程序后会在bin/predicate_classifiction/文件下生成一个classification_data文件夹里面对应的train,test,valid文件夹,文件夹下生成的基本都是。

predicate_out.txt  :提取出每一个句子的关系集合

text.txt  :每一个句子的文本

token_in_not_UNK.txt :分字

token_in.txt

后面两个主要还是使用了tokenization脚本中的FullTokenizer一些类方法。

注意test是没有标签的,因为要看线下效果,即可以将dev数据集当成test数据集处理放在test目录下,后面评价的话就可以。所以如果是比赛的话直接按上面运行,非比赛的的可以:

predicate_data_manager.py set: Competition_Mode = False

其实区别就是test文件夹到底是真的test还是dev

关系分类模型训练

python run_predicate_classification.py \
--task_name=SKE_2019 \
--do_train=true \
--do_eval=false \
--data_dir=bin/predicate_classifiction/classification_data \
--vocab_file=pretrained_model/chinese_L-12_H-768_A-12/vocab.txt \
--bert_config_file=pretrained_model/chinese_L-12_H-768_A-12/bert_config.json \
--init_checkpoint=pretrained_model/chinese_L-12_H-768_A-12/bert_model.ckpt \
--max_seq_length=128 \
--train_batch_size=32 \
--learning_rate=2e-5 \
--num_train_epochs=6.0 \
--output_dir=./output/predicate_classification_model/epochs6/

经过我们上面分析,我们知道其是通过改造run_classifier.py得到的,那么主要变得地方就是定义了自己的数据预处理器和模型下游,具体看一下。自定义的数据预处理器是

SKE_2019_Multi_Label_Classification_Processor

方法一样,这里主要内部主要多了一个get_examples方法,因为当前的数据label和文本放在两个不同的文件,这个方法就是同时加载两个文件对应组合。再看一下create_model,最关键的就是:

 with tf.variable_scope("loss"):if is_training:# I.e., 0.1 dropoutoutput_layer = tf.nn.dropout(output_layer, keep_prob=0.9)logits_wx = tf.matmul(output_layer, output_weights, transpose_b=True)logits = tf.nn.bias_add(logits_wx, output_bias)probabilities = tf.sigmoid(logits)label_ids = tf.cast(labels, tf.float32)per_example_loss = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(logits=logits, labels=label_ids), axis=-1)loss = tf.reduce_mean(per_example_loss)return loss, per_example_loss, logits, probabilities

就是加一一层全连接,因为是多标签嘛,所以用的是sigmoid。其他的话就是在评价的时候即model_fn_builder中,概率阈值使用的是0.5。

在预测的时候,采用了同样的阈值(0.5),该部分在main中最后。

因为要将结果保存起来,所以在main中定义了一下写入操作都也很简单。

运行的最后结果就是会在out文件夹下生成一个 predicate_classification_model文件夹保存该模型训练好的模型参数。

准备序列标注数据

python bin/subject_object_labeling/sequence_labeling_data_manager.py

运行完上述程序后会在bin/subject_object_labeling/文件下生成一个sequence_labeling_data 文件夹里面对应的train,test,valid文件夹,文件夹下生成基本都是。

bert_tokener_error_log.txt

text.txt:可以看到如果句子有多个三元组是分成多个样本的

token_in_not_UNK.txt  token_in.txt和前面类似。

token_label_and_one_prdicate_out.txt:可以看到SUB和OBJ就是对应实体对的标示,后面是关系。

序列标注模型训练

python run_sequnce_labeling.py \
--task_name=SKE_2019 \
--do_train=true \
--do_eval=false \
--data_dir=bin/subject_object_labeling/sequence_labeling_data \
--vocab_file=pretrained_model/chinese_L-12_H-768_A-12/vocab.txt \
--bert_config_file=pretrained_model/chinese_L-12_H-768_A-12/bert_config.json \
--init_checkpoint=pretrained_model/chinese_L-12_H-768_A-12/bert_model.ckpt \
--max_seq_length=128 \
--train_batch_size=32 \
--learning_rate=2e-5 \
--num_train_epochs=9.0 \
--output_dir=./output/sequnce_labeling_model/epochs9/

同理其还是对run_classifier.py进行了改造,先看数据预处理函数器:

其里面最大不同就是定义了两个label函数

一个是实体标示label,一个是关系label。接着看一下create_model,其分别两大部分:predicate_loss和token_label_loss即关系预测和实体标示预测。先看关系部分predicate_loss

 predicate_output_layer = model.get_pooled_output()intent_hidden_size = predicate_output_layer.shape[-1].valuepredicate_output_weights = tf.get_variable("predicate_output_weights", [num_predicate_labels, intent_hidden_size],initializer=tf.truncated_normal_initializer(stddev=0.02))predicate_output_bias = tf.get_variable("predicate_output_bias", [num_predicate_labels], initializer=tf.zeros_initializer())with tf.variable_scope("predicate_loss"):if is_training:# I.e., 0.1 dropoutpredicate_output_layer = tf.nn.dropout(predicate_output_layer, keep_prob=0.9)predicate_logits = tf.matmul(predicate_output_layer, predicate_output_weights, transpose_b=True)predicate_logits = tf.nn.bias_add(predicate_logits, predicate_output_bias)predicate_probabilities = tf.nn.softmax(predicate_logits, axis=-1)predicate_prediction = tf.argmax(predicate_probabilities, axis=-1, output_type=tf.int32)predicate_labels = tf.one_hot(predicate_label_id, depth=num_predicate_labels, dtype=tf.float32)predicate_per_example_loss = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(logits=predicate_logits, labels=predicate_labels), -1)predicate_loss = tf.reduce_mean(predicate_per_example_loss)

因为该部分使用的数据是将句子已经分成单标签了,所以使用的是sigmoid,其实基本和关系分类模型训练中的差不多,只不过一个是多标签一个是单标签。

再看token_label_loss部分

最需要注意的就是上面红框的部分,其不再用bert的model.get_pooled_output()输出模式,而是使model.get_sequence_output(),因为结果需要预测每个tokens的标示,每个tokens应该只有一个标示,也是一个多分类任务。最后的loss是综合两部分:

loss = 0.5 * predicate_loss + token_label_loss

这里的predicate_probabilities就是预测关系的概率值,predicate_prediction是概率最大的那个关系,token_label_predictions就是预测的实体标示(当然啦,也可以返回具体每一个tokens关于每一个标示的概率)。运行的最后结果就是会在out文件夹下生成一个 sequnce_labeling_model文件夹保存该模型训练好的模型参数。训练过程到此结束了。

说到这里可能会有这样的疑惑?两个模型(所谓的管道),似乎没有交集,都是先处理准备好各自数据,然后各自训练各自的,而且第二个模型同时进行了关系和实体标示预测,那么第一个模型只预测了关系,那么第一个模型存在的意义是什么?直接用第二模型不就可以啦?

逻辑是这样的:

训练确实没有交集,各自训练各自的,因为训练样本都是精确的,无可厚非,但是在预测的时候我们只有一句话,要预测出这句话中的所有三元组,如果只采用第二个模型的话,它一句话根据当前的关系只能预测出一种三元组,所以需要第一个模型打前阵,先将句子中有多少种关系预测出来,然后再将句子依照关系分成一句话一个三元组,训练的时候我们是知道每一个句子有多少种关系,但是预测的时候我们并不知道,这就是第一个模型存在的意义,那么我就要用第二个模型同时解决一句话预测所有三元组呢?其实很难,因为首先tokens标记就是问题,怎么将标示和关系对应呢?是吧,所以这里所谓管道,其实是在预测过程体现的,下面就可以看到。

另外按照上面的思路,该模型bert的输入端一个样本的特征应该是当前句子和关系,而不仅仅是一个句子,不然的话将一句话拆分成多个样本还有什么意义?大家不就都一样啦,正是由于还有关系,才能实现同一句子抽取出不同的实体对(对应当前关系),那么输入端是怎么将将关系整合进去的呢?

解决办法是这样的:

将关系作为当前句子的下句,还记得text_b吗?第一个模型设为了None,这里将类别平铺成和text_a一样长度,当成一句话作为text_a(当前句子)的下文,该部分具体看convert_single_example:

假设当前句子长度为5,关系是作者,那么tokens_b(text_b) = ['作者','作者','作者','作者','作者'],具体代码都很简单,这里就举一个例子:

假设原始tokens : 胡歌是仙剑的主演,关系是:主演

那么经过convert_single_example函数处理后大体相当于:

tokens     :           CLS   胡   歌   是   仙   剑   的   主   演   SEP   主演   主演   主演   主演   主演   主演   主演   主演  SEP

input_ids :           101   200 201 202 203 204 205 206 207 102   2  2   2  2  2   2  2   2   102  0 0 0

segment_ids :       0       0     0     0    0     0    0     0     0     0        1       1        1         1         1         1      1         1       1 0 0 0

input_mask :     1   1   1   1   1    1    1     1     1     1    1       1        1         1         1         1      1         1       1  0 0 0

token_label   :        [CLS]    B-SUB I-SUB o B-OBJ I-OBJ o o o [SEP] [category] [category] [category] [category] [category] [category] [category] [category]  [SEP] [Padding] [Padding] [Padding]

predicate_id : 1

几点说明:

1) bert输入需要字段input_ids ,segment_ids,input_mask,计算loss需要token_label predicate_id;

2)红色的部分是填充到最大长度,填充部分都是0;

3)关于词的id 原始文本就使用tokenizer.convert_tokens_to_ids就可以得到(上面的101,200等等),类别("主演")的id呢?这里是将所有类别制作成一个字典,类如主演的value就是1,上述之所以是2,是因为代码中同一加了一个偏置。那么这里类别的id和经过tokenizer.convert_tokens_to_ids转化后的字id有没有可能是冲突的呢?没有!,因为   tokenizer.convert_tokens_to_ids没有用1-100之内的id,当前类别又没有超过100,所以不会冲突

4) 还记得论文中这幅图吗?

对应到这里:

第一个模型应该是对应图b,第二个模型应该包括两部分一部分是关系预测一部分是实体预测,关系预测相当于图a(sentence 2 = text_b),实体预测部分相当于c ,注意图d举的例子本来可以看做是一个实体识别的例子,但我们这里输入毕竟使用了 text_b,如果强行对应的话,只能看做是和c(知识问答)最对应了吧。

三、预测阶段

关系分类模型预测

运行

python run_predicate_classification.py \--task_name=SKE_2019 \--do_predict=true \--data_dir=bin/predicate_classifiction/classification_data \--vocab_file=pretrained_model/chinese_L-12_H-768_A-12/vocab.txt \--bert_config_file=pretrained_model/chinese_L-12_H-768_A-12/bert_config.json \--init_checkpoint=output/predicate_classification_model/epochs6/model.ckpt-478 \--max_seq_length=128 \--output_dir=./output/predicate_infer_out/epochs6/ckpt478

这里就是加载上述已经训练好的模型进行关系预测,这里要加载哪个模型需要手动设置一下即可

init_checkpoint

运行完后,会在out文件夹下生成一个predicate_infer_out文件夹,里面主要有:

predicate_predict.txt类别预测结果

predicate_score_value.txt:类别概率,以0.5为阈值确定最终结果

把关系分类模型预测结果转换成序列标注模型的预测输入

python bin/predicate_classifiction/prepare_data_for_labeling_infer.py

其主要的作用就是像上面所说的依照关系将其分成单句对应一个关系

会在bin//subject_object_labeling/sequence_labeling_data/test 文件夹下生成

text_and_one_predicate.txt:单句文本

token_in_and_one_predicate.txt:单句文本以及对应的关系

token_in_not_UNK_and_one_predicate.txt

序列标注模型预测

python run_sequnce_labeling.py \--task_name=SKE_2019 \--do_predict=true \--data_dir=bin/subject_object_labeling/sequence_labeling_data \--vocab_file=pretrained_model/chinese_L-12_H-768_A-12/vocab.txt \--bert_config_file=pretrained_model/chinese_L-12_H-768_A-12/bert_config.json \--init_checkpoint=output/sequnce_labeling_model/epochs9/model.ckpt-1237 \--max_seq_length=128 \--output_dir=./output/sequnce_infer_out/epochs9/ckpt1237

手动设置一下要加载的模型init_checkpoint

运行完后会在out文件夹下生成 sequnce_infer_out文件夹,里面主要是:

predicate_predict.txt:

predicate_probabilities.txt:关系预测概率,单标签,选取最大的概率作为最终结果

token_label_predictions.txt:实体表示预测结果(其实对应每一个token也是单标签多分类)

生成实体-关系结果

python produce_submit_json_file.py

主要就是按句子分组整合,生成最终预测数据

运行完后会在out文件夹下生成final_text_spo_list_result文件夹,里面:

keep_empty_spo_list_subject_predicate_object_predict_output.json:

因为这里采用的是非比赛模型,所以test中的数据其实是dev数据。

评价

关系抽取模型性能

运行

python bin/evaluation/evaluate_classifiction.py

结果

过程很简单,就是看每一条样本的具有的真实关系集合和预测关系集合(如下代码中的golden_data_list, predict_data_list),然后看两者是否相同,不相同的话再看看谁是谁的子集,最后分别统计结果。

从上面可以看出,一共有1000条样本,完全预测正确的是551,除此之外,只预测出真实关系集合中的一个子集数是83个,另外还有125个是预测的关系集合中完全包含了真实关系集合,当然啦剩下的1000-551-83-125=241个样本的预测结果都是交叉的。

实体抽取模型性能

运行

python bin/evaluation/evaluate_labeling.py 

结果

其过程就是将看预测的三元组对的个数,correct spo num是预测对的三元组个数,submitted spo num是一共预测出的三元组个数,golden set spo num是真实的三元组个数,当然得在text分组下对比是否相等才有意义,最后就是根据这三个数计算准确率,召回率以及F1值。

总结

1. 把握住  bert的输入:input_ids,input_mask,segment_ids (主要在convert_single_example生成)bert的输出:model.get_sequence_output() ,model.get_pooled_output();

2. 具体做的时候主要修改:继承DataProcessor类定义自己的数据预处理器,在create_model定义自己具体下游的任务。

利用Bert进行关系抽取相关推荐

  1. 【信息抽取】如何使用BERT进行关系抽取

    事物.概念之间的关系是人类知识中非常重要的一个部分,但是他们通常隐藏在海量的非结构文本中.为了从文本中抽取这些关系事实,从早期的模式匹配到近年的神经网络,大量的研究在多年前就已经展开. 然而,随着互联 ...

  2. 信息抽取(二)花了一个星期走了无数条弯路终于用TF复现了苏神的《Bert三元关系抽取模型》,我到底悟到了什么?

    信息抽取(二)花了一个星期走了无数条弯路终于用TF复现了苏神的<Bert三元关系抽取>模型,我到底悟到了什么? 前言 数据格式与任务目标 模型整体思路 复现代码 数据处理 数据读取 训练数 ...

  3. 【文本信息抽取与结构化】详聊如何用BERT实现关系抽取

    https://mp.weixin.qq.com/s?__biz=MzA3NDIyMjM1NA%3D%3D&chksm=8712ab8db065229bc8ea68f94332be9e03a0 ...

  4. 【转】自然语言系列学习之表示学习与知识获取(八)利用远程监督多实例的关系抽取

    下面介绍下如何利用远程监督多实例进行关系抽取.前文有提到到当利用文本进行关系抽取,基本思想是利用知识图谱中,如(下图)任意两个实体同时在句子中出现: 我们把句子当成是两个实体关系训练得样例,这样就可以 ...

  5. 信息抽取(三)三元关系抽取——改良后的层叠式指针网络,让我的模型F1提升近4%(接上篇)

    信息抽取(三)三元关系抽取--改良后的层叠式指针网络 前言 优化在验证集上的模型推理结果的SPO抽取方法 不随机选择S(subject),⽽是遍历所有不同主语的标注样本构建训练集. 模型优化 加入对抗 ...

  6. 达摩院文档级关系抽取新SOTA和零样本关系抽取新任务

    ©作者 | 邴立东.谭清宇.谢耀赓 单位 | Alibaba DAMO, NUS, SUTD 引言 关系抽取(RE)是 NLP 的核心任务之一,是构建知识库.事件抽取等下游应用的关键技术.多年来受到研 ...

  7. 【NLP】如何利用BERT来做基于阅读理解的信息抽取

    信息抽取 (Information Extraction: IE)是把文本里包含的信息进行结构化处理,变成计算机能够处理的结构,实体抽取.关系抽取.事件抽取等都属于信息抽取的范畴.在NLP领域,信息抽 ...

  8. BERT gated multi-window attention network for relation extraction 用于关系抽取的BERT门控多窗口注意力网络

    BERT gated multi-window attention network for relation extraction 用于关系抽取的BERT门控多窗口注意力网络 Abstract 实体关 ...

  9. 基于Bert的实体关系抽取模型

    关注微信公众号:NLP分享汇.[喜欢的扫波关注,每天都在更新自己之前的积累] 文章链接:https://mp.weixin.qq.com/s/OebxnvwjQiVbBZZFL2Un3A 前言 信息抽 ...

最新文章

  1. mr图像翻转的原因_CSS图片翻转例子
  2. dubbo中的Filter顺序是如何确定的
  3. string.empty , , null 以及性能的比较
  4. 理论基础 —— 索引 —— 稠密索引
  5. 每天一个知识点:Python列表两个冒号加一个负数的表达方法
  6. 梯度下降来龙去脉附matlab代码
  7. 机器学习中的分类模型和回归模型
  8. 基于堆叠卷积长短期神经网络【CNNLSTM】模型的时序数据预测分析
  9. 充电器input与output_变频器input和output的区别?
  10. H750/H755 安装centos系统
  11. 基于Android 的手机传感器检测
  12. 据说百度的月饼最差劲!!
  13. acwing.95.费解的开关
  14. python微服务开发pdf_《微服务设计》中文完整版PDF电子书下载
  15. 日历控件CalendarView的使用
  16. 计算机文档考试题目及答案,计算机word考试题及答案解析
  17. 过滤:sql、敏感词、html、js、css
  18. 【windows10】将路由器设置为交换机
  19. 深度学习训练经验之迭代次数与准确率之惑
  20. 安装2008 R2 SQL,在安装程序支持文件时页面闪退

热门文章

  1. AsyncIO –可以完全完成Python的未来!
  2. 动态播放幻灯片 计算机教案,小学信息技术《动态播放幻灯片-设置幻灯片文字的动画效果》教案...
  3. 基于python分析航空公司客户价值《数据挖掘》 课程实验报告
  4. ASM来了,我们需要投放ASM吗
  5. python 取整与取余规则
  6. 40.qt quick- 高仿微信实现局域网聊天V4版本(支持gif动图表情包、消息聊天、拖动缩放窗口、支持Linux编译)...
  7. DownloadManager+NumberProgressBar+Executors线程池实现多并发下载APK安装
  8. 二十八、Docker (4)
  9. 标注工具-马克鳗的使用
  10. 智产易:商标被驳回,是重新申请比较好,还是驳回复审好?