当前时间是2021/6/16,matchzoo作为非常强大的文本匹配库,当前未更新到TF2.4以上版本,无法使用本机3090加速,为此我将源码反向推导实现,使用TF2.4形式实现这些模型

"""
作者英俊
QQ 2227495940
所有权:西安建筑科技大学草堂校区 信控楼704实验室
"""
"暂定只能扣13个模型出来"
'暂定只能扣13个模型出来'

导入第三方库包

# 导入tf 框架以及tf框架里面的keras,之后的反推模型需要依赖这两个库
import tensorflow as tf #导入TF
from tensorflow import keras # 导入keras库
from tensorflow.keras import backend as K # 导入后台print(tf.__version__)
2.4.0
import matchzoo as mz
# 检查目前可以支持那些模型,但是由于本人的研究水平,目前应该只能剥离16种模型进行加速
mz.models.list_available()
Using TensorFlow backend.[matchzoo.models.naive.Naive,matchzoo.models.dssm.DSSM,matchzoo.models.cdssm.CDSSM,matchzoo.models.dense_baseline.DenseBaseline,matchzoo.models.arci.ArcI,matchzoo.models.arcii.ArcII,matchzoo.models.match_pyramid.MatchPyramid,matchzoo.models.knrm.KNRM,matchzoo.models.duet.DUET,matchzoo.models.drmmtks.DRMMTKS,matchzoo.models.drmm.DRMM,matchzoo.models.anmm.ANMM,matchzoo.models.mvlstm.MVLSTM,matchzoo.contrib.models.match_lstm.MatchLSTM,matchzoo.contrib.models.match_srnn.MatchSRNN,matchzoo.contrib.models.hbmp.HBMP,matchzoo.contrib.models.esim.ESIM,matchzoo.contrib.models.bimpm.BiMPM,matchzoo.contrib.models.diin.DIIN,matchzoo.models.conv_knrm.ConvKNRM]

数据读取

import pandas as pd
# 读取数据,将数据集加载进来,并且检查
data_df = pd.read_csv("data/atec_nlp_sim_train_all.csv", sep="\t", header=None, encoding="utf-8-sig", names=["sent1", "sent2", "label"])
# 获取首部和尾部
data_df.head(10).append(data_df.tail(5))
sent1 sent2 label
1 怎么更改花呗手机号码 我的花呗是以前的手机号码,怎么更改成现在的支付宝的号码手机号 1
2 也开不了花呗,就这样了?完事了 真的嘛?就是花呗付款 0
3 花呗冻结以后还能开通吗 我的条件可以开通花呗借款吗 0
4 如何得知关闭借呗 想永久关闭借呗 0
5 花呗扫码付钱 二维码扫描可以用花呗吗 0
6 花呗逾期后不能分期吗 我这个 逾期后还完了 最低还款 后 能分期吗 0
7 花呗分期清空 花呗分期查询 0
8 借呗逾期短信通知 如何购买花呗短信通知 0
9 借呗即将到期要还的账单还能分期吗 借呗要分期还,是吗 0
10 花呗为什么不能支付手机交易 花呗透支了为什么不可以继续用了 0
102473 花呗分期还一期后能用吗 分期是还花呗吗 0
102474 我的支付宝手机号和花呗手机号不一样怎么办 支付宝上的手机号,怎么和花呗上的不一样 1
102475 借呗这个月的分期晚几天还可以吗 借呗分期后可以更改分期时间吗 0
102476 我怎么没有花呗临时额度了 花呗有零时额度吗 0
102477 怎么授权芝麻信用给花呗 花呗授权联系人怎么授权 0
data_df.shape # 检查数据集大小
(102477, 3)

处理数据

import sklearn # 导入sklearn库
from sklearn.model_selection import train_test_split #可以将数据集划分训练集/测试集/验证集
# 为了防止运行速度缓慢,从总的数据集中抽取3500个样本进行实验
sent1=data_df.sent1.values[:3501]
sent2=data_df.sent2.values[:3501]
label=data_df.label.values[:3501]
# 这里是训练集
sent1_=sent1[:2501]
sent2_=sent2[:2501]
label_=label[:2501]
# 这里是验证集
_sent1=sent1[2501:]
_sent2=sent2[2501:]
_label=label[2501:]# 将训练集转换成matchzoo需要的亚子
train_dev_data=pd.DataFrame()
train_dev_data['id_left']=range(2501)
train_dev_data['text_left']=sent1_
train_dev_data['id_right']=range(2501)
train_dev_data['text_right']=sent2_
train_dev_data['label']=label_# 将测试集转换成matchzoo需要的亚子
test_data=pd.DataFrame()
test_data['id_left']=range(1000)
test_data['text_left']=_sent1
test_data['id_right']=range(1000)
test_data['text_right']=_sent2
# test_data['label']=_label
# 但本程序是不使用matchzoo的,写成这样是为了和另一道程序进行对比
# 获取字典
from collections import Counterc = Counter()
sent_data = data_df["sent1"].values + data_df["sent2"].values
for d in sent_data:c.update(d)
word_counts = sorted(dict(c).items(), key=lambda x: x[1], reverse=True)print(word_counts[:10])# 获取实现字典和idx的互相转换
vocab_words = ["<PAD>", "<UNK>"]
for w, c in word_counts:vocab_words.append(w)vocab2id = {w: i for i, w in enumerate(vocab_words)}
id2vocab = {i: w for i, w in enumerate(vocab_words)}print("vocab size: ", len(vocab2id))
print(list(vocab2id.items())[:5])
print(list(id2vocab.items())[:5])# 保存字典
with open("vocab.txt", "w", encoding="utf8") as f:for w, i in vocab2id.items():f.write(w+"\n")# 文本转换为字典
def sent2index(vocab2id, words):return [vocab2id[w] if w in vocab2id else vocab2id["<UNK>"] for w in words]
# 将训练集转换成数字格式
train_dev_data["text_left"] = train_dev_data["text_left"].apply(lambda x: sent2index(vocab2id, x))
train_dev_data["text_right"] = train_dev_data["text_right"].apply(lambda x: sent2index(vocab2id, x))# 将测试机转换成数字形式
test_data["text_left"] = test_data["text_left"].apply(lambda x: sent2index(vocab2id, x))
test_data["text_right"] =test_data["text_right"].apply(lambda x: sent2index(vocab2id, x))
[('呗', 211063), ('花', 151025), ('么', 83328), ('还', 80050), ('借', 69825), ('我', 67036), ('款', 62302), ('的', 61108), ('了', 56689), ('用', 52685)]
vocab size:  2175
[('<PAD>', 0), ('<UNK>', 1), ('呗', 2), ('花', 3), ('么', 4)]
[(0, '<PAD>'), (1, '<UNK>'), (2, '呗'), (3, '花'), (4, '么')]
train_dev_data.head(10).append(train_dev_data.tail(10))
id_left text_left id_right text_right label
0 0 [1515, 15, 4, 187, 129, 3, 2, 57, 73, 43, 60] 0 [7, 9, 3, 2, 18, 23, 52, 9, 57, 73, 43, 60, 14... 1
1 1 [160, 31, 13, 10, 3, 2, 14, 95, 66, 89, 10, 20... 1 [564, 9, 179, 200, 95, 18, 3, 2, 25, 8] 0
2 2 [3, 2, 155, 132, 23, 51, 5, 21, 31, 36, 16] 2 [7, 9, 243, 213, 22, 23, 31, 36, 3, 2, 6, 8, 16] 0
3 3 [76, 85, 260, 227, 69, 96, 6, 2] 3 [92, 459, 142, 69, 96, 6, 2] 0
4 4 [3, 2, 231, 60, 25, 34] 4 [180, 271, 60, 231, 679, 22, 23, 11, 3, 2, 16] 0
5 5 [3, 2, 71, 19, 51, 13, 21, 29, 19, 16] 5 [7, 66, 37, 53, 71, 19, 51, 5, 124, 10, 53, 93... 0
6 6 [3, 2, 29, 19, 94, 680] 6 [3, 2, 29, 19, 131, 261] 0
7 7 [6, 2, 71, 19, 236, 58, 36, 227] 7 [76, 85, 175, 86, 3, 2, 236, 58, 36, 227] 0
8 8 [6, 2, 569, 464, 41, 19, 48, 5, 9, 46, 78, 5, ... 8 [6, 2, 48, 29, 19, 5, 14, 18, 16] 0
9 9 [3, 2, 26, 17, 4, 13, 21, 33, 25, 57, 73, 144,... 9 [3, 2, 401, 33, 10, 26, 17, 4, 13, 22, 23, 383... 0
2491 2491 [3, 2, 5, 8, 107, 20, 97, 7, 9, 46, 78, 107, 2... 2491 [54, 11, 3, 2, 87, 49, 9, 107, 20, 97, 88, 44,... 1
2492 2492 [3, 2, 33, 25, 366, 374] 2492 [27, 28, 6, 2, 366, 374] 0
2493 2493 [3, 2, 29, 19, 10, 21, 40, 52, 5, 8, 16] 2493 [3, 2, 29, 19, 15, 4, 174, 20, 5, 8] 0
2494 2494 [3, 2, 22, 23, 115, 104, 350, 369, 16] 2494 [3, 2, 121, 42, 20, 30, 22, 23, 38, 350, 369, ... 0
2495 2495 [57, 73, 70, 74, 63, 7, 9, 3, 2, 339, 505, 365... 2495 [7, 9, 3, 2, 70, 167, 14, 26, 17, 4, 7, 9, 33,... 0
2496 2496 [3, 2, 75, 98, 29, 19, 10, 35, 213, 242, 240, ... 2496 [3, 2, 46, 78, 29, 19, 10, 35, 84, 32, 5, 94, ... 0
2497 2497 [7, 18, 3, 2, 59, 108, 6] 2497 [3, 2, 22, 23, 356, 6, 61, 107, 20, 30, 16] 0
2498 2498 [3, 2, 78, 13, 379, 10, 147, 102, 59, 194] 2498 [3, 2, 38, 102, 194, 253, 343] 0
2499 2499 [3, 2, 71, 19, 111, 82, 56, 35, 183, 287, 16] 2499 [3, 2, 238, 12, 12, 12, 14, 71, 19, 12, 12, 12... 0
2500 2500 [11, 3, 2, 59, 9, 34, 86, 145, 151, 50, 109, 9... 2500 [3, 2, 32, 238, 34, 14, 50, 9, 8, 147, 102, 59... 0
test_data.head(10).append(test_data.tail(10))
id_left text_left id_right text_right
0 0 [27, 28, 6, 2, 128, 43, 5, 8] 0 [27, 28, 6, 2, 5, 8, 103, 19, 10]
1 1 [7, 31, 36, 3, 2, 51, 53, 20, 30, 5, 18, 12, 1... 1 [7, 32, 24, 31, 36, 3, 2, 16]
2 2 [6, 2, 18, 195, 44, 5, 16] 2 [6, 2, 417, 424, 141, 37, 44, 105, 48, 5, 16, ...
3 3 [3, 2, 29, 19, 14, 128, 19, 199, 82] 3 [3, 2, 22, 23, 29, 12, 12, 12, 19, 9, 16]
4 4 [682, 840, 36, 68, 122, 13, 21, 31, 36, 3, 2, ... 4 [18, 13, 18, 682, 840, 36, 68, 1395, 32, 24, 3...
5 5 [7, 126, 52, 9, 46, 43, 18, 22, 23, 11, 3, 2, 9] 5 [7, 9, 3, 2, 61, 38, 22, 23, 11, 16]
6 6 [26, 17, 4, 6, 2, 48, 124, 503, 362, 482] 6 [76, 85, 124, 503, 6, 2, 40, 20, 362, 482]
7 7 [3, 2, 417, 424, 45, 65, 34, 99, 22, 23, 91, 2... 7 [3, 2, 29, 12, 12, 12, 19, 111, 82, 45, 65]
8 8 [26, 17, 4, 7, 9, 162, 35, 37, 46, 43, 75, 98,... 8 [14, 7, 66, 37, 33, 25, 39, 26, 17, 4, 11, 13,...
9 9 [3, 2, 144, 290, 69, 96, 10, 15, 4, 5, 48, 5, 8] 9 [3, 2, 144, 290, 69, 96, 17, 4, 184, 201]
990 990 [27, 28, 6, 2, 155, 132, 505, 4, 202, 155] 990 [6, 2, 155, 132, 45, 142, 21, 132, 155]
991 991 [66, 228, 34, 7, 3, 2, 32, 24, 253, 46] 991 [50, 8, 41, 3, 2, 34, 15, 4, 32, 41, 46, 176, ...
992 992 [3, 2, 22, 160, 38, 86, 57, 73, 33, 25, 16, 20... 992 [3, 2, 33, 25, 24, 57, 854, 49, 16]
993 993 [7, 125, 296, 296, 629, 213, 172, 59, 108, 74,... 993 [21, 11, 3, 2, 53, 113, 18, 38, 7, 9, 368, 108...
994 994 [7, 92, 31, 36, 58, 11, 55, 3, 2, 33, 25] 994 [3, 2, 58, 11, 55, 47, 34, 31, 36, 10, 15, 4, 11]
995 995 [7, 9, 47, 8, 60, 13, 21, 31, 36, 3, 2, 97, 58... 995 [47, 34, 60, 21, 11, 3, 2, 25, 8]
996 996 [3, 2, 13, 304, 72, 5, 8, 56, 79, 72, 5, 8, 16] 996 [3, 2, 5, 8, 51, 217, 79, 72, 45, 62, 10]
997 997 [61, 38, 32, 24, 27, 28, 6, 2, 10, 16] 997 [6, 2, 160, 32, 24]
998 998 [70, 37, 44, 3, 2, 11, 10, 12, 12, 12, 14, 66,... 998 [3, 2, 20, 30, 12, 12, 12, 14, 118, 21, 29, 19...
999 999 [76, 181, 403, 437, 257, 32, 24, 330, 272, 79,... 999 [3, 2, 40, 20, 403, 437, 237, 122, 32, 24]
# 文本的长度
max_len = 15
# 字典的长度
vocab_size = len(vocab2id)
# 词向量长度
embedding_size = 128
# 确保text_left和text_right对齐
from tensorflow.keras.preprocessing.sequence import pad_sequences
## 训练集对齐
sent1_datas = train_dev_data.text_left.values.tolist()
sent2_datas = train_dev_data.text_right.values.tolist()
labels = train_dev_data.label.values.tolist()
train_sent1=pad_sequences(sent1_datas, maxlen=max_len)
train_sent2 = pad_sequences(sent2_datas, maxlen=max_len)
## 测试集对齐
test_sent1_datas = test_data.text_left.values.tolist()
test_sent2_datas = test_data.text_right.values.tolist()
test_sent1=pad_sequences(test_sent1_datas, maxlen=max_len)
test_sent2 = pad_sequences(test_sent2_datas, maxlen=max_len)# 划分训练 测试数据集
count = len(labels)
# idx1, idx2 = int(count*0.8), int(count*0.9)
idx1= int(count*0.8)
sent1_train, sent2_train = train_sent1[:idx1], train_sent2[:idx1]
sent1_val, sent2_val = train_sent1[idx1:], train_sent2[idx1:]
# sent1_test, sent2_test = sent1_datas[idx2:], sent2_datas[idx2:]train_labels, val_labels= labels[:idx1], labels[idx1:]print("train data: ", len(sent1_train), len(sent2_train), len(train_labels))
print("val data: ", len(sent1_val), len(sent2_val), len(val_labels))
# print("test data: ", len(sent1_test), len(sent2_test), len(test_labels))import numpy as np # 将list转换成array
train_labels=np.array(train_labels)
val_labels=np.array(val_labels)
train data:  2000 2000 2000
val data:  501 501 501
train_labels
array([1, 0, 0, ..., 0, 1, 0])
# 此时的数据已经彻底处理完毕

花呗问答匹配(part1 数据预处理)相关推荐

  1. java通过匹配合并数据(数据预处理)

    数据描述 以下程序是对如下格式的数据进行合并处理. 这个表的每一行表示用户id及用户的特征.其中,一个用户只有一个特征向量,即第一列不会重复. 这张表的第一列,表示用户的id,第二列表示用户所看的电影 ...

  2. 【地图匹配(ST-matching)】GPS 轨迹数据预处理——T-Driver数据集【持续更新中】

    一.数据介绍 1.数据链接 https://download.csdn.net/download/skyman30/87432266?spm=1001.2014.3001.5503https://do ...

  3. 数据预处理Part1——数据清洗

    文章目录 一.数据预处理 二.数据清洗 1.缺失值处理 1.1 丢弃缺失值 1.2 补全缺失值 1.3 真值转换 1.4 不处理 1.5 特征选择 2.异常值 2.1 异常值处理 2.2 保留异常数据 ...

  4. 【MindSpore易点通机器人-05】问答数据预处理及编码

    作者:王磊 更多精彩分享,欢迎访问和关注:https://www.zhihu.com/people/wldandan 在上一篇[MindSpore易点通机器人-04]MLOps 环境搭建过程,我们为大 ...

  5. 【数据挖掘笔记三】数据预处理

    3.数据预处理 数据预处理技术: 数据清理用来清除数据中的噪声,纠正不一致: 数据集成将数据由多个数据源合并成一个一致的数据存储,如数据仓库: 数据归约通过如聚集.删除冗余特征或聚类来降低数据的规模: ...

  6. 你在数据预处理上花费的时间,是否比机器学习还要多?

    你在数据预处理上花费的时间,是否比机器学习还要多? 本文作者:三川 2017-05-31 19:05 导语:IBM 模型架构专家,向大家介绍一个新出世的 Python 数据预处理神器--nuts-ml ...

  7. [nlp] 小傻学数据预处理

    [nlp] 小傻学数据预处理 1. 分词 1.1 分词方法 1.1.1 基于规格(词典.词库) 1.1.2 基于知识理解 1.1.3 基于(词频)统计 1.2 分词工具 1.3 jieba分词原理 1 ...

  8. 数据预处理Part4——数据离散化

    文章目录 离散化,对数据做逻辑分层 1. 什么是数据离散化? 2. 为什么要将数据离散化 3. 如何将数据离散化? 3.1 时间数据离散化 3.2 多值离散数据离散化 3.3 连续数据离散化 3.4 ...

  9. Python数据分析入门笔记9——数据预处理案例综合练习(男篮女篮运动员)

    系列文章目录 Python数据分析入门笔记1--学习前的准备 Python数据分析入门笔记2--pandas数据读取 Python数据分析入门笔记3--数据预处理之缺失值 Python数据分析入门笔记 ...

最新文章

  1. 自监督3D手部姿态估计方法
  2. redis的持久化方式有哪些?
  3. WPF/Silverlight深度解决方案:(十六)传值实现
  4. UCI机器学习数据集
  5. 最新消息:更多的Windows Azure Marketplace Content 和Hands On Lab
  6. [在windows上使用Unix工具]cygwin
  7. Structs2文件上传以及预览
  8. java计算机毕业设计网上书店商城源码+系统+数据库+lw文档+mybatis+运行部署
  9. echarts字体大小自适应
  10. codeforces379a Alyona and mex
  11. 将一个3x4阶矩阵转置。
  12. 珠宝电商探索之路实战分享
  13. 请简述一下”==”和”equals”的区别
  14. ThinkPad机型BIOS开启VT虚拟化技术
  15. 最大流与最小割(Maxflow与Mincut)
  16. Matlab - 产生高斯噪声
  17. zk 有一个节点报 It is probably not running且日志无明显报错
  18. linux中.sql.gz文件解压,linux下tar.gz、tar、bz2、zip等解压缩、压缩命令小结
  19. 导致请求失败 设备硬件出现致命错误_设备硬件出现致命错误,导致请求失败,应该怎么办?...
  20. CLKing31-------分割字符串的AfxExtractSubString函数

热门文章

  1. 近1万人次参赛 T3出行全国首届车载实况足球冠军赛收官
  2. .NET和ASP.NET的区别是什么
  3. day17【缓冲流、转换流、序列化流、装饰者模式、commons-io工具包】
  4. python中单引号和双引号的区别_python中单引号,双引号,多引号区别_python中单双引号...
  5. 微信支付-H5网页支付开通流程
  6. 【数据科学项目02】:NLP应用之垃圾短信/邮件检测(端到端的项目)
  7. 线程通信机制---共享内存:消息传递
  8. 维度诅咒及manifold Learning
  9. 华为在北京:数字赋能医疗健康,打造转型升级的“北京样板”
  10. Photoshop文字特效——胶囊字体