深度特征提取方法_基于深度学习的文本数据特征提取方法之Glove和FastText
作者:Dipanjan (DJ) Sarkar
编译:ronghuaiyang
导读
今天接着昨天的内容,给大家介绍Glove模型和FastText模型,以及得到的词向量如何应用在机器学习任务里。
(书接上回)
GloVe模型
GloVe模型指的是全局向量模型,是一种无监督学习模型,可以获得类似于Word2Vec的dense词向量。然而,技术是不同的,训练是在一个聚合的全局词-词共现矩阵上做的,可以得到具有有意义的子结构的向量空间。这个方法是斯坦福大学的Pennington等人发明的。
我们不会在这里从头开始详细介绍模型的实现。我们在这里会保持简单,并试图理解GloVe模型背后的基本概念。我们已经讨论了基于计数的矩阵分解的方法,如LSA以及预测的方法,如Word2Vec。文章称,目前,这两个方法都存在明显的缺陷。像LSA这样的方法可以有效地利用统计信息,但在单词类比任务上,比如我们如何发现语义相似的单词,它们的表现相对较差。像skip-gram这样的方法可能在类比任务上做得更好,但是它们在全局水平上没有很好地利用语料库的统计数据。
GloVe模型的基本方法是首先创建一个由(单词,上下文)对组成的巨大单词上下文共现矩阵,这样的话,该矩阵中的每个元素表示的是这个单词与上下文一起出现的频率(可以是单词序列)。接下来的想法是应用矩阵分解来逼近这个矩阵,如下图所示。
考虑Word-Context (WC)矩阵、Word-Feature (WF)矩阵和Feature-Context (FC)矩阵,我们尝试对WC = WF x FC进行因式分解,将WF和FC相乘,重构WC。为此,我们使用一些随机权重初始化WF和FC,并尝试将它们相乘以得到WC'(WC的近似形式),并度量它与WC的距离。我们多次使用随机梯度下降(SGD)来降低误差。最后,单词特征矩阵(WF)为每个单词提供单词嵌入,其中F可以预先设置为特定数量的维度。需要记住的非常重要的一点是,Word2Vec和GloVe模型的工作原理非常相似。这两种方法的目的都是建立一个向量空间,在这个空间中,每个单词的位置都受到其相邻单词的上下文和语义的影响。Word2Vec以单词共现对的本地个别示例开始,GloVe以语料库中所有单词的全局聚合共现统计数据开始。
将Glove特征应用于机器学习任务
让我们尝试使用基于GloVe的嵌入式技术来完成文档聚类任务。非常流行的spacy框架具有利用基于不同语言模型来得到GloVe嵌入。你还可以获得预先训练好的词向量,并根据需要使用gensim或spacy加载它们。我们将首先安装spacy并使用en_vectors_web_lg模型,该模型由训练在Common Crawl上的300维单词向量组成。
# Use the following command to install spaCy > pip install -U spacy OR > conda install -c conda-forge spacy # Download the following language model and store it in disk https://github.com/explosion/spacy-models/releases/tag/en_vectors_web_lg-2.0.0 # Link the same to spacy > python -m spacy link ./spacymodels/en_vectors_web_lg-2.0.0/en_vectors_web_lg en_vecs Linking successful ./spacymodels/en_vectors_web_lg-2.0.0/en_vectors_web_lg --> ./Anaconda3/lib/site-packages/spacy/data/en_vecs You can now load the model via spacy.load('en_vecs')
在spacy中也有自动安装模型的方法。现在,我们将使用spacy加载语言模型。
import spacy nlp = spacy.load('en_vecs') total_vectors = len(nlp.vocab.vectors) print('Total word vectors:', total_vectors)
Total word vectors: 1070971
这验证了一切都在正常工作。现在让我们在玩具语料库中获取每个单词的GloVe嵌入。
unique_words = list(set([word for sublist in [doc.split() for doc in norm_corpus] for word in sublist])) word_glove_vectors = np.array([nlp(word).vector for word in unique_words]) pd.DataFrame(word_glove_vectors, index=unique_words)
现在我们可以使用t-SNE来可视化这些嵌入,类似于我们使用Word2Vec嵌入所做的。
from sklearn.manifold import TSNE tsne = TSNE(n_components=2, random_state=0, n_iter=5000, perplexity=3) np.set_printoptions(suppress=True) T = tsne.fit_transform(word_glove_vectors) labels = unique_words plt.figure(figsize=(12, 6)) plt.scatter(T[:, 0], T[:, 1], c='orange', edgecolors='r') for label, x, y in zip(labels, T[:, 0], T[:, 1]): plt.annotate(label, xy=(x+1, y+1), xytext=(0, 0), textcoords='offset points')
spacy的美妙之处在于,它将自动提供每个文档中单词的平均嵌入,而无需像我们在Word2Vec中那样实现函数。我们将利用相同的方法为语料库获取文档特征,并使用k-means聚类来对文档进行聚类。
doc_glove_vectors = np.array([nlp(str(doc)).vector for doc in norm_corpus]) km = KMeans(n_clusters=3, random_state=0) km.fit_transform(doc_glove_vectors) cluster_labels = km.labels_ cluster_labels = pd.DataFrame(cluster_labels, columns=['ClusterLabel']) pd.concat([corpus_df, cluster_labels], axis=1)
我们看到一致的聚类,类似于我们从Word2Vec模型中得到的结果,这很好!GloVe模型声称在很多情况下都比Word2Vec模型表现得更好,如下图所示。
上述实验是通过在Wikipedia 2014 + Gigaword 5上训练300维向量,使用相同的40万个单词词汇表和一个大小为10的对称上下文窗口来完成的。
FastText模型
FastText模型于2016年首次由Facebook引入,作为普通Word2Vec模型的扩展和改进。基于Mikolov等人的原始论文' Subword Information Word Vectors with Subword Information',这是一本很好的读物,可以深入了解这个模型是如何工作的。总的来说,FastText是一个学习单词表示的框架,还可以执行健壮、快速和准确的文本分类。该框架由Facebook在GitHub上开源,拥有以下内容。
- 最新最先进的英文词向量。
- 在Wikipedia和crawl-vectors上训练了157种语言的词向量。
- 用于语言识别和各种受监督的任务的模型。
虽然我并没有从零开始实现这个模型,但是根据我的研究论文,以下是我对这个模型是如何工作的了解。一般来说,像Word2Vec模型这样的预测模型通常将每个单词视为一个不同的实体(例如where),并为单词生成dense的嵌入。然而,这是一个严重的限制,语言有大量的词汇和许多罕见的词,可能不会出现在很多不同的语料库。Word2Vec模型通常忽略每个单词的形态学结构,而将单词视为单个实体。FastText模型认为每个单词都是由n个字符组成的包。这在论文中也称为子词模型。
我们在单词的开头和结尾添加了特殊的边界符号<和>。这使我们能够从其他字符序列中区分前缀和后缀。我们还将单词w本身包含在它的n-gram集合中,以学习每个单词的表示(加上其字符的n-gram)。以单词where和n=3 (tri-grams)为例,它将由这些字符n-grams来表示:以及表示整个单词的特殊序列来表示这个单词。注意,单词与tri-grams中的her是不同的。
在实际应用中,本文建议提取n≥ 3和n≤ 6。这是一种非常简单的方法,可以考虑不同的n-gram集合,例如取所有前缀和后缀。我们通常将向量表示(嵌入)与单词的每个n-gram关联起来。因此,我们可以用一个单词的n-gram的向量表示的和或者这些n-gram的嵌入的平均值来表示这个单词。因此,由于利用基于字符的单个单词的n-gram的这种效果,罕见单词获得良好表示的几率更高,因为它们基于字符的n-gram应该出现在语料库的其他单词中。
将FastText特征应用于机器学习任务
gensim包封装了很好的接口,为我们提供了gensim.models.fasttext下可用的FastText模型的接口。让我们再次把这个应用到我们的圣经语料库上,看看我们感兴趣的单词和它们最相似的单词。
from gensim.models.fasttext import FastText wpt = nltk.WordPunctTokenizer() tokenized_corpus = [wpt.tokenize(document) for document in norm_bible] # Set values for various parameters feature_size = 100 # Word vector dimensionality window_context = 50 # Context window size min_word_count = 5 # Minimum word count sample = 1e-3 # Downsample setting for frequent words # sg decides whether to use the skip-gram model (1) or CBOW (0) ft_model = FastText(tokenized_corpus, size=feature_size, window=window_context, min_count=min_word_count,sample=sample, sg=1, iter=50) # view similar words based on gensim's FastText model similar_words = {search_term: [item[0] for item in ft_model.wv.most_similar([search_term], topn=5)] for search_term in ['god', 'jesus', 'noah', 'egypt', 'john', 'gospel', 'moses','famine']} similar_words
可以在我们的Word2Vec模型的结果中看到许多相似之处,其中每个感兴趣的单词都有相关的相似单词。你注意到有什么有趣的关联和相似之处吗?
注意:运行此模型的计算开销较大,而且与skip-gram模型相比,通常需要更多的时间,因为它考虑了每个单词的n-gram。如果使用GPU或好的CPU进行训练,可以更好地工作。我在AWS的p2上训练过这个。例如,我花了大约10分钟,而在一个普通的系统上需要花2-3个小时。
现在让我们使用Principal Component Analysis (PCA)将单词嵌入维数减少到二维,然后将其可视化。
from sklearn.decomposition import PCA words = sum([[k] + v for k, v in similar_words.items()], []) wvs = ft_model.wv[words] pca = PCA(n_components=2) np.set_printoptions(suppress=True) P = pca.fit_transform(wvs) labels = words plt.figure(figsize=(18, 10)) plt.scatter(P[:, 0], P[:, 1], c='lightgreen', edgecolors='g') for label, x, y in zip(labels, P[:, 0], P[:, 1]): plt.annotate(label, xy=(x+0.06, y+0.03), xytext=(0, 0), textcoords='offset points')
我们可以看到很多有趣的模式!诺亚、他的儿子闪和祖父玛土撒拉是非常接近的。我们还看到上帝与摩西和埃及有联系,埃及在那里忍受了圣经中的瘟疫,包括饥荒和瘟疫。此外,耶稣和他的一些门徒关系密切。
要访问任何单词embeddings,你可以使用以下的代码用单词为模型建立索引。
ft_model.wv['jesus'] array([-0.23493268, 0.14237943, 0.35635167, 0.34680951, 0.09342121,..., -0.15021783, -0.08518736, -0.28278247, -0.19060139], dtype=float32)
有了这些嵌入,我们可以执行一些有趣的自然语言任务。其中之一是找出不同单词(实体)之间的相似性。
print(ft_model.wv.similarity(w1='god', w2='satan')) print(ft_model.wv.similarity(w1='god', w2='jesus')) Output ------ 0.333260876685 0.698824900473
根据我们的圣经语料库中的文本,我们可以看到“上帝”与“耶稣”联系更紧密,而不是“撒旦”。
考虑到单词嵌入的存在,我们甚至可以从一堆单词中找出一些奇怪的单词,如下所示。
st1 = "god jesus satan john" print('Odd one out for [',st1, ']:', ft_model.wv.doesnt_match(st1.split())) st2 = "john peter james judas" print('Odd one out for [',st2, ']:', ft_model.wv.doesnt_match(st2.split())) Output ------ Odd one out for [ god jesus satan john ]: satan Odd one out for [ john peter james judas ]: judas
总结
这些示例应该让你对利用深度学习语言模型从文本数据中提取特征,以及解决诸如单词语义、上下文和数据稀疏等问题的新策略有一个很好的了解。
英文原文:https://towardsdatascience.com/understanding-feature-engineering-part-4-deep-learning-methods-for-text-data-96c44370bbfa
深度特征提取方法_基于深度学习的文本数据特征提取方法之Glove和FastText相关推荐
- 基于深度学习的文本数据特征提取方法之Word2Vec
点击上方"AI公园",关注公众号,选择加"星标"或"置顶" 作者:Dipanjan (DJ) Sarkar 编译:ronghuaiyang ...
- 基于深度学习的文本数据特征提取方法之Glove和FastText
2019-12-03 20:49:51 作者:Dipanjan (DJ) Sarkar 编译:ronghuaiyang 导读 今天接着昨天的内容,给大家介绍Glove模型和FastText模型,以及得 ...
- 卷积神经网络训练准确率突然下降_基于联邦学习和卷积神经网络的入侵检测方法...
王蓉1,马春光2,武朋2 1. 哈尔滨工程大学计算机科学与技术学院,哈尔滨 150001:2. 山东科技大学计算机科学与工程学院,青岛 266590 doi :10.3969/j.issn.1671- ...
- Limited Data Rolling Bearing Fault Diagnosis With Few-Shot Learning(基于小样本学习的有限数据滚动轴承故障诊断)
Limited Data Rolling Bearing Fault Diagnosis With Few-Shot Learning 基于小样本学习的有限数据滚动轴承故障诊断 摘要 这一篇文章主要研 ...
- 【特征选择_论文阅读_毕业论文】01_张璐_西电_基于深度空间特征学习的极化SAR图像分类_2019
文章目录 摘要 一.绪论 1.1研究背景和意义 1.2极化SAR图像分类研究现状及难点 1.2.1 极化SAR图像分类现状 1.2.2 分类难点 1.3深度空间特征学习 二.基于栈式稀疏自编码器和高阶 ...
- 基于python的入侵检测系统毕设_基于深度学习的射频指纹的物联网设备入侵检测...
摘要:物联网(IoT)和4G/5G无线网络增加了大量设备和新服务,商用现货(COTS)物联网设备得到了广泛部署.为了确保具备无线传输能力的这些系统的安全运作,射频(RF)监视对于监视它们在RF频谱中的 ...
- 基于深度搜索的树路径求解_基于深度学习的自动验证码求解器
基于深度搜索的树路径求解 计算机视觉,网络安全,深度学习(Computer Vision, Cybersecurity, Deep Learning) Disclaimer: The followin ...
- 医学图像处理医学图像处理-卷积神经网络卷积神经网络_基于深度卷积神经网络的刀具磨损量自动提取方法...
⬆点击上方蓝色字体,关注<工具技术>官方微信~ 数控加工实质上是刀具和毛坯的相互运动,包含众多的不可控因素,在工件成型的过程中,刀具不可避免发生磨损.为了提高加工效率,实际加工中一般采用高 ...
- 病虫害模型算法_基于深度学习的目标检测算法综述
sigai 基于深度学习的目标检测算法综述 导言 目标检测的任务是找出图像中所有感兴趣的目标(物体),确定它们的位置和大小,是机器视觉领域的核心问题之一.由于各类物体有不同的外观,形状,姿态,加上成像 ...
最新文章
- mysql 常见存储过程,MYSQL存储过程
- mysql删除默认密码_修改mysql默认密码方法
- rapter求n的阶乘流程图_RAPTOR程序设计例题参考答案
- Windows上搭建Nginx RTMP服务器并使用FFmpeg实现本地视频推流
- Android ABI
- freemark循环map_java与freemarker遍历map
- 原有ui项目调用qml_从0开始写前端UI框架:概述
- [原创] 在XP/2K 下实现 Win+Ctrl+Del 等键的屏蔽的方法,附源码与演示程序下载。...
- mfc mfc100ud.dll丢失问题
- DXUT框架剖析(11)
- Luogu3516 POI2011 Shift 构造
- AWS AI网络研讨会 - Data Lab案例分享
- 国际贸易基础(三)商检
- C/C++编程:trivial和non-trivial
- 阿里身份实名认证实例
- python苹果手机照片导入电脑_iphone照片怎么导入电脑?四种方法汇总
- Fast Abstractive Summarization with Reinforce-Selected Sentence Rewriting
- 学习java的ssh
- LaTex(1):使用在线表格生成器工具生成LaTex表格
- 目前最值得收藏的100个各类资源站
热门文章
- CCIE试验备考之交换SPAN
- Win7+Ubuntu11
- Spring3.1新属性管理API:PropertySource、Environment、Profile
- CIO对虚拟化缺乏可预见成最大安全挑战
- Hybrid App 跨平台热更新方案实践 附带源码
- SQL Server 高可用性(三)共享磁盘
- Linux中的硬链接和软链接
- 转:Swing中的线程探究
- 下列那个语句在python中是非法的_下列哪个语句在Python中是非法的()A.x=y=z=1B.x=(y=z+1)C.x,y=y,xD...
- 华为存储iscsi配置_iscsi 华为存储配置 上课内容