目录

文本特征

1.expansion编码

2.consolidation编码

3.文本长度特征

4.标点符号特征

5.词汇属性特征

6.特殊词汇特征

7.词频特征

8.TF-IDF特征

9.LDA特征


注意:

1. 本系列所有的文章主要是梯度提升树模型展开的,抽取的特征主要为帮助梯度提升树模型挖掘其挖掘不到的信息,本文介绍的所有特征都可以当做特征直接加入模型,和基于神经网络的策略有些许差别;

2. 因篇幅过多,本篇文章介绍文本特征的20种不同的特征,后续的文本特征会在后面的文章中更新!

文本特征

文本特征和类别特征会有一些简单的交集,一些简单的文本特征可以直接当做类别特征处理,例如:

  • 花的颜色:red,blue,yellow等等;

  • 名字:Mr jack,Mr smith,Mrs will,Mr phil等等。

对这些特征可以直接进行Label编码然后采用类别特征的技巧对其进行特征工程。除了把文本特征当做类别特征处理,我们在做文本相关的特征工程时,需要注意非常多的细节,相较于Label编码,就是如何防止文本内的信息丢失问题。文本特征的处理涉及到非常多的NLP技术,此处我们主要介绍一些经常需要注意的地方以及一些技巧,关于最新的方法,大家可以跟进最新的NLP相关技术。

针对梯度提升树模型对文本特征进行特征工程,我们需要充分挖掘Label编码丢失的信息,例如上面的名字特征,内部存在非常强的规律,Mr等信息,这些信息反映了性别相关的信息,如果直接进行Label编码就会丢失此类信息,所以我们可以通过文本技巧对其进行挖掘。

1.expansion编码

expansion编码常常出现在一些复杂的字符串中,例如一些带有版本信息的字符串,很多版本号的信息中涵盖了时间以及编号等信息,我们需要将其拆分开,形成多个新的特征列,例如下面的例子:

expansion编码类似于一种带有业务信息的聚类信息,可以加速树模型的搜索速度,也是非常非常不错的特征.

import pandas as pd
df = pd.DataFrame()
df['feature']      = ['Apple_iPhone_6', 'Apple_iPhone_6', 'Apple_iPad_3', 'Google_Pixel_3']
df['feature_1st']  = df['feature'].apply(lambda x: x.split('_')[0])
df['feature_2nd']  = df['feature'].apply(lambda x: x.split('_')[1])
df['feature_3rd']  = df['feature'].apply(lambda x: x.split('_')[2])
df
  feature feature_1st feature_2nd feature_3rd
0 Apple_iPhone_6 Apple iPhone 6
1 Apple_iPhone_6 Apple iPhone 6
2 Apple_iPad_3 Apple iPad 3
3 Google_Pixel_3 Google Pixel 3

2.consolidation编码

consolidation编码常常出现在一些特殊的字符串中,例如:

  • 一些带有地址的字符串,字符串会给出详细的信息,XX市XX县XX村XX号等,这时我们可以将市抽取来作为一个全新的特征;

  • 很多产品,例如手机,pad等等,我们可以单独抽象为苹果,三星等公司等信息;

consolidation编码和上面的expansion编码类似,也是一种带有业务信息的聚类信息,可以加速树模型的搜索速度,也是一类非常不错的特征.

3.文本长度特征

文本的长度特征,可以按照文本的段落,句子,单词和字母四大粒度进行枚举式的构建,这些特征可以反映文本的段落结构,在很多问题中都是非常重要的信息,例如判断文本的类型,判断文本是小说还是论文还是其它,此时文本的长度特征就是非常强的特征。

1.段落的个数

顾名思义就是文本中段落的个数。

2.句子的个数

文本中句子的个数,可以通过计算句号感叹号等次数来统计。

3.单词的个数

文本中单词的个数,可以通过直接通过将标点符号转化为空格,然后计算空格个数的方式来计算。

4.字母个数

删除所有的标点之后直接统计所有字母的个数。

5.平均每个段落的句子个数

平均每个段落的句子个数 = 句子的个数 / 段落的个数

6.平均每个段落的单词个数

平均每个段落的句子个数 = 单词的个数 / 段落的个数

7.平均每个段落的字母个数

平均每个段落的句子个数 = 文本字母个数 / 段落的个数

8.平均每个句子的单词个数

平均每个句子的单词个数 = 单词的个数 / 句子的个数

9.平均每个句子的字母个数

平均每个句子的字母个数 = 文本字母个数 / 句子的个数

10.平均每个单词的长度

平均每个单词的长度 = 文本字母个数 / 文本单词个数

4.标点符号特征

标点符号也蕴藏有非常重要的信息,例如在情感分类的问题中,感叹号等信息往往意味着非常强烈的情感表达,对于最终模型的预测可以带来非常大的帮助。

1.标点符号的个数

直接计算标点符号出现的次数。

2.特殊标点符号的个数

统计文本中一些重要的标点符号出现的次数,例如:

  • 情感分类问题中,感叹号出现的次数,问号出现的次数等。

  • 在病毒预测问题中,异常符号出现的次数。

3.其它

此处需要额外注意一点,就是一些奇异的标点符号,例如连续多个感叹号,"!!!"或者连续多个问号“???”,这种符号的情感表示更为强烈,所以很多时候也需要特别注意。

5.词汇属性特征

每个词都有其所属的属性,例如是名词,动词,还是形容词等等。词汇属性特征很多时候能帮助模型带来效果上的微弱提升,可以作为一类补充信息。

6.特殊词汇特征

标点符号能从侧面反映文本的情感强烈程度等信息,在情感分类,文本分类中有很重要的作用,当然与此同时,特殊词汇的特征特征则更为重要。

我们可以选择直接分类别(每一类情感表示一类)统计每个类别中词汇的出现次数。

7.词频特征

上面是一些简单的文本特征,还有一些文本信息会相对复杂一些,例如是句子等文本。这个时候我们就需要一些常用的文本工具了,而最为常见的就是词频统计特征,该特征较为简单,就是统计文本中每个词出现的次数,因为每个文本一般都是由单词所组成的,而每个单词出现的次数在一定程度上又可以从侧面反映该文章的内容,例如在谋篇文章中,"love"这个词出现的比较多,也就是说"love"对应的词频比较大,则我们可以猜测该文章很大可能属于情感类的文章。所以在处理文本类的信息时,词频特征是非常重要的信息之一。

# 导入工具包
from sklearn.feature_extraction.text import CountVectorizer
# 初始化,并引入停止词汇
vectorizer = CountVectorizer(stop_words=set(['the', 'six', 'less', 'being', 'indeed', 'over', 'move', 'anyway', 'four', 'not', 'own', 'through', 'yourselves']))
df = pd.DataFrame()
df['text'] = ["The sky is blue.", "The sun is bright.","The sun in the sky is bright.", "We can see the shining sun, the bright sun."]# 获取词汇
vectorizer.fit_transform(df['text']).todense()
matrix([[1, 0, 0, 0, 1, 0, 0, 1, 0, 0],[0, 1, 0, 0, 1, 0, 0, 0, 1, 0],[0, 1, 0, 1, 1, 0, 0, 1, 1, 0],[0, 1, 1, 0, 0, 1, 1, 0, 2, 1]])

如果希望知道上面每一列的意思,可以直接观测文本的字典即可。

vectorizer.vocabulary_
{'sky': 7,'is': 4,'blue': 0,'sun': 8,'bright': 1,'in': 3,'we': 9,'can': 2,'see': 5,'shining': 6}

词频特征简单易于理解,能够从宏观的角度捕获文本的信息。相较于直接Label编码可以能提取更多有用的信息特征,从而带来效果上的提升,但是词频特征往往会受到停止词汇的影响(stop words),例如"the,a"出现次数往往较多,这在聚类的时候如果选用了错误的聚类距离,例如l2距离等,则往往难以获得较好的聚类效果,所以需要细心的进行停止词汇的删选;受文本大小的影响,如果文章比较长,则词汇较多,文本较短,词汇则会较少等问题。

8.TF-IDF特征

TF-IDF特征是词频特征的一个扩展延伸,词频特征可以从宏观的方面表示文本的信息,但在词频方法因为将频繁的词汇的作用放大了,例如常见的"I",'the"等;将稀有的词汇,例如"garden","tiger"的作用缩减了,而这些单词却有着极为重要的信息量,所以词频特征往往很难捕获一些出现次数较少但是又非常有效的信息。而TF-IDF特征可以很好地缓解此类问题的方法。TF-IDF从全局(所有文件)和局部(单个文件)的角度来解决上述问题,TF-IDF可以更好地给出某个单词对于某个文件的重要性。

from sklearn.feature_extraction.text import TfidfVectorizertfidf_model = TfidfVectorizer()
# 获取词汇
tfidf_matrix = tfidf_model.fit_transform(df['text']).todense()
tfidf_matrix
matrix([[0.65919112, 0.        , 0.        , 0.        , 0.42075315,0.        , 0.        , 0.51971385, 0.        , 0.34399327,0.        ],[0.        , 0.52210862, 0.        , 0.        , 0.52210862,0.        , 0.        , 0.        , 0.52210862, 0.42685801,0.        ],[0.        , 0.3218464 , 0.        , 0.50423458, 0.3218464 ,0.        , 0.        , 0.39754433, 0.3218464 , 0.52626104,0.        ],[0.        , 0.23910199, 0.37459947, 0.        , 0.        ,0.37459947, 0.37459947, 0.        , 0.47820398, 0.39096309,0.37459947]])

如果希望知道上面每一列的意思,可以直接观测文本的字典即可。

tfidf_model.vocabulary_
{'the': 9,'sky': 7,'is': 4,'blue': 0,'sun': 8,'bright': 1,'in': 3,'we': 10,'can': 2,'see': 5,'shining': 6}
tfidf_model.idf_
array([1.91629073, 1.22314355, 1.91629073, 1.91629073, 1.22314355,1.91629073, 1.91629073, 1.51082562, 1.22314355, 1.        ,1.91629073])

TDIDF忽略了文章的内容,词汇之间的联系,虽然可以通过N-Gram的方式进行缓解,但其实依然没有从本质上解决该问题。

9.LDA特征

基于词频的特征和基于TFIDF的特征都是向量形式的,因而我们可以采用基于向量抽取特征的方式对其抽取新特征,而最为典型的就是主题模型。主题模型的思想是围绕从以主题表示的文档语料库中提取关键主题或概念的过程为中心。每个主题都可以表示为一个包或从文档语料库收集单词/术语。这些术语共同表示特定的主题、主题或概念,每个主题都可以通过这些术语所传达的语义意义与其他主题进行区分。这些概念可以从简单的事实和陈述到观点和观点。主题模型在总结大量文本文档来提取和描述关键概念方面非常有用。它们还可以从捕获数据中潜在模式的文本数据中提取特征。

因为主题模型涉及的数学等概念较多,此处我们仅仅介绍其使用方案,有兴趣的朋友可以去阅读论文等资料。

一般我们会在TF-IDF或者词频等矩阵上使用LDA,最终我们得到的结果也可以拆解为下面两个核心部分:

  • document-topic矩阵,这将是我们需要的特征矩阵你在找什么。

  • 一个topic-term矩阵,它帮助我们查看语料库中的潜在主题。

此处我们使用上面的TDIDF矩阵并设置主题为2个进行试验。

from sklearn.decomposition import LatentDirichletAllocationlda       = LatentDirichletAllocation(n_components=2, max_iter=10000, random_state=0)
dt_matrix = lda.fit_transform(tfidf_matrix)
features  = pd.DataFrame(dt_matrix, columns=['T1', 'T2'])
features
  T1 T2
0 0.798663 0.201337
1 0.813139 0.186861
2 0.827378 0.172622
3 0.797794 0.202206
  • 查看主题以及对应的每个词的贡献。

tt_matrix = lda.components_
vocab = tfidf_model.get_feature_names()
for topic_weights in tt_matrix:topic = [(token, weight) for token, weight in zip(vocab, topic_weights)]topic = sorted(topic, key=lambda x: -x[1])topic = [item for item in topic if item[1] > 0.2]print(topic)print()
[('the', 2.1446092537000254), ('sun', 1.7781565358915534), ('is', 1.7250615399950295), ('bright', 1.5425619519080085), ('sky', 1.3771748032988098), ('blue', 1.116020185537514), ('in', 0.9734645258594571), ('can', 0.828463031801155), ('see', 0.828463031801155), ('shining', 0.828463031801155), ('we', 0.828463031801155)][('can', 0.5461364394229279), ('see', 0.5461364394229279), ('shining', 0.5461364394229279), ('we', 0.5461364394229279), ('sun', 0.5440024650128295), ('the', 0.5434661558382532), ('blue', 0.5431709323301609), ('bright', 0.5404950589213404), ('sky', 0.5400833776748659), ('is', 0.539646632403921), ('in', 0.5307700509960934)]

特征工程——文本特征相关推荐

  1. AI基础:特征工程-文本特征处理

    0.导语 特征工程到底是什么呢?顾名思义,其本质是一项工程活动,目的是最大限度地从原始数据中提取特征以供算法和模型使用. 在此之前,我已经写了以下几篇AI基础的快速入门,本篇文章讲解特征工程基础第三部 ...

  2. AI基础:特征工程-数字特征处理

    0.导语 特征工程到底是什么呢?顾名思义,其本质是一项工程活动,目的是最大限度地从原始数据中提取特征以供算法和模型使用. 在此之前,我已经写了以下几篇AI基础的快速入门,本篇文章讲解特征工程基础第二部 ...

  3. 【特征工程】特征工程技术与方法

    引言 在之前学习机器学习技术中,很少关注特征工程(Feature Engineering),然而,单纯学习机器学习的算法流程,可能仍然不会使用这些算法,尤其是应用到实际问题的时候,常常不知道怎么提取特 ...

  4. 机器学习特征工程之特征缩放+无量纲化:数据标准化(StandardScaler)

    机器学习特征工程之特征缩放+无量纲化:数据标准化(StandardScaler) 在Andrew Ng的机器学习课程里面,讲到使用梯度下降的时候应当进行特征缩放(Feature Scaling).进行 ...

  5. 机器学习特征工程之特征缩放+无量纲化:最小最大缩放(MinMaxScaler)

    机器学习特征工程之特征缩放+无量纲化:最小最大缩放(MinMaxScaler) 在Andrew Ng的机器学习课程里面,讲到使用梯度下降的时候应当进行特征缩放(Feature Scaling).进行缩 ...

  6. 机器学习特征工程之特征缩放+无量纲化:最大绝对值缩放(MaxAbsScaler)

    机器学习特征工程之特征缩放+无量纲化:最大绝对值缩放(MaxAbsScaler) 在Andrew Ng的机器学习课程里面,讲到使用梯度下降的时候应当进行特征缩放(Feature Scaling).进行 ...

  7. ML之FE:数据处理—特征工程之特征三化(标准化【四大数据类型(数值型/类别型/字符串型/时间型)】、归一化、向量化)简介、代码实现、案例应用之详细攻略

    ML之FE:数据处理-特征工程之特征三化(标准化[四大数据类型(数值型/类别型/字符串型/时间型)].归一化.向量化)简介.代码实现.案例应用之详细攻略 目录 真正意义的标准化与归一化 1.标准化/Z ...

  8. ML之FE:利用FE特征工程(单个特征及其与标签关系的可视化)对RentListingInquries(Kaggle竞赛)数据集实现房屋感兴趣程度的多分类预测

    ML之FE:利用FE特征工程(单个特征及其与标签关系的可视化)对RentListingInquries(Kaggle竞赛)数据集实现房屋感兴趣程度的多分类预测 目录 输出结果 设计思路 核心代码 输出 ...

  9. 机器学习项目实战-能源利用率 Part-3(特征工程与特征筛选)

    博主前期相关的博客可见下: 机器学习项目实战-能源利用率 Part-1(数据清洗) 机器学习项目实战-能源利用率 Part-2(探索性数据分析) 这部分进行的特征工程与特征筛选. 三 特征工程与特征筛 ...

最新文章

  1. PCL:自定义创建带颜色的点云保存后rgb是一个很大的数,由x y z rgb解包为x y z r g b
  2. fwr171改无线服务器,迅捷(Fast)FWR171无线AP模式设置
  3. android 状态栏 背景色_技术一面:说说Android动态换肤实现原理
  4. ejb java_EJB继承与Java继承不同
  5. java process 中断_从Java运行外部程序,读取输出,允许中断
  6. TensorFlow2.0:索引和切片(2)
  7. JavaScript笔记 - 对象继承的几种方式
  8. Centos下 为Firefox安装Flash插件
  9. 2016年WiFi行业技术发展趋势解析
  10. Introduction to Computer Networking学习笔记(二十三):拥塞控制-TCP Tahoe
  11. 单片机12864带字库汇编使用教程
  12. I2S协议-一篇文章带你了解
  13. linux下安装卸载永中office步骤,永中集成Office For Linux安装图文指南及简介
  14. JS或jQuery获取当前屏幕宽度
  15. kindle读书笔记——2017.05.22-06.21
  16. java.sql.SQLException: org.gjt.mm.mysql.Driver
  17. 用ShaderToy实现牛顿迭代法分形图像
  18. android mtk camera startpreview,android8.1 mtk camera hal各种操作流程
  19. 为什么科学家如此担心人工智能?
  20. 做人有弹性,做事有韧性

热门文章

  1. 网上下载的“上下3D”和“左右3D”影片该如何播放?
  2. calabash-android 环境问题
  3. 中信建投首席分析师点评百度Q2财报:AI业务落地迅速值得期待
  4. 串行口方式二 波特率_索尼相机使用教程-了解可利用的变焦方式
  5. iOS 多线程知识体系构建(三):GCD API(queue.h)解析篇
  6. 【JAVA桌面应用程序的开发 (1)】
  7. OPENGL—错误调试—无法解析外部符号
  8. 简单计算器,在校练习题
  9. 社会化阅读,新的文化阶梯
  10. java 置位,汇编语言置位和清除单个CPU标志位