通过机器学习得到样本的特征权重
描述:
计算每个特征对样本集进行划分所获得的信息增益,然后做归一化处理可以得到每个特征的权重
目标:
样本降维
一种算法策略:参考决策树的划分选择
首先引入概念信息熵、信息增益。
信息熵(information entropy)是度量样本几何纯度最常用的一种指标。假定样本集合D中第k类样本所占的比例为
则D的信息熵定义为
(1.1)
(熵在物理学上指混乱程度,因此熵越低信息越确定。举个极端的例子,样本集只有一个类别+1,那么P1=1,Ent(D)=0,信息熵为0即非常确定,因为随便取一个样本都是+1)
假定离散属性a有V个可能的取值,若使用a来对样本集D进行划分,则会产生V个子集,其中第v个子集包含了D中所有在属性a上取值为的样本,记为。可以根据式(1.1)计算出的信息熵,再考虑到不同的子集所包含的样本数不同,给子集赋予权重,即样本数越多的子集的影响越大,于是可以计算出用属性a对样本集D进行划分所获得的信息增益(information gain)
(1.2)
假定样本集D上第j个特征(),可以计算出每个特征在训练数据集D下的信息增益,于是得到K个信息增益值,对其做归一化处理,可以得到每个特征所占的权重:
(1.3)
下面举个例子来更好的理解上述公式。
假定某二分类数据集有17个样本,其中正例8个,反例9个,显然|y|=2。因此,,根据式(1.1)可以计算出信息熵为
假定该数据集有6个特征{颜色,形状,声响,纹理,触感,气味},然后我们要计算出每个特征的信息增益。以“颜色”为例,假定它有3个可能的取值:{红色,绿色,蓝色}。用该特征对数据集D进行划分,则可得到3个子集,分别记为(颜色=红色),(颜色=绿色),(颜色=蓝色)。
假定有6个样本,其中正例占,反例占。有6个样本,其中正例占,反例占。有5个样本,其中正例占,反例占 。根据式(1.1)可以计算出用“颜色”划分之后所获得的3个子集的信息熵为
于是,根据式(1.2)可以计算出特征“颜色”的信息增益为
同理可得其他特征的信息增益:
根据式(1.3)可以计算出每个属性的权重:
参考资料:
- CSDN.利用分类模型学习特征权重
- 周志华.《机器学习》[M].北京:清华大学出版社,2016
通过机器学习得到样本的特征权重相关推荐
- 基于功能连接的认知机器学习预测模型:特征权重可靠吗?
文章来源于微信公众号(茗创科技),欢迎有兴趣的朋友搜索关注. 利用机器学习方法,可以从个人的功能性大脑连接中预测认知表现.但是预测模型在支持认知的神经生物学加工方面仍存在争议,目前的见解也比较有限.特 ...
- C4.5决策树生成算法完整版(Python),连续属性的离散化, 缺失样本的添加权重处理, 算法缺陷的修正, 代码等
C4.5决策树生成算法完整版(Python) 转载请注明出处:©️ Sylvan Ding ID3算法实验 决策树从一组无次序.无规则的事例中推理出决策树表示的分类规则,采用自顶向下的递归方式,在决策 ...
- WKmeans一种基于特征权重的聚类算法
1 引例 在前面两篇文章中,我们首先介绍了KmeansKmeansKmeans聚类算法的原理:然后又介绍了一种基于KmeansKmeansKmeans进行改进的Kmeans++Kmeans++Kmea ...
- 【特征工程】机器学习中离散型特征的处理 —— 独热码 (one-hot)
[原文链接]https://www.cnblogs.com/daguankele/p/6595470.html 1.什么是独热码 独热码,在英文文献中称做 one-hot code, 直观来说就是有多 ...
- 影像组学视频学习笔记(14)-特征权重做图及美化、Li‘s have a solution and plan.
本笔记来源于B站Up主: 有Li 的影像组学系列教学视频 本节(14)主要介绍: 特征权重做图及美化 import matplotlib.pyplot as plt %matplotlib inlin ...
- fcm算法c语言实现,基于特征权重的FCM算法研究及应用
摘要: 模糊C-均值(FCM)聚类算法是非监督模式识别中应用范围最广泛的算法之一.但是传统的FCM算法中,设定样本的各维特征对分类效果的贡献水平是相同的.在实际中,由于特征提取不够完善,使得特征矢量中 ...
- 【机器学习】机器学习中样本不平衡,怎么办?
在银行要判断一个"新客户是否会违约",通常不违约的人VS违约的人会是99:1的比例,真正违约的人 其实是非常少的.这种分类状况下,即便模型什么也不做,全把所有人都当成不会违约的人, ...
- 【干货】机器学习中样本比例不平衡的处理方法
推荐阅读时间:5min~12min 主要内容:机器学习中样本比例不平衡的处理方法 在机器学习中,常常会遇到样本比例不平衡的问题,如对于一个二分类问题,正负样本的比例是 10:1. 这种现象往往是由于本 ...
- 机器学习中样本不平衡,怎么办?
在银行要判断一个"新客户是否会违约",通常不违约的人VS违约的人会是99:1的比例,真正违约的人 其实是非常少的.这种分类状况下,即便模型什么也不做,全把所有人都当成不会违约的人, ...
最新文章
- Linux — OpenSSH 安全的远程连接
- Centos7升级python
- 在加利福尼亚州投资于新餐馆:一种数据驱动的方法
- MediaWiki初探:安装及使用入门
- 我把这篇文章给女朋友看,她终于明白什么是「数据中台」了
- leetcode 题库1028--从先序遍历还原二叉树
- 安全数组-简易矩阵容器-STL及迭代器仿写作业
- mro python_一窥Python中MRO排序原理
- PowerBuilder 五子棋
- Excel查询两列值的差异 -- VLOOPUP
- 基于CC2430的Zigbee的第一个实验
- mysql5.5忘记密码重置方法_mysql5.5忘记密码重置方法
- Android 垃圾分类APP(三)垃圾分类之语音输入
- 设置linux kernel 日志打印方法
- Elementui蓝色阴影边框相关问题的解决方案
- 关于使用jquery weui的picker部分遇到的问题及解决办法
- GWA2吉娃兔升級基於事件驅動的緩存處理模塊
- 机器学习--多层感知机、卷积神经网络、循环神经网络
- Ubuntu服务器配置mysql8
- 马哥学习周总结第一周→linux简介、’文件系统及基础命令------李洋个人笔记。...