本文首先分类介绍主客观赋权法,然后简述四种客观赋权法的算法步骤,分别给出python代码。

文章目录

  • 0x01、权重计算方法简述
    • 1.1 赋权方法的分类
    • 1.2 数据处理函数
  • 0x02、利用信息量计算权重
    • 2.1 熵权法
  • 0x03、根据数据波动计算权重
    • 3.1 CRITIC权重法
    • 3.2 信息量权重法(变异系数法)
    • 3.3 独立性权重法
  • 参考资料

0x01、权重计算方法简述

1.1 赋权方法的分类

在用户建模的过程中,常常需要从用户的各项行为指标 (x1,x2,...,xn)(x_{1}, x_{2}, ... , x_{n})(x1​,x2​,...,xn​),以加权求和的方式计算用户的总体活跃度,形如:S=a1x1+a2x2+...+anxnS = a_{1} x_{1} + a_{2} x_{2} + ... + a_{n} x_{n}S=a1​x1​+a2​x2​+...+an​xn​

其中 a1,a2,...,ana_{1}, a_{2}, ... , a_{n}a1​,a2​,...,an​ 分别为 x1,x2,...,xnx_{1}, x_{2}, ... , x_{n}x1​,x2​,...,xn​ 的权重。通过对 xi(i=1,2,...,n)x_{i} ~ (i=1,2,...,n)xi​ (i=1,2,...,n) 的 “重要性” 的设置,加权求和,计算用户的总得分。

对于如何确定 a1,a2,...,ana_{1}, a_{2}, ... , a_{n}a1​,a2​,...,an​ 的值,主要有八种方法,可分为以下四类:

  • 第1类(主观赋权法):AHP层次法和优序图法。利用数字的相对大小信息计算权重;
  • 第2类(根据信息量):熵值法(熵权法)。利用数据熵值信息即信息量大小计算权重;
  • 第3类(根据数据波动):CRITIC、独立性权重和信息量权重。利用数据的波动性或者数据之间的相关关系计算权重;
  • 第4类(信息浓缩思想):因子分析和主成分法。根据数据的信息浓缩原理,利用方差解释率计算权重。
名称 数据波动性 数据间相关关系 数字大小信息 适用性
AHP层次法 适用于多个层次指标计算权重,专家打分赋权有一定的主观性
优序图法 计算较简便,较多指标时使用得到的权重结果更可靠
熵值法 适用于指标较多的、底层方案层指标计算权重,但对样本的依赖性较大,随着样本数据变化,权重会有一定的波动
CRITIC权重法 综合考虑数据波动情况和指标间的相关性,适合指标自身带有一定相关性和波动性的数据
信息量权重法 适用于将数据差异性视作一种信息,用数据波动程度来衡量指标权重
独立性权重法 适用于指标本身带有一些相关性、属于同一系统下的指标计算权重
因子分析法 指标较多时降维得到具有可解释性的因子权重,也可单独得到各指标权重,需要大量样本数据
主成分分析法 适用于指标较多时降维得到主成分权重,也可单独得到各项指标权重,需要大量样本数据

注意:

  • 一般来说,计算权重时,可使用四种客观赋权法(熵权法、CRITIC权重法、信息量权重法、独立性权重法)分别计算各指标的权重,然后计算四种方法所得结果的均值,从而得到最终的权重。
  • 如果只想使用专家的意见,可以使用主观赋权法。
  • 因子分析法、主成分分析法主要用于降维并计算权重,只能得到各个因子的权重,无法得到具体每个分析项的权重
  • 如果想要将主客观的权重结合起来,可以使用组合赋权法(集成赋权法)。

1.2 数据处理函数

这里把后面需要用到的MinMax归一化、标准化、均值、标准差、方差、相关系数等函数都一起给出,后面的代码将仅给出算法,不再包含这些函数。

import pandas as pd
import numpy as np
import math
from sklearn.preprocessing import StandardScaler, MinMaxScaler# 标准化
def normalize_Standard(df): scaler = StandardScaler()return pd.DataFrame(scaler.fit_transform(df), columns=df.columns.values)# MinMax归一化(0-1 归一化)
def normalize_MinMax(df):scaler = MinMaxScaler(feature_range=(0,1))return pd.DataFrame(scaler.fit_transform(df), columns=df.columns.values)# 均值
def compute_mat_mean(df):return pd.DataFrame(df.mean(), columns=['mean_value'])## 标准差(使用df.std)
def compute_mat_std(df):return pd.DataFrame(df.std(), columns=['std_value'])# 方差(标准差的平方)
def compute_mat_var(df):df_std = pd.DataFrame(df.std(), columns=['std_value'])df_std['var_value'] = df_std['std_value'].apply(lambda x: x ** 2)return pd.DataFrame(df_std['var_value'], columns=['var_value'])# 相关矩阵(相关系数矩阵)
def compute_mat_corr(df):return pd.DataFrame(df.corr(), columns=df.columns.values)

0x02、利用信息量计算权重

2.1 熵权法

1、基本思想

利用信息量的多少,即数据携带的信息量大小(物理学上的熵值原理)进行权重计算。

2、适用范围

各信息(数据指标)之间存在差异。主要用于解决评价类问题(例如:选择哪种方案最好、哪位运动员或员工表现的更优秀)。

3、算法步骤

  • 对数据样本进行MinMax归一化处理,成为一个 m×nm \times nm×n 的矩阵,mmm 为指标个数,nnn 为样本个数;
  • 计算每个指标数据项的比值: pij=xij∑i=1nxijp_{ij} = \frac{x_{ij}}{\sum_{i=1}^{n} x_{ij}} pij​=∑i=1n​xij​xij​​
  • 计算每个指标的熵值: ej=−1ln⁡n∑i=1n(pijln⁡pij)e_{j} = \frac{-1}{\ln n} \sum_{i=1}^{n} ( p_{ij} \ln p_{ij} )ej​=lnn−1​i=1∑n​(pij​lnpij​)
  • 计算指标的熵权: wj=1−ejn−∑ejw_{j} = \frac{1-e_{j}}{n - \sum e_{j}}wj​=n−∑ej​1−ej​​

4、python代码

# 计算指标的熵值 (输入:标准化df; 输出:熵值df; )
def compute_entropy(df):col_names = df.columns.valuesdf_mid = df[col_names]new_col_names = []for cc in col_names:new_cc = '{}_1'.format(cc)new_col_names.append(new_cc)num_cc = df_mid[cc].count()sum_cc = df_mid[cc].sum()df_mid.loc[df_mid[cc] > 0, new_cc] = df_mid.loc[df_mid[cc] > 0, cc]\.apply(lambda x: 0 - (x/sum_cc * math.log(x/sum_cc)) / math.log(num_cc))df_mid.loc[df_mid[cc] == 0, new_cc] = 0df_mid = df_mid[new_col_names]df_mid.columns = col_namesreturn pd.DataFrame(df_mid.sum(), columns=['etp_value'])# 根据熵值计算权重 (输入:熵值df; 输出:权重df;)
def compute_entropy_weight(df):df_mid = df[df.columns.values]num_cc = df_mid.count()sum_cc = df_mid.sum()df_mid['w_value'] = df_mid['etp_value'].apply(lambda x: (1 - x)/(num_cc - sum_cc))df_mid['p_name'] = df_mid.index.valuesreturn df_mid[['p_name','w_value']]# 熵权法主函数 (输入:指标df; 输出:权重df;)
def weight_entropy(df):df_mid = normalize_MinMax(df)return compute_entropy_weight(compute_entropy(df_mid))

0x03、根据数据波动计算权重

3.1 CRITIC权重法

1、基本思想

基于 指标的对比强度(标准差) 和 指标之间的冲突性(相关系数) 来综合衡量指标的客观权重。

2、适用范围

数据稳定性可视作一种信息,并且分析的指标或因素之间有着一定的关联关系。

3、算法步骤

  • 对数据进行标准化处理,设有 nnn 条记录, mmm 个指标;
  • 计算每个指标的标准差 σj\sigma_{j}σj​ 和 相关矩阵 RRR;
  • 计算每个指标包含的信息量: Cj=σj∑i=1n(1−rij)C_{j} = \sigma_{j} \sum_{i=1}^{n} (1 - r_{ij})Cj​=σj​i=1∑n​(1−rij​)
  • 计算指标的权重: wj=Cj∑j=1mCjw_{j} = \frac{C_{j}}{\sum_{j=1}^{m} C_{j}}wj​=∑j=1m​Cj​Cj​​

4、python代码

# CRITIC权重法 主函数
def weight_critic(df):df_scale = normalize_MinMax(df)# 标准差df_std = compute_mat_std(df_scale)df_std['p_name'] = df_std.index.values# 相关系数矩阵df_corr = compute_mat_corr(df_scale)col_names = df_corr.columns.values# 求相关系数和df_mid = df_corr[col_names]new_col_names = []for cc in col_names:new_cc = '{}_1'.format(cc)new_col_names.append(new_cc)df_mid[new_cc] = df_mid[cc].apply(lambda x: 1-x)df_mid = df_mid[new_col_names]df_mid = pd.DataFrame(df_mid.sum(), columns=['r_value'])df_mid['p_name'] = col_names# 标准差与相关系数相乘df_mix = pd.merge(df_std, df_mid, on='p_name')df_mix['pp_value'] = df_mix.apply(lambda x: x['std_value'] * x['r_value'], axis=1)# 最后计算权重值sum_pp = df_mix['pp_value'].sum()df_mix['weight_value'] = df_mix['pp_value'].apply(lambda x: x/sum_pp)return df_mix[['p_name','weight_value']]

3.2 信息量权重法(变异系数法)

1、基本思想

基于指标数据所包含的信息量来确定指标权重,利用数据的变异系数进行权重赋值,变异系数越大,所赋的权重也越大。

2、适用范围

专家打分、或者面试官进行面试打分时对评价对象(面试者)进行综合评价。

3、算法步骤

  • 对数据进行标准化处理;
  • 计算每个指标的均值 μi\mu_{i}μi​ 和标准差 σi\sigma_{i}σi​;
  • 计算变异系数: CVi=σiμiCV_{i} = \frac{\sigma_{i}}{\mu_{i}}CVi​=μi​σi​​
  • 计算权重: wi=CVi∑i=1mCViw_{i} = \frac{CV_{i}}{\sum_{i=1}^{m} CV_{i}}wi​=∑i=1m​CVi​CVi​​

4、python代码

# 信息量权重法 主函数
def weight_information(df):df_scale = normalize_MinMax(df)df_mid = df_scale[df_scale.columns.values]# 计算标准差 和 均值df_std = compute_mat_std(df_mid)df_std['p_name'] = df_std.index.valuesdf_mean = compute_mat_mean(df_mid)df_mean['p_name'] = df_mean.index.values# 合并两个dfdf_mix = pd.merge(df_std, df_mean, on='p_name')# 计算变异系数,再计算权重df_mix['cof_value'] = df_mix.apply(lambda x: x['std_value'] / x['mean_value'], axis=1)sum_cof = df_mix['cof_value'].sum()df_mix['weight_value'] = df_mix['cof_value'].apply(lambda x: x / sum_cof)return df_mix[['p_name','weight_value']]

3.3 独立性权重法

1、基本思想

利用指标之间的共线性强弱(复相关系数)来确定权重,仅仅只考虑了数据之间相关性;

2、适用范围

数据指标之间具有相关性;

3、算法步骤

  • 对数据进行MinMax归一化处理;
  • 计算各指标的复相关系数 RRR 及其倒数 C=1/RC = 1/RC=1/R ;
  • 计算各指标的权重: wi=Ci∑i=1mCiw_{i} = \frac{C_{i}}{\sum_{i=1}^{m} C_{i}}wi​=∑i=1m​Ci​Ci​​

复相关系数 RRR 的计算:

  • 对指标 xix_{i}xi​,用余下 (n−1)(n-1)(n−1) 个指标线性表示,得到: xi^=a1x1+...+an−1xn−1\hat{x_{i}} = a_{1}x_{1} + ... + a_{n-1}x_{n-1}xi​^​=a1​x1​+...+an−1​xn−1​
  • 计算复相关系数 RRR,即计算 xi^\hat{x_{i}}xi​^​ 与 X1,X2,...,Xn−1X_{1},X_{2},...,X_{n-1}X1​,X2​,...,Xn−1​ 之间的简单相关系数: R=∑(x−xˉ)(x^−xˉ)∑(x−xˉ)2(x^−xˉ)2R = \frac{\sum(x - \bar{x})(\hat{x} - \bar{x})}{\sqrt{\sum (x - \bar{x})^{2} (\hat{x} - \bar{x})^{2}}}R=∑(x−xˉ)2(x^−xˉ)2​∑(x−xˉ)(x^−xˉ)​

4、python代码

# 独立性权重法
from sklearn.linear_model import LinearRegression# 回归计算单元 使用sklearn.linear_model.LinearRegression
def linear_regression(train_X, train_y):lrm = LinearRegression().fit(train_X, train_y)return lrm.predict(train_X)# 指标的回归计算 调度流程
def quota_regression(df):col_names = df.columns.valuesdf_mid = df[col_names]new_col_names = []for cc in col_names:new_cc = '{}_1'.format(cc)new_col_names.append(new_cc)train_cols = list(col_names)train_cols.remove(cc)df_mid[new_cc] = linear_regression(df_mid[train_cols], df_mid[cc])return df_mid# 计算每个特征的简单相关系数
def get_corr_coef(df, col_names):df_mid = df[df.columns.values]new_col_names = []for cc in col_names:new_cc = '{}_1'.format(cc) new_cc_corr = '{}_2'.format(cc) new_col_names.append(new_cc_corr) mean_cc = df_mid[cc].mean() cov_cc = df_mid.apply(lambda x: ((x[cc] - mean_cc) ** 2) * ((x[new_cc] - mean_cc) ** 2), axis=1).sum()#print('col_name: {}, mean: {}, cov: {} '.format(cc,mean_cc,cov_cc))df_mid[new_cc_corr] = df_mid.apply(lambda x: (x[cc] - mean_cc) * (x[new_cc] - mean_cc) / math.sqrt(cov_cc), axis=1)df_out = pd.DataFrame(df_mid[new_col_names].sum(), columns=['coef_values'])df_out['p_name'] = col_namesdf_out.index = list(range(len(df_out)))df_out = df_out[['p_name','coef_values']]return df_out# 独立性权重法主函数
def weight_independ(df):column_names = df.columns.valuesdf_scale = normalize_MinMax(df)df_mid = df_scale[column_names]df_coef = get_corr_coef(quota_regression(df_mid),column_names)df_coef['bw_coef'] = df_coef['coef_values'].apply(lambda x: 1/x)sum_bw = df_coef['bw_coef'].sum()df_coef['weight_value'] = df_coef['bw_coef'].apply(lambda x: x/sum_bw)return df_coef[['p_name','weight_value']]

参考资料

  1. 不知道怎样计算权重?告诉你8种确定权重方法 - 知乎
  2. 因子分析法 - MBA智库百科
  3. 熵权法评价估计详细原理讲解 - 知乎
  4. 权重计算方法_综合评价指标权重方法汇总 - CSDN
  5. CRITIC方法 - MBA智库百科
  6. 指标权重确定方法之独立性权系数法 - CSDN
  7. 指标权重确定方法之信息量权数法 - 新浪博客
  8. 特征值与特征向量的意义 - CSDN
  9. 复相关系数 - MBA智库百科
  10. 复相关系数的性质及推导 - 知乎

权重计算(1)——客观赋权法相关推荐

  1. 权重设计:客观赋权法的说明(熵权法/变异系数法/CRCIII法/TOPSIS法)

    在数据分析中,我们经常会遇到多个特征对于结果造成不同影响的情况,如何识别这些特征各自的权重,对我们的后续结果评估,打分矩阵构建都具有重要意义.我们所说的赋权法是用于解决多指标综合评价问题中的各指标权重 ...

  2. 客观赋权法——CRITIC权重法

    一.概念 CRITIC法是一种比熵权法和标准离差法更好的客观赋权法. 它是基于评价指标的对比强度和指标之间的冲突性来综合衡量指标的客观权重.考虑指标变异性大小的同时兼顾指标之间的相关性,并非数字越大就 ...

  3. 客观赋权法——CRITIC权重法【Python实现】

    理论部分不介绍,可以看之前的文章 客观赋权法--CRITIC权重法 Python实现是用jupyter做的,做得比较糙,直接截图了,有需要jupyter文件的可以私信. 注:数据乱造的,看过程就行

  4. 客观赋权法的python实现

    这两天实现了一些客观赋权法,这里做一个整理.在进行赋权前,先导入数据(列:各维属性:行:各样本),并自行进行去空值.归一化等操作. import pandas as pd import numpy a ...

  5. 客观赋权法——变异系数法

    一.变异系数法的概念 变异系数法是根据统计学方法计算得出系统各指标变化程度的方法,是一种客观赋权法. 根据该方法变化差异较大的指标权重较大,变化差异较小的指标权重较小,从而根据指标的统计学规律确定其重 ...

  6. 嫡权法赋权法_变异系数法_客观赋权法

    什么是变异系数,有何优势? 变异系数:当需要比较两组数据离散程度大小的时候,如果两组数据的测量尺度相差太大,或者数据量纲的不同,直接使用标准差来进行比较不合适,此时就应当消除测量尺度和量纲的影响,而变 ...

  7. 三种客观赋权法——熵权法、变异系数法、CRITIC

    1.数据处理 在计算权值之前,需要对原始的数据进行一定的处理. 1.1 数据清洗 数据的清洗是解决问题的第一步,包括缺失值处理和异常值处理两方面. 对于缺失值,通常有三种可选的操作--删除.插补.不处 ...

  8. 熵权法(客观赋权法)

    说明 相较于德尔菲法.层次分析法等主观赋权法,熵权法更具有客观性,能够更好的对结果进行解释,其利用的是信息之间的变异性(也就是差异性)来进行赋权的,但在采用此方法的时候需要有部分样本量,通过样本确定权 ...

  9. 组合赋权法之python

    目录 1.简介 2.算法原理 2.1 指标正向化 2.2 数据标准化 2.3 计算主观权重 2.4 计算客观权重 2.5 计算组合权重 2.6 计算的得分 3.实例分析 3.1 读取数据 3.2 指标 ...

  10. 组合赋权法之matlab

    目录 1.简介 2.算法原理 2.1 指标正向化 2.2 数据标准化 2.3 计算主观权重 2.4 计算客观权重 2.5 计算组合权重 2.6 计算的得分 3.实例分析 3.1 读取数据 3.2 指标 ...

最新文章

  1. linux中的gun含义,linux中gun的含义
  2. 【转载】Wireshark基本介绍和学习TCP三次握手
  3. 201521123038 《Java程序设计》 第十周学习总结
  4. ASP.NET Core EFCore 之Code First
  5. JAVA自学笔记24
  6. html旋转三角菜单,css3 这个三角怎么旋转_html/css_WEB-ITnose
  7. CentOS下显卡驱动安装的相关思考
  8. 林锐 高质量c语言编程下载,新年献礼:Go语言深度入门手册
  9. java fastjson vector转为json_java对象与Json字符串之间的转化(fastjson)
  10. ncurses屏幕操作:getyx(),getparyx(),getmaxyx(),scr_dump(),scr_restore(),getwin(),putwin()
  11. mybatis plus 事务管理器_学习MyBatis 框架
  12. 震惊!Faker.js作者删库,理由竟然是 拒绝被“白嫖”~
  13. 微信读书 《围城》笔记
  14. 雪球网 json 获取
  15. 电脑在使用b站的时候插入耳机,耳机没有声音,只能外放,其他软件可以正常使用。
  16. sketch和zeplin
  17. 推荐适合胖mm大码 连衣裙 显瘦女装穿搭
  18. python模拟登录URP教务系统评教
  19. 脚本自动化部署docker微服务,取代Jenkins
  20. 课程设计——部门管理系统C++

热门文章

  1. 大M单纯形算法的MATLAB实现
  2. 视频教程-ArcGIS与CASS在地籍建库中的结合应用-大数据
  3. python编码无法使用turtle库_使用Turtle库教Python
  4. keil_v4 安装(图文教程)
  5. Qcom 平台 camera 之 RAW+YUV图抓取
  6. 基于Django图书管理系统设计与实践
  7. 史上最强NLP知识集合:知识结构、发展历程、导师名单
  8. eclipse中文版导入导出java项目
  9. ps中怎么导出tif_PS导入文件和导出文件教程-tif文件
  10. 智能小车——循迹、避障小车(附详细代码)