目录

1.名词概念
2.频繁项集发现
3.Apriori算法关联分析
4.代码实现
5.参考文章

  通过组合交叉变量制定风控策略时有两种方法:一是通过决策树分箱进行变量交叉,可以见文章一个函数实现自动化风控策略挖掘;二是通过apriori算法进行关联分析。
  关联分析是从大规模数据集中寻找物品间的隐含关系,比如著名的例子“啤酒和尿布”,即发现买啤酒的顾客同时也会买尿布,商店通过挖掘这些规则更加了解客户的购买行为。但是,关联分析需要从大量数据集中寻找组合关系,计算代价很高,于是Aprior算法就应用于用合理的算法高效发掘组合规则(又叫频繁项集)。

  假设一个简单的交易清单如下,分别代表5笔交易情况。

  下面是关联分析中用到的一些名词概念。
1.项与项集
  项,指我们分析数据中的一个对象,如豆奶;项集,就是若干项的项构成的集合,如集合{豆奶,莴苣}是一个2项集。

2.支持度
  某项集在数据集中出现的概率。即项集在记录中出现的次数,除以数据集中所有记录的数量。如豆奶的支持度为4/5,{豆奶,尿布}的支持度为3/5。
  支持度体现的是某项集的频繁程度,只有某项集的支持度达到一定程度,我们才有研究该项集的必要。

3.置信度
  又叫可信度,是针对一条关联规则定义的。关联规则{A->B}的置信度为A与B同时出现的次数,除以A出现的次数。即在A发生的条件下,B发生的概率。
  比如{尿布->葡萄酒}=支持度(尿布->葡萄酒)/支持度(尿布)=3/5除以4/5=0.75。即在购买尿布的情况下,有75%的概率会购买葡萄酒。

4.提升度
  关联规则{A->B}中,提升度是指{A->B}的置信度,除以B的支持度。提升度体现的是组合(应用关联规则)相对不组合(不应用关联规则)的比值,如果提升度大于1,则说明应用该关联规则是有价值的。如果提升度小于1,说明应用该关联规则起到了负面影响。
  比如{尿布->葡萄酒}=置信度(尿布->葡萄酒)/支持度(葡萄酒)=0.75/0.6=1.25

寻找频繁项集

  一般支持度和置信度是用来量化关联分析是否成功的方法。比如对只有4个物品的集合{0,1,2,3},想要获得每种可能集合的支持度。首先,需要列出4个物品可能的组合数,一共有15种组合方法。

  比如需要计算{0,3}项集的支持度,就需要遍历每条记录,检查记录是否包含0和3,如果包含则计数值加1。如此便可以得到{0,3}项集的支持度,要获得每种可能集合的支持度需要重复上述过程。
  对于N种物品的数据集一共有2N−12^N-12N−1种项集组合,计算量巨大。为了降低计算所需的时间,可以采用Apriori来发现频繁项集。

Apriori算法原理

  Apriori在拉丁语中指“来自以前”,即先验知识或者假设条件。它的原理是如果某个项集是频繁的,那么它的所有子集也是频繁的。
  如上图中,如果{0,1}是频繁的,那么{0}、{1}也一定是频繁的。因为{0}、{1}的支持度一定大于或等于{0,1}。反过来,如果某一个项集是非频繁项集,那么它的所有超集也是非频繁的。如下图:

  如果{2,3}是非频繁的,那么{0,2,3}、{1,2,3}、{0,1,2,3}也一定是非频繁的,因为{2,3}的支持度一定大于等于它的超集的支持度。

使用Apriori算法发现频繁项集

  关联分析的目标分为两项:发现频繁项集和发现关联规则。首先需要找到频繁项集,然后才能获得关联规则。
  Apriori算法需要输入两个参数,一个是最小支持度,一个是数据集。步骤如下:
1.生成单个物品的项集
2.剔除支持度小于阈值的项,得到频繁1项集
3.将频繁1项集组合得到2项集
4.剔除支持度小于阈值的项,得到频繁2项集
5.重复上述步骤直到所有项集都去掉

  具体例子见下图:

  以上案例中得到频繁项集为{2}{3}{4}{2,4}。

从频繁项集中挖掘关联规则

  关联规则需要从频繁项集中产生,比如上例中产生一个频繁项集为{2,4},那么就有可能有一条关联规则为{2}->{4},意味着购买了2的人往往也会购买4。但是反过来就不一定成立。
  对于关联规则的量化,则需要用到置信度。一条规则P->H的置信度定义如下:
Cofidence(P∣H)=support(P∣H)support(P)Cofidence(P|H)=\frac{support(P|H)}{support(P)}Cofidence(P∣H)=support(P)support(P∣H)​
  比如置信度{2|4}=4/5=0.8,置信度{4|2}=4/6=0.66,即在购买4的情况下有80%的概率购买2,在购买2的情况下只有66%的概率购买4。
  对于一个项集{0,1,2,3}产生关联规则,需要生成一个可能的规则列表,然后测试每条规则的可信度。可能的规则列表如下:

  可以发现具有以下性质:
  如果某条规则不满足最小置信度,那么该规则的所有子集也都不满足最小置信度。
  比如规则{0,1,2}->{3}不满足最小可信度要求,那么任何左部为{0,1,2}子集的规则也不会满足最小可信度要求,或者说所有以{3}作为后件的规则不会满足最小可信度要求。原因是这些规则的置信度的分子都相同,而{0,1,2}->3的分母{0,1,2}的支持度最小,导致这条规则的置信度最大。因此其他规则的置信度只会比这条更小,更不会满足最小可信度的要求。

  除了Apriori算法可以用来挖掘关联规则,FP-growth算法针对Apriori算法做了进一步的优化,能够显著加快发现频繁项集的速度。

代码实现(Python)

  sklearn库中没有Apriori算法,也没有 FP-Growth 算法。不过可以采用python的第三方库实现Aprior算法发掘关联规则。相关的库有mlxtend机器学习包、efficient-apriori等,先附上一个开源的实现Apriori的链接,AprioriDemo
  这里使用mlxtend库实现Aprior算法。

import pandas as pd
from mlxtend.frequent_patterns import apriori
from mlxtend.frequent_patterns import association_rulesdf = pd.read_excel('./Online Retail.xlsx')
df.head()

  对数据进行预处理,描述Description字段去除首尾空格,删除发票ID"InvoiceNo"为空的数据记录,将发票ID"InvoiceNo"字段转为字符型,删除发票ID"InvoiceNo"不包含“C”的记录。
  然后需要将数据集转换为购物篮格式的形式,如下图:

  列名为商品名称,每一行为一个订单。
  转换的方法有两种:
  方法一:使用pivot_table函数

import numpy as np
basket = df[df['Country'] =="France"].pivot_table(columns = "Description",index="InvoiceNo",values="Quantity",aggfunc=np.sum).fillna(0)

  方法二:groupby后unstack

basket2 = (df[df['Country'] =="Germany"].groupby(['InvoiceNo', 'Description'])['Quantity'].sum().unstack().reset_index().fillna(0).set_index('InvoiceNo'))

  然后将购物数量转为0/1变量,即是否购买该物品。

def encode_units(x):if x <= 0:return 0if x >= 1:return 1basket_sets = basket.applymap(encode_units)
basket_sets.drop('POSTAGE', inplace=True, axis=1)

  使用算法包进行关联规则运算

frequent_itemsets = apriori(basket_sets2, min_support=0.05, use_colnames=True)
rules = association_rules(frequent_itemsets, metric="lift", min_threshold=1)

  frequent_itemsets 为频繁项集:

  Support列为支持度,即 项集发生频率/总订单量
rules为最终关联规则结果表:

  antecedants前项集,consequents后项集,support支持度,confidence置信度,lift提升度。选取置信度(confidence)大于0.8且提升度(lift)大于5的规则,按lift降序排序

参考文章

1.机器学习实战第11章
2.Python 极简关联分析(购物篮分析)

【作者】:Labryant
【原创公众号】:风控猎人
【简介】:某创业公司策略分析师,积极上进,努力提升。乾坤未定,你我都是黑马。
【转载说明】:转载请说明出处,谢谢合作!~

使用Apriori算法进行关联分析相关推荐

  1. Apriori算法进行关联分析实战

    使用Apriori算法进行关联分析(层次聚类) 一.基础知识 1.关联分析定义及存在的问题 定义:从大规模的数据集中寻找物品间的隐含关系,被称为关联分析或关联规则学习. 关联分析存在的主要问题:主要问 ...

  2. 【机器学习】Apriori 算法进行关联分析和FP-growth算法

    [机器学习]Apriori 算法进行关联分析和FP-growth算法 文章目录 1 关联分析 2 FP-growth算法理解和实现 3 FP增长算法的频繁项集产生 4 FP-Growth关联分析算法在 ...

  3. 《机器学习实战》chapter 11 使用apriori算法进行关联分析

    使用apriori算法进行关联分析 apriori原理:1.一个项集是非频繁的,那么它的所有超集也是非频繁的 2.一个项集是频繁的,那么它的所有子集也是频繁的 一.支持度(support)-使用apr ...

  4. 机器学习实战---读书笔记: 第11章 使用Apriori算法进行关联分析---2---从频繁项集中挖掘关联规则

    #!/usr/bin/env python # encoding: utf-8''' <<机器学习实战>> 读书笔记 第11章 使用Apriori算法进行关联分析---从频繁项 ...

  5. 机器学习——使用Apriori算法进行关联分析

    从大规模的数据集中寻找隐含关系被称作为关联分析(association analysis)或者关联规则学习(association rule learning). Apriori算法 优点:易编码实现 ...

  6. Apriori算法进行关联分析(2)

    频繁项集及关联规则的应用中,购物.搜索引擎中的查询词等,下面看一个美国国会议员投票的例子. 1. 示例:发现国会投票中的模式 这个例子虽然在数据的获取过程中有点复杂,但我觉得还是很有必要分析下整个过程 ...

  7. Apriori算法进行关联分析(1)

    1. 使用Apriori算法来发现频繁集 1.1 关联分析 关联分析:是一种在大规模数据集中寻找有趣关系的任务.这些关系可以有两种形式:频繁项集或者关联规则.频繁项集(frequent item se ...

  8. 机器学习基础(三十二) —— 使用 Apriori 算法进行关联分析

    Apriori 在拉丁语中指"来自以前".当定义问题时,通常会使用先验知识或者假设,这被称作"一个先验"(a priori).在贝叶斯统计中,使用先验知识作为条 ...

  9. 《机器学习实战》之十一——使用Apriori算法进行关联分析

    Apriori算法目录 一.前言 二.关联分析 三.Apriori原理 四.利用Apriori算法来发现频繁集 1.Apriori算法及实例描述 2.生成候选项集 2.组织完整的Apriori算法 五 ...

最新文章

  1. oracle 字符集 0354,如何查询Oracle的字符集? 爱问知识人
  2. Kfold交叉验证心得
  3. 自制操作系统学习笔记(2)-汇编程序体验
  4. Spring Boot简介
  5. 计算机二级考点的选择题,2016年计算机二级考试试题选择题
  6. bash3与bash4数组结构
  7. Python 问题 unindent does not match any outer indentation level 在 pycharm 平台的解决方法
  8. Product of Three Numbers(CF-1294C)
  9. 企业的生存必须找到你的核心竞争力
  10. delphi中单独编译pas生成dcu文件
  11. 显著性测试(Friedman test, Post-hoc Nimenyi test以及可视化)
  12. 拓端tecdat|matlab实现MCMC的马尔可夫转换MS- ARMA - GARCH模型估计
  13. 从Exchange 2010 SP1高可用性环境下升级到SP2
  14. java商城管理系统_java商场信息管理系统
  15. 单片机编程软件很简单(11),Keil单片机编程软件在线调试
  16. 全国道路运输管理人员考试多选练习题库
  17. c语言头文件相互包含的后果,C语言头文件相互包含的问题
  18. 反射系数、驻波比、S参数之间的关系
  19. 路由器下一跳地址怎么判断_路由器工作原理(一)
  20. 金融分析(三)------联合分布,边缘分布,条件概率密度

热门文章

  1. aspen和python一起使用_python-将$cond语句与$project一起使用并在PyMon...
  2. php读取数组修改内容,php 数组如何修改值
  3. php中pre标签,html中pre标签与code标签的作用与用法
  4. j2ee html5,HTML5+J2EE实现文件异步上传
  5. OpenCV-Python Feature2D 特征点检测 (SIFT,SURF)
  6. Learning Deep Structured Semantic Models for Web Search using Clickthrough Data (DSSM)
  7. 知识图谱学习笔记-Cypher语句使用
  8. ubuntu~vim操作
  9. 概率统计笔记:分布的核
  10. 文巾解题 326. 3的幂