机器学习(十):Apriori算法
- 引言
- 一、Apriori原理
- 二、发现频繁项集
- 三、发现关联规则
- 四、代码实现(python)
引言
Apriori算法是第一个关联规则挖掘算法。它基于Apriori原理,用支持度做度量,迭代产生频繁项集;对频繁项集,使用置信度做度量,最后发现关联规则。
本文用到的部分术语已在简介中介绍(具体看‘基本概念-关联分析’),这里不再重述。
tb店铺搜:FUN STORE玩物社,专业买手挑选送礼好物
一、Apriori原理
如果一个项集是频繁的,则它的所有子集一定也是频繁的;相反,如果项集是非频繁的,则它的所有超集也一定是非频繁的。
二、发现频繁项集
假定事务总数为N,支持度阈值是minsup,发现频繁项集的过程如下(理论上,存在许多产生候选项集的方法,本例使用支持度阈值来产生):
①初始时每个项都被看作候选1-项集。计数对它们的支持度之后,将支持度少于阈值的候选项集丢弃,生成频繁1-项集。
②在第二次迭代,依据Apriori原理(即所有非频繁的1-项集的超集都是非频繁的),仅使用频繁1-项集来产生候选2-项集。此时生成的候选2-项集有多个,将支持度少于阈值的候选项集丢弃,生成频繁2-项集。
③经过多次迭代,每次用上一次生成的频繁n-项集产生新的候选(n+1)-项集,直至没有发现频繁(n+1)-项集,则得到的频繁n-项集就是最终结果。
例1
下图是一个购物篮事务的例子。
TID | 项集 |
---|---|
1 | {面包,牛奶} |
2 | {面包,尿布,啤酒,鸡蛋} |
3 | {牛奶,尿布,啤酒,可乐} |
4 | {面包,牛奶,尿布,啤酒} |
5 | {面包,牛奶,尿布,可乐} |
假定支持度阈值是60%,相当于支持度计数为5*60%=3。 | |
①初始时每个项都被看作候选1-项集,即候选1-项集={面包,牛奶,尿布,啤酒,鸡蛋,可乐},其中{可乐}和{鸡蛋}出现的事务少于3,即支持度少于支持度阈值,丢弃得频繁1-项集={面包,牛奶,尿布,啤酒}。 | |
②由于只有4个频繁1项集,因此算法产生的候选2-项集的数目为C42=6C_4^2=6C42=6。计算它们的支持度后,发现这6个候选项集中的2个{啤酒,面包}和{啤酒,牛奶}是非频繁的,丢弃得频繁2-项集={面包,牛奶},{面包,尿布},{牛奶,尿布},{啤酒,尿布}。 | |
③用频繁2-项集生成候选3-项集(将含有1个相同项的集合合并),得到候选3-项集={面包,牛奶,尿布},{面包,啤酒,尿布},{牛奶,啤酒,尿布};丢弃支持度少于支持度阈值的项,最后得频繁3-项集为空集,则可得频繁2-项集={面包,牛奶},{面包,尿布},{牛奶,尿布},{啤酒,尿布}为最终结果。 | |
三、发现关联规则
发现关联规则是指找出支持度大于等于minsup并且置信度大于等于minconf的所有规则,其中minsup和minconf是对应的支持度阈值和置信度阈值。
设Y是频繁项集,关联规则可以这样提取:将项集Y划分成两个非空的子集X和Y-X,使得X->Y-X满足置信度阈值(注意:这里的规则必然已经满足支持度阈值,因为它们是由频繁项集产生的)。
例2
设Y={1,2,3}是频繁项集,可以由Y产生6个候选关联规则:{1,2}->{3},{1,3}->{2},{2,3}->{1},{1}->{1,2},{2}->{1,3},{3}->{1,2}。6个候选关联规则中满足置信度阈值的关联规则,就是我们最终需要的结果。
四、代码实现(python)
以下代码来自Peter Harrington《Machine Learing in Action》。
代码如下(保存为apriori.py)
# -- coding: utf-8 --
from numpy import *def loadDataSet():return [[1, 3, 4], [2, 3, 5], [1, 2, 3, 5], [2, 5]]def createC1(dataSet):# 该函数构建集合C1:候选1-项集C1 = []for transaction in dataSet:for item in transaction:if not [item] in C1:C1.append([item])C1.sort()return map(frozenset, C1)def scanD(D, Ck, minSupport):# 该函数接收3个参数,分别是数据集、候选k-项集、支持度阈值;该函数用于生成频繁项集ssCnt = {}for tid in D:for can in Ck:if can.issubset(tid):if not ssCnt.has_key(can): ssCnt[can]=1else: ssCnt[can] += 1numItems = float(len(D))retList = [] # retList存储大于支持度阈值的候选1-项集,即频繁1-项集supportData = {} # supportDatacunc存储各候选1-项集的支持度for key in ssCnt:support = ssCnt[key]/numItemsif support >= minSupport:retList.insert(0,key)supportData[key] = supportreturn retList, supportDatadef aprioriGen(Lk, k):# 该函数接收2个参数,分别是频繁(k-1)-项集、k;该函数用于生成候选项集retList = [] # 存储候选k-项集lenLk = len(Lk)for i in range(lenLk):for j in range(i+1, lenLk):L1 = list(Lk[i])[:k-2]L2 = list(Lk[j])[:k-2]L1.sort()L2.sort()if L1==L2:retList.append(Lk[i] | Lk[j]) # 前k-2个项相同,合并Lk[i]与Lk[j]return retListdef apriori(dataSet, minSupport = 0.5):# 该函数接收2个参数,分别是数据集、支持度阈值(默认0.5)C1 = createC1(dataSet) # 创建候选1-项集D = map(set, dataSet)L1, supportData = scanD(D, C1, minSupport) # L1为频繁1-项集,supportData存储各候选1-项集的支持度L = [L1]k = 2while (len(L[k-2]) > 0):# 循环各频繁(k-1)-项集,直至为空Ck = aprioriGen(L[k-2], k) # Ck为候选k-项集Lk, supK = scanD(D, Ck, minSupport) # Lk为频繁k-项集,supportData存储各候选k-项集的支持度supportData.update(supK) # 存储各候选项集的支持度L.append(Lk) # 将新生成的频繁k-项集添加进频繁项集数组k += 1return L, supportDatadef generateRules(L, supportData, minConf=0.7):# 该函数接收3个参数,分别是频繁项集、包含项集的支持度字典、置信度阈值;bigRuleList = []for i in range(1, len(L)):for freqSet in L[i]:H1 = [frozenset([item]) for item in freqSet]if (i > 1):# 项集数目大于3执行次函数rulesFromConseq(freqSet, H1, supportData, bigRuleList, minConf)else:# 频繁2-项集执行此函数calcConf(freqSet, H1, supportData, bigRuleList, minConf)return bigRuleListdef calcConf(freqSet, H, supportData, brl, minConf=0.7):# 该函数接收5个参数,分别是用于计算的频繁项集、此项集各个元素、包含项集的支持度字典、关联规则数组、置信度阈值;prunedH = []for conseq in H:conf = supportData[freqSet]/supportData[freqSet-conseq] # 计算置信度if conf >= minConf:print freqSet-conseq,'-->',conseq,'conf:',confbrl.append((freqSet-conseq, conseq, conf))prunedH.append(conseq)return prunedHdef rulesFromConseq(freqSet, H, supportData, brl, minConf=0.7):# 该函数接收5个参数,分别是用于计算的频繁项集、此项集各个元素、包含项集的支持度字典、关联规则数组、置信度阈值;m = len(H[0])if (len(freqSet) > (m + 1)):Hmp1 = aprioriGen(H, m+1) # 将H中的元素两两合并Hmp1 = calcConf(freqSet, Hmp1, supportData, brl, minConf) # 计算置信度if (len(Hmp1) > 1):rulesFromConseq(freqSet, Hmp1, supportData, brl, minConf)
运行命令如下:
以上全部内容参考书籍如下:
《数据挖掘导论(完整版)》人民邮电出版社
Peter Harrington《Machine Learing in Action》
机器学习(十):Apriori算法相关推荐
- 【机器学习】Apriori 算法进行关联分析和FP-growth算法
[机器学习]Apriori 算法进行关联分析和FP-growth算法 文章目录 1 关联分析 2 FP-growth算法理解和实现 3 FP增长算法的频繁项集产生 4 FP-Growth关联分析算法在 ...
- 新手入门机器学习十大算法
新手入门机器学习十大算法 2018年9月17日 磐石 TensorFlowNews, 机器学习 0 在机器学习的世界中,有一种被称为"无免费午餐"的定理. 它意在说明没有哪种算法能 ...
- 机器学习十大算法之Matlab-5决策树
机器学习十大算法之Matlab-5决策树 决策树 Matlab代码 例子1-fitctree,三分类 例子2-fitctree,二分类 决策树 Matlab代码 例子1-fitctree,三分类 利用 ...
- 机器学习十大算法汇总
机器学习十大算法汇总 目录: 机器学习十大算法汇总 前言: 机器学习的十大算法: 总结 前言: 什么是机器学习算法? 它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它 ...
- 机器学习十大算法之Matlab-9降维算法
机器学习十大算法之Matlab-9降维算法 降维算法 PCA算法 对数据集进行PCA后再重构 PCA降维-Matlab代码 例子1-系统pca做降维pca_mat.m 例子2-系统pca对简单数据集降 ...
- 五分钟了解机器学习十大算法
作者 | Fahim ul Haq 译者 | 刘志勇 策划 | 赵钰莹 编辑 | 程序员大白公众号 仅作学术交流,如有侵权,请联系删文 本文为有志于成为数据科学家或对此感兴趣的读者们介绍最流行的 ...
- 机器学习十大算法(二)
文章来源:https://www.dezyre.com/article/top-10-machine-learning-algorithms/202 本人自行翻译,如有错误,还请指出.后续会继续补充实 ...
- IT大佬整理的Python机器学习十大算法案例
1.k-近邻算法:手写字符识别 通过算法训练识别字符为0-9的数字,也可以为A-Z的字符,目前sklearn提供的数据集里面为0-9的数字.数据训练前需要用图像处理软件将数字转换成宽高为32X32的黑 ...
- 机器学习——使用Apriori算法进行关联分析
从大规模的数据集中寻找隐含关系被称作为关联分析(association analysis)或者关联规则学习(association rule learning). Apriori算法 优点:易编码实现 ...
- 机器学习算法_五分钟了解机器学习十大算法
本文为有志于成为数据科学家或对此感兴趣的读者们介绍最流行的机器学习算法. 机器学习是该行业的一个创新且重要的领域.我们为机器学习程序选择的算法类型,取决于我们想要实现的目标. 现在,机器学习有很多算法 ...
最新文章
- 本科发表6篇SCI论文,获多个荣誉,他刚入学就享受研究生待遇!
- python入门语句_Python 快速入门笔记(5):语句
- (原創) array可以使用reference方式傳進function嗎? (C/C++)
- Java图片,视频上传,截取视频帧以及文件下载和视频IO获取
- 【采用】如何搭建反欺诈策略与模型
- 每日两道前端面试题20190221
- STM32CubeMx配置H7时钟: Frequency searched for is out of range for this vos range
- python知识点2--正则表达式【转载】
- 滴滴定制网约车D1即将登陆长沙 市民12月中可叫到
- 09年最值得期待7大IT收购:思科收购VMware
- 【转】架构师是一个很不错的方向
- 【BZOJ】1010: [HNOI2008]玩具装箱toy(dp+斜率优化)
- 阿里巴巴分布式消息系统的实践之路
- 车辆动力学知识总结(二):运动学模型
- c语言:今天是星期一,那么k天之后是星期几
- PCB板材的基本分类
- 【C语言编程】如何整蛊你的损友,让他的电脑一直关机?
- 高斯消元法求解方程组
- 解决每次上线更新文件需要手动清除缓存的问题-------js 、css自动清除浏览器缓存方法
- 基于Springboot开发实现二手交易商城