Apriori算法python实现(数据挖掘学习笔记)
目录
1.算法伪代码
2.算法代码
3.测试数据
4.结果
1.算法伪代码
输入:事务数据库D;最小支持度阈值。
输出:D中的频繁项集L。
方法: L1 = find_frequent_1_itemsets(D); //找出频繁1-项集的集合L1
for(k = 2; Lk-1 ≠ ∅; k++) { //产生候选,并剪枝
Ck = aproiri_gen(Lk-1,min_sup);
for each transaction t∈D{ //扫描D进行候选计数
Ct = subset(Ck,t); //得到t的子集
for each candidate c∈Ct
c.count++; //支持度计数
}
Lk={c∈Ck| c.count ≥min_sup} //返回候选项集中不小于最小支持度的项集
}
return L = ∪kLk;//所有的频繁集
第一步(连接 join)
Procedure apriori_gen(Lk-1: frequent (k-1)-itemset; min_sup: support)
1) for each itemset l1∈Lk-1
2) for each itemset l2∈Lk-1
3) if(l1[1]=l2[1])∧...∧(l1[k-2]=l2[k-2])∧(l1[k-1]<l2[k-1]) then{
4) c = l1 l2; //连接步:l1连接l2 //连接步产生候选,若K-1项集中已经存在子集c,则进行剪枝
5) if has_infrequent_subset(c,Lk-1) then
6) delete c; //剪枝步:删除非频繁候选
7) else add c to Ck;
8) }
9) return Ck;
第二步:剪枝(prune)
Procedure has_infrequent_subset(c:candidate k-itemset; Lk-1:frequent (k-1)-itemset) //使用先验定理
1) for each (k-1)-subset s of c
2) if c∉Lk-1 then
3) return TRUE;
4) return FALSE;
2.算法代码
import itertools
import time
import psutil
import osdef item(dataset): # 求第一次扫描数据库后的 候选集,(它没法加入循环)c1 = [] # 存放候选集元素for x in dataset: # 就是求这个数据库中出现了几个元素,然后返回for y in x:if [y] not in c1:c1.append([y])c1.sort()# print(c1)return c1def get_frequent_item(dataset, c, min_support):cut_branch = {} # 用来存放所有项集的支持度的字典for x in c:for y in dataset:if set(x).issubset(set(y)): # 如果 x 不在 y中,就把对应元素后面加 1cut_branch[tuple(x)] = cut_branch.get(tuple(x),0) + 1 # cut_branch[y] = new_cand.get(y, 0)表示如果字典里面没有想要的关键词,就返回0# print(cut_branch)Fk = [] # 支持度大于最小支持度的项集, 即频繁项集sup_dataK = {} # 用来存放所有 频繁 项集的支持度的字典for i in cut_branch:if cut_branch[i] >= min_support: # Apriori定律1 小于支持度,则就将它舍去,它的超集必然不是频繁项集Fk.append(list(i))sup_dataK[i] = cut_branch[i]# print(Fk)return Fk, sup_dataKdef get_candidate(Fk, K): # 求第k次候选集ck = [] # 存放产生候选集for i in range(len(Fk)):for j in range(i + 1, len(Fk)):L1 = list(Fk[i])[:K - 2]L2 = list(Fk[j])[:K - 2]L1.sort()L2.sort() # 先排序,在进行组合if L1 == L2:if K > 2: # 第二次求候选集,不需要进行减枝,因为第一次候选集都是单元素,且已经减枝了,组合为双元素肯定不会出现不满足支持度的元素new = list(set(Fk[i]) ^ set(Fk[j])) # 集合运算 对称差集 ^ (含义,集合的元素在t或s中,但不会同时出现在二者中)# new表示,这两个记录中,不同的元素集合# 为什么要用new? 比如 1,2 1,3 两个合并成 1,2,3 我们知道1,2 和 1,3 一定是频繁项集,但 2,3呢,我们要判断2,3是否为频繁项集# Apriori定律1 如果一个集合不是频繁项集,则它的所有超集都不是频繁项集else:new = set()for x in Fk:if set(new).issubset(set(x)) and list(set(Fk[i]) | set(Fk[j])) not in ck: # 减枝 new是 x 的子集,并且 还没有加入 ck 中ck.append(list(set(Fk[i]) | set(Fk[j])))# print(ck)return ckdef Apriori(dataset, min_support=2):c1 = item(dataset) # 返回一个二维列表,里面的每一个一维列表,都是第一次候选集的元素f1, sup_1 = get_frequent_item(dataset, c1, min_support) # 求第一次候选集F = [f1] # 将第一次候选集产生的频繁项集放入 F ,以后每次扫描产生的所有频繁项集都放入里面sup_data = sup_1 # 一个字典,里面存放所有产生的候选集,及其支持度K = 2 # 从第二个开始循环求解,先求候选集,在求频繁项集while (len(F[K - 2]) > 1): # k-2是因为F是从0开始数的 #前一个的频繁项集个数在2个或2个以上,才继续循环,否则退出ck = get_candidate(F[K - 2], K) # 求第k次候选集fk, sup_k = get_frequent_item(dataset, ck, min_support) # 求第k次频繁项集F.append(fk) # 把新产生的候选集假如Fsup_data.update(sup_k) # 字典更新,加入新得出的数据K += 1return F, sup_data # 返回所有频繁项集, 以及存放频繁项集支持度的字典def generate_association_rules(patterns, confidence_threshold):rules = []for itemset in patterns.keys():upper_support = patterns[itemset]for i in range(1, len(itemset)):for antecedent in itertools.combinations(itemset, i):antecedent = tuple(sorted(antecedent))consequent = tuple(sorted(set(itemset) - set(antecedent)))if antecedent in patterns:lower_support = patterns[antecedent]confidence = float(upper_support) / lower_supportif confidence >= confidence_threshold:rules.append([antecedent, consequent, confidence])return rulesdef printPatterns(patterns):keys1 = list(patterns.keys())values1 = list(patterns.values())for i in range(len(keys1)):keys1[i] = list(keys1[i])for i in range(len(keys1)):for j in range(len(keys1[i])):print(keys1[i][j], end=" ")for i2 in range(10 - 2 * len(keys1[i])):print(" ", end="")print(" : ", end="")print(values1[i], end="\n")def printRules2(rlues):keys1 = []values1 = []for i in range(len(rules)):keys1.append(list(rules[i][0]))values1.append(list(rules[i][1]))for i in range(len(keys1)):for j in range(len(keys1[i])):print(keys1[i][j], end=" ")for i2 in range(10 - 2 * len(keys1[i])):print(" ", end="")print(" --> ", end="")for i1 in range(len(values1[i])):print(values1[i][i1], end=" ")for i3 in range(10 - 2 * len(values1[i])):print(" ", end="")print(": " + str(rules[i][2]), end="\n")if __name__ == '__main__':begin_time = time.time()dataset = [['M', 'O', 'N', 'K', 'E', 'Y'],['D', 'O', 'N', 'K', 'E', 'Y'],['M', 'A', 'K', 'E'],['M', 'U', 'C', 'K', 'Y'],['C', 'O', 'O', 'K', 'I', 'E']] # 装入数据 二维列表F, sup_data = Apriori(dataset, min_support=3) # 最小支持度设置为3rules = generate_association_rules(sup_data, 0.8) # 置信度(条件概率)删选print("各频繁集及其出现次数", end="\n")printPatterns(sup_data)print('---------------------------------')print("各强关联规则及其置信度", end="\n")printRules2(rules)end_time = time.time()timeget = end_time - begin_timeprint("程序开始时间:",begin_time)print("程序结束时间:",end_time)print("程序花费时间:",timeget)print(u'当前进程的内存使用:%.4f GB' % (psutil.Process(os.getpid()).memory_info().rss / 1024 / 1024 / 1024))
注:代码具体来源已找不到
3.测试数据
['M', 'O', 'N', 'K', 'E', 'Y'],
['D', 'O', 'N', 'K', 'E', 'Y'],
['M', 'A', 'K', 'E'],
['M', 'U', 'C', 'K', 'Y'],
['C', 'O', 'O', 'K', 'I', 'E']
4.结果
程序开始时间: 1648740721.5249064
程序结束时间: 1648740721.525904
程序花费时间: 0.0009975433349609375
当前进程的内存使用:0.0132 GB
各频繁集及其出现次数
E : 4
K : 5
M : 3
O : 3
Y : 3
K E : 4
O E : 3
K M : 3
O K : 3
Y K : 3
O K E : 3
各强关联规则及其置信度
K --> E: 0.8
E --> K: 1.0
O --> E: 1.0
M --> K: 1.0
O --> K: 1.0
Y --> K: 1.0
O--> E K: 1.0
执行Apriori算法花费的时间和占有的内存。
程序花费时间: 0.0009975433349609375
当前进程的内存使用:0.0132 GB
基础知识参考:
大白话解析Apriori算法python实现(含源代码详解)_A little storm的博客-CSDN博客_apriori算法python实现
关联规则挖掘——Apriori算法的基本原理以及改进_水澹澹兮生烟的博客-CSDN博客_apriori算法
本文仅仅是个人的学习笔记,如有错误,敬请指正!
Apriori算法python实现(数据挖掘学习笔记)相关推荐
- python数据挖掘学习笔记】十九.鸢尾花数据集可视化、线性回归、决策树花样分析
#2018-04-05 16:57:26 April Thursday the 14 week, the 095 day SZ SSMR python数据挖掘学习笔记]十九.鸢尾花数据集可视化.线性回 ...
- python数据挖掘学习笔记】十六.逻辑回归LogisticRegression分析鸢尾花数据
但是很多时候数据是非线性的,所以这篇文章主要讲述逻辑回归及Sklearn机器学习包中的LogisticRegression算法 #2018-03-28 16:57:56 March Wednesday ...
- python数据挖掘学习笔记】十四.Scipy调用curve_fit实现曲线拟合
#2018-03-28 10:02:08 March Wednesday the 13 week, the 087 day SZ SSMR python数据挖掘学习笔记]十四.Scipy调用curve ...
- Python数据挖掘学习笔记】九.回归模型LinearRegression简单分析氧化物数据
#2018-03-23 16:26:20 March Friday the 12 week, the 082 day SZ SSMR [Python数据挖掘学习笔记]九.回归模型LinearRegre ...
- python分析鸢尾花数据_python数据挖掘学习笔记】十六.逻辑回归LogisticRegression分析鸢尾花数据...
但是很多时候数据是非线性的,所以这篇文章主要讲述逻辑回归及Sklearn机器学习包中的LogisticRegression算法 #2018-03-28 16:57:56 March Wednesday ...
- python数据挖掘学习笔记】十三.WordCloud词云配置过程及词频分析
#2018-03-28 09:59:40 March Wednesday the 13 week, the 087 day SZ SSMR 11,12因为涉及到数据库被我暂时放弃了 python数据挖 ...
- python数据挖掘学习笔记】十.Pandas、Matplotlib、PCA绘图实用代码补充
#2018-03-23 18:56:38 March Friday the 12 week, the 082 day SZ SSMR https://blog.csdn.net/eastmount/a ...
- 数据挖掘学习笔记 5 线性回归知识及预测糖尿病实例
#2018-03-21 16:45:01 March Wednesday the 12 week, the 080 day SZ SSMR http://blog.csdn.net/eastmount ...
- python标准库学习笔记
原创:python标准库学习笔记 数据结构 bisect 模块里实现了一个向列表插入元素时也会顺便排序的算法. struct - 二进制数据结构:用途:在 Python 基本数据类型和二进制数据之间进 ...
最新文章
- Machine Learning week 6 quiz: programming assignment-Regularized Linear Regression and Bias/Variance
- OGRE分析之设计模式
- Django中加载static无法成功的解决方法
- JAVA入门_工具类_书籍借阅日期计算
- 【20211005】Praat 基本用法
- Linux服务器CPU飙升排查
- ubuntu无法打开图片
- c语言wakeup函数,关于RTC时钟RTC_Set_WakeUp(u32 wksel,u16 cnt)函数的疑惑
- 建筑行业必看,一招学会工地管理诀窍
- 什么是json数据?json数据应该怎么设计
- 没有独立显卡没有NVIDIA 如何安装pytorch
- DenseFuse: A Fusion Approach to Infrared and Visible Images
- 宽带的服务器未响应,宽带拨号服务器未响应
- 强烈推介的几个微信小程序开发小技巧,简单又实用
- Armadillo使用介绍(八):第二个Armadillo程序
- 未来计算机语言的发展趋势,编程语言的发展趋势及未来方向 I
- TensorFlow系列专题(二):机器学习基础
- IOS截屏的几种方法
- 流程引擎之Camunda简介
- 从产品小白到产品经理,我用了三个月时间