FP代表频繁模式(Frequent Pattern)。

这里有几点需要强调一下:

第一,FP-growth算法只能用来发现频繁项集,不能用来寻找关联规则。

第二,FP-growth算法发现频繁集的效率比较高,Apriori算法要对于每个潜在的频繁项集都会扫描数据集来判定是否频繁,FP-growth算法只需要对数据集进行两次扫描。这种算法的执行速度要快于Apriori,通常性能要好两个数量级以上。

第三,FP-growth算法基于Apriori算法构建,在完成相同任务的时候采用了一些不同技术。

发现频繁项集的基本过程:

1、构建FP树

2、从FP树中挖掘频繁项集

优点:一般要快于Apriori

缺点:实现比较困难,在某些数据集上性能会下降。

适用数据类型:标称型数据。

FP树

FP-growth算法将数据存储在一种称为FP树的紧凑数据结构中。一棵FP树看上去与计算机中的其他树结构类似,但是他通过链接(link)来连接相似元素,被连起来的元素项可以看成一个链表。

同搜索树不同的是,一个元素项可以在一棵FP树中出现多词。FP树会存储项集的出现频率,而每个项集会以路径的方式存储在树中。存在相似元素的集合会共享树的一部分。只有当集合之间完全不同的时候树才会分叉。树节点上给出集合中的单个元素及其在序列中的出现次数,路径会给出该序列的出现次数。

相似项之间的链接即节点链接(node link),用于快速发现相似项的位置。

FP-growth算法的工作流程如下:首先构建FP树,然后利用它来挖掘频繁项集。

为了构建FP树,需要对数据集进行两次扫描。第一次对所有元素项的出现次数进行计数,统计出现的频率。第二遍扫描仅考虑哪些频繁元素。

代码清单

代码和思路来自于《机器学习实战》,书中代码python2,我用的python3进行了一些改写。

# -*- coding: utf-8 -*-

# 只能用于发现频繁项集,不能用来寻找关联规则

# FP树中节点的类定义

class treeNode:

def __init__(self, nameValue, numOccur, parentNode):

self.name = nameValue

self.count = numOccur

self.nodeLink = None # nodeLink 变量用于链接相似的元素项

self.parent = parentNode # 指向当前节点的父节点

self.children = {} # 空字典,存放节点的子节点

def inc(self, numOccur): # 计数加1

self.count += numOccur

# 将树以文本形式显示

def disp(self, ind=1):

# print(' ' * ind, self.name, ' ', self.count)

for child in self.children.values():

child.disp(ind + 1)

# 构建FP-tree

def createTree(dataSet, minSup=1):

headerTable = {}

for trans in dataSet: # 第一次遍历:统计各个数据的频繁度

for item in trans:

headerTable[item] = headerTable.get(item, 0) + dataSet[trans]

# 用头指针表统计各个类别的出现的次数,计算频繁量:头指针表[类别]=出现次数

for k in list(headerTable): # 删除未达到最小频繁度的数据

if headerTable[k] < minSup:

del (headerTable[k])

freqItemSet = set(headerTable.keys()) # 保存达到要求的数据

# print ('freqItemSet: ',freqItemSet)

if len(freqItemSet) == 0:

return None, None # 若没有元素满足要求,则退出

for k in headerTable: # 遍历头指针表

headerTable[k] = [headerTable[k], None] # 保存计数值及指向每种类型第一个元素项的指针

# print ('headerTable: ',headerTable)

retTree = treeNode('Null Set', 1, None) # 初始化tree

for tranSet, count in dataSet.items(): # 第二次遍历:

localD = {}

for item in tranSet: # put transaction items in order

if item in freqItemSet: # 只对频繁项集进行排序

localD[item] = headerTable[item][0]

# 使用排序后的频率项集对树进行填充

if len(localD) > 0:

orderedItems = [v[0] for v in sorted(localD.items(), key=lambda p: p[1], reverse=True)]

updateTree(orderedItems, retTree, headerTable, count) # populate tree with ordered freq itemset

return retTree, headerTable # 返回树和头指针表

def updateTree(items, inTree, headerTable, count):

if items[0] in inTree.children: # 首先检查是否存在该节点

inTree.children[items[0]].inc(count) # 存在则计数增加

else: # 不存在则将新建该节点

inTree.children[items[0]] = treeNode(items[0], count, inTree) # 创建一个新节点

if headerTable[items[0]][1] == None : # 若原来不存在该类别,更新头指针列表

headerTable[items[0]][1] = inTree.children[items[0]] # 更新指向

else: # 更新指向

updateHeader(headerTable[items[0]][1], inTree.children[items[0]])

if len(items) > 1: # 仍有未分配完的树,迭代

updateTree(items[1::], inTree.children[items[0]], headerTable, count)

# 节点链接指向树中该元素项的每一个实例。

# 从头指针表的 nodeLink 开始,一直沿着nodeLink直到到达链表末尾

def updateHeader(nodeToTest, targetNode):

while nodeToTest.nodeLink != None:

nodeToTest = nodeToTest.nodeLink

nodeToTest.nodeLink = targetNode

def loadSimpDat():

simpDat = [['r', 'z', 'h', 'j', 'p'],

['z', 'y', 'x', 'w', 'v', 'u', 't', 's'],

['z'],

['r', 'x', 'n', 'o', 's'],

['y', 'r', 'x', 'z', 'q', 't', 'p'],

['y', 'z', 'x', 'e', 'q', 's', 't', 'm']]

return simpDat

# createInitSet() 用于实现上述从列表到字典的类型转换过程

def createInitSet(dataSet):

retDict = {}

for trans in dataSet:

retDict[frozenset(trans)] = 1

return retDict

# 从FP树中发现频繁项集

def ascendTree(leafNode, prefixPath): # 递归上溯整棵树

if leafNode.parent != None:

prefixPath.append(leafNode.name)

ascendTree(leafNode.parent, prefixPath)

def findPrefixPath(basePat, treeNode): # 参数:指针,节点;

condPats = {}

while treeNode != None:

prefixPath = []

ascendTree(treeNode, prefixPath) # 寻找当前非空节点的前缀

if len(prefixPath) > 1:

condPats[frozenset(prefixPath[1:])] = treeNode.count # 将条件模式基添加到字典中

treeNode = treeNode.nodeLink

return condPats

# 递归查找频繁项集

def mineTree(inTree, headerTable, minSup, preFix, freqItemList):

# 头指针表中的元素项按照频繁度排序,从小到大

bigL = [v[0] for v in sorted(headerTable.items(), key=lambda p: str(p[1]))] # python3修改

for basePat in bigL: # 从底层开始

# 加入频繁项列表

newFreqSet = preFix.copy()

newFreqSet.add(basePat)

# print ('finalFrequent Item: ',newFreqSet)

freqItemList.append(newFreqSet)

# 递归调用函数来创建基

condPattBases = findPrefixPath(basePat, headerTable[basePat][1])

# print ('condPattBases :',basePat, condPattBases)

# 2. 构建条件模式Tree

myCondTree, myHead = createTree(condPattBases, minSup)

# 将创建的条件基作为新的数据集添加到fp-tree

# print ('head from conditional tree: ', myHead)

if myHead != None: # 3. 递归

# print('conditional tree for: ', newFreqSet)

myCondTree.disp(1)

mineTree(myCondTree, myHead, minSup, newFreqSet, freqItemList)

# rootNode = treeNode('pyramid', 9, None)

# rootNode.children['eye'] = treeNode('eye', 13, None)

# print(rootNode.disp())

# rootNode.children['phoenix'] = treeNode('phoenix', 3, None)

# print(rootNode.disp())

# 加载数据集

simpData = loadSimpDat()

# print(simpData)

# 数据包装器

initSet = createInitSet(simpData)

# print(initSet)

myFPtree, myHeaderTab = createTree(initSet, 3)

# print(findPrefixPath('x', myHeaderTab['x'][1]))

# print(findPrefixPath('z', myHeaderTab['z'][1]))

# 前两个运行结果都一样,但是这个运行结果每次都不一样,研究一下

# print(findPrefixPath('r', myHeaderTab['r'][1]))

freqItems = []

mineTree(myFPtree, myHeaderTab, 3, set([]), freqItems)

print(freqItems)

fp算法例题_FP-growth算法相关推荐

  1. fp算法例题_FP Tree算法原理总结

    在Apriori算法原理总结中,我们对Apriori算法的原理做了总结.作为一个挖掘频繁项集的算法,Apriori算法需要多次扫描数据,I/O是很大的瓶颈.为了解决这个问题,FP Tree算法(也称F ...

  2. Frequent Pattern 挖掘之二(FP Growth算法)(转)

    FP树构造 FP Growth算法利用了巧妙的数据结构,大大降低了Aproir挖掘算法的代价,他不需要不断得生成候选项目队列和不断得扫描整个数据库进行比对.为了达到这样的效果,它采用了一种简洁的数据结 ...

  3. MapReduce框架下的FP Growth算法概述

    转载自:http://blog.sina.com.cn/s/blog_68ffc7a40100uebi.html 前面的博客分析了关联分析中非常重要的一个算法-FP Growth.该算法根据数据库在内 ...

  4. FP Growth算法

    转载自:http://blog.sina.com.cn/s/blog_68ffc7a40100uebg.html FP树构造 FP Growth算法利用了巧妙的数据结构,大大降低了Aproir挖掘算法 ...

  5. MapReduce框架下的FP Growth算法详解

    转载自:http://blog.sina.com.cn/s/blog_68ffc7a40100uebk.html Sharding 这一步没什么好讲的,将数据库分成连续的大小相等的几个块,放置在不同的 ...

  6. FP Growth算法详解

    看了n多资料,就这篇说的比较详细,适合初学者 FP树构造 FP Growth算法利用了巧妙的数据结构,大大降低了Aproir挖掘算法的代价,他不需要不断得生成候选项目队列和不断得扫描整个数据库进行比对 ...

  7. fp算法例题_机器学习(九)—FP-growth算法

    本来老师是想让我学Hadoop的,也装了Ubuntu,配置了Hadoop,一时间却不知从何学起,加之自己还是想先看点自己喜欢的算法,学习Hadoop也就暂且搁置了,不过还是想问一下园子里的朋友有什么学 ...

  8. fp算法例题_Apriori算法和FP-Tree算法简介

    本节主要描述了基于 Apriori 算法的关联分析方法.为了克服 Apriori 算法在复杂度和效率方面的缺陷,本节还进一步的介绍了基于 FP-Tree 的频繁模式挖掘方法. Apriori关联分析算 ...

  9. 用Spark学习FP Tree算法和PrefixSpan算法

    在FP Tree算法原理总结和PrefixSpan算法原理总结中,我们对FP Tree和PrefixSpan这两种关联算法的原理做了总结,这里就从实践的角度介绍如何使用这两个算法.由于scikit-l ...

  10. 软件项目规模估算的3种方法---Loc估算法、FP估算法、PERT估算法

    软件项目规模估算的方法 Loc估算法 FP估算法 PERT估算法   软件规模是软件工作量的主要影响因素,常用的软件规模度量方法有三种,分别是Loc估算法.FP估算法.PERT估算法. Loc估算法 ...

最新文章

  1. python快速入门答案-Python快速入门(一)
  2. 无为职业学校计算机班,致盐亭职中2000级计算机三班全体同学的一封信
  3. 新盲盒星球抽奖商城手机网站源码 随机开箱抢购
  4. 【Java】用键盘输入若干数字,以非数字字符结束,计算这些数的和和平均值
  5. GBDT(MART) 迭代决策树入门教程
  6. 海龟绘图两小时上手C语言 - 5 彩色螺旋线
  7. 拓端tecdat|Python使用GARCH,EGARCH,GJR-GARCH模型和蒙特卡洛模拟进行股价预测
  8. 微信小程序如何引入图标
  9. 《java高并发编程详解》第0集
  10. pdf.js、pdfobject.js实现pdf文件预览
  11. 思科三层交换机不同vlan互通_Cisco三层交换机实现不同vlan之间的通信
  12. 2021年HSP律所代理品牌侵权案件合集,赶紧查看避免踩坑
  13. 数据中台当前与未来-数字化架构设计(1)
  14. 开场白——第一篇博客
  15. 《爱乐之城》月亮与六便士,你选哪个?
  16. 安装MongoDB出现的问题
  17. leaflet清除图层
  18. 人工智能AI程序设计语言简介
  19. MySQL查询分析器EXPLAIN
  20. hooks 使用dva_Tarodemo

热门文章

  1. ntp时间校准服务器的调试方法
  2. MT4 中各种指标线的解释
  3. 计算机病毒发展简史,计算机病毒分析_计算机病毒简史
  4. 用Linux给手机刷rec,【小白福利】手机端刷入第三方Rec,手把手教会你
  5. windows 打包c++运行库
  6. 如何将IE11降级到IE10
  7. CANape CAN工程的创建
  8. SAE J1939 协议源代码分析(一)-程序结构框架
  9. Vivado保姆级安装
  10. 尚硅谷大数据—搭建Hadoop集群—硬件环境准备