矩阵分解在推荐系统中的应用:NMF和经典SVD实战(2)
本文以NMF和经典SVD为例,讲一讲矩阵分解在推荐系统中的应用。
数据
item\user | Ben | Tom | John | Fred |
---|---|---|---|---|
item 1 | 5 | 5 | 0 | 5 |
item 2 | 5 | 0 | 3 | 4 |
item 3 | 3 | 4 | 0 | 3 |
item 4 | 0 | 0 | 5 | 3 |
item 5 | 5 | 4 | 4 | 5 |
item 6 | 5 | 4 | 5 | 5 |
user\item | item 1 | item 2 | item 3 | item 4 | item 5 | item 6 |
---|---|---|---|---|---|---|
Ben | 5 | 5 | 3 | 0 | 5 | 5 |
Tom | 5 | 0 | 4 | 0 | 4 | 4 |
John | 0 | 3 | 0 | 5 | 4 | 5 |
Fred | 5 | 4 | 3 | 3 | 5 | 5 |
NMF
关于NMF,在隐语义模型和NMF(非负矩阵分解)已经有过介绍。
用户和物品的主题分布
#!/usr/bin/python2.7
# coding: UTF-8
import numpy as np
from sklearn.decomposition import NMF
import matplotlib.pyplot as pltRATE_MATRIX = np.array( [[5, 5, 3, 0, 5, 5],[5, 0, 4, 0, 4, 4],[0, 3, 0, 5, 4, 5],[5, 4, 3, 3, 5, 5]]
)nmf = NMF(n_components=2) # 设有2个隐主题
user_distribution = nmf.fit_transform(RATE_MATRIX)
item_distribution = nmf.components_print '用户的主题分布:'
print user_distribution
print '物品的主题分布:'
print item_distribution
运行后输出:
用户的主题分布:
[[ 2.20884275 0.84137492][ 2.08253282 -0. ][-0. 3.18154406][ 1.84992603 1.60839505]]
物品的主题分布:
[[ 2.4129931 1.02524235 1.62258152 0. 1.80111078 1.69591943][ 0.0435741 1.13506094 0. 1.54526337 1.21253494 1.48756118]]
可视化物品的主题分布:
#!/usr/bin/python2.7
# coding: UTF-8
import numpy as np
from sklearn.decomposition import NMF
import matplotlib.pyplot as pltRATE_MATRIX = np.array( [[5, 5, 3, 0, 5, 5],[5, 0, 4, 0, 4, 4],[0, 3, 0, 5, 4, 5],[5, 4, 3, 3, 5, 5]]
)nmf = NMF(n_components=2)
user_distribution = nmf.fit_transform(RATE_MATRIX)
item_distribution = nmf.components_item_distribution = item_distribution.T
plt.plot(item_distribution[:, 0], item_distribution[:, 1], "b*")
plt.xlim((-1, 3))
plt.ylim((-1, 3))plt.title(u'the distribution of items (NMF)')
count = 1
for item in item_distribution: plt.text(item[0], item[1], 'item '+str(count), bbox=dict(facecolor='red', alpha=0.2),)count += 1plt.show()
结果:
从距离的角度来看,item 5和item 6比较类似;从余弦相似度角度看,item 2、5、6 比较相似,item 1、3比较相似。
可视化用户的主题分布:
#!/usr/bin/python2.7
# coding: UTF-8
import numpy as np
from sklearn.decomposition import NMF
import matplotlib.pyplot as pltRATE_MATRIX = np.array( [[5, 5, 3, 0, 5, 5],[5, 0, 4, 0, 4, 4],[0, 3, 0, 5, 4, 5],[5, 4, 3, 3, 5, 5]]
)nmf = NMF(n_components=2)
user_distribution = nmf.fit_transform(RATE_MATRIX)
item_distribution = nmf.components_users = ['Ben', 'Tom', 'John', 'Fred']
zip_data = zip(users, user_distribution)plt.title(u'the distribution of users (NMF)')
plt.xlim((-1, 3))
plt.ylim((-1, 4))
for item in zip_data: user_name = item[0]data = item[1]plt.plot(data[0], data[1], "b*")plt.text(data[0], data[1], user_name, bbox=dict(facecolor='red', alpha=0.2),)plt.show()
结果:
从距离的角度来看,Fred、Ben、Tom的口味差不多;从余弦相似度角度看,Fred、Ben、Tom的口味还是差不多。
如何推荐
现在对于用户A,如何向其推荐物品呢?
方法1: 找出与用户A最相似的用户B,将B评分过的、评分较高、A没评分过的的若干物品推荐给A。
方法2: 找出用户A评分较高的若干物品,找出与这些物品相似的、且A没评分的若干物品推荐给A。
方法3: 找出用户A最感兴趣的k个主题,找出最符合这k个主题的、且A没评分的若干物品推荐给A。
方法4: 由NMF得到的两个矩阵,重建评分矩阵。例如:
#!/usr/bin/python2.7
# coding: UTF-8
import numpy as np
from sklearn.decomposition import NMF
import matplotlib.pyplot as pltRATE_MATRIX = np.array( [[5, 5, 3, 0, 5, 5],[5, 0, 4, 0, 4, 4],[0, 3, 0, 5, 4, 5],[5, 4, 3, 3, 5, 5]]
)RATE_MATRIX[1, 2] = 0 # 对评分矩阵略做修改
print '新评分矩阵:'
print RATE_MATRIXnmf = NMF(n_components=2)
user_distribution = nmf.fit_transform(RATE_MATRIX)
item_distribution = nmf.components_reconstruct_matrix = np.dot(user_distribution, item_distribution)
filter_matrix = RATE_MATRIX < 1e-6 # 小于0
print '重建矩阵,并过滤掉已经评分的物品:'
print reconstruct_matrix*filter_matrix
运行结果:
新评分矩阵:
[[5 5 3 0 5 5][5 0 0 0 4 4][0 3 0 5 4 5][5 4 3 3 5 5]]
重建矩阵,并过滤掉已经评分的物品:
[[ 0. 0. 0. 0.80443133 0. 0. ][ 0. 2.19148602 1.73560797 0. 0. 0. ][ 0.02543568 0. 0.48692891 0. 0. 0. ][ 0. 0. 0. 0. 0. 0. ]]
对于Tom(评分矩阵的第2行),其未评分过的物品是item 2、item 3、item 4。item 2的推荐值是2.19148602
,item 3的推荐值是1.73560797
,item 4的推荐值是0
,若要推荐一个物品,推荐item 2。
如何处理有评分记录的新用户
NMF是将非负矩阵V分解为两个非负矩阵W和H:
V = W×H
在本文上面的实现中,V对应评分矩阵,W是用户的主题分布,H是物品的主题分布。
对于有评分记录的新用户,如何得到其主题分布?
方法1: 有评分记录的新用户的评分数据放入评分矩阵中,使用NMF处理新的评分矩阵。
方法2: 物品的主题分布矩阵H保持不变,将V更换为新用户的评分组成的行向量,求W即可。
下面尝试一下方法2。
设新用户Bob的评分记录为:
[5,5,0,0,0,5]
#!/usr/bin/python2.7
# coding: UTF-8
import numpy as np
from sklearn.decomposition import NMF
import matplotlib.pyplot as pltRATE_MATRIX = np.array( [[5, 5, 3, 0, 5, 5],[5, 0, 4, 0, 4, 4],[0, 3, 0, 5, 4, 5],[5, 4, 3, 3, 5, 5]]
)nmf = NMF(n_components=2)
user_distribution = nmf.fit_transform(RATE_MATRIX)
item_distribution = nmf.components_bob = [5, 5, 0, 0, 0, 5]
print 'Bob的主题分布:'
print nmf.transform(bob)
运行结果是:
Bob的主题分布:
[[ 1.37800534 0.69236738]]
经典SVD
关于SVD的一篇好文章:强大的矩阵奇异值分解(SVD)及其应用。
相关分析与上面类似,这里就直接上代码了。
#!/usr/bin/python2.7
# coding: UTF-8
import numpy as np
from scipy.sparse.linalg import svds
from scipy import sparse
import matplotlib.pyplot as pltdef vector_to_diagonal(vector): """将向量放在对角矩阵的对角线上:param vector::return:"""if (isinstance(vector, np.ndarray) and vector.ndim == 1) or \isinstance(vector, list):length = len(vector)diag_matrix = np.zeros((length, length))np.fill_diagonal(diag_matrix, vector)return diag_matrixreturn NoneRATE_MATRIX = np.array( [[5, 5, 3, 0, 5, 5],[5, 0, 4, 0, 4, 4],[0, 3, 0, 5, 4, 5],[5, 4, 3, 3, 5, 5]]
)RATE_MATRIX = RATE_MATRIX.astype('float')
U, S, VT = svds(sparse.csr_matrix(RATE_MATRIX), k=2, maxiter=200) # 2个隐主题
S = vector_to_diagonal(S)print '用户的主题分布:'
print U
print '奇异值:'
print S
print '物品的主题分布:'
print VT
print '重建评分矩阵,并过滤掉已经评分的物品:'
print np.dot(np.dot(U, S), VT) * (RATE_MATRIX < 1e-6)
运行结果:
用户的主题分布:
[[-0.22279713 0.57098887][-0.51723555 0.4274751 ][ 0.82462029 0.38459931][ 0.05319973 0.58593526]]
奇异值:
[[ 6.39167145 0. ][ 0. 17.71392084]]
物品的主题分布:
[[-0.53728743 0.24605053 -0.40329582 0.67004393 0.05969518 0.18870999][ 0.44721867 0.35861531 0.29246336 0.20779151 0.50993331 0.53164501]]
重建评分矩阵,并过滤掉已经评分的物品:
[[ 0. 0. 0. 1.14752376 0. 0. ][ 0. 1.90208543 0. -0.64171368 0. 0. ][ 0.21491237 0. -0.13316888 0. 0. 0. ][ 0. 0. 0. 0. 0. 0. ]]
可视化一下:
经典SVD + 协同过滤
0
代表没有评分,但是上面的方法(如何推荐
这一节的方法4
)又确实把0看作了评分,所以最终得到的只是一个推荐值(而且总体都偏小),而无法当作预测的评分。在How do I use the SVD in collaborative filtering?有这方面的讨论。
SVD简要介绍
SVD的目标是将m*n
大小的矩阵A分解为三个矩阵的乘积:
A=U∗S∗VT
U和V都是正交矩阵,大小分别是m*m
、n*n
。S是一个对角矩阵,大小是m*n
,对角线存放着奇异值,从左上到右下依次减小,设奇异值的数量是r
。
取k
,k<<r
。
取得U的前k列得到Uk,S的前k个奇异值对应的方形矩阵得到Sk,VT的前k行得到VTk,于是有
Ak=Uk∗Sk∗VTk
Ak可以认为是A的近似。
下面的算法将协同过滤和SVD结合了起来。
Item-based Filtering Enhanced by SVD
这个算法来自下面这篇论文:
Vozalis M G, Margaritis K G. Applying SVD on Generalized Item-based Filtering[J]. IJCSA, 2006, 3(3): 27-51.
1、 设评分矩阵为R
,大小为m*n
,m个用户,n个物品。R
中元素rij代表着用户ui对物品ij的评分。
2、 预处理R
,消除掉其中未评分数据(即值为0)的评分。
- 计算
R
中每一行的平均值(平均值的计算中不包括值为0的评分),令Rfilled−in=R,然后将Rfilled−in中的0设置为该行的平均值。 - 计算
R
中每一列的平均值(平均值的计算中不包括值为0的评分)ri,Rfilled−in中的所有元素减去对应的ri,得到正规化的矩阵Rnorm。(norm,即normalized)。
3、 对Rnorm进行奇异值分解,得到: Rnorm=U∗S∗VT
4、 设正整数k,取得U的前k列得到Uk,S的前k个奇异值对应的方形矩阵得到Sk,VT的前k行得到VTk,于是有
Rred=Uk∗Sk∗VTk
red,即dimensionality reduction中的reduction。可以认为k是指最重要的k个主题。定义Rred中元素rrij用户i对物品j在矩阵Rred中的值。
5、 Uk∗S12k,是用户相关的降维后的数据,其中的每行代表着对应用户在新特征空间下位置。S12k∗VTk,是物品相关的降维后的数据,其中的每列代表着对应物品在新特征空间下的位置。
S12k∗VTk中的元素mrij代表物品j
在新空间下维度i
中的值,也可以认为是物品j
属于主题i
的程度。(共有k个主题)。
6、 获取物品之间相似度。
根据S12k∗VTk计算物品之间的相似度,例如使用余弦相似度计算物品j和f的相似度:
相似度计算出来后就可以得到每个物品最相似的若干物品了。
7、 使用下面的公式预测用户a对物品j的评分:这个公式里有些变量的使用和上面的冲突了(例如k)。 l是指取物品j最相似的l个物品。 mrij代表物品j
在新空间下维度i
中的值,也可以认为是物品j
属于主题i
的程度。 simjk是物品j和物品k的相似度。 Rred中元素rrak是用户a对物品k在矩阵Rred中对应的评分。ra¯是指用户a在评分矩阵R中评分的平均值(平均值的计算中不包括值为0的评分)。
参考
SVD Recommendation System in Ruby 这篇文章使用的数据来自该链接,里面处理新用户的方法表示没看懂。
How do I use the SVD in collaborative filtering?
Vozalis M G, Margaritis K G. Applying SVD on Generalized Item-based Filtering[J]. IJCSA, 2006, 3(3): 27-51.
矩阵分解在推荐系统中的应用:NMF和经典SVD实战(2)相关推荐
- 自己动手写一个推荐系统,推荐系统小结,推荐系统:总体介绍、推荐算法、性能比较, 漫谈“推荐系统”, 浅谈矩阵分解在推荐系统中的应用...
自己动手写一个推荐系统 废话: 最近朋友在学习推荐系统相关,说是实现完整的推荐系统,于是我们三不之一会有一些讨论和推导,想想索性整理出来. 在文中主要以工程中做推荐系统的流程着手,穿插一些经验之谈,并 ...
- [转]矩阵分解在推荐系统中的应用
矩阵分解是最近几年比较火的算法,经过kddcup和netflix比赛的多人多次检验,矩阵分解可以带来更好的结果,而且可以充分地考虑各种因素的影响,有非常好的扩展性,因为要考虑多种因素的综合作用,往往需 ...
- 再谈矩阵分解在推荐系统中的应用
本文将简单介绍下最近学习到的矩阵分解方法. (1)PureSvd 矩阵分解的核心是将一个非常稀疏的评分矩阵分解为两个矩阵,一个表示user的特性,一个表示item的特性,将两个矩阵中各取一行和一列向量 ...
- 浅谈矩阵分解在推荐系统中的应用
为了方便介绍,假设推荐系统中有用户集合有6个用户,即U={u1,u2,u3,u4,u5,u6},项目(物品)集合有7个项目,即V={v1,v2,v3,v4,v5,v6,v7},用户对项目的评分结合为R ...
- 【机器学习的数学基础】(七)矩阵分解(Matrix Decomposition)(中)
文章目录 4 矩阵分解(Matrix Decomposition)(中) 4.3 Cholesky分解 4.4 特征分解与对角化 4.5 奇异值分解 4.5.1 几何图解SVD 4.5.2 SVD的构 ...
- 矩阵奇异值分解特征值分解_推荐系统中的奇异值分解与矩阵分解
矩阵奇异值分解特征值分解 Recently, after watching the Recommender Systems class of Prof. Andrew Ng's Machine Lea ...
- 基于hadoop的商品推荐系统_【论文笔记】基于矩阵分解的推荐系统
本文是对经典论文的阅读笔记,大部分为论文的中文翻译内容(笔者英语水平也就六级飘过的水准,不喜勿喷) 论文标题:Matrix factorization techniques for recommend ...
- 矩阵分解java_推荐系统基础:使用PyTorch进行矩阵分解进行动漫的推荐
我们一天会遇到很多次推荐--当我们决定在Netflix/Youtube上看什么,购物网站上的商品推荐,Spotify上的歌曲推荐,Instagram上的朋友推荐,LinkedIn上的工作推荐--列表还 ...
- 基于矩阵分解的推荐系统
基于矩阵分解的推荐算法 1.概述 基于用户和基于项的协同过滤推荐算法,难以实现大数据量下的实时推荐.这时我们可以使用基于模型的协同过滤算法,矩阵分解(Matrix Factorization,M ...
- 矩阵分解 java_使用矩阵分解为推荐系统
矩阵分解假设"潜在因素",例如对用户的意大利食物的偏好和项目食物的意外性与矩阵中的评级有关 . 因此,整个问题类型转变为矩阵重构问题,存在许多不同的解决方案 . 一个简单的,可能很 ...
最新文章
- rsync 模块同步失败
- 操作系统原理第七章:死锁
- matplotlib中plot的颜色
- 速递 | 在线教育行业 12 大核心场景案例全解析!
- #ifdef _DEBUG #define new DEBUG_NEW #endif的解释
- 我记录网站综合系统 -- 技术原理解析[0:简介(代序) 1.7Beta源代码下载开始]...
- PHP opencv Dlib,Face_Recognition
- java标识符命名_Java标识符命名规则
- div+CSS编程技巧
- python爬虫-Python爬虫入门这一篇就够了
- 原型模式(Prototype) 1
- python爬虫好学不_python爬虫难学吗
- Windows常用快捷键
- EXCEL常用函数总结
- win8 上如何真正禁用UAC
- 卡尔加里大学计算机世界排名,2020年卡尔加里大学计算机科学专业本科申请条件-学费-世界排名...
- 低版本的iphone 无法跑在xcode8上
- 饥饿的小易(BFS问题)
- RK3399 hi3559A 平台离线语音识别、合成、翻译、声纹
- 解决NavigationDuplicated: Avoided redundant navigation to current location: 问题
热门文章
- js中数组(Array)的排序(sort)注意事项
- sudo: must be setuid root错误解决方法.
- VLAN aggregation(vlan聚合)配置
- MPLS virtual private network 地址重叠实验(华为设备)
- 华三H3c 交换机 vlan Hybird端口配置
- HDOJ--1598--find the most comfortable road(并查集+枚举)
- Vector Math for 3D Computer Graphics (Bradley Kjell 著)
- 巧用 TypeScript(四)
- 《Effective C#》读书笔记——条目23:理解接口方法和虚方法的区别使用C#表达设计...
- JSP 九大内置对象及四大作用域