点击率预估中的FM算法FFM算法
转载请注明出处:https://blog.csdn.net/gamer_gyt/article/details/81038913
博主微博:http://weibo.com/234654758
Github:https://github.com/thinkgamer
特征决定了所有算法效果的上限,而不同的算法只是离这个上限的距离不同而已
CTR方法概览
广义线性模型+人工特征组合(LR+FeatureEngineering)
非线性模型(GBDT,FM,FFM,DNN,MLR)
广义线性模型+非线性模型组合特征(模型融合,常见的是LR+GBDT)
其中 2(非线性模型)又可以分为:
矩阵分解类 (FM,FFM)
回归类 (GBDT,MLR)
神经网络类 (DNN)
FM算法
背景
FM算法(Factorization Machine)一般翻译为“因子分解机”,2010年,它由当时还在日本大阪大学的Steffen Rendle提出。
此算法的主要作用是可以把所有特征进行高阶组合,减少人工参与特征组合的工作,工程师可以将精力集中在模型参数调优。
FM只需要线性时间复杂度,可以应用于大规模机器学习。经过部分数据集试验,此算法在稀疏数据集合上的效果要明显好于SVM。
要解决的问题
假设一个广告分类问题,根据用户和广告位相关的特征,预测用户是否点击了广告。
Clicked? |
Country |
Day |
Ad_type |
1 |
USA |
26/11/15 |
Movie |
0 |
China |
1/7/14 |
Game |
1 |
China |
19/2/15 |
Game |
"Clicked?"是label,Country、Day、Ad_type是特征。由于三种特征都是categorical类型的,需要经过独热编码(One-Hot Encoding)转换成数值型特征。
Clicked? |
Country=USA |
Country=China |
Day=26/11/15 |
Day=1/7/14 |
Day=19/2/15 |
Ad_type=Movie |
Ad_type=Game |
1 |
1 |
0 |
1 |
0 |
0 |
1 |
0 |
0 |
0 |
1 |
0 |
1 |
0 |
0 |
1 |
1 |
0 |
1 |
0 |
0 |
1 |
0 |
1 |
经过one-hot编码之后,特征变得稀疏,上边实例中每个样本有7维的特征,但平均仅有3维为非0值,在电商场景中预测sku是否被点击的过程中,特征往往要比上例中多的多,可见数据稀疏性是工业环境中不可避免的问题。另外一个问题就是特征在经过one-hot编码之后,维度会变得非常大,比如说三级品类有3k个,那么sku的所属三级品类特征经过编码之后就会变成3k维,特征空间就会剧增。
依旧分析上边的例子,特征在经过关联之后,与label之间的相关性就会增加。例如“USA”与“Thanksgiving”、“China”与“Chinese New Year”这样的关联特征,对用户的点击有着正向的影响。换句话说,来自“China”的用户很可能会在“Chinese New Year”有大量的浏览、购买行为,而在“Thanksgiving”却不会有特别的消费行为。这种关联特征与label的正向相关性在实际问题中是普遍存在的,如“化妆品”类商品与“女”性,“球类运动配件”的商品与“男”性,“电影票”的商品与“电影”品类偏好等。因此,引入两个特征的组合是非常有意义的。
综上,FM所解决的问题是
1):特征稀疏
2):特征组合
模型形式
对于特征集合x=(x1,x2,x3,x4,....,xn)和标签y,希望得到x和y的对应关系,最简单的是建立线性回归模型,
但是,一般线性模型无法学习到高阶组合特征,所以会将特征进行高阶组合,这里以二阶为例(理论上,FM可以组合任意高阶,但是由于计算复杂度,实际中常用二阶,后面也主要介绍二阶组合的内容)。模型形式为
其中n代表样本的特征数量,x_i是第i个特征,w_0,w_i,w_ij是模型参数
从公式(2)中可以看出,组合特征参数一共有n(n-1)/2个,任意两个参数之间都是独立的,在数据特别稀疏的情况下,二次项参数的训练是十分困难的,原因为每个wij的训练都需要大量的非零x_i,x_j样本,由于样本稀疏,满足条件的样本很少,就会导致参数w_ij不准确,最终将影响模型的性能。
如何解决二次项参数的训练?可以利用矩阵分解的思路。
在model-based的协同过滤中,一个rating矩阵可以分解为user矩阵和item矩阵,每个user和item都可以采用一个隐向量表示。比如在下图中的例子中,我们把每个user表示成一个二维向量,同时把每个item表示成一个二维向量,两个向量的点积就是矩阵中user对item的打分。
所有的二次项参数 w_ij 可以组成一个对称矩阵W,那么这个矩阵可以分解为W=V^T * V,V的第j列便是第j维特征的隐向量,换句话说就是每个参数w_ij=<v_i,v_j>,这里的v_i和v_j是分别是第i,j个特征的隐向量,这就是FM的核心思想,因此FM的模型方程为(二阶形式)
其中,V_i是第i维特征的隐向量,<*,*>表示两个向量内积,隐向量的长度k(k<<n),包含k个描述特征的因子,这样二次项的参数便从n^2 减少到了nk,远少于多项式模型的参数数量。
另外,参数因子化使得 x_h,x_i的参数和 x_i,x_j 的参数不再是相互独立的,因此我们可以在样本稀疏的情况下相对合理地估计FM的二次项参数。具体来说,x_h,x_i 和 x_i,x_j 的系数分别为 〈v_h,v_i〉 和 〈v_i,v_j〉,它们之间有共同项 vi。也就是说,所有包含“xi的非零组合特征”(存在某个 j≠i,使得 x_i x_j≠0)的样本都可以用来学习隐向量 v_i,这很大程度上避免了数据稀疏性造成的影响。而在多项式模型中,w_hi 和 w_ij 是相互独立的。
显而易见,公式(3)是一个通用的拟合方程,可以采用不同的损失函数用于解决回归、二元分类等问题,比如可以采用MSE(Mean Square Error)损失函数来求解回归问题,也可以采用Hinge/Cross-Entropy损失(铰链损失,互熵损失)来求解分类问题。当然,在进行二元分类时,FM的输出需要经过sigmoid变换,这与Logistic回归是一样的。直观上看,FM的复杂度是 O(kn^2)。但是,通过公式(3)的等式,FM的二次项可以化简,其复杂度可以优化到 O(kn)。由此可见,FM可以在线性时间对新样本作出预测。
从(3)—>(4)推导如下:
解读第(1)步到第(2)步,这里用A表示系数矩阵V的上三角元素,B表示对角线上的交叉项系数。由于系数矩阵V是一个对称阵,所以下三角与上三角相等,有下式成立:
如果用随机梯度下降(Stochastic Gradient Descent)法学习模型参数。那么,模型各个参数的梯度如下:
其中,v_j,f 是隐向量 v_j 的第 f 个元素。由于 ∑nj=1vj,fxj 只与 f 有关,而与 i 无关,在每次迭代过程中,只需计算一次所有 f 的 ∑nj=1vj,fxj,就能够方便地得到所有 v_i,f 的梯度。显然,计算所有 f 的 ∑nj=1vj,fxj 的复杂度是 O(kn);已知 ∑nj=1vj,fxj 时,计算每个参数梯度的复杂度是 O(1);得到梯度后,更新每个参数的复杂度是 O(1);模型参数一共有 nk+n+1 个。因此,FM参数训练的复杂度也是 O(kn)。综上可知,FM可以在线性时间训练和预测,是一种非常高效的模型。
FM总结
FM降低了交叉项参数学习不充分的影响
one-hot编码后的样本数据非常稀疏,组合特征更是如此。为了解决交叉项参数学习不充分、导致模型有偏或不稳定的问题。借鉴矩阵分解的思路:每一维特征用k维的隐向量表示,交叉项的参数w_ij用对应特征隐向量的内积表示,即〈v_i,v_j〉(也可以理解为平滑技术)。这样参数学习由之前学习交叉项参数w_ij的过程,转变为学习n个单特征对应k维隐向量的过程。
很明显,单特征参数(k维隐向量v_i)的学习要比交叉项参数w_ij学习得更充分。示例说明:
假如有10w条训练样本,其中出现女性特征的样本数为3w,出现男性特征的样本数为7w,出现汽车特征的样本数为2000,出现化妆品的样本数为1000。特征共现的样本数如下:
共现交叉特征 |
样本数 |
注 |
<女性,汽车> |
500 |
同时出现<女性,汽车>的样本数 |
<女性,化妆品> |
1000 |
同时出现<女性,化妆品>的样本数 |
<男性,汽车> |
1500 |
同时出现<男性,汽车>的样本数 |
<男性,化妆品> |
0 |
样本中无此特征组合项 |
<女性,汽车>的含义是女性看汽车广告。可以看到,单特征对应的样本数远大于组合特征对应的样本数。训练时,单特征参数相比交叉项特征参数会学习地更充分。
因此,可以说FM降低了因数据稀疏,导致交叉项参数学习不充分的影响
FM提升了模型预估能力
依然看上面的示例,样本中没有<男性,化妆品>交叉特征,即没有男性看化妆品广告的数据。如果用多项式模型来建模,对应的交叉项参数W_男性,化妆品是学不出来的,因为数据中没有对应的共现交叉特征。那么多项式模型就不能对出现的男性看化妆品广告场景给出准确地预估。
FM模型是否能得到交叉项参数W_男性,化妆品呢?答案是肯定的。由于FM模型是把交叉项参数用对应的特征隐向量内积表示,这里表示为W_男性,化妆品=〈v_男性,v_化妆品〉。
用男性特征隐向量v_男性和v_化妆品特征隐向量v化妆品的内积表示交叉项参数 W_男性,化妆品。
由于FM学习的参数就是单特征的隐向量,那么男性看化妆品广告的预估结果可以用〈v_男性,v_化妆品〉得到。这样,即便训练集中没有出现男性看化妆品广告的样本,FM模型仍然可以用来预估,提升了预估能力。
FM提升了参数学习效率
这个显而易见,参数个数由(n^2+n+1)变为(nk+n+1)个,模型训练复杂度也由O(mn^2)变为O(mnk)。m为训练样本数。对于训练样本和特征数而言,都是线性复杂度。
此外,就FM模型本身而言,它是在多项式模型基础上对参数的计算做了调整,因此也有人把FM模型称为多项式的广义线性模型,也是恰如其分的。
从交互项的角度看,FM仅仅是一个可以表示特征之间交互关系的函数表法式,可以推广到更高阶形式,即将多个互异特征分量之间的关联信息考虑进来。例如在广告业务场景中,如果考虑User-Ad-Context三个维度特征之间的关系,在FM模型中对应的degree为3。
总结
FM最大特点和优势:FM模型对稀疏数据有更好的学习能力,通过交互项可以学习特征之间的关联关系,并且保证了学习效率和预估能力
FFM算法
背景
FFM(Field-aware Factorization Machine)最初的概念来自Yu-Chin Juan(阮毓钦,毕业于中国台湾大学,现在美国Criteo工作)与其比赛队员,是他们借鉴了来自Michael Jahrer的论文中的field概念提出了FM的升级版模型。
模型形式
通过引入field的概念,FFM把相同性质的特征,归结于同一个field。还是以FM中的广告分类为例,“Day=26/11/15”、“Day=1/7/14”、“Day=19/2/15”这三个特征都是代表日期的,可以放到同一个field中。同理,三级品类有3k个,那么sku的所属三级品类特征经过编码之后就会变成3k维,那么这3k维可以放到一个field中,简单来说,同一个categorical特征经过One-Hot编码生成的数值特征都可以放到同一个field。
在FFM中,每一维特征x_i,针对其他特征的每一种field f_j,都会学习到一个隐向量V_i,f_ j。因此,隐向量不仅与特征有关,还与filed有关。也就是说,“Day=26/11/15”这个特征与“Country”特征和“Ad_type"特征进行关联的时候使用不同的隐向量,这与“Country”和“Ad_type”的内在差异相符,也是FFM中“field-aware”的由来。
假设样本的 n 个特征属于 f 个field,那么FFM的二次项有 nf个隐向量。而在FM模型中,每一维特征的隐向量只有一个。FM可以看作FFM的特例,是把所有特征都归属到一个field时的FFM模型。根据FFM的field敏感特性,可以导出其模型方程。
其中,f_ j 是第 j 个特征所属的field。如果隐向量的长度为 k,那么FFM的二次参数有 f * kn 个,远多于FM模型的 kn 个。此外,由于隐向量与field相关,FFM二次项并不能化简,其预测复杂度是 O(kn^2)。
下面以一个例子简单说明FFM的特征组合方式。输入记录如下
User |
Movie |
Genre |
Price |
YuChin |
3Idiots |
Comedy, Drama |
$9.99 |
这条记录可以编码成5个特征,其中“Genre=Comedy”和“Genre=Drama”属于同一个field,“Price”是数值型,不用One-Hot编码转换。为了方便说明FFM的样本格式,我们将所有的特征和对应的field映射成整数编号。
Field name |
Field index |
Feature name |
Feature index |
User |
1 |
User=YuChin |
1 |
Movie |
2 |
Movie=3Idiots |
2 |
Genre |
3 |
Genre=Comedy |
3 |
Price |
4 |
Genre=Drama |
4 |
Price |
5 |
那么,FFM的组合特征有10项,如下图所示。
其中,红色是field编号,蓝色是特征编号,绿色是此样本的特征取值。二次项的系数是通过与特征field相关的隐向量点积得到的,二次项共有 n(n−1)/2 个。
应用场景
在DSP的场景中,FFM主要用来预估站内的CTR和CVR,即一个用户对一个商品的潜在点击率和点击后的转化率。
CTR和CVR预估模型都是在线下训练,然后用于线上预测。两个模型采用的特征大同小异,主要有三类:
-用户相关的特征
用户相关的特征包括年龄、性别、职业、兴趣、品类偏好、浏览/购买品类等基本信息,以及用户近期点击量、购买量、消费额等统计信息。
商品相关的特征
商品相关的特征包括所属品类、销量、价格、评分、历史CTR/CVR等信息。
用户-商品匹配特征
用户-商品匹配特征主要有浏览/购买品类匹配、浏览/购买商家匹配、兴趣偏好匹配等几个维度。
为了使用FFM方法,所有的特征必须转换成“field_id:feat_id:value”格式,field_id代表特征所属field的编号,feat_id是特征编号,value是特征的值。数值型的特征比较容易处理,只需分配单独的field编号,如用户评论得分、商品的历史CTR/CVR等。categorical特征需要经过One-Hot编码成数值型,编码产生的所有特征同属于一个field,而特征的值只能是0或1,如用户的性别、年龄段,商品的品类id等。
除此之外,还有第三类特征,如用户浏览/购买品类,有多个品类id且用一个数值衡量用户浏览或购买每个品类商品的数量。这类特征按照categorical特征处理,不同的只是特征的值不是0或1,而是代表用户浏览或购买数量的数值。按前述方法得到field_id之后,再对转换后特征顺序编号,得到feat_id,特征的值也可以按照之前的方法获得。
CTR、CVR预估样本的类别是按不同方式获取的。CTR预估的正样本是站内点击的用户-商品记录,负样本是展现但未点击的记录;CVR预估的正样本是站内支付(发生转化)的用户-商品记录,负样本是点击但未支付的记录。构建出样本数据后,采用FFM训练预估模型,并测试模型的性能。
#(field) |
#(feature) |
AUC |
Logloss |
|
站内CTR |
39 |
2456 |
0.77 |
0.38 |
站内CVR |
67 |
2441 |
0.92 |
0.13 |
由于模型是按天训练的,每天的性能指标可能会有些波动,但变化幅度不是很大。这个表的结果说明,站内CTR/CVR预估模型是非常有效的。
在训练FFM的过程中,有许多小细节值得特别关注。
第一,样本归一化。FFM默认是进行样本数据的归一化,即 pa.norm 为真;若此参数设置为假,很容易造成数据inf溢出,进而引起梯度计算的nan错误。因此,样本层面的数据是推荐进行归一化的。
第二,特征归一化。CTR/CVR模型采用了多种类型的源特征,包括数值型和categorical类型等。但是,categorical类编码后的特征取值只有0或1,较大的数值型特征会造成样本归一化后categorical类生成特征的值非常小,没有区分性。例如,一条用户-商品记录,用户为“男”性,商品的销量是5000个(假设其它特征的值为零),那么归一化后特征“sex=male”(性别为男)的值略小于0.0002,而“volume”(销量)的值近似为1。特征“sex=male”在这个样本中的作用几乎可以忽略不计,这是相当不合理的。因此,将源数值型特征的值归一化到 [0,1] 是非常必要的。
第三,省略零值特征。从FFM模型的表达式(8)可以看出,零值特征对模型完全没有贡献。包含零值特征的一次项和组合项均为零,对于训练模型参数或者目标值预估是没有作用的。因此,可以省去零值特征,提高FFM模型训练和预测的速度,这也是稀疏样本采用FFM的显著优势。
参考资料
http://bourneli.github.io/ml/fm/2017/07/02/fm-remove-combine-features-by-yourself.html
https://tech.meituan.com/deep_understanding_of_ffm_principles_and_practices.html
http://www.52caml.com/head_first_ml/ml-chapter9-factorization-family/
https://cloud.tencent.com/developer/article/1104673?fromSource=waitui
扫一扫 关注微信公众号!号主 专注于搜索和推荐系统,尝试使用算法去更好的服务于用户,包括但不局限于机器学习,深度学习,强化学习,自然语言理解,知识图谱,还不定时分享技术,资料,思考等文章!
【技术服务】,详情点击查看:https://mp.weixin.qq.com/s/PtX9ukKRBmazAWARprGIAg
点击率预估中的FM算法FFM算法相关推荐
- 广告点击率预估中的特征选择
一.互联网广告特征project 博文<互联网广告综述之点击率系统>论述了互联网广告的点击率系统,能够看到,当中的logistic regression模型是比較简单并且有用的,其训练方法 ...
- 【总结】广告点击率预估中的特征选择
互联网广告综述之点击率特征工程 一.互联网广告特征工程 博文<互联网广告综述之点击率系统>论述了互联网广告的点击率系统,可以看到,其中的logistic regression模型是比较简单 ...
- 推荐系统学习笔记-论文研读--点击率预估中特征交互的作用
研究背景 当前点击率预估模型没有完全挖掘特征交互的潜力 特征的表征学习与特征的交互存在冲突 笛卡尔积的方法比当前的点击率预估模型效果都好 算法模型的效率和效果的平衡 阿里巴巴线上业务量级和耗时的考虑 ...
- 推荐系统遇上深度学习(一三二)-[阿里]点击率预估中的自适应参数生成网络
今天给大家分享一篇阿里发表的关于神经网络中网络参数自适应生成的文章,不仅可以做到不同的样本有不同的网络参数,同时通过拆分矩阵等操作大大提升了推理性能,一起来学习一下. 1.背景 当前CTR预估的主要研 ...
- python机器学习案例系列教程——CTR/CVR中的FM、FFM算法
全栈工程师开发手册 (作者:栾鹏) python教程全解 FM问题来源 CTR/CVR预测时,用户的性别.职业.教育水平.品类偏好,商品的品类等,经过One-Hot编码转换后都会导致样本数据的稀疏性. ...
- 大规模推荐引擎和广告点击率预估引擎中的TopK计算
转自:https://chuansongme.com/n/2035198 推荐引擎的研究结果成千上万,绝大部分工作都来自于矩阵分解或者类似,在针对用户和Item分别训练出特征向量之后,根据向量内积计算 ...
- 阿里最新论文解读:考虑时空域影响的点击率预估模型DSTN
作者 | 石晓文 转载自小小挖掘机(ID: wAIsjwj) [导语]:在本文中,阿里的算法人员同时考虑空间域信息和时间域信息,来进行广告的点击率预估. 什么是时空域?我们可以分解为空间域(spati ...
- 精准营销:剖析广告点击率预估系统
引文 点击率预估系统最早是由谷歌实现,并应用在其搜索广告系统.在看到这一大杀器为谷歌带来滚滚财源之后,其他公司也纷纷效仿.直到今日,大大小小的"互联网广告公司",都宣称自己掌握了基 ...
- 程序化广告交易中的点击率预估
程序化广告交易中的点击率预估 指标 广告点击率预估是程序化广告交易框架的非常重要的组件,点击率预估主要有两个层次的指标: 1. 排序指标.排序指标是最基本的指标,它决定了我们有没有能力把最合适的广告找 ...
最新文章
- echart旭日图_150Echarts - 旭日图(Sunburst Label Rotate)
- python多级菜单查询简化版
- mysql导入查询失败_mysql数据库中的查询失败
- 存储卡修复软件测试自学,扩容内存卡用mydisktest失效,教你怎么用USBoot恢复出真实容量...
- VS中的快捷键快速格式化代码,使好看,整齐
- 90%企业都适用,搭建性能监控体系照抄就行
- GAMIT处理GLONASS数据
- 考贵大计算机专业研究生,贵州大学(专业学位)计算机技术考研难吗
- win10计算机管理找不到用户,win10重装系统后管理账户不见了,win10怎么找到管理账户?...
- 聊聊传统行业产品经理与互联网产品经理的区别
- Vimium 是做什么的?不得不服
- CR-Fill: Generative Image Inpainting with Auxiliary Contexutal Reconstruction
- 【大数据】阿里云大数据专业认证考试
- java学习路线小白——架构师
- EntityFramework之领域驱动设计实践(五)
- 如何运用dos命令进入指定目录
- 全球及中国医用管材行业需求调研与竞争趋势研究报告2022版
- 获取大多数在线视频FLV地址
- 使用ESP8266(基于官方SDK)接入阿里云物联网平台
- springboot拿来即用的项目
热门文章
- md语法|LaTex数学公式
- Python数据分析项目讲解:分析世界五百强企业数据
- 转:4种常见的协作陷阱,你中了几个?
- 网络广告常用英语术语
- 数据增强-albumentations与imgaug使用方法
- uniapp中使用canvas 画海报总结
- python中true代表0还是1_python 中的True和1及False和0是可以等价比较及是否是bool类型...
- php qq邮箱stmp配置,PHP使用QQ邮箱发送邮件无需SMTP服务器
- 国二湖南国家二级计算机成绩查询,湖南2018年第二次国家计算机等级考试成绩查询时间...
- Vue实战开发(一)验证码与登录页面