文章目录

  • 一、前言
  • 二、逻辑回归时代
    • 1、LR
    • 2、GBDT+LR
  • 三、深度学习时代
    • 1、FM
    • 2、FFM
    • 3、FNN
    • 4、PNN
    • 5、Deep Crossing
    • 6、Wide&Deep
    • 7、Deep&Cross
    • 8、DeepFM
    • 9、AFM
    • 10、DIN
    • 11、DIEN
    • 12、ESMM
    • 13、总结
  • 四、强化学习与CTR

一、前言

本文仅简单记叙推荐系统中CTR技术的一些历史演变,或许能够在抓耳挠腮想idea的时候从历史进程中获得一些灵感,对于一些具体的技术细节并不详细展开。

在讲述之前,先了解一下CTR任务的特点:
大量离散特征
大量高维度稀疏特征
特征工程(特征组合)对于效果非常重要

二、逻辑回归时代

1、LR

这个阶段的CTR预估问题以LR等传统线性模型为主。LR是广义线性模型,与传统线性模型相比,LR使用了Logit变换将函数值映射到0~1区间,映射后的函数值就是CTR的预估值。

LR的优势在于处理离散化特征,而且模型十分简单,很容易实现分布式计算。关于LR的变种也有许多,比如Google的FTRL,其实这些变种都可以看成:LR+正则化+特定优化方法。

LR的缺点也很明显,特征与特征之间在模型中是独立的,对于一些存在交叉可能性的特征(比如: 衣服类型与性别,这两个特征交叉很有意义),需要进行大量的人工特征工程进行交叉。虽然模型简单了,但是人工的工作却繁重了很多。而且LR需要将特征进行离散化,归一化,在离散化过程中也可能出现边界问题。这里便为GBDT+LR的方案进行了铺垫。

2、GBDT+LR

GBDT(Gradient Boost Decision Tree)是一种常用的非线性模型,它基于集成学习中的boosting思想,每次迭代都在减少残差的梯度方向新建立一颗决策树,迭代多少次就会生成多少颗决策树。
GBDT的思想使其具有天然优势可以发现多种有区分性的特征以及特征组合,决策树的路径可以直接作为LR输入特征使用,省去了人工寻找特征、特征组合的步骤。

为什么会这么有效呢?
因为GBDT是在函数空间对残差进行连续的逼近,精度很高,但是容易过拟合;
在裁剪过后,利用叶子节点编码,有效的把连续特征离散化,因此适合LR。

GBDT与LR的融合方式,Facebook的paper有个例子如下图所示,图中Tree1、Tree2为通过GBDT模型学出来的两颗树,x为一条输入样本,遍历两棵树后,x样本分别落到两颗树的叶子节点上,每个叶子节点对应LR一维特征,那么通过遍历树,就得到了该样本对应的所有LR特征。由于树的每条路径,是通过最小化均方差等方法最终分割出来的有区分性路径,根据该路径得到的特征、特征组合都相对有区分性,效果理论上不会亚于人工经验的处理方式。

GBDT的缺点也很明显:
GBDT善于处理连续值特征,但是推荐系统的绝大多数场景中,出现的都是大规模离散化特征,如果我们需要使用GBDT的话,则需要将很多特征统计成连续值特征(或者embedding),这里可能需要耗费比较多的时间。同时,因为GBDT模型特点,它具有很强的记忆行为,不利于挖掘长尾特征,而且GBDT虽然具备一定的组合特征的能力,但是组合的能力十分有限,远不能与dnn相比。

三、深度学习时代

这是目前大家科研的主要重心区域,附一张经典的图片吧(忘了来自哪里了)

从图中不难看出,大概分为两条主线,一条是红色的基于FM模型进行演变,另一条是黑色的基于Embedding+MLP的框架进行扩展

比较一下FM和 Embedding+MLP:
FM可以学习特征组合,但是不够深入高阶特征;
MLP可以学习高阶特征,但是缺乏低阶特征。

1、FM

从矩阵分解的角度来说:

丛神经网络的角度:

2、FFM

FFM(Field-aware Factorization Machine)其实就是FM的进阶版。
FFM将FM中的隐向量v又进一步细化(引入了field的概念,即将特征所在的不同的field这个信息也考虑进去),其公式如下:

3、FNN

FNN使用FM的隐层向量作为user和item的Embedding,从而避免了完全从随机状态训练Embedding。由于id类特征大量采用one-hot的编码方式,导致其维度极大,向量极稀疏,所以Embedding层与输入层的连接极多,梯度下降的效率很低,这大大增加了模型的训练时间和Embedding的不稳定性,使用pre train的方法完成Embedding层的训练,无疑是降低深度学习模型复杂度和训练不稳定性的有效工程经验。

简单总结就是:
在Embedding+MLP的基础上,把初始的特征替换为FM预训练的结果,且每一组的大小保持一致。

4、PNN


PNN的全称是Product-based Neural Network,PNN的关键在于在embedding层和全连接层之间加入了Product layer
传统的DNN是直接通过多层全连接层完成特征的交叉和组合的,但这样的方式缺乏一定的“针对性”。
首先全连接层并没有针对不同特征域之间进行交叉;其次,全连接层的操作也并不是直接针对特征交叉设计的。
但在实际问题中,特征交叉的重要性不言而喻,比如年龄与性别的交叉是非常重要的分组特征,包含了大量高价值的信息,我们急需深度学习网络能够有针对性的结构能够表征这些信息。因此PNN通过加入Product layer完成了针对性的特征交叉,其product操作在不同特征域之间进行特征组合。并定义了inner product,outer product等多种product的操作捕捉不同的交叉信息,增强模型表征不同数据模式的能力 。

5、Deep Crossing


微软于2016年提出的Deep Crossing可以说是深度学习CTR模型的最典型和基础性的模型。如上图的模型结构图所示,它涵盖了深度CTR模型最典型的要素,即通过加入embedding层将稀疏特征转化为低维稠密特征,用stacking layer,或者叫做concat layer将分段的特征向量连接起来,再通过多层神经网络完成特征的组合、转换,最终用scoring layer完成CTR的计算。

跟经典DNN有所不同的是,Deep crossing采用的multilayer perceptron是由残差网络组成的。可以理解为Embedding+MLP结构中的MLP部分增加跳跃连接成残差网络。

6、Wide&Deep


把单输入层的Wide部分和经过多层感知机的Deep部分连接起来,一起输入最终的输出层。
其中Wide部分的主要作用是让模型具有记忆性(Memorization),单层的Wide部分善于处理大量稀疏的id类特征,便于让模型直接“记住”用户的大量历史信息;Deep部分的主要作用是让模型具有“泛化性”(Generalization),利用DNN表达能力强的特点,挖掘藏在特征后面的数据模式。最终利用LR输出层将Wide部分和Deep部分组合起来,形成统一的模型。

7、Deep&Cross


Google 2017年发表的Deep&Cross Network(DCN)同样是对Wide&Deep的进一步改进,主要的思路使用Cross网络替代了原来的Wide部分。其中设计Cross网络的基本动机是为了增加特征之间的交互力度,使用多层cross layer对输入向量进行特征交叉。单层cross layer的基本操作是将cross layer的输入向量xl与原始的输入向量x0进行交叉,并加入bias向量和原始xl输入向量。DCN本质上还是对Wide&Deep Wide部分表达能力不足的问题进行改进,与DeepFM的思路非常类似。

8、DeepFM


在Wide&Deep之后,诸多模型延续了双网络组合的结构,DeepFM就是其中之一。DeepFM对Wide&Deep的改进之处在于,它用FM替换掉了原来的Wide部分,加强了浅层网络部分特征组合的能力。事实上,由于FM本身就是由一阶部分和二阶部分组成的,DeepFM相当于同时组合了原Wide部分+二阶特征交叉部分+Deep部分三种结构,无疑进一步增强了模型的表达能力。

9、AFM


AFM的全称是Attentional Factorization Machines,通过前面的介绍我们很清楚的知道,FM其实就是经典的Wide&Deep结构,其中Wide部分是FM的一阶部分,Deep部分是FM的二阶部分,而AFM顾名思义,就是引入Attention机制的FM,具体到模型结构上,AFM其实是对FM的二阶部分的每个交叉特征赋予了权重,这个权重控制了交叉特征对最后结果的影响,也就非常类似于NLP领域的注意力机制(Attention Mechanism)。为了训练Attention权重,AFM加入了Attention Net,利用Attention Net训练好Attention权重后,再反向作用于FM二阶交叉特征之上,使FM获得根据样本特点调整特征权重的能力。

10、DIN


AFM在FM中加入了Attention机制,2018年,阿里巴巴正式提出了融合了Attention机制的深度学习模型——Deep Interest Network。与AFM将Attention与FM结合不同的是,DIN将Attention机制作用于深度神经网络,在模型的embedding layer和concatenate layer之间加入了attention unit,使模型能够根据候选商品的不同,调整不同特征的权重。

11、DIEN


DIEN的全称为Deep Interest Evolution Network,它不仅是对DIN的进一步“进化”,更重要的是DIEN通过引入序列模型 AUGRU模拟了用户兴趣进化的过程。具体来讲模型的主要特点是在Embedding layer和Concatenate layer之间加入了生成兴趣的Interest Extractor Layer和模拟兴趣演化的Interest Evolving layer。其中Interest Extractor Layer使用了DIN的结构抽取了每一个时间片内用户的兴趣,Interest Evolving layer则利用序列模型AUGRU的结构将不同时间的用户兴趣串联起来,形成兴趣进化的链条。最终再把当前时刻的“兴趣向量”输入上层的多层全连接网络,与其他特征一起进行最终的CTR预估。

12、ESMM

CTR和CVR一块进行训练

13、总结

(图片来源:https://mp.weixin.qq.com/s)

在我们熟悉这些已有模型的时候,深度学习CTR模型的发展从没有停下它的脚步。从阿里的多模态、多目标的深度学习模型,到YouTube基于RNN等序列模型的推荐系统,再到Airbnb使用Embedding技术构建的搜索推荐模型,深度学习的应用不仅越来越广泛,而且得到了越来越快的进化。

四、强化学习与CTR

深度学习处理的问题大多是静态的,而强化学习处理动态问题其实更符合我们的现实生活。
不过目前该领域的技术还不太成熟,就不列举了,不过有很多文章值得一看(后续我会将其链接附在这里)

参考:
https://blog.csdn.net/lilyth_lilyth/article/details/48032119
https://mp.weixin.qq.com/s?__biz=MzU3Njc2ODczNw==&mid=2247483728&idx=1&sn=d2293e1a43094d6b8ee3a58d0f4cd904&chksm=fd0f9edeca7817c8afff58c2b3b0de318751c950e93912249e7010ccfcf93cc3a64e5235b390&mpshare=1&scene=1&srcid=1014ZBXFjEleSu2k9gHjUPjT&sharer_sharetime=1571046495076&sharer_shareid=10b6ac244fdeaab813ebbb62309bb50f&pass_ticket=y7o6%2FerLINvgym9x7FQU7hLsx2P8X4MDQHJvE0NZBSP4hWZ9rB0sNVHF%2FFdD%2B5Oe#rd
https://blog.csdn.net/lilyth_lilyth/article/details/48032119
https://blog.csdn.net/lovejay7/article/details/81878537
https://blog.csdn.net/muyimo/article/details/82834604
https://zhuanlan.zhihu.com/p/32689178
https://www.cnblogs.com/ljygoodgoodstudydaydayup/p/10711225.html

推荐系统CTR技术的演变历史相关推荐

  1. 软件技术架构演变历史

    1.传统架构 传统架构 – 软件架构 – 图一                           传统架构 – 硬件架构 – 图二(仅供参考) 传统架构 – 企业组织架构 – 图三(仅供参考) 为什 ...

  2. 推荐系统CTR预估学习路线:引入注意力机制

    推荐系统CTR预估学习路线:从LR到FM/FFM探索二阶特征的高效实现 推荐系统CTR预估学习路线:利用树模型自动化特征工程 推荐系统CTR预估学习路线:深度模型 推荐系统CTR预估学习路线:引入注意 ...

  3. 推荐系统CTR预估学习路线:深度模型

    推荐系统CTR预估学习路线:从LR到FM/FFM探索二阶特征的高效实现 推荐系统CTR预估学习路线:利用树模型自动化特征工程 推荐系统CTR预估学习路线:深度模型 推荐系统CTR预估学习路线:引入注意 ...

  4. 【推荐】推荐系统 Embedding 技术实践总结

    <推荐系统 Embedding 技术实践总结> 文章作者:minwxwang 腾讯 应用研究员 内容来源:腾讯技术工程 https://mp.weixin.qq.com/s/7DXVrJU ...

  5. 从事编程那些年经历的跨平台开发工具框架演变历史

    前言:不知道是幸运还是不幸,从职业生涯早期开始就常常在做各种跨平台开发,从早期的Cordova到现在的ReactNative,从SmartTV到Android.iOS.MacOS以及Windows(还 ...

  6. 以58帮帮为例看58同城典型技术架构演变

    58同城作为中国最大的生活服务平台,涵盖了房产.招聘.二手.二手车.黄页等业务,在每一个业务类别里都能看到方便用户交流沟通的58帮帮.本文选取了58帮帮作为58同城典型技术架构的代表,详细讲述了58帮 ...

  7. 物联网技术的发展历史及关键技术

    文章目录 1 物联网技术的发展历史及基本概念 1.1 物联网技术的发展历史 1.2 物联网技术的基本概念 2 物联网的核心技术 2.1 传感器技术 2.2 组网技术 2.3 嵌入式技术 2.4 云计算 ...

  8. 【Git、GitHub、GitLab】四 Git文件重命名的简单方法以及使用git log查看版本演变历史

    上一篇文章学会了使用GIT四次提交建立一个有模有样的仓库.点击链接查看:[Git.GitHub.GitLab]三 Git基本命令之创建仓库并向仓库中添加文件. 本片文章记录git的文件重命名的简单方法 ...

  9. 沐阳Git笔记04查看版本演变历史

    04git log 查看版本演变历史 一行展示 git log --oneline 显示最近4次的提交 git log -n4 显示最近几次和一行 git log --oneline -n2 切换到一 ...

最新文章

  1. 说说牛顿迭代 -- 方法篇
  2. Oracle-Oracle SQL Report (awrsqrpt.sql/awrsqrpi.sql)生成指定SQL的统计报表
  3. uva 10391 Compound Words
  4. caffe data层_Caffe实现多标签输入,添加数据层(data layer)
  5. fanuc roboguide_FANUC机器人虚拟仿真教程:Roboguide弧焊仿真工作站工装添加
  6. session过期后登陆页面跳出iframe页面问题
  7. JavaScript---函数
  8. 商务人士,你抛弃邮箱了吗?
  9. 51nod 博弈论水题
  10. 淘宝客推广赚钱全攻略
  11. 常用软件问题四则希望对大家有帮助
  12. 微信获取openid出现40163
  13. 启发式算法(heuristic algorithm)中的启发式(heuristic)到底是什么意思?
  14. RK3588 Android12开机log分析
  15. html pdf支持css%写法吗,flying-saucer-pdf终于完美解决了(中文问题,换行问题,分页,页眉页脚,水印),html+css控制pdf样式...
  16. Blender3.5 面的操作(一)
  17. local function definitions are illegal
  18. 一个靠谱的成都java培训机构应该具备哪些特点?
  19. 水务新、老营收系统大PK
  20. Eclipse知识点精粹

热门文章

  1. 去掉Holo主题下Dialog的蓝色线
  2. QT5串口编程——编写简单的上位机
  3. 20160202.CCPP体系详解(0012天)
  4. 微信UI在线聊天源码 聊天系统PHP采用 PHP 编写的聊天软件,简直就是一个完整的迷你版微信
  5. wordpress二次元主题
  6. 20194616 第一次作业
  7. 【Web技术】1091- 跨浏览器窗口 ,7种方式,你还知道几种呢?
  8. 论Python中注释的重要性
  9. c语言求幸运数字程序,算法题挑选幸运数字,该如何处理
  10. PT与PX,em(%)区别