标题 * 表示未完成
论文原文传送门

文章提出了 m e m o r i z a t i o n a n d g e n e r a l i z a t i o n memorization\ and\ generalization memorizationandgeneralization 的概念,‘Wide’ 使用 基于 cross-product feature transformations 的 linear models 来记忆稀疏特征的交互,‘Deep’ 使用 low-dimensional embeddings 将未被认识到的特征交互一般化。主要是使用 ‘Wide’ 来弥补 ‘Deep’ 的不足,即通过将 ‘例外或异常记入小本本上’ 来弥补DNN对于数据稀疏的embeddings处理能力不足的问题。

  1. 研究目的
  • 本文章提出了一种 W i d e & D e e p L e a r n i n g Wide\ \&\ Deep\ Learning Wide&DeepLearning算法, W i d e Wide Wide 表示一个宽广的线性模型(如LR模型), D e e p Deep Deep 表示一个DNN,文章中将这两种子模型结合起来提高了模型的 m e m o r i z a t i o n a n d g e n e r a l i z a t i o n memorization\ and\ generalization memorizationandgeneralization 能力,以此来达到提升推荐服务的质量的目的,此算法已在谷歌商店的实际生产环境中上线,事实证明其显著的提升了APP安装量。
  • 文章指出推荐系统可以被看做一个搜索排序问题(即给予一定的条件输入,系统将返回一个可能感兴趣的产品列表),提升此系统性能的关键点就在于解决 m e m o r i z a t i o n a n d g e n e r a l i z a t i o n memorization\ and\ generalization memorizationandgeneralization 问题。
  • m e m o r i z a t i o n memorization memorization 可以被宽泛的定义为利用 user 历史数据中的各种数据关系来学习时常共同出现的 items or features,即:使用户切实产生过的 ‘痕迹’ 来保证推荐服务质量。
  • g e n e r a l i z a t i o n generalization generalization 一般基于关联信息具有传递性的特点,并以此来找出过去尚未发现的 u s e r − i t e m user-item useritem交互特征,即:挖掘出用户的潜在需求,为用户推荐 ‘自身需要的,但是自身尚未意识到自身需要的’ 。
  • 在文章中指出 g e n e r a l i z a t i o n generalization generalization使用利用了embeddings的深度神经网络实现时,有时会出现over-generalize(过于笼统)的推荐,尤其是 u s e r − i t e m user-item useritem交互矩阵是稀疏和高维的时候。所以文章提出使用基于交叉积特征转换的线性模型来记忆这些 ‘特殊情况’ 来解决上述问题。
  1. 本文模型及方法
  • The Wide Component
    ‘Wide’ 即为一个广义线性模型 y = w T x + b y = w^Tx + b y=wTx+b,y是预测值, x = [ x 1 , x 2 , … , x d ] x = [x_1,x_2,…,x_d] x=[x1,x2,,xd]是一个具有d个特征的向量, w = [ w 1 , w 2 , … , w d ] w =[w_1,w_2,…,w_d] w=[w1,w2,,wd]为模型参数,b为偏差。其中 x x x包含原始的特征以及经过交叉积转换的特征。交叉积定义如下。
    该公式中 c k i c_{ki} cki是一个布尔值,当第 i i i个特征属于第 k k k次变换 ∅ k \varnothing_k k的一部分时,为1,反之为0。
    例如在二分关系中, 一个基于cross-product的转换集“AND(gender=female, language=en)”,只有(“gender=female"和"language=en”)时为1,否则为0。这就捕获了二元特征之间的交互,并将非线性添加到广义线性模型中。

  • The Deep Component
    此 ‘Deep’ 子模型使用基于前反馈的神经网络,由于特征矩阵往往是高维稀疏矩阵所以往往使用 embedding 向量尽可能的解决这一问题,本文章中也使用了这一方法,将 embeddings 传递到隐藏层。隐藏层的表达式如下。其中 l l l 为层数, f f f 为激活函数, W W W为第 l l l层权重。

  • 模型训练以及实现
    文章指出联合训练与集体训练是不同的,集体训练是将各个子模型分开各自训练,之后在预测时才结合起来,所以需要更多的 features and transformations。而联合训练则是同时优化整个模型的所有参数,只需要在 ‘Wide’ 部分使用一些小当量的cross-product feature transformations 即可弥补 ‘Deep’ 部分的缺陷。所以文章中选用了联合训练的方式。最后对 ‘Wide’ 和 ‘Deep’ 的输出进行加权求和作为最后的输出。
    Wide & Deep 模型的联合训练使用 mini-batch 随机优化方式,对于两个子模型同时进行反向传播。并使用了L1正则化【follow - the- regularization -leader (FTRL)算法】作为 ‘Wide’ 优化器,AdaGrad作为 ‘Deep’ 优化器。模型的预测公式如下。Y=1表示用户下载了impression app

    Wide & Deep模型结构图如下。‘Wide’ 由用户已安装的app与用户被推荐过的app的转换交叉积组成。‘Deep’ 由归一化的连续特征 和 经过Embedding处理后的分类特征组成一个联合的大约有1200维的大Embedding,之后经过三层ReLU映射,最后使用逻辑回归函数输出。值得一提的是,由于每次有新的训练集时都需要重新训练模型,这样做的代价很大,所以文章中使用 warm-starting 的方法初步解决了这一问题,即初始化新模型时使用旧模型的Embedding和 ‘Wide’ 线性模型的权重进行初始化(不就是迁移学习嘛)。

  • Data Generation
    使用一段时间内user和app的 impression data 作为训练集。之后建立一个 Vocabularies 它可以将分类特征映射到整形IDs空间上。而对连续特征进行了归一化处理,通过将特征值X映射到其对应的累积分布函数P(X ≤ x),最后将连续实值特征归一化。归一化方式是将累计分布函数切分为 n q n_q nq个分位数,i 表示第 i 个分位数,之后带入到 i − 1 n q − 1 \frac{i-1}{n_q - 1} nq1i1式中计算归一化后的值。

    1. 实验结果
  • 文章从两个方面对模型性能作出了评估:app被推荐后的下载率、推荐服务响应性能(使用多线程提升这一性能)。

    从那个表一中可以发现Wide & Deep模型比单一模型表现要好。

    • END

论文笔记 【Wide Deep Learning for Recommender Systems】相关推荐

  1. Google推荐系统Wide Deep Learning for Recommender Systems论文翻译解读

    Wide & Deep Learning for Recommender Systems 推荐系统中的Wide & Deep Learning 摘要 Generalized linea ...

  2. #论文 《Wide Deep Learning for Recommender System》翻译

    只是为了深化个人理解,翻译了一下梗概.不追求信达雅,只翻译大意. 概要: 使用非线性特征的广义线性模型(GLM)广泛应用在大规模,输入变量稀疏的回归和分类问题中.其中,通过关于交叉特征的wide模型, ...

  3. Wide Deep Learning for Recommender Systems【论文记录】

    特点在于联合学习,将线性模型和神经网络联合在一起共同学习 线性模型作用于所给的特征,直接记忆专家给的有效特征 神经网络作用于所有特征,挖掘新特征,进行泛化 也就是结合 人为发现的规则和机器探索的联系 ...

  4. 5.Wide Deep Learning for Recommender Systems论文详细解读和代码实现

    一.总述 Wide & Deep作为一篇推荐领域的经典论文,不仅具有很高的研读价值,而且在推荐和广告领域得到了极大的推广和应用.该论文的思想归结起来就是两个词:Wide & Deep. ...

  5. 【翻译】Wide Deep Learning for Recommender Systems--推荐系统的广泛深度学习

    摘要 通过将稀疏数据的非线性转化特征应用在广义线性模型中被广泛应用于大规模的回归和分类问题.通过广泛的使用交叉特征转化,使得特征交互的记忆性是有效的,并且具有可解释性,而然不得不做许多的特征工作.相对 ...

  6. 【RS-Attack】Data Poisoning Attacks to Deep Learning Based Recommender Systems NDSS‘21

    Data Poisoning Attacks to Deep Learning Based Recommender Systems NDSS'21 首个在基于深度学习的推荐系统中进行投毒攻击的研究.文 ...

  7. 推荐系统论文笔记(1):Hybrid Recommender Systems:Survey and Experiments

    一.基本信息 论文题目: <Hybrid Recommender Systems:Survey and Experiments> 论文发表时间: 2002, 论文作者及单位:Robin  ...

  8. 图像隐写术分析论文笔记:Deep learning for steganalysis via convolutional neural networks

    好久没有写论文笔记了,这里开始一个新任务,即图像的steganalysis任务的深度网络模型.现在是论文阅读阶段,会陆续分享一些相关论文,以及基础知识,以及传统方法的思路,以资借鉴. 这一篇是Medi ...

  9. 论文笔记:Deep Learning [nature review by Lecun, Bengio, Hinton]

    如今,机器学习的技术在我们的生活中扮演着越来越重要的角色.从搜索引擎到推荐系统,从图像识别到语音识别.而这些应用都开始逐渐使用一类叫做深度学习(Deep Learning)的技术. 传统机器学习算法的 ...

最新文章

  1. 代码注入之远程线程篇
  2. 【设计原则和建议】 构造和析构对象
  3. QT-QT简介,QT环境与工具链(day1)
  4. WINCE6.0深入理解TOC
  5. asp.net控件开发基础十四
  6. SQOOP 基础及安装
  7. vue3 Vite 2.0 Vue-Router 4.0 TypeScript elementPlus admin 须弥戒后台案例小结
  8. telephone 为空 唯一索引_数据库基础及应用试题题库
  9. 项目_电商_淘淘商城_0000
  10. 空洞(扩张dilated)卷积
  11. 【论文阅读】Self-Knowledge Distillation with Progressive Refinement of Targets
  12. python3安装完,出现 No module named '_ssl',解决方案
  13. 【日记本砸】21.04.16-31 他们身旁也有窗,却没有人向外眺望。
  14. 《MLB棒球创造营》:走近棒球运动·德州游骑兵队
  15. Java并发编程一线程池简介
  16. 【成长访谈】周新林:靠持续的努力,总能换来自己期望的生活
  17. 浅析加密算法五【DES密码】
  18. win10微软输入法不显示选字框?
  19. 被指将赴美上市的雪球:累计融资近3亿美元,股东股权已全部出质
  20. Python生成带圆角图片的二维码

热门文章

  1. 统计-样本及抽样分布
  2. 滑动验证码识别----解决天眼查自动登录问题
  3. 会考计算机基础操作知识点总结,高二会考计算机基础知识汇总.doc
  4. Consul:10:Consul KV的增删改查
  5. 计算机视觉--Tensorflow对Mnist手写体数据集做手写体识别
  6. SCA(软件成分分析)中的知识图谱技术
  7. 2022年云南最新八大员之(安全员)模拟试题题库及答案
  8. 安装微信web开发者工具
  9. 无法删除 数据错误(循环冗余检查)解决办法
  10. 超级AI大脑 / springboot-openai