目录

  • 先来个定义
  • 对比学习
  • 论文解读
    • 数据增强
      • Random Feature Masking(RFM)
      • Correlated Feature Masking (CFM)
      • 为什么采用CFM
    • 联合训练

这篇博客主要分享一下Google的《Self-supervised Learning for Large-scale Item Recommendations》如何采用对比学习解决推荐长尾问题 。论文地址:https://arxiv.org/abs/2007.12865

先来个定义

  • 长尾效应:20%的热门item占据了80%的曝光量,剩下80%的小众、长尾item得不到多少曝光机会,自然在训练样本中也是少数、弱势群体。
    一般的推荐模型是迎合多数人群的,长尾的item曝光机会少,就导致小众兴趣难以满足,这对一个成熟的生态系统来说,不利于用户增长。
  • 场景举例:有些原来不受到重视的销量小但种类多的商品,由于总量巨大,累积起来的总收益超过了主流商品。这种情况下,算法挖掘小众兴趣的能力显得尤为重要。

对比学习

  • 对于样本不均衡的问题,一般首要想到的办法是做数据增强(data agument), 对比学习的核心就是采用数据增强构建正负变体,倾向于无监督学习,学习一个比较好的特征提取器。推荐系统中引入对比学习用于推荐debias,解决“少数人群+冷门物料,标注样本少”的问题,从逻辑上看是可行的。
  • 《Self-supervised Learning for Large-scale Item Recommendations》, 就是利用对比学习辅助训练双塔召回模型,目的是让item tower对冷门、小众item也能够学习出高质量的embedding,从而改善内容生态。从公式上看,可以理解为将对比学习的loss作为主任务loss的一个正则项。

论文解读

小Q认为论文中有两个核心的技术点,一个在对比学习部分,另一个在联合训练部分。

数据增强

在对比学习数据增强部分,论文提出对于item特征的数据增强分为两个步骤:Masking和Dropout,其中masking是采用默认embedding随机掩盖一些输入特征,dropout就是简单的随机丢失一些输入特征。

Random Feature Masking(RFM)

文中定义了一个baseline Random Feature Masking(RFM) ,采用互补masking模式,即将特征集拆分为两个互斥特征集,构建为两个扩展变体。具体来说,将特征集随机分成两个不相交的子集。大致结构如下:

某个item xi, 随机抽取一半的特征h,得到变体yi,再经过Encoder H,得到向量zi;保留剩下的另一半特征g,得到变体yi’,再经过Encoder G,得到向量zi’。
来自同一个item xi 的两种变体对应的embedding zi和zi’,两者之间的相似度应该越大越好。
按照同样的作法,另一个item xj,用一半特征h得到变体,再经过Encoder H得到yj;用另一半特征g,得到变体,再经过Encoder G得到yj’。
来自不同item的变体对应的embedding,两者之间的相似度应该越低越好。

Correlated Feature Masking (CFM)

论文基于信息论中的互信息,提出了Correlated Feature Masking (CFM)方法,这个方法每个batch进行训练时,先会随机选取一个特征 f_seed , 然后选择topn(n 为item的特征总数的一半) 构建一个特征集做为变体。

为什么采用CFM

此处楼主小Q主要想讨论一下的是:为什么要采用互补masking模式构建对比学习的变体呢,为什么采用互信息高的特征集会比随机masking效果好呢。
在论文中有这么一段描述:

For instance, the SSL contrastive learning task may exploit the shortcut of highly correlated features
between the two augmented examples, making the SSL task too easy.

从字面意思看,是说随机masking 可能有一些高度相关的feature 分到两个变体中, CL train的就太easy了,所以要加大一下难度的样子。
hmmm,查了一些资料,没找到更详细的解析了,大致意思是由于物品的不同特征可能存在着一些关联性,随机masking可能会使得模型在对比学习的过程中,通过关联度较高的特征来“猜”出被mask的特征,使得任务训练变得简单。
这里小Q尝试举个例子,来强行解释一下吧,假设:item是个商品,它有品类,品牌,产品系列,价格 等特征,假设“品牌“ 被拆分到变体h中,”产品系列“被拆分到变体g中,看上去两个变体都是不同的,但是两个特征包含的隐信息其实没太大区别,最终两个变体的embedding太容易相似,就不到训练模型的目的。至于为什么要采用互补masking模式,大致也是为了保证变体的差异性。
好,小Q只能忽悠到这个程度了,大家有别的想法欢迎在评论区留言。

联合训练

做完对比学习,下一个步骤就是联合训练了 ,先上个论文中的模型图:

从上图可以看出,整个item tower是被user-item双塔召回的主任务、对比学习辅助任务中的encoder H和G,这三者所共享的。
论文的第二个重点来了,“We sample items uniformly from the corpus for Lself " ,论文中明确表示参与对比学习的样本,和参与主任务的样本,来自不同的样本空间。
主任务,需要拟合用户与item之间的真实互动,还是以已经曝光过的user/item为主。对比学习部分,是为了消除推荐长尾问题,主要是要关注曝光率低的item。

参考资料:
https://zhuanlan.zhihu.com/p/435903339
https://zhuanlan.zhihu.com/p/141141365?ivk_sa=1024320u
https://blog.csdn.net/m0_37924639/article/details/121078066

【Google Paper】对比学习用于解决推荐系统长尾问题相关推荐

  1. CIKM 2021 | Google出品:将对比学习用于解决推荐系统长尾问题

    ©作者 | Sybil Wu 单位 | 明略科技集团 研究方向 | NLP.推荐算法 本文主要分享一下 Google 发表于 CIKM 2021 的文章如何采用对比学习解决推荐长尾问题. 论文标题: ...

  2. Google提出用对比学习解决推荐系统长尾问题

    关注 ▲对白▲ 和百万AI爱好者,一起向上生长 这是对白的第 87 期分享 作者 l 知乎@吴家丫头1990 出品 l 对白的算法屋 大家好,我是对白. 本文主要分享一下Google今年提出的< ...

  3. 【实践】对比学习在快手推荐系统中的的应用探索

    省时查报告-专业.及时.全面的行研报告库 省时查方案-专业.及时.全面的营销策划方案库 知识图谱在美团推荐场景中的应用实践 搜索场景下的智能实体推荐 机器学习在B站推荐系统中的应用实践 小红书推荐系统 ...

  4. 对比学习用于推荐系统问题(SSL,S^3-Rec,SGL,DHCN,SEMI,MMCLR)

    本篇博文继续整理推荐系统系列,更多文章可以参考博主的以往系列论文:推荐系统专栏. 自监督学习在CV和NLP已经用的很多了,那很自然也会被迅速引进并占坑到推荐系统领域咯.而发掘推荐数据上的自监督信号,其 ...

  5. 购物篮推荐场景太复杂?没有商品相关性标签?看作者运用对比学习统统解决...

    ©PaperWeekly 原创 · 作者 | Yuqi Qin 学校 | 北京邮电大学 研究方向 | 推荐系统 本文关注的是对购物篮去噪.目的是:从历史购物篮序列中挑选出真正可信赖的相关商品,来对每个 ...

  6. NIPS20 - 将对比学习用于监督学习任务《Supervised Contrastive Learning》

    文章目录 原文地址 论文阅读方法 初识 相知 回顾 代码 原文地址 原文 论文阅读方法 三遍论文法 初识 对比学习这两年在自监督学习.无监督学习任务中非常火,取得了非常优秀的性能.这个工作就是想办法将 ...

  7. Ernie-SimCSE对比学习在内容反作弊上应用

    作者 | ANTI 导读 AI技术在不同行业和业务被广泛的应用,本文介绍了反作弊团队在与spammer对抗愈演愈烈的趋势下,不断探索前沿技术,将百度NLP预训练模型结合对比学习用于解决spam内容中知 ...

  8. 对比学习视角重新审视推荐系统

    目录 1 什么是对比学习 1.1 对比学习的渊源和谱系 1.2 什么是对比学习系统 1.3 对比学习的典型例子 SimCLR给出的解决办法 1.4 什么是不好的对比学习系统 1.5 什么是好的对比学习 ...

  9. 推荐系统遇到曝光偏差怎么办?用对比学习!

    推荐系统中常常需要在亿级别的候选集中找到上百个相关的item,俗称DCG问题(Deep candidate generation).通常处理这类问题采用的类似语言建模的方法.然而显存的推荐系统都存在着 ...

  10. Parametric Contrastive Learning:长尾问题中的对比学习

    一.监督学习中的损失函数公式 在监督学习中,上面公式是我们最常见的形式,其中,q为query representation,也就是特征,w_y是fc层的权重,相乘得到logits. 二.长尾中重加权的 ...

最新文章

  1. pads最新版本是多少_电路EDA软件究竟有多少?
  2. 基于jsp的教师科研工作量_基于jsp+mysql的JSP教师科研信息管理系统
  3. linux下手动删除数据库实例
  4. 六年级下册百分数计算题_小学六年级数学期末考,题量较大,出题全面、灵活...
  5. Objective-C 日记③ 字符串
  6. 数据结构与算法python—10.二叉树题目leetcode总结
  7. Markdown 数学公式语法
  8. “华为电气—艾默生”系——成就A股最多上市公司的创业群体
  9. quest2 APK破解游戏包安装器 如何安装方法
  10. Learning ImageMagick 1: Lomo效果
  11. react devtools插件报错处理
  12. 诚之和:指挥着10万多台僵尸机器人网络的黑客被乌克兰警方抓获
  13. 使用anysdk打包android渠道
  14. 项目中常用的Util方法
  15. arduino tft 方向_arduino 控制TFT液晶显示屏,在屏幕上画了四个按键,如何检测是否被按下和释放呢?...
  16. 营收倍数级增长,利润却止步不前!光庭信息只有一只脚踏进了智能电动车风口?...
  17. 为什么是百度先造出了“知识型网红”
  18. Mysql我国省市区字典数据
  19. 批量打印html文档,批量打印网页
  20. c++ opengl 三维图形中显示文字_3D图形 和 OpenGL 简介

热门文章

  1. Unity手机移动设备重力感应
  2. Dubbo-Adaptive实现解析
  3. 基于JAVA自行车在线租赁管理系统2021计算机毕业设计源码+系统+lw文档+部署
  4. 升级了谷歌浏览器最新版不习惯,如何降级版本
  5. java如何重命名class_java – 如何重命名XStream列表元素?
  6. 天津大学仁爱学院计算机科学与技术学费,天津大学仁爱学院计算机科学与技术专业2016年在山西理科高考录取最低分数线...
  7. 史上最全的自动驾驶研究报告(下)
  8. 【笔记】【数字逻辑】可能是最详细的二进制、八进制、十进制、十六进制进制转换笔记
  9. Simon Phipps是开源计划总裁
  10. APP推广重点渠道解析及我这些年踩过的坑