YoutubeDNN

内容

YoutubeDNN是Youtube用于做视频推荐的落地模型,可谓推荐系统中的经典,其大体思路为召回阶段使用多个简单模型筛除大量相关度较低的样本,排序阶段使用较为复杂的模型获取精准的推荐结果。
召回部分: 主要的输入是用户的点击历史数据,输出是与该用户相关的一个候选视频集合;
精排部分: 主要方法是特征工程, 模型设计和训练方法;
线下评估:采用一些常用的评估指标,通过A/B实验观察用户真实行为;
 其中,召回模型将百万级的数据筛除到百,排序模型从数百个数据中获取数十个推荐结果。排序模型的输入特征中,引入了更多描述用户、video以及二者关系的特征。

  • 如何实现预测next watch的多分类任务,使用负采样把一个多分类变为多个二分类。

  • 在serving时为什么不用训练的召回模型去预测,而是用最近邻搜索,因为serving时使用召回模型对百万级的数据逐一预测太过耗时,因此通过训练得到user和video的embedding后,只需通过相似度取TopK即可。

  • 对训练集预处理时,不采用原始用户日志而是对每个用户取等量样本减少高活跃用户对模型的过度影响。

  • 优化目标为什么不用经典的CTR、播放率,而是用曝光预期播放时长。从模型角度看,观看时长更能反映用户的真实兴趣;从商业角度看,观看时长越长,获得的广告收益越多;且增加用户的观看时长更符合一个视频网站的长期利益和用户粘性。

  • 在做video embedding时,直接把大量长尾video用零向量代替,节省serving时的内存资源。

数据类型

输入层是用户观看视频序列的embedding mean pooling、搜索词的embedding mean pooling、地理位置embedding、用户特征;
输入层给到三层激活函数位ReLU的全连接层,然后得到用户向量;
最后,经过softmax层,得到每个视频的观看概率。
import torch
import torch.nn.functional as F
from torch_rechub.basic.layers import MLP, EmbeddingLayer
from tqdm import tqdmclass YoutubeDNN(torch.nn.Module):def __init__(self, user_features, item_features, neg_item_feature, user_params, temperature=1.0):super().__init__()self.user_features = user_featuresself.item_features = item_featuresself.neg_item_feature = neg_item_featureself.temperature = temperatureself.user_dims = sum([fea.embed_dim for fea in user_features])self.embedding = EmbeddingLayer(user_features + item_features)self.user_mlp = MLP(self.user_dims, output_layer=False, **user_params)self.mode = Nonedef forward(self, x):user_embedding = self.user_tower(x)item_embedding = self.item_tower(x)if self.mode == "user":return user_embeddingif self.mode == "item":return item_embedding# 计算相似度y = torch.mul(user_embedding, item_embedding).sum(dim=2)y = y / self.temperaturereturn ydef user_tower(self, x):# 用于inference_embedding阶段if self.mode == "item":return Noneinput_user = self.embedding(x, self.user_features, squeeze_dim=True)user_embedding = self.user_mlp(input_user).unsqueeze(1)user_embedding = F.normalize(user_embedding, p=2, dim=2)if self.mode == "user":return user_embedding.squeeze(1)return user_embeddingdef item_tower(self, x):if self.mode == "user":return Nonepos_embedding = self.embedding(x, self.item_features, squeeze_dim=False)pos_embedding = F.normalize(pos_embedding, p=2, dim=2)if self.mode == "item":return pos_embedding.squeeze(1)neg_embeddings = self.embedding(x, self.neg_item_feature, squeeze_dim=False).squeeze(1)neg_embeddings = F.normalize(neg_embeddings, p=2, dim=2)return torch.cat((pos_embedding, neg_embeddings), dim=1)

DSSM

原理

利用深度神经网络将文本表示为低维度的向量,应用于文本相似度匹配场景下的一个算法。

可以用于相似度计算

特点L相似性计算的场景

先后实现原理

使用深度学习网络将query和doc映射到相同维度的语义空间中,即query侧特征的embedding和doc侧特征的embedding,从而得到语句的低维语义向量表达sentence embedding,用于预测两句话的语义相似度。


模型结构:=分别经过各自的DNN得到embedding,再计算两者之间的相似度,类似孪生网络
特点:

  • user和item两侧最终得到的embedding维度需要保持一致,特征向量大小统一
  • 对物料库中所有item计算相似度时,负采样进行近似计算, 在海量的候选数据进行召回的场景下,速度很快
    
  • 缺点:双塔结构无法考虑两侧特征之间的交互信息,在一定程度上牺牲掉模型的部分精准性。

模型采样方式

正负样本采样

正样本:选“用户点击”的item为正样本。最多考虑一下用户停留时长,将“用户误点击”排除在外
负样本:user与item不匹配的样本,为负样本。

其它方式

全局随机采样: 从全局候选item里面随机抽取一定数量作为召回模型的负样本,但可能会导致长尾现象。
全局随机采样+热门打压:对一些热门item进行适当的采样,减少热门对搜索的影响,提高模型对相似item的区分能力。

硬标签增强
Hard Negative增强样本:选取一部分匹配度适中的item,增加模型在训练时的难度
随机采样
Batch内随机选择:利用其他样本的正样本在batch内随机采样作为自己的负样本
import torch
from torch import nn
class DSSM(nn.Module):    def __init__(self, user_features, item_features, user_params, item_params, temperature=1.0):super().__init__()self.user_features = user_featuresself.item_features = item_featuresself.temperature = temperatureself.user_dims = sum([fea.embed_dim for fea in user_features])self.item_dims = sum([fea.embed_dim for fea in item_features])self.embedding = EmbeddingLayer(user_features + item_features)self.user_mlp = MLP(self.user_dims, output_layer=False, **user_params)self.item_mlp = MLP(self.item_dims, output_layer=False, **item_params)self.mode = Nonedef forward(self, x):user_embedding = self.user_tower(x)item_embedding = self.item_tower(x)if self.mode == "user":return user_embeddingif self.mode == "item":return item_embedding# 计算余弦相似度y = torch.mul(user_embedding, item_embedding).sum(dim=1)return torch.sigmoid(y)def user_tower(self, x):if self.mode == "item":return Noneinput_user = self.embedding(x, self.user_features, squeeze_dim=True)# user DNNuser_embedding = self.user_mlp(input_user)user_embedding = F.normalize(user2embedding, p=2, dim=1)return user_embeddingdef item2tower(self, x):if self.mode == "user":return Noneinput_item = self.embedding(x, self.item_features, squeeze_dim=True)# item DNNitem_embedding = self.item_mlp(input_item)item_embedding = F.normalize(item_embedding, p=2, dim=1)return item_embedding
  • DSSM为双塔模型,user与item分别经过的DNN得到embedding,再计算两者之间的相似度。
  • 训练样本,正样本为正确的搜索目标,负样本为全局采样+热门打击所得到的负样本。
  • YoutubeDNN在双塔模型基础上进行了改进,
  • 召回阶段使用多个简单模型筛除大量相关度较低的样本,有点MTCNN筛选的思想,最后用个决策网络
  • 排序阶段使用较为复杂的模型获取精准的推荐结果。
  • DSSM核心思想是把查询文本(query)和内容文本(doc)映射到同维度的语义空间中, 以最优化查询文本和内容文本的语义向量之间的余弦相似度为目的

推荐系统——召回模型相关推荐

  1. 【推荐系统召回模型 DSSM, YoutubeDNN】

    推荐系统组队学习 Task3 召回模型 DSSM, YoutubeDNN 学习内容: 提示:这里是根据开源学习组织DataWhale提供的torch-rechub组队学习相关资料整理的,再次感谢组织和 ...

  2. 推荐系统-模型(一):召回模型【协同过滤类: ItemCF/UserCF】【Embedding类】【Dssm/双塔/word2vec】【图类召回算法 (Deepwalk、EGES)】

    推荐系统-召回模型:[协同过滤类: ItemCF/UserCF][Embedding类][Dssm/双塔/word2vec][图类召回算法 (Deepwalk.EGES)]

  3. 推荐系统召回四模型之全能的FM模型

    作者 | 张俊林 作者简介:中国中文信息学会理事,中科院软件所博士.目前在新浪微博 AI Lab 担任资深算法专家.在此之前,张俊林曾经在阿里巴巴任资深技术专家并负责新技术团队,以及在百度和用友担任技 ...

  4. 推荐系统实战4——EasyRec 搭建DSSM召回模型实现CTR点击平台

    推荐系统实战4--EasyRec 搭建DSSM召回模型实现CTR点击平台 学习前言 EasyRec仓库地址 DSSM实现思路 一.DSSM整体结构解析 二.网络结构解析 1.Embedding层的构建 ...

  5. 推荐系统召回四模型之:全能的FM模型

    原文地址:https://zhuanlan.zhihu.com/p/58160982?utm_source=ZHShareTargetIDMore&utm_medium=social& ...

  6. 推荐系统总结之深度召回模型(上)

    作者:一块小蛋糕 地址:https://zhuanlan.zhihu.com/p/267263561 整理:深度传送门 最近读完了李航.何向南的<Deep learning for matchi ...

  7. 推荐系统[二]:召回算法超详细讲解[召回模型演化过程、召回模型主流常见算法(DeepMF/TDM/Airbnb Embedding/Item2vec等)、召回路径简介、多路召回融合]

    搜索推荐系统专栏简介:搜索推荐全流程讲解(召回粗排精排重排混排).系统架构.常见问题.算法项目实战总结.技术细节以及项目实战(含码源) 专栏详细介绍:搜索推荐系统专栏简介:搜索推荐全流程讲解(召回粗排 ...

  8. 【datawhale202206】pyTorch推荐系统:召回模型 DSSMYoutubeDNN

    小结 本次所涉及的模型用于推荐系统中的召回环节,该环节主要是一个embedding和筛选,本次所涉及的模型主要用于embedding过程. DSSM双塔模型是指,user和item的embedding ...

  9. 推荐系统笔记(模型融合)

    思维导图: 推荐系统在技术实现上一般划分三个阶段:挖掘.召回.排序. 模型融合: 挖掘的工作就是对用户和物品做非常深入的结构化分析,对各个角度的特征都被呈现出来,并且建好索引,供召回阶段使用,大部分挖 ...

最新文章

  1. 【转】JS回调函数--简单易懂有实例
  2. Exchange 2013部署系列之(七)配置SSL多域名证书
  3. 4.5 搭建深层神经网络块-深度学习-Stanford吴恩达教授
  4. sql和sqlite常用查询语句
  5. 抓屏的各种方法(http://www.codeproject.com/KB/dialog/screencap.aspx)
  6. SQL学习笔记之存储过程的编写
  7. scrape创建_确实在2分钟内对Scrape公司进行了评论和评分
  8. java自学难点_学习JAVA遇到的难点总结
  9. 使用 Python 进行线性搜索优化
  10. 根据手势拿到superview
  11. (二)移动 GPU 和桌面 GPU 的差距有哪些?
  12. 幼儿认知发展虚拟仿真系统
  13. 斯伦贝谢宣布用债券交换斯伦贝谢控股公司的三种优先票据
  14. android手机 一键还原,安卓手机一键恢复通讯录
  15. 岁月温柔-6 出院后忐忑不安的妈妈
  16. 如何将网站提交到百度的办法
  17. XP系统访问共享提示提示:找不到“”。请检查拼写是否正确……
  18. Spring~用注解读取bean(属性注入、构造方法注入、set注入)
  19. TCP/IP连接释放
  20. 使用animate库

热门文章

  1. NC14743 qwb的骚扰
  2. 波形生成:均匀和非均匀时间向量
  3. 三代Android大版本升级,三星将提供三代Android大版本升级,多款机型在列,S9遗憾被淘汰...
  4. Java XML转换为JSON XML解析 转换为JSON Java 实现JSON转换为XML json转xml
  5. 【买卖股票的最佳时机】
  6. 我的世界服务器不显示计分板,我的世界-计分板指令用法详细图文教程
  7. 22端口限制 git_github ssh 22端口被禁用解决办法
  8. 学会自己测天气------06
  9. android 动态表情实现,基于Android开发支持表情的实现详解
  10. 胆汁酸代谢物质靶向代谢检测