文章目录

  • 前言
  • Abs
  • Intro
  • 2.Preliminary
    • 2.1.Ubiased Learning to Rank
    • 2.2.Existion ULTR Datasets
  • 3.Dataset Description
    • 3.1.Large Scale Web Search Sessions
    • 3.2.Expert Annotation Dataset
    • 3.3.Dataset Analysis
  • 4.Benchmark and Baselines
    • 4.1.Baselines
    • 4.2.Metrics
    • 4.3.Performance Comparison
    • 4.5.Performance Comparison on Tail Query
  • 5.Discussion
    • 5.1.Data Challenge
  • 6.Conclusion

前言

  • 文章来自NeurIPS 2022,是百度提出的Unbiased Learning to rank数据集
  • 原文链接:[2207.03051v1] A Large Scale Search Dataset for Unbiased Learning to Rank (arxiv.org)

Abs

由于现有数据集的某些局限性,在现有基准数据集上的良好结果可能无法扩展到实际场景:

  • 它们的语义特征提取已经过时,而像BERT这样最先进的大规模预先训练的语言模型由于缺乏原始文本而不能被利用
  • 展示特征是不完整的,因此在 ULTR 上深度的学习是不可能的,比如使用显示的摘要来分析点击必要性偏差
  • 大多数现有的数据集都采用了合成的用户反馈,而现实世界的用户反馈却大大缺失

我们提出Baidu-ULTR数据集,包含1.2billion随机采样的搜索会话和7008个专家标注的查询(397572个查询-文档对)。Baidu-ULTR是第一个 billion 级别的 ULTR(unbiased learning to rank) 数据集,提供:

  • 原始语义特征和不同大小的预训练语言模型
  • 充分的显示信息,如位置,显示高度,显示摘要,以确保多种显示偏差的全面研究
  • 在搜索结果页面丰富的用户反馈,比如停留时间,允许用户参与度优化,促进在ULTR上多任务学习的探索

Intro

直接使用点击数据优化模型是不完美的,因为偏差的存在,比如:位置 bias,trust bias,click necessary bias。尽管目前的 ULTR 数据集可以在某种程度上满足数据消耗的需求,仍然存在一些限制:

  • 提供的语义特征(比如:BM25,TF-IDF,LMABS)不能享受现代表示学习方法的优点。应用最近的大规模预训练和端到端微调范式需要接触到查询和文档的原始文本。
  • 显示信息的种类是有限的,与其他显示信息(除了 position-related bias)相关的偏差被忽略。比如,如果显示的文档摘要完全满足用户需求,用户就没必要去点击文档。不同媒体类型的文档对用户的吸引程度不同
  • 大多数现存的数据集缺少真实的用户反馈。

因此,提出Baidu-ULTR数据集,对web search的大规模无偏 learning to rank数据集。它从最大的中文搜索引擎-百度中随机抽取了12亿个搜索会话,和7008个专家注释查询(397,572个查询文档对)进行验证和测试。

2.Preliminary

2.1.Ubiased Learning to Rank

我们的目的是:对一个指定 query,得到一个相关性降序排列的文档 list。查询和文档之间的相关等级 r d r_d rd​(通常有0–4级, { b a d , f a i r , g o o d , e x c e l l e n t , p e r f e c t } \{bad, fair, good, excellent,perfect\} {bad,fair,good,excellent,perfect},)如果是人工标记的,我们通常认为是无偏的,但是这样比较费劲。

一个替代方案就是将用户的隐式反馈作为相似度标签。利用点击标签 c d c_d cd​ 替代相似标签 r d r_d rd​

但是,这个loss function是有偏的,因为最终排序结果会影响用户的点击,排名高的文档可能会有更高的点击次数。无偏 learning to rank被提出,这样在有偏数据上的训练就能收敛到用无偏数据上训练的模型

2.2.Existion ULTR Datasets

现有的 ULTR 数据集可以分成两类:使用合成/真实用户反馈:

合成数据:Yahoo! LETOR , Microsoft LETOR and Istella LETOR

真实数据:Tiangong-ULTR

3.Dataset Description

主要包含两部分:1)大规模 web search 会话,2)专家注释数据集

3.1.Large Scale Web Search Sessions

Queries:从百度上的搜索会话上随机选取,每个都有一个独一无二的标识符。一个频繁出现的查询可能被采样多次,每个都有不同的标识符。这保证了数据集中查询的分布与在线系统相同:常见的查询有更大的权重

Documents:对于候选文档,只记录了展示出来的。因为没展示的提供的信息比较少,用户不会对这些文档提供反馈。日志会话通常对每个 query 只有十个文档(一页就展示了10个文档)。只有 1.1%的会话包含十个以上,因为1.1%的用户翻页了。这导致了训练和测试的不匹配。在训练时,用户只“label”top-10文档,但是在推理阶段,top-10结果需要通过检索和排序产生,系统需要利用很多模型来排序特别多的文档。

Page Presentation Features:用户在搜索结果页面(SERPs)上的行为受SERPs布局的影响很大。我们收集了在SERPs上的以下信息表示:排序位置,显示的url,显示的文档标题,显示的文档摘要,文档的多媒体类型,SERP的高度

为了保护用户隐私,将查询、标题和摘要的原始文本表示为带有私有字典的顺序 token id。进一步防止丢失语义信息,我们提供了一个 unigram集合,使用 desensitization token ids 来记录高频词,这对建模 word-level 语义信息是很有用的。

User Behavior:我们提供了丰富的用户行为集合,包括:查询重写,跳跃,点击,第一次点击,用户停留时间,显示时间,显示次数,滑走次数,siaplayed count of reverse browsing

3.2.Expert Annotation Dataset

Queries:从百度的搜索会话中随机选取的。因为查询是长尾分布的(a),我们进一步提供了查询的频率。我们根据搜索频次,将查询分成10个buckets:0,1,2对应高频,3,4,5,6对应中频,7,8,9对应尾频。

Documents:为了模拟在线长江,候选文档从检索阶段选择。我们选取了检索模型的top-30文档作为排序的候选集合。通过选择间隔为30的文档,我们进一步覆盖检索阶段的前数千个结果,这些文档用于衡量 ranker 在区分对用户体验极具破坏性的文档方面的表现

Expert Annotation:由专业标注者标注,从5个标签 { b a d , f a i r , g o o d , e x c e l l e n t , p e r f e c t } \{bad,fair,good,excellent,perfect\} {bad,fair,good,excellent,perfect} 中选一个,之后转成数字(0对应bad,4对应perfect)。

3.3.Dataset Analysis

像Figure.2,我们有如下观察:

  • 长尾分布出现在许多用户行为中

  • 高频查询的搜索结果比尾部查询的更相关,因为高频查询的每个查询的点击数为1.13远远大于尾部查询的0.43

  • 最关键的用户反馈与页面展示特征和其他用户行为展现出强相关。我们在图2©中说明了不同排名位置的点击率

  • 随着显示时间变长,用户更愿意在屏幕顶部花更多时间,在底部花更少时间

4.Benchmark and Baselines

4.1.Baselines

选择了下列具有代表性的 baselines:Naive,IPW,DLA,REM,PairD。这些方法都只考虑了位置相关的 bias,没使用其他的显示特征。因此,利用新提取的SERPs和显示特征,在Baidu-ULTR数据集上设计新的ULTR算法具有很大的潜力。

4.2.Metrics

使用 Discounted Cumulative Gain(DCG),只有在有绝对相关性判断时,才会报告DCG

  • 有 N N N 个文档排序后的 list
  • G i G_i Gi​ 是给位置 i i i 的文档标签的权重,越高的相似度等级对应越高的权重

Expected Reciprocal Rank(ERR)计算用户停止的结果位置的倒数的期望:

  • R i R_i Ri​ 代表第 i i i 个文档与查询的相关概率
  • 1 i ∏ j = 1 i − 1 ( 1 − R j ) \frac{1}{i} \prod_{j=1}^{i-1}\left(1-R_j\right) i1​∏j=1i−1​(1−Rj​)是第 i i i 个文档之前的有序文档的不相关概率

4.3.Performance Comparison

  • 没有一个 ULTR 算法有令人满意的结果,因为他们都只考虑了位置相关的偏差
  • DLA算法表现得最好,显示了其在真实数据集上的鲁棒性
  • naive算法比得上 IPW,甚至超过了REM和PairD,这说明,现实世界的用户反馈比利用特定用户行为假设(位置依赖的点击模型)生成的合成反馈更复杂

一个直观的解释是,用户日志是从一个运行良好的搜索引擎收集的,点击可能没有假设中提到的bias。直接减轻 bias 可能导致过度减轻和不满意的结果。

4.5.Performance Comparison on Tail Query

为了研究搜索频率的影响,我们进一步在三个不同等级搜索频率上比较了 ULTR 算法性能,包括high,middle,tail。

  • 从高频查询到尾部查询,所有算法的性能逐渐下降,这表明学习对尾部查询进行排序的难度较大
  • naive算法展示了有竞争力的性能,揭示了基准测试方法在处理尾部查询中的数据偏差时的脆弱性
  • DLA算法在高频查询方面有了显著的改进,表明ULTR算法对高频排序问题是有利的

5.Discussion

5.1.Data Challenge

Biased in Real-World User Feedback:因为用户日志是从良好运行的搜索引擎中收集的,点击可能不会有在生成合成数据集时的那种简单又强烈的bias

Long-tail Phenomenon:(1)大多数检索文档与用户查询无关。超过50%的文档被注释为与用户查询无关,而只有1.8%的文档被注释为完美的。(2)用户查询还显示了长尾分布。前10%的高频查询占据了搜索日志的60%以上。ULTR算法在高频查询上的性能远高于尾部查询

Mismatch between Training and Test:由于在线系统的存储限制,我们只记录排名系统中显示的页面,通常是 top-10 的结果。然而,在评估集中,我们记录前30个文档,并通过选择间隔为30的文档,进一步覆盖检索阶段的前上千个结果。这一挑战在实际场景中广泛存在,任意数量的文档都可以检索到我们的排序程序中。用于训练和测试的文档数量很少能完全一致。数据不匹配是排序算法面临的分布失衡挑战。

6.Conclusion

Baidu-ULTR包含充足的展示信息和丰富类型的用户反馈。在脱敏之后,也可以提供原始文本特征,这确保能够使用更先进的语言模型。

【论文阅读 NeurIPS 2022】A Large Scale Search Dataset for Unbiased Learning to Rank相关推荐

  1. 论文阅读笔记:Improving Attacks on Speck32 / 64 using Deep Learning

    论文阅读笔记:Improving Attacks on Speck32 / 64 using Deep Learning 本文通过神经网络利用了减少轮数的 Speck 的差分性质.为此,作者对神经网络 ...

  2. [基础论文阅读]QMIX: Monotonic Value Function Factorization for Deep Multi-agent Reinforcement Learning

    [基础论文阅读]QMIX: Monotonic Value Function Factorization for Deep Multi-agent Reinforcement Learning 题目含 ...

  3. 论文阅读:On Dynamic Resource Allocation for Blockchain Assisted Federated Learning over Wireless Channel

    论文阅读:On Dynamic Resource Allocation for Blockchain Assisted Federated Learning over Wireless Channel ...

  4. 论文解读| NeurIPS 2022:面向科学任务的图神经网络设计

    点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入! 近日中国人民大学高瓴人工智能学院师生有23篇论文被CCF A类国际学术会议NeurIPS 2022录用.神经信息处理系统大会(Neura ...

  5. 论文阅读 :A survey of visual analytics techniques for machine learning

    题目:A survey of visual analytics techniques for machine learning A survey of visual analytics techniq ...

  6. 论文阅读《An Analysis of Scale Invariance in Object Detection – SNIP》

    Background & Motivation 分类和检测任务精度差别大,有一个重要原因是检测小目标充满了挑战.而 MS COCO 数据集中出现了极端的尺度不平衡,小目标(目标尺寸/图像尺寸& ...

  7. 论文阅读:Hit-Detector: Hierarchical Trinity Architecture Search for Object Detection

    简介: Hit-Detector是第一个可以同时搜索检测网络的backbone.neck和head的NAS,在低算力.低参数量的情况下得到高mAP. 论文链接 代码链接 前言: NAS在图像识别任务中 ...

  8. (论文阅读)2022年一些图像去雾方法的简单调研

    2022年一些图像去雾方法的简单调研 1. Self-augmented Unpaired Image Dehazing via Density and Depth Decomposition 基于密 ...

  9. 【论文阅读】An Analysis of Scale Invariance in Object Detection – SNIP

    An Analysis of Scale Invariance in Object Detection – SNIP 一.角度 基于CNN的检测器是对尺寸敏感的,所以要做到通过训练的多样化和专一化为为 ...

最新文章

  1. 【Network Security!】xrdp+vnc4server+xfce4远程管理Ubuntu服务器桌面
  2. 【摩天好课推荐】2 Python语言入门
  3. Linux 文件权限rwx
  4. 一文弄懂Numpy中ndarray的维度(dimension)/轴数(axis/axes)问题
  5. smarty 引用php类,smarty 的PHP引用
  6. 小程序版本独立微信社群人脉系统社群空间站源码全开源
  7. localhost 就一定是 localhost 么?
  8. leetcode题解189-旋转数组
  9. 剑指Offer之平衡二叉树
  10. 面向项目(二)—— visual studio 的使用
  11. 详解tf.nn.bias_add和tf.add、tf.add_n的区别
  12. Messes in Reading Source Coding of SSD
  13. 良心安利游戏音效素材网站
  14. 五分钟轻松搞定产品需求文档!这可能史上最全PRD文档模板
  15. 数据筛选特征方法-方差法
  16. simulink官方电机控制示例汇总
  17. windows系统IP地址、localhost、127.0.0.1 、0.0.0.0和 本机IP区别
  18. Nginx的重启命令(nginx -s reopen)
  19. 硬件电路设计之如何设计一个STM32最小系统?
  20. 科普类:什么是量子霸权?

热门文章

  1. 安装python时提示 0x80070659系统策略禁止这个安装,请与管理员联系
  2. 【Excle笔记】计算输出为百分比形式
  3. 图书馆学毕业论文题目【最新】
  4. H5页面适配iphoneX底部小黑条遮盖内容
  5. nyoj 76-超级台阶 (递推)
  6. (非华为电脑,最新版PCManager安装,支持鸿蒙、一碰传
  7. python计算模型每一次迭代(epoch)的时间,并将其通过pandas模块导出到excel文件
  8. java之数据填充PDF模板
  9. mysql text not null_【20181101】MySQL text类型的column设置为NOT NULL 导致主从1364
  10. MAC 如何设置文件夹权限为777