Pointwise & Pairwise & Listwise

Learning to Rank简介
http://www.cnblogs.com/bentuwuying/p/6681943.html
PDF资料
监督学习方法在排序中的应用,基本思想是将排序问题转换为回归、分类问题,有pointwise, pairwise, listwise三大类,区别于传统的基于排序函数的排序方法。

LTR (Learning to Ranking) 的学习方法分为Pointwise、Pairwise和Listwise三类。Pointwise和pairwise把排序问题转换成回归、分类或者有序分类问题。Lisewise把查询q下整个搜索结果作为一个训练的实例。3种方法的区别主要体现在损失函数(Loss function)上。
[补充说明] LTR相关的三种学习方法本来是信息检索 (IR) 领域的内容,这里用于推荐系统的深度模型训练过程。

以下是从信息检索的角度来讨论和分析三种学习方法的。

pointwise

Pointwise: your model will try to learn the score of each query<->document.
Pointwise 模型把排序问题转化为单结果的回归、分类或者有序分类的问题。
基本特点:
Pointwise方法仅仅使用传统的分类,回归或者Ordinal Regression方法来对给定查询下单个文档的相关度进行建模。这种方法没有考虑到排序的一些特征,比如文档之间的排序结果针对的是给定查询下的文档集合,而Pointwise方法仅仅考虑单个文档的绝对相关度;另外,在排序中,排在最前的几个文档对排序效果的影响非常重要 (TopN),Pointwise没有考虑这方面的影响。

pairwise

Pairwise: your model will learn the relationship between a pair of documents in different relevance levels under the same query. The output of your model is used to compare the qualities of different documents. The cost function to minimize is the correctness of pairwise preference. For pairwise approach, suggest you to read the LambdaRank: Page on microsoft.com
Pairwise模型把排序问题转化为对结果的回归、分类或者有序分类的问题。
基本特点:
相比于Pointwise方法,Pairwise方法通过考虑两两文档之间的相对相关度来进行排序,有一定的进步。但是,Pairwise使用的这种基于两两文档之间相对相关度的损失函数,和真正衡量排序效果的一些指标之间,可能存在很大的不同,有时甚至是负相关。另外,*有的***Pairwise方法没有考虑到排序结果前几名对整个排序的重要性,也没有考虑不同查询对应的文档集合的大小对查询结果的影响(但是有的Pairwise方法对这些进行了改进,比如IR SVM就是对Ranking SVM针对以上缺点进行改进得到的算法)。

listwise

Listwise: the cost function is correctness of provided list in the validation/test set.
Listwise模型与Pointwise和Pairwise方法不同,直接考虑给定查询下的集合的整体序列,直接优化模型输出的文档序列,使得其尽可能的接近真实文档序列。
基本特点:
相比于Pointwise和Pairwise方法,Listwise方法直接优化给定查询下,整个文档集合的序列,所以比较好的解决了克服了以上算法的缺陷。Listwise方法中的LambdaMART(是对RankNet和LambdaRank的改进)在Yahoo Learning to Rank Challenge表现出最好的性能。

[主要参考]
Pointwise & Pairwise & Listwise

排序算法分类->Learning Method->Pointwise&Pairwise&Listwise
学习排序
评价指标:
NDCG:全称NormalizedDiscounted Cumulative Gain
MAP是另外一种在IR中经常用到的指标
MRR:Mean Reciprocal Rank: 是把标准答案在被评价系统给出结果中的排序取倒数作为它的准确度,再对所有的问题取平均。相对简单。

References

[1] Cossock D, Zhang T. Subset ranking usingregression[M]//Learning theory. Springer Berlin Heidelberg, 2006: 605-619.

[2] Nallapati R. Discriminative models forinformation retrieval[C]//Proceedings of the 27th annual international ACMSIGIR conference on Research and development in information retrieval. ACM,2004: 64-71.

[3] Gey F C. Inferring probability of relevanceusing the method of logistic regression[C]//SIGIR’94. Springer London, 1994:222-231.

[4] Li P, Wu Q, Burges C J. Mcrank: Learning torank using multiple classification and gradient boosting[C]//Advances in neuralinformation processing systems. 2007: 897-904.

[5] Shashua A, Levin A. Ranking with largemargin principle: Two approaches[C]//Advances in neural information processingsystems. 2002: 937-944.

[6] Crammer K, Singer Y. Pranking withranking[C]//NIPS. 2001, 14: 641-647.

[7] Liu T Y. Learning to rank for informationretrieval[J]. Foundations and Trends in Information Retrieval, 2009, 3(3):225-331.

[8] Pointwise&Pairwise&Listwise 豆瓣

[9] Learning to Rank for Information Retrieval
LETOR

[10] Microsoft Learning to Rank Datasets
Microsoft Learning to Rank Datasets

[11] Yahoo Learning toRank
Yahoo Learning toRank

Learning to Ranking相关推荐

  1. Learning to ranking简介

    Learning to ranking简介 目录 1前言... 1 2 LTR基本流程... 2 3 模型训练... 3 3.1排序类型... 3 3.1.1 Pointwise. 3 3.1.2 P ...

  2. Learning to Rank简介

    机器学习有三大问题,分类.回归和排序.分类和回归之前了解了很多的算法,但排序还没有深入的了解过. Learning to Rank有很多种典型的应用.包括: document retrieval ex ...

  3. Learning to Rank入门小结 + 漫谈

    Learning to Rank入门小结 Table of Contents 1 前言 2 LTR流程 3 训练数据的获取4 特征抽取 3.1 人工标注 3.2 搜索日志 3.3 公共数据集 5 模型 ...

  4. DeepRank: A New Deep Architecture for Relevance Ranking in Information Retrieval

    Abstract 本文提出一种在信息检索中进行相关性排序的深度学习方法. 已有的深度学习方法,如 DSSM,CDSSM 等直接应用神经网络来生成排序得分,并没有显式地理解相关性. 人类进行相关性标注的 ...

  5. Learning to Rank(转)

    https://blog.csdn.net/kunlong0909/article/details/16805889 Table of Contents 1 前言 2 LTR流程 3 训练数据的获取4 ...

  6. 收藏 | 一文带你总览知识蒸馏,详解经典论文

    「免费学习 60+ 节公开课:投票页面,点击讲师头像」 作者:凉爽的安迪 来源 | 深度传送门(ID:deep_deliver) [导读]这是一篇关于[知识蒸馏]简述的文章,目的是想对自己对于知识蒸馏 ...

  7. 知识蒸馏在推荐系统的应用

    点击上方,选择星标或置顶,每天给你送干货! 作者 | 张俊林 本文转载自知乎 https://zhuanlan.zhihu.com/p/143155437 随着深度学习的快速发展,优秀的模型层出不穷, ...

  8. 第二课.图卷积神经网络

    目录 卷积神经网络 图卷积神经网络 GNN数据集 图的表示 GCN GNN的基准化:Benchmarking Graph Neural Networks 卷积神经网络 在计算机视觉中,卷积网络是一种高 ...

  9. 专访:经历了时间检验的不仅是论文,还有唐杰自己 | SIGKDD 2020时间检验奖

    KDD 2020即将在8月23-27日召开.而近日,SIGKDD 2020官方推特也公布了本年度的各种奖项,其中清华大学教授.智源研究院学术副院长唐杰团队获得了ACM SIGKDD 2020时间检验应 ...

  10. 万字总结,知识蒸馏如何在推荐系统中大显身手?

    来源:AI科技评论 作者 | 张俊杰 编辑 | 丛 末 本文首发于知乎 https://zhuanlan.zhihu.com/p/143155437 随着深度学习的快速发展,优秀的模型层出不穷,比如图 ...

最新文章

  1. PAT A1098 堆排序
  2. python第三方库numpy-浅谈python的第三方库——numpy(终)
  3. impala jdbc驱动执行impala sql的一个坑(不支持多行sql)
  4. 1489 蜥蜴和地下室
  5. SAP Fiori Elements drop down list debug
  6. Spring Boot 最流行的 16 条最佳实践!
  7. 数据结构学习笔记:时间复杂度
  8. PaddleOCR-release-2.3\deploy\cpp_infer\src识别中文时出现乱码
  9. SpringBoot2.X + SpringCache + redis解决乱码问题
  10. vue-cli脚手架npm相关文件解读(7)dev-server.js
  11. 下载pyboard的flash中的驱动程序_HASP加密狗驱动程序没有安装成功如何解决
  12. LATEX编译出现Undefined control sequence.
  13. 这个游戏的名字叫:哒哒哒哒哒哒
  14. 【软考-中级】系统集成项目管理工程师【总】
  15. 【知识图谱】实践篇——基于医疗知识图谱的问答系统实践(Part5-完结):信息检索与结果组装
  16. 联想Lico+singularity容器制作+anaconda3安装教程
  17. 回顾知识点:计算机网络篇
  18. ogm 算法_如何在Windows Vista中播放.OGM视频文件
  19. SpringCloud 基础教程(八)-Hystrix熔断器(上)
  20. ubuntu13.10中mplayer中文字幕的乱码问题的过程记录

热门文章

  1. PHP设计模式——中介者模式
  2. Unity API学习笔记(2)-GameObject的3种Message消息方法
  3. 与你邂逅——软件工程
  4. JavaEE——Mybatis(5)--resultMap自定义结果集封装
  5. Python中time模块详解(转)
  6. 十一、JUC包中的锁
  7. 编写可维护的javascript代码--- 2015.11.21(基本格式化)
  8. redis学习总结2
  9. 试用版SQL Server 2008提示评估期已过 解决办法
  10. 有行统计项和列统计项的行列转换,以及EXCEL导入SQL的简单应用