论文题目:Modeling Discriminative Representations for Out-of-Domain Detection with Supervised Contrastive Learning

论文链接:

代码链接: https://github.com/parZival27/supervised-contrastive-learning-for-out-of-domain-detection

Abstract

传统的交叉熵损失(cross-entropy loss)只关注一个样本是否被正确分类,而没有明确区分不同类别之间的边界。本篇论文针对这个问题进行了解决,提出了一个有监督的对比学习目标(supervised contrastive learning objective)【SCL】,通过将属于同一类的域内意图集合起来来最小化类内方差,并通过将来自不同类的样本拉开来最大化类间方差。

除此之外,采用对抗性增强机制(adversarial augmentation mechanism)来获得潜在空间(latent space)中样本的 pseudo diverse views。

总结:主要介绍了论文要解决的问题:提出一个有监督的对比学习的目标与现有的交叉熵损失做对比。

Introduction

从用户查询中检测域外(OOD)或未知意图(unknown intents)是面向任务的对话框系统中的一个重要组成部分.。

与正常的意图检测任务不同,OOD意图检测不知道实际场景中未知意图的确切数量,也几乎不能注释大量的OOD样本。

以往OOD检测方法一般可分为两种类型:Supervised OOD detection (有监督OOD检测)和无监督OOD检测

Supervised OOD detection (有监督的OOD检测)表示在训练数据中有大量的标记OOD样本。
有监督的OOD检测一般是形成一个(N+1)类分类问题,其中第(N+1)类代表看不见的意图。
unsupervised OOD detection (无监督OOD检测表示)除了标记的域内数据外,没有标记的OOD样本。
无监督的OOD检测一般是首先通过域内(IND)数据学习意图表示,然后使用检测算法(例如LOF、GAD、MSP),计算OOD样本与IND样本之间的特征相似性。本篇论文就是采用的这样的无监督的OOD检测思路。
作者介绍了一个较大的边际余弦损失(LMCL),LMCL使latent space(潜在空间)中的决策边界最大化,LMCL迫使模型不仅正确分类,而且最大化类间方差,最小化类内方差。受到这个LMCL的影响,作者也是按照这种思路来建模语义表示。
提出监督对比学习(SCL)模型去学习OOD检测的语义意图表示。SCL的目标是通过将属于同一类的IND意图集合在一起来最小化类内方差,并通过将来自不同类的样本拉远来最大化类间方差。
同时,为增强SCL中数据增强的多样性,采用了一种对抗攻击机制,通过计算对于输入的模型不可知的对抗性最坏情况扰动,在latent space 中获得pseudo hard positive samples 。此处附上论文原文便于理解。

总体来说,论文的贡献有下面三个方面:

(1)是第一个将监督对比学习应用于OOD检测。

(2)与cross-entropy(CE)损失相比,作者提出的SCL+CE可以最大限度地提高类间方差,最小化类内方差,以学习区别性语义表示

(3)在两个公共数据集上的大量实验和分析证明了作者提出的方法的有效性。

Methodology

Overall Architecture

(1)首先使用 CE 或者 SCL+CE objectives 在训练阶段训练一个域内意图分类器。

(2)在测试阶段提取了一个测试样本的意图特征,并使用检测算法MSP、LOF或GDA来检测OOD。

Supervised Contrastive Learning

1、cross-entropy (CE) loss(交叉熵损失)

 代表域内样本 对应的意图标签。  代表经过LSTM 或者BERT 编码过得意图表示。   代表训练样本的数量。 是一个温度系数(temperature factor) 表示第j个类的权重矩阵。

2、CE的改进版本 large margin cosine loss (LMCL)

m 是 cosine margin(余弦边缘) 。与CE相比,LMCL在negative class上增加了一个 normalized decision margin(标准化的决策边界),使模型明确地区分正类和负类。

3、a supervised contrastive learning objective (SCL)

目的:最小化类内方差,最大化类间方差。

 表示一个batch中与具有相同标签的示例总数,l 是一个指示器函数(indicator function)。同时,只对域内数据进行SCL。SCL的目标是将属于同一类的IND意图集合在一起,并将来自不同类的样本拉开,这有助于识别决策边界附近的OOD意图。

首先使用SCL对意图分类器进行预训练,然后使用CE或LMCL进行微调。

Adversarial Augmentation

【这一部分没有特别理解】!!!

数据增强对于对比学习有重要意义,可以应用对抗性攻击生成pseudo positive samples(伪正样本),以增加对比学习的the diversity of views(观点多样性)。

表示最坏情况下的扰动,表示意图分类器的参数, 表示给定的样本, 表示扰动的规范边界。

应用Fast Gradient Value 【快速梯度值(FGV)】来近似扰动:

 进行归一化,同时使用一个 来保证近似值的合理性。

最后,就可以得到latent space中的的 pseudo augmented  samples(伪增强样本) 。

生成的伪样本被用来在SCL中增加每个锚点(anchor)的positive views。

Experiments

Datasets

CLINC-Full and CLINC-Small

同时作者还进行了一些了的实验来分析相应的结果,具体可以阅读论文。

Conclusion

通过对域内数据学习区别性语义意图表示,提出了一种新的监督对比学习损失(SCL)。

SCL的目标是通过将属于同一类的意图聚集在一起来最小化类内方差,并通过将来自不同类的样本拉开来最大化类间方差。

思考:将对比学习应用于OOD意图检测的想法很新颖,后续是否可以采用一下别的方法进行改进?【可以联系前面写的两篇博客】

论文阅读【用监督对比学习建模域外检测(OOD Detection) 的 鉴别表示】相关推荐

  1. 论文阅读_基于深度学习的异常检测综述

    英文题目:Deep Learning for Anomaly Detection: A Review 中文题目:基于深度学习的异常检测综述 论文地址:https://arxiv.org/pdf/200 ...

  2. 自监督对比学习系列论文(二):有引导对比学习--SCCL,SwAV,PCL,SupervisedCon

    自监督对比学习  本篇承接前一篇自监督对比学习的介绍自监督对比学习系列论文(一):无引导对比学习–MOCO,SimCLR,这次主要关注于包含先验指导的对比学习,这一指导更进一步的可以区分为聚类指导以及 ...

  3. 73岁Hinton老爷子构思下一代神经网络:属于无监督对比学习

    来源:机器之心 本文约2700字,建议阅读7分钟. 在近期举行的第 43 届国际信息检索年会 (ACM SIGIR2020) 上,Geoffrey Hinton 做了主题为<The Next G ...

  4. Hinton构思下一代神经网络:属于无监督对比学习

    本文由机器之心报道 Geoffrey Hinton 是谷歌副总裁.工程研究员,也是 Vector Institute 的首席科学顾问.多伦多大学 Emeritus 荣誉教授.2018 年,他与 Yos ...

  5. 【论文复现】SimCSE对比学习: 文本增广是什么牛马,我只需要简单Dropout两下

    文本增广是什么牛马,我只需要简单Dropout两下 Sentence Embeddings与对比学习 SimCSE 无监督Dropout 有监督对比学习 如何评判Sentence Embeddings ...

  6. 一文梳理无监督对比学习(MoCo/SimCLR/SwAV/BYOL/SimSiam)

    本文从对比学习的概念出发,收集了五个2020年的关于对比学习的经典研究,详细介绍了每个工作的模型及思路过程,帮助大家快速掌握对比学习的原理和发展的脉络. 对比学习的概念很早就有了,但真正成为热门方向是 ...

  7. 推荐系统笔记(九):SGL --利用自监督对比学习缓解推荐系统长尾效应

    背景 利用图卷积神经网络处理推荐系统的问题任然有很大局限性,即使是LightGCN也存在的问题,关于LightGCN的知识和原理实现可以参考我的另外几篇博客:链接 其局限性主要在于: (1)高度节点对 ...

  8. 我分析了ACL21论文列表,发现对比学习已经...

    文 | 花小花Posy 小伙伴们,好久不见呀,小花又回来了! 最近关注对比学习,所以ACL21的论文列表出来后,小花就搜罗了一波,好奇NLPers们都用对比学习干了什么?都是怎么用的呀?效果怎样呀? ...

  9. 【论文阅读】基于强化学习的上下文感知的自适应路由变异方案

    [论文阅读]基于强化学习的上下文感知的自适应路由变异方案 Context-Aware Adaptive Route Mutation Scheme:A Reinforcement Learning A ...

最新文章

  1. linux Crontab 使用
  2. LeetCode 47. 全排列 II
  3. csharp OverflowException——超出数值范围会抛出异常
  4. [T-ARA][Goodbye, OK]
  5. 神策数据完成B轮融资1100万美元,DCM领投、红杉跟投
  6. JZOJ 5182. 【NOIP2017提高组模拟6.29】码灵鼠
  7. 芯明天debug assertion failed_YJLV铝芯电力电缆的基本介绍
  8. 重叠面积_重叠面积——动点产生的重叠面积问题
  9. 开源框架_跨平台开源框架对比介绍
  10. 用汇编的眼光看C++(之算术符重载陷阱)
  11. keil git 编译文件_交叉编译链下的Makefile(STM32F4xx)
  12. Win10开机免UAC自启动锐捷客户端
  13. 了解数据库(包括数据库发展史、分类、著名人物、主流数据库、关系与非关系型数据库)
  14. Win10上的dll依赖查看工具Dependencies
  15. 聊聊学习型组织的五项修炼(下)
  16. pip 下载whl文件
  17. MySQL数据库getdate_MySQL数据库 DateTime 默认值是不是用getdate
  18. 打开idea注释doc的rendered view模式
  19. android实现音乐播放器(进度条)
  20. 深度解析Java游戏服务器开发

热门文章

  1. 关注|「中国智造」大象机器人Marscat走出国门,引领中国现代机器人风潮
  2. Silverlight 5 beta新特性探索系列:3.Silverlight5中的文字增进控制【附带实例源码】...
  3. CF 779 C Dishonest Sellers 贪心,排序
  4. Junit5测试框架实战
  5. 利用java编写剪刀石头布的小游戏
  6. main和_main的区别
  7. Android进阶——Preference详解之初识Preference及Preference系(一)
  8. 又见硝烟 - Google的simple编程语言
  9. python2 使用arcpy自定义GIS工具箱,实现excel读取、空间插值
  10. 程序正常启动 telnet端口不通问题处理