每天给你送来NLP技术干货!


论文:Prompt-Learning for Fine-Grained Entity Typing

链接:https://arxiv.org/pdf/2108.10604.pdf

单位:清华大学、首尔大学

提取摘要

提示学习(Prompt-learning)一个有效的tune预训练模型到特定任务上的方法,最近受到了各方学者的关注。

通过使用填空形式(cloze-style)来激活预训练模型的通用知识,Prompt-learning已经在很多NLP任务上达到了理想的效果,比如自然语言推理、情感分类和知识检索等。

这篇文章主要探索prompt-learning在细粒度实体分类(fine-grained entity typing)上的fully supervised, few-shot和zero-shot场景下的应用。

本文提出一种简单有效的面向实体表达器和模板来指导基于掩码语言模型(MLM)的prompt-learning管道方法。

此外,为了解决zero-shot问题,我们提出了一种自监督方法,该方法在prompt-learning中进行分布级别优化,以自动汇总实体类型的信息。

最后,在三个公开数据集的大量实验中得出,fully supervised, few-shot 和 zero-shot场景下prompt-learning方法远高于基于finetune的baseline,尤其是在训练不充足的情况下。

如果不了解prompt-learning的话,我在这里简单介绍下,之前通用的finetune方法是让预训练模型迁就下游任务,而prompt-learning是让下游任务迁就预训练模型。而实际上,prompt-learning更能发挥预训练模型的真实能力。

使用prompt-learning最基本的模板,比如输入文本为

He is from New York

加入基于mask的prompt模板为:

He is from New York. In this sentence, New York is [MASK]

背景

实体分类任务定义

比如有数据集有n个句子:

每个句子x都包含一个实体m,预测该实体m在这个句子中的类别就是实体分类任务,其中,实体类别是一个固定集合。比如句子:

London is the fifth album by the rock band Jesus Jones...

London是这里的实体,显然London预测为Music而不是Location。

FineTune

输入一个句子:

其中实体为:

通过预训练模型得到蕴含语义的隐层:

最终选取

作为最后的隐层表示,然后通过一个W和softmax映射到概率分布来达到预测的效果:

其中W、b和所有预训练模型参数都要通过损失进行调整,其中损失为:

Prompt-based Tuning

对于每一个label y,Prompt方法需要定义一个新的label集合,该集合中的所有label都是预训练模型vocab里的word:

每个label都会对应若干新的label集合。通过取每个标签的并集,最终得到一个整体字典集合。

比如在情感分析中,label y = POSITIVE,它的prompt方法对应的新label集合为{great, good, wonderful...}。

除了重新定义label,prompt-learning的另一个重要的是模板T(.),该模板很好理解,就是在原始的输入文本最后,加入一些新的token,其中使用[MASK]作为预测在上述构建新的label集合中的分类。

因此,一个分类问题就变为预训练模型最擅长的预测[MASK]的语言模型问题(PLM:在本领域作战,岂能败乎?):

实体分类的Prompt-learning

一共分为3部分:

构建新的label;适应于该分类的模板T(.);以及训练Training。

新的Label集合

针对每一个原始label,寻找其类似的且不能和其他原始label产生模糊性,比如city有十个相近的词(通过该工具查找:https://relatedwords.org):

metropolis, town, municipality, urban, suburb, municipal, megalopolis, civilization, downtown, country

他们就和CITY这原始label有这很强的联系,但是和类似的原始label:LOCATION却没有很大的关联。

在MLM预测的时候,比如原始label:CITY预测的分数为对应的新的label集合预测的分数的加权和:

其中,lambda为新label集合每个词的重要性指标,可作为超参,也可作为训练参数。

模板

模板有两种,一种是hard版本,就是自己设计好,这种版本作者设计了3个:

还有一种soft版本的,就是

其中,[Ent]为x中的实体copy,[P]为开始符,[Pi]也为新加入的tokens,l为超参,这些新的tokens都是随机初始化并参与训练的。

训练和推理

为φ为模板的参数,θ为预训练模型参数,loss采用交叉熵:

推理直接采用上面的公式3。

针对zero-shot的自监督Prompt-learning

上面的都是有训练数据集的情况,而针对没有训练数据的zero-shot问题来说,就不适用了。

作者发现比如一句话:

Steve Jobs found Apple. In this sentence, Steve Jobs is a [MASK]

中的Steve Jobs预测为person的概率要远大于location,作者认为合理地利用这个优越的初始化点,就有可能使plm自动总结类型信息,并最终提取正确的实体类型。

作者认为相同的实体在不同的句子中具有类似的类型,比如

“Steve Jobs” 在不同句子中可以为entrepreneur, designer, philanthropist

所以优化同样的实体的句子使得它们的预测具有相同的分布。这种方法在自监督学习中不仅弱化了监督性,也加强了除了实体词外其他词的重要性。

如上图所示,其中作者为了防止过拟合,也采用[HIDE]的方法来替代实体,根据实验选择0.4的概率。

其中JS为Jensen-Shannon divergence,主要为了使两分布更加相近。

另外也找了正负样例,其中负样例来自一个大型的实体链接库(English Wikipedia)。

实验

实验的数据分布

在few-shot情况下的性能比较

可以发现训练数据越少该方法性能越高,而且是断层式提高。

Hard和Soft模板在全量数据下的性能

在zero-shot下未使用和使用自监督学习的方法对比,展示自监督的有效性

以及对比图

最后,作者也做了在few-shot为8-shot的情况下模板的对比

可以看出,数量较少情况下,可训练的soft-encoding的模板性能更加好。

感兴趣的小伙伴可以亲自看看去,真是很适合阅读的一篇佳作。


投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

整理不易,还望给个在看!

清华提出:用于细粒度实体分类的Prompt-Learning,并提出可训练Prompt模板相关推荐

  1. 《AFTrans》来自ViT的免费午餐!北大阿里提出用于细粒度视觉识别的自适应注意多尺度融合Transformer...

    关注公众号,发现CV技术之美 本文分享论文『A free lunch from ViT- Adaptive Attention Multi-scale Fusion Transformer for F ...

  2. 在双曲空间进行细粒度实体分类

    Fine-Grained Entity Typing in Hyperbolic Space 论文地址:https://aclanthology.org/W19-4319/ 代码:https://gi ...

  3. 对最近用于细粒度车辆分类的深度学习架构的系统评估

    细粒度的车辆分类是对车辆的品牌.型号和年份进行分类的任务. 这是一项非常具有挑战性的任务,因为不同类型但颜色和视点相似的车辆通常看起来比相同类型但颜色和视点不同的车辆更相似. 车辆制造商.型号和年份与 ...

  4. 关于最近用于细粒度车辆分类的深度学习框架的系统评估

    本文是一篇关于细粒度分类的深度框架评估的论文,主要利用最有前景的CNN进行了各种实验,探究了直接微调具有SOTA性能的CNN在图像分类任务上的潜能.可以作为车辆再识别与车辆细粒度分类的一个知识补充. ...

  5. 带你读AI论文丨用于细粒度分类的Transformer结构—TransFG

    摘要:本文解读了<TransFG: A Transformer Architecture for Fine-grained Recognition>,该论文针对细粒度分类任务,提出了对应的 ...

  6. 【CVPR2020-中科院-腾讯优图】基于注意力卷积二叉神经树的细粒度视觉分类

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 本文由腾讯优图实验室和中科院软件所联合提出.细粒度视觉分类(Fine-Graine ...

  7. 综述!Prompt 学习和微调(Prompt Learning and Tuning)

    作者丨Jarvis73 整理丨极市平台 https://zhuanlan.zhihu.com/p/601905339 大家好,这里是 NewBeeNLP. Self-Attention 和 Trans ...

  8. Prompt 学习和微调综述 (Prompt Learning and Tuning)

    原文:Prompt 学习和微调综述 (Prompt Learning and Tuning) 一文总结Prompt Learning/Tuning. >>加入极市CV技术交流群,走在计算机 ...

  9. Domain Adaptation via Prompt Learning

    论文地址:https://arxiv.org/abs/2202.06687 Abstract 本文提出的DAPL ( Domain Adaptation via Prompt Learning ) 使 ...

  10. Prompt learning系列之入门篇

    提纲 1 简介 2 NLP发展的四个阶段 3 Prompt learning 4 Prompt engineering 5 Answer engineering 6 Multi-prompt lear ...

最新文章

  1. 验证apk签名方式(V1 || V2)
  2. 算法设计与分析:芯片测试问题、选择问题详解
  3. 集成测试CDI 1.0和Spring 3.1中的作用域bean
  4. 全局路径规划:图搜索算法介绍3(A stars tie breaker)
  5. python交互模式中换行_在Python日志模式中禁止换行
  6. OpenCV官方网站:这里可以白嫖教程、检索API、下载例程
  7. 计算机制图知识点,工程制图的基础知识
  8. 计算机指令执行过程详解
  9. 【Git】使用gitblit搭建一个简单的局域网服务器
  10. zblog php模板偷,zblogPHP仿站+定制模板 - 模板ID code
  11. 大一java怎么学好_大一学习 JAVA
  12. 论表现手法与表达方式
  13. 资讯和兴趣好烦,如何彻底关闭它?
  14. (五证合一)法人和其他组织统一社会信用代码编码规则
  15. 通过云端自动生成openmv的神经网络模型,进行目标检测
  16. Segment,Packet,Frame等区别与联系
  17. 虹科教您 | 理解微波射频中的特性阻抗、VSWR 和反射系数
  18. 比echarts还好用的数据可视化软件
  19. bzoj2038: [2009国家集训队]小Z的袜子(hose)(莫队)
  20. 视频转码服务架构说明书

热门文章

  1. bzoj2756: [SCOI2012]奇怪的游戏
  2. 在mysql中存储生日,php中计算今天是否为用户生日
  3. jquery操作下拉框(select)的一些说明
  4. 跟我一起认识axure(二)
  5. c# 异常处理 try-catch-finally
  6. XJOI 3864 农村连接城市
  7. spring boot RESTFul API拦截 以及Filter和interceptor 、Aspect区别
  8. 现代软件工程个人作业进度
  9. 【Ansible 文档】【译文】Ad-Hoc 命令介绍
  10. 如何保证数据库结构的合理性(三、建立可靠的关系)