Ontology-enhanced Prompt-tuning for Few-shot Learning

本文仅供参考、交流、学习
论文地址:https://arxiv.org/abs/2201.11332
代码和数据集地址:暂无

1. 摘要

  小样本学习(FSL)的目标是基于有限数量的样本进行预测。结构化数据(如知识图谱和本体库)已经被用来协助各种任务中的小样本情况。然而,现有方法所采用的先验存在知识缺失、知识噪声和知识异质性等问题,影响了小样本学习的性能。在本研究中,我们探讨基于预训练语言模型的FSL知识注入,并提出本体增强提示调优(OntoPrompt)。具体来说,我们开发了基于外部知识图的本体转换来解决知识缺失问题,实现了结构知识向文本的转换。在此基础上,引入了基于可见矩阵的跨敏感知识注入方法来选择信息丰富的知识,以解决知识噪声问题。为了弥合知识与文本之间的鸿沟,我们提出了一种集体训练算法来共同优化表示。我们用8个数据集,在关系抽取、事件抽取和知识图补全三个任务中评估了我们提出的OntoPrompt。实验结果表明,该方法可以获得比基线更好的小样本性能。

2. 小样本存在的问题

  1. 知识缺失: 由于外部知识库的不完备,知识注入可能无法检索到与任务相关的事实,从而无法为下游任务提供有用甚至无关的信息。如何丰富与任务相关的知识是一个重要的问题;
  2. 知识噪声: 以往的研究表明,并不是所有的知识都对下游任务有益,不加选择的知识注入可能导致负性知识注入,不利于下游任务的执行;
  3. 知识异质性: 下游任务的语言语料库与注入知识的语料库有很大的不同,导致两个独立的向量表示。如何设计一种融合知识信息的特殊联合训练目标是另一个挑战。

3. 解决方法

3.1 本体转换

  本文提出了本体转换方法,将结构知识丰富并转化为文本形式。具体来说,我们利用预定义的模板作为提示将知识转换为文本。我们利用预定义的模板作为提示将知识转换为文本。提示调优可以减少训练前模型任务和下游任务之间的差距。例如,给定一个句子,“Turing entered King’s College, Cambridge in 1931, and then went to Princeton University to study for a doctorate,”我们可以根据本体将它们归纳为一个知识丰富的提示:“Turing [MASK] King’s College, Cambridge.”,语言模型应该在掩码位置预测标签字符,以确定输入的标签。需要注意的是,作为提示的本体将实体知识放置到输入文本中,该文本与模型无关,可以插入任何类型的预训练语言模型中。

3.2 基于广度敏感的知识注入

  提出了基于广度敏感的知识i注入方法,以选择信息知识并降低注入噪声。由于并非所有的外部知识都能对下游任务有利,一些无关的、嘈杂的知识可能会导致原句的含义发生变化,我们利用一个基于广度的可见矩阵及其对应的外部知识对知识注入进行引导。这样,并不是输入句子中的所有标记都受到外部知识的影响。

3.3 集体训练算法

  本文提出了一种集体训练算法来共同优化表示。注意,注入的外部知识应该与周围的环境相关联;我们添加了一些随机初始化的可学习标记,并对这些标记和注入的本体标记进行了优化。在之前的研究的启发下,低数据状态下的提示调优是不稳定的,可能会获得较差的性能,我们进一步优化所有参数,以集体训练本体文本和输入表示。

4. 具体方案

  OntoPrompt是一个通用框架,可以应用于广泛的应用程序,如图2所示。我们在三个流行
任务中评估了我们的方法,即关系抽取(RE),事件抽取(EE)和知识图完成(KGC)。在注入本体知识的过程中,引入本体转换,将结构知识转化为原始文本(本体文本)。我们将这些原始文本视为辅助提示,并将它们附加到输入序列和提示模板中。请注意,那些本体文本,包括文本描述,可以提供关于上述实体/跨度的本体的语义信息。在微调过程中,我们将这些知识整合到广度敏感知识注入中,以避免外部干扰。我们进一步引入集体训练,共同优化提示和语言模型。

图2

4.1 带有提示调优的通用框架

  设Xin={x1,x2,...,xL}X_{in}=\{x_1,x_2,...,x_L\}Xin​={x1​,x2​,...,xL​}是一个句子,xix_ixi​是输入句子中的第iii个字符,LLL是字符数。具体来说,XinX_{in}Xin​被转换为固定的字符序列Xˉin\bar{X}_{in}Xˉin​,然后映射到隐向量序列{hk∈Rdh_k\in R^dhk​∈Rd}。给定输入序列X~in=[CLS]Xin[SEP]\tilde{X}_{in}=[CLS]X_{in}[SEP]X~in​=[CLS]Xin​[SEP],普通的微调方法在[CLS][CLS][CLS]嵌入上利用一个通用的头层来预测输出类(例如,一个MLP层)。在本文中,我们遵循先前的提示调优研究Making Pre-trained Language Models Better Few-shot Learners,并使用特定于任务的模式字符串([Template] T)诱导模型产生与给定类(label token M(Y))相对应的文本输出。具体来说,XpromptX_{prompt}Xprompt​包含一个[MASK]字符,直接与语言模型输入任务如下:
Xprompt=[CLS]Xin[SEP]T[SEP](1)X_{prompt}=[CLS]X_{in}[SEP]T[SEP] \qquad (1) Xprompt​=[CLS]Xin​[SEP]T[SEP](1)
  当提示输入到语言模型时,模型可以得到候选类y∈Yy\in Yy∈Y的概率分布p([MASK]∣Xprompt)p([MASK]|X_{prompt})p([MASK]∣Xprompt​)为:
p(y∣Xprompt)=∑w∈Vyp([MASK]=w∣Xprompt)(2)p(y|X_{prompt})=\sum_{w\in V_y}p([MASK]=w|X_{prompt}) \qquad (2) p(y∣Xprompt​)=w∈Vy​∑​p([MASK]=w∣Xprompt​)(2)
其中w表示类y的第w个标签字符。
  本文将本体文本(从外部知识图中获取)作为注入知识的辅助提示,并将其附加到如图2所示的输入序列模板中。利用本体转换构造辅助提示,可以注入丰富的任务和实例相关知识。这些辅助提示在一定程度上类似于Making Pre-trained Language Models Better Few-shot Learners中的演示;然而,辅助提示并不是集中训练的实例,而是来自于外部知识。

4.2 本体转换

  本文中,本体表示的表示为O={C,E,D}O=\{C,E,D\}O={C,E,D},C是一组概念,E是本体之间的连接边,D是每个本体的文本描述(本体模式包含一个段落的文本描述,而且它们具有词法有意义的信息的概念,它也可以通过使用属性的三元组表示,例如rdfs:comment。)这里的概念集是指特定于领域的概念。例如,在关系抽取和事件抽取中,我们利用与上述实体相关的类型本体。我们利用领域(即头部实体类型)和范围(即尾部实体类型)约束来完成知识图。
  针对下游任务的差异,我们为每个任务利用不同的本体来源进行本体转换。我们首先从外部知识图中提取每个实例的本体,然后将这些本体(rdfs:comment)转换为原始文本作为辅助提示。

4.2.1 应用于关系抽取

  我们利用MUC(Message Understanding Conference),它定义了命名实体的概念。注意,命名实体可以提供重要的类型信息,这有利于关系抽取。我们利用这些定义作为本体模式中的文本描述。具体来说,使用[CLS] <InputText> [SEP] <Template> [SEP] <OntologyText> [SEP]作为最终输入序列。我们为<OntologyText>中的实体构造占位符,并用外部文本描述替换这些占位符。此外,我们利用本体中实体对之间的路径作为元关系文本来增强<OntologyText>,如图2所示。
  我们进一步在[MASK]的两侧添加可学习的标记作为虚拟标记,以便模型能够自动学习最适合提示符的单词。具体来说,我们使用几个未使用的字符[u1]-[u4](例如,词表中未使用的或特殊的字符)作为虚拟字符。

4.2.2 应用于事件抽取

  我们遵循Zero-Shot Transfer Learning for Event Extraction的工作来构建事件抽取的本体。我们首先利用ACE事件模式作为基本事件本体。ACE2005语料库包含丰富的事件注释,目前可用于33种类型。然而,在现实场景中,可能有数千种类型的事件。为了便于在训练样本有限的情况下进行推理,我们将33个ACE事件类型和论元角色与FrameNet中的1161个帧整合在一起,构建了一个更大的事件本体用于事件提取。我们手动将选定的框架映射到事件本体。同样的,我们用[CLS] <InputText> [SEP] <Template> [SEP] <OntologyText> [SEP]作为输入序列。我们为触发器构造占位符并在<OntologyText>中输入。
  与关系抽取类似,我们还利用可学习的虚拟令牌来增强提示表示。

4.2.3 应用于知识图谱补全

  我们使用从外部Wikidata查询中获得的相应条目作为本体的来源,提取文本描述。继KG-BERT之后,我们将知识图谱补全视为一个三重分类任务,并将实体和关系连接为一个输入序列。
与上述任务类似,我们用[CLS] <InputText> [SEP] <Template> [SEP] <OntologyText> [SEP]作为输入序列。
  我们还使用可学习的虚拟令牌来增强提示表示。在推理过程中,我们根据语言模型预测的句子的最大概率对输出分数进行排序,并计算黄金标准实体的命中次数,以评估该方法的性能。

4.3 文段感知的知识注入

图3

  正如K-BERT: Enabling Language Representation with Knowledge Graph所观察到的,过多的知识注入可能会在原始文本中引入一些噪声,并导致性能下降。为了解决这个问题,我们提出了文段感知知识注入,如图3所示。给定有L个字符的输入序列Xin=[x1,x2,...,xL]X_{in}=[x_1,x_2,...,x_L]Xin​=[x1​,x2​,...,xL​],我们使用可见矩阵来限制知识注入对输入文本的影响。在语言模型体系结构中,在softmax层之前添加带有自我注意权值的注意掩码矩阵。因此,我们对注意掩码矩阵M进行如下修改:

  其中xix_ixi​和xjx_jxj​分别是来自xinx_{in}xin​和本体文本的字符,−∞-\infty−∞在注意掩码矩阵中阻止字符 i 注意到字符 j,0允许字符 i 注意到字符 j。在以下情况xix_ixi​可以关注xix_ixi​:两个字符都属于xinputx_inputxi​nput,或者两个字符都属于同一本体的文本描述xox_oxo​,或者是xix_ixi​是实体在xinputx_{input}xinput​中文段的位置的字符,xjx_jxj​来自其本体表述文本xox^oxo。pkp_kpk​表示所提到的范围(例如,关系抽取中的实体和知识图谱补全、触发器或事件抽取中的参数)在输入文本中的位置。

4.4 集中训练

  注意,那些从本体转换中注入的字符应该与输入序列相关联。因此,我们引入集体训练来优化本体字符和输入序列。首先,我们对本体字符进行实词嵌入初始化,并在固定语言模型的情况下对本体字符进行优化。然后对模型的所有参数进行优化,包括语言模型和本体字符。注意,我们的模型并不依赖于特定的模型体系结构;因此,它可以插入任何一种预先训练的语言模型,如BERT、BART。

5. 实验结果

关系抽取

事件抽取

知识图谱补全

Ontology-enhanced Prompt-tuning for Few-shot Learning相关推荐

  1. 【NLP】五万字综述!Prompt Tuning:深度解读一种新的微调范式

    作者 | 王嘉宁 整理 | NewBeeNLP https://wjn1996.blog.csdn.net/article/details/120607050 这绝对是我看过最全面细致的Prompt ...

  2. 直播活动丨BMMeetup第1期:大模型Prompt Tuning技术,8场学术报告和Poster提前下载...

    「Big Model Meetup」系列活动是由智源研究院悟道团队.青源会.清华大学计算机科学与技术系博硕论坛.中国中文信息学会青年工作委员会共同组织,智源社区提供社区支持,PaperWeekly提供 ...

  3. 线下活动丨Big Model Meetup 第1期:大模型Prompt Tuning技术,8场学术报告和Poster展示...

    「Big Model Meetup」系列活动是由智源研究院悟道团队.青源会.清华大学计算机科学与技术系博硕论坛.中国中文信息学会青年工作委员会共同组织,智源社区提供社区支持,PaperWeekly提供 ...

  4. prompt tuning

    Prompt-Tuning--深度解读一种新的微调范式 prompt tuning 整体解读 连续pattern构建论文解读整理 prompt tuning 整体解读 1级:Prompt是一种对任务的 ...

  5. 多模态Prompt Tuning,你到底行不行?

    作者丨霜清老人@知乎 编辑丨极市平台 https://zhuanlan.zhihu.com/p/550544232 一次关于将prompt tuning应用到生成式多模态预训练模型的尝试. 最近两个月 ...

  6. 《CPT COLORFUL PROMPT TUNING FOR PRE-TRAINED》 论文笔记

    文章目录 摘要 1. NTRODUCTION 2 PRELIMINARY 3. CROSS-MODAL P ROMPT TUNING (CPT) 3.1 OVERVIEW 3.2 VISUAL SUB ...

  7. Prompt Pre-training:迈向更强大的Parameter-Efficient Prompt Tuning

    ©PaperWeekly 原创 · 作者 | 李国趸 单位 | 浙江大学硕士生 研究方向 | 少样本学习 前言 从 prompt learning 的发展来看,一开始关注的是将任务建模成和预训练相近的 ...

  8. (转)Paper list of Meta Learning/ Learning to Learn/ One Shot Learning/ Lifelong Learning

    Meta Learning/ Learning to Learn/ One Shot Learning/ Lifelong Learning 2018-08-03 19:16:56 本文转自:http ...

  9. 清华大学刘知远组:基于Prompt Tuning对低维本征任务子空间进行探索

    ©作者 | 曾伟豪 学校 | 北京邮电大学 研究方向 | 对话摘要生成 论文标题: Exploring Low-dimensional Intrinsic Task Subspace via Prom ...

  10. CPT:刷爆少样本REC任务!清华刘知远团队提出跨模态预训练Prompt Tuning

    关注公众号,发现CV技术之美 本文分享论文『CPT: Colorful Prompt Tuning for Pre-trained Vision-Language Models』,由清华刘知远团队提出 ...

最新文章

  1. CentOS7 service network start命令启动时报错解决方法
  2. 接口自动化测试系列(一):HTTP状态码
  3. 9、mybatis中动态sql的使用
  4. T-SQL语句学习(三)
  5. Canvas 画占比图 解决canvas锯齿 bug
  6. @PathVariable、@RequestHeader与@CookieValue注解的使用案例
  7. Leetcode 392.判断子序列
  8. 图像形状特征(八)--SC形状上下文
  9. 手把手教你搭建Java 开发环境
  10. smartprinter注册版_SmartPrinter免费版
  11. 闲谈IPv6-为了每一粒沙,真实的代价!
  12. 海量数据相似度计算之simhash短文本查找
  13. Mysql表和数据的复制操作
  14. python之二进制
  15. java版怎么玩空岛,我的世界空岛指令是什么?怎么玩?
  16. pdf合并在线,大家都在用的工具
  17. 2019_WWW_Dual graph attention networks for deep latent representation of multifaceted social effect
  18. 微信导航的门户网站(曾经的创业故事4)
  19. C语言fwrite函数
  20. Mysql索引的本质深入浅出(一)

热门文章

  1. 京东商城刘强东他的创业经验和京东的发展思路
  2. 使用Python开发Android软件
  3. 协方差基本概念及公式
  4. 起点java_二月二的java起点
  5. 一些高尔夫模拟器的比较:TruGolf、Foresight GC2、Visual Sports
  6. 马化腾称露露事件值得团队警醒 并打赏原作者200元
  7. onbeforeunload事件
  8. css 和常用快捷键
  9. 码支付彩虹易支付对接银联前置插件-申请银联进件-银联对接易支付接口程序搭建-制作自己的支付系统(2)
  10. 华为设备配置使用静态端口实现基于VLAN的二层组播