小样本学习&元学习经典论文整理||持续更新

核心思想

  本文提出一种基于图神经网络的小样本学习算法(DPGN)。先前基于图神经网络的小样本算法通常将每个样本当作一个结点,然后通过结点之间的关系,来推导出未知结点的类别。本文不仅关心样本与样本之间的关系,而且关注样本的分布之间的关系。本文提出了一个双图神经网络模型,一个图用于描述样本(PG),一个图用于描述分布(DG)。PG通过聚合每个样本和其他所有样本之间的关系来得到DG,DG又利用每对样本分布之间的关系来优化PG,这种循环信息传递关系将实例级别和分布级别的关系融合起来。本文提出模型的整体流程如下图所示

   G l p = ( V l p , E l p ) G_l^p=(V_l^p,E_l^p) Glp​=(Vlp​,Elp​),表示第 l l l代样本图PG, V l p = { v l , i p } V_l^p=\left \{v^p_{l,i}\right \} Vlp​={vl,ip​}表示节点集合,每个节点表示一个样本的特征向量, E l p = { e l , i j p } E_l^p=\left \{e^p_{l,ij}\right \} Elp​={el,ijp​}表示边集合,每个边描述两个样本之间的关系; G l d = ( V l d , E l d ) G_l^d=(V_l^d,E_l^d) Gld​=(Vld​,Eld​),表示第 l l l代分布图DG, V l d = { v l , i d } V_l^d=\left \{v^d_{l,i}\right \} Vld​={vl,id​}表示节点集合,每个节点表示一个样本的分布, E l d = { e l , i j d } E_l^d=\left \{e^d_{l,ij}\right \} Eld​={el,ijd​}表示边集合,每个边描述两个分布之间的关系。
  首先,利用特征提取网络 f e m b f_{emb} femb​提取支持集图像和查询集图像对应的特征向量,并用其初始化第一代样本图的节点 v 0 , i p v_{0,i}^p v0,ip​

然后利用结点间的相似性关系来描述边 e 0 , i j p e_{0,ij}^p e0,ijp​

对于第 l > 0 l>0 l>0代的样本图,边的计算方式如下

其中 f e l p f_{e_l^p} felp​​表示一个编码网络。得到样本图PG后,接着计算分布图DG,DG的目的是整合每个节点之间的联系,从而得到分布之间的关系,因此DG的每个节点 v l , i d v_{l,i}^d vl,id​都是一个NK维(N-way K-shot)的特征向量,第 j j j行就描述了样本 i i i和样本 j j j之间的关系。第一代分布图DG节点 v 0 , i d v_{0,i}^d v0,id​的初始化方式如下

∣ ∣ || ∣∣表示级联操作, y i y_i yi​表示样本 i i i的标签,如果 y i = y j y_i=y_j yi​=yj​则 δ ( y i , y j ) = 1 \delta(y_i,y_j)=1 δ(yi​,yj​)=1,否则为0。对于 l > 0 l>0 l>0代的分布图,其节点计算方式如下

其聚合了样本图中每个节点之间的关系 e l , i j p e^p_{l,ij} el,ijp​和上一代分布图中该节点的信息 v l − 1 , i d v^d_{l-1,i} vl−1,id​, P 2 D P2D P2D表示PG到DG的传播过程。分布图DG中边的计算方式与PG类似,计算过程如下


其表征了每个分布之间的相似性关系。最后,利用DG推导出下一代样本图PG中的节点信息,计算过程如下

D 2 P D2P D2P表示DG到PG的聚合网络。整个更新过程如下图所示

DPGN的整个传播过程可以概括为

由样本图的边 E l p E_l^p Elp​得到分布图的节点 V l d V^d_l Vld​,再得到分布图的边 E l d E_l^d Eld​,进而推导出样本图的节点 V l p V^p_{l} Vlp​,最后得到下一代样本的边 E l + 1 p E_{l+1}^p El+1p​完成一个循环过程。

实现过程

网络结构

  特征提取网络可采用任意卷积神经网络结构(ConvNet-4,ResNet-12,ResNet-18等); f e l p f_{e_l^p} felp​​和 f e l d f_{e_l^d} feld​​均是由两个Conv-BN-ReLU的卷积块构成; P 2 D P2D P2D是由一个带有ReLU的全连接层构成; D 2 P D2P D2P由两个Conv-BN-ReLU的卷积块构成。

损失函数

  本文最终预测结果计算方式如下

损失函数包含两个部分:样本损失和分布损失。样本损失计算过程如下

分布损失计算过程如下

总的损失函数为

可以看到是将所有代图模型的结果都进行了损失计算。

算法推广

  本文提出的模型还可以采用半监督学习或直推学习的模式

创新点

  • 提出一种包含分布图和样本图的双图神经网络模型,用于小样本学习任务
  • 建立起分布图和样本图之间的循环传播过程,融合了实例级和分布级的关系

算法评价

  本文提出的图模型相较于先前的小样本学习算法都有明显的效果提升,在有监督学习条件下性能提升5%-12%,在半监督学习条件下性能提升7%-13%,这也展示了图神经网络在小样本学习问题中的巨大潜力,可能取代简单的度量学习方式成为未来研究的主流方向。

如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。

论文阅读笔记《DPGN: Distribution Propagation Graph Network for Few-shot Learning》相关推荐

  1. 《Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs》论文阅读笔记

    <Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs>论文阅读笔记 主要挑战贡献: KG上的推理挑战主要 ...

  2. 论文阅读 | NIPS‘20 | Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs

    很有意思的一篇paper.在众多Knowledge Graph Embedding (KGE) 的论文中通过问题设计和有意思的解决方式脱颖而出. 首先来看看问题设计. 一般的KGE model都是利用 ...

  3. Beta Distribution Guided Aspect-aware Graph for Aspect Category Sentiment Analysis论文阅读笔记(EMNLP2021)

    目录 标题翻译:基于Beta分布引导方面感知图的方面类别情感分析 原文链接:https://aclanthology.org/2021.emnlp-main.19.pdf 摘要: 1 引言 2 相关工 ...

  4. Phrase-BERT: Improved Phrase Embeddings from BERT with an Application to Corpus Exploration论文阅读笔记

    问题: 因为bert是在长文本(512token长度)预训练的,因此,如果没有特定于任务的微调,BERT在短语和句子上的表现通常比简单基线(如GLoVe的平均池化)更差.且字节2020在EMNLP上的 ...

  5. DeepWeak: Reasoning Common Software Weaknesses via Knowledge Graph Embedding 阅读笔记

    DeepWeak: Reasoning Common Software Weaknesses via Knowledge Graph Embedding 阅读笔记 Article Background ...

  6. [论文阅读笔记] Are Meta-Paths Necessary, Revisiting Heterogeneous Graph Embeddings

    [论文阅读笔记] Are Meta-Paths Necessary? Revisiting Heterogeneous Graph Embeddings 购物返利 www.cpa5.cn 本文结构 解 ...

  7. 论文阅读笔记—Reasoning on Knowledge Graphs with Debate Dynamics(AAAI,2020)

    这是一篇非常有趣的工作,看完会觉得眼前一亮. 论文标题:Reasoning on Knowledge Graphs with Debate Dynamics 发表于AAAI,2020 动机  很多机器 ...

  8. 论文阅读笔记——《a simple but tough-to-beat baseline for sentence embeddings》

    <a simple but tough-to-beat baseline for sentence embeddings>published at ICLR 2017. ICLR会议的论文 ...

  9. Learning Hierarchy-Aware Knowledge Graph Embeddings for Link Prediction论文阅读笔记

    我的博客链接 0. 前言 1. 作者试图解决什么问题? 作者想在KGE中对语义层级(semantic hierarchies)进行建模. 2. 这篇论文的关键元素是什么? semantic hiera ...

  10. 斯坦福图机器学习CS224W笔记自用: Reasoning in Knowledge Graphs using Embeddings

    1. 基于嵌入的知识图推理 目标:如何对知识图进行多跳推理? 知识图推理: 回答多跳查询 路径查询 连接查询 Query2box 示例:生物医学图 知识图谱上的预测查询 我们是否可以进行多跳推理,即在 ...

最新文章

  1. 融合与Web应用 2011年安全领域趋势展望
  2. 前端神器—Google Chrome Devtools细节详解
  3. NPAPI——实现非IE浏览器的类似ActiveX的本地程序(插件)调用
  4. 52次课(mysql用户管理、常用sql语句、 mysql数据库备份恢复)
  5. python中func函数用法_python之4类回调函数的使用方法
  6. 机器人视觉场景理解挑战赛
  7. Java面试之线程池详细
  8. r语言liftchart_R语言强大的绘图功能--附数据和代码
  9. 新书介绍:CCNA基础教程
  10. mysql 慢查询日志路径_mysql的慢查询日志
  11. chromeOS介绍
  12. 【MPEG】DVB / ATSC / ISDB区别
  13. charles 修改responses属性
  14. wap实现手机充话费
  15. 中国自由软件推广先锋的自述,心潮澎湃的一往无前,一定要看!作者:洪峰...
  16. 安卓11客制需求:用户无操作一段时间,自动播放客户提供的视频,用户操作后退出播放
  17. [杂记]LeTeX模板——ppt
  18. 这些有趣的AI人脸特效背后,腾讯云都做了什么?
  19. 时间序列分析专题(二)
  20. achb的c语言题目,C语言程序设题目及解答-09.doc

热门文章

  1. Python爬虫图片学习(一)
  2. 计算机综合症怎么治,电脑综合症的治疗方法有哪些?
  3. 逻辑回归(logistics regression)与 softmax
  4. SIGAI机器学习算法地图
  5. Mars3D认识与理解
  6. COMP9315 课堂笔记 week3 lecture3
  7. 身份验证漏洞 之 身法提升篇
  8. 关于redis出现6379端口号异常处理方法
  9. 4T硬盘安装操作系统
  10. 使用 extfat + nvme 磁盘,将写入速度提升到5GB/s