【Few-Shot Segmentation论文阅读笔记】PANet: Few-Shot Image Semantic Segmentation with Prototype , ICCV, 2019
Abstract
Target Question: Few-shot Segmentation
本文主要工作:
基于metric-learning的思想,本文提出了PANet(Prototype Alignment network),能够更好地利用support set中包含的语义信息,实现小样本语义分割。
算法优点:
- segmentation阶段没有引入额外的learnable parameters, 减少了over-fitting的可能性
- Prototype embedding & prediction都是直接作用于feature maps,无需在网络结构中进行额外的信息传递
- 由于PAR只作用于训练阶段,因为不会影响inference cost.
Contributions:
- 本文提出了一个简单而有效的PANet框架,该模型使用metric learning over prototypes的方法,与之前的基于parametric classification的架构有明显区别
- PAR模块,使得query set和support set相互引导,充分利用率support set包含的信息,提高了性能
- 本文提出的PANet在weak annotations数据集上效果也很突出。
Comments: (引用于 https://blog.csdn.net/qq_36104364/article/details/106781918 )
- 创新点
- 采用基于原型网络的结构实现了小样本语义分割任务
- 设计了PAR方法,充分利用支持集图像信息,提高分割的准确性
- 算法评价:本文在很大程度上沿用了原型网络的思想,只不过将对一个图片的类别预测,改为了对每个像素的类别进行预测,设计的PAR方法非常有趣,有点类似于立体匹配中的左右一致性检测,由查询集的结果返回去预测支持集的结果,二者可以相互印证,的确是很有创新性的想法。本文还有一个进步,就是支持集中可以包含多个类别的图像,然后可以实现对查询集图像中多个类别物体的分割。我对本文存在的一点疑惑就是关于计算时间的问题,因为对每个像素都计算距离,并预测类别计算量可能会比较大,作者在文中并没有提及如何解决计算复杂度的问题。
代码: https://github.com/kaixin96/PANet
1. Method
计算过程:
- Step1: Feature Extraction: 对于每个Episode, 首先提取support and query features by a shared backbone network
- Step2: 计算Prototypes: 在support features上应用Masked Average Pooling, 计算每个类别的prototype:
本文采用了后混合掩码(late fusion mask)的方式,即:先提取特征图,再对特征图进行掩码。相对于先掩码(early fusion mask,即:就是先对输入图像进行掩码操作,然后再提取特征图)而言,能够保证输入到feature extractor的query和support input的一致性。得到掩码后的特征图,通过平均池化的方式计算得到每个类别对应的原型向量,计算过程如下:
- Step3: 生成预测结果:label each pixel of query images as the class of the nearest prototypes
- Calculate the distance between the query feature vector at each spatial location with each computed prototypes.
- Apply a softmax over the distances to produce a probability over semantic classes (including background)
- The final predicted result is then given by the max function
Step4:PAR (query-to-support):将predicted mask 和 query features 作为新的support set, 求取其对应的prototypes,再对原来的support set进行分割,从而获取反向信息。
想法:如果模型能够预测一个好的mask for query images,那么反过来用query images+predicted mask生成prototypes,也应该能够很好的分割support set。
==>使得query<==>support互相督促,学习更多有用的信息。
注意:该过程只应用于训练阶段。
具体实现发方法同步骤(2)和步骤(3),与之不同的仅在于用query features+predicted mask作为新的support set生成prototypes, 对原始的support set进行预测。
1.1 Generation to weaker annotations
PANet can work well by using only weak annotations, e.g, Scribbles + bounding box.
说明其具有如下优点:
- Easy to obtain weaker annotations than dense annotations
- By using late fusion strategy, it is also easy to be extended to images with weak annotations.
2. Experiments
数据集:
- PASCAL-5i [21]+ SBD [7]:20类分成4组,进行较差验证
- COCO 20i [8]:80类分成4组,进行较差验证
评估标准:
- Mean-IoU,[21, 28] ,本文关注
- Binary-IoU [16, 4, 8]
实现细节:
- VGG-16 pretrained on ILSVRC[19]
- 将图片resize为417*417
- 使用random horizontal flipping做Data Augmentation
- SGD,动量=0.9,30000次迭代;初始学习率为1e-3,每1W次减少0.1;weight decay是0.0005, batch size=1.
2.2 Comparison with SOTAs
PASCAL-5i
定量分析:
- Table 1:给出了1-way 1-shot & 5-shot的结果,mean-IoU作为指标
- Table 2:给出了1-way 1-shot & 5-shot的结果,binary-IoU作为指标
- Table 3:2-wau 1-shot & 5-shot
△ 表示5-shot相对于1-shot上性能的提升,可以看到本文算法提升很大,其他算法却不是很明显,说明了本文算法能够有效的获取support knowledge.
本文方法存在的问题:
- Tends to give segmentation results with unnatural patches,这可能是因为it predicts independently at each location,但是该问题可以被后处理解决。
- 模型不能区分chairs和tables, 由于他们具有相似的prototypes in embedding space.
定性分析:
MSCOCO-20i
- Table 4: 1-way 1-shot & 5-shot
2.3 Analysis PAR
- Aligning embedding prototypes: 消融实验
- 证明PAR是有效的(表格5),且能帮助更快的收敛(图5)
2.4 Test with weak annotations
- Scribble + bounding box annotation (Table 6 + Figure 6)
在测试阶段,将pixel-level annotation换成scribble和bounding box annotation.
实验结果:在1-shot上,bbox优于scribble;而在5-shot上scribble优于bbox,原因可能是由于bbox会涵盖更多的噪声
3. Related Work
问题1:基于DL的语义分割需要大量的有标签数据,但是获取这类标签是耗时耗力的。
于是有了semi-/weakly-supervised learning methods:
- [26] Yunchao Wei, Jiashi Feng, Xiaodan Liang, Ming-Ming Cheng, Yao Zhao, and Shuicheng Yan. Object region mining with adversarial erasing: A simple classification to semantic segmentation approach. In Proceedings of the IEEE con- ference on computer vision and pattern recognition, pages 1568–1576, 2017
- [3] Jifeng Dai, Kaiming He, and Jian Sun. Boxsup: Exploit- ing bounding boxes to supervise convolutional networks for semantic segmentation. In Proceedings of the IEEE Inter- national Conference on Computer Vision, pages 1635–1643, 2015.
- [9] Di Lin, Jifeng Dai, Jiaya Jia, Kaiming He, and Jian Sun. Scribblesup: Scribble-supervised convolutional networks for semantic segmentation. In Proceedings of the IEEE Con- ference on Computer Vision and Pattern Recognition, pages 3159–3167, 2016.
- [15] George Papandreou, Liang-Chieh Chen, Kevin P Murphy, and Alan L Yuille. Weakly-and semi-supervised learning of a deep convolutional network for semantic image segmenta- tion. In Proceedings ofthe IEEE international conference on computer vision, pages 1742–1750, 2015.
但是weakly和semi-supervised方法只能解决部分问题,但是仍需要大量的weakly annotations training images.
问题2:传统的基于DL的语义分割,Poor generation to unseen classes.
为了解决问题1+问题2==> Few-Shot Segmentation
Related Work:
- Few-shot Classification:
- Metric-learning based methods: [23, 24, 25]
- Optimization based methods: [18, 6]
- Graph-based methods: [20, 12, 14]
- Few-Shot Segmentation: (To Read)
- [21] Amirreza Shaban, Shray Bansal, Zhen Liu, Irfan Essa, and Byron Boots. One-shot learning for semantic segmentation. arXiv preprint arXiv:1709.03410, 2017.
- [17] Kate Rakelly, Evan Shelhamer, Trevor Darrell, Alexei A Efros, and Sergey Levine. Few-shot segmentation propagation with guided networks. arXiv preprint arXiv:1806.07373, 2018
- [4] Nanqing Dong and Eric P Xing. Few-shot semantic segmen- tation with prototype learning. In BMVC, volume 3, page 4, 2018.
- [28] Xiaolin Zhang, Yunchao Wei, Yi Yang, and Thomas Huang. Sg-one: Similarity guidance network for one-shot semantic segmentation. arXiv preprint arXiv:1810.09091, 2018.
- [8] Tao Hu, Pengwan, Chiliang Zhang, Gang Yu, Yadong Mu, and Cees G. M. Snoek. Attention-based multi-context guid- ing for few-shot semantic segmentation. 2018.
- [16] Kate Rakelly, Evan Shelhamer, Trevor Darrell, Alyosha Efros, and Sergey Levine. Conditional networks for few-shot semantic segmentation. 2018.
- Segmentation:
- [13, 10, 1, 29, 2]
- [13, 27, 2]
注意:
- 本文follow structure of FCN[13] + adopt dilated convolutions to enjoy a large receptive field.
- 本文follow [23] (prototypical network)的思想,并采用late fusion [17]策略 to incorporate the annotation masks, making it easier to generalize to cases with sparse or updating annotations.
4. Conclusion
本文提出了一种基于metric-learnng的PANet模型用于few-shot segmentation问题。PANet不仅能够提取鲁棒性的prototypes from the support set, 还能是由无参数的距离计算实现语义分割。在两个数据集上均取得更好的效果。
【Few-Shot Segmentation论文阅读笔记】PANet: Few-Shot Image Semantic Segmentation with Prototype , ICCV, 2019相关推荐
- DSSD : Deconvolutional Single Shot Detector论文阅读笔记
文章目录 DSSD : Deconvolutional Single Shot Detector论文阅读笔记2017 Abstract 1. Introduction 2. Related Work ...
- 解决参考图像分割中的随机性问题:MMNet: Multi-Mask Network for Referring Image Segmentation 论文阅读笔记
解决参考图像分割中的随机性问题:MMNet: Multi-Mask Network for Referring Image Segmentation 论文阅读笔记 一.Abstract 二.引言 三. ...
- 论文阅读 | Residual Conv-Deconv Grid Network for Semantic Segmentation
GridNet发表在BMVC2017,用于语义分割,一篇很早期的文章 论文地址:[here] (文章没有给代码地址,但是里面的网络设计讲的很详细,可以自己复现出来,github上也有很多别人复现的代码 ...
- 论文阅读 (88):Adversarial Examples for Semantic Segmentation and Object Detection
文章目录 1. 概述 2 算法 2.1 稠密对抗生成 2.2 选择用于检测的输入提案 1. 概述 题目:用于语义分割和目标检测的对抗样本 核心点:将对抗性样本的概念扩展到语义分割和对象检测,并提出稠密 ...
- 【论文阅读笔记】One Shot 3D Photography
论文主页:https://facebookresearch.github.io/one_shot_3d_photography/ 代码地址:https://github.com/facebookres ...
- 【论文阅读笔记】Automatic Liver and Lesion Segmentation in CT Using Cascaded Fully Convolutional Neural Net
本文提出一种从腹部CT片中自动分割肝脏和肝脏病变的方法. 使用的数据集为3DIRCADb dataSets:http://ircad.fr/research/3d-ircadb-01 使用的神经网络库 ...
- Stratified Transformer for 3D Point Cloud Segmentation论文阅读笔记
任务概述 通过注意力机制提取点云中点的特征,通过这个特征预测点云中点的类别. 论文创新点 1.Transformer结合U-net,融合不同尺度的点云特征. 2.提出一种分层注意力机制,较密集的近程点 ...
- 【论文阅读】Structured Knowledge Distillation for Semantic Segmentation
概述 这篇论文来自CVPR2019 Oral. 论文的出发点:语义分割的模型往往很难兼顾速度与精度,也因此语义分割的网络分为两类,论文中描述为 cumbersome segmentation netw ...
- [论文阅读] Cost-Effective REgion-based Active Learning for Semantic Segmentation
论文地址:https://arxiv.org/abs/1810.09726 发表于:BMVC'18 Abstract 最先进的语义分割方法在有监督的情况下使用大量的标注训练图像语料库进行训练.然而,与 ...
最新文章
- HibernateTemplate、HibernateDaoSupport两种方法实现增删改查Good
- Python读取文件内容为字符串的方法(多种方法详解)
- VTK:图片之ImageIdealHighPass
- WTMPlus 1.4 Uniapp来了
- arquillian_使用Arquillian测试安全的EJB
- js获取session_学习后端鉴权系列: 基于Cookie, Session认证
- 用脚本整理Leetcode题解
- 实现可拖拽,拉伸,吸附功能的甘特图(时间/任务表)
- 开博第一篇,附上我开通博客的理由
- C++内存详解[精]
- tcpdf开发文档(中文翻译版)
- html网页div是什么意思,HTML网页中div是什么意思?
- C语言中数据的表现形式及其运算
- 搭建Cacti监控(2)
- 透过现象看本质-IT程序员成长及管理
- 充电口 米兔积木机器人_米兔积木机器人怎么充电
- 扩展log4j2日志归档功能预研
- 窗口的创建CreateWindow/CreateWindowEx函数使用说明
- Exception: execute cmd error ,cmd : bash start.sh的解决方法
- Origami-pdf Origami是一个Ruby框架
热门文章
- rj45插座尺寸图_rj45接口尺寸、标准、电压、颜色介绍
- Echarts基础圆环图
- ZHS16GBK编码中汉字缺失
- Instant Client Light:unsupported server character set ZHS16GBK
- Java实验作业11(Math)
- java build failed_java - maven build failed:无法在jre或jdk issu中找到Javac编译器
- HBase(6):HBase优化
- 面向考研的数据结构板子
- 1 个月吐血准备,我吃透了300道Java大厂面试题,这次绝对稳了!
- 648. 单词替换 : 字典树的经典运用