来源:新智元

【导读知识蒸馏已经成了目前常用的模型压缩方法,但相关研究还局限在图像分类任务上。最近旷视孙剑博士联手西安交大发表了一篇论文,提出新模型LGD,无需一个强力的teacher模型也能在目标检测任务上取得超强效果,并且训练速度提升51%,内存消耗降低34%!

知识蒸馏(Knowledge distillation, KD)刚开始被用于图像分类任务时就取得了不错的效果,通常流程就是将指导性知识从预训练的模型作为教师teacher转移到较小的学生student模型,从而在性能下降较少的情况下完成模型压缩。

随着研究的发展,知识蒸馏在目标检测任务上也取得了一些进展,但目前的模型仍然存在一个缺陷,就是需要一个训练的非常好的teacher,因为有研究表明,更强的teacher 可以提高蒸馏效率。

但现实世界中的应用场景很难训练得到一个完美的teacher,所以无需预训练的教师的通用检测知识蒸馏(KD for generic detection without pretrained teacher)的问题几乎没有得到研究。为了缓解对teacher模型的依赖,一些研究关注teacher-free schemes,主要包括1)自蒸馏 self-distillation;2)协作学习 colorative learning;3)标签正则化 label regularization,其中指导性的知识(instructive knowledge)可以是跨层特征、竞争对手(competitive counterparts) 和调制标签分布(modulated label distribution)。

但是这些方法是为分类而设计的,并不适用于检测。

针对这个问题,旷视科技联合西安交大提出了一个新的无教师目标检测方法 Label-Guided self-Distillation (LGD)。通过高效的设计,LGD 能够与学生模型联合训练,简化流程,降低训练成本。在推理过程中,只保留学生检测器,不会带来额外开销。

这篇论文由孙剑博士指导,他是旷视首席科学家、旷视研究院院长,全面负责旷视技术研发,带领旷视研究院发展成为全球规模最大的计算机视觉研究院。在孙剑博士的带领下,旷视研究院研发了包括移动端高效卷积神经网络ShuffleNet、开源深度学习框架天元MegEngine、AI生产力平台Brain++等多项创新技术,引领前沿人工智能应用。

他的主要研究方向是计算机视觉和计算摄影学,拥有超过40项专利,自2002年以来在顶级学术会议和期刊上发表学术论文100余篇。

文中提出的LGD 框架包含三个模块

1、标签外观编码器Label-appearance encoder

这个编码器主要计算标签和外观的embedding。对于每个对象,把真值框标准化为两个坐标点(x1,y1,x2,y2)和one-hot 类别向量连接起来作为描述符。面向对象的描述符被传递到标签编码模块中用于优化标签嵌入。

为了引入标签描述符之间的基本关系建模并保持置换不变性,LGD 采用经典的PointNet作为标签编码模块。通过多层perceptron 处理描述符,通过空间Transformer 网络进行局部全局建模。

根据经验,使用PointNet作为编码器比MLP或transformer编码器表现稍好。

细节上,研究人员将BatchNorm替换为LayerNorm,以适应小批量检测的设置。值得注意的是,上述1D object-wise的标签编码方式比LabelEnc中的方式更有效,LabelEnc构建了一个特殊的颜色映射用于描述标签。

除了标签编码之外,研究人员还从包含感知对象外观特征的学生检测器的特征pyramid中检索appearance embedding,主要采用一个掩码池从特征映射中提取面向对象的嵌入。预先计算对象屏蔽 object-wise mask 用于总共N个对象和一个虚拟上下文对象,位置覆盖整个图像。对于每个对象 ,建立一个二进制矩阵,其值在基本真值区域内设置为1,否则设置为0。对所有pyramid levels 同时进行掩码池,输入的对象掩码被缩小以对应分辨率,成为特定于比例的掩码。

2、对象间关系适配器 Inter-object relation adapter

在给定标签和appearance embedding的情况下,可以通过交叉注意过程来描述对象间关系的自适应。该过程在每个学生出现金字塔尺度上执行以检索交互嵌入。

在交叉注意过程中,利用一系列键和查询标记来计算KQ注意关系,从而聚合值以获得注意输出。为了实现标签引导的信息自适应,研究人员利用当前尺度下的appearance embedding 作为query,尺度不变的标签嵌入L作为key和value。

attention schema测量对象之间较低层次的结构外观信息和较高层次的标签语义之间的相关性,然后重新组装信息标签嵌入以进行动态适应。

3、对象内知识映射器 Intra-object knowledge mapper

为了使1D交互embedding 适用于广泛使用的中间特征提取进行检测,研究人员将appearance embedding 映射到2D特征映射空间以获取指导性知识。

对于每个金字塔比例p, 结果map 的分辨率仅限于与相应的学生特征map相同。直观地说,由于紧凑表示的标签编码中未对显式空间拓扑进行建模,因此恢复每个对象的定位信息以实现几何透视对齐非常重要。将每个对象绑定交互嵌入填充到零初始化特征映射上对应的真值框区域中。

对于每个对象,通过计算向量化对象掩码之间的矩阵乘法来获得其p尺度的特征映射,投射和交互的embedding。所有这些面向对象的映射被添加到一个统一的映射中以形成结构化知识。

知识映射器将交互嵌入映射到特征映射空间,作为最终的指导知识,同时考虑对象内表示一致性和定位启发式。

由于上述关系建模,最终的指导性知识自然地适应了学生的代表性,有助于有效地提炼出强大的学生检测器和减少语义差异。

从经验上看,LGD在各种检测器、数据集和广泛的任务(如实例分割)上获得了不错的结果。

例如,在MS-COCO数据集中,LGD在2倍单尺度训练下使用ResNet-50将视网膜神经网络从36.2%提高到39.0%mAP(+2.8%)。在2倍多尺度训练(46.1%)下,对于更强大的检测器,如带有ResNeXt-101 DCN v2的FCOS,LGD达到47.9%(+1.8%)。

对于CrowdHuman数据集中的pedes-trian检测,LGD将mMR提高了2.3%,从而提高了R-CNN与ResNet-50的速度。

与经典的基于教师的方法FGFI相比,LGD不仅在不需要预先训练的教师的情况下表现更好。虽然所有的提取或正则化方法都不会影响学生的推理速度,但由于先决条件的预训练和提取过程,它们仍然可能训练效率低下。

成本分为预训练成本、总体成本和特定模型的成本(除学生学习之外的总体成本,也是所有方法的固有成本)。

在8个Tesla V100 GPU上运行下,研究人员发现提出的方法在总体成本和方法特定成本上分别节省了34%(23.5小时对35.5小时)和51%(11.4小时对23.4小时)。

事实上,FGFI或其他基于教师的知识蒸馏可能会有更强的教师开发能力,表现优于文中提出的知识蒸馏方法,但这可能会带来更高的训练负担。与FGFI类似,LabelEnc正则化引入了两阶段训练范式,尽管没有预先训练过的教师,但对于LabelEnc,新方法节省了1小时,并且以一步式方式进行训练。并且LabelEnc消耗了3.8G额外的gpu内存,除了固有检测器的内存,新方法只消耗了2.5G (相对节省34%),但性能更好。

参考资料:

https://arxiv.org/pdf/2109.11496.pdf

推荐阅读

  • 【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载!

  • 年薪制,博士38万/年,硕士23万/年,南方某高校

  • MLP进军下游视觉任务!目标检测与分割领域最新MLP架构研究进展!

  • 香港科技大学Minhao Cheng助理教授招收全奖博士生、硕士生

  • 博士申请 | 香港中文大学LaVi实验室招收2022年秋季入学博士生、硕士生

  • 周志华教授:如何做研究与写论文?(附完整的PPT全文)

  • 都2021 年了,AI大牛纷纷离职!各家大厂的 AI Lab 现状如何?

  • 常用 Normalization 方法的总结与思考:BN、LN、IN、GN

  • 注意力可以使MLP完全替代CNN吗? 未来有哪些研究方向?

欢迎大家加入DLer-计算机视觉&Transformer群!

大家好,这是计算机视觉&Transformer论文分享群里,群里会第一时间发布最新的Transformer前沿论文解读及交流分享会,主要设计方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、视频超分、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。

进群请备注:研究方向+学校/公司+昵称(如Transformer+上交+小明)

旷视孙剑博士提出LGD,训练速度提升51%,适用于目标检测的知识蒸馏相关推荐

  1. 旷视孙剑团队提出Anchor DETR:基于Transformer的目标检测新网络

    开放了预训练,r50 400多m 写在前面 在本文中,作者提出了一种基于Transformer的目标检测器.在以前基于Transformer的检测器中,目标的查询是一组可学习的embedding.然而 ...

  2. 多快好省的目标检测器来了,旷视孙剑团队提出Anchor DETR:基于Anchor Point的DETR

    作者丨小马 编辑丨极市平台 本文原创首发于极市平台公众号,转载请获得授权并标明出处. [写在前面] 在本文中,作者提出了一种基于Transformer的目标检测器.在以前基于Transformer的检 ...

  3. 旷视孙剑团队提出AutoML神经架构搜索新方法:单路径One-Shot,更精确更省时

    本文转载自旷视研究院 一步法(One-Shot)是一个强大的神经网络模型搜索(Neural Architecture Search/NAS)框架,但是它的训练相对复杂,并且很难在大型数据集(比如 Im ...

  4. LGD:涨点神器!旷视孙剑、张祥雨团队提出标签引导的自蒸馏技术,助力目标检测!...

    关注公众号,发现CV技术之美 本文介绍论文『LGD: Label-guided Self-distillation for Object Detection』,由旷视孙剑.张祥雨团队等提出标签引导的自 ...

  5. ResNet成阿尔法元核心技术 旷视孙剑详解Zero的伟大与局限

    摘要:2017年10月19日,DeepMind团队发表了迄今最强版本的AlphaGoAlphaGo Zero,其中一个重要模块是出自华人团队的深度残差网络ResNet.就此背景,新智元采访了深度残差网 ...

  6. R TALK | 旷视孙剑:如何打造云、端、芯上的视觉计算

    「R TALK 」是北京智源-旷视联合实验室推出的一个深度学习专栏,将通过不定期的推送,展示旷视研究院的学术分享及阶段性技术成果.「R Talk 」旨在通过一场场精彩纷呈的深度学习分享,抛砖引玉,推陈 ...

  7. 对话旷视孙剑:比 TensorFlow 还早半年,旷视 Brain++ 的进化法则

    质疑与荣耀,技术与商业,所有疑问,或许通过这样一个国产自主的AI框架,至少可以回答一半. 打榜.噱头.争议.烧钱 创新.天才.明星.思辨 -- 评价 AI 企业,有人说他们是烧钱的机器.科技行业的共享 ...

  8. AlphaGo Zero「无师自通」背后的伟大与局限 | 旷视孙剑解读

    整理 | 安木 当你被 AlphaGo Zero 刷屏的时候,你是对人类的创造力产生自豪,还是对人类的未来感到担忧? 10 月 20 日,旷视科技(Face++)首席科学家孙剑博士接受了多家媒体的群访 ...

  9. CVPR2021 DRConv:即插即用!旷视孙剑、张祥雨团队提出动态区域感知的卷积,涨点显著!...

    关注公众号,发现CV技术之美 ▊ 写在前面 在本文中,作者提出了一种名为动态区域感知卷积(DRConv) 的新卷积,它可以自动将多个滤波器分配给具有相似特征表示的空间区域.标准卷积层通常是增加滤波器的 ...

最新文章

  1. zipparameters 使用_如何在linux服务器上使用--enable-zip参数重新编译php?
  2. TextBoxSuggest,输入框提示工具,输入建议,输入匹配,辅助输入,输入即时提示,文本编辑器,Visual Studio效果,高速查询引擎,哈希树,模糊匹配,百万条零毫秒
  3. sonar 设置模板(Template)
  4. 7-14 修建道路 (10 分)
  5. 突然!格力电器向全体股东分红36.1亿元 董明珠得2600万
  6. 存在out参数的webservices_Sentaurus Device材料参数的那些事
  7. 捕获浏览器关闭、刷新事件,在窗体关闭时从全局对象里移除当前用户
  8. 【机器学习系列】MCMC第二讲:Markov Chain Monte Carlo基本概念和核心思想
  9. c语言输出100以内的素数存放数组中,c语言素数(c语言输出100以内素数)
  10. html 引入 svg矢量图,前端可视化——SVG矢量图技术
  11. win7家庭版如何升级到专业版和旗舰版
  12. 【imx6ul】imx6ul上电boot rom启动过程
  13. TensorFlow高阶张量叉乘
  14. 对docker一些认知
  15. 光伏电子工程的设计与实施2022——单片机力控部分实现思路
  16. 理财等额本息和等额本金计算公式
  17. 微信3.1.0.41逆向-微信3.1.0.41HOOK接口(WeChatHelper3.1.0.41.dll)使用说明
  18. 点击导航栏切换不同的页面
  19. 基带信号matlab仿真,基带信号仿真方法上篇
  20. slf4j 使用介绍

热门文章

  1. 一行代码实现数据类型判断
  2. centos下pg_dump的服务器版本不匹配问题
  3. 多学一点(八)——LNMP环境搭建
  4. 【Spark亚太研究院系列丛书】Spark实战高手之路-第3章Spark架构设计与编程模型第2节②...
  5. [ruby] wxRuby安装
  6. android canvas 保存图片,ionic3 html5 video 抓图保存到手机相册,解决Android手机不支持Canvas drawImage问题...
  7. 如何在html页面循环回显数据,从while循环显示数据到html代码
  8. html(超链接定义锚点与特殊符号转义)
  9. conda env环境配置
  10. Softmax v.s. LogSoftmax