Motivation

目前大多数KD框架的pipeline

  • 一张图片送入teacher和student得到各自的feature和output
  • 然后定义loss,拉进feature或者output的距离
    但是他们都是直接在一个整图级别上做的,student很难学习到teacher的那种处理类内和类间的能力

如下图:白色空心圈是期望学习到的效果

左边是期望类间可以拉开,右边是期望类内可以聚拢

Method

首先得到teacher和student的特征图

然后定义mapping函数计算特征之间的相关性矩阵correlation matrix,注意teacher和student是各自分开计算,而不是互相计算相关性


C就变成了一个nxn的矩阵

Lcc即计算相关性矩阵的L2 距离

Correlation matrix的计算


对比于MMD和Bilinear Pool,Gaussian RBF更加灵活和具有非线性能力,因此本文选择Gaussian RBF

Experiments

Correlation Congruence for Knowledge Distillation相关推荐

  1. 【KD】Correlation Congruence for Knowledge Distillation

    Paper: Correlation Congruence for Knowledge Distillation 1, Motivation: 通常情况下KD的teacher模型的特征空间没考虑类内类 ...

  2. 【论文翻译】Few Sample Knowledge Distillation for Efficient Network Compression

    Few Sample Knowledge Distillation for Efficient Network Compression 用于高效网络压缩的少样本知识提取 论文地址:https://ar ...

  3. 知识蒸馏(Knowledge Distillation)详细深入透彻理解重点

    知识蒸馏是一种模型压缩方法,是一种基于"教师-学生网络思想"的训练方法,由于其简单,有效,在工业界被广泛应用.这一技术的理论来自于2015年Hinton发表的一篇神作: 论文链接 ...

  4. Knowledge Distillation | 知识蒸馏经典解读

    作者 | 小小 整理 | NewBeeNLP 写在前面 知识蒸馏是一种模型压缩方法,是一种基于"教师-学生网络思想"的训练方法,由于其简单,有效,在工业界被广泛应用.这一技术的理论 ...

  5. 【李宏毅2020 ML/DL】P51 Network Compression - Knowledge Distillation | 知识蒸馏两大流派

    我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的.自己不知道的东西. 已经有人记了笔记(很用心,强烈推荐):https://github.com/Sakura-gh/ML-note ...

  6. CVPR2022知识蒸馏用于目标检测:Focal and Global Knowledge Distillation for Detectors

    论文下载:https://arxiv.org/abs/2111.11837 源码下载:https://github.com/yzd-v/FGD Abstract 知识蒸馏已成功应用于图像分类.然而目标 ...

  7. Contrastive Model Inversion for Data-Free Knowledge Distillation

    Contrastive Model Inversion for Data-Free Knowledge Distillation Model inversion,其目标是从预训练的模型中恢复训练数据, ...

  8. 【2021知识蒸馏】Show, Attend and Distill:Knowledge Distillation via Attention-based Feature Matching

    [2021知识蒸馏]Show, Attend and Distill:Knowledge Distillation via Attention-based Feature Matching 1.问题背 ...

  9. Mosaicking to Distill Knowledge Distillation from Out-of-Domain Data

    Mosaicking to Distill: Knowledge Distillation from Out-of-Domain Data 在本文中,我们试图解决一项雄心勃勃的任务,即域外知识蒸馏(O ...

  10. 【Distill 系列:三】CVPR2019 Relational Knowledge Distillation

    Relational Knowledge Distillation Relational Knowledge Distillation TL;DR teacher 和 student feature ...

最新文章

  1. flask restful 模板
  2. 注册博客第一天,有些激动
  3. C# 线程的定义和使用
  4. 详细介绍JAVA中的字符串
  5. xpath中如何使用变量
  6. java返回空集合对象_返回null或空集合更好吗?
  7. [转载] JavaParser 无法解析链式调用的问题
  8. java定义时钟类clock_Java 编程题,定义一个时钟类(Clock)
  9. 计算机网络按照工作模式可分为什么和什么,计算机网络的分类有哪些?计算机网络工作模式...
  10. 【优化求解】基于NSGA2算法求解多目标优化问题matlab源码
  11. 三角网格的顶点曲率计算(平均曲率和高斯曲率)
  12. Maxima在线性代数的应用
  13. 最新小月云匿名短信系统源码V2.0+全新UI的
  14. etsme--Me盒使用初体验
  15. dos环境c语言写串口程序,DOS下串口通信程序来传送文件的源代码(转)
  16. 如何压缩带有mdw安全文件机制和密码的的access数据库
  17. eas报错日记_EAS_RPC日志收集方案
  18. RDKit | 基于RDKit进行构象搜索:构型异构体生成和MMFF聚类
  19. Matlab学习总结
  20. c语言课设报告水果,C语言--水果

热门文章

  1. 简单的路由器设置下一条(小白像)
  2. RPM包安装相关命令
  3. 单层感知器python_深度学习之单层感知器(一)
  4. 支付服务整合支付宝沙箱
  5. python中show函数的用法_python学习笔记之——函数模块
  6. matlab图像质量评价程序,图像质量评价指标之Matlab实现
  7. linux可运行的steam游戏吗,Steam现在可以在Linux上玩仅Windows游戏
  8. r语言如何计算t分布临界值_「SPSS数据分析」SPSS差异分析(3)独立样本T检验操作步骤及解读...
  9. 大地高、正高和正常高的区别
  10. [转载]PS各个工具的字母快捷键和英文全名