编译 | 青暮

转自 | AI科技评论

本文介绍了Hinton团队发表在NeurIPS 2020上的一项研究工作,一作是Ting Chen,研究人员首次在ImageNet上尝试了半监督学习的典型范式,并取得了优越的结果。此外,他们还发现,网络的规模越大,需要的标签数据越少。

论文地址:https://arxiv.org/abs/2006.10029

仅使用1%的标签(每类≤13个标签图像),本文提出的方法即可达到73.9%ImageNet top-1准确率,与以前的SOTA相比,标签效率提高了10倍。

使用10%的标签,本文的方法可以达到77.5%的top-1准确率,优于使用100%标签的标准监督训练。

“无监督预训练、监督微调”范式

充分利用少量标记示例和大量未标记示例进行学习是机器学习的一个长期存在的问题。

人们曾经提出一种半监督学习来试图解决这个问题,其中涉及无监督或自监督的预训练,然后进行有监督的微调。

这种方法在预训练期间以与任务无关的方式利用未标记的数据,仅在有监督微调时使用带标签的数据。

这种方法在计算机视觉上很少受关注,但是在自然语言处理中已成为主流。例如,人们首先在未标记的文本(例如Wikipedia)上训练大型语言模型,然后在一些带标记的示例中对该模型进行微调。

基于视觉表示的自监督学习的最新进展,Ting Chen等人对ImageNet上的半监督学习进行了深入研究,并首次探索了“无监督预训练、监督微调”范式。

通过与任务无关的方式使用未标记数据,作者发现,网络规模非常重要。

也就是说,使用大型(在深度和广度上)神经网络进行自监督的预训练和微调,可以大大提高准确率。

除了网络规模之外,作者表示,这项研究还为对比表示学习提供了一些重要的设计选择,这些选择有益于监督微调和半监督学习。

一旦卷积网络完成了预训练和微调,其在特定任务上的预测就可以得到进一步改善,并可以提炼成更小的网络。

为此,作者接下来再次使用了未标记的数据,以让学生网络模仿教师网络的标签预测。

这种使用未标记数据的蒸馏阶段类似于自训练中伪标签的使用,但没有增加太多额外的复杂性。

作者提出的半监督学习框架包括三个步骤,如图3所示。

(1)无监督或自我监督的预训练;

(2)有监督的微调;

(3)使用未标记的数据进行蒸馏。

图3:本文提出的半监督学习框架。该框架通过两种方式利用未标记的数据:(1)在无监督的预训练中与任务无关的用法,(2)在自训练/蒸馏中的任务特定的用法。

此外,作者还开发了对比学习框架SimCLR的改进版本,用于ResNet架构的无监督预训练,此框架被称为SimCLRv2。

在ImageNet ILSVRC-2012上评估该方法的有效性,作者发现,仅需要1%和10%的标签,就可以实现与过去SOTA方法相当的性能。

作者表示,对于这种范式的半监督学习,标记越少,就越有可能受益于更大的模型,如图1所示。

图1:使用较少标记的示例进行微调时,较大的模型会产生较大的收益。

较大的自监督模型具有更高的标签效率,即使仅对少数几个带有示例的示例进行微调,它们的性能也明显更好。

因此,通过未标记数据的特定任务使用,可以进一步提高模型的预测性能,并将其迁移到较小的网络中。

作者进一步证明了,在SimCLR中用于半监督学习的卷积层之后,进行非线性变换(又称投影头)很重要。

更深的投影头不仅可以改善通过线性评估测得的表示质量,而且还可以改善从投影头中间层进行微调时的半监督性能。

结合这些发现,该框架在ImageNet上实现了半监督学习的SOTA,如图2所示。

图2:仅使用1%/10%的标签,在ImageNet上,以前的SOTA方法和本文方法(SimCLRv2)的top-1准确率。虚线表示完全监督下的ResNet-50进行100%标签训练。完整比较见表3。

在线性评估协议下,SimCLRv2实现了79.8%的top-1准确率,相对于之前的SOTA的改进为4.3%。

如果仅对1%/ 10%的标记示例进行微调,并使用未标记的示例将其蒸馏至相同的架构,则可以达到76.6%/ 80.9%的top-1准确率,相对于以前的SOTA,准确率提高了21.6%/ 8.7%。

通过蒸馏,这些改进也可以迁移到较小的ResNet-50网络中,使用1%/ 10%的标签达到73.9%/ 77.5%的top-1准确率。

相比之下,对所有标签图像进行训练的标准监督ResNet-50可以达到76.6%的top-1准确率。

表3:在半监督设置下训练的模型的ImageNet准确率。对于本文的方法,上表展示了在微调后进行蒸馏的结果。对于较小的模型,使用自蒸馏的ResNet-152(3×+ SK)作为教师网络。

关于一作

Ting Chen于2019年加入谷歌大脑,担任研究科学家。他在2019年3月获得了加州大学洛杉矶分校计算机科学系的博士学位,导师是UCLA计算机科学系的副教授孙怡舟。他也是论文SimCLR的一作。

感谢你的分享,点赞,在看三连↓

Hinton 新作!越大的自监督模型,半监督学习需要的标签越少相关推荐

  1. Hinton新作!越大的自监督模型,半监督学习需要的标签越少

    来源:AI科技评论 编译:青暮 本文介绍了Hinton团队发表在NeurIPS 2020上的一项研究工作,一作是Ting Chen,研究人员首次在ImageNet上尝试了半监督学习的典型范式,并取得了 ...

  2. pandas keyerror: 标签_Hinton新作!越大的自监督模型,半监督学习需要的标签越少...

    编译 | 青暮 本文介绍了Hinton团队发表在NeurIPS 2020上的一项研究工作,一作是Ting Chen,研究人员首次在ImageNet上尝试了半监督学习的典型范式,并取得了优越的结果.此外 ...

  3. correl函数相关系数大小意义_相关系数越大,说明两个变量之间的关系就越强吗...

    展开全部 相关系数越大,说明两个变量之间的关系就越强.当相关系数为1时,两个变量其e68a84e8a2ad3231313335323631343130323136353331333431353431实 ...

  4. S5CL:通过分层对比学习统一全监督、自监督和半监督学习

    文章目录 S5CL: Unifying Fully-Supervised,Self-supervised, and Semi-supervised Learning Through Hierarchi ...

  5. 有监督、无监督与半监督学习【总结】

    概念 有监督学习:训练数据既有特征(feature)又有标签(label),通过训练,让机器可以自己找到特征和标签之间的联系,在面对只有特征没有标签的数据时,可以判断出标签. 无监督学习(unsupe ...

  6. 机器学习-----有监督,无监督,半监督学习的简单阐释

    来源: 机器学习算法盘点 - ranjiewen - 博客园 http://www.cnblogs.com/ranjiewen/p/6235388.html 为啥感觉完全是被圈粉了----好厉害啊-- ...

  7. 什么是无监督、监督、半监督学习

    先看个图片 什么是监督.无监督学习 区分有监督和无监督,就是看是否有监督(supervised),也就看输入数据是否有标签(label).输入数据有标签,则为有监督学习(x,y),没标签则为无监督学习 ...

  8. 机器学习中的标签数据和无标签数据(监督、非监督和半监督学习)

    原文链接http://www.shujuren.org/article/62.html 原文如下 监督式和非监督式机器学习算法 作者 Frankchen 什么是监督式机器学习,它与和非监督式机器学习有 ...

  9. 有监督、无监督和半监督学习

    目录 概念描述 监督学习(Supervised Learning,SL) 无监督学习(Unsupervised Learning,UL) 半监督学习(Semi-supervised Learning, ...

最新文章

  1. 使用python通过selenium模拟打开chrome窗口报错 出现 您使用的是不受支持的命令行标记:--ignore-certificate-errors...
  2. 如何将mysql卸载干净
  3. 算法学习:最小圆覆盖
  4. JS 正则表达式(数字、正则)
  5. IDEA下的使用git
  6. iphone换机数据迁移_苹果手机换华为、小米怎么同步数据?来了!
  7. H5 微信公众号 授权登录 前后端分离篇(前后端联调_03)
  8. 【Java】jstack报错Unable to open socket file: target process not responding or HotSpot VM not loaded
  9. DW —— 静态图片的交替更换
  10. numpy 高阶函数 —— np.histogram
  11. 【题解专栏】南华大学19级软卓选拔赛题解
  12. 编辑器、编译器和IDE的区别
  13. 平行交通:虚实互动的智能交通管理与控制
  14. html5时间插件mui,移动端时间控件 HTML5+ 的 pickDate 和 MUI 的 dtpicker 的使用与对比...
  15. C语言中宏定义函数的运算优先级问题
  16. 快速实现三菱Q系列PLC连接OPC服务器与物联网平台
  17. 服务器自动关机重启1076,状态服务器上的事件 ID 1072 或1076 - ASP.NET | Microsoft Docs...
  18. 根据html改为ftl模板生成pdf文件,支持中文及换行
  19. 去年“双11“我买的那台云服务器
  20. 如何科学养一只鸽子为你飞鸽传书——程序间异步通信_莫韵乐的Linux英雄传

热门文章

  1. 【组队学习】曹志宾:基于Python的会员数据化运营
  2. 韩宇:如何准备天池深度学习比赛?
  3. 【组队学习】【23期】Datawhale集成学习(上)
  4. 技术图文:Python的属性装饰器详解
  5. LeetCode实战:二叉搜索树的最近公共祖先
  6. LeetCode实战:最大子序和
  7. LeetCode实战:全排列
  8. 股市币市:数据分析与交易所公告(20190226)
  9. 图像补运算:反色处理
  10. 【数据结构】单链表的逆序输出(两种方法)