作者:Amit Chaudhary

编译:ronghuaiyang

导读

视觉上的自监督学习方法,结合聚类,将无监督转变为有监督。

许多自监督方法使用[pretext tasks](https://amitness.com/2020/02/illustrated-selfsupervision -learning/)来生成代理标签,并将无监督学习问题转化为有监督学习的问题。一些例子包括旋转预测,图像着色,拼图等。然而,这样的pretext任务是依赖于领域的,需要专业知识来设计它们。

DeepCluster是Facebook AI研究的Caron等人提出的一种自监督方法,带来了一种不同的方法。这种方法不需要特定于领域的知识,可以用于学习缺乏注释数据的场景的深层表示。

DeepCluster

DeepCluster结合了两部分:无监督聚类和深度神经网络。提出了一种端到端联合学习深度神经网络参数及其表示的聚类分配的方法。这些特征被迭代地生成和聚合,最后得到一个训练过的模型和标签作为输出结果。

Deep Cluster Pipeline

现在让我们了解一下深度聚类的pipleline是如何工作的。

End to End Pipeline of DeepCluster Paper

简介

如上图所示,将拍摄未标记的图像并对其应用图像增强。然后,使用AlexNetvgg16ConvNet架构作为特征提取器。首先,对ConvNet进行随机权值初始化,并在最终的分类头之前从层中取特征向量。然后使用PCA特征向量进行降维,同时进行白化和L2归一化。最后,将处理后的特征传递到K-means,对每幅图像进行聚类分配。

这些聚类分配被用作伪标签,并训练ConvNet来预测这些聚类。用交叉熵损失来衡量模型的性能。模型训练了100个epoch,每个epoch进行一次聚类的操作。最后,我们可以将学到的表示用于下游任务。

手把手的例子

让我们通过一个从输入数据到输出标签的整个pipeline的一步步例子来看看DeepCluster是如何实际应用的:

1. 训练数据

我们从ImageNet数据集中提取未标记的图像,该数据集包括130万张图像,均匀分布在1000个类中。这些图像的minibatch为256。

Example of ImageNet datasets for DeepCluster

N幅图像的训练集在数学上可以表示为:

2. 图像增强

将各种变换应用于图像,以便学习到的不受增强的影响的特征。分别在训练模型学习表示和将图像表示发送到聚类算法时进行了两种不同的增强:

Case 1: 聚类时使用的变换

当要把模型表示送去进行聚类时,不使用随机增强。图像简单地调整为256×256,并使用中心剪裁得到224×224的图像。然后应用归一化。

Augmentations done during clustering in DeepCluster

在PyTorch中,可以这样实现:

from PIL import Imageimport torchvision.transforms as transformsim = Image.open('dog.png')t = transforms.Compose([transforms.Resize(256),                        transforms.CenterCrop(224),                        transforms.ToTensor(),                        transforms.Normalize(mean=[0.485, 0.456, 0.406],                                             std=[0.229, 0.224, 0.225])])aug_im = t(im)

Case 2: 训练模型时候的变换

当模型在图像和标签上进行训练时,我们使用随机增强。图像裁剪为随机大小和高宽比,然后调整为224*224。然后,图像水平翻转的概率为50%。最后,利用ImageNet均值和方差对图像进行归一化。

Sequence of Image Augmentations Used before passing to model

在PyTorch中,可以这样实现:

from PIL import Imageimport torchvision.transforms as transformsim = Image.open('dog.png')t = transforms.Compose([transforms.RandomResizedCrop(224),                        transforms.RandomHorizontalFlip(),                        transforms.ToTensor(),                        transforms.Normalize(mean=[0.485, 0.456, 0.406],                                             std=[0.229, 0.224, 0.225])])aug_im = t(im)

Sobel变换

一旦我们得到了归一化的图像,我们就把它转换成灰度。然后,我们使用Sobel滤波器增加图像的局部对比度。

Sobel Transformation in DeepCluster

下面是改编自作者实现的简化代码片段,我们可以将它应用到上面得到的增强图像aug_im上。

import torchimport torch.nn as nn# Fill kernel of Conv2d layer with grayscale kernelgrayscale = nn.Conv2d(3, 1, kernel_size=1, stride=1, padding=0)grayscale.weight.data.fill_(1.0 / 3.0)grayscale.bias.data.zero_()# Fill kernel of Conv2d layer with sobel kernelssobel = nn.Conv2d(1, 2, kernel_size=3, stride=1, padding=1)sobel.weight.data[0, 0].copy_(    torch.FloatTensor([[1, 0, -1],                       [2, 0, -2],                       [1, 0, -1]]))sobel.weight.data[1, 0].copy_(    torch.FloatTensor([[1, 2, 1],                       [0, 0, 0],                       [-1, -2, -1]]))sobel.bias.data.zero_()# Combine the twocombined = nn.Sequential(grayscale, sobel)# Applybatch_image = aug_im.unsqueeze(dim=0)sobel_im = combined(batch_image)

3. 确定聚类的数量(类别数)

要进行聚类,我们需要决定聚类的数量。这将是模型将要训练的类的数量。

Impact of number of clusters on DeepCluster model

默认情况下,ImageNet有1000个类,但是本文使用了10,000个聚类,因为这样可以对未标记的图像进行更细粒度的分组。例如,如果你以前有一组猫和狗,你增加聚类,然后可以创建猫和狗品种的分组。

4. 模型结构

本文主要采用AlexNet架构,由5个卷积层和3个全连接层组成。删除LRN层,使用Batch Normalization。也添加了Dropout。使用的卷积尺寸为2012年比赛所用的:96, 256, 384, 384, 256。

AlexNet Architecture Used in DeepCluster

另外,本文还尝试用带batch normalization的vgg16替换AlexNet,以查看对性能的影响。

5. 生成初始的标签

为了生成用于训练的模型的初始标签,我们使用随机权重初始化AlexNet,并去除最后一个完全连接的层FC3。我们在图像上对模型进行前向传递,并在图像上取来自模型的第二个全连接层FC2的特征向量。该特征向量的维数为4096。

How Feature Vectors are taken from AlexNet for Clustering

对整个数据集的batch中的所有图像重复此过程。因此,如果我们有N幅图像,我们将得到一个图像特征矩阵[N, 4096]。

The Image-Feature Matrix Generated in DeepCluster

6. 聚类

在聚类之前,对图像特征矩阵进行降维处理。

Preprocessing for clustering in DeepCluster

在降维方面,采用主成分分析(PCA)方法,将特征从4096维降至256维,然后进行白化。本文使用faiss库来进行大规模操作。Faiss提供了一种有效的PCA实现方法,可以应用于图像特征矩阵x:

import faiss# Apply PCA with whiteningmat = faiss.PCAMatrix(d_in=4096, d_out=256, eigen_power=-0.5)mat.train(x)x_pca = mat.apply_py(x)

然后,对PCA后得到的值进行L2归一化处理。

import numpy as np  norm = np.linalg.norm(x_pca, axis=1)x_l2 = x_pca / norm[:, np.newaxis]

这样,我们最终得到了N幅图像的矩阵(N, 256)。现在对预处理后的特征进行K-means聚类,得到图像及其对应的聚类。这些聚类将充当伪标签,模型将在其上进行训练。

Complete Pipeline from Image to Clustering in DeepCluster

本文使用Johnson的K-means实现,faiss库里有。因为聚类必须在所有图像上运行,所以它需要花费总训练时间的三分之一。

聚类完成后,将创建新的图像batch,这样来自每个聚类的图像都有相同的被包含的机会。对这些图像进行随机增强。

7. 表示学习

一旦我们有了图像和聚类,我们就像训练常规的监督学习一样训练我们的ConvNet模型。我们使用256的batch size,并使用交叉熵损失来比较模型预测和ground truth聚类标签。模型可以学习到有用的表示。

Representation Learning Part of the DeepCluster Pipeline

8. 在模型训练和聚类之间切换

这个模型训练了500个epochs。聚类步骤在每个epoch开始时运行一次,为整个数据集生成伪标签。然后,对所有batch继续使用交叉熵损失对卷积神经网络进行常规训练。本文采用动量为0.9、学习率为0.05、权值衰减为10^-5^的SGD优化器。使用用Pascal P100 GPU进行训练。

DeepCluster的代码实现

官方实现:https://github.com/facebookresearch/deepcluster,还有AlexNet和Resnet-50的预训练权重:https://github.com/facebookresearch/deepcluster#pre-trained-models。

英文原文:https://amitness.com/2020/04/deepcluster/

som神经网络聚类简单例子_深度聚类的可视化解释相关推荐

  1. som神经网络聚类简单例子_基因表达聚类分析之初探SOM - 自组织特征图

    之前的培训有老师提出要做SOM分析,最后卡在code plot只能出segment plot却出不来line plot.查了下,没看到解决方案.今天看了下源码,设置了一个参数,得到趋势图.也顺便学习了 ...

  2. som神经网络聚类简单例子_神经网络学习及其模型

    1.神经元模型 历史上,科学家一直希望模拟人的大脑,造出可以思考的机器.人为什么能够思考?科学家发现,原因在于人体的神经网络. 神经网络最基本的成分是神经元模型 其中,W表示的是向量,代表的是权重,函 ...

  3. som神经网络聚类简单例子_ICML 2020:6篇必读图神经网络(GNN)论文 | 附下载

    国际机器学习大会ICML,是机器学习领域全球最具影响力的学术会议之一.受疫情影响,第37届ICML将于7月13日至18日在线上举行. ICML 2020共提交4990篇论文,入选论文创新高,共有108 ...

  4. 聚类dbi指数_人脸聚类常用评价指标

    1.概述 好的聚类算法,一般要求类簇具有: 高的类内 (intra-cluster) 相似度 低的类间 (inter-cluster) 相似度 评价一个聚类算法的指标不像有监督的分类算法计算其精确率, ...

  5. 聚类算法_层次聚类_密度聚类(dbscan,meanshift)_划分聚类(Kmeans)详解

    注: 两整天的成果,谬误之处勿喷 1 聚类概述 样本 没有训练的样本 没有标注的样本 1.1 相似度度量 1.1.1 距离相似度度量 距离度量 dist(oi,oj)dist(o_{i},o_{j}) ...

  6. 聚类算法 距离矩阵_模糊聚类算法

    模糊聚类算法 1.如何理解模糊聚类 事物间的界线,有些是明确的,有些则是模糊的.当聚类涉及到事物之间的模糊界线时,需要运用模糊聚类分析方法. 如何理解模糊聚类的"模糊"呢:假设有两 ...

  7. 聚类算法 距离矩阵_谱聚类

    比起传统的K-means算法,谱聚类对数据分布的适应性更强,计算量也要小很多. 1. 谱聚类概述 谱聚类是从图论中演化出来,主要思想是吧所有的数据看作空间中的点,这些点之间可以用边连接起来.距离较远的 ...

  8. 神经网络方法研究及应用,神经网络算法简单例子

    什么是神经网络,举例说明神经网络的应用 我想这可能是你想要的神经网络吧! 什么是神经网络:人工神经网络(ArtificialNeuralNetworks,简写为ANNs)也简称为神经网络(NNs)或称 ...

  9. 伪代码的简单例子_使用策略+工厂模式彻底干掉代码中的if else!

    对于业务开发来说,业务逻辑的复杂是必然的,随着业务发展,需求只会越来越复杂,为了考虑到各种各样的情况,代码中不可避免的会出现很多if-else. 一旦代码中if-else过多,就会大大的影响其可读性和 ...

最新文章

  1. JedisPool无法获得资源问题
  2. k8s kubebuilder系列开发 — 编写自定义资源和Reconciliation循环
  3. 先进先出算法_结构与算法(02):队列和栈结构
  4. boost function对象
  5. 建立在Windows XP欢迎屏幕中隐藏的用户
  6. Consul架构介绍
  7. 【转】矩阵分解 - SVD
  8. java中byte装箱和装箱_Java包装类、拆箱和装箱详解
  9. c语言列出1~100所有素数_一次找出范围内的所有素数,埃式筛法是什么神仙算法?...
  10. 人工智能时代,AI 并不是为了取代传统教师而生!
  11. 关于 Win 8 RT 你应该知道的 15 件事
  12. 解决cv2.error: OpenCV(xxx) C:\projects\opencv-python\opencv_contrib\modules\xfeatures2d\src\sift.cpp问题
  13. JMeter压力测试步骤
  14. hrm系统源码php,开源HRM源码系统下载
  15. html5 css 字体加粗,HTML和CSS实现字体加粗的三种方法
  16. JAVA面试题大全(part_1)
  17. SRT视频字幕的解析与同步
  18. Spark Streaming简介 (三十四)
  19. 脑神经外科专家张正贤医生(转)
  20. 关于 watched variable changed 异常的详解

热门文章

  1. 号外!号外!仅需5000元,即可配置Apollo计算平台!
  2. Ajax 异步同步请求
  3. 基于强化学习的自我完善聊天机器人
  4. python安装you—get_解决you-get安装中的一些小问题(升级pip,安装报错怎么办)...
  5. 3.找回原来win10右键的方法
  6. 进阶持续威胁(APT)与入侵防御系统
  7. Android Google Services Framework Google Play
  8. 刚性仿射变换算法_图像的仿射变换
  9. 【转载】关于Python Beautifulsoup的详细说明
  10. ms08_067,ms10_046漏洞复现与利用