写在前面:

在本章中,首先,我们详细地总结和分析了生成对抗网络在主动学习方法中的应用价值。然后,围绕提高生成图像的质量、提升筛选样本的价值以及减少样本筛选的时间成本等方面,我们提出了一种基于生成对抗网络的二阶段主动学习方法。


主动学习系列博文:

【Active Learning - 00】主动学习重要资源总结、分享(提供源码的论文、一些AL相关的研究者):https://blog.csdn.net/Houchaoqun_XMU/article/details/85245714

【Active Learning - 01】深入学习“主动学习”:如何显著地减少标注代价:https://blog.csdn.net/Houchaoqun_XMU/article/details/80146710

【Active Learning - 02】Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively and Incrementally:https://blog.csdn.net/Houchaoqun_XMU/article/details/78874834

【Active Learning - 03】Adaptive Active Learning for Image Classification:https://blog.csdn.net/Houchaoqun_XMU/article/details/89553144

【Active Learning - 04】Generative Adversarial Active Learning:https://blog.csdn.net/Houchaoqun_XMU/article/details/89631986

【Active Learning - 05】Adversarial Sampling for Active Learning:https://blog.csdn.net/Houchaoqun_XMU/article/details/89736607

【Active Learning - 06】面向图像分类任务的主动学习系统(理论篇):https://blog.csdn.net/Houchaoqun_XMU/article/details/89717028

【Active Learning - 07】面向图像分类任务的主动学习系统(实践篇 - 展示):https://blog.csdn.net/Houchaoqun_XMU/article/details/89955561

【Active Learning - 08】主动学习(Active Learning)资料汇总与分享:https://blog.csdn.net/Houchaoqun_XMU/article/details/96210160

【Active Learning - 09】主动学习策略研究及其在图像分类中的应用:研究背景与研究意义:https://blog.csdn.net/Houchaoqun_XMU/article/details/100177750

【Active Learning - 10】图像分类技术和主动学习方法概述:https://blog.csdn.net/Houchaoqun_XMU/article/details/101126055

【Active Learning - 11】一种噪声鲁棒的半监督主动学习框架:https://blog.csdn.net/Houchaoqun_XMU/article/details/102417465

【Active Learning - 12】一种基于生成对抗网络的二阶段主动学习方法:https://blog.csdn.net/Houchaoqun_XMU/article/details/103093810

【Active Learning - 13】总结与展望 & 参考文献的整理与分享(The End...):https://blog.csdn.net/Houchaoqun_XMU/article/details/103094113


4.1 导言

随着数据采集技术的不断发展,使得很多领域能够廉价地获取大量未标注样本。因此,基于未标注样本池的主动学习方法被广泛应用在许多领域中。目前,大多数相关研究通过对所有未标注样本进行预测,并根据合适的策略筛选出最具有“价值”的样本。然而,对于未标注样本池规模较大的场景,若每次迭代都需要对大量的未标注样本进行预测,将产生较大的时间成本。近几年,生成对抗网络凭借无监督的方式生成质量较高的图像,从而受到广泛的关注。随后,陆续有相关的研究工作将其应用到主动学习方法中并取得较好的效果。其中, Zhu 等[19]提出了一种生成对抗主动学习(Generative Adversarial Active Learning, GAAL)方法,通过深度卷积生成对抗网络[16(] Deep Convolution Generative Adversarial Networks, DCGAN)生成具有丰富信息量的待标注样本集。 GAAL 不需要在每次迭代中对所有未标注样本进行预测,而是直接将主动学习策略与生成器进行组合训练,直接生成待标注样本集,这是以往的主动学习方法不具备的能力。此外, Christoph 等[50] 在 GAAL的基础上进行改进,提出了一种对抗采样主动学习方法(Adversarial Sampling forActive Learning, ASAL)。 GAAL 和 ASAL 最主要的区别在于: GAAL 直接将生成的样本交由专家标注并加入训练集;而 ASAL 采用相似度匹配算法依次对生成样本与未标注样本池中的样本进行匹配,再将未标注样本池中被匹配的样本交由专家标注后加入训练集。本章借鉴了上述两种方法的思想,首先,我们将对抗自编码器(Adversarial Autoencoders, AAE)和生成对抗网络模型进行融合(下文称之为 AAE-GANs),使其能够以半监督的学习方式提高生成器的质量。然后,我们将AAE-GANs 应用到主动学习方法中,提出了一种基于生成对抗网络的二阶段主动学习方法。最后,我们分别从时间成本和标注成本对本章提出的方法进行验证。

本章主要的贡献包括: 1)将 AAE 和生成对抗网络模型进行组合训练:充分利用了主动学习方法增量式获取标注样本的特性,以半监督辅助训练的方式对AAE-GANs 模型进行训练,从而提升了生成器产生样本的质量。 2)组合了生成式成员查询和基于未标注样本池的主动学习方法等两种经典的场景,提出了一种基于生成对抗网络的二阶段主动学习方法:首先,通过 AAE-GANs 提升生成图像质量;然后,将生成器与不确定性策略进行组合训练,产生一批候选样本,从而减少了预测样本所产生的计算成本和时间成本。最后,将候选样本集作为未标注样本池,再通过不确定性策略和多样性策略进行第二阶段的筛选,并产生出一批待标注样本集交由专家标注,从而更加显著地减少标注成本。

4.2 基于生成对抗网络的二阶段主动学习方法

在本节中,我们主要尝试将 DCGAN 和 Wasserstein GAN[17(下文简称为 ]WGAN)分别与 AAE 进行结合,并命名为: AAE-DCGAN 和 AAE-WGAN。随着生成对抗网络的不断突破,在未来的工作中,我们将尝试更多的组合方式。

4.2.1 对抗自编码与生成对抗网络的结合

(1) DCGAN: 近年来,基于 GAN 的改进算法层出不穷。其中, Radford等[16]提出的 DCGAN 属于经典的改进算法之一。如图4.1的上半部分(红色虚线框)展示了 DCGAN 的网络结构示意图。其中,生成器和判别器都是由 CNN 构成。此外,为了提高生成图像的质量和模型的收敛速度, DCGAN 在 CNN 结构上的改造如下: 1)分别将生成器和判别器中的池化层替换成带步长的反卷积层和卷积层;2)同时在生成器和判别器中引入批标准化操作(Batch Normalization) [91]; 3)将全连接层移除; 4)分别将 ReLU[92] 和 Tanh[93] 作为生成器中隐含层和输出层的激活函数; 5)将 LeakyReLU[94] 作为判别器中所有网络层的激活函数。除了部分网络结构以外, DCGAN 的核心思想与原始的 GAN 类似,此处不再赘述。

(2) WGAN: Arjovsky 等[17]提出的 WGAN 与 DCGAN 最主要的区别体现在损失函数上的改进,如式(4.1)所示。其中,作者将网络参数限制在范围 w ∈ [-0:01,0:01] 内; x 表示样本; Pr 表示真实样本分布, Pg 表示生成器产生的样本分布;判别器网络 f! 的最后一层移除了 DCGAN 的非线性激活层,以回归任务的方式拟合 Wasserstein 距离。 WGAN 缓解了 KL 散度和 JS 散度的突变性在某些情况下无法提供梯度的问题,其突破性的贡献如下: 1)从根本上解决了 GAN 训练不稳定的问题[95]; 2)解决了模式崩溃的问题,提高了生成样本的多样性; 3)通过Wasserstein 评价指标衡量生成器的质量,为训练过程提供了指示性的依据。 WGAN相较于 DCGAN 能够提供稳定的训练过程,同时也能够在一定程度上提高生成样本的质量和多样性。

然而,直接将 DCGAN 或者 WGAN 应用到主动学习中仍会存在一些不足: 1)未能较好地利用已标注样本:主动学习方法的特性之一是能够增量式地产生标注样本,如果能够以半监督学习的方式训练生成对抗模型,将能够同时充分地利用未标注样本和已标注样本的信息,从而提升生成器产生图像的质量。 2)未能较好地提高生成样本对主动学习的价值:主动学习方法更倾向于筛选出对提升模型性能最具有价值的样本。因此,如果可以提高生成样本的价值,将能够减少更多的标注成本。

(3) AAE: 我们将尝试通过 AAE 弥补上述两点不足。首先,针对提高生成样本价值的不足: Alireza 等[96]提出的 AAE 将对抗学习的思想引入自编码器中,通过任意的先验分布与隐藏编码的聚合后验匹配。如图4.1所示, AAE 与传统的 GAN的主要区别在于: 1)判别器的输入:传统的 GAN 将原始图像和生成器产生的图像作为判别器的输入,而 AAE 将隐藏编码分布 q (z_fake) 和真实先验分布 p (z_real) 作为判别器的输入; 2)模型的生成器:传统的 GAN 单独设计一个网络作为判别器,而AAE 使用自编码器结构中的解码器作为对抗网络的生成器。因此,通过 AAE 与GANs 的结合,能够在一定程度上提高生成样本的质量。其次,针对利用已标注样本信息的不足: AAE 为判别器的输入额外增加了一个标签向量(one hot),将样本的标签和分布模式关联起来。针对半监督学习场景, AAE 具有两个独立的对抗网络,包括: 1)对样本的标签施加了分类分布,使得标签的聚合后验分布与分类分布匹配; 2)对隐藏变量施加预设的分布(AAE 原文的作者[96]使用高斯分布),使得隐藏变量满足预设的分布。在训练的过程中,包括三个阶段的训练: 1)样本的重构阶段; 2)正则化阶段; 3)半监督分类阶段。

如图4.1的下半部分(黑色虚线框)展示了 AAE 的网络结构示意图,主要由两个部分组成: 1)编码器和解码器(同样作为 DCGAN 中的生成器)组成的自编码器; 2)用于区分隐含编码来自于编码器分布或者预设先验分布的判别器 DisImg。本章 AAE 的网络结构均由卷积神经网络组成。假设 x 表示当前的输入图像, z_fake表示样本 x 经过编码器得到的隐含编码。 q (z_fake|x) 表示编码器的分布; p (z_real) 表示预设的先验分布,例如本章使用的均匀分布(uniform distribution)。 AAE 在实现正则化时,通过匹配聚合后验分布 q (z_fake|x) 到任意的先验分布 p (zreal)。其中,AAE 的对抗思想主要用于引导 q (z_fake|x) 匹配到 p (z_real);与此同时,自编码器通过优化重构损失,使得解码器生成的图像与原始图像更加相似。在训练过程中,首先将 z f ake 和 z_real ∼ p (z_real) 作为判别器 DisImg 的输入进行优化,从而提升判别器区分真假编码的能力;然后,同时将重构损失和生成器损失作为解码器(生成器)的优化指标,从而提升生成器混淆判别器的能力。通过上述的对抗训练方式,解码器作为 AAE 的生成器将 p (zreal) 的聚合先验映射到未标注样本的分布。至此,通过将随机生成的 zreal 作为生成器的输入,就能够生成期待的目标图像。

(4) AAE-DCGAN: 在主动学习方法的应用中,首先,我们希望模型能够生成质量更高的图像。其次,考虑到未来可能处理更复杂的图像,因此将卷积神经网络结构应用到模型中。 AAE-GANs(AAE-DCGAN 和 AAE-WGAN)等组合方式能够充分利用两者的优势,从而更进一步地提升生成器的性能。如图4.1展示了 AAE与 DCGAN 结合的网络结构示意图。其中,下半部分黑色虚线框内主要是 AAE 网络结构,上半部分红色虚线框内主要是 DCGAN 网络结构。 AAE-DCGAN 的生成器来自于 AAE 的解码器,损失函数主要包括三个部分: 1) AAE 网络中的重构损失; 2) AAE 网络中与之对应判别器的对抗损失; 3) DCGAN 网络中与之对应判别器的对抗损失。 AAE-DCGAN 的判别器分别由 AAE 和 DCGAN 各自的判别器组成。如上文所述, AAE 的判别器主要用于区分真假隐藏编码, DCGAN 的判别器主要用于区别真假图像。

在具体实现过程中,算法 4-1给出了 AAE-DCGAN 基本流程。判别器的训练主要体现在步骤 5 至 12,首先将 AAE 和 DCGAN 的判别器整合在同一个目标函数中,详见第二章的式(2.4)。紧接着,使用 Adam 优化器进行训练。生成器的训练主要体现在步骤 13 至 21,损失函数由三个部分组成: 1)来自 AAE 的重构损失; 2)来自 AAE 的生成样本损失; 3)来自 DCGAN 的生成样本损失。在训练的过程中,根据优化器的特性(例如:梯度下降),损失值越小表示目标函数越接近最优解。因此,步骤 12 所示的损失函数值 lossD 越小,表示判别器越有能力区分出真实样本和伪造样本。此外,算法 4-1中涉及的相关变量解释如下:步骤 6 和 8 的 dimg f ake 表示来自先验均匀分布的 zreal 经过解码器 Decoder 生成图像后,再将其作为 DCGAN 的判别器 DisImg 的输入,最终得到属于生成样本的判别值。步骤 10 的 dimgreal 表示批样本集 X 经过 DCGAN 的判别器 DisImg 后,得到属于真实样本的判别值。步骤 11的 dzreal 表示 zreal 经过 AAE 的判别器 DisZ 后,得到属于先验分布的判别值; dz f ake表示批样本集 X 先经过编码器得到隐含编码并作为 AAE 的判别器 DisZ 的输入值,最终得到属于编码器分布的判别值。步骤 14 和 17 的 ImgAAE 表示批样本集 X 依次经过编码器和解码器后,得到的重构图像。步骤 20 的 dz f ake 表示批样本集 X 先经过编码器 Encoder,再经过 AAE 的判别器后得到的属于编码器分布的判别值。对于损失函数部分: lossDAAE = -mean (log (dzreal) + log (1 - dz f ake)) 和 lossDDCGAN =-mean (log (dimgreal) + log (1 - dimg f ake)) 分别表示 AAE 和 DCGAN 的判别损失函数, lossGAAE = -mean (log (dz f ake)) 和 lossGDCGAN = -mean (log (dimg f ake)) 分别表示 AAE 和 DCGAN 的生成损失函数,对应式(2.4);此外, lossRecAAE =mean (abs (X - ImgAAE)) 表示来自于 AAE 重构损失函数。在主动学习的流程中,将增量式地获取未标注样本池 U 中被选中的样本标签。因此,算法 4-1也将引入了样本的标签信息,详见上文在 AAE 部分中介绍的半监督学习场景。步骤 5 和 13 对当前输入的样本集 X 进行判断是否具有标签,若有,则将标签信息加入模型的训练中。

此外, AAE-WGAN 的基本流程与算法 4-1类似,将损失函数替换成 WGAN 对应的损失函数即可,此处不再赘述。在训练的过程中,需要根据实际情况调整损失函数(分别来自于 AAE 和 GANs )的权重。

4.2.2 AAE-GANs 与主动学习方法的结合

早在 1992 年, Baum 等[97]率先提出了基于生成式主动学习方法,并将其用于解决手写体分类问题。但是,由于当时生成样本的质量很差导致整体的效果很不理想。近年来,生成对抗网络的高速发展同样对主动学习方法具有重要的意义。因此,陆续有相关的研究[19,20,21,22,50]将生成对抗网络跟主动学习方法进行结合。其中,GAAL[19] 和 ASAL[50] 通过将主动学习策略应用到生成对抗网络模型的生成器中,并将其设计为目标函数进行优化,在图像分类任务中取得了不错的效果。本小节将介绍两种结合生成器和不确定性策略的目标函数。

(1)生成器结合 MS 策略的目标函数:如式(4.2)所示,其核心思想是通过最小化生成样本与分类器分界面的距离,使得生成器产生的样本相对当前分类器具有较高的不确定性。其中, z 为隐编码(latent code), f (x) = θTϕ (x) + b 表示分类器对应的决策方程, G (z) 表示生成器使用隐编码生成的样本。

(2)生成器结合 entropy 策略的目标函数:如式(4.3)所示,其核心思想是通过最大化生成样本相对于当前分类器的信息熵,使得生成器产生的样本相对当前分类器具有较高的不确定性。其中, z 为隐编码, C 为当前分类任务中所有可能类标组成的集合, pθ (cjG (z)) 表示当前分类器对生成器产生的样本 G (z) 进行预测,并返回预测结果为类标 c 对应的概率值。

Zhu 等[19] 提出的 GAAL 方法使用 SVM 作为分类器,将式(4.2)作为目标函数对分类器进行再次训练,并将其应用到图像的二分类任务中。如图4.2(b)展示了 GAAL 的核心流程示意图。首先,将未标注样本池中的所有未标注样本作为DCGAN 训练数据集,通过优化形如式(2.4)的目标函数对 DCGAN 进行训练。然后,通过对式(4.2)进行优化,使得生成器能够产生相对当前分类器(初始的分类器通过随机筛选少量的样本进行预训练)具有不确定性的待标注样本。最后,将专家标注后的样本加入分类器的训练数据集,并对分类器进行训练。此外,如图4.2(a)展示的基于不确定性策略的主动学习方法中,与 GAAL 整体流程的主要区别在于:前者需要在每次迭代过程中对所有未标注样本进行预测,并计算相关的策略分值;而 GAAL 直接标注由生成器产生具有不确定性的样本,在筛选样本的环节中减少了大量的时间成本。

Christoph 等[50] 提出的 ASAL 方法是第一个基于未标注样本池场景的对抗性主动学习方法。如图4.2(c)展示了 ASAL 的核心流程示意图, ASAL 与 GAAL 最大的区别在于: ASAL 在 GAAL 的基础上,依次将生成的样本与未标注样本池中的样本进行匹配,最后交由专家标注的是真实的样本而非生成器产生的样本。 ASAL 分别将式(4.2)和式(4.3)作为解决二分类和多分类问题的目标函数,用于提升生成器产生不确定性样本。本章提出的基于生成对抗网络的二阶段主动学习方法也将借鉴公式(4.3)作为结合不确定性策略和生成器的目标函数。

4.2.3 基于 AAE-GANs 的二阶段主动学习方法

如图4.2(d)展示了本章提出的基于对抗生成网络的二阶段主动学习方法(下文称之为 AAE-GANs-AL)的示意图。 AAE-GANs-AL 与 GAAL 和 ASAL 的主要区别在于: 1)我们将 AAE-GANs 作为生成对抗网络模型,充分利用 AAE 和 GANs的优势提升生成图像的质量;在生成器结合不确定性策略的环节中,充分利用已标注样本的标签信息提升生成器的性能。 2)我们将主动学习的生成式成员查询和基于未标注样本池等两种场景进行组合,分别体现在第一个阶段生成的候选样本集和第二个阶段从候选样本集中进一步筛选出的待标注样本集。 AAE-GANs-AL 在第一个样本筛选阶段通过生成器直接产生样本,避免了需要对大量未标注样本进行预测,从而节省了计算成本和时间成本;在第二个阶段同时引入了不确定性策略和多样性策略,减少了样本之间的冗余信息。 3) AAE-GANs-AL 和 ASAL 在多分类图像数据集上对其有效性进行了验证。

算法 4-2给出了 AAE-GANs-AL 的基本流程。在算法 4-2的初始化环节中,我们先使用算法 4-1对 AAE-GANs 进行训练,并将得到的生成器 Generator 作为主动学习流程的初始状态。在步骤 5 中,初始生成器 Generator 结合当前分类模型以及基于信息熵的不确定性策略,并使用式(4.3)作为目标函数进行优化,使得生成器产生的图像相对于当前分类模型具有较高的不确定性。此时,当前迭代 t 对应的生成器 Generator∗ 已经训练完毕。紧接着,通过步骤 6 和 7 生成 4 ∗ m 个候选样本,其中 m 表示批量式主动学习中的批大小。步骤 8 参考了 ASAL 文献的方法,通过将生成器产生的样本在未标注样本池中进行匹配,依次得到对应的真实样本。我们将在实验部分简要地介绍本章所使用的图像匹配算法及其效果。至此,已经完成了第一个阶段的样本筛选工作,并得到候选样本集 X。第二个阶段将候选样本集 X 视为未标注样本池,并进一步通过主动学习策略筛选出待标注样本集 X∗。本章将使用不确定策略和多样性策略作为算法 4-2中的样本筛选策略 Q,详见第3.2.1节的相关策略。值得一提的是,为了方便专家进行数据标注,我们尝试选择合适的分类器对待标注样本集 X∗ 进行预分类。随着迭代次数的增加,分类器的性能也会随之提升,因此预分类的效果也会更加明显。此外,还可以尝试引入类似多视图的思想,同时根据多个不同分类器的决策结果进行预分类。第五章将体现出预分类的优势。

4.3 仿真实验与分析

我们从第二章介绍的图像数据集中,挑选了两组作为本章的仿真实验数据集,包括 MNIST 和 CIFAR10。此外,为了便于跟当前部分相关的工作进行实验对比,我们分别从 MNIST 和 CIFAR10 数据集中分别抽取了两个类别制作成新的实验数据集。其中, Zhu 等[19] 提出的 GAAL 方法将 MNIST 和 USPS 数据集[98]中的 5 和 7 等两个数字单独挑选出来分别作为训练集和验证集,下文称之为 MNIST-USPS-Binary;将 CIFAR10 数据集中的汽车和马(automobile and horse)等两个类别制作成另一组二分类数据集,下文称之为 CIFAR10-Binary。

4.3.1 生成器产生的图像质量

如图4.3分别展示了来自未标注样本池的真实样本,以及 AAE, DCGAN,WGAN, AAE-DCGAN 和 AAE-WGAN 等五种生成对抗网络在 MNIST-USPS 数据集上以无监督的方式进行训练后产生的图像。 USPS 数据集与 MNIST 数据集的数据分布有较大的差异,而且 USPS 数据集中存在部分样本连人类视觉都无法正确的分辨。因此,两组数据集的结合将增大分类难度。如图4.3(a)展示了来自于MNIST-USPS 的真实图像。其中,第 5 行的第 1 列和第 6 列以及最后一行的第 4列的图像来自于 USPS 数据集,图4.3(a)的其他图像来自于 MNIST 数据集。

如图4.3(b)展示了通过 AAE 模型生成的图像, AAE 同时学到 MNIST 和USPS 等两种风格的手写体数字,视觉效果非常清晰。但是, AAE 在训练的过程中非常不稳定,发生了模式崩溃的现象。同样的现象也发生在如图4.3(c)所示的DCGAN 模型中。图4.3(d)展示的 WGAN 在整个训练过程中相对较稳定,生成图像的质量相对较高。 AAE-DCGAN 和 AAE-WGAN 通过组合训练,在一定程度上提升了生成样本的质量。其中, AAE 的贡献主要体现在生成图像的边缘细节。

此外,我们使用同样的方法在 CIFAR10 数据集进行实验,生成的图像如图4.4所示。如图4.4(a)所示, CIFAR10 数据集相对 MNIST 数据集更加复杂,而且待分类物体所在的图像背景较为复杂。因此, AAE 和 DCGAN 生成的图像质量较低,分别如图4.4(b)和(c)所示。 AAE-DCGAN 在一定程度上提高了生成图像的质量,但视觉效果如图4.4(e)所示,图像中仍存在大量类似网格的噪声信息。如图4.4(d)和(f)所示,虽然 WGAN 和 AAE-WGAN 生成图像的质量仍与真实样本有所差距,但已经能够生成非常清晰的图像了。

综上所述,本章相关的生成对抗网络都有各自的优势。其中, AAE-WGAN 的特性更适合应用到主动学习方法中:既能够保证训练过程的稳定性,又能够保证生成图像的质量。

4.3.2 图像匹配方法的效果

算法 4-2步骤 8 的图像匹配方法中,首先,我们使用 AAE 中编码层作为特征提取器,并在初始化环节完成对所有未标注样本的特征提取。然后,使用相同的方式依次对每个生成的样本进行特征提取。最后,结合距离度量方法依次匹配出所有样本,构成候选样本集 X。如图4.5(a)和(b)分别展示了 MNIST 和 CIFAR10 使用自编码器的图像匹配算法效果示意图,生成的图像能够较好地匹配到对应的真实样本。此外,类似的图像匹配算法[50]还有: 1)先对图像进行降维(例如,主成分分析方法),再使用距离度量方法进行匹配; 2)使用判别器的作为特征提取器,再使用距离度量方法进行匹配; 3)直接将图像的像素作为距离度量方法的输入。

4.3.3 AAE-GANs-AL 在时间成本上的性能

本小节主要针对不同规模的未标注样本池,通过实验体现 AAE-GANs-AL 相较于传统的基于未标注样本池的主动学习方法在时间成本上的优势。两者所需的时间成本主要体现在: 1) AAE-GANs-AL:优化如式(4.3)所示的目标函数,生成器生成候选样本集,使用传统策略从中筛选出待标注样本集,匹配样本; 2)传统方法:对未标注样本池中的所有样本进行预测,根据主动学习策略计算每个样本的分值。此外,由于 AAE-GANs-AL 以无监督的方式训练未标注样本池的过程,都是在初始化环节完成,因此不考虑到主动学习的迭代流程中。如表4.1展示了 AAE-GANs-AL 与传统方法在时间成本上的表现。其中,“未标注样本池规模”表示图像数量;第 3 列和第 4 列表示在当前迭代过程中,执行完成主动学习方法相关的流程所需要的时间。实验结果表明 AAE-GANs-AL 在时间成本上的性能优于传统的方法,尤其是规模较大的未标注样本池。例如, MNIST-UPSP数据集的未标注样本池规模为 70000 张图像:传统方法在完成当前迭代的样本筛选环节时,由于需要预测大量的未标注样本,因此花费了 871 秒的时间成本;AAE-GANs-AL 只需 23 秒即可完成当前迭代的样本筛选流程(由于 AAE-GANs-AL在筛选样本过程中,所需时间跟未标注样本池的规模无关。因此,在相同数据集上所需的时间一样)。

4.3.4 全样本训练实验(暂略)

4.3.5 AAE-GANs-AL 在标注成本上的性能(暂略)

4.4 本章小结

基于生成式成员查询的主动学习方法在生成对抗网络的助力下,取得了显著的成绩。在本章的相关工作中,首先,我们将 AAE 和 GANs 进行组合训练(AAE-GANs),充分利用各自的优势提升了生成样本的质量。然后,我们将AAE-GANs 应用到主动学习方法中,提出一种基于生成对抗网络的二阶段主动学习方法。其中,第一个阶段将 AAE-GANs 的生成器和不确定性策略进行组合训练,使得生成器生成的图像相对当前分类器具有较高的不确定性。此时,通过生成器产生一批候选样本,减少了预测样本的时间成本。第二个阶段将第一个阶段产生的候选样本视为未标注样本池,并使用不确定性策略和多样性策略从中筛选出一批待标注样本,减少了待标注样本之间的冗余信息量。最后,我们通过对 MNIST-USPS和 CIFAR10 数据集对所提出的方法进行验证。实验结果表明,本章提出的基于生成对抗网络的二阶段主动学习方法既能够减少时间成本,又能够显著地减少样本的标注成本。值得一提的是, AAE-GANs-AL 对生成样本的质量要求较高。因此,在未来的工作中,可以重点关注提高生成器的质量。


特别说明:

说明:主动学习系列的参考文献,12月份整理并分享。

【Active Learning - 12】一种基于生成对抗网络的二阶段主动学习方法相关推荐

  1. 【论文分享】MAD-GAN :基于生成对抗网络的时间序列数据多元异常检测

    2019年ICANN文章 MAD-GAN: Multivariate Anomaly Detection for Time Series Data with Generative Adversaria ...

  2. 基于生成对抗网络的医学数据域适应研究

    点击上方蓝字关注我们 基于生成对抗网络的医学数据域适应研究 于胡飞, 温景熙, 辛江, 唐艳 中南大学计算机学院,湖南 长沙 410083   摘要:在医疗影像辅助诊断研究中,研究者通常使用不同医院( ...

  3. 基于生成对抗网络的自然语言生成(Natural language generation with Generative Adversarial Networks)

    作者:禅与计算机程序设计艺术 基于生成对抗网络的自然语言生成(Natural language generation with Generative Adversarial Networks) 引言 ...

  4. 【论文笔记】基于生成对抗网络的强化学习算法的研究

    目录 摘要 关键词 0 引言 1 相关理论 1.1 强化学习理论 1.2 生成对抗网络理论 1.3 基于生成对抗网络的强化学习算法 1.3.1 算法总体结构框架 2 实验与分析 3 总结 摘要 解决: ...

  5. 基于生成对抗网络完成小表面缺陷检测

    文章:Deep Learning-based Small Surface Defect Detection via an Exaggerated Local Variation-based Gener ...

  6. 【Journal of Computer-Aided Design Computer Graphics】基于生成对抗网络的行人重识别方法研究综述

    文章目录 引言 数据集介绍 基于GAN的行人重识别方法分类 2.1基于风格转换的方法 2.2基于数据增强的方法 2.3基于不变性特征学习的方法 3 基于GAN的方法性能对比分析 总结 引言 对于行人检 ...

  7. NeurIPS 2019 | MelGAN:基于生成对抗网络快速生成音频

    作者丨武广 学校丨合肥工业大学硕士生 研究方向丨图像生成 谈到数据的生成,很多人都会想到利用生成对抗网络(GAN)去实现,这对于图像和视频这种较易于编码表示的数据是合适的.然而在实现音频的生成时,却是 ...

  8. 优必选悉尼 AI 研究院王超岳:基于生成对抗网络的图像编辑方法

    近些年来,生成对抗网络在许多图像生成和图像编辑任务上都获得了很大的成功,并受到越来越多的关注.对于图像编辑任务,现在面临的两个重要的挑战分别是:如何指导网络向目标图像学习(以提升图像编辑的效果)和如何 ...

  9. DeepDGA:基于生成对抗网络的DGA生成与检测

    基于DeepDGA: Adversarially-Tuned Domain Generation and Detection 复现(Python):GitHub地址 研究背景 由DGA引发的一系列- ...

  10. 基于生成对抗网络的有遮挡人脸修复方法

    摘要 [目的]实现有遮挡人脸图像修复,以提升人脸识别系统中有遮挡条件下人脸识别的准确率.[应用背景]在无感人脸识别场景中,人脸图像常因帽子.口罩等遮挡物影响,现有人脸识别算法出现准确率下降甚至无法识别 ...

最新文章

  1. 推荐一款 Spring Boot 的 HTTP 客户端框架
  2. Pytorch和Numpy的默认类型
  3. 见识决定眼界,关注这些让你变得博学且有趣
  4. js笔记(三)ES5、ES5新增的数组的方法、字符串的方法、字符编码、对象的序列化和反序列化、bind
  5. 多线程中的volatile和伪共享
  6. PHP能在Mac上运行吗,PHP Composer无法在Mac上运行
  7. minio 并发数_MinIO 参数解析与限制
  8. designer pyqt5 界面切换_PyQT5堆叠布局:切换界面(QStackedLayout)
  9. vue 3.0记录Element UI 表单使用(看了隔壁小孩儿都会用的Element UI 表单组件使用)
  10. 2016年象行中国(上海站)圆满结束,会议PPT分享
  11. 安装VSS 2005中遇到的一些问题和解决方法
  12. 基于uni-app的模板,支持h5,小程序,安卓,ios,request请求封装,全局路由拦截,也可作为项目基础模板使用
  13. html怎么设置顶部导航栏,CSS+HTML如何实现顶部导航栏
  14. 解决在Filter中读取Request中的流后,后续controller或restful接口中无法获取流的问题
  15. 自媒体视频搬运,技术分享给大家!
  16. 2022高教杯数学建模E思路 超详细文字内容 数模E题
  17. LeetCode337打家劫社Ⅲ(树形动态规划)
  18. 帮我设计一个软件使用反馈调查问卷 详细
  19. 【2017年】阿里巴巴算法笔试第二题
  20. iOS进阶 - pod install 与 pod update 读这一篇就够了

热门文章

  1. 按字寻址和按字节寻址
  2. 一起学英语 - 前言
  3. 【寻找最佳小程序】01期:影视评分小工具“豆瓣评分”——产品设计要点及专家评析
  4. 5款伊思儷超媒體繁体游戏 中文简体补丁
  5. 跟踪(一):跟踪常见算法和特点
  6. edge 临时文件夹 位置_如何更改Microsoft Edge的下载文件夹的位置
  7. 2021-11-12
  8. 多模态逆天图片生成,OpenAI又一力作:DALL·E 2
  9. 书名带冒号_冒号_冒号的用法和作用_冒号怎么打_标点符号网
  10. 【华为机试真题 Python实现】统计射击比赛成绩