TensorFlow实现条件批归一化(Conditional Batch Normalization)

  • 条件批归一化(Conditional Batch Normalization)
  • TensorFlow实现条件批归一化
  • 在残差块中应用条件批归一化

条件批归一化(Conditional Batch Normalization)

批归一化 (Batch Normalization, BN) 是深度学习中常用的网络训练技巧,它不仅可以加快了模型的收敛速度,而且更重要的是在一定程度缓解了深层网络中“梯度弥散”的问题,从而使得训练深层网络模型更加容易和稳定,所以目前 BN 已经成为几乎所有卷积神经网络的标配技巧了,简单回顾下批 BN 的方程式:
BN(x)=γ(x−μ(x)σ(x))+βBN(x) = \gamma (\frac {x-\mu(x)}{\sigma(x)}) + \betaBN(x)=γ(σ(x)x−μ(x)​)+β
其中,均值 µµµ 和标准差 σσσ 是在 (N, H, W) 维度上进行计算的,每个规范化层只有一个仿射变换参数对 γγγ 和 βββ,它们是在训练时网络自己学习得到的。
但是在生成对抗网络 (Generative Adversarial Networks, GAN) 中使用 BN 会导致生成图片在一定程度上出现同质化的缺点。例如,在 CIFAR10 数据集中,有10类图片:6种是动物(分别为:鸟,猫,鹿,狗,青蛙和马),4种是交通工具(分别是:飞机,汽车,轮船和卡车)。显然,不同类别的图片在外观上看起来截然不同——交通往往具有坚硬而笔直的边缘,而动物倾向于具有弯曲的边缘和较柔和的纹理。
在风格迁移中我们已经了解了,激活的统计数据决定了图像样式。因此,混合批统计信息可以创建看上去有点像动物同时也有点像交通工具(例如,汽车形状的猫)的图像。这是因为批归一化在由不同类别图片组成的整个批次中仅使用一个 γ\gammaγ 和一个 β\betaβ。如果每种类别都有一个 γ\gammaγ 和一个 β\betaβ,则该问题得以解决,而这正是条件批规范化的意义所在。每个类别有一个 γ\gammaγ 和一个 β\betaβ,因此CIFAR10中的10个类别每层有10个 γ\gammaγ 和10个 β\betaβ。

TensorFlow实现条件批归一化

现在,我们可以构造条件批处理规范化所需的变量,如下所示:

  1. 形状为 (10, C) 的 β\betaβ 和 γ\gammaγ,其中 C 是激活通道数。
  2. (1, 1, 1, C) 形状的游动均值和方差。在训练中,均值和方差是从小批次计算得出的。在推论过程中,我们使用训练中累积的移动均值。它们的形状使算术运算可以广播到 N,H 和 W 维度。

利用自定义层实现条件批归一化,首先创建所需变量:

class ConditionBatchNorm(Layer):def build(self, input_shape):self.input_size = input_shapen, h, w, c = input_shapeself.gamma = self.add_weight(shape=[self.n_class, c], initializer='zeros', trainable=True, name='gamma')self.moving_mean = self.add_weight(shape=[1, 1, 1, c],initializer='zeros', trainable=False, name='moving_mean')self.moving_var = self.add_weight(shape=[1, 1, 1, c], initializer='zeros', trainable=False, name='moving_var')

当运行条件批归一化时,为标签检索正确的 β\betaβ 和 γ\gammaγ。这是使用 tf.gather(self.beta, labels) 完成的,它在概念上等效于 beta = self.beta[labels],如下所示:

    def call(self, x, labels, trainable=False):beta = tf.gather(self.beta, labels)beta = tf.expand_dims(beta, 1)gamma = tf.gather(self.gamma, labels)gamma = tf.expand_dims(gamma, 1)if training:mean, var = tf.nn.moments(x, axes=(0,1,2), keepdims=True)self.moving_mean.assign(self.decay * self.moving_mean + (1-self.decay)*mean)self.moving_var.assign(self.decay * self.moving_var + (1-self.decay)*var)output = tf.nn.batch_normalization(x, mean, var, beta, gamma, self.eps)else:output = tf.nn.batch_normalization(x, self.moving_mean, self.moving_var, beta, gamma, self.eps)return output

在残差块中应用条件批归一化

条件批归一化的使用方式与批归一化相同,作为示例,现在我们将条件批归一化添加到残差块中:

class ResBlock(Layer):def build(self, input_shape):input_filter = input_shape[-1]self.conv_1 = Conv2D(self.filters, 3, padding='same', name='conv2d_1')self.conv_2 = Conv2D(self.filters, 3, padding='same', name='conv2d_2')self.cbn_1 = ConditionBatchNorm(self.n_class)self.cbn_2 = ConditionBatchNorm(self.n_class)self.learned_skip = Falseif self.filters != input_filter:self.learned_skip = Trueself.conv_3 = Conv2D(self.filters, 1, padding='same', name='conv2d_3')self.cbn_3 = ConditionBatchNorm(self.n_class)

以下是使用条件批归一化残差块的前向计算代码:

    def call(self, input_tensor, labels):x = self.conv_1(input_tensor)x = self.cbn_1(x, labels)x = tf.nn.leaky_relu(x, 0.2)x = self.conv_2(x)x = tf.cbn_2(x, labels)x = tf.nn.leaky_relu(x, 0.2)if self.learned_skip:skip = self.conv_3(input_tensor)skip = self.cbn_3(skip, labels)skip = tf.nn.leaky_relu(skip, 0.2)else:skip = input_tensoroutput = skip + xreturn output

TensorFlow实现条件批归一化(Conditional Batch Normalization)相关推荐

  1. 批归一化《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》

    批归一化<Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift ...

  2. 3.1 Tensorflow: 批标准化(Batch Normalization)

    ##BN 简介 背景 批标准化(Batch Normalization )简称BN算法,是为了克服神经网络层数加深导致难以训练而诞生的一个算法.根据ICS理论,当训练集的样本数据和目标样本集分布不一致 ...

  3. 批标准归一化(Batch Normalization)解析

    1,背景 网络一旦train起来,那么参数就要发生更新,除了输入层的数据外(因为输入层数据,我们已经人为的为每个样本归一化),后面网络每一层的输入数据分布是一直在发生变化的,因为在训练的时候,前面层训 ...

  4. Lesson 14.1 数据归一化与Batch Normalization理论基础

    Lesson 14.1 数据归一化与Batch Normalization理论基础   数据归一化是机器学习领域的一种对数据处理的常规方式.在传统机器学习领域,由于各特征的量纲不一致,可能出现建模过程 ...

  5. 批标准化(batch normalization)与层标准化(layer normalization)比较

    批标准化(batch normalization,BN)与层标准化(layer normalization,LN)应该都是为了解决网络训练过程中的协变量漂移问题. BN与LN的归一化方法都是先减均值, ...

  6. Conditional Batch Normalization 详解(SFT思路来源)

    Conditional Batch Normalization 的概念来源于这篇文章:Modulating early visual processing by language .后来又先后被用在  ...

  7. 批标准化(Batch Normalization )最详细易懂的解释

    12. 批标准化(Batch Normalization ) 大纲:Tips for Training Deep Network Training Strategy: Batch Normalizat ...

  8. 局部响应归一化(Local Response Normalization,LRN)和批量归一化(Batch Normalization,BN)的区别

    为什么要归一化? 归一化已成为深度神经网络中的一个重要步骤,它可以弥补ReLU.ELU等激活函数无界性的问题.有了这些激活函数,输出层就不会被限制在一个有限的范围内(比如tanh的[−1,1][-1, ...

  9. 吴恩达神经网络和深度学习-学习笔记-17-batch归一化(Batch Normalization)(BN)

    简介和作用 Batch Normalization会使你的参数搜索问题变得很容易,使神经网络对超参数的选择更加稳定,超参数的范围会扩大,工作效果也很好,同时也能使你更容易地训练深层网络. 针对一个单层 ...

最新文章

  1. 【年度总结】我的2018年
  2. jar包 热加载/卸载 的初步实现
  3. kernel shell bash简介
  4. SpringMVC 参数校验
  5. android代码导入有错误,android新项目导入后进行编译出现cmake错误
  6. 产品经理常犯的七大错误
  7. Mac安装metasploit-framework【亲测有用】
  8. 微信小程序 - 授权页面
  9. DOCX是什么格式文件
  10. 用Word2007写Blog
  11. HTTPS是如何保证连接安全:每位Web开发者都应知道的
  12. English_写作常用句型5句
  13. 【生活相关】二(2014年新年畅想)
  14. 第四章 使用OpenCV探测来至运动的结构——Chapter 4:Exploring Structure from Motion Using OpenCV
  15. 大量精品国学论文免费下载
  16. python分号_python中的分号(“;”)
  17. CSS——文字溢出省略成点点点
  18. 黑客帝国神级影评,转至豆瓣。 — — 哲思。
  19. 360浏览器和搜狗浏览器查看双内核版本及如何控制内核版本
  20. 五、用矩阵键盘实现密码锁

热门文章

  1. 【BZOJ1417】Pku3156 Interconnect
  2. 第6次结对作业--郑锦伟古维城
  3. C#用域账号登陆,访问网络路径
  4. [开源]STM32F103RBT6最小系统,LEDx2,KEYx4
  5. SharePoint 2013版本功能对比介绍
  6. [转帖]SQL SERVER 2005 安全设置
  7. [转载] Python round四舍五入精度缺失的解决
  8. [转载] python中list的方法有哪些_Python 列表(list)中的方法
  9. [转载] python字符串_一文详解Python字符串条件判断方法
  10. 防风网-挡风抑尘墙:挡风抑尘墙