介绍

生成模型是近年来受到广泛关注的无监督学习中的一类重要模型。可以将它们定义为一类模型,其目标是学习如何生成与训练数据来自同一数据集的新样本。在训练阶段,生成模型试图解决密度估计的核心任务。 在密度估计中,我们的模型学习构建一个估计——pmodel(x)——尽可能类似于不可观察的概率密度函数——pdata(x)。需要说明的是,生成模型应该能够从分布中生成新样本,而不仅仅是复制和粘贴现有样本。 一旦我们成功地训练了我们的模型,它就可以用于各种各样的应用,从各种形式的重建,如图像填充、着色和超分辨率到生成艺术品。

我们可以使用几种不同的方法来执行这种概率密度估计,例如:

  1. 生成对抗网络 (GAN) 使用模型执行隐式密度估计的方法。在这种情况下,我们训练了一个模型,该模型可以从 pmodel(x) 创建样本,而无需明确定义 pmodel(x);该模型学习一个随机过程,并使用该过程生成数据,但不提供观测概率的知识,或指定一个条件对数似然函数;
  2. 变分自编码器 (VAE) 使用显式密度估计,但定义了一个带有潜在变量的难以处理的密度函数。因此为了训练模型,我们导出并优化似然的下界(近似密度);我们通过最大化证据下界(ELBO)优化数据的对数似然(log-likelihood);
  3. 自回归 (AR) 模型创建了一个显式密度模型,该模型易于处理以最大化训练数据的可能性(可处理密度)。出于这个原因,使用这些方法,很容易计算数据观察的可能性并获得生成模型的评估指标。

正如上面提到的自回归是一种实用的方法,它提供了似然函数的显式建模。但是要对具有多个维度/特征的数据进行建模,自回归模型需要有一些附加条件。首先,输入空间 X 需要对其特征进行确定排序。这就是为什么自回归模型通常用于具有内在时间步长序列的时间序列。它们可以通过定义例如左侧的像素在右侧的像素之前,顶部的像素在底部的像素之前来用于图像。其次,为了在数据观察 (p(x)) 中对特征的联合分布进行易处理的建模,自回归方法将p(x)视为条件分布的乘积。给定先前特征的值,自回归模型使用每个特征的条件定义联合分布。例如,图像中某个像素具有特定强度值的概率取决于所有先前像素的值;而一幅图像的概率(所有像素的联合分布)是它所有像素的概率的组合。因此,自回归模型使用链式法则将数据样本 x 的似然分解为一维分布的乘积(以下方程)。分解将联合建模问题转化为序列问题,在给定所有先前生成的像素的情况下,学习预测下一个像素。

这些条件(即确定条件分布的顺序和乘积)就是定义自回归模型的主要条件。

现在,最大的挑战是计算这些条件似然 p(x ᵢ| x₁, …, x ᵢ ₋ ₁)。 我们如何在一个易于处理和可扩展的表达模型中定义这些复杂的分布? 一种解决方案是使用通用逼近器,比如深度神经网络。

PixelCNN

DeepMind在2016年引入了PixelCNN (Oord et al., 2016),该模型开启了最有前途的自回归生成模型家族。从那时起,它就被用于生成语音、视频和高分辨率图片。

PixelCNN 是一种深度神经网络,它在其参数中捕获像素之间的依赖关系分布。 它沿两个空间维度在图像中一次顺序生成一个像素。

像素 i(红色)由所有先前的像素(蓝色)定义。 PixelCNN 可以使用沿深度神经网络的卷积层对它们的关联进行建模。

使用卷积操作,PixelCNN 可以并行学习图像中所有像素的分布。 然而,在确定特定像素的概率时,标准卷积层的感受野违反了自回归模型的顺序预测。 在处理一个中心像素的信息时,卷积滤波器会考虑它周围的所有像素来计算输出特征图,而不仅仅是前面的像素。所以这里需要采用掩码来阻止来自尚未预测的像素的信息流。

带掩码的卷积层

掩码可以通过将所有不应考虑的像素归零来完成。 在我们的实现中,创建了一个与卷积滤波器大小相同、值为 1 和 0 的掩码。 在进行卷积运算之前,这个掩码与权重张量相乘。 在 PixelCNN 中,有两种类型的掩码:

掩码类型 A:此掩码仅应用于第一个卷积层。 它通过将掩码中的中心像素归零来限制对像素的访问。 这样,我们保证模型不会访问它即将预测的像素(下图中的红色部分)。

掩码类型 B:此掩码应用于所有后续卷积层,并通过允许从像素到自身的连接来放宽掩码 A 的限制。 这对于解释第一层的像素预测很重要。

掩码 A 仅用于第一个卷积层。 掩码 B 用于所有其他层,以允许以像素为中心的卷积操作的信息沿网络传播。

在这里,我们展示了使用 Tensorflow 2.0 框架实现掩码的片段。

class MaskedConv2D(keras.layers.Layer):"""Convolutional layers with masks.Convolutional layers with simple implementation of masks type A and B forautoregressive models.Arguments:mask_type: one of `"A"` or `"B".`filters: Integer, the dimensionality of the output space(i.e. the number of output filters in the convolution).kernel_size: An integer or tuple/list of 2 integers, specifying theheight and width of the 2D convolution window.Can be a single integer to specify the same value forall spatial dimensions.strides: An integer or tuple/list of 2 integers,specifying the strides of the convolution along the height and width.Can be a single integer to specify the same value forall spatial dimensions.Specifying any stride value != 1 is incompatible with specifyingany `dilation_rate` value != 1.padding: one of `"valid"` or `"same"` (case-insensitive).kernel_initializer: Initializer for the `kernel` weights matrix.bias_initializer: Initializer for the bias vector."""def __init__(self,mask_type,filters,kernel_size,strides=1,padding='same',kernel_initializer='glorot_uniform',bias_initializer='zeros'):super(MaskedConv2D, self).__init__()assert mask_type in {'A', 'B'}self.mask_type = mask_typeself.filters = filtersself.kernel_size = kernel_sizeself.strides = stridesself.padding = padding.upper()self.kernel_initializer = initializers.get(kernel_initializer)self.bias_initializer = initializers.get(bias_initializer)def build(self, input_shape):self.kernel = self.add_weight('kernel',shape=(self.kernel_size,self.kernel_size,int(input_shape[-1]),self.filters),initializer=self.kernel_initializer,trainable=True)self.bias = self.add_weight('bias',shape=(self.filters,),initializer=self.bias_initializer,trainable=True)center = self.kernel_size // 2mask = np.ones(self.kernel.shape, dtype=np.float32)mask[center, center + (self.mask_type == 'B'):, :, :] = 0.mask[center + 1:, :, :, :] = 0.self.mask = tf.constant(mask, dtype=tf.float32, name='mask')def call(self, input):masked_kernel = tf.math.multiply(self.mask, self.kernel)x = nn.conv2d(input,masked_kernel,strides=[1, self.strides, self.strides, 1],padding=self.padding)x = nn.bias_add(x, self.bias)return x

模型架构

PixelCNN 使用以下架构:第一层是带有 7x7 过滤器的掩码卷积(A 型)。 然后,使用了 15 个残差块。 每个块使用掩码类型 B 的 3x3 卷积层和标准 1x1 卷积层的组合处理数据。 在每个卷积层之间,都有一个非线性 ReLU。

在序列块之后为RELU-CONV-RELU-CONV 层,其中CONV是使用带有1x1 滤波器标准卷积。 然后,输出层是一个 softmax 层,它预测像素的所有可能值。 模型的输出具有与输入图像大小相同的格式(因为我们想要每个像素的输出值)乘以可能值的数量(根据强度级别进行分类,例如256 个强度级别)。

class ResidualBlock(keras.Model):"""Residual blocks that compose pixelCNNBlocks of layers with 3 convolutional layers and one residual connection.Based on Figure 5 from [1] where h indicates number of filters.Refs:[1] - Oord, A. V. D., Kalchbrenner, N., & Kavukcuoglu, K. (2016). Pixelrecurrent neural networks. arXiv preprint arXiv:1601.06759."""def __init__(self, h):super(ResidualBlock, self).__init__(name='')self.conv2a = keras.layers.Conv2D(filters=h, kernel_size=1, strides=1)self.conv2b = MaskedConv2D(mask_type='B', filters=h, kernel_size=3, strides=1)self.conv2c = keras.layers.Conv2D(filters=2 * h, kernel_size=1, strides=1)def call(self, input_tensor):x = nn.relu(input_tensor)x = self.conv2a(x)x = nn.relu(x)x = self.conv2b(x)x = nn.relu(x)x = self.conv2c(x)x += input_tensorreturn x# Create PixelCNN model
inputs = keras.layers.Input(shape=(height, width, n_channel))
x = MaskedConv2D(mask_type='A', filters=128, kernel_size=7, strides=1)(inputs)for i in range(15):x = ResidualBlock(h=64)(x)x = keras.layers.Activation(activation='relu')(x)
x = keras.layers.Conv2D(filters=128, kernel_size=1, strides=1)(x)
x = keras.layers.Activation(activation='relu')(x)
x = keras.layers.Conv2D(filters=128, kernel_size=1, strides=1)(x)
x = keras.layers.Conv2D(filters=q_levels, kernel_size=1, strides=1)(x)pixelcnn = keras.Model(inputs=inputs, outputs=x)

预处理

PixelCNN 的输入值被缩放到 [0, 1] 的范围内。通过量化输入值,可以达到快速受收敛的目的。

输出目标对应于指示像素强度的分类(整数)值。

模型评价指标

PixelCNN也是一个分类问题,所以模型通过最大化目标的可能性来训练其参数。

大多数优化问题都可以被定义为最小化问题,因此常用的技巧是将训练目标转换为负对数似然 (NLL) 的最小化。

由于 p(xᵢ|θ) 对应于 softmax 层输出的概率,因此 NLL 相当于交叉熵损失函数——监督学习中常用的损失函数。 此外,NLL 是用于比较生成方法(使用NAT单位或每像素单位)之间的性能的指标。

推理

由于PixelCNN是一个自回归模型,推理是顺序的——我们必须逐个像素地生成。首先,我们通过向模型传递0来生成图像。它不应该影响第一个像素,因为它的值被建模为独立于所有其他像素。 我们执行前向传播并获得其分布。 给定分布后我们从多项式概率分布中抽取一个值。 然后我们用采样的像素值更新我们的图像,我们重复这个过程,直到我们生成了所有的像素值。 这里的 PixelCNN 使用 MNIST 数据集在 150 个训练轮次后生成样本。 每个生成的图像都有四个像素强度级别。

同样的采样过程可以用部分遮挡的图像作为起始点。

现在,我们也尝试训练或建模,以产生具有256级像素强度的图像。

以下是部分遮挡的图像作为起始点的256级像素强度的图像

与其他生成模型(VAE和gan)相比,这种采样过程相对较慢,因为其他模型中所有像素都是一次性生成的。不过最近的研究使得速度有了很大的进步,例如可以使用缓存值来减少采样时间(例如Fast pixelcnn++)

总结

PixelCNN 模型的优点是联合概率学习技术是非常容易处理的; 我们只是尝试在给定所有先前像素值的情况下预测后面的每个像素值。 由于 PixelCNN 是通过最小化负对数似然来训练的,因此与其他方法(例如 GAN——需要找到纳什均衡)相比它的训练更加稳定。 但是由于样本的生成是顺序的(逐像素),原始的 PixelCNN 在可扩展性方面存在困难。

引用

  • http://sergeiturukin.com/2017/02/22/pixelcnn.html
  • https://towardsdatascience.com/auto-regressive-generative-models-pixelrnn-pixelcnn-32d192911173
  • https://deepgenerativemodels.github.io/
  • https://eigenfoo.xyz/deep-autoregressive-models/
  • https://wiki.math.uwaterloo.ca/statwiki/index.php?title=STAT946F17/Conditional_Image_Generation_with_PixelCNN_Decoders
  • https://www.codeproject.com/Articles/5061271/PixelCNN-in-Autoregressive-Models
  • https://towardsdatascience.com/blind-spot-problem-in-pixelcnn-8c71592a14a
  • https://www.youtube.com/watch?v=5WoItGTWV54&t=1165s
  • https://www.youtube.com/watch?v=R8fx2b8Asg0
  • https://arxiv.org/pdf/1804.00779v1.pdf
  • https://blog.evjang.com/2019/07/likelihood-model-tips.html
  • https://arxiv.org/abs/1810.01392
  • http://bjlkeng.github.io/posts/pixelcnn/
  • https://jrbtaylor.github.io/conditional-pixelcnn/
  • http://www.gatsby.ucl.ac.uk/~balaji/Understanding-GANs.pdf
  • https://www.cs.ubc.ca/~lsigal/532S_2018W2/Lecture13b.pdf
  • https://tinyclouds.org/residency/
  • https://tensorflow.blog/2016/11/29/pixelcnn-1601-06759-summary/
  • https://web.cs.hacettepe.edu.tr/~aykut/classes/spring2018/cmp784/slides/lec10-deep_generative_models-part-I_2.pdf

作者: Walter Hugo Lopez Pinaya, Pedro F. da Costa, and Jessica Dafflon

自回归模型 - PixelCNN相关推荐

  1. 自回归模型PixelCNN 的盲点限制以及如何修复

    来源: DeepHub IMBA 本文约4500字,建议阅读10分钟 本篇文章我们将关注 PixelCNNs 的最大限制之一(即盲点)以及如何改进以修复它. 在这篇文章中我们将介绍盲点的概念,讨论 P ...

  2. 李沐论文精读系列五:DALL·E2(生成模型串讲,从GANs、VE/VAE/VQ-VAE/DALL·E到扩散模型DDPM/ADM)

    文章目录 一. 前言 1.1 DALL·E简介 1.2 DALL·E2简介 1.3 文生图模型进展 二. 引言 2.1 摘要 2.2 引言&模型结构 三. 算法铺垫 3.1 GANs 3.2 ...

  3. AI艺术的背后:详解文本生成图像模型【基于 VQ-VAE】

    系列文章链接: AI艺术的背后:详解文本生成图像模型[基于 VQ-VAE] AI艺术的背后:详解文本生成图像模型[基于GAN] AI艺术的背后:详解文本生成图像模型[基于Diffusion Model ...

  4. 生成模型——自回归模型详解与PixelCNN构建

    生成模型--自回归模型详解与PixelCNN构建 自回归模型(Autoregressive models) 简介 PixelRNN 使用TensorFlow 2构建PixelCNN模型 输入和标签 掩 ...

  5. PaperNotes(13)-Conditional Image Generation with PixelCNN Decoders

    conditional Image generation with PixelCNN Decoders ICML的best paper pixel cnn 属于完全可见的信念网络,需要对 概率密度 建 ...

  6. 【图像压缩】自回归模型 《Joint Autoregressive and Hierarchical Priors for Learned Image Compression》

    1. 绪论 第一个在PSNR和MS-SSIM都优于BPG的学习模型.引入自回归模型改善熵模型,虽然自回归模型计算很慢,但作者发现在图像压缩领域,自回归模型与多层先验模型互补,能够比之前的模型更能挖掘隐 ...

  7. 图片生成模型——gated pixelCNN

    google DeepMind团队在<pixel recurrent neural networks>中提出了pixelRNN/CNN之后又发表了一篇论文--<Conditional ...

  8. 【DL】第 4 章:自回归模型

    在本章中,您将: 了解为什么自回归模型非常适合生成顺序数据,例如文本. 了解如何处理和标记化文本数据 了解循环神经网络 (RNN) 的架构设计 使用 Keras 从头开始构建和训练长短期记忆 (LST ...

  9. 什么是PixelCNN

    PixelCNN是一种自回归模型,自回归模型是生成模型的一种. DeepMind在2016年推出了PixelCNN,该模型开启了自回归生成模型系列之一.它已被用于生成语音,视频和高分辨率图片 Pixe ...

  10. 自回归与非自回归模型如何兼得?预训练模型BANG或许可解

    作者 | 齐炜祯.宫叶云.段楠 来源 | 微软研究院AI头条 头图 | 下载于视觉中国 编者按:近两年,预训练技术的发展极大地提高了自然语言生成的效果,但随着数据量和模型大小的增加,模型在使用时的推断 ...

最新文章

  1. 域渗透提权之MS14-068
  2. (转)C#操作XML的完整例子——XmlDocument篇
  3. tomcat 项目发布失败原因_项目启动tomcat失败的几种可能原因和解决方法
  4. 通过自定义消息调用主窗体的菜单项
  5. cs架构用什么语言开发_我为什么建议Python开发者将ES6作为第二语言
  6. opencv for andriod java代码实现霍夫变化(HoughLinesP)
  7. lua mysql发包_如何发包
  8. 马云谈 5G 危机;腾讯推出车载版微信;Ant Design 3.22.1 发布 | 极客头条
  9. CAAnimation KeyPath学习总结
  10. php 等比例缩略图,PHP等比例生成缩略图
  11. android4.0 禁止横竖屏切换使用 android:configChanges=orientation|keyboardHidden无效
  12. 细胞自动机 c语言程序,细胞自动机之生命游戏
  13. 解决RabbitMQ 集群搭建显示cookie
  14. 关于Intel显卡控制面板导致快捷键失灵的解决方法
  15. VC++开发RTX拨打电话插件
  16. ProxySQL 配置详解及读写分离(+GTID)等功能说明 (完整篇)2
  17. 锁相环(PLL)基本原理与频率合成器
  18. Flutter设置Container的最大最小宽高
  19. 如何正确删除网易云音乐的粉丝
  20. Java获取IP工具类以及使用

热门文章

  1. 520 miix 小兵 黑苹果,Hackintosh黑苹果长期维护机型整理清单
  2. 关于sinx交换积分次序变号的问题
  3. 三次Hermite插值解析
  4. CMMI4 培训计划
  5. 射频电路设计——传输线理论
  6. aforge java_C#调用AForge实现摄像头录像的示例代码
  7. JSPstudy恢复80端口
  8. VS Code的相对路径问题 (No such file or directory: './lenna.png')
  9. 网页与多个服务器建立websoc,同一个页面怎么发起多个websocket
  10. 精讲设计模式-Builder模式