文章目录

  • 摘 要
  • 1、介绍
  • 2、相关工作
  • 3、神经风格迁移
  • 4、空间控制
    • 4.1. 引导性 Gram 矩阵
    • 4.2. 引导性总和
  • 5、颜色控制
    • 5.1. 仅有亮度的转移
    • 5.2. 颜色直方图匹配
    • 5.3. 比较
  • 6、规模控制
    • 6.1. 风格混合的比例控制
    • 6.2. 高效高分辨率的比例控制
  • 7、控制快速神经风格迁移
    • 7.1. 颜色控制
    • 7.2. 空间控制
  • 8、讨论

摘 要

神经风格转换已经显示出非常令人振奋的结果,使图像操作的新形式得以实现。在这里,我们扩展了现有的方法,引入了对空间松散度、颜色信息和跨空间尺度的控制。我们展示了这一方法是如何通过允许高分辨率的可控风格化来增强该方法的,并有助于缓解常见的失败案例,如将地面纹理应用到天空区域。此外,通过将风格分解为这些感知因素,我们可以将来自多个来源的风格信息结合起来,从现有的风格中生成新的、具有感知吸引力的风格。我们还描述了这些方法如何被用来更有效地产生大尺寸、高质量的风格。最后,我们展示了如何将引入的控制措施应用于最近的快速神经风格转换方法。

1、介绍

基于实例的风格转换是一种从现有图像中创造新的、具有感知吸引力的图像的主要方式。它将两幅图像xS和xC作为输入,并将xS的风格应用于xC的内容,产生一个新的图像ˆx。"风格" 和 "内容 " 的概念都是用图像统计学来表达的;例如,如果两幅图像体现了相同的特定图像特征的相关性,就可以说它们具有相同的风格。为了对这一过程提供直观的控制,人们必须确定在这些统计数据中获取感知因素的方法。

为了确定这些因素,我们观察一下人们描述一件艺术品的不同方式,比如文森特-凡高的《有柏树的麦田》(图2(c))。首先,人们可能会分别描述不同区域的不同风格,比如天空与地面的对比。第二,我们可以描述调色板,以及它与基本场景的关系,与图像构图或笔触纹理等因素分开。第三,人们可能会描述精细的空间结构,如笔画的形状和纹理,与粗略的结构,如笔画的排列和画中天空的漩涡状结构分开。这些观察激发了我们的假设:图像风格可以在理论上被分解为不同空间区域的风格(different spatial regions)、颜色( colour)和亮度信息(luminance information,)以及跨空间尺度(across spatial scales)的风格,使它们成为图像风格化的有效控制维度

在这里,我们在这一假设的基础上,将有效控制引入到最近的图像风格化方法中,即神经风格转移[8],其中捕捉内容和风格的图像统计被定义在卷积神经网络(CNN)的特征响应上[22]。也就是说,我们介绍了在不同空间区域(图1(b))、颜色和亮度信息(图1©)以及不同空间尺度(图1(d))下控制图像风格化的方法。我们展示了如何应用它们来改善神经风格转移,并缓解其一些常见的失败案例。此外,我们还展示了将风格分解成这些方面的因素可以优雅地结合来自多个图像的风格信息,从而能够创造出新的、在感知上有趣的风格。我们还展示了一种有效渲染高分辨率风格的方法,该方法采用从粗到细的方法,将操作时间减少了约2.5倍。最后,我们展示了除了原始的基于优化的风格转换之外,这些控制方法也可以应用于最近的神经风格转换的快速近似[13, 23] 。


图1:我们的控制方法概述。(a) 内容图像,有空间掩码的插图。(b) 空间控制。天空是使用图2(c )中风格II的天空进行造型的。地面使用图4(b)中的样式一。(c ) 颜色控制。使用第5.1节中描述的仅有亮度的风格转换来保留内容图像的颜色。 (d) 比例控制。使用图4(b)中的样式I对精细比例进行定型,使用图4(b)中的样式III对粗略比例进行定型。使用第5.2节中描述的颜色匹配来保留颜色。

2、相关工作

在图像风格化技术方面有大量的工作。第一个基于实例的技术是Image Analogies[12],它建立在基于补丁的纹理合成技术上[4, 26]。这个方法引入了基于绘画实例的风格化,以及保留颜色和单独控制不同区域风格化的方法。该方法使用了从粗到细的纹理合成程序以提高速度[26]。此后,人们提出了对优化方法的改进和新的应用[20, 6]。基于补丁的方法也被用于CNN特征[16, 2],导致了改进的纹理表示和风格化结果。基于补丁的纹理合成的比例控制已经被开发出来[9],许多其他技术也被开发出来用于转换颜色风格[5]。在非逼真渲染的文献中,也有许多程序化的风格化技术提供了广泛的用户控制,例如,[1, 15, 18]。这些程序化的方法为风格的空间变化、颜色转换和笔触风格提供了单独的控制,但不能从训练数据中进行操作。

最近,神经风格转移[8]在基于实例的图像风格化方面取得了令人印象深刻的结果。该方法是基于一个参数化的纹理模型[14, 10, 19],由CNN响应[7]的汇总统计数据定义,似乎比基于补丁的合成有几个优势。最突出的是,在风格过程中,它显示出更大的灵活性,可以创建源图像中不存在的新图像结构[16]。

然而,在参数化神经纹理模型[7]中对图像风格的表述,对风格化结果的直观控制远不如基于补丁的方法。纹理参数可以用来影响风格化,但由于它们所定义的深度表征的复杂性,它们的相互作用极为复杂。因此,很难预测它们对风格化结果的感知效果。我们在这项工作中的主要目标是引入直观的方法来控制神经风格转换,以结合该方法的优势和早期风格化方法的更细粒度的用户控制。请注意,同时进行的工作[27]独立开发了一个类似于这里提出的空间控制的方法。

3、神经风格迁移

神经风格转移法[8]的工作原理如下。我们在CNN的第ℓ层定义一个内容图像xC和一个风格图像xS,并有相应的特征表示Fℓ(xC)和Fℓ(xS)。Fℓ(x)的每一列都是一个矢量的特征图,因此Fℓ∈RMℓ(x)×Nℓ,其中Nℓ是层ℓ中特征图的数量,Mℓ(x)=Hℓ(x)×Wℓ(x)是每个特征图的高度和宽度之积。请注意,Nℓ与输入图像无关,而Mℓ(x)则与输入图像的大小有关。

神经风格转换生成一个新的图像ˆx,通过最小化以下关于ˆx的损失函数,在图像xS的风格中描述图像xC的内容:

其中,内容项比较了单层ℓC的特征图:

样式项比较一组汇总统计信息:

其中Gℓ(x)=1 Mℓ(x) Fℓ(x)T Fℓ(x)是图像x在层ℓ响应的特征图的Gram 矩阵。如同最初的工作[8],我们使用VGG-19网络,并将 "conv4 2 "作为图像内容的层ℓC,将 “conv1 1”、“conv2 1”、“conv3 1”、“conv4 1”、"conv5 1 "等层的Gram Matrices作为风格模型的图像统计。

4、空间控制

我们首先介绍在空间上控制神经风格转移的方法。我们的目标是控制风格图像的哪个区域被用于对内容图像中的每个区域进行风格化。例如,我们希望在图像的天空区域应用一种风格,在地面区域应用另一种风格,以避免人造物(图2(d),(e))或从多个来源产生新的风格组合(图2(f))。我们以R空间引导通道Tr作为输入用于content和style图像(图2(a)-(c )的小插图)。每一个都是[0, 1]中数值的图像映射,指定哪些样式应该应用在哪里:第r个内容引导通道等于1的区域应该从第r个样式引导通道为1的区域获得样式。当有多个样式的图像时,区域在所有的例子图像上索引。引导通道被传播到CNN,为每层产生引导通道Tr ℓ。这可以通过简单的重新取样或更多的方法来完成,我们将在本节后面解释。我们首先讨论给定引导图的合成算法。

4.1. 引导性 Gram 矩阵

在我们提出的第一种方法中,我们将包含在风格特征中的每一层的特征图与R引导通道Tr ℓ相乘并为风格图像中的每个R区域计算一个空间引导Gram矩阵。形式上,我们将空间引导特征图定义为:

这里Frℓ (x)[:,i]是Frℓ (x)的第i个列向量,r∈R,◦表示逐元素乘法。引导通道Trℓ是矢量的,可以是硬引导的二进制掩码,也可以是软引导的实数值。我们对Trℓ进行归一化,使∑i(Trℓ )2 i = 1。那么,引导的Gram矩阵就是:

Each guided Gram Matrix 都被用作内容图像相应区域的优化工具。然后,图层ℓ对风格损失的贡献是:

其中 λr 是控制相应区域 r 中的风格化强度的权重因子。

指导通道的一个重要用途是确保风格在内容和风格图像中类似场景的区域之间转移。例如,图2显示了一个例子,内容图像中的天空有明亮的云彩,而风格图像中的天空有灰色的云彩;结果,原始的风格转移将天空与地面的明亮部分风格化了,这与天空的外观不一致。我们通过将两幅图像分为天空和地面区域来解决这个问题(图2(a),(b)小插图),并要求用绘画中的天空和地面区域来为照片中的相应区域风格化(图2(e))。

鉴于输入的引导通道Tr,我们需要首先传播这个通道,为每个层产生引导通道Trℓ。最明显的方法是将Tr向下采样到每层特征图的尺寸。然而,我们经常发现,这样做无法保持所需的按区域分离的风格,例如,地面纹理仍然出现在天空中。这是因为指导区域边界附近的神经元可以有很大的感受野与其他区域重叠。相反,我们使用了一个侵蚀版的空间引导通道。我们只对感受野完全在引导区域内的神经元实施空间引导,并添加另一个在整个图像上恒定的全局引导通道。我们发现,这种软空间引导通常能产生更好的结果。关于创建引导通道的进一步细节,见补充材料第1.1节。

这个方法的另一个应用是通过结合多个实例图像的风格来生成一个新的风格。图2(f)显示了一个例子,在这个例子中,区域引导被用来使用一张图片的天空风格和另一张图片的地面风格。这个例子展示了空间引导的潜力,即把许多例子的风格结合在一起产生新的风格。

4.2. 引导性总和

另外,我们也可以不为每个引导通道计算格拉姆矩阵,而是直接将引导通道与特征图堆叠在一起,就像在[2]中为空间引导神经斑块所做的那样[16]。图像x在层ℓ中的特征表示是F′ℓ(x)=[Fℓ(x), T1 ℓ , T2 ℓ , …, TR ℓ ] ,F′ℓ(x)∈R(Nℓ+R)×Mℓ(x)。现在格拉姆矩阵G′ ℓ(x) = 1 Mℓ(x) F′ ℓ(x)T F′ ℓ(x)包括图像特征与引导通道的非零项之间的关系,因此鼓励风格图像中r区域的特征被用于内容图像中r区域的风格化。图层ℓ对风格损失的贡献简单来说就是:

这显然比第4.1节中提出的方法更有效。我们不需要计算和匹配R个 Gram 矩阵,而只需要计算一个带有R个额外通道的 Gram 矩阵。然而,这种效率的提高是以牺牲纹理质量为代价的。新的 Gram 矩阵中的额外通道是引导通道在空间上加权的每个特征图的总和

因此,这种方法实际上是在匹配原始全局 Gram 矩阵风格化和特征图的空间加权和之间进行插值。虽然特征图之和也给出了一个非简单的纹理模型,但其对复杂纹理建模的能力是有限的[7]。在实践中,我们发现这种方法往往可以得到很好的结果,但也不能完全捕捉到风格图像的纹理——正如劣质纹理模型所预期的那样。结果和比较可以在补充材料的1.2节中找到。

5、颜色控制

一个图像的颜色信息是其风格的一个重要的感知方面。同时,它在很大程度上独立于其他风格方面,如使用的笔触类型或主导的几何形状。因此,在神经风格转换中独立控制颜色信息是可取的。这种控制的一个突出的用例是在风格转移过程中保留颜色。当使用神经风格转移对图像进行风格化处理时,输出也会复制风格图像的颜色分布,这在许多情况下可能是不可取的(图3(c ))。例如,风格化的农舍具有梵高原画的颜色(图3(c )),而人们可能更希望输出的画作能保留农舍照片的颜色。特别是,人们可能会想象,如果艺术家要画农舍,他们会使用该场景的颜色。在这里,我们提出了两种简单的方法,在神经风格转移过程中保留源图像的颜色–换句话说,在转移风格的同时不转移颜色。我们比较了两种不同的保存颜色的方法:颜色直方图匹配和纯亮度转移(图3(d,e))。

5.1. 仅有亮度的转移

在第一种方法中,我们只在亮度通道中进行风格转移,就像在Image Analogies[12]中那样。这是因为我们观察到,视觉感知对亮度的变化比颜色的变化要敏感得多[25]。

修改很简单。亮度通道LS和LC首先从风格和内容图像中提取出来。然后将神经风格转换算法应用于这些图像,产生一个输出亮度图像ˆL。使用分离亮度和颜色信息的颜色空间,内容图像的颜色信息与ˆL相结合,产生最终的彩色输出图像(图3(d))。

如果风格的亮度直方图和内容图像的亮度直方图之间有很大的不匹配,那么在传输风格之前,将风格亮度通道LS的直方图与内容图像LC的直方图相匹配会有帮助。为此,我们只需匹配内容亮度的平均值和方差。让μS和μC是两张图像的平均亮度,σS和σC是它们的标准差。然后,风格图像中的每个亮度像素被更新为:

5.2. 颜色直方图匹配

我们介绍的第二种方法工作原理如下。给出风格图像xS和内容图像xC,风格图像的颜色被转换为与内容图像的颜色相匹配。这就产生了一个新的风格图像x′S,代替xS作为神经风格转移算法的输入。该算法在其他方面没有变化。

要做的一个选择是颜色转换程序。有许多颜色转换算法可供选择;见[5]的调查。在这里,我们使用线性方法,这种方法对于颜色风格的转换来说是简单而有效的。

给定风格图像,每个RGB像素pS被转换为:

其中A是一个3×3矩阵,b是一个3维向量。选择这种转换方式是为了使新的风格图像p′S中的RGB值的平均值和协方差与p′C的值相匹配[11](附录B)。总的来说,我们发现颜色匹配方法对神经风格转换的效果相当好(图3(e)),而对图像类比[11]的合成效果却很差。此外,颜色直方图匹配方法也可以用来更好地保留风格图像的颜色。这可以极大地改善颜色不匹配但又希望保留风格图像颜色分布的情况(例如铅笔画或线条艺术风格)的结果。这种应用的例子可以在补充材料的第2.2节中找到。

5.3. 比较

总而言之,这两种方法都能得到感性上有趣的结果,但有不同的优点和缺点。色彩匹配方法自然受限于从内容图像到样式图像的色彩转移效果。颜色分布往往不能完美匹配,导致输出图像的颜色与内容图像的颜色不匹配。

相比之下,仅亮度传输方法可以完美地保留内容图像的颜色。然而,亮度和颜色通道之间的依赖关系在输出图像中丢失了。虽然我们发现这通常很难发现,但对于具有突出笔触的样式来说,这可能是一个问题,因为单个笔触可能会以不自然的方式改变颜色。相比之下,当使用完整的风格转移和颜色匹配时,输出的图像实际上是由绘画的斑点组成的,而不仅仅是明暗的变化。关于神经风格转移中色彩保存的更详细讨论,我们请读者参阅补充材料第2.1节。

6、规模控制

在这一节中,我们描述了在不同尺度上混合不同风格的方法,并有效地生成具有所需尺度风格的高分辨率输出。

6.1. 风格混合的比例控制

首先,我们介绍了一种在不同空间尺度上独立控制风格化的方法。我们的目标是为不同尺度挑选独立的风格。例如,我们想把一幅画的细尺度笔触(图4(b),风格I)和另一幅图像的粗尺度角度几何形状(图4(b),风格II)结合起来。

图4:神经风格转移中的尺度控制。(a) 内容图像。(b) 使用的风格集合。风格I在精细刻度上有主导的笔触。风格二在粗刻度上有占优势的角形。风格III在粗刻度上有占优势的圆形。(c ) 结合现有风格的粗细比例而得到的新风格。风格IV结合了风格I的精细尺度和风格II的粗略尺度。风格V结合了风格II的细刻度和风格III的粗刻度。(d) 使用原始风格II的输出。(e) 使用新的风格IV的输出。(f) 使用新的风格V的输出。所有的风格化都使用第5.2节中描述的颜色匹配方法保留了照片的颜色。

我们将某一尺度的图像风格定义为图像结构在某一尺寸f的图像邻域中的分布。在这个意义上,上一节介绍的颜色分离可以被认为是尺度分离的一个特例,因为图像颜色是一像素邻域的 “结构”。为了在更大的尺度上对图像风格进行建模,我们使用了CNN中不同层的格拉姆矩阵。特别是,第ℓ层的格拉姆矩阵代表了与感受野大小fℓ相对应的图像邻域的二阶统计。

遗憾的是,这种表示方法并不是按比例分解的。一般来说,在一个给定的空间尺度上的Gℓ(x)也能捕捉到较小空间尺度上的许多图像信息,因此与CNN中较低层的Gℓ-k(x)共享许多信息(更多细节见补充材料,第3.1节)。因此,简单地结合来自不同图像的不同尺度的格拉姆矩阵并不能对不同尺度的图像进行独立控制。

在这里,我们展示了一种可以避免这种问题的组合尺度的方法。我们首先创建一个新的风格图像,将一个图像的细尺度信息与另一个图像的粗尺度信息相结合(图4(c))。然后我们在原始的神经风格转移中使用新的风格图像。我们通过将细尺度风格图像的神经风格转移应用到粗尺度风格图像上,只使用CNN中较低层的格拉姆矩阵(例如,图4中只有 "conv1 1 "和 "conv2 1 "层)。我们用粗放式图像初始化优化程序,并完全省略内容损失,这样,粗放式图像中的细尺度纹理将被完全取代。这是基于这样的观察:当图像结构的规模大于样式特征时,优化程序会完整地保留这些结构。虽然这并不能保证,因为它取决于优化器,但我们根据经验发现它对通常用于神经风格转换的L-BFGS方法是有效的。得到的图像(图4©)被用作原始神经风格转换的输入,以生成新的城市景观照片的风格。例如,我们将风格I的精细比例与风格II的粗略比例结合起来,用明显的笔触重新绘制图4(d)中的有角度的立体图形(图4(e))。或者,我们把风格二的精细比例和风格三的粗略比例结合起来,用圆形结构取代有棱有角的形状,给图像以完全不同的 “感觉”(比较图4(d)和图4(f))。

这种方法可以通过有原则的方式重新组合现有的风格,创造出一大批在感知上有吸引力的新风格。它还允许以有趣的新方式通过跨空间尺度的内插来实现风格间的内插。关于新风格的更多例子和风格间插值的结果,我们请读者参阅补充材料第3.2和3.3节。

6.2. 高效高分辨率的比例控制

现有的神经风格转换方法对于高分辨率的输出并不奏效。由于CNN中的感受野有一个固定的尺寸,风格化的结果取决于输入图像的分辨率:风格化只发生在输出中感受野的比例上。在实践中,我们发现对于VGG-19网络来说,输入图像的尺寸在5002像素左右有一个甜蜜点,这样的风格化是有吸引力的,但内容却被很好地保留了下来(图5(b))。然而,对于高分辨率的图像来说,感受野与图像相比通常是非常小的,因此只有非常小规模的结构被定型(图5(d))。


图5:高分辨率的神经风格转移。(a) 内容和风格图像。(b) 总像素数等于4502的低分辨率输出 © 从(b)开始以粗到细的方式产生的高分辨率输出。(d) 没有从粗到细的过程的高分辨率输出。这两张高分辨率图像的总像素数为30002,它们可以在补充材料中找到。

在这里,我们展示了与上一节相同的比例分离原理,可以用来产生具有大规模风格化的高分辨率输出。我们得到高分辨率的内容和风格图像xC和xS,两者都有相同的尺寸,总共有N2个像素。我们对每幅图像向下采样一个系数k,使N/k对应于所需的风格化分辨率,例如,VGG的5002,然后进行风格化。现在的输出是大小为N/k的低分辨率。然后,我们可以通过将低分辨率的输出上采样到N2像素,从这个图像中产生高分辨率的输出,并将其作为神经风格转换的初始化,并使用原始输入图像xC和xS。风格特征现在可以从风格图像中捕捉并填充高分辨率的信息,同时保留粗略比例的风格化(图5(c))。

这种从粗到细的程序还有一个好处,就是在高分辨率运算中需要更少的迭代,从而提高了效率。在我们的实验中,我们对高分辨率的优化使用了2.5倍的迭代次数。我们还注意到,这种技术有效地消除了神经图像同步的典型低级噪声。事实上,本文中的所有数字,除了图6,都是通过这种方式增强到高分辨率的。低/高分辨率对可以在附录中找到。迭代地应用这种技术还可以生成非常高分辨率的图像,这只受限于输入图像的大小和可用的内存。

7、控制快速神经风格迁移

神经风格转移的一个主要缺点是图像的生成相对缓慢。最近,一些工作表明,我们可以训练一个前馈CNN来执行风格化[13, 23, 17]。我们现在展示如何将上述的空间和颜色控制应用于这些快速神经风格转换方法。将尺度控制应用于快速神经风格转换是微不足道的,因为它需要简单地在结合多种尺度的新风格图像上进行训练。我们使用Johnson公开的快速神经风格转换的优秀实现[13]3。我们训练的网络都使用该实现中精心调整的默认参数,包括实例归一化[24](详见补充材料第4节)。为了具有可比性,并保持在快速神经风格转换的良好效果的风格领域,我们使用该实现所发布的风格。

7.1. 颜色控制

保留输入图像颜色的最简单方法是使用现有的前馈风格化网络[13],然后将风格化的亮度通道与内容图像的颜色通道相结合(图6©)。另一种方法是只用风格和内容图像的亮度通道来训练前馈网络工作。这个网络产生的亮度图像可以与输入的内容图像的颜色通道相结合(图6(d))。对于这两种方法,我们将输出图像的平均亮度与内容图像的平均亮度相匹配。一般来说,我们发现用亮度网络进行色彩保留能更好地将风格化与内容图像的结构结合起来(图6©,(d))。

7.2. 空间控制

现在我们描述一下训练一个前馈网络,以便将不同的风格应用于不同的区域。我们表明,只要对John-son的训练程序[13]做一个惊人的小修改就可以做到这一点,我们用下面的例子来说明。我们通过对图6(b)中所示的Candy和Feathers图像进行垂直连接来创建风格图像。 两个额外的二进制引导通道被添加到风格图像中,即一个用于图像的顶部,一个用于底部。风格损失函数是基于导引格子矩阵的(公式7)。在训练期间,前馈网络将内容图像和两个引导通道作为输入。输入的引导通道被传递给损失网络以评估空间引导的损失。令人惊讶的是,我们发现引导通道在训练过程中可以保持恒定:在训练过程中,我们重新要求前馈网络总是用一种风格对图像的下半部分进行造型,用另一种风格对上半部分进行造型。然而,网络会稳健地学习引导通道和风格之间的相关性,因此在测试时,我们可以将任意的掩码传递给前馈网络,以在空间上引导风格化(图6(f)-(h))。通过提供一个自动生成的图-地分割[21],我们可以创建一个算法,自动执行快速的空间变化的风格化。(图6(g),(h))


图6:快速神经风格转换中的颜色和空间控制。(a) 内容图像。(b) 风格Candy和Feathers。©来自[13]的输出,用(b)中的样式进行训练。(d) 简单的色彩保存。©的亮度通道与(a)的颜色通道相结合。(e) 亮度网络的色彩保护。亮度网络的输出与(a)的颜色通道相结合。(f) 风格的垂直分离。(g) 样式的水平分离。(h) 使用[21]将风格分离为人物和背景。

8、讨论

在这项工作中,我们介绍了控制新风格转移的直观方法。我们假设图像风格包括空间、颜色和比例等因素,并提出了在风格化过程中获取这些因素的方法,以大幅提高现有方法的质量和灵活性。

我们提出的控制方法的一个应用是以一种可解释的方式来组合风格。这与另一种通过在风格表示中进行线性插值来组合风格的方法形成对比,例如,在Dumoulin等人[3]的并行工作中就采用了这种方法。这种方法的一个可能的问题是,如果风格表示中的方向不对应于实际的变量,那么就很难产生有吸引力的新风格。不过,即使是用我们的方法,选择哪些输入来组合成美观的结果也是具有挑战性的。一个令人兴奋的开放性研究问题是预测哪些风格的组合会很好地结合成新的、在感知上令人愉悦的风格。

神经风格转移法特别吸引人,因为它可以在源图像的基础上创造新的图像结构。这种灵活性来自于以空间汇总统计的方式表示风格,与基于补丁的方法不同[12, 20, 6]。然而,由于不清楚风格的知觉方面是如何在汇总统计中表示的,所以很难实现对风格化的有意义的参数控制。为此,可能需要在网络训练期间鼓励CNN表征的适当因子化,例如,学习表征,将图像信息在空间尺度上进行因子化。事实上,这涉及到机器视觉中的一个基本的再搜索问题:获得可解释的、强大的图像表征,将图像分解成人类视觉感知的独立因素。

【翻译】Controlling Perceptual Factors in Neural Style Transfer相关推荐

  1. 神经风格迁移(Neural Style Transfer)程序实现(Keras)

    前言 以前翻译了神经风格迁移的论文:一个艺术风格化的神经网络算法(A Neural Algorithm of Artistic Style)(译),这篇文章中会给出其基于Keras的实现.github ...

  2. Neural Style Transfer 神经风格迁移详解

    Neural Style Transfer 神经风格迁移详解 今天和大家分享一个比较有意思的东西,Neural Style Transfer,神经风格迁移,简单说就是我们将一张普通的照片赋予它艺术作品 ...

  3. 【Neural Style Transfer】 Fast Neural Style

    上周写了深度学习与艺术--画风迁移 Neural Style的文章,这周就来聊一聊Fast Neural Style,从名字可以看出,Fast Neural Style的最大的特色就是快,也就是说如果 ...

  4. Neural Style Transfer: A Review

    这篇是风格转移方面的综述,文中总结了多种风格转移的方法.因为18年看过很多风格转移方面的论文,因此翻译这篇综述. Gatys等人的开创性工作.通过分离和重新组合图像内容和风格,展示了卷积神经网络(CN ...

  5. Towards Ultra-Resolution Neural Style Transfer via Thumbnail Instance Normalization

    碎碎念:毕设打算做风格迁移的,然而没有接触过这方面,记录一下qwq Abstract 基于现有的风格迁移框架处理高分辨率有以下缺点: 内存成本 笔触过小 针对上述两点问题,本文提出Ultra-Reso ...

  6. 风格迁移综述Neural Style Transfer: A Review

    浙江大学和亚利桑那州立大学的几位研究者在 arXiv 上发布了一篇「神经风格迁移(Neural Style Transfer)」的概述论文,对当前神经网络风格迁移技术的研究.应用和难题进行了全面的总结 ...

  7. 吴恩达老师深度学习视频课笔记:神经风格迁移(neural style transfer)

            什么是神经风格迁移(neural style transfer):如下图,Content为原始拍摄的图像,Style为一种风格图像.如果用Style来重新创造Content照片,神经风 ...

  8. 神经风格迁移(Neural Style Transfer)程序实现(Caffe)

    前言 上次的博客写了神经风格迁移(Neural Style Transfer)程序实现(Keras),使用keras的一个好处就是api简单,能够快速部署模型,使用很方便.出于学习目的,这次又使用ca ...

  9. 吴恩达深度学习课程deeplearning.ai课程作业:Class 4 Week 4 Art Generation with Neural Style Transfer

    吴恩达deeplearning.ai课程作业,自己写的答案. 补充说明: 1. 评论中总有人问为什么直接复制这些notebook运行不了?请不要直接复制粘贴,不可能运行通过的,这个只是notebook ...

最新文章

  1. JS中 let 和var的区别
  2. 开源纯C#工控网关+组态软件(七)数据采集与归档
  3. 前端布局之网格gird布局(简单易懂)
  4. 列表推导(list comprehension)--Python
  5. (Deep learning)深度卷积网络实战——第四部分
  6. php secket5,《Thinkphp5使用Socket服务》 入门篇
  7. Mapping Text to Knowledge Graph Entities using Multi-Sense LSTMs
  8. 中望CAD的引线标注格式怎么改_大神总结:CAD设计五个段位 你在哪个阶段?
  9. 考研英语 - word-list-44
  10. Java桶排序LSD
  11. python中pos函数用法_python中pos
  12. 不顺本也正常,斗志不可磨灭
  13. 【编程题】中国象棋路灯
  14. 阿里巴巴离职DBA 35岁总结的职业生涯(转)
  15. rdma软件架构的理解。
  16. jays+android耳机,享受HiFi音质 Jays推出新款入耳式耳塞
  17. Android热修复之AndFix
  18. 子曾经曰过,玩笑不能乱开。
  19. SPSS教程—如何去估计总体率95%的置信区间
  20. 餐饮大单品「真香」,却没有穿透周期的能力

热门文章

  1. 【解决方案】AI视频结构化智能安防平台EasyCVR实现检察院大楼智能安防监控方案
  2. libpng库编码图片为png(RGB压缩为png图片:与ffmpeg视频解码存储为png图片)
  3. oppo R11s开发者模式,安装应用提示INSTALL_FAILED_TEST_ONLY
  4. MBB类似jquery.bxslider插件轮播效果
  5. Vetur can‘t find`package.json`in路径 和 Vetur can‘t find`tsconfig.json`or`jsconfig.json`in路径 VSCode弹框
  6. 区块链是个噱头吗?麦腾:可以帮助经济体系
  7. The Elements of Style 4ed ---英文写作指南(二)
  8. 爱奇艺下载的盗墓笔记视频怎么转换成mp4格式
  9. python画树递归_用递归的方式绘制小树_Python数据结构实战(1):递归(算法面试)_Python视频-51CTO学院...
  10. 关于机器学习课程的感想(一)