【Neural Style Transfer】 Fast Neural Style
上周写了深度学习与艺术——画风迁移 Neural Style的文章,这周就来聊一聊Fast Neural Style,从名字可以看出,Fast Neural Style的最大的特色就是快,也就是说如果再优化网络配置ok的话完全可以达到落地应用的地步了。
0 回顾Neural Style
在聊Fast Neural Style之前,我们先来回顾一下Neural Style,其实用Gatys的一张图就可以解释Neural Style在做什么(如下图)。Neural Style是Gatys提出的不同于传统风格迁移的一种新方式,它利用卷积神经网络可以完成不同图像之间的风格迁移,使人们产生一种视觉上的“错觉”。
1 Fast Neural Style
Fast Neural Style论文:Perceptual Losses for Real-Time Style Transfer and Super-Resolution
论文链接:https://arxiv.org/abs/1603.08155
1.1 Fast Neural Style的两个任务
Fast Neural Style主要是有两个任务:风格迁移任务和单张图像的超分辨率任务。 风格迁移任务同Neural Style相同,将图像A的风格前已在图像B的内容上,生成具有图像A风格且与图像B内容相同的图像C;单张超分辨率任务指的是从输入的低分辨率图像生成一张高分辨率的图像。Fast Neural Style的体系含有两部分,分别是图像迁移网络(image transformation network , fWf_WfW) 和损失网络(a loss network , ϕ\phiϕ) ,如下图所示;
1.2 Image Transform Net
基本的结构是用了五个残差模块;没有池化层,用的是卷积步长>1和卷积步长<1的卷积来进行下采样和上采样;激活函数用的书Relu激活函数;卷积核的大小是9x9和3x3;
【不同的任务输入图像输出图像的尺寸是不同的】
对于风格迁移任务:input——256x256x3;output——256x256x3;
对于超分辨率任务:input——(288/f)x(288/f)x3;output——288x288x3;
【Downsampling下采样和Upsampleing上采样】
对于风格迁移任务,网络先使用的是步长为2的卷积残差块去下采样,再使用2层卷积层使用步长为0.5的上采样。虽然输入和输出具有相同的大小,但先下采样后再上采样对网络仍有益处:一是可以减少计算量,二是可以有益于可接受的感受野。
1.3 Loss Network
在我们要了解loss network之间,我们先来看一下损失函数(要保证损失函数可微可导可回传)。其实我们可以这样理解损失函数:之所以有损失函数,是因为我们生成的和真实存在的或者是ground truth之间存在着差异,我们要找到一种数学上的方式来描述这种差异,并且可以在迭代和优化中不断缩小这种差异,所以损失函数在一个网络中是十分重要的。网络用两个感知损失函数定义了不同图像之间的高水平感知和语义差距;并且用了在ImageNet数据集上预训练的VGG16的网络。
【特征重构损失函数】Feature Reconstructions Loss
特征重构的意义不在于逐个像素点的match,而是想要得到特征的相似,也就是说我们要在Feature Map上有一种关系,假设我们在j层上的输出Feature Map的大小是:Cj∗Hj∗WjC_j * H_j *W_jCj∗Hj∗Wj,那么,我们用欧氏距离来衡量这种特征相似性,如下式:
lfeatϕ,j(y^,y)=1CjHjWj∣∣ϕj(y^)−ϕj(y)∣∣22(2)l^{\phi , j}_{feat}(\hat{y},y) = \frac{1}{C_jH_jW_j} || \phi_j(\hat{y})-\phi_j({y}) ||_2^2 \tag2lfeatϕ,j(y^,y)=CjHjWj1∣∣ϕj(y^)−ϕj(y)∣∣22(2)
(个人理解) 在特征图上的相似性可以看做找到了像素相似性和语义相关性的平衡,是我们训练的模型不会看起来非常像(像素值非常接近),不会看起来一点儿也不像(基本特征都没有学习到)。
【风格重构损失函数】Style Reconstruction Loss
我们希望训练的模型除了关注特征上的相似性以外,还要关注颜色、纹理、普通模式等等风格上的相似性,所以提出了Style Reconstruction Loss(Gatys)。我们在j层上的Feature map用Gram矩阵来描述这种差距,如下式(3);那么我们就可以得到所有层的风格重构损失了,如下式(4);
Gjϕ(x)c,c′=1CjHjWj∑h=1Hj∑w=1Wjϕj(x)h,w,cϕj(x)h,w,c′(3)G_j^{\phi}(x)_{c,c'} = \frac{1}{C_jH_jW_j} \sum_{h=1}^{H_j} \sum_{w=1}^{W_j} \phi_j(x)_{h,w,c} \phi_j(x)_{h,w,c'} \tag3 Gjϕ(x)c,c′=CjHjWj1h=1∑Hjw=1∑Wjϕj(x)h,w,cϕj(x)h,w,c′(3)
lstyleϕ,j(y^,y)=∣∣Gjϕ(y^)−Gjϕ(y)∣∣22(4)l^{\phi,j}_{style}(\hat{y},y) = ||G_j^{\phi}(\hat{y})-G_j^{\phi}({y})||^2_2 \tag4lstyleϕ,j(y^,y)=∣∣Gjϕ(y^)−Gjϕ(y)∣∣22(4)
1.4 Simple Loss Functions
除了定义了感知函数,我们还定义了两个简单的只取决于低层次像素信息的损失函数,分别是像素损失(Pixel Loss) 和 全变正则化(Total Variation Regularization,lTV(y^)l_{TV} ( \hat{y} )lTV(y^))。
2 实验 Experiments
如上所知,Fast Neural Style主要是有两个任务:风格迁移任务和单张图像的超分辨率任务,我们来看一下都进行了些什么样的实验。
2.1 风格迁移任务 Style Transform
我们要得到一张具有A图像内容(下称图像ycy_cyc)具有B图像风格(下称图像ysy_sys)的图像C(也就是我们的生成目标y^\hat{y}y^),这就要求我们的图像C有了两个目标targets——ycy_cyc和ysy_sys;基于两个目标要求我们的损失函数要在特征重构lfeatl_{feat}lfeat和风格重构lstylel_{style}lstyle上都要有所涉及,作者还巧妙的加了一个正则项lTVl_{TV}lTV,如下式:
y^=argminyλclfeatϕ,j(y,yc)+λslstyleϕ,J(y,ys)+λTVlTV(y)(5)\hat{y}= \mathop {\arg\min}_{y} \ \ \lambda_cl_{feat}^{\phi,j}(y,y_c)+\lambda_sl_{style}^{\phi,J}(y,y_s)+\lambda_{TV}l_{TV}(y) \tag5y^=argminy λclfeatϕ,j(y,yc)+λslstyleϕ,J(y,ys)+λTVlTV(y)(5)
其中,λc\lambda_cλc,λs\lambda_sλs和λTV\lambda_{TV}λTV是超参数。具体训练细节参见论文。在结果(下图)中我们可以看到,训练过的风格迁移网络有一种对于图像语义内容的意识。比如说图中背景部分比较杂乱没有办法辨认出来而前景物体效果较好——作者也因此做了及时:作者认为预训练的VGGNet-16网络对于人类或者动物具有选择性的特征。
在速度方面Fast Neural Style也有一定的优势,处理512x512的图像可以达到20FPS,这也是图像风格迁移有机会应用到实际应用和视频中。
2.2 单张图像的高分辨率任务 Single-Image Super-Resolution
在单张图像的高分辨率中,我们的任务就是从一张输入的低分辨率的图像生成一张高分辨率的图像。这并不是有统一解的问题,因为使用的生成方法不同,生成的高分辨率的图像是不同的。
我们只关注与x4倍和x8倍的分辨率问题,因为更大的分辨率要有更多的语义推理。为了克服低分辨率转高分辨率的问题,我们不再使用逐像素的损失,而使用特征重构损失lfeatl_{feat}lfeat。用于评价超分辨率问题的传统评估度量是——PSNR和SSIM,虽然我们的网络并不旨在这两个评估度量都取得优异效果,但这也从侧面反映了我们训练像素损失和重构损失的可靠性。
在超分辨率的任务里,我们用了SRCNN的三层卷积层网络,用于在ILSVRC 2013检测数据集的33×33块上最小化每个像素的损失。SRCNN没有训练×8倍的超分辨率,所以我们只能在×4倍上对其进行评估。和其他方法相比,我们训练的特征重构模型在重构尖锐的边缘和具体的细节表现了良好的性能,虽然有可能会在PSNR和SSIM上有一定的影响。
【Neural Style Transfer】 Fast Neural Style相关推荐
- 【读点论文】Image Style Transfer Using Convolutional Neural Networks(将卷积特征图提取语义信息,融合内容和风格的做法)
Image Style Transfer Using Convolutional Neural Networks 以不同风格呈现图像的语义内容是一项困难的图像处理任务.可以说,以前的方法的一个主要限制 ...
- CNN实现图像风格迁移 ---Image Style Transfer Using Convolutional Neural Networks
目录 1. INTRODUCTION 2. Deep image representations 2.1 内容表示 2.2. Style representation 2.3 风格迁移 3. Re ...
- 可逆网络风格迁移-解决内容泄漏问题 [CVPR 2021] ArtFlow: Unbiased Image Style Transfer via Reversible Neural Flows
[CVPR 2021] ArtFlow: Unbiased Image Style Transfer via Reversible Neural Flows Jie An1∗ Siyu Huang ...
- 【2021最新综述】Deep Neural Approaches to Relation Triplets Extraction:A Comprehensive Survey
[2021最新综述]Deep Neural Approaches to Relation Triplets Extraction:A Comprehensive Survey 1 Introducti ...
- 【每个人都是梵高】A Neural Algorithm of Artistic Style
文章地址:A Neural Algorithm of Artistic Style 代码:https://github.com/jcjohnson/neural-style 这篇文章我觉得可以起个浪漫 ...
- 经典论文重读---风格迁移篇(一):Image Style Transfer Using Convolutional Neural Networks
核心思想 采用深层卷积网络提取图像风格特征与内容,并将其进行融合生成效果很好的艺术图. 引言部分 将一幅图像的风格迁移到另一副图像可以看作是纹理迁移的一个分支.对于纹理迁移,它的目标是从源图合成一种纹 ...
- 【翻译】Image Style Transfer Using Convolutional Neural Networks
文章目录 Abstract 1.介绍 2.深度图像表示 2.1.内容表示 2.2.风格表示 2.3.风格转移 3. 结果 3.1. 内容和风格匹配之间的权衡 3.2. 卷积神经网络的不同层的效果 3. ...
- 【精读AI论文】dropout----(Improving neural networks by preventing co-adaptation of feature detectors)
文章目录 前言 第一页: 第一段: 第二段: 第二页 第一段 第二段 第三段 第3-6页 思考与总结 dropout丢弃的是权重还是输出? dropout的正确性以及随机丢弃对结果的影响? dropo ...
- 【深度学习笔记】cs231n neural networks 3
cs231n neural networks 3笔记 Gradient checks 1. Use the centered formula 2. Use relative error for the ...
最新文章
- 提示“Web打印服务CLodop未安装启动”的各种原因和解决方法
- Elasticsearch 因拷贝多余的jar到lib库导致无法启动的问题
- 深入理解java异常处理机制
- pigeon hole
- nssl1478-题【dp】
- Codeforce 记录 Rating
- php星期和时间获取
- 如何用Camtasia进行内容补充?
- Linux内核空间与用户空间信息交互方法
- 《上海堡垒》究竟几何?让我用爬虫一探究竟
- AlphaGo算法论文 神经网络加树搜索击败李世石
- 2012 r2 万能网卡驱动_无线网卡怎么用,我来教您无线网卡怎么用的方法
- Vue视频教程 向军Vue基础教程 共86课
- 支付宝接口的在线支付(https://openhome.alipay.com/platform/appDaily.htm?tab=info)
- 如何检查投标文件以及常见错误?
- Python爬虫——新浪微博(网页版)
- 猫大叫一声,所有的老鼠都开始逃跑,主人被惊醒
- [几何]Mocha and Railgun
- 联想拯救者笔记本安装Win10、Ubuntu16.04双系统
- Gallery3D源码分析