目录

Abstract(摘要):

1. Introduction

2、Related Work(相关工作)

2.1. Image Inpainting(图像修复)

2.2. Attention Modeling(注意力模型)

3、Improved Generative Inpainting Network(改进的生成修复网络)

4、Image Inpainting with Contextual Attention

4.1. Contextual Attention(文本注意力)

4.2. Unified Inpainting Network


文章中蓝色为我认为比较重要的知识

紫色为我个人的对文章的解读

Abstract(摘要):

基于深度学习的方法可以生成视觉上看似合理的的图像结构和纹理,但通常会产生与周围区域不一致的扭曲结构或模糊纹理。这主要是由于卷积神经网络在明确借用来自遥远空间位置的信息方面的无效性。另一方面,当需要从周围区域借用纹理时,传统的纹理和块合成方法特别适合。受这些观察的激励,本文提出了一种新的基于深度生成模型的方法,该方法不仅可以合成新的图像结构,而且可以在网络训练期间明确地利用周围的图像特征作为参考,以做出更好的预测。该模型是一个前馈、完全卷积的神经网络,可以在测试时间内处理在任意位置具有多个孔并且具有可变尺寸的图像。

1. Introduction

早期的工作试图使用类似于纹理合成的思想来解决这个问题,即通过从低分辨率到高分辨率或从孔边界传播开始将背景补片匹配和复制到孔中。这些方法特别适用于背景修复任务,并在实际应用中得到广泛应用。然而,由于他们假设可以在背景区域的某个地方找到缺失的补片,因此他们无法针对修复区域涉及复杂的非重复结构(例如,人脸、物体)的挑战性情况。

基于CNN的方法经常产生边界伪影、扭曲的结构和与周围区域不一致的模糊纹理。本文认为这可能是由于卷积神经网络在模拟远距离上下文信息和空洞区域之间的长期相关性方面的无效性。

本文提出了一个统一的前馈生成网络和一个新颖的上下文注意层用于图像修复。本文提出的网络包括两个阶段(译者注:分为粗网络阶段和细网络阶段,且细网络阶段以粗网络阶段的加工内容为基础)。第一阶段(粗网络阶端)是一个简单的扩张卷积网络,用重建损失训练,以粗略估计丢失的内容。第二阶段(细网络阶段)整合语境注意。上下文注意的核心思想是利用已知块的特征作为卷积滤波器来处理生成的块。它被设计和实现为使用卷积将生成的块与已知的上下文块进行匹配,使用通道方式的softmax对相关块进行加权,使用去卷积将生成的块与上下文块进行重构。上下文注意模块还具有空间传播层,以鼓励注意的空间一致性。为了让网络产生新内容,本文有另一条与情境注意力路径平行的回旋路径。两个路径被聚合并被馈送到单个解码器以获得最终输出。用重建损失和两个Wasserstein GAN损失对整个网络进行端到端的训练,其中一个批评家着眼于全局图像,而另一个批评家着眼于缺失区域的局部块。

本文贡献:

(1)本文提出了一种新的上下文注意层,以明确地关注在遥远的空间位置的相关特征块。

(2)本文引入了几种技术,包括修复网络增强、全WGANS以及空间折扣重建损失,以基于当前最先进的生成式图像修复网络[17]来提高训练稳定性和速度。

2、Related Work(相关工作)

2.1. Image Inpainting(图像修复)

现有的图像修复工作主要分为两类。第一类代表具有低级特征的传统的基于扩散或基于补丁的方法。第二类尝试通过基于学习的方法来解决修补问题,例如训练深度卷积神经网络来预测缺失区域的像素。

2.2. Attention Modeling(注意力模型)

3、Improved Generative Inpainting Network(改进的生成修复网络)

由粗到细的网络架构  生成器网络采用孔洞中填充有白色像素的图像和指示孔洞区域的二进制掩码作为输入对,并输出最终完成的图像。我们将输入与相应的二进制掩码配对,以处理具有可变大小、形状和位置的孔洞。网络的输入是在训练期间随机采样的具有矩形缺失区域的256×256图像,并且训练的模型可以拍摄具有多个孔洞的不同大小的图像。

在图像修复任务中,感受野的大小应该足够大,为了进一步扩大感受野和稳定训练,本文引入了一个两级粗到精的网络结构,其中第一个网络进行初始粗预测,第二个网络将粗预测作为输入并预测精结果。用重构损失显式地训练粗网络,而用重构损失和GAN损失训练细网络。直观上,细化网络看到的是比原始图像更完整的具有缺失区域的场景(译者注:个人认为因为细化网络的输入是以经过粗网络修复的图像),因此其编码器可以学习到比粗糙网络更好的特征表示。这种两阶段网络架构类似于剩余学习或深度监督。

在层实现方面,对所有卷积层使用镜像填充,并移除批量归一化层(我们发现这会恶化颜色一致性)。使用ELUs 作为激活函数,而不是ReLU,并且裁剪输出滤波器值,而不是使用tanh或者sigmoid函数。此外,作者发现分离GAN训练的全局和局部特征表示比特征串联更好。

全局和局部 Wasserstein GANS。本文将WGAN-GP损失附加到第二级细化网络的全局和局部输出,以加强全局和局部一致性。(对于图像生成任务,WGAN-GP损耗优于现有的GAN损耗,并且当与重建损耗结合时,它工作得很好,因为它们都使用距离度量)

WGAN使用Earth-Mover距离,距离W(,)比较生成的和真实的数据分布,

其中D是1-Lipschitz函数的集合,是由=G(z)隐式定义的模型分布。z是生成器的输入。

Gulrajani等人提出了一个带有梯度惩罚项的WGAN的改进版本

其中是ˆx从分布Pg和Pr采样的点之间的直线上采样的。原因是直线上所有点的梯度d应该直接指向电流样本ˆx= (1−t)x+t

对于图像修复,我们只试图预测空洞区域,因此梯度惩罚应该只应用于空洞内的像素。这可以通过梯度和输入掩码m相乘来实现

其中,缺失像素的掩码值为0,其他像素的掩码值为1。在所有实验中,λ都设置为10。

我们使用像素损失和WGAN对抗损失的加权和。请注意,在原始空间中,WGAN中的wasserstein-1距离是基于地面距离:

其中(Pr,Pg)表示所有联合分布(x,y)的集合,其边缘分别为PrandPg。直观地,逐像素重建损失直接将洞回归到当前地面真实图像,而WGANs隐式地学习匹配潜在正确的图像,并用相反的梯度训练生成器。由于两个损失都测量像素间的距离,因此组合损失更容易训练,并使优化过程更稳定。

(Spatially discounted reconstruction loss)空间折扣重建损失。直观上,孔洞边界附近的缺失像素比那些靠近孔洞中心的像素具有更少的模糊性。我们使用权重掩膜M引入空间折扣重建损失。掩模中每个像素的权重被计算为,其中l是该像素到最近的已知像素的距离。在所有实验中,γ被设置为0.99。

4、Image Inpainting with Contextual Attention

卷积神经网络用局部卷积核逐层处理图像特征,因此对于从遥远的空间位置借用特征并不有效。为了克服这一限制,我们考虑了注意力机制,并在深层生成网络中引入了一个新的上下文注意力层。

4.1. Contextual Attention(文本注意力)

如图3所示,首先在背景提取块(3×3 ),并将其重塑为卷积滤波器。为了匹配前景块{}和背景补片{},我们使用归一化内积(余弦相似性)进行测量

表示以背景(,) 和前景(x,y)为中心的块的相似性,我们用沿维度缩放的softmax对相似性进行加权,以获得每个像素的注意力得分,=softmax()这可通过卷积和通道方式softmax有效实现。最后,我们重新使用提取的面片{}作为去卷积滤波器来重建前景。对重叠像素的值进行平均。

注意力传播   通过传播(融合)来鼓励注意力的一致性。相干性的思想是,前景补片的移动可能对应于注意力的背景补片的相等移动。了建模和鼓励注意力地图的一致性,我们做了一个左右传播,然后是一个自上而下的传播,内核大小为k。以左右传播为例,我们得到新的关注分数:

传播被有效地实现为以单位矩阵为核的卷积。注意力传播显著地改善了训练中的修复效果 。

(译者个人想法:可把前景和背景匹配认为是纵向匹配,注意力传播认为是横向匹配即同一图片中相邻的局部块比较相似,所以引入注意力传播))

记忆效率  降低GPU开销我们引入了两个选项:1)用步长提取背景补片以减少滤波器的数量,以及2)在卷积之前降低前景输入的分辨率,并且在传播之后提高注意力图的分辨率。

4.2. Unified Inpainting Network

为了集成注意力模块,在图2的基础上引入了两个并行编码器,如图4所示。底部的编码器特别关注具有逐层(扩张的)卷积的幻觉内容,而顶部的编码器试图关注感兴趣的背景特征。来自两个编码器的输出特征被聚集并馈入单个解码器以获得最终输出。为了解释上下文注意力,将其可视化如图4。我们使用颜色来表示每个前景像素最感兴趣的背景块的相对位置。例如,白色(颜色编码图的中心)表示像素本身,粉色在左下方,绿色在右上方。对于不同的图像,偏移值有不同的缩放比例,以便最好地显示最感兴趣的范围。

对于训练,给定原始图像x,我们在随机位置对二进制m进行采样。来自原始图像z=x​​​​​​m的输入图像是损坏的。修补网络G将输入的图像拼接,并输出与输入图像大小相同的预=G(z,m)。将粘贴到输出图像,我们得到修复输出˜x=z+(1−m).。在所有实验中,输入和输出的镜像值线性缩放至[-1,1]。训练程序如算法1所示。

译者个人对训练的步骤解释:

以下步骤循环5次

随机选择x

随机生成mask  m

用m覆盖在x上作为输入z

用z和预测的遮挡区域融合在一起作为最后的预测图

将x和一起送入判别器

更新全局和局部判别器

循环结束

随机选择图像x用于训练

生成随机mask m(译者认为这里的m是带有权重的m)(与作者第三部分提到的Spatially discounted reconstruction loss)(空间折扣重建损失)

更新生成器

文章的总结

本文引入了由粗到细的网络两级架构,在粗网络阶段以带有mask m的图像和m对应的二进制作为输入,用常规卷积+空洞卷积恢复出粗略的修复掩膜区域的图

在细网络阶段以粗网络阶段恢复出的图为输入,引入两个并行的编码器,其中一个编码器加入上下文注意力(上下文注意力通过前景和背景匹配   以及左右上下邻域匹配)恢复出比粗网络阶段更清晰的遮挡区域(这一部分关注的是局部),同时另一条支路把粗网络恢复出的粗图再次进行常规卷积+空洞卷积恢复出全局图,然后把这两个分支的输出contact,送入到解码器,恢复出最终的图。

Generative Image Inpainting with Contextual Attention(CVPR2018)相关推荐

  1. CVPR2018: Generative Image Inpainting with Contextual Attention 论文翻译、解读

    2019独角兽企业重金招聘Python工程师标准>>> CVPR2018: Generative Image Inpainting with Contextual Attention ...

  2. 论文精度 —— 2018 CVPR《Generative Image Inpainting with Contextual Attention》

    总述 本篇论文采用的baseline不是CE,而是2017 ACM的<lobally and locally consistent image completion>,那篇论文以CE为ba ...

  3. 【论文译文】Generative Image Inpainting with Contextual Attention

    译文仅供参考! 原文是pdf,想下载的话可以戳:http://www.gwylab.com/pdf/image-inpainting_chs.pdf

  4. 深度学习(二十五)——Attention(2)

    Attention(续) Multi-Head Attention 这个是Google提出的新概念,是Attention机制的完善.不过从形式上看,它其实就再简单不过了,就是把Q,K,V通过参数矩阵映 ...

  5. 目标检测论文阅读:Cascade R-CNN: Delving into High Quality Object Detection(CVPR2018)

    Cascade R-CNN: Delving into High Quality Object Detection(CVPR2018) 论文链接:https://arxiv.org/abs/1712. ...

  6. 【深度学习】Generative Adversarial Network 生成式对抗网络(GAN)

    文章目录 一.神经网络作为生成器 1.1 什么是生成器? 1.2 为什么需要输出一个分布? 1.3 什么时候需要生成器? 二.Generative Adversarial Network 生成式对抗网 ...

  7. 【Attention】Dual Attention(DANet) Fully Attention(FLA)

    空间注意力有助于保留细节信息,通道注意力有助于保留大物体的语义一致性. 有效使用两种注意力可以提升性能. 本文旨在记录一些常用的注意力,以及代码实现,包括两篇文章,DANet,FLA. Dual At ...

  8. 论文阅读笔记四十:Deformable ConvNets v2: More Deformable, Better Results(CVPR2018)

    论文源址:https://arxiv.org/abs/1811.11168 摘要 可变形卷积的一个亮点是对于不同几何变化的物体具有适应性.但也存在一些问题,虽然相比传统的卷积网络,其神经网络的空间形状 ...

  9. 感知算法论文(十):Towards Universal Object Detection by Domain Attention(2019)

    文章目录 摘要 1. 引言 2. 相关工作 3. 多域目标检测 3.1 通用目标检测基准 3.2 单域检测器组 3.3 自适应多域检测器 3.4 SE 适配器 4. 通用目标检测器 4.1 通用检测器 ...

  10. 目标检测论文阅读:Multi-scale Location-aware Kernel Representation for Object Detection(CVPR2018)

    Multi-scale Location-aware Kernel Representation for Object Detection 论文链接:https://arxiv.org/abs/180 ...

最新文章

  1. BOOST_LOG_UNIQUE_IDENTIFIER_NAME宏用法的测试程序
  2. HTML与CSS基础之子元素的伪类(七)
  3. BZOJ 3270: 博物馆
  4. myeclipse开发代码颜色搭配保护视力
  5. 2019 年总结 | 31岁,不过是另一个开始
  6. 数字表达_神奇的数字英语表达一定会让你大吃一惊
  7. JEECG 命名规范
  8. Linux输入子系统:事件的编码 -- event-codes.txt
  9. STM8单片机低功耗---等待(Wait)模式实现
  10. java webservice
  11. jQuery Mobile中按钮<a>或<button>添加class样式ui-btn-*
  12. java判断safari_js代码判断浏览器种类IE、FF、Opera、Safari、chrome及版本
  13. 电脑计算器_教训!19年中级败给了电脑计算器,CPA难道要步后尘?
  14. mysql 覆盖式索引_【MySQL】性能优化之 覆盖索引
  15. Java企业级实战项目《瑞吉外卖》
  16. 大数据笔试面试题(转载)
  17. Vue 3.0没有config文件解决方法
  18. QT软件开发:基于libVLC内核设计视频播放器
  19. 蓝海灵豚医疗器械管理隐形眼镜专版用户指南5.9.0.0
  20. XFTP中文目录乱码

热门文章

  1. 生物计算机 量子计算机,光子计算机、生物计算机和量子计算机
  2. 《东周列国志》第八十三回 诛芈胜叶公定楚 灭夫差越王称霸
  3. MicroStation中关于mke文件的详解
  4. android之DEX文件格式
  5. 常见字读音(粤语)---(1)
  6. c语言中char有无符号,char代表有符号还是无符号?
  7. Prometheus+Grafana监控系统
  8. Python 菜单中的分割线
  9. mysql左连接查询慢
  10. Python 画分布图