来源:机器之心

本文约4500字,建议阅读9分钟

本文为你介绍一套基于可微矢量渲染器的解决方案。

2022 年是人工智能生成内容(AI Generated Content,AIGC)爆发的一年,其中一个热门方向就是通过文字描述(text prompt)来对图片进行编辑。已有方法通常需要依赖在大规模数据集上训练的生成模型,不仅数据采集和训练成本高昂,且会导致模型尺寸较大。这些因素给技术落地于实际开发和应用带来了较高的门槛,限制了 AIGC 的发展和创造力发挥。

针对以上痛点,网易互娱 AI Lab 与上海交通大学合作进行了研究,创新性地提出一套基于可微矢量渲染器的解决方案——CLIPVG,首次实现了在不依赖于任何生成模型的情况下,进行文字引导的图像编辑。该方案巧妙地利用矢量元素的特性对优化过程进行约束,因此不仅能够避免海量数据需求和高昂的训练开销,在生成效果上也达到了最优的水准。其对应的论文《CLIPVG: Text-Guided Image Manipulation Using Differentiable Vector Graphics》已被 AAAI 2023 收录。

  • 论文地址:

    https://arxiv.org/abs/2212.02122

  • 开源代码:

    https://github.com/NetEase-GameAI/clipvg

部分效果如下(按次序分别为人脸编辑、车型修改、建筑生成、改色、花纹修改、字体修改)。

在生成效果方面,CLIPVG 相比业界已知的其他方案,将语义准确度提高了 15.9%,生成质量提高了 23.6%,即能够自动编辑并输出更贴合语义和无错误的图像。在框架灵活性方面,由于 CLIPVG 可自动将像素图像转变为矢量图形,它相比其他基于像素图像的研究框架可更加灵活地对图片颜色、形状、子区域等进行独立编辑。在应用场景方面,由于 CLIPVG 完全不依赖生成模型,因此可适用于更广泛的场景,如人像风格化、卡通图编辑、字体设计和自动上色等等,它甚至能够实现多文本条件下对一张图的不同部分实现同时编辑。

思路和技术背景

从整体流程的角度,CLIPVG 首先提出了一种多轮矢量化方法,可鲁棒地将像素图转换到矢量域,并适应后续的图像编辑需求。然后定义了一种 ROI CLIP loss 作为损失函数,以支持对每个感兴趣区域 (ROI) 使用不同文字进行引导。整个优化过程通过可微矢量渲染器对矢量参数 (如色块颜色,控制点等) 进行梯度计算。

CLIPVG 融合了两个领域的技术,一是像素域的文字引导图像编辑,二是矢量图像的生成。接下来会依次介绍相关的技术背景。

文字引导图像翻译

要让 AI 在图像编辑时”听懂”文字引导,典型方法是利用对比图文预训练(Contrastive Language-Image Pre-Training,CLIP)模型。CLIP 模型可以将文字和图像编码到可比较的隐空间中,并给出”图像是否符合文字描述”的跨模态相似度信息,从而建立起文字和图像之间的语义联系。然后,事实上仅仅使用 CLIP 模型很难直接对于图像编辑进行有效引导,这是因为 CLIP 主要关注于图像的高层语义信息,而对于像素级别的细节缺乏约束,导致优化过程很容易陷入到局部最优(local minimum)或者对抗性的解决方案(adversarial solutions)。

现有的常见方法是将 CLIP 和一个基于 GAN 或 Diffusion 的像素域生成模型相结合,例如 StyleCLIP (Patashnik et al, 2021),StyleGAN-NADA (Gal et al, 2022),Disco Diffusion (alembics 2022),DiffusionCLIP (Kim, Kwon, and Ye 2022),DALL·E 2 (Ramesh et al, 2022) 等等。这些方案利用生成模型来对图像细节进行约束,从而弥补了单独使用 CLIP 的缺陷。但同时,这些生成模型严重依赖于训练数据和计算资源,并且会让图像编辑的有效范围受到训练集图片的限制。受限于生成模型的能力,StyleCLIP,StyleGAN-NADA,DiffusionCLIP 等方法都只能将单个模型限制在某个特定的领域,比如人脸图片。Disco Diffusion、DALL·E 2 等方法虽然能编辑任意图片,但需要海量的数据和计算资源来训练其对应的生成模型。

目前也有极少数不依赖于生成模型的方案,例如 CLIPstyler (Kwon and Ye 2022)。CLIPstyler 在优化时会将待编辑图像分为随机小块(random patch),并在每个 patch 上利用 CLIP 引导加强对于图像细节的约束。问题是此时每个 patch 都会单独反映输入文字所定义的语义,导致该方案只能进行风格迁移(style transfer),而无法对图像进行整体的高层语义编辑。

不同于以上的像素域方法,网易互娱 AI Lab 提出的 CLIPVG 方案通过矢量图形的特性来对图像细节进行约束,以取代生成模型。CLIPVG 可以支持任意输入图片,并能够进行泛用型的图像编辑。其输出为标准的 svg 格式矢量图形,不受分辨率的限制。

矢量图像生成

一些现有工作考虑了文字引导的矢量图形生成,例如 CLIPdraw (Frans, Soros, and Witkowski 2021),StyleCLIPdraw (Schaldenbrand, Liu, and Oh 2022)等。典型的做法是将 CLIP 和一个可微矢量渲染器相结合,并从随机初始化的矢量图形开始逐渐逼近文字所表示的语义。其中用到的可微矢量渲染器为 Diffvg (Li et al. 2020),能够将矢量图形通过可微渲染栅格化为像素图。CLIPVG 同样使用了 Diffvg 来建立矢量图到像素图之间的联系,不同于已有方法的是 CLIPVG 关注如何对已有图像进行编辑,而非直接生成。

由于已有图像中的绝大多数都是像素图,需要先进行矢量化才能够利用矢量图形特性进行编辑。现有的矢量化方法包括 Adobe Image Trace (AIT), LIVE (Ma et al. 2022)等,但是这些方法都没有考虑后续的编辑需求。CLIPVG 在已有方法的基础上引入了多轮矢量化的增强手段,以针对性提高图像编辑时的鲁棒性。

技术实现

CLIPVG 的总体流程如下图所示。首先会对输入的像素图进行不同精度的多轮矢量化 (Multi-round Vectorization),其中第 i 轮得到的矢量元素集合记为Θi。各轮得到的结果会被叠加到一起整体作为优化对象,并通过可微矢量渲染 (Differentiable Rasterization) 转换回到像素域。输出图片的起始状态是输入图片的矢量化重建,然后按照文字描述的方向进行迭代优化。优化过程会根据每个 ROI 的区域范围和关联文字,计算 ROI CLIP loss (下图中的),并根据梯度优化各个矢量元素,包括颜色参数和形状参数。

整个迭代优化的过程可见下例,其中的引导文字为”Jocker, Heath Ledger”(小丑,希斯 · 莱杰)。

矢量化

矢量图形可以定义为矢量元素的集合,其中每个矢量元素由一系列参数控制。矢量元素的参数取决于其类型,以填充曲线 (filled curve) 为例,其参数为,其中是控制点参数,是 RGB 颜色和不透明度的参数。对矢量元素做优化时存在一些自然的约束,比如一个元素内部的颜色始终是一致的,其控制点之间的拓扑关系也是固定的。这些特性很好地弥补了 CLIP 对于细节约束的缺失,能够极大增强优化过程的鲁棒性。

理论上来说,CLIPVG 可以借助任何一种已有方法来进行矢量化。但是研究发现这样做会导致后续的图像编辑出现几个问题。首先,通常的矢量化方法能够保证图像在初始状态时相邻的矢量元素之间是严丝合缝的,但是各个元素会随着优化的过程发生移动,导致元素之间出现“裂缝”。其次, 有时候输入图像比较简单,只需要少量矢量元素即可拟合,而文字描述的效果需要更加复杂的细节来表现,导致图像编辑时缺失必要的原材料(矢量元素)。

针对以上问题, CLIPVG 提出了多轮矢量化的策略,每一轮会调用已有方法得到一个矢量化的结果,并进行依次叠加。每一轮会相对前一轮提高精度,即用更小块的矢量元素进行矢量化。下图体现了矢量化时不同精度的差异。

第 i 轮矢量化得到的矢量元素集合可以表示为, 而所有轮产生的结果叠加后得到的矢量元素集合记作,也就是 CLIPVG 总的优化对象。

损失函数

类似于 StyleGAN-NADA 和 CLIPstyler,CLIPVG 使用了一个方向性的 CLIP 损失来度量生成图像和描述文字之间的对应关系,其定义如下,

其中表示输入的文字描述。是一个固定的参考文字,在 CLIPVG 中设为 "photo",是生成的图像(要优化的对象)。是原始图像。分别是 CLIP 的文字和图像编解码器。ΔT 和ΔI 分别表示文字和图像的隐空间方向。优化该损失函数的目的是使得图像编辑后的语义变化方向符合文字的描述。后面的公式中会忽略固定不变的 t_ref。在 CLIPVG 中,生成的图像是矢量图形经过可微渲染的结果。此外,CLIPVG 支持对每一个 ROI 分配不同的文字描述。此时方向性的 CLIP loss 会转化为如下的 ROI CLIP loss,

其中 Ai是第 i 个 ROI 区域,是其关联的文字描述。R 是可微矢量渲染器,R(Θ)是渲染出来的整张图像。是输入的整张图像。代表一个裁剪操作,表示从图像 I 中将区域裁剪出来。CLIPVG 同时也支持了类似 CLIPstyler 中基于 patch 的增强方案,即从每个 ROI 中可以进一步随机裁剪出多个 patch, 并根据该 ROI 对应的文字描述对每个 patch 分别计算 CLIP loss。

总的 loss 是所有区域的 ROI CLIP loss 之和,即

这里的一个区域可以是一个 ROI, 或是从 ROI 中裁剪出来的一个 patch。是各个区域对应的 loss 权重。

CLIPVG 会根据以上损失函数对于矢量参数集合Θ进行优化。优化时也可以只针对Θ的一个子集,比如形状参数、颜色参数,或者特定区域对应的部分矢量元素。

实验结果

在实验部分,CLIPVG 首先通过消融实验验证了多轮矢量化策略和矢量域优化的有效性,然后和已有的 baseline 进行了对比,最后展示了特有的应用场景。

消融实验

研究首先对比了多轮矢量化 (Multi-round) 策略和只进行一轮矢量化 (One-shot) 的效果。下图中第一行是矢量化后的初始结果,第二行是编辑后的结果。其中 Nc表示矢量化的精度。可以看到多轮矢量化不仅提高了初始状态的重建精度,并且能够有效消除编辑后矢量元素之间的裂缝,并增强细节表现。

为了进一步研究矢量域优化的特性,论文对比了 CLIPVG (矢量域方法) 和 CLIPstyler (像素域方法) 采用不同 patch size 进行增强时的效果。下图中第一行为 CLIPVG 采用不同 patch size 的效果,第二行为 CLIPstyler 的效果。其文字描述为 "Doctor Strange"。整张图的分辨率为 512x512。可以看到当 patch size 较小 (128x128 或 224x224) 时,CLIPVG 和 CLIPstyler 都会在局部小块区域出现 "Doctor Strange"(奇异博士)代表性的红蓝配色,但是整张脸的语义并没有明显变化。这是因为此时的 CLIP 引导没有施加到图片整体。

当 CLIPVG 将 patch size 增加到 410x410 时可以看到明显的人物身份变化,包括发型以及脸部特征都按照文字描述进行了有效编辑。如果去除 patch 增强,则语义编辑效果和细节清晰度都会有所下降,说明 patch 增强依然有正面效果。不同于 CLIPVG,CLIPstyler 在 patch 较大或去除 patch 时依然无法实现人物身份的变化,而只是改变了整体颜色和一些局部纹理。原因是 patch size 放大后像素域的方法失去了底层约束,而陷入到局部最优。这一组对比说明 CLIPVG 能够有效利用矢量域对于细节的约束,结合较大的 CLIP 作用范围 (patch size) 实现高层语义编辑,这是像素域方法难以做到的。

对比实验

在对比实验中,研究首先将 CLIPVG 和两种能对任意图片进行编辑的像素域方法进行了对比,包括 Disco Diffusion 和 CLIPstyler,下图中可以看到对于 "Self-Portrait of Vincent van Gogh" 的例子,CLIPVG 能够同时对于人物身份和绘画风格进行编辑,而像素域方法只能达到其中的一项。对于 "Gypsophila",CLIPVG 相对 baseline 方法能更精确地编辑花瓣的数量和形状。在 "Jocker, Heath Ledger" 和 "A Ford Mustang" 的例子中,CLIPVG 也能鲁棒地改变整体语义,相对来说 Disco Diffusion 容易出现局部瑕疵,而 CLIPstyler 一般只是调整了纹理和颜色。

(自上而下:梵高画、满天星、希斯莱杰小丑、福特野马)

研究者接着对比了针对特定领域图片 (以人脸为例) 的像素域方法,包括 StyleCLIP、DiffusionCLIP 和 StyleGAN-NADA。由于对使用范围进行了限制,这些 baseline 方法的生成质量通常更为稳定。CLIPVG 在这组对比中依然展现了不逊于已有方法的效果,尤其是和目标文字的符合程度往往更高。

(自上而下:奇异博士、异鬼、僵尸)

更多应用

利用矢量图形的特性以及 ROI 级别的损失函数,CLIPVG 能够支持一系列已有方法难以实现的创新玩法。比如本文一开始展示的多人图的编辑效果,就是通过对于不同人物定义不同的 ROI 级别文字描述实现的。下图的左边为输入,中间为 ROI 级别文字描述的编辑结果,右边为整张图只有一个整体文字描述的结果。其中 A1 到 A7 区域对应的描述分别为 1. "Justice League Six"(正义联盟),2. "Aquaman"(海王),3. "Superman"(超人),4. "Wonder Woman"(神奇女侠),5. "Cyborg"(钢骨),6. "Flash,DC Superhero"(闪电侠,DC) 和 7. "Batman"(蝙蝠侠)。可以看到 ROI 级别的描述可以对各个人物进行分别编辑,而整体描述则无法生成有效的个体身份特征。由于各个 ROI 互相之间是有重叠的,已有方法即使对每个人物单独编辑,也很难达到 CLIPVG 的整体协调性。

CLIPVG 还可以通过优化一部分的矢量参数,实现多种特殊的编辑效果。下图中第一行展示了只编辑部分区域的效果。第二行展示了锁定颜色参数,只优化形状参数的字体生成效果。第三行和第二行相反,通过只优化颜色参数来达到重新上色的目的。

(自上而下:子区域编辑、字体风格化、图像改色)

编辑:于腾凯

校对:林亦霖

首次不依赖生成模型,一句话让AI修图!相关推荐

  1. Nat. Biotech.|药物设计的AI生成模型

    今天介绍2020年1月30日发表在Nature Biotechnology上的评论,作者为Relay Therapeutics公司的Walters和Murcko,该论文评价了当前几种基于AI的药物生成 ...

  2. 文本生成视频Make-A-Video,根据一句话就能一键生成视频 Meta新AI模型

    Meta公司(原Facebook)在今年9月29日首次推出一款人工智能系统模型:Make-A-Video,可以从给定的文字提示生成短视频. Make-A-Video研究基于文本到图像生成技术的最新进展 ...

  3. 3分钟看完一篇论文,这个AI文本生成模型把今年NeurIPS 2300+篇总结了个遍

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 行早 发自 凹非寺 量子位 报道 | 公众号 QbitAI 今年Ne ...

  4. #今日论文推荐# 文字秒变3D?苹果发布最新AI生成模型GAUDI,根据文字提示创建3D场景

    #今日论文推荐# 文字秒变3D?苹果发布最新AI生成模型GAUDI,根据文字提示创建3D场景 继 AI 将文字变成图片后,又有 AI 可以将文字变成 3D 场景了. 苹果发布新 AI 系统 GAUDI ...

  5. 有了AI智能绘画,我也可以成为绘画大师——全球最大规模中文跨模态生成模型ERNIE-ViLG

    对于绘画一窍不通的我,也喜欢看动漫,看到一些绝美的画,何尝不会感叹,要是我也会画画就好了,现在终于有机会帮我实现这个想法了,无意间看到了AI的一个新应用,最近热度还挺高的AI绘画,充分引起了我的兴趣, ...

  6. 智源AI日报(2022-08-26):当下最强的 AI art 生成模型 Stable Diffusion 最全面介绍

    [智源AI日报]每天速读5分钟,AI要事不错过!欢迎点击这里,关注并订阅智源AI日报. 盘点 | 当下最强的 AI art 生成模型 Stable Diffusion 最全面介绍  看点:程序员漫画家 ...

  7. 无需训练RNN或生成模型,我写了一个AI来讲故事

    作者 | Andre Ye 译者 | 弯月 出品 | AI科技大本营(ID:rgznai100) 这段日子里,我们都被隔离了,就特别想听故事.然而,我们并非对所有故事都感兴趣,有些人喜欢浪漫的故事,他 ...

  8. AI做不了“真”3D图像?试试Google的新生成模型

    编译 | 若名 出品 | AI科技大本营 用 AI 生成逼真三维物体模型并不像人们以为的那么困难. 近日,在 NeurIPS 2018 会议上接收的论文" 视觉对象网络:图像生成与分离式的3 ...

  9. LoveLive!出了一篇AI论文:生成模型自动写曲谱

    视学算法报道 编辑:泽南.小舟 我们终于知道那些折磨人的乐谱是怎么来的了 -- 都是 AI 生成的. 知名偶像企划 LoveLive! 发 AI 论文了,是的没错. 最近,预印版论文平台 arXiv ...

最新文章

  1. Android10.0 日志系统分析(四)-selinux、kernel日志在logd中的实现​-[Android取经之路]
  2. ORA-28000: the account is locked-的解决办法
  3. android倒角按钮,Android实现圆角Button按钮
  4. 有人说,如果有条件一定要远离穷人,你赞成吗?
  5. esp32 arduino adc_英雄联盟手游射手出装怎么出 adc英雄出装推荐
  6. P1035 [NOIP2002 普及组] 级数求和(python3实现)
  7. AES地址栏传参加密
  8. Magic Maze dfs + dp
  9. 四元组相加获得target
  10. HDU1232 畅通工程【并查集】
  11. 筛选中很容易粘贴到被隐藏部分_excel复制粘贴:如何将数据粘贴到筛选区域中?...
  12. 机器人学习--移动机器人定位导航性能评估规范
  13. 程序员价值观和网络复杂性-网络不可达排查过程
  14. xhEditor入门基础
  15. MSDP配置(anycast RP)
  16. 郭长波连任OpenStack基金会独立董事 继续推动中国力量话语权
  17. 地形湿度指数(TWI)获取教程
  18. 【文献阅读】Remote Power Attacks on the Versatile Tensor Accelerator in Multi-Tenant FPGAs
  19. Linux (centos7)安装字体
  20. ProxmoxVE7.0+Ceph15.2集群搭建

热门文章

  1. PS制作复古彩色画人像照片、创意分割照片
  2. 8.3.1 修改数据表名称
  3. 用Python发免费短信的正确姿势
  4. 野心外漏?Windows Defender或将独霸杀毒软件市场?
  5. uniapp适配ipad端平板端
  6. 如何手动创建 k8s kubeconfig 文件以实现多环境切换
  7. 车贷需要注意的问题,车贷风控流程这几点你必须知道
  8. python怎么输出复数_python基础知识及应用(二)输入输出|递归|深浅拷贝|全局变量|复数...
  9. Mac上如何提取图片上的文字?
  10. linux 查看网络流量来源_详解Linux查看实时网卡流量的几种方式