原文链接:全球首发,国产开源「文本-视频生成」模型!免费在线体验,一键实现视频生成自由

去年4月,OpenAI发布的DALL-E 2用更高的分辨率、更真实的图像生成以及更准确地理解自然描述,横扫整个AIGC领域。

不过图像生成真正进入全民化还要数Stable Diffusion的开源,仅在消费级的GPU上即可运行,用户可以在自己的数据集上进行微调,也不用忍受各大绘画网站为了「安全」设立的各种过滤词表,真正实现了「绘画自由」。

而在视频生成领域,目前各家大厂还是只敢拿demo出来演示,普通用户还无法使用。

最近阿里达摩院在ModelScope上首发开源了「基于文本的视频生成」的模型参数,一起实现「视频自由」!

模型链接:https://modelscope.cn/models/damo/text-to-video-synthesis/files

体验链接:https://huggingface.co/spaces/damo-vilab/modelscope-text-to-video-synthesis

只需要输入文本,即可返回符合文本描述的视频,并且该模型能够适用于「开放领域」的视频生成,能够基于文本描述进行推理,不过目前只支持英文输入。

比如说输入经典的「an astronaut riding a horse」,直接让宇航员动起来!

或者输入「a panda eating bamboo on a rock」,可以得到下面的视频。

也可以根据huggingface上提供的接口自行输入prompt,比如输入「a dog eating a cake」,就可以得到2秒钟的视频,不过由于计算资源不足,可能需要排队等待一会。

国内首发「文本-视频生成」

文本到视频生成扩散模型由「文本特征提取」、「文本特征到视频隐空间扩散模型」、「视频隐空间到视频视觉空间」三个子网络组成,整体模型参数约17亿。

多阶段文本到视频生成扩散模型采用Unet3D结构,通过从纯高斯噪声视频中迭代去噪的过程,实现视频生成的功能。

在实现上参考的相关论文主要有两篇。

高分辨率图像合成与潜扩散模型

通过将图像形成过程分解为自动编码器去噪的顺序应用,扩散模型实现了对图像数据和其他数据的最新合成结果,并且扩散模型的公式能够接受一个引导机制来控制图像生成过程,而不需要重新训练。

不过由于这些模型通常直接在像素空间中运行,因此对强大的扩散模型进行优化通常需要耗费数百 GPU 天的时间,并且由于顺序评估而导致推理成本高昂。

论文链接:https://arxiv.org/pdf/2112.10752.pdf

为了能够在有限的计算资源上进行扩散模型训练,同时保持其质量和灵活性,研究人员将其应用于强大的预训练自动编码器的潜空间。

与以往的工作相比,在这种表征上的训练扩散模型可以在降低复杂度和保持细节之间达到接近最佳的点,大大提高了视觉保真度。

通过在模型结构中引入交叉注意层,可以将扩散模型转化为功能强大且灵活的生成器,用于一般条件输入(如文本或边界框) ,并使得以卷积方式进行高分辨率合成成为可能。

文中提出的潜扩散模型(LDM)在图像修复和各种任务(包括无条件图像生成、语义场景合成和超分辨率)的高度竞争性性能方面取得了新的进展,同时与基于像素的潜在扩散模型相比,显著降低了计算需求。

VideoFusion:用于高质量视频生成的分解扩散模型

扩散概率模型(DPM)通过逐渐向数据点添加噪声来构造正向扩散过程,并学习反向去噪过程以生成新样本,已被证明能够处理复杂的数据分布。

尽管最近在图像合成方面取得了成功,但是由于视频的数据空间维度更高,将DPM应用于视频生成仍然具有挑战性。

以往的方法通常采用标准的扩散过程,即用独立的噪声破坏同一视频片段中的帧,忽略了内容冗余和时间相关性。

论文链接:https://arxiv.org/pdf/2303.08320v2.pdf

这篇论文提出了一种分解扩散过程,通过将每帧噪声分解为一个在所有帧之间共享的基本噪声和一个沿着时间轴变化的残余噪声;去噪pipeline采用两个联合学习的网络来相应地匹配噪声分解。

在不同数据集上的实验证实了文中的方法VideoFusion,在高质量视频生成方面优于基于GAN和基于扩散的替代方法。

实验中进一步表明,分解公式可以受益于预先训练的图像扩散模型和良好的支持文本条件下的视频生成。

使用方法

在ModelScope框架下,通过调用简单的Pipeline即可使用当前模型,其中,输入需为字典格式,合法键值为'text',内容为一小段文本。

该模型暂仅支持在GPU上进行推理,模型需要硬件配置大约是 16GB 内存和 16GB GPU显存。

输入具体代码示例如下。

运行环境 (Python Package)

GIT_LFS_SKIP_SMUDGE=1 git clone  https://github.com/modelscope/modelscope  && cd modelscope && pip install -e .pip install open_clip_torch

代码范例 (Demo Code)

from modelscope.pipelines import pipelinefrom modelscope.outputs import OutputKeysp = pipeline('text-to-video-synthesis', 'damo/text-to-video-synthesis')test_text = {        'text': 'A panda eating bamboo on a rock.',    }output_video_path = p(test_text,)[OutputKeys.OUTPUT_VIDEO]print('output_video_path:', output_video_path)

查看结果 (View Results)

上述代码会展示输出视频的保存路径,目前编码格式采用VLC播放器可以正常播放。

模型的限制与偏见

  • 模型基于Webvid等公开数据集进行训练,生成结果可能会存在与训练数据分布相关的偏差。

  • 该模型无法实现完美的影视级生成。

  • 该模型无法生成清晰的文本。

  • 该模型主要是用英文语料训练的,暂不支持其他语言。

  • 该模型在复杂的组合性生成任务上表现有待提升。

训练数据

训练数据包括 LAION5B、 ImageNet、 Webvid 等公共数据集。图像和视频滤波是经过美学评分、水印评分和重复数据删除等预训练后进行的。

参考资料:

https://modelscope.cn/models/damo/text-to-video-synthesis/summary

国产开源「文本-视频生成」模型!免费在线体验,一键实现视频生成自由相关推荐

  1. 全球首发,国产开源「文本-视频生成」模型!免费在线体验,一键实现视频生成自由...

    来源:新智元 去年4月,OpenAI发布的DALL-E 2用更高的分辨率.更真实的图像生成以及更准确地理解自然描述,横扫整个AIGC领域. 不过图像生成真正进入全民化还要数Stable Diffusi ...

  2. 大悲宇宙「文本基因计划」社交构建的艺术语言

    撰稿丨郭成 编辑丨阿东 大悲宇宙以「未来仏」系列作品捕获15万微博野生粉,近年来的「文本基因计划」「虚拟蝴蝶」正在以艺术的形式构建可观的网络社群.说他是网红并不过分,曾与NIKE合作联名球鞋,与谐星李 ...

  3. LOOT NFT No.1?No!「文本基因计划」?Yes!

    放眼亚洲区块链艺术格局,大悲宇宙绝对算最受瞩目的数字艺术家之一,不论「未来仏」,「虚拟蝴蝶」,还是「文本基因计划」,都是年轻群体追逐的对象.东方文化与赛博朋克糅合出的别样视觉,使「文本基因计划」这样的 ...

  4. 什么是「文本基因计划」?

    「文本基因计划」是亚洲数字艺术家大悲宇宙于2019年开始创作的系列文本动画影像类作品,糅合东方文化与赛博朋克未来科技感,人机协同美学打造出极尽精美.清晰超然的虚拟世界.不论在当代艺术领域,还是区块链艺 ...

  5. WPS Office 推出支持 M1 芯片的MacOS「尝鲜版」:速度更快,体验更佳

    随着 Apple Silicon Mac 的发售日期越来越近,开发者对于新架构的适配工作也在有条不紊的进行当中,而最新加入到这一阵营的开发者是来自国内的金山办公,支持苹果 M1 芯片的 Wpsoffi ...

  6. 密歇根大学联合谷歌大脑提出,通过「推断语义布局」实现「文本到图像合成」

    原文来源:arXiv 作者:Seunghoon Hong.Dingdong Yang.Jongwook Choi.Honglak Lee 「雷克世界」编译:嗯~阿童木呀 我们通过推断语义布局(sema ...

  7. 这段Rap火了!「中本聪VS汉密尔顿」谁有道理?(附视频)

    汉密尔顿和中本聪之间的对决,其实就是中心化和去中心化思潮之间的碰撞.而这个名为<汉密尔顿VS中本聪>的Rap,也极其精彩. 作者:方辰 编辑:唐晗 出品:碳链价值(cc-value) 一个 ...

  8. 李飞飞CVPR最新论文 | 「文本转图」效果优化可多一步:物体关系描述

    Root 假装发自 凹非寺 量子位 出品 | 公众号 QbitAI 一个设计师拿到简(mo)单(hu)需求的日常. 帮我做个海报吧. 我要个浪漫的场景,两个人在海边走,有日落,海浪,远山那种.  ...

  9. opencv生成3d模型_OCR深度实践系列:数据生成

    OCR深度实践系列:(一)图像预处理这篇为OCR深度实践系列的第二篇:数据生成.深度学习依赖大量的数据,然而在真实的业务场景中无法获取足够多且真实的打标数据,因此人们希望通过图像增强.语义理解.生成对 ...

最新文章

  1. 什么是蠕虫,木马以及二者跟病毒是什么关系!
  2. 核试验计算机模拟,随着信息技术的发展,包括核试验在内的许多科学研究都可以用计算机模拟...
  3. 带FIFO的UART收发器设计(转发)
  4. JZOJ 5600. 【NOI2018模拟3.26】Arg
  5. 思维模型篇:四大战略分析工具
  6. 全球唯一!华为nova5系列:有望搭载全新7nmSoC
  7. 【Leetcode】【Regular Expression Matching】【正则表达式匹配】【C++】
  8. 硅谷女孩火了,更该让他们开始学编程
  9. 递归算法JAVA实现
  10. 下载各版本cuda,下载以前版本的cuda
  11. 服务器销售工资如何计算公式,拿提成的工资怎么算的有公式吗
  12. 淘宝自动客服(旺旺机器人)
  13. 局域网SDN技术硬核内幕 二 云网CP的日常恩爱——硬件VXLAN转发平面
  14. 某银行开发一个信用卡管理系统CCMS
  15. 单片机与PC机串口通信编程
  16. 微信小程序使用骨架屏
  17. UCOSIII操作系统学习笔记——任务
  18. 转载:关于NERO7刻录软件的使用
  19. html手机页面弹幕效果,H5移动端弹幕动画实现
  20. 【搞定Jvm面试】 Java 内存区域揭秘附常见面试题解析

热门文章

  1. SpringBoot整合Prometheus实现业务指标上报
  2. HyperLynx(十五)多板仿真
  3. 出门忘带身份证?那就试试这几款好用软件
  4. Java HdAcm1174
  5. 解决CentOS安装VM Tools出现在客户机中装载CD驱动器启动终端,使用tar解压缩安装程序,然后执行vmware-insall.pl安装VMware Tools的问题。
  6. 阿里云服务器安装mongodb
  7. python re模块下载_python: re模块
  8. rotation的单位是角度
  9. 专精特新企业具体解释和好处
  10. 应届生软件测试面经_软件测试实习生面试经验 - 共180条真实软件测试实习生面试经验分享 - 职业圈...