Stable Diffusion公司新作Gen-1:基于扩散模型的视频合成新模型,加特效杠杠的!...
点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
点击进入—>【扩散模型】微信技术交流群
转载自:机器之心 | 编辑:蛋酱
从文本生成图像,再到给视频加特效,下一个 AIGC 爆发点要出现了吗?
相信很多人已经领会过生成式 AI 技术的魅力,特别是在经历了 2022 年的 AIGC 爆发之后。以 Stable Diffusion 为代表的文本到图像生成技术一度风靡全球,无数用户涌入,借助 AI 之笔表达自己的艺术想象……
相比于图像编辑,视频编辑是一个更具有挑战性的议题,它需要合成新的动作,而不仅仅是修改视觉外观,此外还需要保持时间上的一致性。
在这条赛道上探索的公司也不少。前段时间,谷歌发布的 Dreamix 以将文本条件视频扩散模型(video diffusion model, VDM)应用于视频编辑。
近日,曾参与创建 Stable Diffusion 的 Runway 公司推出了一个新的人工智能模型「Gen-1」,该模型通过应用文本 prompt 或参考图像指定的任何风格,可将现有视频转化为新视频。
论文链接:https://arxiv.org/pdf/2302.03011
项目主页:https://research.runwayml.com/gen1
2021 年,Runway 与慕尼黑大学的研究人员合作,建立了 Stable Diffusion 的第一个版本。随后英国的一家初创公司 Stability AI 介入,资助了在更多数据上训练模型所需的计算费用。2022 年,Stability AI 将 Stable Diffusion 纳入主流,将其从一个研究项目转变为一个全球现象。
Runway 表示,希望 Gen-1 能像 Stable Diffusion 在图像上所做的那样为视频服务。
「我们已经看到图像生成模型的大爆炸,」Runway 首席执行官兼联合创始人 Cristóbal Valenzuela 说。「我真的相信,2023 年将是视频之年。」
具体来说,Gen-1 支持几种编辑模式:
1、风格化。将任何图像或 prompt 的风格转移到视频的每一帧。
2、故事板。将模型变成完全风格化和动画的渲染。
3、遮罩。分离视频中的主题并使用简单的文本 prompt 对其进行修改。
4、渲染。通过应用输入图像或 prompt,将无纹理渲染变成逼真的输出。
5、定制化。通过自定义模型以获得更高保真度的结果,释放 Gen-1 的全部功能。
在该公司官方网站上发布的 demo 中,展示了 Gen-1 如何丝滑地更改视频风格,来看几个示例。
比如将「街道上的人」变成「粘土木偶」,只需要一行 prompt:
或者将「堆放在桌上的书」变成「夜晚的城市景观」:
从「雪地上的奔跑」到「月球漫步」:
年轻女孩,竟然秒变古代先哲:
论文细节
视觉特效和视频编辑在当代媒体领域无处不在。随着以视频为中心的平台的普及,对更直观、性能更强的视频编辑工具的需求也在增加。然而,由于视频数据的时间性,在这种格式下的编辑仍然是复杂和耗时的。最先进的机器学习模型在改善编辑过程方面显示出了巨大的前景,但很多方法不得不在时间一致性和空间细节之间取得平衡。
由于引入了在大规模数据集上训练的扩散模型,用于图像合成的生成方法最近在质量和受欢迎程度上经历了一个快速增长阶段。一些文本条件模型,如 DALL-E 2 和 Stable Diffusion,使新手只需输入一个文本 prompt 就能生成详细的图像。潜在扩散模型提供了有效的方法,通过在感知压缩的空间中进行合成来生成图像。
在本论文中,研究者提出了一个可控的结构和内容感知的视频扩散模型,该模型是在未加字幕的视频和配对的文本 - 图像数据的大规模数据集上训练的。研究者选择用单目深度估计来表征结构,用预训练的神经网络预测的嵌入来表征内容。
该方法在其生成过程中提供了几种强大的控制模式:首先,与图像合成模型类似,研究者训练模型使推断出的视频内容,如其外观或风格,与用户提供的图像或文本 prompt 相匹配(图 1)。其次,受扩散过程的启发,研究者对结构表征应用了一个信息掩蔽过程,以便能够选择模型对给定结构的支持程度。最后,研究者通过一个自定义的指导方法来调整推理过程,该方法受到无分类指导的启发,以实现对生成片段的时间一致性的控制。
总体来说,本研究的亮点如下:
通过在预训练图像模型中引入时间层,并在图像和视频上进行联合训练,将潜在扩散模型扩展到了视频生成领域;
提出了一个结构和内容感知的模型,在样本图像或文本的指导下修改视频。编辑工作完全是在推理时间内进行的,不需要额外对每个视频进行训练或预处理;
展示了对时间、内容和结构一致性的完全控制。该研究首次表明,对图像和视频数据的联合训练能够让推理时间控制时间的一致性。对于结构的一致性,在表征中不同的细节水平上进行训练,可以在推理过程中选择所需的设置;
在一项用户研究中,本文的方法比其他几种方法更受欢迎;
通过对一小部分图像进行微调,可以进一步定制训练过的模型,以生成更准确的特定主体的视频。
方法
就研究目的而言,从内容和结构的角度来考虑一个视频将是有帮助的。对于结构,此处指的是描述其几何和动态的特征,比如主体的形状和位置,以及它们的时间变化。对于内容,此处将其定义为描述视频的外观和语义的特征,比如物体的颜色和风格以及场景的照明。Gen-1 模型的目标是编辑视频的内容,同时保留其结构。
为了实现这一目标,研究者学习了视频 x 的生成模型 p (x|s, c),其条件是结构表征(用 s 表示)和内容表征(用 c 表示)。他们从输入视频推断出形状表征 s,并根据描述编辑的文本 prompt c 对其进行修改。首先,描述了对生成模型的实现,作为一个条件潜在的视频扩散模型,然后,描述了对形状和内容表征的选择。最后,讨论了模型的优化过程。
模型结构如图 2 所示。
实验
为了评估该方法,研究者采用了 DAVIS 的视频和各种素材。为了自动创建编辑 prompt,研究者首先运行了一个字幕模型来获得原始视频内容的描述,然后使用 GPT-3 来生成编辑 prompt。
定性研究
如图 5 所示,结果证明,本文的方法在一些不同的输入上表现良好。
用户研究
研究者还使用 Amazon Mechanical Turk(AMT)对 35 个有代表性的视频编辑 prompt 的评估集进行了用户研究。对于每个样本,均要求 5 个注解者在基线方法和本文方法之间对比对视频编辑 prompt 的忠实度(「哪个视频更好地代表了所提供的编辑过的字幕?」),然后以随机顺序呈现,并使用多数票来决定最终结果。
结果如图 7 所示:
定量评估
图 6 展示了每个模型使用本文框架一致性和 prompt 一致性指标的结果。本文模型在这两方面的表现都倾向于超越基线模型(即,在图的右上角位置较高)。研究者还注意到,在基线模型中增加强度参数会有轻微的 tradeoff:更大的强度缩放意味着更高的 prompt 一致性,代价是更低的框架一致性。同时他们还观察到,增加结构缩放会导致更高的 prompt 一致性,因为内容变得不再由输入结构决定。
定制化
图 10 展示了一个具有不同数量的定制步骤和不同水平的结构依附性 ts 的例子。研究者观察到,定制化提高了对人物风格和外观的保真度,因此,尽管使用具有不同特征的人物的驱动视频,但结合较高的 ts 值,还是可以实现精确的动画效果。
点击进入—>【计算机视觉】微信技术交流群
最新CVPP 2023论文和代码下载
后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集
后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF
目标检测和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群▲扫码或加微信号: CVer333,进交流群
CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!▲扫码进群
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
Stable Diffusion公司新作Gen-1:基于扩散模型的视频合成新模型,加特效杠杠的!...相关推荐
- Stable Diffusion系列课程上:安装、提示词入门、常用模型(checkpoint、embedding、LORA)、放大算法、局部重绘、常用插件
文章目录 一.Stable Diffusion简介与安装 二.文生图(提示词解析) 2.1 提示词入门 2.2 权重 2.3 负面提示词( Negative prompt) 2.4 出图参数设置 2. ...
- 在 Amazon SageMaker 上玩转 Stable Diffusion: 基于 Dreambooth 的模型微调
本文将以 Stable Diffusion Quick Kit 为例,详细讲解如何利用 Dreambooth 对 Stable Diffusion 模型进行微调,包括基础的 Stable Diffus ...
- 扩散模型(Diffusion Model,DDPM,GLIDE,DALLE2,Stable Diffusion)
随着最近DALLE2和stable diffusion的大火,扩散模型的出色表现丝毫不逊色VAE和GAN,已经形成生成领域的三大方向:VAE.GAN和Diffusion,如上图可以简要看出几类主线模型 ...
- GPT-3、Stable Diffusion一起助攻,让模型听懂甲方修图需求
来源:机器之心 AI 可以完全按照甲方意愿修图?GPT-3.Stable Diffusion 一起助攻,让模型秒变 PS 高手,改图随心所欲. 扩散模型大火之后,很多人将注意力放到了如何利用更有效的 ...
- 开源风暴吞噬AI界?从Stable Diffusion的爆火说起
近日,文本生成图像模型Stable Diffusion背后的公司Stability AI宣布获得了1.01亿美元超额融资,估值达10亿美元,这家基于开源社区的"草根"企业的风头一时 ...
- Stable Diffusion搭建全过程记录,生成自己的专属艺术照
引言 最近硅星人多次报道过 AI 图片生成技术,提到过 DALL·E.Midjourney.DALL·E mini(现用名 Craiyon).Imagen.TikTok AI绿幕等知名产品. 实际上, ...
- AIGC:Stable Diffusion(一项普通人就能实现的AI前沿科技)的简介、Stable Diffusion2.0的改进、安装、使用方法(文本到图像/图像修改/超分辨率/图像修复)之详细攻略
AIGC:Stable Diffusion(一项普通人就能实现的AI前沿科技)的简介.Stable Diffusion2.0的改进.安装.使用方法(文本到图像/图像修改/超分辨率/图像修复)之详细攻略 ...
- 可生成高清视频的Stable Diffusion来了!分辨率提升4倍,超分算法来自腾讯,支持Colab在线试玩...
明敏 发自 凹非寺 来源 | 量子位 QbitAI 免费玩的Stable diffusion,又出新变种了! 古典人像丝滑切换,还都是4倍超分辨率水平,细节也就多了亿点点吧,眉毛发丝都根根分明. 还能 ...
- 首个中文Stable Diffusion模型开源;TPU演进十年;18个PyTorch性能优化技巧 | AI系统前沿动态...
1. TPU演进十年:Google的十大经验教训 希腊神话中,特洛伊战争的起因是两方争夺世界上最美的女人--海伦,后世诗人将海伦的美貌"令成千战舰为之起航".TPU就像海伦,它的出 ...
最新文章
- 聊一聊 软件系统中的“热力学第二定律”
- es springboot 不设置id_es(elasticsearch)整合SpringCloud(SpringBoot)搭建教程详解
- Google开源word2vec,文本相似度计算工具
- 基于Solr的空间搜索学习笔记
- 从生命周期去看互联网金融产品的风险管理框架
- [HNOI 2010]Planar
- Java高级面试题!docker启动
- DDR2与DDR的区别
- 互联网大病公益众筹项目文本分析
- 电脑定时执行的软件 - 定时执行专家
- 电子元器件识别(图解)
- 在职研究生计算机专业院校,计算机专业在职研究生报名有哪些院校可以选择?...
- fragment 中调用getactivity()的时候报 nullpoint错误
- php服务器默认首页,如何修改Apache服务器的默认首页?
- 移动领导驾驶舱如何制作?移动驾驶舱app
- 【FFMPEG源码分析】ffmpeg中context与AVClass,AVOption之间的关系
- idea安装jclasslib插件显示乱码【已解决】
- linux中goldendict发声词典播放报错问题解决方案
- android 学习运用海马模拟器教程与android环境的搭建
- PyTorch深度学习——梯度下降算法