High-Resolution Image Synthesis with Latent Diffusion Models 论文重点
Content
- High-Resolution Image Synthesis with Latent Diffusion Models
- Abstract
- 1. Introduction
- 不足之处:
- 提出问题:
- 解决方法:Departure to Latent Space(脱离并去往潜在空间)
- 方法的优点:
- Contributions:
- Related Work
- Generative Models for Image Synthesis
- Diffusion Probabilistic Models (DM)
- Two-Stage Image Synthesis
- Method
- Perceptual Image Compression
- Latent Diffusion Models
- Experiments
- implementation Details
- Conditional Latent Diffusion
- Super-Resolution with Latent Diffusion
- Limitations & Societal Impact
- Conclusion
High-Resolution Image Synthesis with Latent Diffusion Models
Github : https://github.com/CompVis/latent-diffusion
Abstract
通过将图像生成过程分解为去噪编码器的迭代应用,扩散模型(DMs)在图像数据和其他数据上实现了最先进的合成结果。此外,它们的表述还提供了一种引导机制来控制图像生成过程,而无需再训练。然而,由于这些模型通常直接在像素空间中操作,优化功能强大的dm通常会消耗数百个GPU天,而且由于顺序计算,推理是昂贵的(耗时)。为了在有限的计算资源上进行DM训练,同时保持其质量和灵活性,我们将其应用于强大的预训练预编码的潜在空间。与以前的工作相比,在这种表示上训练扩散模型首次允许在复杂性减少和细节保留之间达到一个接近最优点,极大地提高了视觉保真度。通过在模型架构中引入交叉注意层,我们将扩散模型转变为强大而灵活的生成器,用于文本或边界框等一般条件反射输入,并以卷积方式实现高分辨率合成。我们的潜在扩散模型(ldm)在图像嵌入和类条件图像合成方面取得了最新的分数,在各种任务上具有极具竞争力的性能,包括文本到图像合成、无条件图像生成和超分辨率,同时与基于单像素的DMs相比显著减少了计算需求。
1. Introduction
- 自回归(AR)和tranformer的数十亿个参数[66,67]。参数量大 GAN [3,27,40]
- 它们的对抗性学习过程不容易扩展到建模复杂的多模态,仅限于变异性相对有限的数据分布。
- 扩散模型[82],这是建立在一个去噪自动编码器的层次,已经表明令人不可思议的成果。 作为基于似然的模型,它们不像
GAN那样表现出模式崩溃和训练不稳定性,并且通过大量利用参数共享,它们可以模拟自然图像的高度复杂的分布,而不像
AR模型那样涉及数十亿个参数[67]
不足之处:
- 此前的高分辨率图像合成DMs属于基于似然的模型,其模式行为使其易于在建模数据的不可感知细节上花费过多的容量(以及计算资源)[16,73]。尽管重加权变分目标[30]旨在通过对初始去噪步骤采样不足来解决这一问题,DMs仍然需要大量的计算,因为训练和评估这样的模型需要在RGB图像的高维空间中重复函数评估(和梯度计算)。
- 例如,训练最强大的dm通常需要数百个GPU/天(例如,[15]中的150 - V1000
/100天),并且在输入空间渲染的噪声版本上重复计算也非常昂贵。在单个A100 GPU上生成50k样本大约需要5天。评估一个已经准备好的训练模型在时间和内存上也是昂贵的,因为相同的模型架构必须按顺序运行大量的步骤(例如[15]中的25-1000步)
提出问题:
- 为了提高这种强大的模型的可访问性,同时降低其巨大的资源消耗,需要一种降低训练和采样计算复杂度的方法。因此,减少 DM
的计算需求而不影响其性能是提高其可访问性的关键。
解决方法:Departure to Latent Space(脱离并去往潜在空间)
- 与任何基于似然的模型一样,学习大致可以分为两个阶段:
第一阶段是感知压缩阶段,它去除了高频细节,但仍然学习到很少的语义变化。在第二阶段,实际的生成模型学习数据的语义和概念组成(语义压缩)。因此,我们的目标是首先找到一个感知上等同,但计算上更合适的空间,在这里我们将为高分辨率图像合成训练扩散模型。
方法的优点:
- 只需要训练通用自动编码阶段一次,因此可以重用它进行多个 DM 训练或探索可能完全不同的任务[81]。这使得对各种图像到图像和文本到图像任务的大量扩散模型的有效探索成为可能。对于后者,我们设计了一个架构,将transformer连接到 DM 的 UNet 主干[71] ,并支持任意类型的基于条件的调节机制。
Contributions:
- 与纯粹基于transformer的方法[23,66]相比,我们的方法可以更优雅地扩展到更高维数据,因此可以(a)在压缩级别上工作,其提供比以前的工作更有效的应用于高分别生成方面。
- 我们在多任务(无条件图像合成、修补、随机超分辨率)和数据集上获得了具有竞争力的性能,同时显著降低了计算成本。与基于像素的扩散方法相比,我们也显著降低了推理成本。
- 我们的结果表明,与之前的工作93相比,我们的方法不需要对重构和生成能力进行精确的加权。这确保了非常忠实的重建,需要非常少的潜空间正则化。
- 我们发现,对于超分辨率、修补和语义合成等高密度条件任务,我们的模型可以以卷积的方式应用,渲染出大的、一致的
1024*1024像素的高分图像。 - 此外,我们设计了一个基于交叉注意的通用条件反射机制,使得多模态训练成为可能。我们使用它来训练类条件模型、文本到图像模型和布局到图像模型。
Related Work
- Generative Models for Image Synthesis
- Diffusion Probabilistic Models (DM)
- Two-Stage Image Synthesis
Generative Models for Image Synthesis
Diffusion Probabilistic Models (DM)
DM在密度估计[45]和样品质量[15]方面取得了最先进的结果。这些模型的生成能力源于对类图像数据的归纳双酶的自然拟合,当其底层神经脊骨作为UNet实现时[15,30,71,85]。最好的综合质量通常是在重新加权的客观[30]用于训练时达到的。在这种情况下,DM对应于一个有损压缩器,并允许用图像质量交换压缩能力。然而,在像素空间中评估和优化这些模型的缺点是推理速度低,训练成本很高。虽然前者可以通过高级采样策略[47,75,84]和分层方法[31,93]部分解决,但高分辨率图像数据的训练总是需要计算昂贵的梯度。我们用我们提出的ldm解决了这两个缺点,它们工作在一个较低维度的压缩空间上。这使得训练计算成本更低,并加快了推理速度,几乎不降低合成质量。
Two-Stage Image Synthesis
为了缓解单个生成方法的缺点,大量研究[11,23,67,70,101,103]通过两阶段方法将不同方法的优点结合成更有效的生成模型。
Method
- Perceptual Image Compression
- Latent Diffusion Models
- Conditioning Mechanisms
Perceptual Image Compression
我们通过引入压缩和生成学习阶段的显式分离来规避这一缺陷(见图2)。为了实现这一目标,我们使用了一个自编码模型,该模型学习的空间在感知上与图像空间等效,但显著降低了计算复杂度
这种方法有几个优点:
通过离开高维图像空间,我们得到的dm计算效率更高,因为采样是在低维空间上进行的。
我们利用了继承自其UNet体系结构[71]的dm的归纳偏差,这使得它们对具有空间结构的数据特别有效,因此减轻了以前方法[23,66]所要求的压缩级别的需求。
最后,我们获得了通用压缩模型,其潜在空间可用于训练多个生成模型,也可用于其他下游应用,如单幅图像clip引导的合成[25]
我们的感知压缩模型基于以前的工作[23] ,由一个自动编码器组合训练的感知损失[106]和基于补丁的[33]对手目标[20,23,103]。这保证了重建被限制在图像流形执行局部真实感和避免模糊引入仅仅依靠像素空间损失,如 L2或 L1。
为了避免任意高方差的潜在空间,我们用两种不同的正则化进行实验。第一个变种,KL-reg。,对习得潜伏的标准正常值施加轻微的kl -惩罚,类似于VAE[46,69],而VQ-reg。在解码器中使用矢量量化层[96]。这个模型可以解释为一个VQGAN[23],但量化层被解码器吸收。因为我们的后续DM设计用于学习到的潜空间z = E(x)的二维结构,所以我们可以使用相对温和的压缩率并实现非常好的重构。这与之前的工作[23,66]形成了对比,之前的工作依赖于学习到的空间z的任意1D顺序来对其分布进行自回归建模,从而忽略了z的大部分固有结构。因此,我们的压缩模型更好地保留了x的细节。
Latent Diffusion Models
潜在表征的生成建模通过我们训练好的由 E 和 D 组成的感知压缩模型,我们现在可以进入一个有效的、低维的潜在空间,在这个空间中,高频率的、不可感知的细节被抽象出来。与高维像素空间相比,该空间更适合基于似然的生成模型,因为它们现在可以(i)关注数据的重要的语义位,并且(ii)在较低维度的计算效率更高的空间中进行训练。
Experiments
implementation Details
Conditional Latent Diffusion
Super-Resolution with Latent Diffusion
Limitations & Societal Impact
局限性:
虽然与基于像素的方法相比,ldm显著减少了计算需求,但其顺序采样过程仍比GANs慢。此外,当需要高精度时,使用ldm是有问题的:尽管在我们的f = 4自编码模型中,图像质量的损失非常小(见图1),但它们的重建能力可能成为在像素空间中要求细粒度精度的任务的瓶颈。我们的超分辨率模型在这方面已经有一定的局限性
Conclusion
提出了潜在扩散模型,这是一种简单有效的方法,可以显著提高去噪扩散模型的训练效率和采样效率,而不降低其质量。基于这一点和我们的交叉注意调节机制,的实验在没有任务特定架构的条件图像合成任务中,与最先进的方法相比,可以证明取得了良好的结果。
High-Resolution Image Synthesis with Latent Diffusion Models 论文重点相关推荐
- 论文笔记High-Resolution Image Synthesis with Latent Diffusion Models
论文提出了latent diffusion models (LDMs).基于该模型最著名的工作是文本生成图像模型stable-diffusion. 普通的扩散模型在像素空间操作,运算复杂度较高.为了保 ...
- high-resolution image synthesis with latent diffusion models
如何通俗理解扩散模型? - 知乎泻药.实验室最近人人都在做扩散,从连续到离散,从CV到NLP,基本上都被diffusion洗了一遍.但是观察发现,里面的数学基础并不是模型应用的必须.其实大部分的研究者 ...
- High-Resolution Image Synthesis with Latent Diffusion Models笔记
我是刚入门的小白,试着自己读论文不一定对望能理解 这篇论文产生问题的源头是什么 这篇论文解决了什么问题以及实现了什么功能 由于这些模型通常直接在像素空间中操作,因此强大DM的优化通常消耗数百个GPU天 ...
- Latent Diffusion Models / Stable Diffusion
High-Resolution Image Synthesis with Latent Diffusion Models(CVPR 2022) https://arxiv.org/abs/2112.1 ...
- Stable Diffusion背后原理(Latent Diffusion Models)
前言 2023年第一篇博客,大家新年好呀~ 这次来关注一下Stable Diffusion背后的原理,即 High-Resolution Image Synthesis with Latent Dif ...
- 详细解读Latent Diffusion Models:原理和代码
Diffusion Models专栏文章汇总:入门与实战 前言:CVPR 2022中的一项新工作latent diffusion models引起了广泛关注,提出了两段式diffusion model ...
- 【CV】Latent diffusion model 扩散模型体验
note 文章目录 note 一.diffusion模型 1.1 Stable Diffusion简介 1.2 和GAN对比的优势 二.Latent diffusion model原理 2.1 潜在空 ...
- 2022年11月100篇 diffusion models 扩散模型 汇总!
在生成图像方面,自从NIPS 2014的一篇开山之作: Generative Adversarial Nets 论文:https://proceedings.neurips.cc/paper/2014 ...
- Latent Diffusion(CVPR2022 oral)-论文阅读
文章目录 摘要 背景 算法 3.1. Perceptual Image Compression 3.2. Latent Diffusion Models 3.3. Conditioning Mecha ...
最新文章
- 图的遍历——广度优先搜索(Breadth First Search)
- 基于simulink的QAM-WIMAX的系统仿真
- Java集合:HashMap源码剖析
- I/O模型系列之四:两种高性能IO设计模式 Reactor 和 Proactor
- 程序员面试金典 - 面试题 03.06. 动物收容所(队列)
- MySQL GTID复制Slave跳过错误事务Id以及复制排错问题总结
- ORA-39070:无法打开日志文件
- 真壕!腾讯员工平均月薪 7 万!
- SignalR-Client-CPP 源码编译
- 多项式ln,exp学习小计
- Python源码剖析(四)字符串对象
- revit打开服务器文件格式,Revit文件导出格式大全(下)
- Apache-WebLogic plub-in插件的安装
- 安装 VMWare及VMware下创建的虚拟PC机安装Linux操作系统
- dell刀片服务器 重启 维护,已解决: dell 刀片服务器内网网络问题 - Dell Community
- 在Ubuntu上安装和使用miniconda
- Simscape Multiby学习笔记5——在Multibody中建立控制器-驱动力-传感器
- JAVA的三大特性(举例说明)
- 面向对象的特点?对象模型、动态模型和功能模型3种模型之间的关系?
- 【WLAN从入门到精通-基础篇】第11期——WLAN接入认证-Portal