Text to image论文精读GR-GAN:逐步细化文本到图像生成 GRADUAL REFINEMENT TEXT-TO-IMAGE GENERATION
目录
- 一、原文摘要
- 二、为什么提出GR-GAN
- 三、GR-GAN
- 3.1、整体框架
- 3.2、逐步求精生成器:GRG
- 3.2.1、图像初始化阶段
- 3.2.2、句子级细化阶段
- 3.2.3、单词级细化阶段
- 3.3、图像文本匹配器:ITM
- 3.4、定量指标:CMD
- 四、实验
- 4.1、实验设置
- 4.2、实验结果
- 4.3、一些定性实验
- 创新点与总结
- 最后
GR-GAN是北京邮电大学学者们发表的一篇文本生成图像的论文,文章被ICME(B类会议,IEEE International Conference on Multimedia & Expo)2022录用
论文地址:https://arxiv.org/abs/2205.11273
代码地址:https://github.com/BoO-18/GR-GAN
本博客是精读这篇论文的报告,包含一些个人理解、知识拓展和总结。
一、原文摘要
一个好的文本到图像模型不仅要生成高质量的图像,还要确保文本和生成的图像之间的一致性。以前的模型无法同时很好地满足以上两个条件。为了有效缓解这一问题,本文提出了一种渐进细化生成对抗网络模型(GR-GAN)。GRG模块设计用于生成从低分辨率到高分辨率的图像,相应的文本约束从粗粒度(句子)到细粒度(单词)逐级进行,ITM模块设计用于提供相应阶段在句子图像级和单词区域级的图像-文本匹配损失。我们还引入了一种新的度量交叉模型距离(CMD),用于同时评估图像质量和图像文本一致性。实验结果表明,GR-GAN的性能明显优于以前的模型,并且在FID和CMD方面都达到了新的水平。
二、为什么提出GR-GAN
- 当前的多级网络生成从低分辨率到高分辨率图像时,未考虑相应细粒度的语言约束;不同分辨率的图像应该与不同粒度的文本描述对应,即低分辨率图像用粗粒度的语言文本对应表达,高分辨率的图像可以用细粒度文本更好的描述;
- 当前的评估指标都无法同时评估图像质量和图像文本一致性,R精度虽然可以一定程度上评估,但存在严重过拟合现象。
三、GR-GAN
3.1、整体框架
GRGAN模型整体框架图如下:
可以看到模型的上层为GRG(Gradual Refinement Generator)模块,下层为ITM(Image-Text Matcher)模块。GRG模块包括三层生成器和三层鉴别器,ITM模型包括两部分,一部分用于对文本描述和生成的图像进行编码,另一部分提供图像和文本之间不同粒度的相似度。
3.2、逐步求精生成器:GRG
如上图所示GRG模块有三个层次:图像初始化阶段、句子级细化阶段、单词级细化阶段
3.2.1、图像初始化阶段
图像初始化阶段,如图所示从左边看起,csc_scs为文本输入,经过CA阶段(用的是StackGAN的那一套)将文本转换为条件向量c,然后加入噪声,输入到F1,F1主要通过重塑、上采样等步骤对特征进行变换得到图像特征h1,生成器G1利用h1生成64*64尺寸的图像,而鉴别器D1判别该小尺寸图像是否为真。第一阶段的无条件损失函数如下:
LD1uncon=−12Ex1∼data [log(D(x1))]−12Ex1∼G1[1−log(D(x1))]LG1uncon=−12Ex1∼G1[log(D(x1))]\begin{aligned} \mathcal{L}_{D_{1}}^{u n c o n}=&-\frac{1}{2} \mathbb{E}_{x_{1} \sim \text { data }}\left[\log \left(D\left(x_{1}\right)\right)\right] \\ &-\frac{1}{2} \mathbb{E}_{x_{1} \sim G_{1}}\left[1-\log \left(D\left(x_{1}\right)\right)\right] \\ \mathcal{L}_{G_{1}}^{u n c o n}=&-\frac{1}{2} \mathbb{E}_{x_{1} \sim G_{1}}\left[\log \left(D\left(x_{1}\right)\right)\right] \end{aligned}LD1uncon=LG1uncon=−21Ex1∼ data [log(D(x1))]−21Ex1∼G1[1−log(D(x1))]−21Ex1∼G1[log(D(x1))]
3.2.2、句子级细化阶段
句子级细化阶段再次引入句子级特征csc_scs,句子级特征原本是R1×NR^{1×N}R1×N,经过一层repeat重复置为RL×NR^{L×N}RL×N然后,使用动态存储器(用的DMGAN的那一套)将其与图像特征h1融合,如等式所示:TR−S=FDM(h1,csr)T_{R−S} = F^{DM} (h_1, c^r_s)TR−S=FDM(h1,csr),得到TR−ST_{R−S}TR−S,然后将其输入进F2,F2通过残差和上采样过程,得到图像特征h2,生成器G2利用h2生成128*128尺寸的图像,而鉴别器D2判别该小尺寸图像是否为真,损失函数如下(注意此时的鉴别器已经是有条件判断,采用的是有条件损失):
LD2con=−12Ex2∼data [log(D(x2,cs))]−12Ex2∼G2[1−log(D(x2,cs))]LG2con=−12Ex2∼G2[log(D(x2,cs))]\begin{aligned} \mathcal{L}_{D_{2}}^{c o n}=&-\frac{1}{2} \mathbb{E}_{x_{2} \sim \text { data }}\left[\log \left(D\left(x_{2}, c_{s}\right)\right)\right] \\ &-\frac{1}{2} \mathbb{E}_{x_{2} \sim G_{2}}\left[1-\log \left(D\left(x_{2}, c_{s}\right)\right)\right] \\ \mathcal{L}_{G_{2}}^{c o n}=&-\frac{1}{2} \mathbb{E}_{x_{2} \sim G_{2}}\left[\log \left(D\left(x_{2}, c_{s}\right)\right)\right] \end{aligned}LD2con=LG2con=−21Ex2∼ data [log(D(x2,cs))]−21Ex2∼G2[1−log(D(x2,cs))]−21Ex2∼G2[log(D(x2,cs))]
作者在第二层开始加入了ITM的文本-图像一致性损失,第二层添加用于句子级-图像的一致性损失,以加强在此阶段对图像和句子之间整体一致性的限制。损失由ITM模型计算,将在3.3中讲到,添加后的损失函数公式如下:LG2−totalcon=LG2con+λ2LITMsL^{con}_{G2−total} = L^{con}_{G2} + λ_2L_{ITMs}LG2−totalcon=LG2con+λ2LITMs
3.2.3、单词级细化阶段
单词级细化阶段与3.2.2类似,将生成的句子级蹄子cwc_wcw输入到动态存储器当中与图像特征融合然后输入到F3中,F3通过残差和上采样生成图像特征h3,生成器G3利用h2生成128*128尺寸的图像,而鉴别器D3判别该小尺寸图像是否为真,损失函数如下:(此时的鉴别器也是有条件鉴别,且此时引入的也是单词级条件)
LD3con=−12Ex3∼data [log(D(x3,cw‾))]−12Ex3∼G3[1−log(D(x3,cw‾))]LG3con=−12Ex3∼G3[log(D(x3,cw‾))]\begin{aligned} \mathcal{L}_{D_{3}}^{c o n}=&-\frac{1}{2} \mathbb{E}_{x_{3} \sim \text { data }}\left[\log \left(D\left(x_{3}, \overline{c_{w}}\right)\right)\right] \\ &-\frac{1}{2} \mathbb{E}_{x_{3} \sim G_{3}}\left[1-\log \left(D\left(x_{3}, \overline{c_{w}}\right)\right)\right] \\ \mathcal{L}_{G_{3}}^{c o n}=&-\frac{1}{2} \mathbb{E}_{x_{3} \sim G_{3}}\left[\log \left(D\left(x_{3}, \overline{c_{w}}\right)\right)\right] \end{aligned}LD3con=LG3con=−21Ex3∼ data [log(D(x3,cw))]−21Ex3∼G3[1−log(D(x3,cw))]−21Ex3∼G3[log(D(x3,cw))]
在第三层,作者进一步加入了单词级-图像的一致性损失,进一步加强对图像和描述之间细粒度一致性的约束,同样加入后的生成器总损失如下:
LG3−totalcon=LG3con+λ1LITMs+λ2LITMsL^{con}_{G3−total} = L^{con}_{G3} + λ_{1}L_{ITMs} + λ_{2}L_{ITMs}LG3−totalcon=LG3con+λ1LITMs+λ2LITMs
3.3、图像文本匹配器:ITM
ITM模型是由Transformer和ResNet101构建的一致性约束模型,该模型基于CLIP参数进行训练。其主要做的事情就是将文本编码形成句子级特征csc_scs和单词级特征cwc_wcw,然后提取图像区域特征 fregf_{reg}freg和图像整体特征 $f_{img},为GRG模型中用作一致性损失的图像和文本描述计算句子图像级相似度和词区域级相似度:
L1s=−∑i=1Mlogγexp(R(Ii,Si))∑i=1Mγexp(R(Ii,Sj))\mathcal{L}_{1}^{s}=-\sum_{i=1}^{M} \log \frac{\gamma \exp \left(R\left(I_{i}, S_{i}\right)\right)}{\sum_{i=1}^{M} \gamma \exp \left(R\left(I_{i}, S_{j}\right)\right)}L1s=−∑i=1Mlog∑i=1Mγexp(R(Ii,Sj))γexp(R(Ii,Si))
其中R(IiI_iIi,SjS_jSj)是图像句子对(IiI_iIi,SjS_jSj)的匹配分数,L2s{L}_{2}^{s}L2s可通过替换等式的分母获得,然后计算单词区域对的匹配分数来获得L1wL^w_1L1w和L2wL^w_2L2w ,最后ITM总损失如下:LITM=λ1LITMs+λ2LITMw=λ1(L1s+L2s)+λ2(L1w+L2w)\begin{aligned} \mathcal{L}_{I T M} &=\lambda_{1} \mathcal{L}_{I T M_{s}}+\lambda_{2} \mathcal{L}_{I T M_{w}} &=\lambda_{1}\left(\mathcal{L}_{1}^{s}+\mathcal{L}_{2}^{s}\right)+\lambda_{2}\left(\mathcal{L}_{1}^{w}+\mathcal{L}_{2}^{w}\right) \end{aligned}LITM=λ1LITMs+λ2LITMw=λ1(L1s+L2s)+λ2(L1w+L2w)
3.4、定量指标:CMD
作者提出了一种跨模型距离(CMD),通过将图像和文本信息映射成多模态语义分布,同时评估图像质量和图像文本一致性。CMD定义如下:
CMD=Dis(f,r)+∣Dis(f,l)−Dis(r,l)∣CMD=\operatorname{Dis}(f, r)+|\operatorname{Dis}(f, l)-\operatorname{Dis}(r, l)|CMD=Dis(f,r)+∣Dis(f,l)−Dis(r,l)∣,其中∣Dis(f,l)−Dis(r,l)∣|\operatorname{Dis}(f, l)-\operatorname{Dis}(r, l)|∣Dis(f,l)−Dis(r,l)∣表示的是图像与文本的一致性距离,简称ITDis,ITDis越小,图像文本一致性越好
四、实验
4.1、实验设置
- 数据集:MS-COCO
- 定量指标:IS、FID、ITDis、CMD
- 参数设置:学习率0.0002,epoch轮数300,λ1=4 and λ2= 1
4.2、实验结果
4.3、一些定性实验
作者在AttnGAN和DM-GAN上做了一些定性实验,并且对本GR-GAN在GRG、ITM上做了一些消融实验。如下表,具体请看原文,此处不再赘述。
创新点与总结
- 作者提出了一种渐进细化生成对抗网络(GR-GAN),包括渐进细化生成器(GRG)和图像文本匹配器(ITM),GRG逐步合成基于文本描述的图像,ITM利用从粗粒度到细粒度的相应文本约束,为各个阶段提供不同级别的图像文本匹配损失;
- 提出了一种新的文本到图像度量CMD,它可以同时评估图像质量和图像文本的一致性。它更适合于评估文本到图像的任务;
- GR-GAN显著优于以前的模型,并在FID和CMD上实现了新的SOTA。
最后
Text to image论文精读GR-GAN:逐步细化文本到图像生成 GRADUAL REFINEMENT TEXT-TO-IMAGE GENERATION相关推荐
- Text to image论文精读 NAAF:基于负感知注意力的图像-文本匹配框架 Negative-Aware Attention Framework for Image-Text Matching
NAAF:Negative-Aware Attention Framework for Image-Text Matching是基于负感知注意力的图文匹配,其利用匹配片段的积极影响和不匹配片段的消极影 ...
- Text to image论文精读PDF-GAN:文本生成图像新度量指标SSD Semantic Similarity Distance
SSD,全称为Semantic Similarity Distance,是一种基于CLIP的新度量方式,是西交利物浦大学学者提出的一种新的文本生成图像度量指标,受益于所提出的度量,作者进一步设计了并行 ...
- Text to image论文精读 DM-GAN: Dynamic Memory Generative Adversarial Networks for t2i 用于文本图像合成的动态记忆生成对抗网络
Text to image论文精读 DM-GAN: Dynamic Memory Generative Adversarial Networks for Text-to-Image Synthesis ...
- Text to image论文精读MISE:多模态图像合成和编辑Multimodal Image Synthesis and Editing: A Survey
由于信息在现实世界中以各种形式存在,多模态信息之间的有效交互和融合对于计算机视觉和深度学习研究中多模态数据的创建和感知起着关键作用. 近期 OpenAI 发布的 DALLE-2 和谷歌发布的 Imag ...
- 详解StyleGAN进化过程!看GAN如何一步步控制图像生成风格?
点击上方"码农突围",马上关注 这里是码农充电第一站,回复"666",获取一份专属大礼包 真爱,请设置"星标"或点个"在看&quo ...
- 看GAN如何一步步控制图像生成风格?详解StyleGAN进化过程
点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 来源:公众号 机器之心 授权 GAN 能够有条不紊地控制其生成图像 ...
- 李沐论文精读系列一: ResNet、Transformer、GAN、BERT
文章目录 一. ResNet 1.0 摘要,论文导读 1.1 导论 1.1.1 为什么提出残差结构? 1.1.2 实验验证 1.2 相关工作 1.3 实验部分 1.3.1 不同配置的ResNet结构 ...
- 李沐论文精读系列五:DALL·E2(生成模型串讲,从GANs、VE/VAE/VQ-VAE/DALL·E到扩散模型DDPM/ADM)
文章目录 一. 前言 1.1 DALL·E简介 1.2 DALL·E2简介 1.3 文生图模型进展 二. 引言 2.1 摘要 2.2 引言&模型结构 三. 算法铺垫 3.1 GANs 3.2 ...
- OpenAI新论文称打败GAN达到SOTA!是噱头还是干货?
来源:OpenAI 编辑:好困 [导读]近日,OpenAI的两个研究员发表了一篇新文章,称他们的扩散模型在图像生成领域比GAN更强.然而,霸榜多年的GAN这么轻易就会落败么? FaceAPP最近又小火 ...
最新文章
- 推荐一个ASP的内容管理框架(ASP Nuke)
- 测试人员:如何品味软件的品位
- 设置WPF窗口相对于非WPF窗口的位置
- 《Linux内核设计与实现》读书笔记(十六)- 页高速缓存和页回写
- 结构专业规范大全_一级注册结构工程师专业考试所使用的规范、标准、规程
- 永远不要放弃你所爱的人
- 安装navicat之后双击就会闪退_win2012,2016 能安装oracle 10g吗?
- 移动web中的幻灯片切换效果
- 【SQL】去除表中的重复行
- ESLint 规则详解(二)
- 用Python画一个时钟---简易版
- 趋势OFFICESCAN忘记卸载密码时如何卸载客户端
- c语言中void delay0.5(),c语言 延时函数
- python金融数据分析马伟明_Python金融数据分析
- 数据挖掘 NLP 之 文本挖掘 文本处理 通用流程
- 【Unity Shader 中Pass相关介绍_第一篇】
- bzoj1921: [Ctsc2010]珠宝商
- Telegram支付接口接入
- 假如工资有段位,你是个啥?
- 关于微软无线鼠标适配的问题
热门文章
- 一道简单的逻辑运算题
- h5 加载完成_开业通知朋友圈怎么写?新店开业宣传H5
- Redis的KEYS命令引起RDS数据库雪崩,RDS发生两次宕机,造成几百万的资金损失
- pandas练习_同期群分析(Cohort Analysis)
- HTML5七夕情人节表白网页(抖音-流动爱心表白)HTML+CSS+JavaScript 求婚示爱代码 520情人节告白代码 程序员表白源码 3D旋转相册 js烟花代码 爱心表白网页
- WeRateDog---分析推特数据
- 大白菜装机教程win10_如何用光盘快速重装系统(图文教程)
- 火狐浏览器必备的一些Hack插件
- Android root检测方法小结
- matlab模糊解耦,模糊神经网络解耦MATLAB源程序