biggan:large scale gan training for high fidelity natural image synthesis
深度解读DeepMind新作:史上最强GAN图像生成器—BigGAN - 知乎本期推荐的论文笔记来自 PaperWeekly 社区用户 @TwistedW。由 DeepMind 带来的 BigGAN 可谓是笔者见过最好的 GAN 模型了,这里的 Big 不单单是指模型参数和 Batch 的大,似乎还在暗示让人印象深刻,文章也确实做到…https://zhuanlan.zhihu.com/p/46581611这篇文章写的还是很容易理解的,相比较之前大规模的摆公式,biggan好理解多了,但是模型结构图都放到了附录中了,biggan的核心有三点,第一更大了,大bs和大参数,第二,来源于对模型的调整,比如latent的分层输入,贡献c,第三latent z的截断输入,为了应对这种截断输入,提出了正交正则化,最后基于训练不稳定提了一些改进的技巧。
1.introduction
gan从尺度缩放中受益,与现有技术相比,训练参数为2-4倍,batch大8倍,达到了2048这个级别,对应到题目的large scale,其实biggan发现只是单纯的调大规模,gan就能有更好的效果。作为修改的副作用,模型变得适合截断技巧,truncation trick,这是一种简单的采样技术,可以对样本种类和保真度之间的权衡进行明确,细粒度的控制。
2.background
3.scaling up gans
探索扩大gan训练的方法,以获得在larger models和larger batch下的优势。使用SAGAN架构,hinge loss,条件bn的G,含投影的D,谱归一化,moving averages of G weights,正交初始化。
首先增加baseline model的bs,IS很快提高,但是副作用是我们的模型在更少的迭代中更好,但是变得不稳定且易模式崩溃。
宽度增加50%,效果继续提升。
看上图,c是共享的,对latent z进行split,噪声向量z被馈送入多个层而不仅仅是初始层,这个是很有意义的,在stylegan中也是这么做的,latent z其实对生成器中每一个卷积层都有用,卷积层其实是从粗糙到精细化的过程,从latent z空间采样,这种设计的背后直觉是允许生成器使用潜在空间直接影响不同分辨率和层次结构结构级别的特征。在bigan中,将z分成每个分辨率的一块,并将每个块链接到条件向量c,条件向量c映射到BN的增益和偏差。
3.1 trading off variety and fidelity with the truncation trick
gan可以使用任意的先验,但绝大多数使用的是高斯和均匀分布,可以有更好的替代方案。所谓截断技巧,就是通过对从先验分布z采样,通过设置阈值的方式来截断z的采样,其中超出范围的值被重新采样已落入该范围,这个阈值可以根据生成质量指标IS和FID决定。这个实验可以知道通过对阈值的设定,随着阈值的下降生成的质量会越来越好,但是由于阈值的下降,采样的范围变窄,就会造成生成上取向单一化,造成生成的多样性不足的问题。
上图中a就是随着阈值越来越低,效果确实越来越好,但是越来越单一,b图是大模型其实不适合截断,容易出现饱和伪影。为了抵消这种情况,我们试图将G调节为平滑来强制实现截断的适应性,以便z的整个空间到良好的输出样本。采样正交正则化。
4.analysis
主要是分析了gan在训练期间不稳定的原因,并在生成器和判别器上做了一些限制。
biggan:large scale gan training for high fidelity natural image synthesis相关推荐
- [BigGAN] Large Scale GAN Training for High Fidelity Natural Image Synthesis
1.目的 在大型数据集上训练class-conditional GAN,并探索相关的trick 2.贡献 1)数据集的扩大使得GAN的表现也随之提升.文章的网络参数量是之前工作的2~4倍,batch ...
- Paper之BigGAN:ICLR 2019最新论文《LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS》(未完待续)
Paper之BigGAN:ICLR 2019最新论文<LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS> ...
- Paper之BigGAN:《Large Scale Gan Training For High Fidelity Natural Image Synthesis》翻译与解读
Paper之BigGAN:<Large Scale Gan Training For High Fidelity Natural Image Synthesis>翻译与解读 目录 效果 1 ...
- 【PaddlePaddle论文复现】LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS阅读心得
[PaddlePaddle论文复现]LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS阅读心得 作者:Andrew B ...
- Large scale GAN training for high fidelity natural image synthesis解读
<Large scale GANtraining for high fidelity natural image synthesis>这篇文章对训练大规模生成对抗网络进行了实验和理论分析, ...
- 《Large scale GAN training for high fidelity natural image synthesis》论文阅读记录
论文连接地址:https://arxiv.org/pdf/1809.11096.pdf Github地址:https://github.com/AaronLeong/BigGAN-pytorch 目录 ...
- 用于高保真自然图像合成的大规模GAN训练(Large Scale GAN Training For High Fidelity Natural Images)论文 pdf
下载地址:https://u20150046.ctfile.com/fs/20150046-376632643 By Andrew Brock,Jeff Donahue,Karen Simonyan( ...
- 【食品图像识别】Large Scale Visual Food Recognition
1 引言 视觉智能部与中科院计算所于2020-2021年度展开了<细粒度菜品图像识别和检索>科研课题合作,本文系双方联合在IEEE T-PAMI2023发布论文<Large Scal ...
- Machine Learning week 10 quiz: Large Scale Machine Learning
Large Scale Machine Learning 5 试题 1. Suppose you are training a logistic regression classifier using ...
- 【论文阅读 NeurIPS 2022】A Large Scale Search Dataset for Unbiased Learning to Rank
文章目录 前言 Abs Intro 2.Preliminary 2.1.Ubiased Learning to Rank 2.2.Existion ULTR Datasets 3.Dataset De ...
最新文章
- linux 安装u盘win7系统安装教程,centos u盘安装 boot制作u盘win7盘工具
- 计算机分级时无法度量视频播放,Win7 64位系统电脑评分出现“无法度量视频播放性能”怎么解决...
- Canny边缘检测及C++实现
- 比Postman更好用!在国产接口调试工具Apipost中使用Mock
- python123判断字符串结尾_Python学习教程:在字符串的开头和结尾处做文本匹配
- Linux强制重新启动系统——重启服务器的最终救济途径
- 话里话外:中小型装备制造企业竞争优势构建之路
- 一位父亲和一位母亲讲述孩子的成长故事--《粗养的智慧:李聃的普林斯顿之路》和《我的儿子马友友》阅读摘录...
- 计算机专业Java毕业设计思路分享(项目+设计+源码)
- 备案指的是域名还是服务器?
- 使用kubeadm安装kuberneters
- 2020年常见的服务器都有哪些?都有什么优缺点?
- 拿到腾讯 offer 的第二天,我从字节跳动离职了
- 中小型服装店如何选择管理软件?
- 时辰和属相、当令经的对应关系
- bt ct 计算机辅助翻译,计算机辅助翻译报告
- html5点赞按钮特效,jquery仿直播app按钮点赞动画效果
- 第六届全国工业互联网数据创新应用大赛:工业生产反应装置的建模预测【天池】
- 爬爬爬--xpath
- 中国企业社交网络(ESN)市场趋势报告、技术动态创新及市场预测