BigGAN被干了!DeepMind发布LOGAN:FID提升32%,华人一作领衔
鱼羊 发自 凹非寺
量子位 报道 | 公众号 QbitAI
上看,下看,左看,右看。从各个角度看美食,真是让人越看越饿。
而有个不知道是好消息还是坏消息的事实是:这些食物从未真实存在过。
不错,这是DeepMind最新推出的LOGAN生成的“伪美食图鉴”。
这只GAN初登场就击败了“史上最强”的BigGAN,成为新的state-of-the-art,还把FID和IS分别提高了32%和17%。
什么概念?简而言之,就是LOGAN可以生成更高质量和更多样化的伪照片。
左边是BigGAN(FID/IS:5.04/126.8),右边是LOGAN(FID/IS:5.09/217)。
同样的低FID条件下,LOGAN可比BigGAN靠谱多了。
△左边是BigGAN,右边是LOGAN
而不考虑FID,在相似的高IS条件下,虽然生成的食物都一样真实,且热量爆炸,但显然LOGAN的姿势水平会更加丰富。
并且,DeepMind表示:无需引入任何架构变化或其他参数。
潜在优化
DeepMind采用的方法,是引入了一种受CSGAN启发的潜在优化(latent optimisation)。
首先,让潜在变量z,通过生成器和判别器进行前向传播。
然后,用生成器损失(红色虚线箭头)的梯度来计算改进的z’。
在第二次前向传播中,使用优化后的z’。其后,引入潜在优化计算判别器的梯度。
最后,用这些梯度来更新模型。
这一方法的核心,其实是加强判别器和生成器之间的交互来改善对抗性。
GAN中基于梯度的优化存在的一个重要问题是,判别器和生成器的损失产生的矢量场不是梯度矢量场。因此,不能保证梯度下降会找到局部最优解且可循环,这就会减慢收敛速度,或导致模式崩溃、模式跳跃现象。
辛梯度调节算法(SGA)可以在普通博弈中寻找稳定不动点,能改善对抗中基于梯度的方法的动态性。不过,因为需要计算所有参数的二阶导数,SGA的扩展成本很高。
潜在优化可以只分别针对潜在变量z和和判别器、生成器参数,使用二阶导数,来达到近似SGA的效果。
如此,就不必使用计算代价高昂的涉及判别器和生成器参数的二阶项。
简而言之,潜在优化最有效地耦合了判别器和生成器的梯度,且更具可扩展性。
并且,LOGAN受益于强大的优化器。研究人员使用自然梯度下降(NGD)进行潜在优化时发现,这种近似二阶优化方法比精确二阶方法表现更好。
虽然NGD在高维参数空间中同样代价高昂,但即使在非常大的模型中,它对于潜在优化也是有效的。
从实验结果来看,潜在优化明显改善了GAN的训练效果。
采用和BigGAN-deep基线相同的架构和参数数量,LOGAN在FID和IS上都有更好的表现。
不过,在训练期间,因为额外的前向和后向传播,LOGAN每一步的速度比BigGAN慢2到3倍。
华人一作领衔
论文一作,是DeepMind的研究科学家Yan Wu。
他于2019获剑桥大学计算神经科学博士学位,16年进入DeepMind工作。
论文的其他几位作者,分别是毕业于UC伯克利的Jeff Donahue博士。
毕业于芝加哥大学数学专业的David Balduzzi博士。
Vision Factory创始人Karen Simonyan。
以及伦敦学院大学客座教授、毕业于皇后大学的系统神经科学博士Timothy Lillicrap。
传送门
论文地址:
https://arxiv.org/abs/1912.00953
相关论文:
SGA:https://arxiv.org/abs/1802.05642
CSGAN:https://arxiv.org/abs/1901.03554
- 0元起步打造你的AI搜索!实测秘塔知识库新功能,竟能指导我升职加薪了2024-11-11
- o1满血版泄露!奥数题图片推理手拿把掐,奥特曼上线剧透o22024-11-03
- 科研版AI搜索来了!知乎直答接入正版论文库,一手实测在此2024-11-01
- 微软清华改进Transformer:用降噪耳机原理升级注意力,一作在线答疑2024-11-03