尽管生成对抗网络(GAN)在许多不同的生成任务上都实现了当前最佳的结果,但它们被认为是高度不稳定的且容易出错。我们认为 GAN 的这些糟糕行为是由于在高维空间中训练过的鉴别器的非常特定的函数形状,这可以轻松使得训练陷入困境或将概率质量(probability mass)推向错误的方向,导致集中度(concentration)比其数据生成分布(data generating distribution)更高。我们介绍了几种对其目标进行正则化的方法,它们可以极大地稳定 GAN 模型的训练。我们还表明我们的正则化器(regularizer)可以在训练的早期阶段帮助在数据生成分布的模式上实现公平的概率质量分布,从而能为该模式缺失问题(missing modes problem)提供一种统一的解决方案。
图 4:左边 1-5 图:用于 MNIST 生成的不同超参数。我们的 Regularized GAN 中的λ1 和 λ2 的值列在对应的样本下方。右边 6-7 图:对 GAN 和 Regularized GAN 进行网格搜索而得到的最佳样本。
图 6:不同的生成模型所生成的样本。对于这里每一个比较的模型,我们直接从它们对应的论文和代码库里面取了 10 个比较好的样本。注意 MDGAN 在全局一致性上更好,而且在局部上也有很好的纹理锐利度。
图 7:Regularized-GAN 和 MDGAN 所生成的侧脸样本 ©本文为机器之心编译,转载请联系本公众号获得授权。 ?------------------------------------------------ 加入机器之心(全职记者/实习生):[email protected] 投稿或寻求报道:[email protected] 广告&商务合作:[email protected] (责任编辑:本港台直播) |