生成的猫非常多样化,而且没有明显的 mode collapse,这是相对 WGAN 的一个重大改进。但是,生成猫的外观非常模糊,就像高分辨率图片被变成低分辨率了一样,我不知道这是什么原因。可能是 Wasserstein loss 的特点。我想使用不同的学习率和架构可能有所帮助。这需要进一步的尝试,肯定还有很大的潜力。 WGAN-GP 生成的猫猫 LSGAN(最小二乘GAN) LSGAN 是一种比较不同的方法,我们尝试将鉴别器输出和其指定的标签之间的平方距离最小化。Xudong Mao(毛旭东)等人的原始 LSGAN 论文中建议使用:在鉴别器 update 中使1为真实图像,0为伪造图像,然后在生成器 update 中使1为伪造图像,0为真实图像。但是 Hejlm 等人的论文建议使用:在鉴别器 update 中使1为真实图像,0为伪造图像,但在生成器update中使.50作为伪造图像来寻找边界。 我没有时间进行完整的运行,但 LSGAN 总体相当稳定,并且输出的猫非常漂亮。虽然一般情况下是稳定的,但又一次,损失和梯度崩溃了,生成的别说猫了,啥也没有。你可以看下面的 epoch 31 和 32: 因此,它不是绝对稳定的,可能会崩溃造成非常糟糕的结果。为 Adam 优化器选择更好的超参数可能有助于防止这种情况。你不需要像 DCGAN 那样调整学习率,但如果出故障(可能很少见),生成的猫咪还是非常好看的。 后记:LSGAN 的第一作者 Xudong Mao 发给我一张128×128分辨率的 LSGAN 生成的猫的图像,证明 LSGAN 可以生成跟 DCGAN 一样好的图,甚至更好。结果如下面这张图: 开源代码:https://github.com/AlexiaJM/Deep-learning-with-cats 数据集:CAT Dataset:https://web.archive.org/web/20150703060412/http://137.189.35.203/WebUI/CatDatabase/catData.html 相关论文: 1. Radford A, Metz L, Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. arXiv preprint arXiv:1511.06434, 2015. 2. Arjovsky M, Chintala S, Bottou L. Wasserstein gan[J]. arXiv preprint arXiv:1701.07875, 2017. 3. Gulrajani I, Ahmed F, Arjovsky M, et al. Improved training of wasserstein gans[J]. arXiv preprint arXiv:1704.00028, 2017. 4. Mao X, Li Q, Xie H, et al. Least squares generative adversarial networks[J]. arXiv preprint ArXiv:1611.04076, 2016. 原文:https://ajolicoeur.wordpress.com/cats/ (责任编辑:本港台直播) |