这个 Loss 还有一定的改进空间,比如 Loss Sensitive GAN(LS-GAN),还有更广义的 CLS-GAN(将 LS-GAN 和 WGAN 统一起来了),这些推广我们就不讨论了。不过这些推广都建立在 Lipschitz 约束之上,只不过微调了 Loss,也许未来会有人发现比 Lipschitz 约束更好的对 D 的约束。 10 WGAN-GP 的例子 最后,分享一个 WGAN-GP 的实现,以 MNIST为 数据集,读者可以自己改着玩: https://github.com/bojone/gan/ 训练进度显示: 关于PaperWeekly PaperWeekly是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事AI领域,欢迎在PaperWeekly公众号后台点击「交流群」,小助手将把你带入PaperWeekly的交流群里。 (责任编辑:本港台直播) |