这个可解释性问题是 Wasserstein GAN 旨在解决的问题之一。怎么样?GAN 可被解释以最小化 Jensen-Shannon 发散,如果真和假的分布不重叠(通常是这种情况),则它为 0。所以,作者使用了 Wasserstein 距离,开奖,而不是最小化 JS 发散,它描述了从一个分布到另一个分布的「点」之间的距离。这大概是其主要思想,但如果你想了解更多,我强烈建议你访问这一链接()进行更深入的分析或阅读文章本身。 因此,WassGAN 具有与图像质量相关的损失函数并能够实现收敛。它也更加稳定,也就意味着它不依赖于架构。例如,即使你去掉批处理归一化或尝试奇怪的架构,它也能很好地工作。
这是 WassGAN 损失函数的图。损失越低,图像质量越高。整齐! 你也许想要使用 Wasserstein GAN,如果: 你正在寻找具有最高训练稳定性的最先进的 GAN。 你想要一个有信息量的可解释的损失函数。 结语 所以,现在就是这些!我知道还有更有趣的研究去评论,但在这篇文章中,我决定专注于一个有限的集合。只是举几个例子,下面是一些我没有评论的文章的简短列表,也许你想去看看: GAN 应用于视频:https://github.com/SKTBrain/DiscoGAN 图像完成:https://arxiv.org/abs/1609.04802 GAN + 可变性 AutoEncoder 混合:https://github.com/junyanz/iGAN 向 GAN 添加一个编码器以重建样本:https://phillipi.github.io/pix2pix/ 图像到图像的翻译:https://ishmaelbelghazi.github.io/ALI/ 交互式图像生成:https://arxiv.org/abs/1512.09300 使用 GAN 增加图像质量:https://bamos.github.io/2016/08/09/deep-completion/ 将鞋子变成等价的包(DiscoGAN): 更广泛的研究列表,请查看此链接:https://github.com/zhangqianhui/AdversarialNetsPapers。 此外,在这个 repo(https://github.com/wiseodd/generative-models)中,你会发现 Tensorflow 和 Torch 中的各种 GAN 实现。 最后,机器之心所关注的GAN文章列表:
原文地址: 本文为机器之心编译,转载请联系本公众号获得授权。 ?------------------------------------------------ 加入机器之心(全职记者/实习生):[email protected] 投稿或寻求报道:[email protected] 广告&商务合作:[email protected] (责任编辑:本港台直播) |