王小新 编译自 Arxiv 量子位 出品 | 公众号 QbitAI 最近,DeepMind公司的Mihaela Rosca、Balaji Lakshminarayanan和David Warde-Farley等人写了一篇题为“一种基于变分方法的自编码生成对抗网络(Variational Approaches for Auto-Encoding Generative Adversarial Networks)”的论文。 这篇文章利用变分推理,提出了一种将自动编码器和生成对抗网络融合起来的方法。 摘要 自动编码生成对抗网络结合了标准形式的GAN算法,通过自动编码器给出的重建损失(construction loss)来区分原始数据和模型的生成数据。这种模型的目的是确保基于所有可用数据进行训练,防止学习得到的生成模型出现模式崩溃问题。 在本文中,我们提出了一种规则,通过利用生成模型的层次结构,将自动编码器结合到生成对抗网络中。由基本原理可表明,变分推理可作为网络学习的基本方法,但是要将随机可能性替换为合成似然性,且将未知后验分布替换为隐含分布。本文使用了鉴别器来学习网络中的合成似然性和隐含后验分布。 于是,我们结合这两种方法中的最优点,开发出一种结合变分自动编码器和生成对抗网络的融合方法。我们设置了一个共同的优化目标,讨论了引导学习的约束条件,与大量现有研究相联系,并使用了一系列实验来系统地定量评估本文方法的效果。 更多实际性能及结果讨论请看论文:https://arxiv.org/abs/1706.04987 P.S. 他们给自己的方法起名叫“α-GAN”,理由是:GAN太多,拉丁字母前缀不够用了,只好用希腊字母了…… 【完】 一则通知 量子位正在组建自动驾驶技术群,直播,j2直播,面向研究自动驾驶相关领域的在校学生或一线工程师。欢迎大家加量子位微信(qbitbot),备注“自动驾驶”申请加入哈~ 招聘 量子位正在招募编辑记者、运营、产品等岗位,工作地点在北京中关村。相关细节,请在公众号对话界面,回复:“招聘”。 追踪人工智能领域最劲内容 (责任编辑:本港台直播) |