第二个 regularizer 基于第一个 regularizer 旨在改进训练的方法,也被作者称为 manifold-diffusion GAN。分为两步,第一步 manifold step 训练 discriminator D1 ,目的是减少 G(Enc(X)) 和 X 的的差别;第二步 diffusion 就是训练 D2 让 G(Enc(X)) 和 G(z) 分布的距离接近。如下图:
最后,作者把 GAN 的网络训练坍塌的情况考虑进去,提出了新的 evaluation metric。 相关工作 本篇文章的作者李嫣然写过一篇非常棒的综述 ,在这里就不累赘阐述了。 简评 当下 GAN 的研究非常火爆,出现了许许多多对 GAN 的改进,本篇文章的提出的两种 regularizers 非常有效的提高了 GAN 的稳定性(其中 regularizer 的思想也受到了监督学习的启发),值得对 GAN 感兴趣的同学研读。 完成人信息 Learning to compose words into sentences with reinforcement learning作者 Dani Yogatama, Phil Blunsom, Chris Dyer, Edward Grefenstette, Wang Ling 单位 关键词 Tree-LSTM, Reinforcement Learning 文章来源 ICLR 2017 问题 使用强化学习来构建树结构的神经网络Tree-LSTM,学习自然语言的句子表示 模型 模型分为两部分:Tree-LSTM和强化学习模型 应用Tree-LSTM(可以通过LSTM的忘记门机制,跳过整棵对结果影响不大的子树),并结合{SHIFT,REDUCE}操作,SHIFT操作对应将一个节点压入栈,REDUCE对应将两个元素组合,从而建立树结构 强化学习用来寻找最佳的节点组合情况,RL模型中的状态s即当前构建的树结构,a为{SHIFT,REDUCE}操作,reward对应不同downstream task(例:若是用该句子表示进行分类任务,则r对应从策略网络中采样得到句子表示的分类准确性的概率) 资源 作者将该工作进行了四组实验,情感分类,语义相关性判断,自然语言推理,句子生成 分别应用Stanford Sentiment Treebank,Sentences Involving Compositional Knowledge corpus,Stanford Natural Language Inference corpus,IMDB movie review corpus 相关工作 与Socher等人之前提出的Recursive NN,MV-RNN,RNTN,Tree-LSTM等工作一脉相承,本文又加入了RL方式构建树形结构 简评 将强化学习引入句子表示学习之中,学习构建树的不同方式,从左向右,从右向左,双向,有监督、半监督、预先无结构等方式去构建树结构,但是训练时间较长,在几个任务上效果提升不是特别明显。 总结 GAN是当下的研究热点之一,在图像领域中研究较多,本期有一篇paper探讨了GAN在NLP中的应用,GAN值得关注和期待。最后感谢@destinwang、@gcyydxf、@chunhualiu、@tonya、@suhui和@zhangjun六位童鞋的辛勤工作。 关于PaperWeekly PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是NLP的各个方向。如果你也经常读paper,也喜欢分享知识,也喜欢和大家一起讨论和学习的话,请速速来加入我们吧。 微信公众号:PaperWeekly 微博账号:PaperWeekly() 微信交流群:微信+ zhangjun168305(请备注:加群交流或参与写paper note) (责任编辑:本港台直播) |