本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

【组图】一周论文 | ICLR 2017精选(4)

时间:2016-12-04 16:52来源:香港现场开奖 作者:www.wzatv.cc 点击:
第二个 regularizer 基于第一个 regularizer 旨在改进训练的方法,也被作者称为 manifold-diffusion GAN。分为两步,第一步 manifold step 训练 discriminator D1 ,目的是减

  第二个 regularizer 基于第一个 regularizer 旨在改进训练的方法,也被作者称为 manifold-diffusion GAN。分为两步,第一步 manifold step 训练 discriminator D1 ,目的是减少 G(Enc(X)) 和 X 的的差别;第二步 diffusion 就是训练 D2 让 G(Enc(X)) 和 G(z) 分布的距离接近。如下图:

  

【j2开奖】一周论文 | ICLR 2017精选

  最后,作者把 GAN 的网络训练坍塌的情况考虑进去,提出了新的 evaluation metric。

  相关工作

  本篇文章的作者李嫣然写过一篇非常棒的综述 ,在这里就不累赘阐述了。

  简评

  当下 GAN 的研究非常火爆,出现了许许多多对 GAN 的改进,本篇文章的提出的两种 regularizers 非常有效的提高了 GAN 的稳定性(其中 regularizer 的思想也受到了监督学习的启发),值得对 GAN 感兴趣的同学研读。

  完成人信息

  [email protected]

  Learning to compose words into sentences with reinforcement learning作者

  Dani Yogatama, Phil Blunsom, Chris Dyer, Edward Grefenstette, Wang Ling

  单位

  Google

  关键词

  Tree-LSTM, Reinforcement Learning

  文章来源

  ICLR 2017

  问题

  使用强化学习来构建树结构的神经网络Tree-LSTM,学习自然语言的句子表示

  模型

  模型分为两部分:Tree-LSTM和强化学习模型

  应用Tree-LSTM(可以通过LSTM的忘记门机制,跳过整棵对结果影响不大的子树),并结合{SHIFT,REDUCE}操作,SHIFT操作对应将一个节点压入栈,REDUCE对应将两个元素组合,从而建立树结构

  强化学习用来寻找最佳的节点组合情况,RL模型中的状态s即当前构建的树结构,a为{SHIFT,REDUCE}操作,reward对应不同downstream

  task(例:若是用该句子表示进行分类任务,则r对应从策略网络中采样得到句子表示的分类准确性的概率)

  资源

  作者将该工作进行了四组实验,情感分类,语义相关性判断,自然语言推理,句子生成

  分别应用Stanford Sentiment Treebank,Sentences Involving Compositional Knowledge corpus,Stanford Natural Language Inference corpus,IMDB movie review corpus

  相关工作

  与Socher等人之前提出的Recursive NN,MV-RNN,RNTN,Tree-LSTM等工作一脉相承,本文又加入了RL方式构建树形结构

  简评

  将强化学习引入句子表示学习之中,学习构建树的不同方式,从左向右,从右向左,双向,有监督、半监督、预先无结构等方式去构建树结构,但是训练时间较长,在几个任务上效果提升不是特别明显。

  总结

  GAN是当下的研究热点之一,在图像领域中研究较多,本期有一篇paper探讨了GAN在NLP中的应用,GAN值得关注和期待。最后感谢@destinwang、@gcyydxf、@chunhualiu、@tonya、@suhui和@zhangjun六位童鞋的辛勤工作。

  关于PaperWeekly

  PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是NLP的各个方向。如果你也经常读paper,也喜欢分享知识,也喜欢和大家一起讨论和学习的话,请速速来加入我们吧。

  微信公众号:PaperWeekly

  微博账号:PaperWeekly()

  微信交流群:微信+ zhangjun168305(请备注:加群交流或参与写paper note)

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容