本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

【组图】一周论文 | ICLR 2017精选

时间:2016-12-04 16:52来源:香港现场开奖 作者:www.wzatv.cc 点击:
本期PaperWeekly将带着大家来看一下ICLR 2017的六篇paper,其中包括当下非常火热的GAN在NLP中的应用,开放域聊天机器人如何生成更长更丰富的回答,如何用强化学习来构建树结构的神经网

  本期PaperWeekly将带着大家来看一下ICLR 2017的六篇paper,其中包括当下非常火热的GAN在NLP中的应用,开放域聊天机器人如何生成更长更丰富的回答,如何用强化学习来构建树结构的神经网络和层次化的记忆网络等内容。六篇paper分别是:

  1、A SELF-ATTENTIVE SENTENCE EMBEDDING

  2、Adversarial Training Methods for Semi-Supervised Text Classification

  3、GENERATING LONG AND DIVERSE RESPONSES WITH NEURAL CONVERSATION MODELS

  4、Hierarchical Memory Networks

  5、Mode Regularized Generative Adversarial Networks

  6、Learning to compose words into sentences with reinforcement learning

  A SELF-ATTENTIVE SENTENCE EMBEDDING作者

  Zhouhan Lin, Minwei Feng, Cicero Nogueira dos Santos, Mo Yu, Bing Xiang, Bowen Zhou & Yoshua Bengio

  单位

  IBM Watson

  Universit´e de Montr´eal

  关键词

  self-attention, sentence embedding, author profiling, sentiment classification, textual entailment

  文章来源

  ICLR 2017

  问题

  本文提出一种在没有额外输入的情况下如何利用attention来提高模型表现的句子表示方法。

  模型

  本文提出的模型结构分为两部分,

  1、BLSTM

  这部分采用双向LSTM对输入的文本进行处理,最后得到BLSTM的所有隐层状态H。

  2、Self-attention mechanism

  同attention机制类似,我们需要计算一个权重向量a,然后通过对隐层状态H加权求和得到句子的表示向量。这个过程如下公式所示:

  但是实际任务中,我们通常可能会对一个句子语义的多个方面感兴趣,因此我们可以通过下面的公式,获得多个权重向量组成的矩阵A。

  然后每一个权重向量a都可以得到一个句子表示向量v,所有句子表示向量组合在一起就可以获得句子表示矩阵M。

  本文的模型在author profiling, sentiment classification和textual entailment三个任务上进行验证,都取得了较好的效果。

  资源

  1、Yelp

  2、 SNLI

  相关工作

  1、A large annotated corpus for learning natural language inference

  简评

  本文提出的self-attention方法用一个matrix表示一个句子,并且matrix中的每一个vector都是句子语义某一方面的表示,增强了sentence embedding的可解释性。

  Adversarial Training Methods for Semi-Supervised Text Classification作者

  Takeru Miyato, Andrew M. Dai, Ian Goodfellow

  单位

  Google Brain, Kyoto University和OpenAI

  关键词

  Adversarial training, text classification, semi-supervised learning

  文章来源

  ICLR 2017

  问题

  Adversarial training和virtual adversarial training都需要对输入的数字形式做小的perturbation,不适用于高维稀疏输入,比如one-hot word representations。文章扩展图像领域流行的这两种方法到文本领域,对word embedding进行perturbation来作为LSTM的输入,取代原本的输入向量。可以把这两种方法看做是正则化的方法,为输入加入噪声,可以用来实现semi-supervised的任务。

  模型

  以adversarial training为例,文章对word embeddings进行adversarial perturbation,而不是直接应用在输入上。假设normalized之后的输入序列为s,给定s,y的条件概率为p(y|s;theta),其中theta为模型参数,则s上的adversarial perturbation r_adv为:

  应用在LSTM上,如下图(b)所示。定义其adversarial loss如下:

  

【j2开奖】一周论文 | ICLR 2017精选

  

  其中N为labeled的例子的数目。通过随机梯度下降来进行training。

  文章也提供了virtual adversarial training的方法。

  资源

  1、IMDB

  2、Elec

  3、Rotten Tomatoes

  相关工作

  主要列三篇work:

  1、2015年NIPS, SA-LSTM。Semi-supervised sequence learning

  2、2015年NIPS,One-hot CNN。Semi-supervised convolutional neural networks for text categorization via region

  embedding

  3、2016年ICML,One-hot bi-LSTM。Supervised and semi-supervised text categorization using LSTM for region

  embeddings

  简评

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容