本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

【j2开奖】学界 | 微软重磅论文提出LightRNN:高效利用内存和计算的循环神经网络(2)

时间:2016-11-02 03:52来源:118图库 作者:118KJ 点击:
为了这个目的,我们提出一个引导框架:(1)首先随机初始化词分配(word allocation),并训练 LightRNN 模型。(2)解决训练了的嵌入向量(对应为表格中的

为了这个目的,我们提出一个引导框架:(1)首先随机初始化词分配(word allocation),并训练 LightRNN 模型。(2)解决训练了的嵌入向量(对应为表格中的行和列向量),然后细化分配来最小化训练损失(training loss),这是图论(graph theory)最小权重完美匹配问题,我们能够有效地解决。(3)重复第二步,直到满足确切的终止标准。

我们使用在多个基准数据集进行语言建模任务来评价 LightRNN。实验表明,在困惑度(perplexity)上面,LightRNN 实现了可与最先进的语言模型媲美或更好的准确度。同时还减少了模型大小高达百倍,加快了训练过程两倍。请注意,对于高度紧凑的模型来说这个可预见的(没有准确性下降)。

首先,这使得将 RNN 模型运用到 GPU 甚至是移动设备成为了可能。其次,如果训练数据很大,需要执行分布式数据平行训练时,聚合本地工作器(worker)的模型所需要的交流成本会很低。通过这种方式,我们的方法使先前昂贵的 RNN 算法变得非常经济且规模化了。因此,它将会对用于人工自然语言处理(NLP)任务的深度学习有深远的影响。

结论和未来的方向

在本研究中,我们提出了一个全新的算法 LightRNN,该算法可用于自然语言处理任务。通过用于词表征的二分量共享的嵌入(2-Component shared embedding for word representations),LightRNN 在模型尺寸和运行时间上都取得了高效的表现,特别是在具有大词汇量的语料库中。在未来,这种算法有很多方向可以进一步研究。首先,我们计划将 LightRNN 应用于更大的语料库中,如 ClueWeb 数据集——传统的 RNN 模型还不能将其装进一个现代的 GPU 中。第二,我们会将 LightRNN 应用于机器翻译和问答等其它自然语言处理任务中。第三,我们会探索 k-分量分享嵌入(k>2)并研究 k 在权衡效率和有效性之间的作用。最后,我们将会整理我们的代,以便在近期通过 CNTK 将其发布出来。

论文下载:https://arxiv.org/pdf/1610.09893v1.pdf

©本文由机器之心编译,转载请联系本公众号获得授权

  ?------------------------------------------------

加入机器之心(全职记者/实习生):[email protected]

投稿或寻求报道:[email protected]

广告&商务合作:[email protected]

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容