本文作者介绍了一个深层 LSTM 网络,可以端对端的训练 8 个编码器和解码器层。我们可以将这个系统分为 3 个部分,编码器 RNN、解码器 RNN 和注意模块。从更高的等级,编码器致力于将输入的句子转变为向量的表示,解码器产生输出表示,然后注意模块告知解码器在解码任务期间要关注什么(这是一种使用句子的整体语境的思想)。
本论文的其余部分主要集中于大规模部署这样的服务相关的挑战。将详细讨论诸如计算资源量、延迟和大容量部署等主题。机器之心曾经报道过对这项研究的解读,请参阅《》 结论 我们总结了关于深度学习帮助自然语言处理任务的方法。在我看来,该领域一些的未来目标关注在改进客户服务聊天机器人、完善机器翻译、并希望使问答系统能够获得对非结构化或者冗长的文本(比如维基百科页面)的更深入的了解。 原文链接:https://developers.googleblog.com/2017/02/debug-tensorflow-models-with-tfdbg.html ©本文为机器之心编译,转载请联系本公众号获得授权。 ?------------------------------------------------ 加入机器之心(全职记者/实习生):[email protected] 投稿或寻求报道:[email protected] 广告&商务合作:[email protected] (责任编辑:本港台直播) |