由于CNN/DM在训练和测试中经过了anonymization,作者认为此inner product其实可以分为两部分,一部分与anonymized token ID有关,另一部分与ID无关。与ID相关的那一部分在inner product应该直接给出0的答案。如下述公式所示。
本文的另一部分工作是在attention readers上加入一些linguistic features提升各个数据集的准确读,这里不仔细描述。 简评 本文是对于各个attetion based neural reader models很好的总结,它很好地连接了各个不同的model,说明了为何看似不同的model能够给出非常类似的结果。 总结 问答系统是一类大的问题,也是目前NLP应用的研究热点之一。本文作者介绍了TTIC在QA研究中的一些成果,其中第二篇是本文作者近期的paper。感谢来自芝加哥大学的@Zewei Chu童鞋辛勤的劳动。 关于PaperWeekly PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是NLP的各个方向。如果你也经常读paper,也喜欢分享知识,也喜欢和大家一起讨论和学习的话,请速速来加入我们吧。 微信公众号:PaperWeekly 微博账号:PaperWeekly() 微信交流群:微信+ zhangjun168305(请备注:加群交流或参与写papernote) (责任编辑:本港台直播) |