对话的相关工作很多,包括传统基于Markov Decision Processes的POMDPs, 基于Q-Learning的SimpleDS,基于API查询的方法,基于最小化熵的EMDM等等,感兴趣的读者可以查询相关文献。 简评 深度强化学习在对话系统的应用越来越多,本文最大的贡献,是提出了一个可微的基于概率的框架,从而使End-to-End训练成为可能,相比传统方法各部分分别训练,联合训练可以有效的减少错误传递。而基于深度强化学习的训练方式,相比传统基于规则的方式,在高噪音输入的情况下,有着更好的表现。 完成人信息 王哲,中国科学技术大学,[email protected]。 Chat实录 问:我对“因此这一步把slot-values转化成了加权的熵统计信息”的合理性和物理意义有些不明,我在最近的论文中很少看到这样的做法,请问是因为效果的原因吗? 答: 这个熵指的是信息熵,不是物理中的热力学熵。信息熵把一个系统的不确定性,按照其可能出现结果的概率分布,进行定量化计算,得到的是可以获取的信息量大小。信息熵越大,不确定性就越大,j2直播,我们可以获取的信息量也就越大。任务驱动的问题系统,在得到最终查询结果前,希望尽可能多的从用户那里获取信息,减少系统本身的不确定性,因此我们在知道一个slot中各种实体概率的情况下,用信息熵来度量一个slot的不确定性,还是挺合理挺自然的。 熵的用法在深度学习网络中还是挺多的,例如我们经常用交叉熵做损失函数。同时文本分类任务中,经常用TFIDF值作为特征,而TFIDF值是可以由信息熵推导出来的。 问:论文中提到:”Moreover, instead of defining an attention distribution directly over the KB entities, which could be very large, we instead induce it from the smaller distributions over each relation (or slot in dialogue terminology) in the KB” 这里smaller distributions , 以及each relation怎么理解,为什么能小? 答: 这里的relation,指的是slots,也就是表格的各个列属性,例如year,actor等。 和entities的数目相比,一个slot对应的属性值数目要小很多。entity概率计算的时候,是把各个属性的概率相乘得到的。而一个属性的概率,取决于这个属性有多少值,假设我们有3个属性,每个属性的值的数目分别是k1,k2,k3,那么entities可能的计算量就是k1 * k2 * k3。现在作者假设每个属性之间是相互独立的,因此实际计算量可以理解成k1+k2+k3,所以slots的属性分布和entities分布相比,是smaller distributions。 问:增强学习在chatbot研究中使用时相比监督学习有哪些优势和劣势? 答: 先说说强化学习的优势: 监督学习当前研究比较多的,是以seq2seq为代表的生成模型。 它目前一个比较大的问题,是生成结果缺乏多样性,倾向于生成比较安全比较常见的回答,例如“谢谢”,“不知道”。 这个主要是因为,训练目标是用最大似然拟合训练数据,而经常在训练数据中出现的回答,会占一些优势,因此后续有很多工作试图改进这个问题,例如用互信息作为目标函数,在解码搜索过程中,对常见结果进行惩罚,提高生成结果的多样性等等。 监督学习的另外一个问题,是训练过程和预测过程不一致。训练的时候,当我们解码生成一个句子的下一个词的时候,是基于训练语料中的正确结果,而预测的时候,我们并不知道标准答案是什么,因此解码下一个词的时候,是基于我们预测的结果。这种不一致会影响最终结果,就像考试我们遇到之前没有见过的题型,我们的考试成绩可能会变差一样。增强学习,有希望解决这两个问题的。 针对第一个问题,我们借助增强学习的reward,引入一些明确的的奖励目标,用来指导对话的生成。例如,如果我们想训练一个淘宝客服的对话系统,我们可以用商品最终是否购买,来作为奖励目标,这样可以引导对话向着商品成功购买的方向发展,因此可以产生更好的对话结果。目前还有一个最新的工作,是将生成对抗网络,引入对话系统,因为当前对话系统一个很大的问题,是缺乏可靠的自动化评价指标,而对抗生成网络中,我们有一个生成模型,也就是我们的对话生成系统,还有一个判别模型,这个判别模型的目标,是判断这个对话,是机器生成的,还是人写的,这样就引入了一个比较明确的奖励目标,也更接近图灵测试,而连接生成网络和判别网络的桥梁,就是强化学习。因为NLP的词,相比图像,是离散的,我们可以借助类似AlphaGo中的蒙特卡洛搜索,来采样得到训练样本,送给判别模型。针对第二个问题,强化学习在训练的过程中,生成模型是通过采样产生样本,这个过程和预测是一致的,因此也避免了不一致带来的问题。 综上所述,增强学习在对话系统中有很大的优势。 下面说说他的劣势: (责任编辑:本港台直播) |