本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

报码:学界 | 如何设计奖励函数

时间:2017-03-16 02:53来源:118论坛 作者:j2开奖直播 点击:
选自 nlpers.blogspot 机器之心编译 参与:Jane W、黄小天 作者Hal Daum III是美国马里兰大学计算机科学院CLIP lab副教授,博士毕业于南加州大学,致力于研究自然语言处理和机器学习等方向

选自 nlpers.blogspot

机器之心编译

参与:Jane W、黄小天

作者Hal Daumé III是美国马里兰大学计算机科学院CLIP lab副教授,博士毕业于南加州大学,致力于研究自然语言处理和机器学习等方向。

我上学期参加了一个强化学习毕业研讨会,atv,它带给我很多乐趣并让我学习到之前想学却无机会学习的一些东西或已经忘记的旧知识。很难相信,我的第一篇强化学习论文发表于 11 年前,我与 Daniel Marcu、John Langford 在 NIPS 研讨会上发表了第一篇关于减少强化学习的结构化预测的文章(Search-Based Structured Prediction as Classi?cation. Machine Learning, 2009),该论文的基本思想为使用保守策略迭代(Conservative Policy Iteration)。(这项工作最终产生了 SEARN 算法。)我在强化学习领域的大部分工作都集中在模仿学习(imitation learning)/ 样例学习(learning from demonstrations),但我与我的学生最近已经致力于更多与强化学习直接相关的算法、应用以及延伸(同时可以参见 Tao Lei 在类似的解释静脉中的工作和 Tim Vieira 的精彩 TACL 论文)。

强化学习最近又经历了一点复兴,这主要是其通过深度神经网络与良好的函数近似相结合的结果。更可信的说法是这次复兴是由于以视频游戏和以 Atari 游戏集合为代表的趣味性模拟环境增加了人们研究强化学习的兴趣和可能性。与 ImageNet 使神经网络真正应用于计算机视觉相似(通过增加层数和利用 GPU 性能),这些模拟环境为强化学习提供了相同的大数据资源,使得强化学习可结合 GPU 的性能为许多游戏打造令人印象深刻的解决方案。

实际上,强化学习社区很多人在全面考虑这一观点:学习玩游戏是通向更通用的人工智能的一条道路。我听到的通常反对强化学习的理由是数据量过大。这个论点大致是:如果你真的想要构建一个在真实世界中行动的机器人,你无法模拟 1000 万帧场景(来自 Deepmind 论文,论文数据基于 8 天之内的实时体验)。

虽然这是一个问题,但我并不认为是最本质的。最本质的问题是:游戏实际上构建了一个模拟环境,通常其中的奖励函数(reward function)是为了让人们找到游戏乐趣,这意味着,时不时出现的小奖励可以帮你找到正确的方向。这正是强化学习擅长的,但我不确定在现实世界中这个假设是否合理。

延迟励(delayed reward)是强化学习最困难的问题之一,因为(a)这需要做很多探索性工作,(b)你面临一个困难的信度赋值(credit assignment)问题。例如,如果你想象一个变体,比如你最喜欢的视频游戏的一个变体,其中你只在游戏结束时获得 -1/+1 的励来判断输赢,这使得你的学习变得异常困难,特别是游戏如果有 1000 万帧或 10 亿帧的时候。

这就是说:对强化学习来说,游戏是一个非常好的设定,因为其中有明确的奖励函数,并且一般情况下你会经常获得奖励。但是现实中这不可能实现,不管你有多少数据。

在一天结束时玩视频游戏,尽管很震撼,但是这与对合成数据分类并没有太大的不同。不管怎样,游戏的体验更好,毕竟研究者发明的不是合成数据,而是游戏——即使是你玩的最新的游戏,仍然需要经过重度开发——以这样的方式构建,使得游戏能够激起玩家的兴趣,这通常意味着增加难度/复杂性并且相对频繁的奖励函数。

当我们向期望可以在现实中运行的系统努力时(我不一定是指物理机器人的困难,即使没有被包含),我们越来越无法确定奖励函数的依据是什么。

一个选择是设计奖励函数。对于复杂的行为,j2直播,我不认为我们有办法可以做到。在 R+N 人工智能教程中有一个笑话例子:你给吸尘器一个奖励函数,拾起的垃圾数量越多奖励越多;吸尘器学会了拾起垃圾,然后放下,然后再次拾起,无限循环。这是一个愚蠢的例子,但我并不认为我们能理解如何设计真正复杂的行为的奖励函数而没有「非故意后果」的显著风险。(以我为例,不久前我们发明了一种称为 Latency-Bleu 的同声传译的奖励函数,六个月后,我们意识到有一个非常简单的方法来衡量游戏奖励。我对模型从来没有学会利用感到很失望。)

这是我把强化学习方面的努力花在了模仿学习(imitation learning /IL)这类事情上的一个原因,其中通常你可以模拟一个 oracle。我很少看到我觉得无法只用模仿学习解决的自然语言处理问题,能够被强化学习很好解决的(通常模仿学习更好更容易)。当然模仿学习有它自己的问题:它不是万灵药。

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容