2017-08-03 13:16 来源:36氪 人工智能 /机器人 /人类 编者按:近日,关于 Facebook关停“失控” AI 项目的新闻满天飞,人们开始恐慌机器人失控之后会主宰世界,《连线》杂志发表文章明确表示,Facebook 的聊天机器人不会主宰世界。 似乎在文化圈子里,机器这个概念一直与创造者相对立,开奖,而且这个问题现在已经变得司空见惯了,还频频以各种惊人的标题出现在很多媒体上。了解这种局面可以帮助你弄懂,为什么近来一些新闻头条要耸人听闻地刻画自己一手创造的机器人。最近,有媒体爆出机器人开始使用自己的语言进行对话,不过在简单的几句对话后,Facebook 公司的人工智能研究员就“惶恐不安地”,“被迫”“杀死了”那些“令人毛骨悚然的”机器人。 但事实并非如此。Facebook 公司进行的一项实验的确制造了能够语无伦次说些句子的机器人。可是这些机器人不太聪明,它们的表现不算出人意料,更没有拉响人类文明的警报。没有哪位 Facebook 人工智能实验室的工作人员惊慌失措,你也不该为此惊恐。但媒体出格的报道可能对我们的未来更加不利。随着机器学习与人工智能在生活中更为普遍,影响力更大,懂得这些科技的潜力和现状变得至为重要。考虑到机器算法已经在战争、刑事司法和人才市场中发挥核心作用,更是应该如此。 至于最近在 Facebook 公司的人工智能研究实验室发生了什么,真相其实是这样的——Facebook 公司的研究人员本打算开始制造可能同人类协商的聊天机器人。他们的想法是:对机器人来说,要想更密切地配合人类工作,就必须学会协商与合作。他们先从小处着手,直播,设计一个简单的游戏,让两个游戏玩家划分一些收集起来的同类物品,比如帽子、球和图书。 研究团队用两个步骤的程序教导机器人玩这个游戏。第一步,向电脑中输入人类玩数千局游戏的对话,让系统对协商所用的语言形成感知,第二部,让机器人运用强化学习的一种技术形式——试错磨练技能。强化学习技术曾帮助谷歌的围棋机器人 AlphaGo 击败柯洁这样的当今世界职业围棋第一人。 当两个运用强化学习的机器人一起玩游戏,它们最后再也没有用上人类可以识别的语句。或者就像 Facebook 公司的研究人员在技术报告中不带任何感情描述的那样:“我们发现,把两个机器人的参数全都更新造成背离人类语言。”举个让人印象深刻的例子,比如两个机器人可能这样对话: “鲍勃:我可以我其他一切事……” 爱丽丝:球对我来说对我来说对我来说对我来说对我来说对我来说对我来说对我来说是零。 如此玩笑一般的诡异对话有时还能商量出个所以然,显然这是因为机器人学会运用一些技巧,比如重复自己想沟通的内容。听起来挺有意思,但也是一种失败。Facebook 公司的研究人员希望创造能做人类玩伴的机器人,于是他们重新设计了训练机制,保证机器人一直使用可识别的语言。媒体就对这一改变添油加醋,炮制了引发担忧的头条,高呼研究人员不得不停止实验。 先别急着下结论,从本周二英国小报《太阳报》头版赫然其上的大标题上,你有没有感到,Facebook 公司的这次事件和《终结者》异曲同工?那部经典科幻片讲的是,一种有自我意识的人工智能系统发起了一场反人类的战场,给人类带来灾难。 其实不然。Facebook 公司设计这些机器人只是为了做一件事:在玩一款简单的游戏时,尽可能多得分。它们就是那么做的。因为程序并没有指定它们坚持使用人类可以识别的英语,我们也不该对它们的语言无法识别感到意外。 这和人工智能研究者们第一次创造的机器人截然不同,那时候的机器人能随机以自己的方式交流。今年3月《连线》杂志报道过,特斯拉和 Space X 公司首席执行官马斯克支持的非营利组织 OpenAI 进行了一些实验,让机器人开发属于自己的虚拟世界“语言”。本周一,Facebook 公司的人工智能研究员 Dhruv Batra 还在一篇博文里慨叹,媒体歪曲了他的工作,用的都是几十年前计算机科幻文学里有的老调陈词。 Facebook 公司的实验非但不是骇人听闻的故事,实际上还反映出人工智能今至今日的局限。文字对目前的机器学习系统形同虚设,这限制了这类系统的功用和威力。除非能找到一种编程方式,让程序确切表达个人愿望,否则你就不可能克服这种缺陷。这可以解释,为什么一些研究人员致力于界定人工智能系统目标的方式不是代码,而是人类的反馈。 (责任编辑:本港台直播) |