当研究人员要教会机器从一堆图片里找出“苹果”,多层神经网络实际在做的事情是先把所有的图片拆解成基础的像素,然后一层一层地进行分类。 一张图片的整体色调是什么样的:红绿青蓝紫橙;图片中主要物体的轮廓是什么样的:方、圆、多边;光线在焦点物体上是否有反光:物体表面是否有镜面反光、微弱反光还是不反光;物体的外形是否是多毛、少毛、无毛、硬毛还是软毛的…… 经过这样一次次简单的分类,我们很容易知道苹果应该会落在红、圆、微弱反光、无毛的那一类里。 在实际中,研究人员并不会先定义苹果的这些特性。 而是让一个多层的神经网络先把图片中比较像的分为X个类。在下一层里,将X类中的图片按照新的特征重新分一遍生成Y个类,不断分类下去。 在训练的最开始,算法对图片进行的分类是完全随机的,得到的结果也是完全错误的。 研究人员只需要标定最后一层的正确结果。算法会用自己错误的结果和正确结果进行比较,并根据比较的结果从最后一层开始反向地逐层调整自己的参数,每调整一次参数就会更接近正确答案一些。 除了正确结果的标定,所有的调整和反推的计算都是算法自己完成的,不需要任何人工干预。 在经过多轮训练之后,“苹果”这种具有明显共同特征的植物出现在了某一个特定的类别里,atv,研究人员指着这个分类说:这,就是苹果——从此机器学会了如何识别苹果。
第一层、第二层和第五层分类之后的结果 (算法的准确原理无法完全使用非数学的简单语言表达,以上解释并不严谨。输入层和输出层之间的隐藏层并非线性计算。而是对输入的向量进行了空间变换,实现对多个复杂线性计算函数拟合。如果你对深度学习算法有进一步的兴趣,可以在博客园搜索科普文章《神经网络浅讲:从神经元到深度学习》。) 与过去根本性不同在于,深度学习出现之前,单层神经网络算法只能做简单的线性判断。为了解决非线性判断,研究人员发明的多层神经网络在训练上又需要几乎不可实现的计算量。直到上面描述的参数一层一层自动传导的“反向传播”机制出现,才让深度学习成为了可以实际应用的技术。 在多层神经网络中的每一个“神经元”都与我们大脑中的神经元一样简单而优雅,却能至少在一定程度上模拟我们的大脑对世界的感知和判断。这让采用深度学习的人工智能真的可以用一个“孩子”来形容。 而游戏,为尚在幼儿时期的电子大脑提供了一个“安全的学校”。 2016年初,5名微软纽约研究院的顶级研究员,花费数天的时间让他们的人工智能能在任意的《我的世界》地图里爬到最高点。 这听起来仿佛是在浪费世界一流的研究环境,但这其实是微软Project AIX的一次实验。Project AIX旨在利用《我的世界》这款开放性极高的沙盘游戏为人工智能提供一个虚拟的训练场。
人工智能先学会那些规则简单不开放的游戏比如《超级玛丽》,然后逐渐向规则越来越模糊、标准化信息越来越少、突发状况越多的游戏中发展。聪明如你一定发现了:这些游戏越来越像一个“现实世界”。 研究人员解释说:“如果你把这项任务(登高)交给人类玩家,他们往往会先到一个目所能及的高地去观察一下地形,这也是我们训练出来的AI可能会做的一件事。在这个过程中,AI首先会观察周围的环境,然后判断出哪些要素与任务有关——比如地图里哪里有高山,哪些因素与任务无关——比如山的颜色是什么,然后再开始行动。AI要尝试许多次才学会,但最终它像人类一样观察、思考并完成任务。” 游戏对人工智能的意义在于,它为这个智力不高但学习能力卓越的“瓶中小人”提供了一个可控、可观察、可重复的环境。 举一个更简单的例子,之所以在《GTA5》游戏里实现自动驾驶要比在现实生活中容易的多。其中一个重要的原因一定是因为在游戏里,AI有撞死路人10万次的机会来学会如何在刹车失灵的情况下将损失降到最低。 而正如开头说到的,人工智能用了50年才在游戏这个玻璃瓶里战胜人类。 一段简史:人工智能的三次春天 不管你是从什么时候听说的人工智能这个词,但如果将2016年定义为人工智能的春天,那么这个春天已经是第三次。
1964年纽约世博会IBM展馆广告 (责任编辑:本港台直播) |