这背后关系到对智能的定义,人类的智能是无法精确定义的。AI依赖于计算模型,如图灵机这些计算模型给出了计算的数学定义,但找不到定义智能的模型。智能是一个直观、主观的概念,atv,从图灵测试提出开始,AI研究者希望通过计算机模拟人类的智能,找到智能的基本原理,就像当年模仿鸟飞行制造出飞机,找到空气动力学等原理,用空气动力学反过来可解释鸟的飞行,潜水艇模仿鱼儿,都是这个道理。因此,AI研究肇始就选择如下棋等比较典型反映人类智能水平的领域进行研究,并希望通过比赛战胜人类,希望寻找到某种通用智能的机制,时至今日,如AlphaGo还只能表明在下棋方面找到某种方法,AlphaGo算法可容易复制到如中国象棋这类完美信息的游戏,但想推广到更广泛一类问题的解决就是新的研究问题了,比如推广来打麻将或桥牌。 AI想达到的智能就是人类级别的智能。那么到底什么是人类级别的智能?问题在于人的智能是一个相对的概念,计算器比小孩做算术做得快,也可以说有智能,那并不是人类共同体的智能,AlphaGo战胜人类,肯定是有智能的,但AlphaGo不能做其它,比如不能证明定理。 早在50年前,学术界就讨论这个问题,并提出了 AI需要更高的标准来衡量智能。30年前AI已将很多问题思考透彻了,知道了AI的难度很大,很多地方难于突破。首先,象人类一样,AI需要拥有知识,并运用知识去解决问题,知识体现智能。AI研究中,除了目前的深度学习,还有一些通过自动控制做的机器人之外,AI的主体都是基于知识的系统。AI实践表明,精确的专门的知识能够处理,但人的常识难于处理,人类并没有将全部常识写出来,人们在交谈时也不需要把常识都说出来,否则言语行为将无从进行,常识通常是只可意会不可言传的。AI学者普遍认为,应以常识作为衡量AI是否达到人类级别的智能水平的标准。 深度学习带来了一定的进步,可以解决很多识别问题,如语音、图像和对象的识别,这些是对外界环境的感知方面的常识,还有更多的常识问题,如有关人的心智状态的推理,就不是深度学习所能解决的。 AI追求通用智能,atv,所谓的强AI,但还停留在专用智能上面,能做到类似AlphaGo能下围棋,所谓的弱AI,从应用看,弱AI已经很成功很有价值了。相对来说,只是简单地应用某项AI技术,不能看成AI,如果是能在某方面达到了人类级别的智能程度就可以看成AI。 如何评估深度学习的优势与局限? 林作铨: 深度学习适于解决识别问题,如语音和语言文本,图像和对象等,只要能把某类问题看成识别,如AlphaGo识别棋盘,一些AI医疗系统通过识别人的皮肤变化和医疗图像诊断疾病,具有广泛的应用前景。但是,深度学习并不能拿来解决所有的AI问题,比如,AlphaGo算法不能发展来证明定理。 有人以为,靠深度学习单一算法,有可能解决AI的所有问题,做到通用AI,其实不切实际。历史上,每一个AI算法做得好的时候,都有人想将其变成单一的通用算法,但很快都失败了。这种情况在哲学中的各种单一论已屡见不鲜了。 深度学习是人工神经网络研究的第三次高潮,从2006年算起已经发展了十年。有高潮就有低潮,前两次人工神经网络的低潮都是被证明了它的局限性。深度学习的优点很突出,它以一种表征学习的方法,通过在神经网络中逐层加深,以识别从低级到高级的特征,自动抽取特征,这种识别问题以前应用数学和传统的模式识别也在做,但抽取特征需要人工的帮助,以语音和文本识别为例,深度学习比传统方法,包括应用数学和统计学习都做得好,把识别准确率提高一个数量级,如从85%提高到95%,这种进步是很大的。以应用数学一些方法来比,数学方法虽然更优雅,可毕竟是要解决同样的问题,既然比不够深度学习,那就是问题了。现在深度学习框架已搭到一千多层,实际应用经验验证确实是层次越深效果越好,从理论上,也可证明深度是有意义的。 深度学习也有局限性。首先,深度学习是对神经网络的权重参数进行优化,用数学表示为损失函数,简单地说就是减少误差,误差减少是有极限的,换句话说,到一定深度就没有意义了,这时它所能解决问题的局限会表现出来,因此,暴力地一味加多层次的蛮干并不见得是好办法。 其次,在实际应用中,以语音识别为例,即使做到99.99%的准确率也不见得可比拟人,我们听一个有口音的人讲普通话识准确率不高,有些听不懂的地方,但不影响我们交流,因为人在听时是有理解的,而深度学习对神经网络的参数不能解释,因此就不能理解,这是为什么深度学习对语音识别的准确率超过人类,像手机想用语音去取代触摸屏输入还是做不到。 (责任编辑:本港台直播) |