很多专家表达过,为什么经历过前面两次低谷之后,人工智能能迎来今天的春天?离不开三个主要要素,一方面机器学习算法,以深度学习为代表,另外一块是大数据,PC互联网和移动互联网很大一个效果让设备和设备之间、人和设备之间、人和人之间产生关联,产生海量数据。以前用很简单的神经网络无法表达的东西缺乏训练数据,今天可以得到足够海量的数据,今天不是数据不够多,而是缺乏使用数据的手段。另外,我们都知道云计算在今天大家已经达成共识,像水电煤一样会成为整个社会结构非常基础的资源。正是算法、数据、云计算三者结合,使得在某些技术某些场景上已经达到使用化。通过PC互联网时代、移动互联网时代,对很多用户习惯培养,今天微信的普及使得大家已经习惯对着手机说话。
我记得几年前微信刚刚发布的时候,很多人还保留QQ的使用习惯,依然通过微信来打文字,很多人觉得“我对着手机说话时不是显得很傻?”但今天看到微信每天语音交互的量,非常非常大。这个用户习惯对整个产业发展也是非常重要的。在这里面我们要做什么?技术成熟度和用户需求之间找到一个比较好的结合点,使得我们能够落地,就像前面小 i 机器人的朱总说了,我们要选择一些场景,这些场景里面,第一用户有需求,第二技术能满足。如果用户没有需求的话,这个技术很难推。如果说用户的需求其实远远超出今天技术储备的话也很难落地。在这里面,无论是创业公司还是巨头,可能我们都需要做一些各自的思考,怎么能够把两者结合在一起。
讲到机器学习,比较早的是上一代的机器学习,都是基于统计学习,在语音识别领域,20世纪80年代的时候,李开复先生做了一个非特定人的大规模联合语音识别,包括在那之后的40年,我们其实基本上都是基于统计模型,通过固定结构的模型来对相对有限数据的空间分布做出一个近似的估计。在工业界和学术界里面,2006 年 Hinton 教授应用在图像识别,在工业界 2010 年左右开始把深度学习应用在大规模的语音识别里面,而且迅速获得巨大的突破。在同等的训练情况下我们的准确率提升了30%,在学术领域也是非常巨大的成就。那时还是深度学习在语音识别、图像识别里面一个初步尝试,之后随着今天上午很多专家介绍的很多名词,比如DNN、CNN等等,这些都是深度学习进一步发展,今天不光是用深度学习算法,我们还是很好把深度学习算法和大数据很好结合在一起。和两三年前相比,我们在进入深度学习时代之后,语音识别率依然在不断提高。
深度学习几乎颠覆了所有的模式识别,语音识别、语义理解、语音合成开始全面深度学习化,为什么深度学习在这些领域里面取得那么大的突破?用传统的统计模型可以发现,随着数据规模的增长,这个性能会渐渐趋于平坦。这说明统计模型对大数据缺乏很好的描述能力,大数据大了之后性能不再提升,但是深度学习不同,我们迄今为止可以看到,只要你加数据,这个性能还是在不断提升的,用简单的图来看出深度学习相对比传统的统计学习算法的潜力。
为什么会这样?其实很简单,统计模型其实是利用人的现有知识,它的特征是人为设定的,它的结构也是人为设定的,这种人的现有知识在小数规模可以得到不错的结果,当海量数据的时候,当我们解决的任务更多元化,面对场景更复杂化,我们的现有知识就不够了,这时候深度学习至少可以参与对特征的学习,体现出机器学习相对人脑来说它的巨大威力。在推理、决策、规划,模型的构建方面也能做一个增强学习,可以进一步不断提升它的系统性能。好比说李世石和 AlphaGo 在 PK 的时候,下了一天棋李世石非常疲惫,这时候 AlphaGo 可以继续用数据来进行计算,修正它算法上的缺陷,保证它下一次再遇到这个问题会得到更好的结果。 (责任编辑:本港台直播) |