3月11日电 谷歌人工智能“阿尔法围棋”(AlphaGo)击败欧洲围棋冠军樊麾,近日其与韩国九段棋手李世石进行的五番棋人机对决3月9日在首尔拉开战幕。在当日进行的首盘比赛中,李世石投子认输。而对于这场人机大战接下来的几场比赛,是否像谷歌内部专家所说的“李世石胜算为0”那倒未必。但无论如何这次胜利总归是人类的胜利。 AlaphGo这样的人工智能属于人工智能领域的弱人工智能(Artificial Narrow Intelligence,简称ANI),是指仅在单个领域比较牛的人工智能程序。其特征便是虽然很擅长下围棋,却只是会下围棋而已。计算机科学国家重点实验室主任 林惠民委员认为,人工智能是个复杂概念,有些人工智能处理的是“可测度”的问题,比如各种棋类游戏,不论多复杂,规则是确定的,变化是有限的。 与弱人工智能相对应的,强人工智能(Artificial General Intelligence简称AGI)则更贴近于大众在科幻电影中所认知的人工智能。能够在各方面与人类比肩,人类能干的脑力活它都能干。LindaGottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。用计算机科学家DonaldKnuth的说法,“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。”这就是强弱人工智能间的区别。 强人工智能首先要“听得懂,看得懂”,这就涉及了三项重要的技术,即计算机视觉技术,自然语言处理技术和语音识别技术,其分别对应着对图像的识别,对文本的编译与对人类语音的处理。2014年底,百度的首席科学家吴恩达及其团队发布了第一代深度语音识别系统Deep Speech,该系统使用了端对端的深度学习技术,主要专注于提高嘈杂环境下的英语语音识别的准确率,在比较嘈杂的环境下,机器识别超过人类。经过不断改进,百度通过框架性的创新使汉语安静环境普通话语音识别技术的识别相对错误率比现有技术降低15%以上,识别率接近97%。不仅攻克了10年技术难题,未来还将实现个性化识别。 语音识别技术中,尤以语音搜索应用较为广泛。语音搜索就是通过将用户的声音转换成文字的语音识别技术,深入分析理解用户需求的自然语言处理技术,帮用户找到所求的智能搜索技术等等。人工智能的发展让语音搜索实现了从听清到听懂的过度。不久前召开的数字营销展会Dmexco上,市场研究公司GlobalWebIndex发布了移动新兴趋势报告,语音搜索位列其中。调查显示,近半数受访的年轻网民表示自己对于语音搜索的使用量越来越大。所有人都可以对着手机百度说话,告诉它你的需求,机器会识别出你讲的话,理解你在讲什么,自动处理纷繁复杂的需求。如果表达的信息还不充分,机器还会像人一样,和你多轮对话,直到给出你满意的答案。通过语音搜索的“感官式操作”,让人能够与数字世界无限接近,让电脑如同人类延长的手脚,无论是实用性还是趣味性都得到提升,增加了“人机交互”效率。 要达到强人工智能,肯定要满足的就是电脑硬件的运算能力。如果一个人工智能要像人脑一般聪明,它至少要能达到人脑的运算能力。而深度语音识别系统的成功,很大程度上要取决于百度规模庞大的基于GPU的深度学习基础设施。通过使用批处理技术将DNNs部署在GPUs上,Deep Speech的语音识别表现出了极高的训练效率。目前,该系统支持超过26万亿次浮点运算,可在几天内完成深度语言的集中训练。 强人工智能要求电脑必须要理解更高深的东西,比如微小的脸部表情变化,开心、放松、满足、满意、高兴这些类似情绪间的区别。“模拟”便是科学家们试图让电脑学会的技能之一。通过集成多项技术学习,数据加工效率超过传统方法10倍以上。采用语音检测、语音识别、深度神经网络模型、因子边界划分等多项技术,百度的Deep Speech情感语音技术可以让机器富有情感的朗读,发生更自然、情感更丰富,表现力更强大;弹性单元挑选技术则让合成语音更接近真人,依靠深度学习技术、大数据引擎和百度大脑的支撑,百度声纹识别技术会记录用户每一次登录的使用,并对特定用户的声音进行建模和学习,登录次数越多,用户的声音模型越完整,对声音识别的采集精确度越高,越不容易被盗用,进一步提高了声纹识别的整体安全性。 (责任编辑:本港台直播) |