人工智能这一轮的浪潮来的很快,接连攻克了图像识别、语音识别、自动驾驶等多个难题,简直是处于宇宙中心。从资本、媒体到创业者都对这个领域怀有极大的热情。 对于吃瓜群众来说,观感大概是这样:不知不觉,人工智能创业公司就到处都是了,各大巨头也纷纷入场;一夜之间,AlphaGo狂扫一波顶级棋手,笑傲世界棋坛;下一步,大家是不是该担心普通人的饭碗不保,以及未来会被机器人奴役了?
亚里士多德对自身智能及其模拟也曾发出过天问 然而假如我们认真地把目光投向这个上可追溯至公元前300年、下至1956年才正式得名“Artificial Intelligence”的领域,就会发现,其实引起这一波狂潮的不是“人工智能”本身,而是处于这个领域里的机器学习中的一项技术:深度学习。 通过构建人工神经网络,它第一次解决了许多人们无法触及的难题、让人工智能前所未有地和人类的生活产生交集,也因此获得了最大限度的关注。 然而深度学习真的如此神乎其神吗?它有没有致命缺陷,未来又在哪里?钛媒体驻硅谷记者采访了AI领域的创业者、学者、投资人,还注册了EDX上的人工智能课程,得到了这些初步答案: 深度学习也有致命缺陷 创投圈对于人工智能的再次关注,对深度学习的追捧,其实就是“人工神经网络”的一次复兴。数十年前,许多学者曾经刻苦钻研过它,只是由于当时技术的限制,计算能力不足,神经网络很小很浅,它在吸引一波注意力之后回归沉寂,也令投资人对它失去了兴趣。 随着基础设施领域的进步,计算机的运算能力及数据资源的积累能力在不断提高,数学、系统控制、经济等领域的技术也在不断融合,人工神经网络技术又再一次走上了历史舞台。然而这时候,上一个“人工智能冬天”的影响犹在,于是有识之士给它换了个名字来进行下一轮的发展…… 毫无疑问,这个做法奏效了。 在21世纪,深度学习让人工智能第一次能够开始解决大众生活里的问题,存在感超强——它的特点是不再像以前一样依靠硬编码来解决各种问题,而是通过搭建一个模仿人工神经网络的架构,来让机器通过大量数据训练而自己找出其中的规律。 其中涉及多层复杂的人工神经网络,机器在经过大量训练后最终能够得出准确率极高的结果。在许多领域,深度学习技术都带来了令人惊艳的结果:AlexNet,AlphaGo,自动驾驶,图像识别,机器翻译…… 不过,“深度学习”(也就是“依赖深度神经网络的机器学习”)也有着一项几乎是与生俱来的缺陷:这些复杂的人工神经网络,不仅让向其他人解释变得困难无比,就连学者本身也无法考证他所创造的系统,是如何得出这个结果的。 这是一个可怕的特点——“Uninterpretable”。在学术界,这意味着人类无法知道机器给出这个结果的原因。它有可能会让你在不知不觉间,失去“发现错误”的机会。 机器学习学者Rich Caruana描述的一个事件中,就出现了这样一个生死攸关的“错误”: 在匹兹堡大学的医疗中心里,有一个小组利用不同的机器学习技术预测肺炎患者是否会患上严重的并发症。这样一来,就能让有较低患上严重并发症的病人提早出院,来减少床位压力及医护人员的负担。 然而其中一种可以学习规则的机器学习系统输出了这样一条规则,让这个小组觉得很奇怪:让所有患有哮喘的肺炎患者出院。 为了解读这个奇怪的规则,他们查阅了医院规定,发现了这样一条:哮喘患者得了肺炎后很容易患上严重并发症,所以要尤其注意他们。这条规则在这医院执行的太好了,导致这些脆弱的病人实际上很少真正患上并发症。 这就是机器只看数据的局限性,“我们可能会不小心害死一些病人。”学者总结道。 这一次,他们用了多种方法,所以通过基于这种会输出规则的方法而发现了这一点。如果他们仅仅采用了人工神经网络的话,人们大概只能知道这一部分人被它标记“可以出院”,然后在一段时间后通过急剧升高的肺炎并发症数量而意识到这一切…… “人工智能只能分析数据,而数据建模与真实生活之间很难直接划上等号。”硅谷投资人郭威这样告诉记者。当然,这也许并不会是一个永远的缺陷。已经有学者在研究人工神经网络的“行为习惯”(对就是像研究野生动物一样),希望能通过这个过程找到“解读”人工神经网络的方法。 同时,如今的深度学习技术还有另一个问题,它需要大量的数据作为训练基础,而训练所得的结果却难以应用到其他问题上。 (责任编辑:本港台直播) |