在 9 月召开的中国人工智能大会(CCAI 2016)上,邓力博士接受新智元专访,谈了他对深度学习最新突破及近来开源趋势等问题的见解。邓力同意 Hinton 等学者的看法,认为十年內机器能够拥有常识,对研发通用人工智能(AGI)也表示乐观,相信在他的“有生之年”应该能够看见 AGI 实现。 当时,邓力博士特别提到了他对 AI WORLD 2016 世界人工智能大会的期望:更深入了解人工智能在全球尤其是在中国的发展,同时分享他对人工智能和深度学习更多的思考。 新智元专访:深度增强学习是了不起的进展,深度学习需要借鉴脑科学的知识 新智元:过去一年深度学习最大的突破是什么? 邓力:深度增强学习是一个很了不起的进展。AlphaGo 影响很大,也让很多做深度学习的研究者意识到,深度学习应用不但可以在有大量直接标注的数据上成功(比如语音识别、图像识别),还可以在其他更多的方面成功。这个成功不像以前那样一定要把每项训练数据都做一一标记,因为增强学习大部分数据都不是直接标注,而是要等到最后结果得出来,再指导前面的机器学习过程。深度学习和增强学习的概念以前都有,但谷歌 DeepMind 将深度学习和增强学习结合在一起,提出了深度增强学习,并且给出了应用场景,做了很多好的工程工作,向大家展示了它能够解决以前深度学习解决不了的问题。就在前几周,新闻报道谷歌 DeepMind 采用深度增强学习的方法,让数据中心的能量消耗减少了 40%,这个影响是非常大的。省电不但有经济效益,对环境的好处也是巨大的。以前一般人想不到可以将增强学习用在这个上面,我看了这项应用的报道后立即深受启发。 新智元:LeCun 前不久表示,他非常看好对抗生成网络模型。 邓力:对抗生成网络是很好的方法,它有助于无监督学习,如何把数据输入输出的关系弄清楚。 新智元:您最近主要在做无监督学习? 邓力:思考了这方面的很多问题。一是无监督学习不需要使用标注数据,二来也是更重要的一点,从思想模型上讲,无监督学习更像人脑的学习。当然,直接的效应还是标注量——大 5 倍、10 倍可以,但大 100 倍、1000 倍、1 万倍呢?现在不少人在做深度无监督学习,我也在这方面提出一些高层的解决方案。例如看图说话,给定一幅图像,让机器用自然语言句子描述内容。微软前年还专门标注了好几十万个这样的数据给大家,整个深度学习领域的研究员都能应用,影响很大。但不可能标几千万甚至几亿的这种图像,尽管大家都知道,这会进一步提高看图说话的效果。其实我和团队之所以要研究无监督学习,更重要的一点是,我们目前的深度学习方法离真正的人脑学习差得太远了。深度学习需要借鉴脑科学的知识,虽然一两年内暂时还用不上,但我相信不远的将来,三到五年之内,大家都肯定会往这方面思考。我们现在也在往这方面想。我昨天讲的深度学习,有一部分也是受脑科学的影响。只是我们更重视计算——脑科学计算不了也没实用价值。但是,人工智能和脑科学将来都会慢慢结合。 新智元:Hinton 在之前接受采访时表示,他认为十年内机器能够拥有常识,您怎么看? 邓力:我同意他的看法。我们要是能够把人脑关于常识的机制加到算法里面,直播,人工智能会有新的大进展。关于常识的知识库会越来越大,方法也会越来越强。计算能力、计算机硬件、数据……这些都在不断发展扩大。到了一定阶段,我想十年之内,差不多就会得到这样一个好的解决方案吧。当然,到时候肯定不会像现在这样采用监督学习的方式,而是整合了多种方法,监督学习、无监督学习、增强学习……而且现在发展速度这么快,工业界和学术界都大力投入人工智能和深度学习。十年算蛮长时间了。这么长时间,应该可以实现。 (责任编辑:本港台直播) |