我们需要在无监督学习方面做得更好,人类非常善于无监督学习,举例说,一个两岁的孩子能明白简单的物理规则,尽管父母从来没有告诉他牛顿定律(Newtronics)或微分方程。我们花了很多年的时间研究深度监督学习,但每一种当前方法都有其局限。我们最近在自回归模型方面有了很大的进展,但我并不认为这将更上一级台阶,因为这些模型都对于潜变量都学不会较为高层的抽象。我们在变分自编码器(VAE) 和对抗生成网络(GAN)方面取得了很大的进展,也都是研究前沿,但 GAN 非常难训练,在学习和提取抽象方面也十分困难。 但尽管如此,我还是要展示一下(GAN 的发展)。下图展示了两年前的 GAN——处理数字很好,但图像还很差。
这是大约一年前,内容仍然局限在一个类型上面。
这是现在,下面全部是系统生成的火山的图像。
(下面是 Bengio 实验室提出的 Plug&Play 生成网络生成的图像。)这看上去不错,但仍然在某些方面非常呆板(stupid)。
好,那我们现在还欠缺什么呢?
一个是更多的自主学习,而其中最重要的就是无监督学习。我认为有一件事情是我们还没有给予足够重视和关注的,那就是如何去发现潜在的因果关系。另外,我们中有些人认为很重要、但目前尚未成功的,是基于模型的强化学习。基于模型的强化学习再结合更强大的无监督学习,就能够使我们更好应对全新的环境。设想自动驾驶汽车,在自动驾驶应用场景下,有些罕见的危险情况,现有手段就不够用了。这种时候就需要系统能够充分预想与训练时迥异的场景,因为这些场景对奖励来说可能是十分重要的。 我们还需要在计算力方面取得进展,不过我认为按照目前的发展趋势,接下来几年我们应该能够得到更多的计算力。 我们需要在多时间尺度处理方面取得进展。 我们将在理解语言方面取得进展,但我认为如果我们不能更好地发现和表示高层抽象,将来有一天会在语言这方面止步不前。
我想指出一点,如果我们想要,我们能够拥有一个对世界十分了解的 AI——当然,到那一天到来还有一段时间。但是,这样的 AI 是被动的,不会对世界产生重大的影响。但是,当拥有了智能的机器以后,我们自然会想要用智能的机器去做事情,去积极地改变世界(active),而不仅仅是回答问题。这就提出了涉及奖励机制的问题,以及我个人非常关注的一点——如何让机器学会人类的价值观。我认为如何教会机器学会人类的价值观,就是训练贤明 AI(wise AI)的方法。
最后我要说的是用行动(action)——在真实世界里行动——引导表征学习(representation learning)。我一直在研究的一个方向是,如何搞清楚数据中各种解释因子间的潜在关系。要在这方面取得进展,如果我们有代理能够在真实世界中行动,行动时能够控制一些因子(factor),这些因子与可以被控制的事情对应,而这些事情又显然是重要的因果元素,那么我们就可以用这些因子来解释一些关于这个世界事物间重要的基本关系(underlying relationships)。 Bengio 在接下来的问答环节中,讨论了他对长短时记忆(LSTM)网络及现有模型缺点、深度学习人才从学术界流向产业界问题的看法。Ray Kurzweil 还在这个环节中表达了他对 Bengio 提出的“compositionality”的理解——实际上,现实世界在各种尺度上都呈现出层次结构,以有序的方式运行,Kurzweil 认为,对不同层次的抽象使用序列模型进行层次分析,将有助于理解世界的本质。请点击视频观看。 【寻找AI独角兽】新智元联手10大资本 启动2017创业大赛 (责任编辑:本港台直播) |