Hinton 教授用一个他常开的玩笑开场。他对医学院学生说不要去当放射科医生,因为这个工作在未来 5 年内就会被深度学习应用取代。Hinton 教授指出,通常而言,如果你有大量数据和高速的计算芯片,并且需要解决预测问题,深度学习基本上都能派上用场。
Hinton 教授认为未来可能会实现的两件事: 1. 发现比 ReLU 效果更好的「神经元(neurons)」模型 发现比我们的标准 logistic 单元或修正线性单元(ReLU)效果更好的「神经元(neurons)」模型。 为了解释这个问题,Hinton 教授首先简要谈论了自 50 年代以来人工神经元(artificial neuron)的定义的发展史。 50 年代的时候,人们认为神经元是逻辑门,是确定性的和二进制形式的。然后人们发现它实际上是随机的二进制(stochastic binary)。然后到了 80 年代,Hinton 教授那一代人对神经元的理解从确定性的逻辑门转变成了 S 型的 logistic 单元(sigmoid logistic units)。此后 30 年来,人们一直在使用 logistic 单元;直到 2011 年,修正线性单元随 AlexNet 被引入,进而带来了革命性的影响。 2. 在相对较小的数据集上训练带有大量参数的神经网络。 相较于探索无监督学习,Hinton 教授相信监督学习领域仍然还有一些工作要做。计算能力将越来越便宜,数据集将越来越大,这是如今的趋势。Hinton 教授认为计算能力降价的速度将会超过数据集增长的速度。也就是说,更多的参数可能将不再是噩梦。 数周前,在 Hinton 教授为多伦多大学研究生做的一次讲演中,他表达了自己关于如何做出好成果的观点,他认为可以在网络中利用我们拥有的计算能力并注入尽可能多的参数来获取数据的规律(包括可靠的与不可靠的),并结合所有这些意见来做出预测。这个观点已经在许多任务的完成中得到了成功的证明。 为了解释更多的参数能打造更好的模型,他举了一个关于人类的例子: 我们每个人都有 100,000,000,000,000 个突触。一个人在一生中大概要进行 1000 万次注视(fixation)。以每 5 秒一次计算,就是 200 万秒。如果我们将每次注视都看作是一个数据点,那么参数的数量和数据的数量之间就存在大约 10,000 倍的差异。如果你一次处理一个数据,那么当你有更多的参数时,你所得到的模型的效果就越好。 对于这个例子,直播,Hinton 教授继续指出人脑处理的数据比注视过程中接收的数据多 10,000 倍,但仍然可以处理。而我们的计算机能力不足的原因很可能是因为我们还没有提出一种用于 dropout 的规范化的方法。 Steve 提出对是否可以使用机器学习来优化参数,同时是什么让 Hinton 相信参数是解决问题的关键的疑问。对于 Steve 的这个问题,Hinton 表示赞同可以将其转变成一个机器学习问题,而且这能给科学研究带来很大的裨益。但同时,Hinton 也并未过多深入探讨参数的问题,反而指出人们实际上仍然不知道神经元实际的工作方式,但在研究上我们甚至有避免将我们在生物神经元上观察到的基本性质应用到人工神经元上的趋势。当前的人工神经元仍然还存在诸多限制,还只能计算一些非常简单的问题。为了解决更复杂的问题,开奖,我们还需要继续改变基本的神经元。 Richard Sutton Richard Sutton 教授被认为是现代计算强化学习之父,他在该领域有几个重要贡献,包括时间差分学习(temporal difference learning)、策略梯度方法(policy gradient methods)和 Dyna 架构。
Sutton 教授的兴趣点在于智能本身,以及学习的本质。Sutton 教授并没有探讨接下来一年什么会帮助公司企业获得利益,而是探讨了接下来一年里,他认为机器学习最重要的进展。主要有以下三个方面: 1. 从普通经历中规模化学习的能力 2. 将机器学习扩展到下一阶段 3. 使用深度强化学习进行长期预测,(可能)进行无监督学习
现在的机器学习过程和人类学习的方式并不相同。 (责任编辑:本港台直播) |