演讲主题:True Artificial Intelligence Will Change Everything Jürgen Schmidhuber 是瑞士人工智能实验室 IDSIA 的科学事务主管,同时任教于卢加诺大学和瑞士南部应用科学与艺术学院。他于 1987 年和 1991 年在慕尼黑工业大学先后获得计算机科学的学士和博士学位。从 1991 年开始,他成为深度学习神经网络领域的开拓者。随后,他在 IDSIA 和慕尼黑工业大学的研究团队开发了一种递归神经网络,并率先在正式的国际性比赛中获胜。他获得的其他奖项还包括 2013 年国际神经网络协会的亥姆霍兹奖,以及 2016 年电气与电子工程师协会的神经网络先锋奖等。 30 年前,Jürgen Schmidhuber 正在慕尼黑工业大学忙于完成计算机科学专业的毕业论文。在这篇论文的封面上,他设计了一个可以进行自我操控的机器人,内文详述了这类机器人背后一种可以自动修改代码的元程序(meta-program),它可以改善特定领域某些系统的性能,还可以自我改进学习算法及其学习方式等。 这完整表露了 Jürgen Schmidhuber 建立自我优化人工智能的目标,也开启了接下来一系列关于递归式自我改进算法的研究。其实,Schmidhuber 早在 1970 年代就已经萌生这一目标,为此他在大学期间选择学习数学及计算机科学。 「我最大的偶像是阿尔伯特·爱因斯坦。我在某个时候意识到,如果我打造出了比我自己乃至比爱因斯坦更聪明的东西,我会拥有更大的影响力。」Jürgen Schmidhuber 说,「从 1987 年将这个问题作为学位论文选题以来,我一直在研究这个包罗万象的内容,但是现在我能看到这个主题正开始变成一个可能实现的现实。」 在实现自我优化人工智能的道路上,一个里程碑式的关键性突破是——1997 年,Jürgen Schmidhuber和他的学生 Sepp Hochreiter 共同撰写论文提出长短时记忆 (Long Short-Term Memory,下简称「LSTM」),它是一种让人工神经网络通过记忆功能来获得提升的方式,即根据之前获得的信息增加解读字词或者图像的模式的闭环。 如今,最大的 LSTM 网络有约 10 亿个连接。以一定的趋势推断,在 25 年内,也就是 Zues(创建首个计算机)后的 100 年,以与当时相同的价格,我们也许能买到一个与人脑差不多大小的、有 100 万亿个电子连接的 LSTM 网络,它远远快于生物连接。 LSTM 一开始并没有被行业重视,在近些年深度学习热潮的推动下,LSTM 被越来越多科技公司采用,其研究价值和意义被重新认识。据 SemanticScholar 的数据显示,在过去两年时间,《Long Short-Term Memory》一文的引用量从 2014 年近百次激增到超过 2000 次。 然而,作为最初的技术开发者,54 岁的 Jürgen Schmidhuber 似乎并不如其他深度学习领域的技术明星那般享负盛名。《纽约时报》称其「本应该是人工智能之父」,在一篇,则归因为他所开创的时代太早,即便是计算机硬件性能还不足以处理这些算法。
实现通用智能 「我一直在问自己:我能给世界带来最大的影响是什么?所以我对建造一个比我更聪明的机器这一目的十分明确,它甚至能自己建造些更聪明的东西等等,最终它能殖民并改变整个宇宙,让自己变得智能。」 自 1987 年以来,Jürgen Schmidhuber 一直在开拓自我改进的一般问题解算器,直到 1991 年,他成为外界口中的深度学习神经网络领域开拓者。那时候的他,还是慕尼黑工业大学的一名博士生,发布了首个超级深度学习系统(Very Deep Learners),其层数远超过 1960 年代深度学习之父、乌克兰数学家 Ivakhnenko 的 8 层网络。 这也是他自己的第一个深度学习系统。 「我们称自己基于循环神经网络的方法是通用目的深度学习(general purpose deep learning)或通用深度学习(general deep learning),因为与 Ivakheneko(及其在 70、80 年代追随者)所研究的深度正向传播神经网络不同的是,我们的深度循环网络具有并行的、通用目的计算架构。在 90 年代初,我们的网络能够学习解决许多先前无法学习的问题。」 人们在思考问题的时候,并不会从零开始,而是会凭借自己以往的一些经验与记忆做出判断。但是,传统的神经网络可做不到这一点。比如,你想要对一部电影里的每个镜头进行分类,判断荧幕上都在演些什么。但是,传统神经网络可能只能孤立地看待每一帧,而无法把上一个镜头串联起下一秒发生的事情。RNN(循环神经网络)就是为解决这个问题而生的,顾名思义,也就是能够让信息在网络中再次循环的网络。 (责任编辑:本港台直播) |