早期研究中,对于神经形态系统能做什么实际上没有共识,除了知道它某种程度上对大脑的研究有用。实际上,spiking芯片可以说是某种在寻找能解决的问题的方法。很意外地,从计算机世界之外的地方出现了新的推动力。 从上世纪90年代开始,人工智能研究者提出了许多理论进展,其中就包括“神经网络”的设计,在解决计算问题上用了几十年,尽管成功有限。加州大学Irvine神经形态机器智能实验室的 Emre Neftci 说,在与更快的硅芯片结合之后,这些新的,改进的神经网络让计算机在一些经典计算问题(例如图像识别问题)上取得了显著进步。 这种新的计算工具使用了所谓的深度学习方法,过去几年里,深度学习已经基本上占领了计算机行业。神经形态方面的研究者很快发现,他们可以采用深度学习网络,在他们的新形式的硬件上运行。他们可以利用这项技术在功率上的优势:TrueNorth芯片只有邮票大小,却拥有100万的“神经元”,被设计为只拥有标准处理器的一小部分功能。 节省功耗这一点,或者说是神经形态增强(neuromorphics boosters),将把深度学习带到它以前到达不了的地方,比如说智能手机,带入世界上最热的这个技术市场。今天,深度学习已经可以实现许多在手机上广泛使用的功能,例如询问Siri时所需的语音识别技术。但实际的处理是发生在云服务的巨大服务器上的,因为手机设备缺乏足够的计算能力。支持者认为,使用神经形态芯片,一切都可以在本地计算。 这意味着神经形态计算在很大程度上可以与深度学习搭档。这个领域的许多研究者现在已经将成功定义为能够为深度学习提供高效的芯片,首先是应用到大型的服务器群组,然后以后可以用到手机以及其他小型,对功耗要求高的设备。前者被认为是相对容易实现的工程上的挑战,乐观主义者认为,用于服务器群组的商业化产品可能只要2年就能出现。 对神经形态芯片领域来说不幸的是,半导体行业的其他所有玩家,包括英特尔和英伟达等大公司,也都对深度学习这个市场虎视眈眈。而这个市场可能是在位者,而非创新者具有战略优势的地方。这是因为深度学习,或者说最先进的一些软件,通常都是运行在非常简单的硬件上。 传统芯片公司否认神经形态芯片在功耗效率方面具有优势 长期观察深度学习的Moor Insights & Strategy的分析师卡尔·弗洛伊德(Karl Freund)表示,运行深度学习系统(称为矩阵乘法)的关键计算可以很容易地用16位甚至8位CPU组件来处理,而不需要台式机处理器的32位和64位电路。实际上,大多数深度学习系统使用传统的硅芯片,尤其是为视频游戏赋能的图形协处理器。图形协处理器可以拥有数千个核(core),所有核都一起工作,核越多,深度学习网络的效率就越高。 因此,芯片公司正在推出由非常简单的,传统的组件制作的深度学习芯片,经过优化,尽可能地减少能耗(例如谷歌的TPU)。换句话说,神经形态芯片作为深入学习的选择平台的主要竞争力是“普通”硅芯片的下一代。 传统芯片公司否认神经形态芯片在功耗效率方面具有优势。斯坦福电气工程教授,同时是英伟达首席科学家的威廉·达利(William J. Dally)称,TrueNorth的demo使用了一个非常早期的深度学习版本,其精度远远低于最近的系统。考虑精度的话,他说,神经形态的任何能耗优势都得抵消。 Dally说:“做传统神经网络的人会取得成果,并赢得这场比赛。”“神经形态学的方法在科学上很有意思,但它们在准确性方面根本啥也不是。” 确实,研究人员还没有找到简单的方法能使神经形态系统运行在传统芯片上开发的各种深度学习网络。Lawrence Livermore国家实验室应用科学计算中心的Brian Van Es-sen表示,他的团队已经能够让神经网络在TrueNorth上运行,但是如何选择合适网络,以及如何移植过来仍然是“挑战”。其他研究人员说,先进的深度学习系统需要更多的神经元,需要有更多可能的联结,当前的神经形态技术还不足以提供。 神经形态研究社区需要有人才来解决这些问题。3月份该领域的一个主要会议只吸引了几百人参加,相比起来,与深度学习相关的会议往往能吸引数千人。去年秋天, IBM表示,2014年推出的TrueNorth已经在40多所大学和研究中心为超过130个用户提供实验和应用的运行。 (责任编辑:本港台直播) |