本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

码报:通向未来人工智能的三条赛道:高性能计算、神

时间:2017-06-26 23:31来源:668论坛 作者:www.wzatv.cc 点击:
有三种技术,可以带来更快、更简单、更廉价、更聪明的人工智能。今天,高性能计算,以及后来出现的量子计算机和神经形态计算已触手可及;并且,后两者正变革着人工智能和方

有三种技术,可以带来更快、更简单、更廉价、更聪明的人工智能。今天,高性能计算,以及后来出现的量子计算机和神经形态计算已触手可及;并且,后两者正变革着人工智能和方兴未艾的深度学习。

码报:通向未来人工智能的三条赛道:高性能计算、神

人工智能与深度学习的三个问题

时间:训练一个 CNN 或 RNN 通常需要数周的时间。这还不算上为了达到所需的性能表现,花在定义问题以及编程深度网络时迭代成败上的数周甚至数月的时间。

成本:数百块 GPU 连续数周的计算成本高昂。从亚马逊云计算服务中租用 800 块 GPU 一周的时间花费在 120,000 美元。这还没开始算上人力成本。完成一个 AI 项目往往需要占用最优秀人才数月、一年甚或更多的时间。

数据:由于缺乏足够数量的标注数据而使项目无法展开的情况比比皆是。由于无法以合理的价格获取训练数据,很多好创意被迫放弃。

因此,取得较好商业表现的多是图像处理、文本和语音识别,并且那些借力谷歌、IBM、微软和其他巨头的初创企业成果更多。

通向未来人工智能的三条赛道

如果你关注这一领域就会发现,我们已经使用 CNN 和 RNN 做了一些应用,但是超越这些应用的进展才刚开始。下一波的进展来自生成对抗网络和强化学习,并获得了问答机器(比如沃森)的一些帮助。我们最近的一篇文章对此作了很好的总结(详见:)。

码报:通向未来人工智能的三条赛道:高性能计算、神

这是一个有关如何推动人工智能发展的最常见版本。这是日益复杂的深度神经网络,它与现在的 CNN 和 RNN 有着不同的架构。仅仅是让它们运行更快。

实际上未来可能相当不同。现在展现在我们面前的是基于完全不同技术的通向未来人工智能的三条赛道。它们是:

1. 高性能计算(HPC)

2. 神经形态计算(NC)

3. 量子计算(QC)

其中,高性能计算是本篇文章关注的焦点。芯片制造商以及以及谷歌等巨头正在开展竞争,争相打造深度学习专用芯片。

另外两个,神经形态计算(也被称为脉冲神经网络)和量子计算看起来似乎还需要几年。但事实是商用神经形态芯片和商用量子计算机已投入应用于机器学习之中。不管两者是冷是热,神经形态计算和量子计算都会使人工智能的未来之路变得更扑所迷离,但这是一件好事。

高性能计算(HPC)

高性能计算关注度最高。它使用我们已知的深度神经网络架构,并使其更快更容易被获取。通常这意味着两件事:更好的通用环境,atv,比如 TensorFlow;更多地利用更大数据中心中的 GPU 和 FPGA,也许不久之后会出现更专业化的芯片。

现如今人工智能的新商业模式是「开源」。2016 年上半年,人工智能的每一个主要玩家都开源了其 AI 平台。这些竞争者在数据中心、云服务、人工智能 IP 上进行了大量投资。开源背后的策略很简单:平台用户最多者获胜。

同时,英特尔、英伟达及其他传统芯片制造商也正积极满足用户对于 GPU 的新需求,其他巨头如谷歌和微软则自己开发了全新的专属芯片,从而使其深度学习平台更快,更具吸引力。连同新近推出的 TPU,谷歌铁定了要把 TensorFlow 作为其主打的通用型解决方案。微软则在兜售非专属芯片 FPGA 的使用,并发布了 CNTK 2.0 完整版;它提供了 Java API 可直接整合 Spark,同时支持 Keras 代。据称 CNTK 比 TensorFlow 更快更精确,且也提供 Python API。

整合 Spark 将持续成为一个重要的推动力。雅虎已实现了 TensorFlow 与 Spark 的整合。Spark 的主要商业供应商 Databricks 现在有其自己的开源工具包,以把深度学习与 Spark 相整合。这里的关键驱动力将至少解决三个障碍中的两个。这些进展将会使编程更快更简单,从而带来更可靠的结果,尤其是更快速的芯片将会使机器计算的原始时间变的更短。

问题是这些提升将会帮助我们到那一步(这和摩尔定律的局限性很像),是否可用于 GAN 和强化学习;答案很可能是,至少在今天我们知道如何使用这些深度学习架构。

神经形态计算(NC)或脉冲神经网络(SNN)

神经生态计算或脉冲神经网络是通向强人工智能的一条路径,它基于一些大脑运行的原理而设计,与深度神经网络的结构和原理有显著的不同。

神经形态计算最开始是由研究者发现大脑神经元并不是每一次都全部激活而启发。神经元将选择性信号沿着突触传播,并且数据实际上是以信号的潜在脉冲方式传播。实际上,这些信号是由一系列脉冲组成,所以研究者对信息是否编在一系列脉冲的振幅、频率或延迟中做进一步探讨。

在现有的深度神经网络中,神经元根据相对简单的激活函数(如 Sigmod 或 ReLU 等)每一次都会全部激活。

神经形态计算相对于深度神经网络已经展示了一些巨大的提升:

(责任编辑:本港台直播)

顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容