本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

码报:【图】业界 | 英伟达GTC大会谈GPU未来:实现机器学习和数据库的融合

时间:2017-05-10 06:12来源:报码现场 作者:j2开奖直播 点击:
选自The Next Platform 机器之心编译 参与:微胖、黄小天、吴攀 对于工作,有一个合适的工具当然好;但是把一个工具应用于多个工作且效用更佳,这更好。这就是为什么通用的基于 X

选自The Next Platform

机器之心编译

参与:微胖、黄小天、吴攀

对于工作,有一个合适的工具当然好;但是把一个工具应用于多个工作且效用更佳,这更好。这就是为什么通用的基于 X86 的计算接管数据中心的原因之一。通过受限范围或者只是把原来有的应用程序单独放在替换平台上,规模经济获得了出乎意料的效率。

十多年前,把计算任务从 CPU 卸载到 GPU 加速器的想法从学术界脱颖而出,并且相对更快的高性能计算社区和 GPU 制造商英伟达扩展了现有的 Fortran 和通常用于 CPU 并行超级计算机的 C++ 框架,这样可以大大拓展计算容量,所得到的系统也会有更好效果。不久之后,有可能使用相同的机械来进行模拟和模型所需的计算,也可以进行渲染来可视化这些模拟和模型的结果。正如我们所知,超级计算机进化的下一步是在机器学习中编排(weave)以分析模拟和模型的结果,并据此做预测。因此一个应用程序将有三个不同、相互交织的层,且全部运行在相同的加速单元上。

数据库和分析领域也进行着一场类似的革命,它由 GPU 驱动,某些情况下也会用到 FPGA 加速器。在 GPU 采用传统的高性能计算方法的几年之后,谷歌、Facebook、百度等巨头公司的主导研究者发现了一个运行神经网络软件的方法,该方法在上世纪 80 年代已被提出,用于解决 GPU 加速系统中大量并行样式的图像识别问题,;该方法最终创造出了可在图像分任务中优于人类的软件。在过去的五年中,机器学习框架中的最先进技术获得了极速发展,图像识别技术也被用于文本、语音、视频识别及翻译服务,而翻译不仅仅限于语言之间,还包括从语音到文本的转换,或者图像、视频到文本的转换,且这些转换的精确度相当惊人。

结果就是,在 HPC 驱动以及机器学习的爆发之下,atv英伟达 2008 年成立的 Tesla GPU 早期计算业务如今规模扩大了 4 倍,并在今年 2 月英伟达 2017 财年第 4 季度的最后达到了 12 亿美元的年销售额(annual run rate)。英伟达的业务是如此之好以至于其竞争对手 AMD 最终一起推出了 Radeon Instinct GPU 计算平台和 ROCm 软件平台,它们不仅支持 OpenCL 卸载到 Radeon GPU,还具备在 AMD 自身的 Radeon motor 上为其 GPU 仿真英伟达 CUDA 并行编程环境的能力。

而现在,另一个应用正在成为 GPU 上的加速工作负载,它是关系型数据库(relational database),且处在大多数业务系统的核心,具有像 HPC 模拟、建模与机器学习这样的规模问题,这种问题可通过 GPU 的并行特性及其非常高的内存带宽而解决。我们已经记录了 GPU 加速数据库两大主要供应商——Kinetica(以前被称为 GPUdb)和其新兴挑战者 MapD——的兴起,但这一领域还有其他供应商,比如 Sqream、BlazingDB、Blazegraph 和 PG-Strom。并不清楚数据库加速是否会一直像传统 HPC 模拟、建模或者机器学习那样驱动同样的 GPU 单元。后两者几乎带动了英伟达 Tesla GPU 计算收入的一半。但这也有机会成为该业务的另一个重要部分,尤其是在这样的系统上:既可以使用标准 SQL 查询方法咀嚼大型数据集,也可以在同一个单元上可视化这些查询的结果。

本周,英伟达在圣荷西举行的 GTC 大会之前,我们与 MapD 和 Kinetica 谈到了把新兴 GPU 数据库与企业环境中的机器学习框架进行混合的可能性,这两个工作负载不仅共享同样的 GPU 单元,而且还像 HPC 空间中的模拟、可视化和机器学习所做的那样相互反哺。

MapD 创始人 Todd Mostak 告诉 The Next Platform 说,「这将是一个大趋势。如果我们有数据库、可视化和 GPU 机器学习,为什么不使它们一起工作?人们一直希望在 MapD 之上运行 TensorFlow,或者甚至在数据上运行回归以连接点,而无须离开 GPU 生态系统。现在,人们正在使用 Spark,它是好的,因为它连接到了 Hadoop;但是要使用这些公司使用的数据集来获得任何一种性能,他们必须大规模地进行扩展,然后将结果从集群中的 CPU 移到 GPU。但是如果你把一切保留在 GPU 之中,并从 GPU 生态系统的不同部分传递结果,这将是一个巨大的胜利。」

在 GPU 加速的数据库与依赖 GPU 来显著提升性能的机器学习框架之间的搭配中,还有一个问题仍待解决,即数据如何存储在机器的集群中。你是否在一个 CPU-GPU 集群中有一个用于运行数据库的分区,还有另一个分区用来运行 TensorFlow、Torch、Caffe、Theano 和 CNTK 这样的机器学习框架?还是说你实际上想将机器学习算法所用的数据就存在 GPU 数据库中?

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容