NVIDIA 在 GTC 大会上发布了全新的 GPU 芯片,atv,这块芯片堪称史上最强的人工智能计算卡。 人工智能和机器学习已经重要到连 Google 都要自己造芯片的程度了。 在去年的开发者大会上,Google 发布了专为人工智能算法定制的 Tensor Processing Unit(TPU)。除此以外,各大科技公司正在研发中的芯片就有几十种,它们都可以作为专业的人工智能芯片为 AI 创业公司们提供定制的服务。
Google 在去年的开发者大会上发布 TPU 这一切都给了 NVIDIA 不小的压力——虽然它最近几年一直在深度学习领域的芯片供应商中占据着主导地位。 因此,作为对其他芯片厂家的反击,NVIDIA 试图通过其最新的 GPU 来强化它在人工智能领域的专业性能。 在星期三 NVIDIA 举行的 GTC 大会(GPU 技术大会)上,NVIDIA 发布了一部目标服务器市场的全新产品,基于新一代图形架构 Volta 的 Tesla V100。
黄仁勋在 GTC 大会上发布 Tesla V100 这块芯片用友超过 210 亿个晶体管和 5120 个计算机内核,但对人工智能来说最重要的是,Tesla V100 配备了 640 个 Tensor Core,这些计算机核心被专门用于在深度学习网络中进行数学运算。NVIDIA 声称这些 Tensor Core 可以达到惊人的 120 万亿每秒浮点指令个数。 NVIDIA 表示,相较于他们上一代架构 Pascal,新的芯片将深度学习的训练速度提高了 12 倍,并将推理速度提高了 6 倍,新的架构相当于 100 个运行深度学习应用程序的 CPU(像英特尔的那种)。
英特尔的 Skylake CPU NVIDIA 还发布了很多软件工具,以便深度学习的操作程序在其硬件产品上可以更高效地运行。此前,NVIDIA 发布了 TensorRT,一个用于改进深度学习框架 TensorFlow 和 Caffe 推理性能的编译器。NVIDIA 表示 Tesla V100 上的推理性能要比英特尔的 Skylake CPU 架构快 15 到 25 倍。
TensorRT 虽然 NVIDIA 很努力地在让它的计算芯片更适合深度学习,但在竞争中,NVIDIA 总是会暴露出其最大的缺点——NVIDIA 的 GPU 必须支持其最初的功能:图形处理。其竞争对手指出,对图形处理的支持给芯片增加了不少的体积,这意味着这些 GPU 芯片的效率永远会比专业的 AI 芯片要低一些。
NVIDIA 表示将在 2017 年帮助培训 10 万名 AI 开发者 在最近的一篇博客文章中,Google 声称其 TPU 要比现代的 GPU 和 CPU 们在推理性能上快 15 到 30 倍(虽然 NVIDIA 否认说 Google 是在拿 TPU 和老的 GPU 相比较)。另一边 NVIDIA 的死对头英特尔用超过 4 亿美元收购了人工智能芯片的创业公司 Nervana,并声称自己将在 2020 年之前将深度学习的训练速度提高 100 倍。 NVIDIA 表示它已经在人工智能芯片领域达到了相当专业的水准,并且足以与那些定制芯片的厂商同台竞争,Tesla V100 就是最好的证据。 NVIDIA 的 GPU 工程副总裁 Jonah Alben 在谈起人工智能芯片市场的竞争时说道:「我们都在用同样的画笔作画。如果你观察一款强大的人工智能芯片所需的基本元素——带宽、输入/输出以及计算,这些领域我们都称得上是专家。」
黄教主在 GTC 上发表演讲 尽管从规模上来看,Google 可能会在定制化人工智能芯片的路上走得更远,但毫无疑问 NVIDIA 还是一个非常强大的对手。「人工智能芯片还没有大量出货,」一位分析师说道,「我认为 NVIDIA 需要一直提防着一些潜在的威胁,虽然在这些竞争者中的任何一家开始大量出货之前,这些威胁都不会太明显。」 这些即将全力研发人工智能定制芯片的厂商和 NVIDIA 之间的竞争表明,深度学习的计算能力亟需更加强大、更加专业的处理能力。 (责任编辑:本港台直播) |