本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

报码:英特尔AIPG数据科学主任 Yinyin Liu:英特尔更注重

时间:2017-06-04 20:25来源:报码现场 作者:www.wzatv.cc 点击:
专访 | 英特尔AIPG数据科学主任 Yinyin Liu:英特尔更注重构建整体性端到端平台 来源:机器之心 原标题:专访 | 英特尔AIPG数据科学主任 Yinyin Liu:英特尔更注重构建整体性端到端平台 机

专访 | 英特尔AIPG数据科学主任 Yinyin Liu:英特尔注重构建整体性端到端平台

来源:机器之心

原标题:专访 | 英特尔AIPG数据科学主任 Yinyin Liu:英特尔更注重构建整体性端到端平台

机器之心原创

作者:邱陆陆

2016 年起,英特尔在人工智能领域接连的大手笔收购引起了业界广泛关注。从 Nervana 到 Movidius 和 Mobileye,这家半个世纪专注推动芯片性能按摩尔定律前进的老牌芯片制造商,逐渐将自己的战略重心转移到了数据科学和人工智能领域。英特尔对公司在人工智能领域的整体规划是什么?将会通过什么产品实现这一规划?

机器之心对英特尔全新成立的 AIPG(人工智能产品事业部)数据科学主任、首席工程师 Yinyin Liu 进行专访,讨论了成立 AIPG 的逻辑、针对深度学习开发的硬件和开源框架产品、以及作为一名工程师和数据科学家,她认为深度学习给相关研究领域带来了哪些变化。

报码:英特尔AIPG数据科学主任 Yinyin Liu:英特尔更注重

机器之心:去年 8 月英特尔斥巨资收购 Nervana,今年 3 月宣布成立 AIPG(人工智能产品事业部),由原 Nervana CEO,Naveen Rao 担任部门 VP 并直接汇报给 CEO 科再奇。同时,科再奇也一再强调英特尔已经转型为一家「数据驱动」的公司。英特尔这一系列动作背后有怎样的逻辑呢?

Yinyin Liu:英特尔收购 Nervana,展现了英特尔一直致力于在 AI 领域做出技术贡献和保持领先地位的决心。Nervana 团队自从加入英特尔以来一直和其他业务部门有紧密的合作。

成立专门的人工智能产品事业部,是考虑到 AI 技术要面向各个行业,能够自己把 AI 技术投入使用的行业很少,大多数行业仍然与 AI 技术还有一定距离,需要英特尔提供完整解决方案将他们引入 AI 领域。因此,成立专门的部门可以让我们从 AI 的角度思考如何解决各行业问题、支持多样化的应用案例,最终把英特尔已有的 AI 产品和专门为深度学习设计的芯片整合到一个端到端的平台中。英特尔向业界提供 AI 解决方案的时候,除了提供各种产品,更注重提供一个整体性很好的端到端平台。业界的应用者得以从一个明确的入口获得英特尔在 AI 方面的所有技术。

英特尔提供的 AI 相关技术包括底层硬件和软件架构两部分。底层硬件上:计算能力方面有 Xeon Phi™(Intel® Xeon Phi™ 至强融核™处理器)、Intel FPGA、还有即将发布的专用于深度学习的芯片 Lake Crest;存储技术方面有 Optane™(傲腾™);高速互联网络方面有 Omni-Path 等。在软件上,包含英特尔已有的各种数学库如 MKL(Math Kernel Library)以及英特尔对 TensorFlow 等各种机器学习框架的优化支持。工具和框架层面则有 Nervana Graph 和 Neon。

专为深度学习设计的硬件

机器之心:Lake Crest 现在的进度如何?

Yinyin Liu:我们计划今年年底产出第一代 Lake Crest 芯片,进行内部测试并开放给部分开发者测试。2018 年会提供更广泛的应用支持。

机器之心:你觉得 Lake Crest 这种 ASIC 相比于通用芯片有哪些优势?

Yinyin Liu:深度学习在推动 AI 行业进展中起到了至关重要的作用,因此,提供一种专门用于深度学习的设计来推动算法和数据科学研究工作,是一项有极大需求的任务。Lake Crest 芯片不同于 CPU 与其他的通用芯片,完全为深度学习而设计,很多设计来源于我们从事算法和数据科学研究中积累的经验。

机器之心:能具体谈一下 Lake Crest 的设计中针对深度学习所做的优化吗?

Yinyin Liu:在存储部分,众所周知芯片存储分为片上存储(On-chip memory)和片外存储(Off-chip memory),其中片上存储对于运算加速起到至关重要的作用,因此我们对于如何将片上存储合理和计算单元(computing unit)整合在一起进行了特殊设计,以更快访问数据并进行运算。

在计算单元部分,由于深度学习中,大多数运算是以矩阵/张量为单位进行的,因此芯片的计算单元部分也是基于张量的(tensor-based)。

在可扩展性方面,我们极其注重 AI 的可扩展性,因此每个芯片上有 12 个芯片间高速连接,以保证可以将单个芯片和许多其他芯片连接在一起,真正做到让计算分布在各芯片中,而不是通过一个中央单元来进行控制。

机器之心:您怎么看待将深度学习计算能力部署在云端这种形式呢?

Yinyin Liu:在未来,我们的芯片可以通过两种方式使用,一种是通过云:现在我们的云支持已有的硬件,将来的硬件如 Lake Crest 也会被部署到云端,供客户选择。另一种是通过一体机产品(appliance),我们接下来要发布的一代产品是一个一体机机柜(appliance box),其中包含了很多 Nervana 的软件和现有的硬件,例如 KNL 或 KNM(「Knights Landing」,第二代 Intel® Xeon Phi™ 处理器,「Knights Mill」,第三代 Intel® Xeon Phi™ 处理器)。在 Lake Crest 之后的下一代产品,Spring Crest,也会通过一体机的形态部署。

开源框架:高层、全栈、快速与稳定

机器之心:您所在的数据科学部门,在端到端平台中主要负责哪个层面的工作呢?

Yinyin Liu:我们的主要工作是数据科学研究和算法研究,经常接触的层面是我们的开源深度学习库 Neon 和 Nervana Graph。

机器之心:Neon 和 Nervana Graph 之间的关系是怎样的?

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容