日前,图形芯片厂商英伟达发布了季度营收创6年最大增幅的财报,并拉动其股价盘后飙升14%而引发业内的关注,加之此前,其CEO 黄仁勋宣称英伟达已经是一家AI(人工智能)芯片公司(颇有赶AI风口的意味),业内纷纷看好其在芯片,尤其是AI芯片的市场表现。事实真的如此吗? 我们先看看这个季度英伟达的财报表现。总营收20亿美元,同比增长53.6%。其中图形芯片部门的营收在其总营收中占比85%,同比增长52.9%,atv,为17亿美元;数据中心业务同比增长两倍,为2.4亿美元;汽车业务同比增长60.8%,为1.27亿美元。从营收的构成上,不难看出,支撑英伟达的核心业务依旧是传统PC市场的图形芯片(独立显卡),而涉及到AI相关领域或者是与AI密切相关(例如数据中心)业务的营收仅占到其总营收的1/10左右。所以仅从营收看,英伟达远称不上是一家AI芯片公司。而众所周知的事实是,目前AI是产业竞相追逐的热点,曾经,包括现在依然是传统PC产业独立显卡(显示芯片)的英伟达摇身一变成为AI公司自然会吸引不少的眼球,从这个意义看,我们不排除英伟达有借助AI风口炒作和夸大自己芯片作用的成分。 当然,我们在此并非否认AI芯片(支持AI应用和功能)将是未来芯片产业的发展趋势。尤其是谷歌人工智能软件AlphaGo利用深度学习技术击败全球顶尖围棋选手李世石预示着人工智能将是科技行业和大佬们竞争的下一个热点,而大数据和物联网的发展促使IBM、谷歌、Facebook、微软等在内的科技巨头和许多大型的提供云服务的云计算公司竞相开发人工智能技术,以期利用未来物联网设备收集的海量数据(分析)为市场和用户提供更好的服务。需要说明的是,尽管各家厂商叫法不同,例如IBM称之为认知计算,Facebook和谷歌称之为机器学习或人工智能,但作为支撑这些技术和应用的数据中心基础硬件之一的芯片依然扮演者重要的角色。 基于此种趋势,据相关统计,目前运行在包括IBM、谷歌、Facebook、亚马逊、微软等大佬们和云计算公司的数据中心(服务器)至少有10%左右的工作负载与AI应用有关(或自己开发相关的AI应用或支持和运行客户的AI开发及应用等),且随着市场和用户对于AI的需求,这种趋势未来还会扩大。而这种趋势对于数据中心的基础芯片计算能力和功耗提出了新的挑战,而英伟达此前一直专攻的GPU(图形芯片)具备有天然的优势。例如AI所需的大规模并行运算能力;同等面积下,GPU上拥有更多的运算单元(整数、浮点的乘加单元,特殊运算单元等);GPU拥有更大带宽的 Memory,因此在大吞吐量的应用中也会有很好的性能;GPU对能源的需求远远低于CPU等。 尽管如此,这并不代表上述大佬们的数据中心(服务器)对CPU没有需求,相反,CPU依然是计算任务不可或缺的一部分,在深度学习算法处理任务中还需要高性能的CPU来执行指令并且和GPU进行数据传输,同时发挥CPU的通用性和GPU的复杂任务处理能力,才能达到最好的效果,这也是为何目前大多数企业采用的依然是“CPU+GPU”的组合,或者称为异构计算,而在这种异构模式下,应用程序的串行部分在CPU上运行,而GPU作为协处理器,主要负责需要大量计算的部分。从这个角度看,缺乏CPU应该是英伟达在现在和未来自诩为AI公司始终存在的短板。 既然提到CPU,自然就会联想到此领域的老大英特尔,它既是英伟达成为AI芯片公司在CPU上无法跨域的屏障,即便是在其擅长的能够满足上述大佬AI需求的GPU上也是最大的挑战者。 这种挑战首先体现在英特尔对于CPU计算能力的创新挖潜上。例如其日前发布的用于数据中心服务器的Xeon Phi芯片。据英特尔的相关报告显示,Xeon Phi处理器的训练速度比英伟达的GPU快了2.3倍、Xeon Phi芯片在多个节点的扩展路为38%,且最多可达128个节点,这是目前市面上的GPU无法办到的。同时,由128Xeon Phi处理器组成的系统要比单个Xeon Phi处理器快50倍,意旨Xeon Phi处理器的扩展性优势明显,而这对于满足AI的应用至关重要。 不过,针对英特尔的说法,英伟达提出了强烈的反驳,并指出英特尔使用的是18个月前的数据,比较的是四个Maxwell GPU和四个Xeon Phi处理器。如果使用更新的Caffe AlexNet数据,就会发现四个Maxwell GPU比四个Xeon Phi处理器的速度快30%。我们这里姑且不论谁的说法更接近客观,但从双方对于报告的口水战看,至少说明天然不占优势的CPU还是大有潜力可挖,至少从CPU本身,英特尔就可以缩小与英伟达的差距,或者说给英伟达带来压力。 (责任编辑:本港台直播) |