本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

英特尔宋继强:谷歌华为都砸钱做AI芯片说明机会(5)

时间:2017-08-04 23:12来源:香港现场开奖 作者:本港台直播 点击:
计算你会用到像至强、FPGA这种技术,存储会用到像 3D XPoint 这种非易失的芯片。做到前端的检测可能用到Movidius做车内的情况,都有可能,这是一个完全的

计算你会用到像至强、FPGA这种技术,存储会用到像 3D XPoint 这种非易失的芯片。做到前端的检测可能用到Movidius做车内的情况,都有可能,这是一个完全的很综合的系统。然后云端,云端是非常重要的,因为这些车本身它可能只能去发现某一些场景的情况,然后云端可以帮他去综合一些他发现的东西或者不是这个车发现的而是别的车重新发现的,在云端重新升级这个模型,然后再把所有车更新,提高它的能力,所以云端要不断地做大量的训练,去形成新的模型不断改善前端的能力。

网络也很有用,因为网络侧以后不光做数据传输,有一个词叫移动的边缘计算是5G里面很重要的功能,就是在前端的接入网这个位置要加入计算能力和加入存储能力。干什么?就是帮助这些连入网络的设备做快速的低延迟的计算和存储。举个简单的例子就是说如果一个车开到一个场景里面,它可能自己并没有那个场景的高清地图或者说附近周围的车联网的信息,或者说交通的信息,这些都可以从边缘计算数据拿到。

所以你会看到这里面除了我们要使用各种不同的芯片之外,很多情况下最后成功的关键是把软件和硬件协同优化,硬件毕竟我们觉得在AI的这个时代还不太适合做视频编解码一样完整的黑盒子给你,很多时候还要算法的演进,所以即使定制加速硬件也留有让软件做编程控制的余地,所以一流视觉算法要配合合适的定制加速硬件,这样才能最好的完成任务。

英特尔宋继强:谷歌华为都砸钱做AI芯片说明机会

举个例子,这个例子是在我们云端做大规模的芯片和做大规模训练的芯片,这就是LAKE CREST,它中间的这些是提供运算的,提供了很高的计算密度,同时为这些计算提供快速的内存的反应,这些高带宽内存其实是另外的芯片,他们把这个封装在一个技术,这样他们才能以很高的速度和中间的计算单元通讯。同时你可能也注意到ICL有一堆,这12个ICL也是我们私有的一种协议,去把不同的LAKE CREST芯片可以直接互联起来,形成12维的超网格,这样可以很高速的互联并且构造很大的网络去做训练,所以它同时要解决计算密度加上高IO速度还有可扩展性的问题,同时到底里面的算法怎么样,性能什么样,是要靠软件去调优的。也就是在这个上面运行的软件还是由人工智能算法的高手去写的,但是要能够了解这样的硬件能给你提供的加速的性能。因为这个里面的设计是没有cache的,这个内存的管理由程序人员或者算法人员来管理。

英特尔宋继强:谷歌华为都砸钱做AI芯片说明机会

还有一个例子,就是至强融合,它实际上是用很多X86的核放在一起,并且给它也加上了一些并行处理加速指令,每一个小的蓝色块实际上是这样的,有两个 core 都是X86内核,每个core还有支持矢量运算的VPU,组合在一起形成一个片,里边有64个或者72个这样的片,所以它的可以同时去执行很多个不同的任务,可以把它切成四份,每份干一件事,也可以把它切成两份,这是由软件去控制配置的,同时它里面采用了最新的连接,也可以让它很容易的连接几百个节点,而且通讯信息会保持增强。

最后讲一个前端的,前段现在其实还蛮稀缺的,它里面实际上是基于Movidius的芯片,这里面做三维的查找表,这是做的固化。这些就不是固化,底下这12个是矢量的计算加工引擎,而且为了低功耗,每一个都有单独的电域,如果你现在不需要这么多可以关掉6个,纯粹是为了前端设备能省电。而软件上面还是需要做蛮多的工作去把算法相应的做一些转化,放到这个上面很好的去分配起来,哪些是用这种灵活的矢量的数据去做,我觉得这个也是一个非常典型的,就是软硬件协同优化的,而且这种前端的设备是非常多的,我们知道未来真的部署AI的时候,后边的云和前边的设备比可能是1:100设备以上的关系,所以前面的更需要低功耗有能力的芯片,而且这边需要很多压缩一些训练好的神经网络的能力,网络压缩技术,同时保持很好的识别的精度。

英特尔宋继强:谷歌华为都砸钱做AI芯片说明机会

作为英特尔中国研究院认知计算实验室的主任,陈玉荣也在会场上分享了英特尔在算法层面,特别是计算机视觉上的研究:

陈玉荣:揭秘英特尔中国研究院在计算机视觉上的前沿研究

英特尔宋继强:谷歌华为都砸钱做AI芯片说明机会

英特尔宋继强:谷歌华为都砸钱做AI芯片说明机会

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容