A:因为做视频编码要有很多条件,比如说分辨率、码流,包括压缩的质量,差别都是比较大的。在 P4 上是有两个 Incoding,它是一个做这种视频编解码性价比非常高的一个产品。关于同时处理多少路视频,因为它的涉及的场景是比较多的,我们跟 CPU 做过对比,大概是 CPU 的 7 倍,所以说它相比一些 CPU 平台它是非常好的加速平台。 6.cuDNN 是简单升级软件就可以得到这么高的加速吗? A:因为 cuDNN 要提升原有程序的性能,同时要对新的架构做支撑,另外一点,需要去支撑更多软件层的加速,综合这三个层面,软件加硬件,它会有一个比较高的性能提升。如果是简简单单的升级一个 cuDNN,知识对原有的层也会有加速,但是效果要根据具体的情况来去定。 7. 非公版的显卡 SDK 支持会不同吗? A:一般做计算的话都是基于 Tesla 平台做的,所以有一些客户他们可能在 GeForce 上做,可能会遇到一些问题。这些问题有可能是由于 GeForce 显卡在出厂时,筛选流程、本身硬件上关于计算的部分是有问题的,这样的问题是很难去定位的,一般出现这种问题我们都是建议客户在 Tesla 平台上去运行一下,如果还有问题,可以把问题反馈给我们,我们可以帮你去做一些分析;如果是在 GeForce 显卡上来做的话,是由于硬件问题,还是由于其他问题引起的,不是很好判断。 8.TensorFlow 使用 GPU 时,使用 Spark,和 k8s 平台的兼容性?k8s 平台在兼容性和性能上有没有差别? A:因为 TensorFlow 跟 Spark 是两个功能的平台,这种对比是不太好比较的。TensorFlow 肯定是可以去支持 GPU 的,如果你原来想用 Spark 也去支持 GPU 平台,这两个 GPU 平台搭建的过程中是没有任何影响的。用 Docker 去做一个隔离,同时去使用 GPU 平台是没有问题的。 9.CUDA 8 只能在 3.7 级以上计算能力的显卡上才能被安装,所以新旧款 GPU 是否不能同时在一起工作? A:因为 CUDA 的升级是跟软件、硬件的升级有关系的,一般它会向下两代产品做兼容。另外要做深度学习的训练,搭建一个训练的集群的话,也不可能把不同架构的 GPU 卡插在一个 GPU Server 内使用,这样本身它的计算能力都不是对等的,在分配的任务中,没有办法去做到一个 GPU 卡分的少,一个 GPU 卡分的多。但是我们可以新的卡跟老的卡一块去用,我指的是一个 GPU Server 内部,插的 GPU 卡性能是一样的,多个 GPU,可以把相同的 GPU 归为一类,作为一个队列来使用。其他的 GPU 卡,作为另外一个队列来去使用,这样可以充分发挥原有 GPU 的卡的效率。 10.GTX 1080Ti 做深度学习效果好吗? A:这个就涉及到了 GeForce 卡跟 Tesla 卡的一个区别,GeForce 卡主要是做游戏渲染的,包括 GTX 1080Ti 都是做游戏卡去用的。游戏卡的应用场景,一般就是短时间内要求这个 GPU 的计算能力非常高,因为在玩儿游戏的过程中,某一时刻的这个渲染的计算量要求的非常高。但是在做深度学习的应用时,持续要求的这种计算量是非常大的,所以说它的应用场景是不一样的。如果是说,你用 GTX 1080Ti 去做深度学习的训练,它的持续性,对 GPU 持续的压力非常大。一段时间以后,它老化的程度,或者它的稳定性就会有很大的问题。在这种情况下,如果再做深度学习,有可能得到的训练的效果是不准确的,这样就可能会影响到整个这种研发的进度。我建议大家,做开发、做一些功能性的验证、做简单的测试,你可以用 GeForce 卡,但是要构建一个专业的深度学习训练平台,达到企业级的效果的话,还是推荐用 Tesla 相关的卡来做。 11.Tesla P4 能否应对大规模的运算? A:这个大规模我不知道怎么来理解,P4 本身我们的定位是作为 Inference 的运算类型,作为一个现象处理。构建一个 GPU 的云平台来去处理客户的 AI 的应用请求,这个量真的非常大。比如谷歌做一个搜索平台,他们可以专门做搜索机器的量,可能有上万台的机器,机器跟机器之间相当于来是一个独立的单元,比如说做一个视频处理,在一个深网内部,插一块 P4,可以处理 20 路的这种应用请求;插 8 个,就可以处理 160 路的这种应用请求,所以当你的视频非常多,P4 可以去构建一个非常大的 P4 集群来去承载这些这种运算模式,这个是没有问题的,但是说如果指的大规模的运算是训练的模式,我还是建议你采用 P40,或者是 P100 来去做,因为 P40 跟 P100 它在单个 GPU 卡上的核数会更多,Memory 也会更大,这样在训练过程中,应付大规模的训练,它的性价比也会更高一些。 12.GPU 现在工业生产领域有哪些应用? (责任编辑:本港台直播) |