可以看到在训练这个模型时,GTX 1080 Ti比AWS P2 K80快2.4倍,这有点惊人,因为两个显卡的性能应该差不多,我觉得可能是AWS上有降频或者受到虚拟化的影响。 CPU的表现比GPU慢9倍。有趣的是,i5 7500比亚马逊的虚拟CPU快2.3倍。 VGG微调 为Kaggle猫狗识别竞赛而微调一个VGG网络。使用相同的batch在CPU上运行这个模型不可行,所以我们在GPU上微调了390个batch,在CPU上是10个batch。代码如下: https://github.com/slavivanov/cats_dogs_kaggle
这次1080 Ti比AWS P2 K80快5.5倍。CPU在这个环节的表现,最多慢了200倍。 Wasserstein GAN 生成对抗网络(GAN)用来训练模型产生图像。Wasserstein GAN是原始GAN的一个改进版。我这里用了一个PyTorch实现,代码地址: https://github.com/martinarjovsky/WassersteinGAN 这个模型需要50步训练,CPU在这个训练中不予考虑。
GTX 1080 Ti比AWS P2 K80快5.5倍。 风格迁移 最后一个测试是在TensorFlow上的风格迁移实现,代码地址: https://github.com/slavivanov/Style-Tranfer
GTX 1080 Ti比AWS P2 K80快4.3倍。CPU比GPU慢30-50倍。 好啦,关于万元打造一个深度学习系统的分享,就先到这里。 各位端午节快乐。 【完】 招聘 我们正在招募编辑记者、运营等岗位,工作地点在北京中关村,期待你的到来,一起体验人工智能的风起云涌。 相关细节,请在公众号对话界面,回复:“招聘”两个字。 One More Thing… 今天AI界还有哪些事值得关注?在量子位(QbitAI)公众号会话界面回复“今天”,看我们全网搜罗的AI行业和研究动态。笔芯~ 另外,欢迎加量子位小助手的微信:qbitbot,如果你研究或者从事AI领域,小助手会把你带入量子位的交流群里。 追踪人工智能领域最劲内容 (责任编辑:本港台直播) |