当然,网络修剪和编码优化可以结合起来。Song Han 发表在 2016 年 ICLR 上的 Deep Compression 就同时采用了修剪以及编码优化的方法,从而实现 35 倍的模型大小压缩。 Deep Compression 使用的模型压缩同时使用了网络修剪和编码优化 另外,训练新模型和模型压缩并不矛盾,完全可以做一个 MobileNet 的压缩版本,从而进一步改善移动端运行 MobileNet 的速度和能效比。 总结 在移动/嵌入式端运行的深度学习网络模型必须考虑运行速度以及能效比,因此模型的运算量和模型尺寸大小都是越小越好。我们可以训练新的网络拓扑以减小运算量,也可以使用网络压缩的办法改善运行性能,或者同时使用这两种办法。针对移动/嵌入式端的深度学习网络是目前的热门课题,随着边缘计算的逐渐兴起预计会有更多精彩的研究出现,让我们拭目以待。 (责任编辑:本港台直播) |