例如,ResNet 的比例是 8.17。因为一年前它在所有提交论文中出现的比率是 1.044%(2016 年 3 月),开奖,但今年 3 月它出现的比例是 8.53,所以 8.53 除以 1.044 约等于 8.17。所以得出的结果是,过去一年所有的核心创新领域是 1) ResNets, 2) GANs, 3) Adam, 4) BatchNorm,在研究中多使用下这些模型。在研究兴趣方面,我们看到 1) 风格迁移,2) 深度强化学习,3) 神经机器翻译,以及 4) 图像生成。在架构上,热于使用 1) 全卷机网络 (FCN),2) LSTMs/GRUs,3) Siamese 网络,以及 4) 编码器-解码器网络。 顶级但不热 相反的一面呢?过去一年有哪些词有较少的提交,但历史上有更高的比例?下面列出了一些: 我不太确定「fractal」指代什么,但更普遍的可能是贝叶斯非参数在被攻击。 结论 现在提交论文的主题应该围绕把全卷积编码器解码器 BatchNorm ResNet GAN(Fully Convolutional Encoder Decoder BatchNorm ResNet GAN)应用于风格迁移,用 Adam 进行优化。听起来也不那么不靠谱。 原文链接:https://medium.com/@karpathy/a-peek-at-trends-in-machine-learning-ab8a1085a106 本文为机器之心编译,转载请联系本公众号获得授权。 ?------------------------------------------------ 加入机器之心(全职记者/实习生):[email protected] 投稿或寻求报道:[email protected] 广告&商务合作:[email protected] (责任编辑:本港台直播) |