新智元启动新一轮大招聘:COO、执行总编、主编、高级编译、主笔、运营总监、客户经理、咨询总监、行政助理等 9 大岗位全面开放。 简历投递:j[email protected] HR 微信:13552313024 新智元为COO和执行总编提供最高超百万的年薪激励;为骨干员工提供最完整的培训体系、高于业界平均水平的工资和奖金。 加盟新智元,与人工智能业界领袖携手改变世界。 【新智元导读】昨天,新智元报道了南京大学周志华教授和冯霁的论文“深度森林”,引发很多讨论。今天,新智元整理了网上一些评价。中文内容来自知乎,已经取得授权。外网内容来自 Hacker News,由新智元编译整理。正在看这篇文章的你,也欢迎留下你的看法。 首先,让我们简单回顾周志华和冯霁的论文《深度森林:探索深度神经网络以外的方法》。了解更多请点击阅读新智元报道:。 摘要 在这篇论文里,我们提出了 gcForest,这是一种决策树集成方法(decision tree ensemble approach),性能较之深度神经网络有很强的竞争力。深度神经网络需要花大力气调参,相比之下 gcForest 要容易训练得多。实际上,在几乎完全一样的超参数设置下,gcForest 在处理不同领域(domain)的不同数据时,也能达到极佳的性能。gcForest 的训练过程效率高且可扩展。在我们的实验中,它在一台 PC 上的训练时间和在 GPU 设施上跑的深度神经网络差不多,有鉴于 gcForest 天然适用于并行的部署,其效率高的优势就更为明显。此外,深度神经网络需要大规模的训练数据,而 gcForest 在仅有小规模训练数据的情况下也照常运转。不仅如此,作为一种基于树的方法,gcForest 在理论分析方面也应当比深度神经网络更加容易。 Hacker News 用户讨论 HN 用户 rkaplan: “深度神经网络需要花大力气去调整超参数,相比之下 gcForest 训练起来要容易得多。” 现在对于深度神经网络调整超参数已经不是大问题了。有了 BatchNorm 和更多更具鲁棒性的优化算法,大多数时候你只需要用 Adam 用默认设置学习率 0.001 就行了,结果很好。现在很多模型使用 BatchNorm,有时候都不需要使用 Dropout,总体而言调参不再是个问题。很多步长为1、3×3 的卷积层效果很漂亮的。简单说:如今深度 NN 不怎么调参也用得很好。用默认设置就行了。 > HN 用户 computerex: 我完全不同意这种说法。默认设置根本不管用,而且网络架构本身就可以被视为一种超参数。这样的话,对于用于不同问题的 ANN 而言,怎么去弄一个合理的默认设置呢? > HN 用户 arjo129: 深度神经网络用起来很好,只是你需要很多耐心(并且知道如何)用它们。另外,GPU 是很贵的。当你意识到你搞砸了的时候,你已经浪费很多时间了。当然,任何机器学习算法都是如此。但我想说的是,可能存在一个我们还不知道的方法,它的计算复杂度可能更低。 我发现的一个问题是,人们在无限制地滥用深度神经网络。 你没必要训练 DNN 来识别冰箱里的结构化对象,比如可乐罐。对于小规模对象识别来说,简单的 hog/sift 这些特征工程可能是更快和更好的选择。但是,你不能指望 sift 在 ImageNet 上比深度神经网络表现更好。因此,当涉及到在短时间内部署系统时,应该保持开放的心态。 >>HN 用户 modeless: “没必要训练 DNN 来识别冰箱里的结构化对象,比如可乐罐。” 我不同意这个说法。当然,作为你自己的实验项目,你不需要一个 NN 来识别一个冰箱里的一听可乐。但是,如果你要识别所有冰箱里的所有可乐罐又将如何呢,这是为了你在现实世界中使用、给消费者拿可乐的机器人产品用的?你会需要一个巨大的数据集,包含所有不同设计的可乐罐和所有不同种类的冰箱,你小打小闹的特征工程面对一个拥有这些数据库的 NN 会死得很惨。 HN 用户 throw_away_777: (责任编辑:本港台直播) |