您可以应用这两种算法。在逐步向前选择中,您将从预测开始一次添加一个模型的预测,如果这样提高了整体的精度。在逐步向后消除中,你将从全部特征开始并且一个一个的移除模型预测,如果在移除模型的预测后提高了精度。 34 假设,您想要应用逐步前向选择方法来为集成建模选择最好的模型。以下哪项是正确的步骤顺序? 注意:您有超过1000个模型预测 1.向集成中一个一个的添加模型预测(或者取平均值),这样提高了验证集中的指标 2.从空集成开始 3.从具有验证集合的最大性能的嵌套集合中返回集成 A. 1-2-3 B. 1-3-4 C. 2-1-3 D.以上都不是 解决方案:(C) 选项C是正确的。 35 【判断】相比之Bagging,Dropout是计算复杂的方法 A.正确 B.错误 解决方案:(B) 因为在Dropout中,权重是共享的,并且子网络的集成是一起训练的。 36 Dropout在神经网络中可以被认为是一个集成技术,其中多个 子网络通过“丢弃”神经元之间的某些连接而一起训练。 假设,我们有一个单一的隐层神经网络如下所示。 有多少种子网络的组合可以用于分类? A. 1 B. 9 C. 12 D. 16 E. None of the above(以上都不是) 解析:(B) 有16种可能的组合,其中只有9种是可行的。不可行的是(6,7,12,13,14,15,16)。 37 模型能力是如何影响随机失活率(dropout rate)的(其中模型能力意味着神经网络近似复杂函数的能力)? A.模型能力随随机失活率的增加而增加 B.模型能力随随机失活率的增加而减少 C.模型能力不受随机失活率增加的影响 D.以上都不是 解析:(B) 当退出率较低时,子网络有更多的神经元。 因此它们更复杂,也导致总体模型复杂性的增加。参考DL book的第11章()。 38 可以调整以下哪些参数来找到好的基于算法的集成模型Bagging? 1.最大样本数 2.最大特征 3.样品引导 4.特征引导 A. 1和3 B. 2和4 C. 1,2和3 D. 1,3和4 E.以上所有 解析:(E) 在选项中给出的所有技术都可以应用以获得好的集成。 39 在机器学习中,如果训练数据的一个小变化导致学习中的分类器的大变化,则该算法(或学习算法)被认为是不稳定的。 判断:对不稳定的分类器做Bagging是一个好主意。 A.正确 B.错误 解析:(A) 参考该论文的介绍部分() 40 假设有25个基分类器,每个分类器具有e = 0.35的错误率。 假设您使用平均作为集成技术。上述25个分类器的集成将会做出错误的预测的概率是多大? 注意:所有分类器都是相互独立的 A. 0.05 B. 0.06 C. 0.07 D. 0.09 解析:B 解析:参考这个链接() 总体结果 答完所有题目得分如何?下图是所有测试者分数的分布情况图,这将有助于您评估您的表现: 你可以通过这里评估你的表现。超过230人参加了这项技能测试,其中最高分是31分。下面是一些关于分布情况的统计。 ??总体分布: 平均分:17.54 中位数:18 众数:21 ??还要以下一些有用的资源: 每个人都应该知道的5个关于集成建模的简单问题 https://www.analyticsvidhya.com/blog/2015/09/questions-ensemble-modeling/ 集成建模中选择正确模型的“技巧” https://www.analyticsvidhya.com/blog/2015/10/trick-right-model-ensemble/ 用简单的英语解释集成学习的基础知识 https://www.analyticsvidhya.com/blog/2015/08/introduction-ensemble-learning/ 结束语 我希望你能享受参加这个测试,并且希望解析对你能有帮助。这个测试主要集中在集成建模的概念和集合建模的实践知识。 (责任编辑:本港台直播) |