答案为(A):你可以把文章评论数看作连续型的目标变量,因此该问题可以划分到回归问题。因此均方误差就可以作为损失函数的度量标准。 7. 给定以下三个图表(从上往下依次为1,2,3). 哪一个选项对以这三个图表的描述是正确的? A. 1 是 tanh,2 是 ReLU,3 是 SIGMOID 激活函数 B. 1 是 SIGMOID,2 是 ReLU,3 是 tanh 激活函数 C. 1 是 ReLU,2 是 tanh,3 是 SIGMOID 激活函数 D. 1 是 tanh,2 是 SIGMOID,3 是 ReLU 激活函数 答案为(D):因为 SIGMOID 函数的取值范围是 [0,1],tanh 函数的取值范围是 [-1,1],RELU 函数的取值范围是 [0,infinity]。 8. 以下是目标变量在训练集上的 8 个实际值 [0,0,0,1,1,1,1,1],目标变量的熵是所少? A. -(5/8 log(5/8) + 3/8 log(3/8)) B. 5/8 log(5/8) + 3/8 log(3/8) C. 3/8 log(5/8) + 5/8 log(3/8) D. 5/8 log(3/8) – 3/8 log(5/8) 答案为(A):信息熵的公式为: 9. 假定你正在处理类属特征,并且没有查看分类变量在测试集中的分布。现在你想将 one hot encoding(OHE)应用到类属特征中。那么在训练集中将 OHE 应用到分类变量可能要面临的困难是什么? A. 分类变量所有的类别没有全部出现在测试集中 B. 类别的频率分布在训练集和测试集是不同的 C. 训练集和测试集通常会有一样的分布 D. A 和 B 都正确 E. 以上都不正确 答案为(D):A、B 项都正确,如果类别在测试集中出现,但没有在训练集中出现,OHE 将会不能进行编码类别,这将是应用 OHE 的主要困难。选项 B 同样也是正确的,在应用 OHE 时,如果训练集和测试集的频率分布不相同,我们需要多加小心。 10.Skip gram 模型是在 Word2vec 算法中为词嵌入而设计的最优模型。以下哪一项描绘了 Skip gram 模型?
A. A B. B C. A 和 B D. 以上都不是 答案为(B):这两个模型都是在 Word2vec 算法中所使用的。模型 A 代表着 CBOW,模型 B 代表着 Skip gram。 11. 假定你在神经网络中的隐藏层中使用激活函数 X。在特定神经元给定任意输入,你会得到输出「-0.0001」。X 可能是以下哪一个激活函数? A. ReLU B. tanh C. SIGMOID D. 以上都不是 答案为(B):该激活函数可能是 tanh,因为该函数的取值范围是 (-1,1)。 12. 对数损失度量函数可以取负值。 A. 对 B. 错 答案为(B):对数损失函数不可能取负值。 13. 下面哪个/些对「类型 1(Type-1)」和「类型 2(Type-2)」错误的描述是正确的? 类型 1 通常称之为假正类,类型 2 通常称之为假负类。 类型 2 通常称之为假正类,类型 1 通常称之为假负类。 类型 1 错误通常在其是正确的情况下拒绝假设而出现。 A. 只有 1 B. 只有 2 C. 只有 3 D. 1 和 2 E. 1 和 3 F. 3 和 2 答案为(E):在统计学假设测试中,开奖,I 类错误即错误地拒绝了正确的假设(即假正类错误),II 类错误通常指错误地接受了错误的假设(即假负类错误)。 14. 下面在 NLP 项目中哪些是文本预处理的重要步骤? 词干提取(Stemming) 移去停止词(Stop word removal) 目标标准化(Object Standardization) A. 1 和 2 B. 1 和 3 C. 2 和 3 D. 1、2 和 3 (责任编辑:本港台直播) |