假设我们有一个隐层神经网络,atv,如上所示。隐层在这个网络中用于降维。现在我们并不是采用这个隐层,而是使用例如主成分分析(Principal Component Analysis, PCA)的降维技术。 使用降维技术的网络与隐层网络总是有相同的输出吗? A.是 B.否 答案:(B) 因为PCA用于相关特征而隐层用于有预测能力的特征 22 可以用神经网络对函数(y=1/x)建模吗? A.是 B.否 答案:(A) 选项A是正确的,因为激活函数可以是互反函数 23 下列哪个神经网络结构会发生权重共享? A.卷积神经网络 B.循环神经网络 C.全连接神经网络 D.选项A和B 答案:(D) 24 批规范化是有帮助的,因为 A.在将所有的输入传递到下一层之前对其进行归一化(更改) B.它将返回归一化的权重平均值和标准差 C.它是一种非常有效的反向传播技术 D.这些均不是 答案:(A) 要详细了解批规范化,请参阅此视频。 25 我们不是想要绝对零误差,而是设置一个称为贝叶斯(bayes)误差(我们希望实现的误差)的度量。使用贝叶斯(bayes)误差的原因是什么? A.输入变量可能不包含有关输出变量的完整信息 B.系统(创建输入-输出映射)可以是随机的 C.有限的训练数据 D.所有 答案:(D) 想在现实中实现准确的预测,是一个神话,所以我们的希望应该放在实现一个“可实现的结果”上。 26 在监督学习任务中,输出层中的神经元的数量应该与类的数量(其中类的数量大于2)匹配。对或错? A.正确 B.错误 答案:(B) 它取决于输出编码。如果是独热编码(one-hot encoding) 则正确。但是你可以有两个输出囊括四个类,并用二进制值表示出来(00,01,10,11)。 27 在神经网络中,以下哪种技术用于解决过拟合? A.Dropout B.正则化 C.批规范化 D.所有 答案:(D) 所有的技术都可以用于处理过拟合。 28 Y = ax^2 + bx + c(二次多项式) 这个方程可以用具有线性阈值的单个隐层的神经网络表示吗? A.是 B.否 答案:(B) 答案为否。因为简单来说,有一个线性阈值限制神经网络就会使它成为一个相应的线性变换函数。 29 神经网络中的死神经元(dead unit)是什么? A.在训练任何其它相邻单元时,不会更新的单元 B.没有完全响应任何训练模式的单元 C.产生最大平方误差的单元 D.以上均不符合 答案:(A) 30 以下哪项是对早期停止的最佳描述? A.训练网络直到达到误差函数中的局部最小值 B.在每次训练期后在测试数据集上模拟网络,当泛化误差开始增加时停止训练 C.在中心化权重更新中添加一个梯度下降加速算子,以便训练更快地收敛 D.更快的方法是反向传播,如‘Quickprop’算法 答案:(B) 31 如果我们使用的学习率太大该怎么办? A.网络将收敛 B.网络将无法收敛 C.不确定 答案:(B) 选项B正确,因为错误率会变得不稳定并且达到非常大的值 32 图1所示的网络用于训练识别字符H和T,如下所示: 网络的输出是什么? A. B. C. D.可能是A或B,取决于神经网络的权重 答案:(D) 不知道神经网络的权重和偏差是什么,则无法评论它将会给出什么样的输出。 33 假设在ImageNet数据集(对象识别数据集)上训练卷积神经网络。然后给这个训练模型一个完全白色的图像作为输入。这个输入的输出概率对于所有类都是相等的。对或错? A.正确 B.错误 答案:(B) 将存在一些不为白色像素激活的神经元作为输入,所以类不会相等。 34 当在卷积神经网络中添加池化层(pooling layer)时,变换的不变性保持稳定,这样的理解是否正确? A.正确 B.错误 答案:(A) 使用池化时会导致出现不变性。 35 Q35.当数据太大而不能同时在RAM中处理时,哪种梯度技术更有优势? A.全批量梯度下降(Full Batch Gradient Descent ) B.随机梯度下降(Stochastic Gradient Descent) 答案:(B) 36 该图表示,使用每个训练时期的激活函数,-训练有四个隐藏层的神经网络梯度流。神经网络遭遇了梯度消失问题。 下列哪项正确? A.隐藏层1对应于D,隐藏层2对应于C,j2直播,隐藏层3对应于B,隐藏层4对应于A B.隐藏层1对应于A,隐藏层2对应于B,隐藏层3对应于C,隐藏层4对应于D 答案:(A) 这是对消失梯度描述的问题。由于反向传播算法进入起始层,学习能力降低。 37 对于分类任务,我们不是将神经网络中的随机权重初始化,而是将所有权重设为零。下列哪项是正确的? A.没有任何问题,神经网络模型将正常训练 B.神经网络模型可以训练,但所有的神经元最终将识别同样的事情 C.神经网络模型不会进行训练,因为没有净梯度变化 D.这些均不会发生 答案:(B) 38 开始时有一个停滞期,这是因为神经网络在进入全局最小值之前陷入局部最小值。 为了避免这种情况,下面的哪个策略有效? A.增加参数的数量,因为网络不会卡在局部最小值处 B.在开始时把学习率降低10倍,然后使用梯度下降加速算子(momentum) C.抖动学习速率,即改变几个时期的学习速率 D.以上均不是 答案:(C) 选项C可以将陷于局部最小值的神经网络提取出来。 39 对于图像识别问题(比如识别照片中的猫),神经网络模型结构更适合解决哪类问题? A.多层感知器 B.卷积神经网络 C.循环神经网络 D.感知器 答案:(B) 卷积神经网络将更好地适用于图像相关问题,因为考虑到图像附近位置变化的固有性质。 40 假设在训练时,你遇到这个问题。在几次迭代后,错误突然增加。 您确定数据一定有问题。您将数据描绘出来,找到了原始数据有点偏离,这可能是导致出现问题的地方。 你将如何应对这个挑战? A.归一化 B.应用PCA然后归一化 C.对数据进行对数变换 D.以上这些都不符合 答案:(B) 首先您将相关的数据去掉,然后将其置零。 41 以下哪项是神经网络的决策边界? A) B B) A C) D D) C E) 以上所有 答案:(E) 神经网络被称为通用函数拟合器(universal function approximator),所以它理论上可以表示任何决策边界。 42 在下面的图中,我们观察到错误有许多“起伏”,我们该为此而担心吗? A.是,因为这意味着神经网络的学习速率有问题。 B.否,只要训练和验证错误累积减少,我们就不必担心。 答案:(B) 选项B是正确的,为了减少这些“起伏”,可以尝试增加批尺寸(batch size) 43 什么是影响神经网络的深度选择的因素? 1.神经网络的类型,例如:多层感知机(Multi-Layer Perceptrons, MLP),卷积神经网络(Convolutional Neural Networks, CNN) 2.输入数据 3.计算能力,即硬件和软件能力 4.学习率 5.输出函数映射 A. 1, 2, 4, 5 B. 2, 3, 4, 5 C. 1, 3, 4, 5 D. 以上均是 答案:(D) 所有上述因素对于选择神经网络模型的深度都是重要的。 44 (责任编辑:本港台直播) |