一、单选题
1、以下关于感知器算法与支持向量机算法说法有误的是
A. 由于支持向量机是基于所有训练数据寻最大化间隔的超平面,而感知器算法却是相对随意的一个分开两类的超平面,因此大多数时候,支持向量机画出的分类面往往比感知器算法好一些。
B.支持向量机是把所有训练数据都输入进计算机,让计算机解全局优化问题
C.感知器算法相比于支持向量机算法消耗的计算资源和内存资源更少 ,但是耗费的计算资源更多
正则化可以防止过拟合D. 以上选项都正确
正确答案:C
2、假设你在训练一个线性回归模型,有下面两句话:
如果数据量较少,容易发生过拟合。
如果假设空间较小,容易发生过拟合。
关于这两句话,下列说法正确的是?
A.1正确,2错误
B.1和2都错误
C.1和2都正确
D.1错误,2正确
正确答案:A
3、下面哪一项不是比较好的学习率衰减方法?t表示为epoch数。
A.
B.
C.
D.
正确答案:D
4、你正在构建一个识别足球(y = 1)与篮球(y = 0)的二元分类器。 你会使用哪一种激活函数用于输出层?
A.ReLU
B. tanh
C.sigmoid
D. Leaky ReLU
正确答案:C
5、假设你建立一个神经网络。 你决定将权重和偏差初始化为零。 以下哪项陈述是正确的?
A.第一个隐藏层中的每个神经元将在第一次迭代中执行相同的计算。 但经过一次梯度下降迭代后,他们将会计算出不同的结果。
B.第一个隐藏层中的每个神经元节点将执行相同的计算。 所以即使经过多次梯度下降迭代后,层中的每个神经元节点都会计算出与其他神经元节点相同的结果。
C.第一个隐藏层中的每一个神经元都会计算出相同的结果,但是不同层的神经元会计算不同的结果。
D.即使在第一次迭代中,第一个隐藏层的神经元也会执行不同的计算, 他们的参数将以各自方式进行更新。
正确答案:B
6、某个神经网络中所有隐藏层神经元使用tanh激活函数。那么如果使用np.random.randn()* 1000将权重初始化为相对较大的值。 会发生什么?
A.这不会对训练产生影响。只要随机初始化权重,梯度下降不受权重大小的影响。
B.这会导致tanh的输入也非常大,从而使梯度也变大。因此,你必须将学习率α设置得非常小以防止发散。这会减慢网络参数学习速度。
C.这会导致tanh的输入也非常大,从而使梯度接近于零, 优化算法将因此变得缓慢。
D.这会导致tanh的输入也非常大,导致神经元被“高度激活”,从而加快了学习速度。
正确答案:C
7、以下关于权重衰减说法正确的是?
A.权重衰减通过赋予神经元某个权值从而避免梯度消失
B.当数据集中有噪声时,权重衰减可以在训练中逐渐修正神经网络的权重
C.权重衰减是一种正则化技术, 通过惩罚绝对值较大的模型参数为需要学习的模型增加了限制
D.权重衰减是在训练过程中逐渐减少学习率
正确答案:C
8、当你增加正则化超参数时会发生什么?
A.翻倍后会导致权重也翻倍
B.使权重变得更小(趋近0)
C.每次迭代的梯度下降走的步长更长
D.使权重变得更大(远离0)
正确答案:B
9、对训练数据归一化的根本原因是?
A.归一化也可以说是一种正则化处理,可以提升模型泛化能力
B.让模型更快的收敛
C.加快参数初始化过程
D.更容易对数据进行可视化
正确答案:B
10、如果你训练的模型代价函数J随着迭代次数的增加,绘制出来的图如下,那么
A.无论你在使用mini-batch还是批量梯度下降,看上去都是合理的
B.如果你正在使用mini-batch梯度下降,那可能有问题;而如果你在使用批量梯度下降,那是合理的
C.如果你正在使用mini-batch梯度下降,那看上去是合理的;而如果你在使用批量梯度下降,那可能有问题
D.无论你在使用mini-batch还是批量梯度下降,都可能有问题
正确答案:C
11、下图中的曲线是由:梯度下降,动量梯度下降()和动量梯度下降()。哪条曲线对应哪种算法?
A.(1)是梯度下降;(2)是动量梯度下降();(3)是动量梯度下降(
B.(1)是动量梯度下降();(2)是动量梯度下降();(3)是梯度下降
C. (1)是动量梯度下降();(2) 是梯度下降; (3) 是动量梯度下降(
D.都有可能
正确答案:B
12、关于Adam算法,下列哪一个陈述是错误的?
A.Adam中的学习率超参数通常需要调整
B.Adam优化算法常用于批量梯度下降法中,而不是用于随机(小批量)梯度下降法
C.我们经常使用超参数的默认值
D.Adam结合了Rmsprop和动量的优点
正确答案:B
13、标准化公式什么要使用
A.防止太小
B.为了避免除零操作
C.为了更准确地标准化
D.为了加速收敛
正确答案:B
14、在训练了具有批标准化的神经网络之后,在用新样本评估神经网络性能时,应该
A.跳过用值标准化的步骤,因为一个样本不需要标准化
B.使用在训练期间,通过指数加权平均值得出的执行所需的标准化
C.如果你在batch size为256的mini-batch上实现了批标准化,那么如果你要在一个测试样本
上进行评估,你应该将这个例子重复256次,这样你就可以使用和训练时大小相同的mini-batch进行预测。
D.使用最后一个的mini-batch的值来执行所需的标准化
正确答案:B
15、以下关于ReLU函数说法错误的是:
A.ReLU 函数的输出是非零中心化的, 给后一层的神经网络引入偏置偏移,会影响梯度下降的效率
B.ReLU 神经元在训练时比较容易“死亡”. 在训练时, 如果参数在一次不恰当的更新后, 第一个隐藏层中的某个 ReLU 神经元在所有的训练数据上都不能被激活, 那么这个神经元自身参数的梯度永远都会是0, 在以后的训练过程中永远不能被激活.
C. Leaky ReLU 在输入时,保持一个很小的梯度,这样当神经元非激活时也能有一个非零的梯度可以更新参数,这在一定程度上缓解了梯度消失问题

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。