一、单选题
1、对于某卷积层,关于卷积核大小的描述(假设通道数固定)正确的是哪个?
A.卷积核越小,更新参数的计算量越少,但更容易得到局部的特征。
B.卷积核越大,其取得的特征越全面,得到的特征图越大。
C.卷积核越大,越容易提取细节特征
D.卷积核只能选择3、5、7等奇数值。
正确答案:A
2、下面有关神经网络梯度消失说法错误的是()
​A.当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠近输入层的权重难以更新。
B.网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。
C.网络梯度消失可能导致有些权重难以更新,导致网路训练失败。
D.网络梯度消失可以通过减少隐层神经元的个数减弱。
正确答案:D
3、假设卷积神经网络某隐层的特征图大小是19*19*8,其中8是通道数,使用大小为3*312个卷积核,步长为2,没有padding对此隐层进行操作,得到的特征图大小是?
A.8*8*8
B.8*8*12
C.9*9*12
D.14*14*8
正确答案:C
4、卷积神经网络隐层神经元的数量与下面哪些因素无关?
A.输入图像大小
B.卷积核大小
C.步长
D.激活函数
正确答案:D
5、以下哪个有关卷积神经网络的说法是错误的?
A.输入一个300*300的彩图,经过10个5*5的卷积核,隐层的参数量是260(含偏置)
B.使用激活函数Relu的收敛速度比Sigmoid要快一些
C.隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线性多元函数。
D.在网络规模相同的情况下,增加网络深度比增加宽度能带来更强的网络特征获取能力
正确答案:A
6、以下哪个关于卷积神经网络的说法是错误的?
A.卷积神经网络训练时值学习每层神经元的阈值
B.AlexNet是一个8层的卷积神经网络
C.目标检测网络Yolo网络结构中包含卷积层
D.典型的卷积神经网络是由卷积层、池化层和全连接层等组成
正确答案:A
7、下列对于生成式对抗网络的叙述,哪个是错误的?
A.训练可能不稳定
B.可以产生清晰且真实的样本
C.仅由一个生成网络与一个判别网络组成
D.属于无监督学习
正确答案:C
8、假设卷积神经网络某卷积层的输入和输出特征图大小分别为63*63*1633*33*64,卷积核大小是3*3,步长为2,那么Padding值为多少?
A.0
B.3
C.2
D.1
正确答案:C
9、有关一般卷积神经网络的组成,下面哪种说法是正确的?
A.卷积神经网络的层次结构依次是由输入层、卷积层、池化层、激活层和全连接层组成
B.正则化是最小化策略的实现卷积神经网络的层次结构依次是由输入层、池化层、卷积层、激活层和全连接层组成
C.卷积神经网络的层次结构依次是由输入层、卷积层、激活层、池化层和全连接层组成
D.卷积神经网络的层次结构依次是由输入层、激活层、卷积层、池化层和全连接层组成
正确答案:C
10、有关卷积神经网络的说法哪个是正确的?
A.在卷积层后面使用池化操作,可以减少网络可以训练的参数量
B.1*1的卷积没有改变特征图的大小,因此没有获得新的特征
C.不同卷积层或同一卷积层只能用一种大小的卷积核
D.类似AlexNet网络使用的分组卷积可以增加卷积层的参数量,降低网络训练速度
正确答案:A
11、有关循环神经网络激活函数的说法,以下哪个是错误的?
A.ReLU可以减少循环神经网络的梯度消失问题
B.Sigmoid函数相对于Tanh函数来说更容易导致梯度消失
C.取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一堆小数在做乘法,容易导致网络梯度消失。
D.Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢
正确答案:D
12、在长短期记忆网络中,使用了两种激活函数,下面哪种说法是错误的?
A.两种激活函数的作用是不同的
B.两种激活函数共同确定有多少学习到的信息可以流转下去
C.两种激活函数互换会影响网络的性能和可解释性
D.两种激活函数的作用是相似的
正确答案:D
13、有关生成对抗网络的训练,哪个说法是正确的?

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。