人工智能深度学习技术练习(习题卷1)
第1部分:单项选择题,共50题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]Word2vec主要包含两个模型Skip-gram和()?
A)GRU
B)CCOW
C)CBOW
D)CBOM
答案:C
解析:
2.[单选题]正态分布特点是()。
A)一条直线
B)中间高两边低
C)中间低两边高
D)抛物线
答案:B
解析:难易程度:易题型:
3.[单选题]Max pooling是CNN当中的最大值池化操作,其实用法和卷积很类似,( )仍然是[batch, height, width, channels]这种形式
A)value
B)shape
C)strides
D)padding
答案:B
解析:
4.[单选题]连续特征数据离散化的处理方法不包括()。
A)等宽法
B)等频法
C)使用聚类算法
D)使用Apriori算法
答案:D
解析:难易程度:中题型:
5.[单选题]Tf.nn.dropout是TensorFlow里面为了防止或减轻过拟合而使用的函数,它一般用在( )
A)卷积层
B)全连接层
C)池化层
D)激活函数层
答案:B
解析:
6.[单选题]max(0,x)是那个激活函数的结果
A)relu
D)leaky-relu
答案:A
解析:
7.[单选题]Hinton和Bengio、Yann.lecun等提成了一个实际可行的( )框架
A)ML
B)deep learning
C)opencv
D)TF
答案:B
解析:
8.[单选题]下列哪一项在 神经网络中引入了非线性?( )
A)随机梯度下降
B)修正线性单元(ReLU)
C)卷积函数
D)以上都不正确
答案:B
解析:
9.[单选题]提出“人工智能”概念是在()年
A)1955
B)1956
C)1957
D)1958
答案:B
解析:
10.[单选题]CNN卷积神经网络,RNN循环神经网络,( )这三个网络都是TensorFlow中支持并常用的经典网络
A)RNN
B)XNN
C)BNN
D)LSTM长短记忆算法
答案:D
解析:
11.[单选题]在AlexNet 等典型的卷积神经网络中,随着网络的深度增加,通常有( )
A)每层的通道的高度和宽度减少,通道数增加。
B)每层的通道的高度和宽度增加,通道数增加。
C)每层的通道的高度和宽度减少,通道数减少。
D)每层的通道的高度和宽度增加,通道数减少。
答案:A
解析:
12.[单选题]程序语句cost = tf.reduce_mean(tf.square(hypothesis - Y))通常是什么算法使用?
A)线性回归
B)逻辑回归
C)SVM
D)CNN
13.[单选题]stant(2)stant(5)ater(a,B.程序语句执行结果
A)addOp=“FALSE”
B)addOp=“TRUE”
C)addOp=“00”
D)addOp=“1”
答案:A
解析:
14.[单选题]DataLoader中num_workers的作用是
A)批次大小
B)是否乱序
C)使用多进程读取数据,设置的进程数。
D)是否丢弃最后一个样本数量不足batch_size批次数据。
答案:C
解析:
15.[单选题]从sigmoid函数的图像中可以看到,如果x稍微大点的话,其值接近为1,则在进行反向传播算法的过程中对其求导的导数非常的接近0,因此会导致梯度为0的( )的现象
A)梯度消失
B)梯度上升
C)梯度下降
D)梯度发散
答案:A
解析:
16.[单选题]于Python的全局变量和局部变量,以下选项中描述错误的是()。
A)局部变量指在函数内部使用的变量,当函数退出时,变量依然存在,下次函数调用可以继续使用
B)全局变量指在函数之外定义的变量,-般没有缩进,在程序执行全过程有效
C)使用global保留字声明简单数据类型变量后,该变量作为全局变量使用
D)简单数据类型变量无论是否与全局变量重名,仅在函数内部创建和使用,函数退出后变量被释放
答案:A
解析:难易程度:易题型:
17.[单选题]()是一种深度学习中减少泛化误差的正则化方法,主要是通过缓解梯度下降加速网络的训练,防止过拟合,降低了参数初始化的要求。
A)L1正则化
B)Batch Normalization
C)L2正则化
D)DROPOUT
答案:B
解析:Batch Normalization是一种深度学习中减少泛化误差的正则化方法,主要是通过缓解梯度下降加速网络的训练,防止过拟合,降低了参数初始化的要求
18.[单选题]当权值过大,前面层比后面层梯度变化更快,会引起梯度爆炸问题,就是所谓的( )
A)梯度爆炸
B)卷积
C)池化
D)全连接
19.[单选题]彩图片的通道数为()
A)1
B)2
C)3
D)4
答案:C
解析:
20.[单选题]属于百度飞桨的开发套件()。
A)PaddleClas
B)Paddle
C)PaddleSlim
D)Paddle.js
答案:A
解析:难易程度:易题型:
21.[单选题]激活函数把 “ ( ) ” 保留并映射出来
A)半激活的神经元的特征
B)未激活的神经元的特征
C)激活的神经元的特征
D)无所谓状态的神经元的特征
答案:C
解析:
22.[单选题]下列命令中对二维数组进行索引的是()。
A)data[0,1]
B)data[1:3]
C)data[0:2,0]
D)data[1:]
答案:A
解析:难易程度:易题型:
23.[单选题]当在内存网络中获得某个内存空间时,通常选择读取矢量形式数据而不是标量,这里需要的哪种型的寻址来完成?
A)基于内容 的寻址
B)基于位置的寻址
C)都不行
D)都可以
答案:A
解析:
24.[单选题]删除DataFrame数据的方法不包括()。
A)drop
B)pop
C)del
D)remove
答案:D
解析:难易程度:中题型:
25.[单选题]对于正则化函数dropout描述正确的是
A)直接删除神经元
B)让神经元随机失活
C)dropout过拟合效果有限
D)只能使用在CNN网络中
答案:B
解析:
26.[单选题]解决回归问题的神经网路一般有()个输出。
A)1
B)2
C)根据具体生产环境确定
D)以上都不对
答案:A
解析:
27.[单选题]感知机中的异或门由那几个门构成()
A)与门和或门
B)与门和非门
C)与门、非门、或门
D)与门、与非门、或门
答案:D
解析:难易程度:易题型:
28.[单选题]Relu()激活函数的作用是将大于0的数保持不变,小于()的数输出为0
A)-1
B)0
C)1
D)x
正则化是为了防止答案:B
解析:
29.[单选题]Keras 优化器的公共参数 clipnorm 和 clipvalue 能在所有的优化器中使用,用于控制()
A)模型压缩
B)变量缩减
C)梯度裁剪
D)尺度变换
答案:C
解析:
30.[单选题]下面哪个命令是Linux下 “删除非空目录” 命令?
A)chmod u+x
B)rm -fr dir
C)passwd
D)cp -R dir
答案:B
解析:rm -fr dir:删除非空目录
31.[单选题]tensorflow2.0诞生的时间是:
A)2020.10.01
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论