人工智能机器学习技术练习(习题卷7)
第1部分:单项选择题,共62题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]SVM中要寻和计算的MMH是指()
A)最大边缘超平面
B)超平面
C)最小边缘超平面
答案:A
解析:
2.[单选题]对于神经网络的说法, 下面正确的是 :
A)增加神经网络层数, 可能会增加测试数据集的分类错误率
B)减少神经网络层数, 总是能减小测试数据集的分类错误率
C)增加神经网络层数, 总是能减小训练数据集的分类错误率
答案:A
解析:深度神经网络的成功, 已经证明, 增加神经网络层数, 可以增加模型范化能力, 即, 训练数据集和测试数据集都表现得更好. 但是, 在这篇文献中, 作者提到, 更多的层数, 也不一定能保证有更好的表现. 所以, 不能绝对地说层数多的好坏, 只能选A
3.[单选题]数据预处理对机器学习是很重要的,下面说法正确的是( )。
A)数据预处理的效果直接决定了机器学习的结果质量
B)数据噪声对神经网络的训练没什么影响
C)对于有问题的数据都直接删除即可
D)预处理不需要花费大量的时间
答案:A
解析:
4.[单选题]()是表现数据分布对称性的指标。
A)斜率
B)偏斜度
C)偏度
D)偏离度
答案:B
解析:偏斜度是对统计数据分布偏斜方向及程度的度量。在偏态分布中,当偏斜度为正值时,分布正偏,即众数位于算术平均数的左侧;当偏斜度为负值时,分布负偏,即众数位于算术平均数的右侧。
5.[单选题]以下机器学习中,在数据预处理时,不需要考虑归一化处理的是( )
A)逻辑回归
B)支持向量机
C)树形模型
D)神经网络
答案:C
解析:
6.[单选题]关于Logistic回归和Softmax回归,以下说法正确是:
A)Logistic回归和Softmax回归都只能处理二元分类问题
C)Logistic回归和Softmax回归都可以处理多元分类问题
D)Softmax回归可以处理多元分类问题,Logistic回归只能处理二元分类问题
答案:D
解析:
7.[单选题]用户有一种感兴趣的模式并且希望在数据集中到相似的模式,属于数据挖掘哪一类任务?
A)根据内容检索
B)建模描述
C)预测建模
D)寻模式和规则正则化其实是破坏最优化
答案:A
解析:
8.[单选题]以下几种模型方法属于判别式模型的有
1)混合高斯模型
2)条件随机场模型
3)区分度训练
4)隐马尔科夫模型
A)1,4
B)3,4
C)2,3
D)1,2
答案:C
解析:
9.[单选题]已知,有如下一个二维数组:
Arr2d = np.array([[1, 2, 3],[4, 5, 6],[7, 8, 9]])
如果希望获取元素5,则可以使用( )实现。
A)arr2d[1, 1]
B)arr2d[1]
C)arr2d[2]
D)arr2d[1, 0]
答案:A
解析:
10.[单选题]学习方式划分,机器学习通常分为 ()三类、
A)监督学习、非监督学习、聚类
B)监督学习、非监督学习、神经网络
C)监督学与、非监督学与、强化学习
D)监督学习、非监督学习、有教师学习
答案:C
解析:
11.[单选题]交叉验证的目的是(__)。
A)提高分类准确率
B)得到更稳定的模型
C)验证结果的准确性
D)增大分类的误差
答案:B
解析:
12.[单选题]下面关于奇异值分解(SVD)的描述中错误的是 ( )。
A)奇异值分解就是把一个线性变换分解成两个线性变换
B)奇异值往往对应着矩阵中隐含的重要信息,且重要性和奇异值大小正相关
C)SVD是对PCA的改进,其计算成本更低,相同之处是两者的目标都是为了降维
D)奇异值不仅可以应用在数据压缩上,还可以对图像去噪
答案:A
解析:
13.[单选题]()情况下,LDA会失败。
A)如果有辨识性的信息不是平均值,而是数据的方差
B)如果有辨识性的信息是平均值,而不是数据方差
C)如果有辨识性的信息是数据的均值和方差
D)以上答案都不正确
答案:A
解析:LDA的思想是投影后类内方差最小、类间方差最大。
14.[单选题]假设属性income的最大最小值分别是12000元和98000元。利用最大最小规范化的方法将属性的值映射到0至1的范围内。对属性income的73600元将被转化为:
A)0.821
B)1.224
C)1.458
D)0.716
答案:D
解析:
15.[单选题]与卷积神经网络相比,循环神经网络可以学习( )。
A)细节信息
B)文章长度
C)单词之间的长距离依赖关系
D)歧义
答案:C
解析:
16.[单选题]从句子中删除“and”、“is”、“a”、“an”、“the” 这样的词的过程被称为?
A)词干提取(Stemming)
B)词形还原(Lemmatization)
C)停用词(Stop Words)
D)以上所有
答案:C
解析:
17.[单选题]SVM中的代价参数表示:
A)交叉验证的次数
B)使用的核
C)误分类与模型复杂性之间的平衡
D)以上均不是
答案:C
解析:代价参数决定着SVM能够在多大程度上适配训练数据。
如果你想要一个平稳的决策平面,代价会比较低;如果你要将更多的数据正确分类,代价会比较高。可以简单的理解为误分类的代价。
18.[单选题]将闵可夫斯基距离和(__)结合即可处理混合属性。
A)Value Difference Mectric
B)k-means
C)k近邻
D)SVM
答案:A
解析:
19.[单选题]假如我们使用Lasso回归来拟合数据集,该数据集输入特征有100个(X1,X2,…,X100)。现在,我们把其中一个特征值扩大10倍(如特征X1),然后用相同的正则化参数对 Lasso 回归进行修正。那么,下列说法正确的是()。
A)特征X1很可能被排除在模型之外
B)特征X1很可能还包含在模型之中
C)无法确定特征X1是否被舍
D)以上答案都不正确
答案:B
解析:将特征X1数值扩大10倍,它对应的回归系数将相应会减小,但不为0,仍然满足β的正则化约束,因此可能还包含在模型之中。
20.[单选题]接受者操作特征曲线简称(__)。
A)双曲线
B)ROC曲线
C)科克曲线
D)共轭曲线
答案:B
解析:
21.[单选题]一批产品共8件,其中正品6件,次品2件。现不放回地从中取产品两次,每次一件,求第二次取得正品的概率
A)1/4
B)1/2
C)3/4
D)1
答案:C
解析:
22.[单选题]朴素贝叶斯是一种典型的基于概率的机器学习方法,它利用了
A)先验概率
B)后验概率
C)以上都是
D)以上都不是
答案:C
解析:
23.[单选题]OpenCV使用()语言实现。
A)Java
B)C/C++
C)Python
D)JavaScript
答案:B
解析:
24.[单选题]下列哪一项在神经网络中引入了非线性?
A)随机梯度下降
B)修正线性单元(ReLU)
C)卷积函数
D)以上都不正确
答案:B
解析:
25.[单选题]计算 Numpy中元素个数的方法是()。
A)np.sqrt()
B)np.size()
C)np.identity()
D)np.nid()
答案:B
解析:
26.[单选题]选择哪一个解作为输出,将由学习算法的归纳偏好决定,常见的做法是引人( )。
A)线性回归
B)线性判别分析
C)正则化项
D)偏置项
答案:C
解析:
27.[单选题]划分聚类算法是一种简单的较为基本的重要聚类方法。它的主要思想是通过将数据点集分为()个划分,并使用重复的控制策略使某个准则最优化,以达到最终的结果
A)D
B)K
C)E
D)F
答案:B
解析:划分聚类算法K-Means 将数据点集分为K个子集。
28.[单选题]下列不属于无监督学习方法的是()
A)K-means
B)线性降维
C)DBSCAN
D)支持向量机
答案:D
解析:
29.[单选题]在大数据集上训练决策树,为了使用较少时间,我们可以()
A)增加树的深度
B)增加学习率
C)减少树的深度
D)减少树的数量
答案:C
解析:
30.[单选题]计算机初始状态能识别(__)上的基本信息。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。