人工智能机器学习技术练习(习题卷10)
第1部分:单项选择题,共62题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]典型的分类算法是()
A)决策树
B)k-means
C)BIRCH
答案:A
解析:
2.[单选题]随机森林算法用于回归时,单棵树的分裂原则是()
A)基尼指数
B)方差
C)信息增益率
答案:B
解析:
3.[单选题]下面哪项操作能实现跟神经网络中Dropout的类似效果
A)Boosting
B)Bagging
C)Stacking
D)Mapping
答案:B
解析:Dropout可以认为是一种极端的Bagging,每一个模型都在单独的数据上训练,同时,通过和其他模型对应参数的共享,从而实现模型参数的高度正则化。
4.[单选题]已知表emp存在字段name1,以下语句能够正常运行的是哪一个:
A)alter table emp rename to emp1
B)alter table emp rename emp to emp1
C)alter table emp change column name1 to name2
D)alter table emp change name name12
答案:A
解析:
5.[单选题]机器学习从不同的角度,有不同的分类方式,以下哪项不属于按系统学习能力分类的类别______。
A)监督学习
B)无监督学习
C)弱监督学习
D)函数学习
答案:D
解析:
6.[单选题]关于引入模块的方式,错误的是()。
A)import math
B)from fib import Fibonacci
C)from math import *
D)from * import fib
答案:D
解析:
7.[单选题]以下哪个步骤不是机器学习所需的预处理工作( )。
A)数值属性的标准化
B)变量相关性分析
C)异常值分析
D)与用户讨论分析需求
答案:D
解析:
8.[单选题]假定你使用了一个很大γ值的RBF核,这意味着:
A)模型将考虑使用远离超平面的点建模
B)模型仅使用接近超平面的点来建模
C)模型不会被点到超平面的距离所影响
D)以上都不正确
答案:B
解析:SVM调参中的γ衡量距离超平面远近的点的影响。
对于较小的γ,模型受到严格约束,会考虑训练集中的所有点,而没有真正获取到数据的模式、对于较大的γ,模型能很好地学习到模型。
9.[单选题]在一个n维的空间中, 最好的检测outlier(离点)的方法是:
A)作正态分布概率图
B)作盒形图
C)马氏距离
D)作散点图
答案:C
解析:马氏距离是基于卡方分布的,度量多元outlier离点的统计方法。
10.[单选题]某单位运用随机森林算法思想建立抢修热点模型。该模型主要预测下期台区工单数量,构建抢修热点。模型构建步骤如下:①将历史数据进行随机自助法重抽样,生成N个训练样本集;②将N个训练
样本集分别做决策树,生成N棵决策树;③将N棵决策树随机构成随机森林;④未来根据预测样本气候环境、设备属性、设备工况进行随机森林决策投票,得出针对该预测样本最优的决策树进行运算,并计算出最终结果。模型算法构建步骤合理的顺序是()。
A)①②③④
B)①③②④
C)④①②③
D)④②①③
答案:A
解析:
11.[单选题]有如下两组数据 {(-1,0),(-1,2),(1,2)}
{(0,0),(1,0),(1,1)}
我们在该数据集上训练一个线性SVM模型,该模型中的支持向量是哪些?
A)(1,2),(1,1),(1,0)
B)(1,0),(1,2),(1,1),(1,0)
C)(1,0),(1,2),(0,0),(1,1)
D)(1,0),(-1,2),(0,0),(1,0)
答案:C
解析:
12.[单选题]传統的机器学习方法包括监督学习、无监督学习和半监督学习,其中监督学习是学习给定标签的数据集。请
问标签为离散的类型,称为分类,标签为连续的类型,称为什么()
A)给定标签
B)离散
C)分类
D)回归
答案:D
解析:
13.[单选题](__)在以决策树为基学习器构建Bagging集成的基础上,进一步在决策树的训练过程中引入了随机属性选择。
A)Boosting
B)AdaBoost
C)RF
D)Bagging
答案:C
解析:
14.[单选题]假负率是指()。
A)正样本预测结果数/正样本实际数
B)被预测为负的正样本结果数/正样本实际数
C)被预测为正的负样本结果数/负样本实际数
D)负样本预测结果数/负样本实际数
答案:B
解析:
15.[单选题](__)是一系列为达到某既定目标所需完成的实践,包括对应的工具、方法、资源和人。
A)关键过程
B)平台与架构
C)数据治理
D)数据管理策略
答案:A
解析:
16.[单选题]SVM(支持向量机)为什么会使用替代损失函数(如hinge损失,指数损失等)?
A)替代损失函数可以扩大SVM的应用场景
B)0/1损失函数非凸、不连续
C)替代损失函数可以减少过拟合
D)其余选项皆错
答案:B
解析:直接使用0/1损失函数的话其非凸、非连续,数学性质不好优化起来比较复杂,因此需要使用其他的数学性能较好的函数进行替换,替代损失函数一般有较好的数学性质。常用的三种替代函数:1、hinge损失;2、指数损失;3、对率损失。
17.[单选题]下列关于F1值的计算正确的是(__)。
A)F1值 = 正确率 * 召回率 * / (正确率 + 召回率)
B)F1值 = 正确率 * 召回率 * 2 / (正确率 + 召回率)
C)F1值 = 正确率 * 2 / (正确率 + 召回率)
D)F1值 = 召回率 * 2 / (正确率 + 召回率)
答案:B
解析:
18.[单选题]点击率问题是这样一个预测问题,99%的人是不会点击的,而1%的人是会点击进去的,所以这是一个非常不平
衡的数据集。假设,现在我们已经建了一个模型来分类,而且有了99%的预测准确率,我们可以下的结论是()。
A)模型预测准确率已经很高了,我们不需要做什么了
B)模型预测准确率不高,我们需要做点什么改进模型
C)无法下结论
D)以上答案都不正确
答案:C
解析:类别不均衡的情况下,不能用准确率做分类评估指标,因为全判断为不会点,准确率也是99%,此时分类器一点用都没有。
19.[单选题]大数据的4V特性不包括
A)Volume(大量)
B)Velocity(高速)
C)Visual(可视)
D)Variety(多样)
答案:C
解析:
20.[单选题]假如使用一个较复杂的回归模型来拟合样本数据,使用 Ridge 回归,调试正则化参数 λ,来降低模型复杂度。若 λ 较小时,关于偏差(bias)和方差(variance),下列说法正确的是?
A)若 λ 较小时,偏差减小,方差减小
B)若 λ 较小时,偏差减小,方差增大
C)若 λ 较小时,偏差增大,方差减小
D)若 λ 较小时,偏差增大,方差增大
答案:B
正则化的回归分析解析:
21.[单选题]某公司有这么一个规定:只要有一个员工过生日,当天所有员工全部放假一天。但在其余时候,所有员工都没有假期,必须正常上班。假设一年有365天,每个员工的生日都概率均等地分布在这365天里。那么,这个公司需要雇用多少员工,才能让公司一年内所有员工的总工作时间期望值最大?
A)1
B)122
C)183
D)365
答案:D
解析:
22.[单选题]关于Pandas数据读写的说法中,下列描述错误的是()。
A)read_csv()能够读取所有文本数据
B)read_sql()可以读取数据库中的数据
C)to_csv()能够将结构化数据写入到csv文件中
D)to_excel()能够将结构化数据写入到excel文件中
答案:A
解析:
23.[单选题]以下对Volume相关描述不正确的是( )。
A)Volume是指数据量大
B)就目前而言,当数据量达到拍字节以上时,一般称为大数据
C)大数据时间分布是均匀的
D)数据量大是相对计算与存储能力而定的
答案:C
解析:
24.[单选题]信息熵是度量样本集合__最常用的一种指标。
A)精确度
B)准确率
C)召回率
D)纯度
答案:D
解析:
25.[单选题]精确推断的实质是一类()规划算法,它利用图模型所描述的条件独立性来削减计算目标概率值所需的计算量。
A)静态
B)动态
C)伪静态
D)一阶
答案:B
解析:
26.[单选题]代码select substr('abcdef',2,3)的结果是哪一个:
A)bc
B)bcd
C)cde
D)其他结果都不对
答案:B
解析:
27.[单选题]Zookeeper-Stat结构体中numChildren是()
A)znode数据变化号
B)znode访问控制列表的变化号
C)znode子节点数量
D)znode的数据长度
答案:C
解析:
28.[单选题]一元线性回归方程y=0.7+0.82x,判定系数等于0.64,则x与y的相关系数为()。
A)0.82
B)0.64
C)0.8
D)0.7
答案:C
解析:一元回归分析中,自变量和因变量的相关系数的平方等于回归模型的判定系数。所以,相关系数=sqrt(0.64)=0.8。
29.[单选题]下列说法错误的是()。
A)当目标函数是凸函数时,梯度下降算法的解一般就是全局最优解
B)进行PCA降维时,需要计算协方差矩
C)沿负梯度的方向一定是最优的方向
D)利用拉格朗日函数能解带约束的优化问题
答案:C
解析:沿负梯度的方向是函数值减少最快的方向但不一定就是最优方向。
30.[单选题]关于决策树结点划分指标描述正确的是

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。