第一章测试
1.样本是连续型数据且有标签,我们采用( )进行机器学习。
A:嵌入算法
B:聚类算法
C:分类算法
D:回归算法
答案:D
2.在机器学习中,样本常被分成( )。
A:训练集
B:其它选项都有
C:测试集
D:评估集
答案:B
3.机器学习算法需要显示编程,具备归纳、总结等自学习能力。( )
A:错
B:对
答案:A
4.机器学习和人工智能、深度学习是一个概念,都是指机器模仿人类推理、学习能力。( )
A:错
B:对
答案:A
5.特征工程非常重要,在采用机器学习算法前,首先需要利用特征工程确定样本属性。( )
A:错
B:对
答案:B
第二章测试
6.K近邻算法认为距离越近的相似度越高。( )
A:对
B:错
答案:A
7.K近邻算法中数据可以不做归一化,因为是否归一化对结果影响不大。( )
A:错
B:对
答案:A
8.K近邻算法中采用不同的距离公式对于结果没有影响。( )
A:错
B:对
答案:A
9.在上面图中,K=5,绿样本的类别是( )。
A:红三角形
B:蓝正方形
C:不能确定
D:绿圆形
答案:B
10.在K近邻算法中,K的选择是( ) ?
A:越大越好
B:与样本有关
C:其它都不正确
D:越小越好
答案:B
第三章测试
11.下列( )中两个变量之间的关系是线性的。
A:猫的皮毛颜和体重
B:人的工作环境和健康状况
C:重力和质量
D:女儿的身高和父亲的体重
答案:C
12.下列说法不正确的是( )。
A:线性回归模型也可以解决线性不可分的情况
B:回归用于预测输入变量和输出变量之间的关系
C:回归就是数据拟合
D:回归分析就是研究两个事物的相关性
答案:C
13.从某大学随机选择8名女大学生,其身高x(cm)和体重y(kg)的回归方程是 y=0.849x-85.712,则身高172cm的女大学生,预测体重为( )。
A:60.316kg
B:大于60.316kg
C:小于60.316kg
D:其它都不正确
答案:A
14.lasso中采用的是L2正则化。( )
A:错
B:对
答案:A
15.线性回归中加入正则化可以降低过拟合。( )
A:错
B:对
答案:B
第四章测试
16.以下说法正确的是( )。
A:logistic回归的样本属性是连续型数据
B:logistic回归和线性回归是相同的
C:logistic回归只能处理线性可分问题
D:logistic回归是回归模型
答案:A
17.logistic回归只能用于二分类问题。( )
A:对
B:错
答案:B
18.logistic回归中也可以用正则化方法来防止过拟合。( )
A:错
B:对
答案:B
19.考虑一个有两个属性的logistic回归问题。假设,则分类决策平面是( )。
A:
B:
C:
D:
答案:A
20.假设训练了一个logistic回归分类器,对于一个样本我们有,则该式说明( )。
A:
B:
C:
D:
答案:BD
第五章测试
21.以下关于梯度下降算法说法正确的是( )。
A:学习率的选取会影响梯度下降算法的求解速度
B:梯度下降算法是计算目标函数的最大值
C:计算预测值和真实值之间的误差
D:如果目标函数梯度不存在就无法用梯度下降算法
答案:A
22.随机梯度下降导致方向变化过大,不能很快收敛到最优解。( )
A:错
B:对
答案:B
23.小批量梯度下降是结合了批量梯度下降和随机梯度下降,性能比批量梯度下降和随机梯度下降都好。( )
A:错
B:对
答案:B
24.批量梯度下降是最原始的形式,它是指在每一次迭代时使用一部分样本的梯度来更新参数。( )
A:错
B:对
答案:A
25.随机梯度下降中每次迭代使用一个样本的梯度。( )
A:错
B:对
答案:B
第六章测试
26.决策树模型中建树的基本原则是( )。
A:信息增益大的属性应放在上层
B:应利用尽可能多的属性
C:取值多的属性应放在上层
D:取值少的属性应放在上层
答案:A
27.哪些情况下必须停止树的增长( )
A:当前数据子集为空
B:当前数据子集的标签一致
C:没有更多可用属性
D:当前训练误差已经较低
答案:ABCD
28.关于决策树剪枝操作正确的描述是( )。
A:可以有效降低训练误差
B:可以防止过拟合
C:用测试集来进行剪枝
D:后剪枝优于预剪枝
答案:B
29.决策树模型中如何处理连续型属性( )。
A:随机选择数据标签发生变化的位置进行离散化
B:利用固定阈值进行离散化
C:直接忽略
D:根据信息增益选择阈值进行离散化
答案:D
30.下面哪个可能是决策树的决策边界( )。
A:
B:
C:
D:
答案:D
第七章测试
31.下面对集成学习模型中的弱学习器描述错误的是?( )
A:弱学习器可以通过集成变成强学习器
B:弱学习器通常带有高偏差,所以其并不能解决复杂学习问题
C:弱学习器通常会过拟合
D:弱学习器经常不会过拟合
答案:C
32.给定数据集及弱分类器如上图,回答问题:初始样本的权重为( )。
A:0.1
B:1
C:0.5
D:其它都不对
答案:A
33.给定数据集及弱分类器如上图,回答问题:第一次迭代选择的分类器是(  )。
A:
B:任何一个都可以
C:
D:
答案:AD
34.给定数据集及弱分类器如上图,回答问题:经过一次迭代,第一个弱学习器的权重为( )。
A:其它都不对
B:0.6496
C:0.3
D:0.4236
答案:D
35.给定数据集及弱分类器如上图,回答问题:经过一次迭代,错误分类的样本权重更新为( )。
正则化是为了防止A:
B:其它都不对
C:
D:
答案:C
第八章测试
36.下列选项中,对于硬间隔支持向量机,超平面应该是( )。
A:
B:
C:
D:
答案:C
37.下列选项中,对于软间隔支持向量机,超平面应该是( )。
A:
B:
C:
D:
答案:C
38.现有一个能被正确分类且远离超平面的样本,如果将其删除,不会影响超平面的选择。( )
A:错
B:对
答案:B
39.上图中,长方形框中的样本松弛变量的值为( )。
A:等于1
B:大于1
C:等于0
D:大于0,小于1
答案:B
40.上图中哪个超平面泛化能力更强( )。
A:B
B:其它都不对
C:A、B一样
D:A
答案:D
第九章测试
41.训练样本如下,其中和 是特征,取值的集合为A1={1,2,3}和 A2={S,M,L}, C 是类标记,
取值为{-1,1},回答如下问题:采用朴素贝叶斯算法,样本属于  1 的概率为:( )
A:无法确定
B:6.67%
C:1.48%
D:10%
答案:C
42.训练样本如上,其中和是特征,取值的集合为A1={1,2,3}和 A2={S,M,L}, C是类标记,取值为{-1,1},回答如下问题:采用朴素贝叶斯算法,确定的分类为:( )
A:无法确定
B:1或者-1都可以
C:-1
D:1
答案:C

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。