机器学习智慧树知到课后章节答案2023年下同济大学
第一章测试
1.回归和分类都是有监督学习问题。( )
A:对 B:错 答案:对
2.输出变量为有限个离散变量的预测问题是回归问题;输出变量为连续变量的预测问题是分类问题。( )
A:错 B:对 答案:错正则化是结构风险最小化策略的实现
3.关于“回归(Regression)”和“相关(Correlation)”,下列说法正确的是?注意:x 是自变量,y 是因变量。( )
A:回归和相关在 x 和 y 之间都是互为对称的
B:回归在 x 和 y 之间是对称的,相关在 x 和 y 之间是非对称的
C:回归和相关在 x 和 y 之间都是非对称的
D:回归在 x 和 y 之间是非对称的,相关在 x 和 y 之间是互为对称的
答案:回归在 x 和 y 之间是非对称的,相关在 x 和 y 之间是互为对称的
4.如果一个经过训练的机器学习模型在测试集上达到 100% 的准确率,这就意味着该模型将在另外一个新的测试集上也能得到 100% 的准确率。( )
A:错 B:对 答案:错
5.机器学习学得的模型适用于新样本的能力,称为"泛化"能力,这是针对分类和回归等监督学习任务而言的,与聚类这样的无监督学习任务无关。( )
A:错 B:对 答案:错
6.机器学习时,我们通常假设样本空间中的全体样本都服从某个未知"分布",并且我们获得的每个样本都是独立地从这个分布上采样获得的。( )
A:对 B:错 答案:对
7.从归纳偏好一般性原则的角度看,"奥卡姆剃刀" (Occam's razor)准则与“大道至简”说的是
相同的道理。( )
A:错 B:对 答案:对
8.以下方法或系统属于"符号主义" (symbolism)学习技术的是( )
A:"概念学习系统"
B:支持向量机
C:"结构学习系统"
D:"基于逻辑的归纳学习系统“
答案:"概念学习系统"
;"结构学习系统"
;"基于逻辑的归纳学习系统“
9.以下方法或技术属于统计学习范畴的是( )
A:核方法
B:Hopfield神经网络
C:支持向量机
D:感知机
答案:核方法
;支持向量机
10.归纳学习相当于"从样例中学习",即从训练样例中归纳出学习结果。( )
A:错 B:对 答案:对
第二章测试
11.回归问题和分类问题都有可能发生过拟合。( )
A:对 B:错 答案:对
12.对于k折交叉验证, 以下对k的说法正确的是 ( )
A:在选择k时, 要最小化数据集之间的方差
B:k越大, 不一定越好, 选择大的k会加大评估时间
C:k越大越好
D:选择更大的k, 就会有更小的bias (因为训练集更加接近总数据集)
答案:在选择k时, 要最小化数据集之间的方差
;k越大, 不一定越好, 选择大的k会加大评估时间
;选择更大的k, 就会有更小的bias (因为训练集更加接近总数据集)
13.小明参加Kaggle某项大数据竞赛,他的成绩在大赛排行榜上原本居于前20,后来他保持特征不变,对原来的模型做了1天的调参,将自己的模型在自己本地测试集上的准确率提升了3%,然后他信心满满地将新模型的预测结果更新到了大赛上,结果懊恼地发现自己的新模型在大赛官方的测试集上准确率反而下降了。对此,他的朋友们展开了讨论,下列说法正确的是( )
A:小明这个有可能是由于过拟合导致的
B:从机器学习理论的角度,这样的情况不应该发生,应该去大赛组委会反应
C:小明可以考虑一下,使用交叉验证来验证一下是否发生了过拟合
D:小明应该乖乖使用默认的参数就行了,调参是不可能有收益的
答案:小明这个有可能是由于过拟合导致的
;小明可以考虑一下,使用交叉验证来验证一下是否发生了过拟合
14.下列哪种方法可以用来减小过拟合?( )
A:L1 正则化
B:更多的训练数据
C:L2 正则化
D:减小模型的复杂度
答案:L1 正则化
;更多的训练数据
;L2 正则化
;减小模型的复杂度
15.下列关于 bootstrap 说法正确的是?( )
A:从总的 N 个样本中,有放回地抽取 n 个样本(n < N)
B:从总的 N 个样本中,无放回地抽取 n 个样本(n < N)
C:从总的 M 个特征中,有放回地抽取 m 个特征(m < M)
D:从总的 M 个特征中,无放回地抽取 m 个特征(m < M)
答案:从总的 N 个样本中,有放回地抽取 n 个样本(n < N)

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。