机器学习_温州大学中国大学mooc课后章节答案期末考试题库2023年
1.GBDT由哪三个概念组成:( )

参考答案:
Regression Decision Tree(即 DT)_Gradient Boosting(即 GB)_Shrinkage(缩减)

2.对于非概率模型而言,可按照判别函数线性与否分成线性模型与非线性模型。下面哪些模型属于线性模型?

参考答案:
K-means_k近邻_感知机

3.逻辑回归分类的精度不够高,因此在业界很少用到这个算法


参考答案:
错误

4.SMOTE算法是用了上采样的方法。

参考答案:
正确
正则化是最小化策略的实现
5.支持向量是那些最接近决策平面的数据点

参考答案:
正确


6.100万条数据划分训练集、验证集、测试集,数据可以这样划分:98%,1%,1% 。

参考答案:
正确

7.K均值是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。

参考答案:
错误

8.朴素贝叶斯法的基本假设是条件独立性。

参考答案:
正确

9.PCA投影方向可从最大化方差和最小化投影误差这两个角度理解。

参考答案:
正确

10.相关变量的相关系数可以为零,对吗?

参考答案:
正确

11.Sigmoid函数的范围是(-1,1)

参考答案:
错误

12.影响KNN算法效果的主要因素包括( )。

参考答案:
决策规则_K的值_距离度量方式

13.逻辑回归的特征一定是离散的。

参考答案:
错误

14.闵可夫斯基距离中的p取1或2时的闵氏距离是最为常用的,以下哪项是正确的:( )。

参考答案:
闵可夫斯基空间不同于牛顿力学的平坦空间_p取1时是曼哈顿距离_p取2时是欧氏距离_p取无穷时是切比雪夫距离

15.KNN算法的缺点包括以下几点?( )

参考答案:
计算复杂性高;空间复杂性高,尤其是特征数非常多的时候_可解释性差,无法给出决策树那样的规则_对训练数据依赖度特别大,当样本不平衡的时候,对少数类的预测准确率低

16.两个向量的余弦相似度越接近1,说明两者越相似。

参考答案:
正确

17.k近邻法(k-Nearest Neighbor,kNN)是一种比较成熟也是最简单的机器学习算法,可以用于分类,但不能用于回归方法。

参考答案:
错误

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。