清华大学《数据挖掘:理论和算法》期末
考试试题及参考答案
(2018年12月23日)
单选题 (1 满分)
关于学习率参数的设置,正确的描述是:
较大的值有助于提高算法的收敛
稳定性较小的值有助于提高算法的收敛速度
在开始阶段应该较大,然后逐渐减小
在开始阶段应该较小,然后逐渐增大
单选题 (1 满分)
在权重更新公式中引入冲量的主要目的是:
提高算法的收敛精度
提高算法的稳健性
提高算法的全局优化能力
有助于摆脱误差平缓区域
单选题 (1 满分)
假设样本数大于维数,利用PCA技术,可以把N维数据降到:
只能到1维
只能到N-1维
1到N-1维
取决于样本的类别数
单选题 (1 满分)
假设超平面为w*x+b=0,其margin的大小为:
1/|w|
2/|w|
|b|/|w|
2|b|/|W|
单选题 (1 满分)
在DBSCAN中,对数据点类型的划分中不包括:
中心点
核心点
边缘点
噪点
判断题 (1 满分)
因为关联规则描述的是事件之间的条件概率,因此可以用于推断因果关系。
正确
错误
单选题 (1 满分)
以下关于离点(Outlier)和异常点(Anomaly)关系的论述正确的是:
一回事,说法不同而已
离点一定是异常点
异常点一定是离点
不能简单判定
单选题 (1 满分)
适合可视化高维数据的方法是:
圆饼图
平行坐标
直方图
单选题 (1 满分)
根据Delta规则,在stochastic learning模式下,若神经元的实际输出大于期望输出,权重应:
顺势而为:增大
反其道而行之:减小
若相应输入大于零:减小
若相应输入小于零:减小
判断题 (1 满分)
关联规则X->Y的支持度等同于{X, Y}的支持度。
正确
错误
单选题 (1 满分)
在SVM领域中,margin的含义是:
马金
间隔
保证金
单选题 (1 满分)
关于Apriori算法说法不正确的是:
所有频繁项集的子集都是频繁的
所有不频繁项集的超集都是不频繁的
对频繁项集的搜索遵循bottom-up的原则最终的输出结果是长度最长的频繁项集单选题 (1 满分)
在层次型聚类中:
需要用户预先设定聚类的个数
需要用户预先设定聚类个数的范围
第一范式正则化不能产生稀疏解对于N个数据点,可生成1到N个簇
对于N个数据点,可生成1到N/2个簇单选题 (1 满分)

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。