人工智能机器学习技术练习(习题卷27)
第1部分:单项选择题,共58题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]下面哪些对「类型 1(Type-1)」和「类型 2(Type-2)」错误的描述是错误的?
A)类型 1 通常称之为假正类,类型 2 通常称之为假负类
B)类型 2 通常称之为假正类,类型 1 通常称之为假负类
C)类型 1 错误通常在其是正确的情况下拒绝假设而出现
答案:B
解析:在统计学假设测试中,I 类错误即错误地拒绝了正确的假设即假正类错误,II 类错误通常指错误地接受了错误的假设即假负类错误。
2.[单选题]聚类的结果是将数据分成了多个簇,()
A)每个簇有确切的含义
B)单个簇要再次进行统计分析
C)簇与簇之间差异巨大
答案:B
解析:
3.[单选题]以下哪种方法不属于特征选择的标准方法:
A)嵌入
B)过滤
C)包装
D)抽样
答案:D
解析:
4.[单选题]以下哪种方法不能防止过拟合?
A)交叉验证
B)低维嵌入
C)剪枝
D)集成学习
答案:B
解析:1、交叉检验,通过交叉检验得到较优的模型参数; 2、特征选择,减少特征数或使用较少的特征组合,对于按区间离散化的特征,增大划分的区间。 3、正则化,常用的有 L_1、L_2 正则。而且 L_1 正则还可以自动进行特征选择。 4、如果有正则项则可以考虑增大正则项参数 lambda. 5、增加训练数据可以有限的避免过拟合。 6、Bagging ,将多个弱学习器Bagging 一下效果会好很多,比如随机森林等。
5.[单选题]下列激活函数中,能够实现将特征限制到区间[-1,1]的是哪一个
A)Tanh
B)Logistic
C)ReLU
D)Sigmoid
答案:A
解析:
B)算法只要知道上一层神经元的阈值梯度,就能计算当前层神经元的阈值梯度和连接权值梯度
C)隐层的阈值梯度只跟本层的神经元输出值有关
D)隐层阈值梯度取决于隐层神经元输出、输出层阈值梯度和隐层与输出层的连接权值
答案:C
解析:
7.[单选题]RNN不同于其它神经网络的地方在于()。
A)实现了记忆功能
B)速度快
C)精度高
D)易于搭建
答案:A
解析:
8.[单选题]默认的存储级别 ()。
A)MEMORY_ONLY
B)MEMORY_ONLY_SER
C)MEMORY_AND_DISK
D)MEMORY_AND_DISK_SER
答案:A
解析:
9.[单选题](__)是根据数据采样来估计概率分布参数的经典方法。
A)贝叶斯判定准则
B)贝叶斯决策论
C)贝叶斯分类器
D)极大似然估计
答案:D
解析:
10.[单选题]一般来说,下列哪种方法常用来预测连续独立变量?
A)线性回归
B)逻辑回顾
正则化是结构风险最小化策略的实现
C)线性回归和逻辑回归都行
D)以上说法都不对
答案:A
解析:线性回归一般用于实数预测,逻辑回归一般用于分类问题。
11.[单选题]欠拟合通常是由于__而造成的。
A)权值学习迭代次数足够多
B)学习能力低下
C)训练集过多模型复杂
D)数据有噪声
答案:B
解析:
12.[单选题]关于维数灾难说法错误的是?
A)高维度数据可使得算法泛华能力变得越来越弱
解析:
13.[单选题]多分类图像识别任务常采用()作为输出的编码方式。
A)二进制编码
B)one-hot编码
C)霍夫曼编码
D)曼切斯特编码
答案:B
解析:
14.[单选题]下列有关核函数不正确的是:
A)可以采用cross-va1idalion方法选择最佳核函数
B)满足Mercer条件的函数不一定能作为支持向量机的核函数
C)极大地提高了学习机器的非线性处理能力
D)函数与非线性映射并不是一一对应的关系
答案:B
解析:
15.[单选题]在马尔科夫随机场中,(__)个变量之间的联合概率分布能基于团分解为多个因子的乘积。
A)2
B)3
C)4
D)多
答案:D
解析:
16.[单选题]如果对相同的数据进行逻辑回归,将花费更少的时间,并给出比较相似的精度(也可能不一样),怎么办? (假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,Logistic回归需要很长时间才能训练。)
A)降低学习率,减少迭代次数
B)降低学习率,增加迭代次数
C)提高学习率,增加迭代次数
D)增加学习率,减少迭代次数
答案:D
解析:如果在训练时减少迭代次数,就能花费更少的时间获得相同的精度,但需要增加学习率。
17.[单选题]有N个样本,一般用于训练,一般用于测试。若N增大,则训练误差和测试误差之间的差距会
( )。
A)增大
B)减小
C)无法确定
D)无明显变化
答案:B
解析:增加数据,能够有效减小过拟合,减小训练样本误差和测试样本误差之间的差距。
18.[单选题]若A为假命题, B为真命题,以下命题中假命题有( )
A)A
B)A ! B
C)A ! B
19.[单选题]多分类LDA将样本投影到N-1维空间,N-1通常远小于数据原有的属性数,可通过这个投影来减小样本点的维数,且投影过程中使用了类别信息,因此LDA 也常被视为一种经典的()技术。
A)无监督特征选择
B)无监督降维
C)监督特征选择
D)监督降维
答案:D
解析:
20.[单选题]RGB彩空间转到GRAY彩空间的方法为()
A)cv2.cvtColor()
B)cv2.CvtColor()
C)cv2.CVTColor()
D)cv2.cvtcolor()
答案:A
解析:
21.[单选题]一位母亲记录了儿子3~9岁的身高,由此建立的身高与年龄的回归直线方程为y=7.19x+73.93,据此可以预测这个孩子10岁时的身高,则正确的叙述是()
A)身高一定是145.83cm
B)身高超过146.00cm
C)身高低于145.00cm
D)身高在145.83cm左右
答案:D
解析:
22.[单选题]下列选项中,关于drop_duplicates()方法描述错误的是( )。
A)仅支持单一特征数据的去重
B)仅对Series和DataFrame对象有效
C)数据去重时默认保留第一个数据
D)该方法不会改变原始数据排列
答案:A
解析:
23.[单选题]下列关于分类器的说法中不正确的是()
A)SVM的目标是到使得训练数据尽可能分开且分类间隔最大的超平面,属于结构风险最小化
B)Naive Bayes是一种特殊的Bayes分类器,其一个假定是每个变量相互条件独立。
C)Xgboost是一种优秀的集成算法,其优点包括速度快、对异常值不敏感、支持自定义损失函数等等
D)随机森林中列采样的过程保证了随机性,所以就算不剪枝,也不容易出现过拟合。
答案:C
解析:
24.[单选题]从给定的特征集合中选择出相关特征子集的过程,称为
A)特征抽取
B)特征选择
C)特征降维
D)特征简化
25.[单选题]()可在保证训练精度的情况下降低模型的复杂度。
A)正则化系数无穷大
B)正则化系数几乎为0
C)选择合适的正则化参数
D)以上答案都不正确
答案:C
解析:选择合适的正则化参数可在保证训练精度的情况下降低模型的复杂度。
26.[单选题]在其它条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题( )
A)增加训练集数量
B)减少神经网络隐藏层节点数
C)删除稀疏的特征
D)SVM算法中使用高斯核/RBF核代替
答案:D
解析:机器学习中发生过拟合的主要原因有:
1 使用过于复杂的模型;
2 数据噪声较大;
3 训练数据少。
由此对应的降低过拟合的方法有:
1 简化模型假设,或者使用惩罚项限制模型复杂度;
2 进行数据清洗,减少噪声;
3 收集更多训练数据。
本题中,A对应于增加训练数据,B为简化模型假设,C为数据清洗。D选项中,高斯核的使用增加了模型复杂度,容易引起过拟合。选择合适的核函数以及软边缘参数C就是训练SVM的重要因素。一般来讲,核函数越复杂,模型越偏向于过拟合;C越大模型越偏向于过拟合,反之则拟合不足。
27.[单选题]关于BP算法信号前向传播的说法正确的是( )。
A)BP算法在计算正向传播输出值时需要考虑激活函数
B)BP算法信号前向传播的计算量跟输入层神经元数目无关
C)BP算法只有在隐层才有激活函数
D)BP算法信号传播的顺序是输出层、隐层、输入层。
答案:A
解析:
28.[单选题]多层感知机方法中,可用作神经元的非线性激活函数( )
A)logistic
B)范数
C)线性内积
D)加权求和
答案:A
解析:
29.[单选题]与科学可视化相比,(__)更关注抽象且应用层次的可视化问题。
A)信息可视化
B)可视化理论
C)可视分析学
D)数据可视化
答案:A

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。