概述
黄海广老师《机器学习》-机器学习期末考试
得分:100分(欢迎讨论评论)
1.单选(2分)
一监狱人脸识别准入系统用来识别待进入人员的身份,此系统一共包括识别4种不同的人员:狱警,小偷,送餐员,其他。下面哪种学习方法最适合此种应用需求:
A.K-means聚类问题
B.回归问题
C.二分类问题
√ D.多分类问题
2.单选(2分)
以下哪种技术对于减少数据集的维度会更好?
√ A.删除缺少值太多的列
B.删除数据差异较大的列
C.删除不同数据趋势的列
D.都不是
3.单选(2分)
将原始数据进行集成、变换、维度规约、数值规约是在以下哪个步骤的任务?
A.频繁模式挖掘
B.分类和预测
√ C.数据预处理
D.数据流挖掘
4.单选(2分)
下列不是SVM核函数的是( )
A.多项式核函数
√ B.逻辑核函数
C.径向基核函数
D.线性核函数
5.单选(2分)
数据科学家可能会同时使用多个算法(模型)进行预测, 并且最后把这些算法的结果集成起来进行最后的预测(集成学习),以下对集成学习说法正确的是
A.单个模型之间有高相关性
√ B.单个模型之间有低相关性
C.在集成学习中使用“平均权重”而不是“投票”会比较好
D. 单个模型都是用的一个算法
6.单选(2分)
在以下不同的场景中,使用的分析方法不正确的有
A.根据商家最近一年的经营及服务数据,用聚类算法判断出天猫商家在各自主营类目下所属的商家层级
√ B.根据商家近几年的成交数据,用聚类算法拟合出用户未来一个月可能的消费金额公式
C.用关联规则算法分析出购买了汽车坐垫的买家,是否适合推荐汽车脚垫
D.根据用户最近购买的商品信息,用决策树算法识别出淘宝买家可能是男还是女
7.单选(2分)
bootstrap 数据的含义是
A.有放回的从整体M中抽样m个特征
B.无放回的从整体M中抽样m个特征
√ C.有放回的从整体N中抽样n个样本
D.无放回的从整体N中抽样n个样本
8.单选(2分)
在逻辑回归中,如果同时加入L1和L2范数,不会产生什么效果
A.以做特征选择,并在一定程度上防止过拟合
B.能解决维度灾难问题
C.能加快计算速度
√ D.可以获得更准确的结果
9.单选(2分)
对于在原空间中线性不可分问题,支持向量机()。
A.在原空间中寻找非线性函数的划分数据
B.无法处理
C.在原空间中寻找线性函数划分数据
√ D.将数据映射到核空间中
10.单选(2分)
回归问题和分类问题的区别是?
A.回归问题有标签,分类问题没有
B.回归问题输出值是离散的,分类问题输出值是连续的
√ C.回归问题输出值是连续的,分类问题输出值是离散的
D.回归问题与分类问题在输入属性值上要求不同
11.单选(2分)
以下关于降维的说法不正确的是?
A.降维是将训练样本从高维空间转换到低维空间
√ B.降维不会对数据产生损伤
C.通过降维可以更有效地发掘有意义的数据结构
D.降维将有助于实现数据可视化
12.单选(2分)
向量x=[1,2,3,4,-9,0]的L1范数是多少?
A.1
√ B.19
C.6
D.sqrt(111)
13.单选(2分)
假设X和Y都服从正态分布,那么P(X<5,Y<0)就是一个( ),表示X<5,Y<0两个条件同时成立的概率,即两个事件共同发生的概率。
A.先验概率
B.后验概率
√ C.联合概率
D.以上说法都不对
14.单选(2分)
假设会开车的本科生比例是15%,会开车的研究生比例是23%。若在某大学研究生占学生比例是20%,则会开车的学生是研究生的概率是多少?
√ A.27.7%
B.16.6%
C.23%
D. 15%
15.单选(2分)
假设有100张照片,其中,猫的照片有60张,狗的照片是40张。
识别结果:TP=40,FN=20,FP=10,TN=30,则可以得到:( )。
A.Accuracy=0.8
√ B.Precision=0.8
C.Recall=0.8
D.以上都不对
16.单选(2分)
以下关于训练集、验证集和测试集说法不正确的是( )。
A.测试集是纯粹是用于测试模型泛化能力
√ B.训练集是用来训练以及评估模型性能
C.验证集用于调整模型参数
D.以上说法都不对
17.单选(2分)
下列哪种方法可以用来缓解过拟合的产生:( )。
A.增加更多的特征
√ B.正则化
C.增加模型的复杂度
D.以上都是
18.单选(2分)
假设有 6 个二维数据点:D={(2,3),(5,7),(9,6),(4,5),(6,4),(7,2)},第一次切分时候,切分线为( )。
A.x=5
√ B.x=6
C.y=5
D.y=6
19.单选(2分)
两个向量的长度分别为1和2,两者之间的夹角为60度,则以下选项错误的是( )。
A.余弦相似度为0.5
B.余弦相似度为正
√ C.余弦相似度没法计算,因为没给出具体坐标值
D.余弦相似度的值与向量的长度无关,只和向量之间的夹角有关
20.单选(2分)
LightGBM与XGBoost相比,主要的优势不包括( )
A.更快的训练速度
B.更低的内存消耗
C.更好的准确率
√ D.采用二阶泰勒展开加快收敛
21.单选(2分)
关于BP算法优缺点的说法错误的是 ( )。
√ A.BP算法不能用于处理非线性分类问题
B.BP算法训练时间较长
C.BP算法容易陷入局部最小值
D.BP算法训练时候可能由于权值调整过大使得激活函数达到饱和
22.单选(2分)
神经网络算法有时会出现过拟合的情况,那么采取以下哪些方法解决过拟合更为可行()。
A.为参数选取多组初始值,分别训练,再选取一组作为最优值
B.增大学习的步长
C.减少训练数据集中数据的数量
√ D.设置一个正则项减小模型的复杂度
23.单选(2分)
SVM算法的最小时间复杂度是O(n^2)。基于这一点,以下哪种规格的数据集并不适用于该算法?( )
√ A.大数据集
B.小数据集
C.中数据集
D.不受数据集大小的影响
24.单选(2分)
一个正例(2,3),一个负例(0,-1),下面哪个是SVM超平面?( )
A.2x+y-4=0
B.2y+x-5=0
√ C.x+2y-3=0
D.无法计算
25.单选(2分)
下列关于Kmeans聚类算法的说法错误的是( )。
A.对大数据集有较高的效率并且具有可伸缩性
B.是一种无监督学习方法
C.K值无法自动获取,初始聚类中心随机选择
√ D.初始聚类中心的选择对聚类结果影响不大
26.单选(2分)
简单地将数据对象集划分成不重叠的子集,使得每个数据对象恰在一个子集中,这种聚类类型称作( )。
A.层次聚类
√ B.划分聚类
C.非互斥聚类
D.密度聚类
27.单选(2分)
以下关于PCA说法正确的是 ( )。
A.PCA是一种监督学习算法
B.PCA在转换后的第一个新坐标轴选择的是原始数据中方差最小的方向
√ C.PCA转换后选择的第一个方向是最主要特征
D.PCA不需要对数据进行归一化处理
28.单选(2分)
关于Apriori和FP-growth算法说法正确的是( )。
A.Apriori比FP-growth操作更麻烦
B.FP-growth算法需要对项目进行配对,因此处理速度慢
C.FP-growth只需要一次遍历数据,扫描效率高
√ D.FP-growth算法在数据库较大时,不适宜共享内存
29.单选(2分)
某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题?( )
√ A.关联规则发现
B.聚类
C.分类
D.自然语言处理
30.单选(2分)
置信度(confidence)是衡量兴趣度度量( )的指标。
A.简洁性
√ B.确定性
C.实用性
D.新颖性
31.多选(2分)
下面哪些是分类算法?
√ A.根据肿瘤的体积、患者的年龄来判断良性或恶性?
√ B.根据用户的年龄、职业、存款数量来判断信用卡是否会违约?
√ C.身高1.85m,体重100kg的男人穿什么尺码的T恤?
D.根据房屋大小、卫生间数量等特征预估房价
32.多选(2分)
以下哪些是使用数据规范化(特征缩放)的原因?
A.它通过降低梯度下降的每次迭代的计算成本来加速梯度下降
√ B.它通过减少迭代次数来获得一个好的解,从而加快了梯度下降的速度
√ C.它不能防止梯度下降陷入局部最优
D.它防止矩阵XTX不可逆(奇异/退化)
33.多选(2分)
影响KNN算法效果的主要因素包括( )。
√ A.K的值
√ B.距离度量方式
√ C.决策规则
D.最邻近数据的距离
34.多选(2分)
支持向量机有哪些常用的核函数( )。
√ A.高斯核
B.拉普拉斯核
√ C.线性核
√ D.多项式核
35.多选(2分)
以下关于支持向量机的说法正确的是 ( )。
A.SVM适用于大规模数据集
B.SVM分类思想就是将分类面之间的间隔最小化
√ C.SVM方法简单,鲁棒性较好
√ D.SVM分类面取决于支持向量
36.多选(2分)
关于BP算法优点说法正确的是( )。
√ A.BP算法能够自适应学习
√ B.BP算法有很强的非线性映射能力
√ C.BP算法反向传播采用链式法则,推导过程严谨
D.BP算法泛化能力不强
37.多选(2分)
下面关于支持向量机的描述正确的是( )。
√ A.是一种监督学习的方法
√ B.可用于多分类的问题
√ C.支持非线性的核函数
D.是一种生成模型
38.多选(2分)
下面属于降维常用的技术的有: ( )。
√ A.主成分分析
B.特征提取
√ C.奇异值分解
D.离散化
39.多选(2分)
PCA算法获取的超平面应具有哪些性质 ( )。
√ A.最近重构性
B.信息增益最大性
√ C.最大可分性
D.局部极小性
40.多选(2分)
关于关联规则,正确的是:( )。
√ A.关联规则挖掘的算法主要有: Apriori和FP-Growth
√ B.一个项集满足最小支持度,我们称之为频繁项集
C.啤酒与尿布的故事是聚类分析的典型实例
√ D.支持度是衡量关联规则重要性的一个指标
41.判断(1分)
支持向量是那些最接近决策平面的数据点
√ A.正确
B.错误
42.判断(1分)
相关变量的相关系数可以为零,对吗?
√ A.正确
B.错误
43.判断(1分)
PCA会选取信息量最少的方向进行投影。
A.正确
√ B.错误
44.判断(1分)
大部分的机器学习工程中,数据搜集、数据清洗、特征工程这三个步骤绝大部分时间,而数据建模,占总时间比较少。
√ A.正确
B.错误
45.判断(1分)
随机梯度下降,每次迭代时候,使用一个样本。
√ A.正确
B.错误
46.判断(1分)
朴素贝叶斯法的基本假设是条件独立性。
√ A.正确
B.错误
47.判断(1分)
SMOTE算法是用了上采样的方法。
√ A.正确
B.错误
48.判断(1分)
L2 正则化得到的解更加稀疏。
A.正确
√ B.错误
49.判断(1分)
ID3 算法只能用于处理离散分布的特征。
√ A.正确
B.错误
50.判断(1分)
集成学习的数据不需要归一化或者标准化。
√ A.正确
B.错误
51.判断(1分)
BP算法“喜新厌旧”,在学习新样本后,会把旧样本逐渐遗忘。
√ A.正确
B.错误
52.判断(1分)
逻辑回归分类的精度不够高,因此在业界很少用到这个算法
A.正确
√ B.错误
53.判断(1分)
SMOTE算法是用了上采样的方法。
√ A.正确
B.错误
54.判断(1分)
100万条数据划分训练集、验证集、测试集,数据可以这样划分:98%,1%,1% 。
√ A.正确
B.错误
55.判断(1分)
K均值是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。
A.正确
√ B.错误
56.判断(1分)
朴素贝叶斯法的基本假设是条件独立性。
√ A.正确
B.错误
57.判断(1分)
特征空间越大,过拟合的可能性越大。
√ A.正确
B.错误
58.判断(1分)
两个向量的余弦相似度越接近1,说明两者越相似。
√ A.正确
B.错误
59.判断(1分)
K均值是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。
A.正确
B.错误
60.判断(1分)
ID3 算法的核心思想就是以信息增益来度量特征选择,选择信息增益最大的特征进行分裂。
√ A.正确
B.错误
最后
以上就是笑点低哑铃为你收集整理的机器学习期末考试满分试卷答案的全部内容,希望文章能够帮你解决机器学习期末考试满分试卷答案所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复