概述
第五单元 分类
-
通过代码“from sklearn import tree”引入决策树模块,并通过代码“clf = tree.DecisionTreeClassifier()”构造分类器对象后,训练时要调用的方法是( )。
A.clf.fit()
B.clf.predict()
C.clf.train()
D.clf.learn() -
通过代码“from sklearn import tree”引入决策树模块,并通过代码“clf = tree.DecisionTreeClassifier()”构造分类器对象,在训练后做预测时要调用的方法是( )。
A.clf.predict()
B.clf.outlook()
C.clf.forecast()
D.clf.guess() -
利用tree.DecisionTreeClassifier()训练模型时调用.fit()方法需要传递的第一个参数是( )。
A.判断标准
B.样本特征X
C.样本标签Y
D.设置结点的最小样本数量 -
在Scikit-learn模块下,不同分类模型在训练时,调用的方法名称( )。
A.不知道
B.视情况而定
C.不同
D.相同
5.在Scikit-learn模块下,不同分类模型在预测时,调用的方法名称( )。
A.相同
B.不知道
C.视情况而定
D.不同
-
以下哪种算法是分类算法( )。
A.C4.5
B.K-Mean
C.EM
D.DBSCAN -
下列属于决策树中应该剪枝的情景是( )。
A.一个结点关联的数据集的信息熵高于指定阈值
B.一个结点关联的数据集的信息熵低于指定阈值
C.双亲结点的误差比子女结点的加权误差大
D.双亲结点的误差比子女结点的平均误差大 -
假设某分类器在一个测试数据集上的分类结果的混淆矩阵如下所示,该分类器的准确率accuracy为( )。
A.70%
B.66.7%
C.75%
D.80% -
构造训练数据集和测试数据集的常用方法有( )。
A.留一法(leave one out)
B.自助抽样法 (bootstrap)
C.保持法 (hold out)
D.交叉验证法 (cross validation) -
Bayes法是一种在已知后验概率与类条件概率的情况下的模式分类方法,待分样本的分类结果取决于各类域中样本的全体。×
-
分类模型的误差大致分为两种:训练误差(training error)和泛化误差(generalization error)。√
-
在决策树中,随着树中结点数变得太大,即使模型的训练误差还在继续减低,但是检验误差开始增大,这是出现了模型拟合不足的问题。×
-
留一法是交叉验证法的特殊情况。√
-
ID3 的分裂属性选择条件是选择信息增益最大的作为分裂属性。√
-
k 近邻方法不需要事先学习分类模型,当需要预测的时候,根据预测样本的特性和已知训练数据集中的数据进行类别的判断。√
16.决策树中根结点的层次为 1 。【请填写阿拉伯数字】
17.分类算法针对某个测试数据集的有效性通常通过 混淆 矩阵来反映。
最后
以上就是追寻小海豚为你收集整理的第五单元 分类的全部内容,希望文章能够帮你解决第五单元 分类所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复