我是靠谱客的博主 追寻小海豚,最近开发中收集的这篇文章主要介绍第五单元 分类,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

第五单元 分类

  1. 通过代码“from sklearn import tree”引入决策树模块,并通过代码“clf = tree.DecisionTreeClassifier()”构造分类器对象后,训练时要调用的方法是( )。
    A.clf.fit()
    B.clf.predict()
    C.clf.train()
    D.clf.learn()

  2. 通过代码“from sklearn import tree”引入决策树模块,并通过代码“clf = tree.DecisionTreeClassifier()”构造分类器对象,在训练后做预测时要调用的方法是( )。
    A.clf.predict()
    B.clf.outlook()
    C.clf.forecast()
    D.clf.guess()

  3. 利用tree.DecisionTreeClassifier()训练模型时调用.fit()方法需要传递的第一个参数是( )。
    A.判断标准
    B.样本特征X
    C.样本标签Y
    D.设置结点的最小样本数量

  4. 在Scikit-learn模块下,不同分类模型在训练时,调用的方法名称( )。
    A.不知道
    B.视情况而定
    C.不同
    D.相同

5.在Scikit-learn模块下,不同分类模型在预测时,调用的方法名称( )。
A.相同
B.不知道
C.视情况而定
D.不同

  1. 以下哪种算法是分类算法( )。
    A.C4.5
    B.K-Mean
    C.EM
    D.DBSCAN

  2. 下列属于决策树中应该剪枝的情景是( )。
    A.一个结点关联的数据集的信息熵高于指定阈值
    B.一个结点关联的数据集的信息熵低于指定阈值
    C.双亲结点的误差比子女结点的加权误差大
    D.双亲结点的误差比子女结点的平均误差大

  3. 假设某分类器在一个测试数据集上的分类结果的混淆矩阵如下所示,该分类器的准确率accuracy为( )。
    在这里插入图片描述
    A.70%
    B.66.7%
    C.75%
    D.80%

  4. 构造训练数据集和测试数据集的常用方法有( )。
    A.留一法(leave one out)
    B.自助抽样法 (bootstrap)
    C.保持法 (hold out)
    D.交叉验证法 (cross validation)

  5. Bayes法是一种在已知后验概率与类条件概率的情况下的模式分类方法,待分样本的分类结果取决于各类域中样本的全体。×

  6. 分类模型的误差大致分为两种:训练误差(training error)和泛化误差(generalization error)。√

  7. 在决策树中,随着树中结点数变得太大,即使模型的训练误差还在继续减低,但是检验误差开始增大,这是出现了模型拟合不足的问题。×

  8. 留一法是交叉验证法的特殊情况。√

  9. ID3 的分裂属性选择条件是选择信息增益最大的作为分裂属性。√

  10. k 近邻方法不需要事先学习分类模型,当需要预测的时候,根据预测样本的特性和已知训练数据集中的数据进行类别的判断。√
    16.决策树中根结点的层次为 1 。【请填写阿拉伯数字】
    17.分类算法针对某个测试数据集的有效性通常通过 混淆 矩阵来反映。

最后

以上就是追寻小海豚为你收集整理的第五单元 分类的全部内容,希望文章能够帮你解决第五单元 分类所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(39)

评论列表共有 0 条评论

立即
投稿
返回
顶部