概述
1
如果使用数据集的全部特征并且能够达到100%的准确率,但在测试集上仅能达到70%左右,这说明():
A、以上都不对
B、模型很棒
C、欠拟合
D、过拟合
正确答案: D
2
假定你在神经网络中的隐藏层中使用激活函数X,在特定神经元给定任意输入,你会得到输出[-0.0001],X可能是一下哪一个?
A、tanh
B、其他都不是
C、sigmoid
D、ReLU
正确答案: A
3
在简单线性回归模型中(单自变量),如果改变输入变量1单元,输出变量会变化多少?
A、截距值
B、无变化
C、斜率值
D、1单元
正确答案: C
4
下面关于集成学习算法中错误的是()?
A、
随机森林和Bagging都属于并行式集成学习方法
B、
Boosting族算法属于序列化集成学习的代表
C、
Boosting族算法属于并行式集成学习方法
D、
Boosting族算法中最著名的代表是AdaBoost
正确答案: C
5
在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果知道了神经元准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的权重和偏移呢?
A、
随机赋值,听天由命
B、
赋予一个初始值,然后检查跟最佳值的差值,不断迭代调整权重
C、
搜索每个可能的权重和偏差组合,直到得到最佳值
D、
以上都不正确的
正确答案: B
6
SVM的效率依赖于()?
A、以上所有
B、核参数
C、软间隔参数
D、核函数的选择
正确答案: A
7
sigmoid函数的导数是()?
A、1-f(x)
B、f(x)(1−f(x))
C、f(x)(1+f(x))
D、1+f(x)
正确答案: B:
8
在逻辑回归输出与目标对比的情况下,以下评估指标中哪一项不适用?
A、均方误差
B、Logloss
C、AUC-ROC
D、准确度
正确答案: A
9
为了观察测试 Y 与 X 之间的线性关系,X 是连续变量,使用下列哪种图形比较适合?
A、柱形图
B、以上都不对
C、散点图
D、直方图
正确答案: C
10
下面哪一项对梯度下降(GD)和随机梯度下降(SGD)的描述是正确的?
1 在 GD 和 SGD 中,每一次迭代中都是更新一组参数以最小化损失函数。
2 在 SGD 中,每一次迭代都需要遍历训练集中的所有样本以更新一次参数。
3 在 GD 中,每一次迭代需要使用整个训练集的数据更新一个参数。
A、只有 1
B、只有 2
C、都正确
D、只有 3
正确答案: A
二、多选题 (题数:6,共 30.0 分)
1
下列关于查准率和查全率的说法中,正确的是()?
A、
如果一个学习器的P-R曲线被另一个学习器的曲线完全包住,则后者性能一定优于前者
B、
以查准率为纵轴,查全率为横轴,得到P-R曲线
C、
查准率和查全率是一对矛盾的度量,二者通常不可兼得
D、
若两个学习器的P-R曲线发生交叉,则无法断言(非要比较的话可以比较P-R曲线下的面积,面积大的更好)
正确答案: ABCD
2
多分类学习的分类器一般有以下哪几种策略?
A、一对一
B、多对多
C、一对其余
D、多对一
正确答案: ABC
3
目前的集成学习方法大致分为以下哪两大类()?
A、并行化方法:个体学习器间不存在强依赖关系,可分别生成.
B、并行化方法:个体学习器间不存在强依赖关系,可同时生成.
C、序列化方法:个体学习器间存在强依赖关系,必须串行生成
D、序列化方法:个体学习器间存在强依赖关系,必须并行生成
正确答案: BC
4
期望泛化误差是下列哪几项之和()?
A、方差
B、残差
C、噪声
D、偏差
正确答案: ACD
5
在神经网络参数寻优过程中,为了跳出局部最小的状况,我们有哪些策略()?
A、以多组不同参数值初始化多个神经网络
B、使用模拟退火技术
C、遗传算法
D、使用随机梯度下降法
正确答案: ABCD
6
假如我们利用 Y 是 X 的 3 阶多项式产生一些数据(3 阶多项式能很好地拟合数据)。那么,下列说法正确的是()?
A、简单的线性回归容易造成低偏差(bias)、高方差(variance)
B、3 阶多项式拟合具备低偏差(bias)、低方差(variance)
C、简单的线性回归容易造成高偏差(bias)、低方差(variance)
D、3 阶多项式拟合会造成低偏差(bias)、高方差(variance)
正确答案: BC
最后
以上就是自然大山为你收集整理的2021-05-22的全部内容,希望文章能够帮你解决2021-05-22所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复