我是靠谱客的博主 高高胡萝卜,这篇文章主要介绍算法刷题(7),现在分享给大家,希望可以做个参考。

题目一:假定你使用SVM学习数据X,数据X里面有些点存在错误。现在如果你使用一个二次核函数,多项式阶数为2,使用惩罚因子C作为超参之一。 当你使用较大的C(C趋于无穷),则:

A

复制代码
1
仍然能正确分类数据

B

复制代码
1
不能正确分类

C

复制代码
1
不确定

D

复制代码
1
以上均不正确

解析:正确答案是:A,采用更大的C,误分类点的惩罚就更大,因此决策边界将尽可能完美地分类数据。参考

 

题目二:假设你训练了一个基于线性核的SVM,多项式阶数为2,在训练集和测试集上准确率都为100%。 如果增加模型复杂度或核函数的多项式阶数,将会发生什么?

A

复制代码
1
导致过拟合

B

复制代码
1
导致欠拟合

C

复制代码
1
无影响,因为模型已达100%准确率

D

复制代码
1
以上均不正确

解析:

正确答案是:A,增加模型复杂度会导致过拟合

 

最后

以上就是高高胡萝卜最近收集整理的关于算法刷题(7)的全部内容,更多相关算法刷题(7)内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(65)

评论列表共有 0 条评论

立即
投稿
返回
顶部