我是靠谱客的博主 羞涩楼房,这篇文章主要介绍《机器学习(周志华)》Chapter3 线性模型 课后习题答案3.3编程实现对率回归3.4 10折交叉验证和留一法对率回归的错误率3.5 编程实现线性判别,现在分享给大家,希望可以做个参考。

偏置项b在数值上代表了自变量取0时,因变量的取值;
1.当讨论变量x对结果y的影响,不用考虑b; 2.可以用变量归一化(max-min或z-score)来消除偏置。

这里提供大致思路,对一元函数而言,求二阶导,如果二阶导小于零则为凸函数,否则为非凸。
若对多元函数求二阶导,需要得到Hessian矩阵,然后根据Hessian的正定性判定函数的凸凹性,比如Hessian矩阵半正定,函数为凸函数;Hessian矩阵正定,严格凸函数
https://wenku.baidu.com/view/5bd89d3f5acfa1c7aa00ccd2.html

3.3编程实现对率回归

3.4 10折交叉验证和留一法对率回归的错误率

3.5 编程实现线性判别

给出两种思路:
- 参考书p57,采用广义线性模型,如 y-> ln(y)。
- 参考书p137,采用核方法将非线性特征空间隐式映射到线性空间,得到KLDA(核线性判别分析)。



参考书p66,对OvR、MvM来说,由于对每类进行了相同的处理,其拆解出的二分类任务中类别不平衡的影响会相互抵销,因此通常不需专门处理。
以OvR(一对其余)为例,由于其每次以一个类为正其余为反(参考书p63),共训练出N个分类器,在这一过程中,类别不平衡由O的遍历而抵消掉。

参考网址:
https://blog.csdn.net/snoopy_yuan/article/details/64921495
最后
以上就是羞涩楼房最近收集整理的关于《机器学习(周志华)》Chapter3 线性模型 课后习题答案3.3编程实现对率回归3.4 10折交叉验证和留一法对率回归的错误率3.5 编程实现线性判别的全部内容,更多相关《机器学习(周志华)》Chapter3内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复