我是靠谱客的博主 羞涩楼房,最近开发中收集的这篇文章主要介绍《机器学习(周志华)》Chapter3 线性模型 课后习题答案3.3编程实现对率回归3.4 10折交叉验证和留一法对率回归的错误率3.5 编程实现线性判别,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述


偏置项b在数值上代表了自变量取0时,因变量的取值;

1.当讨论变量x对结果y的影响,不用考虑b; 2.可以用变量归一化(max-min或z-score)来消除偏置。

这里提供大致思路,对一元函数而言,求二阶导,如果二阶导小于零则为凸函数,否则为非凸。

若对多元函数求二阶导,需要得到Hessian矩阵,然后根据Hessian的正定性判定函数的凸凹性,比如Hessian矩阵半正定,函数为凸函数;Hessian矩阵正定,严格凸函数

https://wenku.baidu.com/view/5bd89d3f5acfa1c7aa00ccd2.html


3.3编程实现对率回归



3.4 10折交叉验证和留一法对率回归的错误率



3.5 编程实现线性判别



给出两种思路:

  • 参考书p57,采用广义线性模型,如 y-> ln(y)。
  • 参考书p137,采用核方法将非线性特征空间隐式映射到线性空间,得到KLDA(核线性判别分析)。




参考书p66,对OvR、MvM来说,由于对每类进行了相同的处理,其拆解出的二分类任务中类别不平衡的影响会相互抵销,因此通常不需专门处理。

OvR(一对其余)为例,由于其每次以一个类为正其余为反(参考书p63),共训练出N个分类器,在这一过程中,类别不平衡由O的遍历而抵消掉。




参考网址:

https://blog.csdn.net/snoopy_yuan/article/details/64921495

最后

以上就是羞涩楼房为你收集整理的《机器学习(周志华)》Chapter3 线性模型 课后习题答案3.3编程实现对率回归3.4 10折交叉验证和留一法对率回归的错误率3.5 编程实现线性判别的全部内容,希望文章能够帮你解决《机器学习(周志华)》Chapter3 线性模型 课后习题答案3.3编程实现对率回归3.4 10折交叉验证和留一法对率回归的错误率3.5 编程实现线性判别所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(39)

评论列表共有 0 条评论

立即
投稿
返回
顶部