我是靠谱客的博主 腼腆手套,最近开发中收集的这篇文章主要介绍【读书笔记】周志华 机器学习 第三章 线性模型1 基本形式2 线性回归3 对数几率回归4 多分类学习5 类别不平衡问题6 参考文献,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

第三章 线性模型

  • 1 基本形式
  • 2 线性回归
  • 3 对数几率回归
  • 4 多分类学习
    • 4.1 OvO和OvR
    • 4.2 MvM和ECOC
  • 5 类别不平衡问题
  • 6 参考文献

1 基本形式

f ( x ) = w 1 x 1 + w 2 x 2 + . . . + w d x d + b = w T x + b f({boldsymbol x}) = w_1x_1 + w_2x_2 + ... + w_dx_d + b = {boldsymbol w}^T{boldsymbol x} + b f(x)=w1x1+w2x2+...+wdxd+b=wTx+b
线性模式有很好的解释性,直观的表达了各个特征的重要性。

2 线性回归

通过最小化均方误差来求解参数 w {boldsymbol w} w b b b
y y y变形可以求解非线性模型,如 l n y = w T x + b lny = {boldsymbol w}^T{boldsymbol x} + b lny=wTx+b

3 对数几率回归

对于分类问题,最好将输出 y y y约束在0-1之间,可以使用sigmoid函数进行约束: y = 1 1 + e ( − w T x + b ) y = frac{1}{1 + e^(-{boldsymbol w}^T{boldsymbol x} + b)} y=1+e(wTx+b)1,此时可认为输出y是输入数据x为正例的概率。通过极大似然估计求解参数。

4 多分类学习

4.1 OvO和OvR

OvO即一对一。每次选择两类数据训练出一个分类器,对N个类别则可以训练出N(N-1)/2个分类器。N(N-1)/2个分类器对新数据进行分类会得到N(N-1)/2个结果,根据多数票决原则决定新数据的类别。
OvR即一对其余。每次选择一类数据作为正例,剩下的N-1类数据作为负例,训练出一个分类器。N个类别可以训练出N个分类器。N个分类器对新数据进行分类会得到N个结果,看哪一个分类器的分类结果为正
示意图

4.2 MvM和ECOC

MvM是多对多。一种常用的MvM技术是纠错输出码ECOC。每次选择若干类数据作为正例,若干其他类作为反例,训练分类器并进行编码。以上图OvR为例,现在训练得到四个分类器, C 3 C_3 C3类的编码为0010,新数据经过这四个分类器之后的编码若为0100,则是第二类;若为0010,则为第三类;若为0110,则检测出某个分类器是错的。

5 类别不平衡问题

类别不平衡问题指的是当样本中正例负例的数量相差较多时,分类器在训练时会更加看重数量多的那一类。这显然是不公平的,不能说因为他们人多就看重他们,我们人少就看轻我们,大家都是平等的。
当类别不平衡时,可以通过对数量多对类别欠采样,减少其数量;可以通过对数量少的类别进行过采样,增加其数量;还可以通过阈值转移,让训练好的不公平的分类器恢复公平。

6 参考文献

周志华 机器学习 清华大学出版社
谢文睿、秦州 机器学习公式详解 人民邮电出版社
部分图片源自网络,如有侵权联系删除

最后

以上就是腼腆手套为你收集整理的【读书笔记】周志华 机器学习 第三章 线性模型1 基本形式2 线性回归3 对数几率回归4 多分类学习5 类别不平衡问题6 参考文献的全部内容,希望文章能够帮你解决【读书笔记】周志华 机器学习 第三章 线性模型1 基本形式2 线性回归3 对数几率回归4 多分类学习5 类别不平衡问题6 参考文献所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(60)

评论列表共有 0 条评论

立即
投稿
返回
顶部