我是靠谱客的博主 自信豆芽,最近开发中收集的这篇文章主要介绍西瓜书第三章线性模型(线性回归和对数几率回归),觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1.线性回归

问题定义:给定数据集 D = ( x 1 , y 1 ) , x 2 , y 2 , . . . . . . , ( x m , y m ) D={(x_1,y_1),x_2,y_2,......,(x_m,y_m)} D=(x1,y1),x2,y2,......,(xm,ym),其中, x i = ( x i 1 ; x i 2 ; . . . . . . ; x i d , y i ∈ ℜ x_i = (x_{i_1};x_{i_2};......;x_{i_d},y_i in Re xi=(xi1;xi2;......;xid,yi.“线性回归”(linear model)的目标即预测实值输出标记(该值为连续性数值)。


线性回归试图使 f ( x i ) = w x i + b f(x_i)=wx_i+b f(xi)=wxi+b,使得 f ( x i ) ≃ y i f(x_i) simeq y_i f(xi)yi
怎么确定 w , b w,b w,b呢?关键在于衡量 f ( x ) 与 y f(x)与y f(x)y之间的差异。西瓜书中用均方误差来度量 f ( x i ) f(x_i) f(xi) y y y之间的差异,基于均方误差最小化来进行模型求解的方法被称为“最小二乘法”,所以线性回归又被称为最小二乘回归。
( w ∗ , b ∗ ) (w^*,b^*) w,b)
= a r g m i n ( w , b ) ∑ i = 1 m ( f ( x i ) − y i ) 2 =argmin_{(w,b)} sum_{i=1}^m (f(x_i)-y_i)^2 =argmin(w,b)i=1m(f(xi)yi)2
= a r g m i n ( w , b ) ∑ i = 1 m ( y i − w x i − b ) 2 =argmin_{(w,b)} sum_{i=1}^m (y_i-wx_i-b)^2 =argmin(w,b)i=1m(yiwxib)2

2.对数几率回归

对数几率回归,虽然这个算法从名字上来看,是回归算法,但其实际上是一个分类算法。
问题定义:考虑二分类任务,其输出标记 y ∈ { 0 , 1 } y in {0,1} y{01},而 前面的线性回归模型产生的预测值 z = w T x + b z =w^Tx+b z=wTx+b是连续实值。


通过sigmoid函数 y = 1 1 + e − ( w T x + b ) y = frac{1}{1+e^{-(w^Tx+b)}} y=1+e(wTx+b)1就把线性回归表达式的实值输出结果压缩成了一个0-1之间的小数。但这样还是没有实现分类的效果,所以我们需要加一个“阈值“,若输出值大于这个阈值,那么就将其结果判断为1,反之判断为0,一般这个“阈值“都是0.5。
该sigmoid函数可变化为:
l n y 1 − y = w T x + b lnfrac{y}{1-y} = w^Tx+b ln1yy=wTx+b
若将y视为样本x作为正例的可能性,则1-y是其反例可能性,两者的比值称为几率,反映了x作为正例的相对可能性,取对数则得到对数几率
l n y 1 − y lnfrac{y}{1-y} ln1yy
那么如何确定w,b呢?
l n y 1 − y = w T x + b lnfrac{y}{1-y} = w^Tx+b ln1yy=wTx+b
l n p ( y = 1 ∣ x ) p ( y = 0 ∣ x ) = w T x + b lnfrac{p(y=1|x)}{p(y=0|x)}=w^Tx+b lnp(y=0x)p(y=1x)=wTx+b
显然有
p ( y = 1 ∣ x ) = e w T x + b 1 + e w T x + b p(y=1|x)=frac{e^{w^Tx+b}}{1+e^{w^Tx+b}} p(y=1x)=1+ewTx+bewTx+b
p ( y = 1 ∣ x ) = 1 1 + e w T x + b p(y=1|x)=frac{1}{1+e^{w^Tx+b}} p(y=1x)=1+ewTx+b1
可以通过极大似然估计法来估计 w , b w,b w,b.给定数据集 { ( x i , y i ) } i = 1 m {(x_i,y_i)}_{i=1}^m {(xi,yi)}i=1m,
似然函数 ψ ( w , b ) = ∑ i = 1 m l n p ( y i ∣ x i ; w , b ) psi(w,b) = sum_{i=1}^m lnp(y_i|x_i;w,b) ψ(w,b)=i=1mlnp(yixi;w,b)
即令每个样本属于其真实标记的概率越大越好。
为了方便,令 β = ( w ; b ) , x ^ = ( x ; 1 ) beta = (w;b),hat{x}=(x;1) β=(w;b),x^=(x;1),则 w T x + b w^Tx+b wTx+b可简写为 β T x ^ beta^That{x} βTx^,再令 p 1 ( x ^ ; β ) = p ( y = 1 ∣ x ^ ; β ) p_1(hat{x};beta)=p(y=1|hat{x};beta) p1(x^;β)=p(y=1x^;β), p 0 ( x ^ ; β ) = p ( y = 0 ∣ x ^ ; β ) = 1 − p 1 ( y = 1 ∣ x ^ ; β ) p_0(hat{x};beta)=p(y=0|hat{x};beta)=1-p_1(y=1|hat{x};beta) p0(x^;β)=p(y=0x^;β)=1p1(y=1x^;β),则上述似然函数中的似然项可写为:
p ( y i ∣ x i ; w , b ) = y i p 1 ( x i ^ ; β ) + ( 1 − y i ) p 0 ( x i ^ ; β ) p(y_i|x_i;w,b)=y_ip_1(hat{x_i};beta)+(1-y_i)p_0(hat{x_i};beta) p(yixi;w,b)=yip1(xi^;β)+(1yi)p0(xi^;β)
最后可得式子
ψ ( β ) = ∑ i = 1 m ( − y i β T x i ^ + l n ( 1 + e β T x i ^ ) ) psi(beta)=sum_{i=1}^m(-y_i beta^T hat{x_i}+ln(1+e^{beta^That{x_i}})) ψ(β)=i=1m(yiβTxi^+ln(1+eβTxi^))
最小化该式即可得到 β beta β

最后

以上就是自信豆芽为你收集整理的西瓜书第三章线性模型(线性回归和对数几率回归)的全部内容,希望文章能够帮你解决西瓜书第三章线性模型(线性回归和对数几率回归)所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(51)

评论列表共有 0 条评论

立即
投稿
返回
顶部