我是靠谱客的博主 美满鸵鸟,最近开发中收集的这篇文章主要介绍回归系列(一) 线性回归问题回归学习(一):线性回归问题,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

回归学习(一):线性回归问题

0、本系列目的

有知识的输入,必然要进行输出,来对知识进行更近一步的理解。本系列作为自己对回归进行理论学习之后的输出部分,以此来加深自己对回归理论的理解。

1、什么是回归任务

抛开实际问题不看,现有 n n n 个自变量与函数值对 { ( X 1 , y 1 ) , ( X 2 , y 2 ) , . . . , ( X n , y n ) } { (X_1,y_1),(X_2,y_2) ,...,(X_n,y_n)} {(X1,y1),(X2,y2),...,(Xn,yn)}组成的样本。但是我们不知道函数 y = f ( X ) y=f(X) y=f(X)的表达式,所以我们可以根据样本对 f ( X ) f(X) f(X)进行估计。即利用样本对未知函数进行适宜的拟合。
y = f ( X ) + ξ (1) y=f(X)+xitag1 y=f(X)+ξ(1)
其中, ξ xi ξ为引入的噪声。

2 、一维线性回归

顾名思义,所谓线性会就就是利用线性模型对未知函数 f ( X ) f(X) f(X)进行表示,即
y = w T X + b (2) y=w^TX+btag2 y=wTX+b(2)
1中讲到利用样本对函数进行适宜的拟合,到底怎么个适宜法?。在线性模型中,一般认为是以 X i X_i Xi作为输入, y = w T X i + b y=w^TX_i+b y=wTXi+b作为输出时,选取合适的 w w w b b b,使得参考的 y i y_i yi y y y之间的差距最小,即
a r g m i n w , b ( y , y i ) (3) mathop{argmin}limits_{w,b}(y,y_i)tag3 w,bargmin(y,yi)(3)
而对于回归问题,我们衡量线性模型的估计值与真实模型之间的差距时,常常使用均方误差来衡量,即
a r g m i n w , b ( ∑ i = 1 n ( y − y i ) 2 ) = a r g m i n w , b ( ∑ i = 1 n ( y i − ( w T X i + b ) ) 2 (4) mathop{argmin}limits_{w,b}(sumlimits_{i=1}^{n}(y-y_i)^2)=mathop{argmin}limits_{w,b}(sumlimits_{i=1}^{n}(y_i-(w^TX_i+b))^2tag4 w,bargmin(i=1n(yyi)2)=w,bargmin(i=1n(yi(wTXi+b))2(4)
所以,显而易见,对于 X i X_i Xi是1维变量的情况,我们只需要将 ( 4 ) (4) (4)式,分别对 w w w以及 b b b求偏导,即可得出理论上的结果,比较简单,不给出多余的推导。

3 、多元线性回归

X i X_i Xi是多维变量时, ( 4 ) (4) (4)式中的求解便成为了最小二乘问题,我们使用 w w w b b b构成增广向量 W = ( w , b ) W=(w,b) W=(w,b),并将自变量也进行1增广为 X i ′ = ( X i , 1 ) X_i^{'}=(X_i,1) Xi=(Xi,1)。则根据最小二乘问题的解法,令 X ′ = { X 1 ′ , X 2 ′ , . . . , X n ′ } X^{'}={X^{'}_1,X^{'}_2,...,X^{'}_n} X={X1,X2,...,Xn},令 Y = { y 1 ; y 2 ; . . . ; y n } Y={y_1;y_2;...;y_n} Y={y1;y2;...;yn}。将增广之后的 W W W与矩阵 X ′ X^{'} X带入 ( 4 ) (4) (4)式,并将加法转化为矩阵运算,得到
原 式 = a r g m i n w , b ( Y − X ′ W ) T ( Y − X ′ W ) (5) 原式=mathop{argmin}limits_{w,b}(Y-X^{'}W)^T(Y-X^{'}W)tag5 =w,bargmin(YXW)T(YXW)(5)
求最小值,则将 ( 5 ) (5) (5)式对 W W W求导,得
∂ ( 5 ) ∂ ( W ) = 2 X ′ T ( X ′ W − Y ) (6) frac{partial(5)}{partial(W)}={2X^{'}}^T(X^{'}W-Y)tag6 (W)(5)=2XT(XWY)(6)
( 6 ) (6) (6)式等于0,则可得出 W W W得理论解为
W = ( X ′ T X ′ ) − 1 X ′ T Y (7) W=({X^{'}}^TX^{'})^{-1}{X^{'}}^TYtag7 W=(XTX)1XTY(7)
( 7 ) (7) (7)式代入 ( 2 ) (2) (2)式中,即得到多元线性回归函数模型为
f ( X i ′ ) = X i ′ T ( X ′ T X ′ ) − 1 X ′ T Y f(X^{'}_i)={X^{'}_i}^T({X^{'}}^TX^{'})^{-1}{X^{'}}^TY f(Xi)=XiT(XTX)1XTY
当然,当 X ′ T X ′ {X^{'}}^TX^{'} XTX不满秩时,需要引入正则项。

以上就是回归理论系列的第一个内容:线性回归。后续会继续学习线性回归的变式:对数回归。以及SVM回归与高斯过程回归。

最后

以上就是美满鸵鸟为你收集整理的回归系列(一) 线性回归问题回归学习(一):线性回归问题的全部内容,希望文章能够帮你解决回归系列(一) 线性回归问题回归学习(一):线性回归问题所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(43)

评论列表共有 0 条评论

立即
投稿
返回
顶部