概述
回归学习(一):线性回归问题
0、本系列目的
有知识的输入,必然要进行输出,来对知识进行更近一步的理解。本系列作为自己对回归进行理论学习之后的输出部分,以此来加深自己对回归理论的理解。
1、什么是回归任务
抛开实际问题不看,现有
n
n
n 个自变量与函数值对
{
(
X
1
,
y
1
)
,
(
X
2
,
y
2
)
,
.
.
.
,
(
X
n
,
y
n
)
}
{ (X_1,y_1),(X_2,y_2) ,...,(X_n,y_n)}
{(X1,y1),(X2,y2),...,(Xn,yn)}组成的样本。但是我们不知道函数
y
=
f
(
X
)
y=f(X)
y=f(X)的表达式,所以我们可以根据样本对
f
(
X
)
f(X)
f(X)进行估计。即利用样本对未知函数进行适宜的拟合。
y
=
f
(
X
)
+
ξ
(1)
y=f(X)+xitag1
y=f(X)+ξ(1)
其中,
ξ
xi
ξ为引入的噪声。
2 、一维线性回归
顾名思义,所谓线性会就就是利用线性模型对未知函数
f
(
X
)
f(X)
f(X)进行表示,即
y
=
w
T
X
+
b
(2)
y=w^TX+btag2
y=wTX+b(2)
1中讲到利用样本对函数进行适宜的拟合,到底怎么个适宜法?。在线性模型中,一般认为是以
X
i
X_i
Xi作为输入,
y
=
w
T
X
i
+
b
y=w^TX_i+b
y=wTXi+b作为输出时,选取合适的
w
w
w与
b
b
b,使得参考的
y
i
y_i
yi与
y
y
y之间的差距最小,即
a
r
g
m
i
n
w
,
b
(
y
,
y
i
)
(3)
mathop{argmin}limits_{w,b}(y,y_i)tag3
w,bargmin(y,yi)(3)
而对于回归问题,我们衡量线性模型的估计值与真实模型之间的差距时,常常使用均方误差来衡量,即
a
r
g
m
i
n
w
,
b
(
∑
i
=
1
n
(
y
−
y
i
)
2
)
=
a
r
g
m
i
n
w
,
b
(
∑
i
=
1
n
(
y
i
−
(
w
T
X
i
+
b
)
)
2
(4)
mathop{argmin}limits_{w,b}(sumlimits_{i=1}^{n}(y-y_i)^2)=mathop{argmin}limits_{w,b}(sumlimits_{i=1}^{n}(y_i-(w^TX_i+b))^2tag4
w,bargmin(i=1∑n(y−yi)2)=w,bargmin(i=1∑n(yi−(wTXi+b))2(4)
所以,显而易见,对于
X
i
X_i
Xi是1维变量的情况,我们只需要将
(
4
)
(4)
(4)式,分别对
w
w
w以及
b
b
b求偏导,即可得出理论上的结果,比较简单,不给出多余的推导。
3 、多元线性回归
当
X
i
X_i
Xi是多维变量时,
(
4
)
(4)
(4)式中的求解便成为了最小二乘问题,我们使用
w
w
w与
b
b
b构成增广向量
W
=
(
w
,
b
)
W=(w,b)
W=(w,b),并将自变量也进行1增广为
X
i
′
=
(
X
i
,
1
)
X_i^{'}=(X_i,1)
Xi′=(Xi,1)。则根据最小二乘问题的解法,令
X
′
=
{
X
1
′
,
X
2
′
,
.
.
.
,
X
n
′
}
X^{'}={X^{'}_1,X^{'}_2,...,X^{'}_n}
X′={X1′,X2′,...,Xn′},令
Y
=
{
y
1
;
y
2
;
.
.
.
;
y
n
}
Y={y_1;y_2;...;y_n}
Y={y1;y2;...;yn}。将增广之后的
W
W
W与矩阵
X
′
X^{'}
X′带入
(
4
)
(4)
(4)式,并将加法转化为矩阵运算,得到
原
式
=
a
r
g
m
i
n
w
,
b
(
Y
−
X
′
W
)
T
(
Y
−
X
′
W
)
(5)
原式=mathop{argmin}limits_{w,b}(Y-X^{'}W)^T(Y-X^{'}W)tag5
原式=w,bargmin(Y−X′W)T(Y−X′W)(5)
求最小值,则将
(
5
)
(5)
(5)式对
W
W
W求导,得
∂
(
5
)
∂
(
W
)
=
2
X
′
T
(
X
′
W
−
Y
)
(6)
frac{partial(5)}{partial(W)}={2X^{'}}^T(X^{'}W-Y)tag6
∂(W)∂(5)=2X′T(X′W−Y)(6)
令
(
6
)
(6)
(6)式等于0,则可得出
W
W
W得理论解为
W
=
(
X
′
T
X
′
)
−
1
X
′
T
Y
(7)
W=({X^{'}}^TX^{'})^{-1}{X^{'}}^TYtag7
W=(X′TX′)−1X′TY(7)
将
(
7
)
(7)
(7)式代入
(
2
)
(2)
(2)式中,即得到多元线性回归函数模型为
f
(
X
i
′
)
=
X
i
′
T
(
X
′
T
X
′
)
−
1
X
′
T
Y
f(X^{'}_i)={X^{'}_i}^T({X^{'}}^TX^{'})^{-1}{X^{'}}^TY
f(Xi′)=Xi′T(X′TX′)−1X′TY
当然,当
X
′
T
X
′
{X^{'}}^TX^{'}
X′TX′不满秩时,需要引入正则项。
以上就是回归理论系列的第一个内容:线性回归。后续会继续学习线性回归的变式:对数回归。以及SVM回归与高斯过程回归。
最后
以上就是美满鸵鸟为你收集整理的回归系列(一) 线性回归问题回归学习(一):线性回归问题的全部内容,希望文章能够帮你解决回归系列(一) 线性回归问题回归学习(一):线性回归问题所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复