我是靠谱客的博主 传统楼房,最近开发中收集的这篇文章主要介绍【ML】SVM(4) 合页损失函数前文链接合页损失函数参考资料,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

导航

  • 前文链接
  • 合页损失函数
  • 参考资料

前文链接

软间隔

合页损失函数

线性支持向量机还有另一种解释,最小化目标函数
∑ i = 1 N [ 1 − y i ( w ⋅ x i + b ) ] + + λ ∥ w ∥ 2 sum_{i=1}^N[1-y_i(wcdot x_i+b)]_++lambdalVert wrVert^2 i=1N[1yi(wxi+b)]++λw2
其中函数
L ( y ( x ⋅ x + b ) ) = [ 1 − y ( w ⋅ x + b ) ] + L(y(xcdot x+b))=[1-y(wcdot x+b)]_+ L(y(xx+b))=[1y(wx+b)]+
称为合页损失函数(hinge loss function),符号 + + +表示取函数的正部. 这种损失函数表示只有当样本点 ( x i , y i ) (x_i, y_i) (xi,yi)被正确分类且函数间隔 y i ⋅ ( w ⋅ x i + b ) y_icdot(wcdot x_i+b) yi(wxi+b)大于1时,损失为0,否则损失为 1 − y i ⋅ ( w ⋅ x i + b ) 1-y_icdot(wcdot x_i+b) 1yi(wxi+b)

定理
线性支持向量机原始最优化问题
min ⁡ w , b , ξ 1 2 ∥ w ∥ 2 + C ∑ i = 1 N ξ i s . t . { y i ( w ⋅ x i + b ) ≥ 1 − ξ i , i = 1 , 2 , … , N ξ i ≥ 0 , i = 1 , 2 , … , N (1) min_{w, b, xi}frac{1}{2}lVert wrVert^2+Csum_{i=1}^Nxi_i\ s.t.begin{cases} y_i(wcdot x_i+b)geq 1-xi_i, i=1,2, dots, N\ xi_igeq 0, i=1, 2, dots, N end{cases}tag{1} w,b,ξmin21w2+Ci=1Nξis.t.{yi(wxi+b)1ξi,i=1,2,,Nξi0,i=1,2,,N(1)
等价于最优化问题
min ⁡ w , b ∑ i = 1 N [ 1 − y i ( w ⋅ x i + b ) ] + + λ ∥ w ∥ 2 (2) min_{w, b}sum_{i=1}^N[1-y_i(wcdot x_i+b)]_++lambdalVert wrVert^2tag{2} w,bmini=1N[1yi(wxi+b)]++λw2(2)
证明
可以将最优化问题 ( 2 ) (2) (2)转化为 ( 1 ) (1) (1). 令
[ 1 − y i ( w ⋅ x i + b ) ] = ξ i [1-y_i(wcdot x_i+b)]=xi_i [1yi(wxi+b)]=ξi
所以有 ξ i ≥ 0 xi_igeq 0 ξi0成立,又因为当 1 − y i ( w ⋅ x i + b ) > 0 1-y_i(wcdot x_i+b)>0 1yi(wxi+b)>0时, 1 − y i ( w ⋅ x i + b ) = ξ i 1-y_i(wcdot x_i+b)=xi_i 1yi(wxi+b)=ξi,当 1 − y i ( w ⋅ x i + b ) ≤ 0 1-y_i(wcdot x_i+b)leq 0 1yi(wxi+b)0时, ξ i = 0 xi_i=0 ξi=0,所以 y i ( w ⋅ x i + b ) ≥ 1 − ξ i y_i(wcdot x_i+b)geq 1-xi_i yi(wxi+b)1ξi. 即最优化问题可以写成
min ⁡ w , b ∑ i = 1 N ξ i + λ ∥ w ∥ 2 min_{w,b}sum_{i=1}^Nxi_i+lambdalVert wrVert^2 w,bmini=1Nξi+λw2
λ = 1 2 C lambda=frac{1}{2C} λ=2C1
min ⁡ w , b 1 C ( 1 2 ∥ w ∥ 2 + C ∑ i = 1 N ξ i ) min_{w, b}frac{1}{C}bigg(frac{1}{2}lVert wrVert^2+Csum_{i=1}^Nxi_ibigg) w,bminC1(21w2+Ci=1Nξi)
与模型 ( 1 ) (1) (1)等价.
合页损失函数和0-1损失函数图像如下
hinge可以发现合页损失函数时0-1损失函数的上界,并且由于0-1损失函数不是连续可导的,直接优化目标函数比较困难,可以考虑优化损失函数的上界,这时上界损失函数又被称为代理损失函数(surrogate loss function).

虚线部分时感知机损失函数
[ − y i ( w ⋅ x i + b ) ] + [-y_i(wcdot x_i+b)]_+ [yi(wxi+b)]+
相比较而言,合页损失函数不仅要求分类正确,还要求一定的函数间隔,损失才能达到0,是一种要求更高的损失函数.

参考资料

统计学习方法 清华大学出版社 李航

最后

以上就是传统楼房为你收集整理的【ML】SVM(4) 合页损失函数前文链接合页损失函数参考资料的全部内容,希望文章能够帮你解决【ML】SVM(4) 合页损失函数前文链接合页损失函数参考资料所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(39)

评论列表共有 0 条评论

立即
投稿
返回
顶部