我是靠谱客的博主 娇气羽毛,最近开发中收集的这篇文章主要介绍吴恩达机器学习笔记21-正则化线性回归(Regularized Linear Regression),觉得挺不错的,现在分享给大家,希望可以做个参考。
概述
对于线性回归的求解,我们之前推导了两种学习算法:一种基于梯度下降,一种基于正
规方程。
正则化线性回归的代价函数为:
如果我们要使用梯度下降法令这个代价函数最小化,因为我们未对theta0进行正则化,所以梯
度下降算法将分两种情形:
对上面的算法中? = 1,2, . . . , ? 时的更新式子进行调整可得:
可以看出,正则化线性回归的梯度下降算法的变化在于,每次都在原有算法更新规则的
基础上令?值减少了一个额外的值。
我们同样也可以利用正规方程来求解正则化线性回归模型,方法如下所示:
图中的矩阵尺寸为 (? + 1) ∗ (? + 1)。
转载于:https://www.cnblogs.com/sl0309/p/10401413.html
最后
以上就是娇气羽毛为你收集整理的吴恩达机器学习笔记21-正则化线性回归(Regularized Linear Regression)的全部内容,希望文章能够帮你解决吴恩达机器学习笔记21-正则化线性回归(Regularized Linear Regression)所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复