我是靠谱客的博主 娇气羽毛,最近开发中收集的这篇文章主要介绍吴恩达机器学习笔记21-正则化线性回归(Regularized Linear Regression),觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

  对于线性回归的求解,我们之前推导了两种学习算法:一种基于梯度下降,一种基于正
规方程。
  正则化线性回归的代价函数为:

  如果我们要使用梯度下降法令这个代价函数最小化,因为我们未对theta0进行正则化,所以梯
度下降算法将分两种情形:

对上面的算法中? = 1,2, . . . , ? 时的更新式子进行调整可得:

  可以看出,正则化线性回归的梯度下降算法的变化在于,每次都在原有算法更新规则的
基础上令?值减少了一个额外的值。
  我们同样也可以利用正规方程来求解正则化线性回归模型,方法如下所示:

图中的矩阵尺寸为 (? + 1) ∗ (? + 1)。

 

转载于:https://www.cnblogs.com/sl0309/p/10401413.html

最后

以上就是娇气羽毛为你收集整理的吴恩达机器学习笔记21-正则化线性回归(Regularized Linear Regression)的全部内容,希望文章能够帮你解决吴恩达机器学习笔记21-正则化线性回归(Regularized Linear Regression)所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(40)

评论列表共有 0 条评论

立即
投稿
返回
顶部