我是靠谱客的博主 甜蜜咖啡豆,最近开发中收集的这篇文章主要介绍机器学习入门:Linear Regression与Normal Equation,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

本文会讲到:
 
(1)另一种在线性回归方法中求theta值的方法:Normal Equation;
(2)Gradient Descent与Normal Equation的优缺点;


前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下特点:
(1)需要预先选定Learning rate;
(2)需要多次iteration;
(3)需要Feature Scaling;

因此可能会比较麻烦,这里介绍一种适用于Feature数量较少时使用的方法:Normal Equation;

当Feature数量小于100000时使用Normal Equation;
当Feature数量大于100000时使用Gradient Descent;

Normal Equation的特点:简单、方便、不需要Feature Scaling;


其中Normal Equation的公式:

 
其中
 
表示第i个training example;
表示第i个training example里的第j个feature的值;
m为#training example;
n为#feature;

举个实际的例子:


最后

以上就是甜蜜咖啡豆为你收集整理的机器学习入门:Linear Regression与Normal Equation的全部内容,希望文章能够帮你解决机器学习入门:Linear Regression与Normal Equation所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(39)

评论列表共有 0 条评论

立即
投稿
返回
顶部