本文会讲到:
(1)另一种在线性回归方法中求theta值的方法:Normal Equation;
(2)Gradient Descent与Normal Equation的优缺点;
(1)需要预先选定Learning rate;
(2)需要多次iteration;
(3)需要Feature Scaling;
因此可能会比较麻烦,这里介绍一种适用于Feature数量较少时使用的方法:Normal Equation;
当Feature数量小于100000时使用Normal Equation;
当Feature数量大于100000时使用Gradient Descent;
Normal Equation的特点:简单、方便、不需要Feature Scaling;
其中Normal Equation的公式:

其中



m为#training example;
n为#feature;
举个实际的例子: |
最后
以上就是甜蜜咖啡豆最近收集整理的关于机器学习入门:Linear Regression与Normal Equation的全部内容,更多相关机器学习入门:Linear内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复