概述
监督学习可以看作是原先的预测模型,
有基础的训练数据,
再将需要预测的数据进行输入,得到预测的结果(不管是连续的还是离散的)
---
机器学习术语
分类模型 | 样本 |
特征 | 推断 |
标签 | 模型 |
回归 | 训练 |
样本:数据集的一行。一个样本包含一个或多个特征,此外还可能包含一个标签。另请参阅有标签样本和无标签样本。
术语库链接:https://developers.google.cn/machine-learning/crash-course/glossary#label术语库链接
回归模型可预测连续值。例如,回归模型做出的预测可回答如下问题:
加利福尼亚州一栋房产的价值是多少?
用户点击此广告的概率是多少?
分类模型可预测离散值。例如,分类模型做出的预测可回答如下问题:
某个指定电子邮件是垃圾邮件还是非垃圾邮件?
这是一张狗、猫还是仓鼠图片?
预测模型中的损失函数:平方误差:(y-prediction(y))^2
均方误差:(1/n)(y-prediction(y))^2
---
迭代方法:
梯度下降法:梯度下降法的第一个阶段是为 w1 选择一个起始值(起点)。起点并不重要;因此很多算法就直接将 w1
设为 0 或随机选择一个值
梯度下降法算法会计算损失曲线在起点处的梯度。简而言之,梯度是偏导数的矢量;它可以让您了解哪个方向距离目标“更近”或“更远”。
多复习一下梯度下降法,位于降低损失模块中。
如何确定下一个点的坐标:学习速率(步长)*梯度(数学那个梯度) 步长就是原先设置的那些0.01啥的
一维空间中的理想学习速率是 1f(x)″(f(x) 对 x 的二阶导数的倒数)。
二维或多维空间中的理想学习速率是海森矩阵(由二阶偏导数组成的矩阵)的倒数。
广义凸函数的情况则更为复杂。
超参数:在模型训练的连续过程中,您调节的“旋钮”。例如,学习速率就是一种超参数。
与参数相对。
---
很多编码练习都包含以下超参数:
- steps:是指训练迭代的总次数。一步计算一批样本产生的损失,然后使用该值修改模型的权重一次。
- batch size:是指单步的样本数量(随机选择)。例如,SGD 的批量大小为 1。
以下公式成立:
有些练习中会出现以下方便变量:
- periods:控制报告的粒度。例如,如果
periods
设为 7 且steps
设为 70,则练习将每 10 步(或 7 次)输出一次损失值。与超参数不同,我们不希望您修改periods
的值。请注意,修改periods
不会更改您的模型所学习的内容。
以下公式成立:
最后
以上就是壮观戒指为你收集整理的Python笔记6---tensorflow中监督学习与非监督学习的全部内容,希望文章能够帮你解决Python笔记6---tensorflow中监督学习与非监督学习所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复