我是靠谱客的博主 谨慎母鸡,最近开发中收集的这篇文章主要介绍《动手学深度学习》学习日志3一、优化:二、梯度下降三、数据增强四、模型微调五、优化算法进阶六、词嵌入基础word2vec六、词嵌入进阶,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

一、优化:

1.优化与深度学习不同之处

• 优化方法目标:训练集损失函数值
• 深度学习目标:测试集损失函数值(泛化性)

2.优化在深度学习中的挑战

• 局部最小值
• 鞍点
• 梯度消失

二、梯度下降

1.批量梯度下降和随机梯度下降

批量梯度下降—最小化所有训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得风险函数最小。
随机梯度下降—最小化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近。

三、数据增强

1.图像增广

大规模数据集是成功应用深度神经网络的前提。图像增广(image augmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。图像增广的另一种解释是,随机改变训练样本可以降低模型对某些属性的依赖,从而提高模型的泛化能力。例如,我们可以对图像进行不同方式的裁剪,使感兴趣的物体出现在不同位置,从而减轻模型对物体出现位置的依赖性。我们也可以调整亮度、色彩等因素来降低模型对色彩的敏感度。可以说,在当年AlexNet的成功中,图像增广技术功不可没。本节我们将讨论这个在计算机视觉里被广泛使用的技术。

2.常用的图像增广方法

• 翻转和裁剪
• 变化颜色

最后

以上就是谨慎母鸡为你收集整理的《动手学深度学习》学习日志3一、优化:二、梯度下降三、数据增强四、模型微调五、优化算法进阶六、词嵌入基础word2vec六、词嵌入进阶的全部内容,希望文章能够帮你解决《动手学深度学习》学习日志3一、优化:二、梯度下降三、数据增强四、模型微调五、优化算法进阶六、词嵌入基础word2vec六、词嵌入进阶所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(51)

评论列表共有 0 条评论

立即
投稿
返回
顶部