我是靠谱客的博主 神勇乌龟,最近开发中收集的这篇文章主要介绍梯度下降 & 神经网络(RNN & LSTM)一、代价函数和梯度下降2、RNN (循环神经网络)3、LSTM,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

一、代价函数和梯度下降

回归模型的代价函数(平方误差函数):模型预测值和实际值之间的差的平方和。最小二乘法表达式,用平方和来表达差的绝对值的大小。
在这里插入图片描述

回归模型的目标便是找到使得代价函数最小的模型参数组合。

梯度:用于更新神经网络的权重值
梯度下降:一个用来求函数最小值的算法,比如用梯度下降来求得代价函数的最小值。随机选择一个参数组合( θ 0   , θ 1   , θ 2   . . . . . . θ n   theta_0,,theta_1,,theta_2,......theta_n, θ0,θ1,θ2......θn)开始,寻找下一个使得代价函数值下降最多的参数组合,以此类推直到找到达到local minimum代价函数值的参数组合。
在这里插入图片描述

随着传播推移,梯度逐渐减小,梯度消失时,模型会停止学习。
在这里插入图片描述
批量梯度下降(batch gradient descent):在梯度下降的每一步中都用到了完整的样本集,并对m个训练样本求和。
在这里插入图片描述
α   alpha, αis the learning rate (每一次学习的时候梯度下降的幅度) and the derivative part help control the direction of gradient descent until zero. Since the derivative will decrease when we approaching the local minimum, even if we do not decrease α   alpha, α, gradient descent will still automatically approach the local minimum.

θ 0   theta_0, θ0 and θ 1   theta_1, θ1 should always be updated simultaneously.
在这里插入图片描述
在这里插入图片描述

2、RNN (循环神经网络)

传统神经网络的layer和layer之间是全联接的,但是layer内部的节点之间没有联接。比如CNN:

在这里插入图片描述
这就导致内部节点之间的关系很难被模型学习。
而RNN(循环神经网络)不仅包含上一层输入层的所有信息,隐藏层之间的节点信息比如上一时刻隐藏层的信息也会被作为这一时刻隐藏层的输入。
在这里插入图片描述
即:

H t = f ( U ∗ x t + W ∗ H t − 1 ) begin{aligned} H_t&=f( U * x_t + W * H_{ t-1}) end{aligned} Ht=f(Uxt+WHt1)

其中W、U都为权重。

RNN的主要运用:

1、one to n:图像自动生成文字,x为图像特征,y为输出语句;按类别自动生成语音等

在这里插入图片描述

2、n to n:文字自动生成器如char RNN,x为字符,y为下一个字符的概率。
在这里插入图片描述

3、n to one:(文本)情感分析如大众点评自动识别好评、中评、差评,图像类别分析等,x句子词组或图像特征,y为类别输出。
在这里插入图片描述

4、* encoder-decoder:机器翻译,文本摘要,语音识别等等。
在这里插入图片描述

3、LSTM

short-term memory in RNN: 在递归神经网络中较早的层由于梯度太小而停止学习。由于不学习,这些层可以忘记在较长序列中记忆的内容,而保留短期记忆。
如果遵照RNN的记忆方式,隐藏层当前节点的状态会和隐藏层之前所有节点的状态相关,导致计算量迅速增加,从而导致计算效率低下。

H t = f ( U ∗ x t + W 1 ∗ H t − 1 + W 2 ∗ H t − 2 + W 3 ∗ H t − 1 + . . . . . . + W n ∗ H t − n ) begin{aligned} H_t&=f( U * x_t + W_1 * H_{ t-1}+ W _2* H_{ t-2}+W_3 * H_{ t-1}+ ......+W_n * H_{ t-n}) end{aligned} Ht=f(Uxt+W1Ht1+W2Ht2+W3Ht1+......+WnHtn)

而LSTM则通过在计算中加入“门“来调整细胞传输状态。“门“利用sigmoid函数,将上一细胞状态所包含的信息压缩至0~1之间,其中0表示完全遗忘,1表示完全记忆,从而调整长期记忆中每一个细胞状态所保留的值的重要性。
在这里插入图片描述
----- “门“的内部运算机制

最后

以上就是神勇乌龟为你收集整理的梯度下降 & 神经网络(RNN & LSTM)一、代价函数和梯度下降2、RNN (循环神经网络)3、LSTM的全部内容,希望文章能够帮你解决梯度下降 & 神经网络(RNN & LSTM)一、代价函数和梯度下降2、RNN (循环神经网络)3、LSTM所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(57)

评论列表共有 0 条评论

立即
投稿
返回
顶部