我是靠谱客的博主 冷静马里奥,最近开发中收集的这篇文章主要介绍神经网络梯度爆炸、消失问题、门控循环单元GRU、长短期记忆LSTM,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

  1. nn:w比1大,会造成激活函数、梯度爆炸。w比1小,梯度会消失。随机化初始权重有助于解决这个问题。
  2. RNN同样有梯度消失问题,反向传播时后面的梯度很难传到前面的层,从而影响到前面的层的计算。梯度爆炸会发生数值溢出,可以通过修剪、缩放来解决。
  3. GRU:记忆细胞C<t>的作用是提供记忆的能力。候选值C^<t>重写记忆细胞。更新门Γu是一个介于0和1之间的数,决定是否更新记忆细胞。相关Γr代表候选值和记忆细胞的相关性。
  4. LSTM:更新门,遗忘门,输出门。更新门和遗忘门给了记忆细胞选择权去维持旧的值和更新新的值。偷窥孔连接其实就是三个门值不仅取决于a<t-1>,x<t>,还取决于c<t-1>.
  5. GRU简单点,适合创建大型结构,计算性能快。LSTM更灵活,大多数人还是会选择LSTM。

转载于:https://www.cnblogs.com/biwangwang/p/11432803.html

最后

以上就是冷静马里奥为你收集整理的神经网络梯度爆炸、消失问题、门控循环单元GRU、长短期记忆LSTM的全部内容,希望文章能够帮你解决神经网络梯度爆炸、消失问题、门控循环单元GRU、长短期记忆LSTM所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(45)

评论列表共有 0 条评论

立即
投稿
返回
顶部