无限火车

文章
6
资源
0
加入时间
2年10月17天

RNN梯度消失问题

关于梯度消失问题:1.网络层次越深, 越容易引起梯度消失, 无论是纵向网络(bp), 还是横向网络(rnn), 梯度消失是由激活函数的导数位于[0,1]区间引起的2.bp网络梯度消失会导致最前端的W学习不到, 而rnn梯度消失会引起记忆问题,只能学习到短期网络, 具体见https://www.jianshu.com/p/2512302f14c73.rnn梯度消失是因为误差间的相乘关...