深入浅出讲解梯度消失和梯度爆炸问题(原因、解决方法)梯度消失和梯度爆炸产生的原因:解决方法:
1.梯度消失和梯度爆炸产生的原因:传统的神经网络通常是基于BP算法优化权重参数的,即通过损失函数计算的误差通过梯度反向传播的方式对神经网络中的权重进行更新,其中用到的是连乘形式的链式法则。梯度消失:产生的原因基本上是网络太深或是采用了不恰当的损失函数,如sigmoid函数、tanh函数等。由于sigmoid函数的导数最大值是0.25,因而通过链式法则,导致靠近输入层的权重更新缓慢甚至停...