LSTM相比一般RNN的优势
LSTM 是为了解决 RNN 的 Gradient Vanish 的问题所提出的。LSTM如何避免梯度消失?LSTM只能避免RNN的梯度消失(gradient vanishing),但是不能对抗梯度爆炸问题(Exploding Gradient)。梯度膨胀(gradient explosion)不是个严重的问题,一般靠裁剪后的优化算法即可解决,比如gradient clipp...