深度学习之优化算法1 梯度下降2 Momentum3 Adagrad:Adaptive gradient algorithm4 RMSProp5 Adam: Adaptive Moment Estimation
文章目录1 梯度下降1.1 批量梯度下降法(BGD: Batch Gradient Descent)1.2 随机梯度下降法(SGD: Stochastic Gradient Descent)1.3 小批量梯度下降法(MBGD:Mini-Batch Gradient Descent)2 Momentum3 Adagrad:Adaptive gradient algorithm4 RMSProp5 Adam: Adaptive Moment Estimation1 梯度下降数学解释:在微积分里面,对