深度学习-tensorflow1.x- 理解 经过softmax_cross_entropy_with_logit后 随机梯度下降的过程
环境tensorflow 1.4numpy 3.6背景介绍想深刻理解随机梯度下降的过程。假设我们有两个神经元的输入【5,8】, 经过softmax 函数与交叉熵之后。做随机梯度下降后, 这个神经的值变成什么样子了?完整代码import tensorflow as tfimport numpy as npx = tf.compat.v1.placeholder(tf.float...