概述
本文重在阐述神经网络里的前向传播和反向传播。
上一篇文章构建了一个简单的网络,可以看出来它对于手写数字的识别率还是可以高达91%。但我们尚未对神经网络处理的过程做出太多解释。
数据在网络中的传播有两种方式。一种是沿着输入到输出的路径,被称为前向传播。一种是从输出返回到输入,被成为反向传播(backprop)。
train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)
sess.run(train_step, feed_dict={
x: batch_xs, y: batch_ys})
前文代码节选
当我们运行最小化loss的时候,为了求出loss的值,我们的数据会沿着我们构建的通道向前流动,逐步的求出每个节点。
losspredictionivi=(y−prediction)2/ 10=[softmax(wix+bi)]=evi∑j=0evi=softmax(wix+bi) l o s s = ( y − p r e d i c t i o n ) 2 / 10 p r e d i c t i o n i = [ s o f t m a x ( w i x + b i ) ] = e v i ∑ j = 0 e v i v i = s o f t m a x ( w i
最后
以上就是负责白昼为你收集整理的神经网络的传播(权重更新)的全部内容,希望文章能够帮你解决神经网络的传播(权重更新)所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复