概述
定义一个(300,1)的列x_data, 同时生成一个y_data, 然后进行预测, 输入-隐藏-输出 三层,训练1000次, 每50次看loss变化, 并把原始数据和预测的数据可视化
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
def add_layer(inputs, in_size, out_size, activation_function=None): #添加一个层
w = tf.Variable(tf.random_normal([in_size, out_size])) #从正态分布中生成随机值
b = tf.Variable(tf.zeros([1, out_size]) + 0.1)
Wx_plus_b = tf.matmul(inputs, w) + b
if activation_function is None:
outputs = Wx_plus_b
else:
outputs = activation_function(Wx_plus_b)
return outputs
#定义一个(300,1)的列x_data, 同时生成一个y_data, 然后进行预测, 输入-隐藏-输出 三层,训练1000次, 每50次看loss变化, 并把原始数据和预测的数据可视化
x_data = np.linspace(-1, 1, 300)[:, np.newaxis]
print(x_data.shape)
noise = np.random.normal(0, 0.05, x_data.shape)
y_data = np.square(x_data) - 0.5 + noise
print(y_data.shape)
xs = tf.placeholder(tf.float32, [None, 1])
ys = tf.placeholder(tf.float32, [None, 1])
l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)
prediction = add_layer(l1, 10, 1, activation_function=None)
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction), reduction_indices=[1]))
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)
#画图,把原始数据可视化
fig = plt.figure()
ax = fig.add_subplot(1,1,1)
ax.scatter(x_data, y_data)
plt.ion() #可以让程序show了之后不暂停,继续往下走,从而形成动态
plt.show()
for i in range(1000):
sess.run(train_step, feed_dict={xs: x_data, ys: y_data})
if i % 50 == 0:
#print(sess.run(loss, feed_dict={xs:x_data, ys:y_data}))
try: #把预测数据可视化,看他们逐渐重合的过程,也是loss逐渐降低的过程
ax.lines.remove(lines[0])
except Exception:
pass
prediction_value = sess.run(prediction, feed_dict={xs: x_data}) #把预测值赋给prediction_value
lines = ax.plot(x_data, prediction_value, 'r-', lw=5) #画一条红线
plt.pause(0.1) #停顿0.1秒
最后
以上就是跳跃山水为你收集整理的TensorFlow(一)add_layer的全部内容,希望文章能够帮你解决TensorFlow(一)add_layer所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复