概述
# 这里的shape是"HWCN",下边的与这个不对应
conv1_W = tf.Variable(tf.truncated_normal(shape=(5, 5, 1, 6))
# 这里的strides理解为对"NHWC"的操作
conv1 = tf.nn.conv2d(x, conv1_W, strides=[1, 1, 1, 1])
在池化时:
# 这里的ksize和strides对应的操作为"NHWC"
conv1 = tf.nn.max_pool(conv1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1])
这两个不一样:一定要记住,这个别搞混了
输入:[batch, in_height, in_width, in_channels]
卷积核:[filter_height, filter_width, in_channels, out_channels]
stride 的维度和输入匹配。卷积核的维度和特征图的维度不一样。
右键点tf.nn.conv2d(go to definition)看tf源码文件,里面写的很清楚。
最后
以上就是鲤鱼白开水为你收集整理的conv2d的输入HWCN与卷积核HWCN不一样的全部内容,希望文章能够帮你解决conv2d的输入HWCN与卷积核HWCN不一样所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复