概述
问题描述:
【功能模块】
运行环境】
MindSpore CPU 1.1.1
【操作步骤&问题现象】
1、调用BatchNorm1d时,报错Fused batchnorm only support nchw input!
2、输入数据尺寸:
x_pool.shape is (16, 2048)
相关代码:
op = nn.BatchNorm1d(num_features=2048)
……(经过池化层后得到x_pool)
print("x_pool.shape is", x_pool.shape)
feat = op(x_pool)
3. 虽然API里说暂时只支持Ascend, 但是为什么报错信息不是do not support this operation而是Fused batchnorm only support nchw input?因为API文档里说支持输入的Tensor尺寸是二维的(N, C_out), 为什么这里说需要nchw的形式?
另外这么常用的Batch Normalization为什么也不支持GPU版本?
【截图信息】
【日志信息】(可选,上传日志内容或者附件)
解决方案:
nn.Batchnorm1d内部cpu调用的是FusedBatchnorm, GPU调用的是FusedBatchnormEx,现在都统一成batchnorm了。
最后
以上就是腼腆音响为你收集整理的【MindSpore】【BatchNorm1d】Fused batchnorm only support nchw input!的全部内容,希望文章能够帮你解决【MindSpore】【BatchNorm1d】Fused batchnorm only support nchw input!所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复