我是靠谱客的博主 腼腆音响,这篇文章主要介绍【MindSpore】【BatchNorm1d】Fused batchnorm only support nchw input!,现在分享给大家,希望可以做个参考。

问题描述:

【功能模块】

运行环境】

MindSpore CPU 1.1.1

【操作步骤&问题现象】

1、调用BatchNorm1d时,报错Fused batchnorm only support nchw input!

2、输入数据尺寸:

x_pool.shape is (16, 2048)

相关代码:

op = nn.BatchNorm1d(num_features=2048)

……(经过池化层后得到x_pool)

print("x_pool.shape is", x_pool.shape)

feat = op(x_pool)

3. 虽然API里说暂时只支持Ascend, 但是为什么报错信息不是do not support this operation而是Fused batchnorm only support nchw input?因为API文档里说支持输入的Tensor尺寸是二维的(N, C_out), 为什么这里说需要nchw的形式?

另外这么常用的Batch Normalization为什么也不支持GPU版本?

【截图信息】

【日志信息】(可选,上传日志内容或者附件)

解决方案:

nn.Batchnorm1d内部cpu调用的是FusedBatchnorm, GPU调用的是FusedBatchnormEx,现在都统一成batchnorm了。

最后

以上就是腼腆音响最近收集整理的关于【MindSpore】【BatchNorm1d】Fused batchnorm only support nchw input!的全部内容,更多相关【MindSpore】【BatchNorm1d】Fused内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(128)

评论列表共有 0 条评论

立即
投稿
返回
顶部