我是靠谱客的博主 腼腆音响,最近开发中收集的这篇文章主要介绍【MindSpore】【BatchNorm1d】Fused batchnorm only support nchw input!,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

问题描述:

【功能模块】

运行环境】

MindSpore CPU 1.1.1

【操作步骤&问题现象】

1、调用BatchNorm1d时,报错Fused batchnorm only support nchw input!

2、输入数据尺寸:

x_pool.shape is (16, 2048)

相关代码:

op = nn.BatchNorm1d(num_features=2048)

……(经过池化层后得到x_pool)

print("x_pool.shape is", x_pool.shape)

feat = op(x_pool)

3. 虽然API里说暂时只支持Ascend, 但是为什么报错信息不是do not support this operation而是Fused batchnorm only support nchw input?因为API文档里说支持输入的Tensor尺寸是二维的(N, C_out), 为什么这里说需要nchw的形式?

另外这么常用的Batch Normalization为什么也不支持GPU版本?

【截图信息】

【日志信息】(可选,上传日志内容或者附件)

解决方案:

nn.Batchnorm1d内部cpu调用的是FusedBatchnorm, GPU调用的是FusedBatchnormEx,现在都统一成batchnorm了。

最后

以上就是腼腆音响为你收集整理的【MindSpore】【BatchNorm1d】Fused batchnorm only support nchw input!的全部内容,希望文章能够帮你解决【MindSpore】【BatchNorm1d】Fused batchnorm only support nchw input!所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(66)

评论列表共有 0 条评论

立即
投稿
返回
顶部