验证计算机视觉中的Attention
注意:使用的Resnet50 作为base没数据局采用的时候数据集采用花分类数据集超参数没做任何的调整只跑了30个epoch 感觉模型还没有问完全达到最优的性能没有使用任何的预训练权重只使用ResnetLoss:Acc:最好是在0.79左右在相同的情况下只加入了SE 方式的注意力Loss:ACC:用的1x1卷积是se网络最大的特点,实验效果好,全链接层都是放到最后。对图片语义损失挺大,中间就经过很多层fc效果一般都不咋地,不绝对。SE的怎么实现感觉区别还是很大