NAM: Normalization-based Attention Module,一种新的注意力计算方式,无需额外的参数...代码:https://github.com/Christian-lyc/NAM论文:https://arxiv.org/abs/2111.12419
点击上方“AI公园”,关注公众号,选择加“星标“或“置顶”导读本文介绍了一种新的计算注意力的方式,相比于之前的注意力机制,无需额外的全连接,卷积等额外的计算和参数,直接使用BN中的缩放因此...