我是靠谱客的博主 笨笨缘分,最近开发中收集的这篇文章主要介绍论文笔记:NAFNet: Simple Baselines for Image Restoration向孙老师致敬!相关工作方法实验代码,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

向孙老师致敬!

相关工作

图像恢复模型体系结构比较
在这里插入图片描述

方法

块内(Intra-block)结构比较:
在这里插入图片描述
其中Channel Attention (CA),Simplified Channel Attention(SCA),从左到右依次替换
在这里插入图片描述
归一化:将层归一化(Layer Normalization)添加到普通块中,因为它可以稳定训练过程。

激活函数:在plain块中用GELU替换ReLU,因为它在保持图像去噪性能的同时,为图像去模糊带来了非平凡的收益。

注意力:通道注意力
在这里插入图片描述

Nonlinear Activation Free Network

在这里插入图片描述
Gated Linear Units: Gate ⁡ ( X , f , g , σ ) = f ( X ) ⊙ σ ( g ( X ) ) operatorname{Gate}(mathbf{X}, f, g, sigma)=f(mathbf{X}) odot sigma(g(mathbf{X})) Gate(X,f,g,σ)=f(X)σ(g(X))

GELU: G E L U ( x ) = x Φ ( x ) G E L U(x)=x Phi(x) GELU(x)=xΦ(x),其中 Φ Φ Φ表示标准正态分布的累积分布函数。GELU可以通过以下方式进行近似和实现 0.5 x ( 1 + tanh ⁡ [ 2 / π ( x + 0.044715 x 3 ) ] ) 0.5 xleft(1+tanh left[sqrt{2 / pi}left(x+0.044715 x^{3}right)right]right) 0.5x(1+tanh[2/π (x+0.044715x3)])

我们提出了一个简单的GLU变体:直接将特征映射划分为通道维度的两部分,并将它们相乘  SimpleGate  ( X , Y ) = X ⊙ Y text { SimpleGate }(mathbf{X}, mathbf{Y})=mathbf{X} odot mathbf{Y}  SimpleGate (X,Y)=XY其中,X和Y是大小相同的特征映射。

Simplified Channel Attention:使用的是SENet C A ( X ) = X ∗ σ ( W 2 max ⁡ ( 0 , W 1 pool ⁡ ( X ) ) ) C A(mathbf{X})=mathbf{X} * sigmaleft(W_{2} max left(0, W_{1} operatorname{pool}(mathbf{X})right)right) CA(X)=Xσ(W2max(0,W1pool(X)))

其中X表示特征映射,pool表示将空间信息聚合到通道中的全局平均池化操作。 σ σ σ是一个非线性激活函数Sigmoid, W 1 W_1 W1 W 2 W_2 W2是全连接层,两个全连接层之间采用ReLU,最后的 ∗ ∗ 是一种通道乘积运算(channelwise product operation)。简化的CA: S C A ( X ) = X ∗ W pool ⁡ ( X ) S C A(mathbf{X})=mathbf{X} * W operatorname{pool}(mathbf{X}) SCA(X)=XWpool(X)

本质上删除了激活函数。

实验

在这里插入图片描述

代码

github.com/megvii-research/NAFNet

最后

以上就是笨笨缘分为你收集整理的论文笔记:NAFNet: Simple Baselines for Image Restoration向孙老师致敬!相关工作方法实验代码的全部内容,希望文章能够帮你解决论文笔记:NAFNet: Simple Baselines for Image Restoration向孙老师致敬!相关工作方法实验代码所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(55)

评论列表共有 0 条评论

立即
投稿
返回
顶部