概述
空洞卷积
空洞卷积的作用是在不增加参数量的情况下,增大感受野,获得更多的特征。
空洞卷积中padding与dilation所使用的因子需要是相同的,否则,可能会导致图像的尺寸会发生变化,导致就不是膨胀卷积。
假如卷积核为3*3,膨胀因子为2,那么padding必须为2,否则,它经过膨胀卷积之后,它的尺寸会变小。
import torch.nn as nn
# import torch
from torchstat import stat
# from torchsummary import summary
# from nets.ghostnet import ghostnet
class Conv(nn.Module):
def __init__(self):
super(Conv, self).__init__()
self.conv = nn.Sequential(
nn.MaxPool2d()
)
class ConvModule(nn.Module):
def __init__(self):
super(ConvModule, self).__init__()
# 定义六层卷积层
# 两层HDC(1,2,5,1,2,5)
self.conv = nn.Sequential(
# 第一层 (3-1)*1+1=3 (64-3)/1 + 1 =62
nn.Conv2d(in_channels=32, out_channels=32, kernel_size=3, stride=1, padding=1, dilation=1),
nn.BatchNorm2d(32),
# inplace-选择是否进行覆盖运算
nn.ReLU(inplace=True),
# 第二层 (3-1)*2+1=5 (62-5)/1 + 1 =58
nn.Conv2d(in_channels=32, out_channels=32, kernel_size=3, stride=1, padding=2, dilation=2),
nn.BatchNorm2d(32),
# inplace-选择是否进行覆盖运算
nn.ReLU(inplace=True),
# 第三层 (3-1)*5+1=11 (58-11)/1 +1=48
nn.Conv2d(in_channels=32, out_channels=32, kernel_size=3, stride=1, padding=5, dilation=5),
nn.BatchNorm2d(32),
# inplace-选择是否进行覆盖运算
nn.ReLU(inplace=True),
)
def forward(self, x):
out = self.conv(x)
return out
stat(ConvModule(), (32, 13, 13))
空洞卷积部分的代码,来自如下链接。
https://blog.csdn.net/qq_37534947/article/details/109727232
最后
以上就是传统小松鼠为你收集整理的空洞卷积过程可视化的全部内容,希望文章能够帮你解决空洞卷积过程可视化所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复