我是靠谱客的博主 开朗唇彩,最近开发中收集的这篇文章主要介绍深度卷积网络-Inception系列,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

目录

  • 1. Inception V1
    • 1.1 Inception module
  • 2. Inception V2
  • 3. Inception V3
  • 4. Inception V4, Inception-ResNet
  • 5. Xception(extreme inception)

  主要列举的网络结构有:

  • Inception V1: Going Deeper with Convolutions
  • Inception V2: Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
  • Inception V3: Rethinking the Inception Architecture for Computer Vision
  • Inception V4, Inception-ResNet: Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
  • Xception: Xception: Deep Learning with Depthwise Separable Convolutions

1. Inception V1

1.1 Inception module

Inception_V1_1.png

  • 利用Inception module叠加的形式构造网络;可以近似一个稀疏结构;
  • 不同size的卷积核能够增强网络的适应力;
  • 即增加了网络的深度,同时增加了网络对尺度的适应性;
  • 随着更多的Inception module的叠加,同样也会带来计算成本的增加;

Inception_V1_2.png

  • Network-in-Network在卷积中的表示形式使:(1times 1)的卷积;
  • (1times 1)的卷积能够有效地的降维,在其后使用激活函数,能够提高网络的表达能力;
  • 有降维、减少参数量的作用;
  • 提高了内部计算资源的利用率;

整个网络结构:

  • 中间增加了两个loss,保证更好的收敛,有正则化的作用;
  • 在最后一个全链接层前,使用Global average pooling;

2. Inception V2

  • 使用Batch Normalization层,即对min-batch内部进行标准化处理,使其输出规范到标准正态分布;
  • 利用两个(3times 3)的卷积层代替一个(5times 5)的卷积层,降低了参数数量;

Inception_V2.png

3. Inception V3

  • 卷积分解:将(7times 7)的卷积分解成(1times 7, 7times 1)的两个卷积,(3times 3)的卷积也类似分解;可以用于加速计算,同时可以加深网络,也增加了网络的非线性;
  • 在整个网络结构中,有三种卷积分解模型,见下图;
  • 输入从(224 times 224)变成了(299 times 299)

Inception_V3_1.png

Inception_V3_2.png

Inception_V3_3.png

4. Inception V4, Inception-ResNet

  • 将Inception module与Residual Connection结合使用,加速训练,精度更高;

5. Xception(extreme inception)

转载于:https://www.cnblogs.com/chenzhen0530/p/10689278.html

最后

以上就是开朗唇彩为你收集整理的深度卷积网络-Inception系列的全部内容,希望文章能够帮你解决深度卷积网络-Inception系列所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(41)

评论列表共有 0 条评论

立即
投稿
返回
顶部