NJU1healer的个人博客分享 http://blog.sciencenet.cn/u/NJU1healer

博文

Inception Modules

已有 560 次阅读 2021-4-1 14:48 |个人分类:机器学习|系统分类:科研笔记

What's Inception? What's the advantages of it? How use it?

       在开始介绍Inception前,先推荐一帖:Inception V1,V2,V3,V4 模型总结仔细阅读后会发现,该网络的诞生就是为了如何使模型更多样化且更合理的更深!相信读完之后,标题中前两个问题你就会有答案!

       为了更好的直观简单理解,这里还是再做一个acceptable总结。构建卷积层时,你要决定卷积核的大小究竟是 1×1,3×3 还是 5×5,或者要不要添加池化层?而 Inception 网络的作用就是代替你来决定,虽然网络架构因此变得更加复杂,但网络表现却非常好。

1.Inception基本思想

image.png

       同时添加多个滤波器,将每个滤波器输出叠加一起,作为总输出,让网络自己学习它需要什么样的参数,采用哪些过滤器组合。

注:多个滤波器输出的维度应该相同;比如MAX-POOL采取特殊的池化层,保证输出维度28x28。

       缺点:显而易见,Inceptin网络计算量非常庞大!以5x5卷积核为例:

image.png

2.使用 1×1 卷积来构建瓶颈层,从而大大降低计算成本

       添加用1x1卷积层,即"瓶颈层";瓶颈通常是某个对象最小的部分,瓶颈层也是网络中最小的部分,我们先缩小网络表示,然后再扩大它。

image.png

       参数量12.4M, 下降为原来的十分之一。事实证明,只要合理构建瓶颈层,既可以显著缩小表示层规模,又不会降低网络性能,从而节省了计算

3.googleLeNet

https://arxiv.org/pdf/1409.4842.pdf

一个典型的Inception module

image.png

注意:池化层后加一个1x1卷积改变信道数量;

Inception网络,就是在不同位置,重复使用Inception模块组成

image.png

       由论文原文可知,还添加了一些分支,在网络最后基层,通常称为全连接层,之后再链接一个softmax层做预测;这些分支,应该看着Inception网络的一个细节,确保了即便是隐藏单元和中间层也参与了特征计算,它们也能预测图片分类。

       在 Inception网络中,起到一种调整的效果,并且能防止网络发生过拟合。还有这个特别的Inception网络是由Google公司的作者所研发的,它被叫做GoogleLeNet,这个名字是为了向 LeNet 网络致敬。

       最后,有个有趣的事实,Inception 网络这个名字又是缘何而来呢?Inception 的论文特地提到了这个meme,网络用语即“梗”,就是“我们需要走的更深”(We need to go deeper),作者其实是通过它来表明了建立更深的神经网络的决心,正是这样构建了 Inception。

image.pngimage.png

["We Need To Go Deeper" is an expression from the film Inception which is often featured in image macros and vertical multi-panes using screen captures from the movie. The phrase can indicate that further investigation is needed but can also be used to point out examples of recursion, in a similar vein to the Xzibit Yo Dawg image macro series. Source: http://knowyourmeme.com/memes/we-need-to-go-deeper ]

4.How use it?

       自己设计模型的话可以借鉴思路!

       如果用现成的话可以直接调用现有的库:Keras或者Pytorch或者Tensorflow。因人而异啦,传送门都放上了,自己选吧,当然,前提是你有自己的判断力和解决问题的能力,仅供参考!


【参考】

https://blog.csdn.net/zhanghao3389/article/details/85038524

https://blog.csdn.net/u014524930/article/details/79330316

https://blog.csdn.net/luteresa/article/details/106022735

点滴分享,福泽你我!Add oil!



https://wap.sciencenet.cn/blog-3428464-1279738.html

上一篇:[转载]统计numpy数组中每个值的个数
下一篇:1*1卷积的作用

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2021-9-28 18:40

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部