【AI-1000问】你知道为什么GoogLeNet也被称为InceptionNet吗?

部署运行你感兴趣的模型镜像

文章首发于微信公众号《有三AI》

【AI-1000问】你知道为什么GoogLeNet也被称为InceptionNet吗?

往期视频(前往公众号观看)

GoogLeNet为什么也被称为InceptionNet?

我们都知道在2014年ILSVRC 比赛中GoogLeNet获得了冠军,其所用模型参数不足AlexNet(2012年冠军)的1/12,但性能却比AlexNet好不少。我们从其论文题目《Going deeper with convolutions》中的deeper也能明白它的贡献,deeper有两层含义,一是指其引入了一种新的结构“Inception module”,二就是其直接含义——网络深度(depth)的增加。今天【AI-1000问】第六问,我们就聊聊GoogLeNet为什么也被称为InceptionNet?

作者/编辑 汤兴旺

 

大家还记得多年前,那一部超级烧脑的电影《inception》吗?如果这个名字不熟悉,那么《盗梦空间》你应该还记得吧!

Dom Cobb(由莱昂纳多·迪卡普里奥饰演)与Robert Fischer(由Cillian Murphy饰演)对话时的那一句:“We need to go deeper”,可谓是引发高潮。讲述的就是如何在某人心中植入思想,寓意进行更深刻的感知。

我们知道AlexNet、VGG等结构都是通过增大网络的深度(层数)来获得更好的训练效果,所以早期设计网络的时候,自然也是走这样的路线,从LeNet的7层,到AlexNet的8层,VGG的16层,19层。不过层数的增加也会带来很多负作用,比如overfit、梯度消失、梯度爆炸等。

GoogLeNet是2014年的分类比赛冠军,网络达到了22层,参数量为5M,核心就是Inception模块,名字的来源主要便是上面的“inception”, 寓意一个比以前的网络都更深的网络,当然这实际上还是一个多尺度,“更宽”的网络设计,结构如下:

因此我们也把GoogLeNet称做InceptionNet,毕竟GoogLet是第一个提出InceptionNet的。

 

思考

你对GoogLeNet为什么也被称为InceptionNet理解了吗?另外如果你想更深入的了解InceptionNet,请看我们的往期文章【模型解读】GoogLeNet中的inception结构,你看懂了吗,另外,GoogLeNet中的L,为什么是大写而不是Google的小写,你知道吗?

转载文章请后台联系

侵权必究

感谢各位看官的耐心阅读,不足之处希望多多指教。后续内容将会不定期奉上,欢迎大家关注有三公众号 有三AI

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.9

TensorFlow-v2.9

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

言有三

三人行必有AI

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值