设为首页收藏本站language 语言切换
查看: 3164|回复: 20
收起左侧

解锁AI:(04)历史进程到了Google Net

[复制链接]
发表于 2019-10-18 11:03:00 | 显示全部楼层 |阅读模式
Google Inception Net V1
首先要为上篇文章(VG04GNet)遗漏了原始论文下载链接而表示歉意,特此在下方奉上上篇文章与今天这篇文章的论文链接:
VGGNet 论文:https://arxiv.org/pdf/1409.1556.pdf
Google Inception Net v1 论文:https://arxiv.org/pdf/1409.4842.pdf
谷歌.png

继续加深
深度学习开始在计算机视觉领域大放光彩,神经网络的结构也是越来越有深度。前文中我们讲解的VGGNet就达到了最多19层的计算深度,而本文所描述的架构是一个22层深度的神经网络,此神经网络的架构图在本文中能够独占一页,读者可以测试一下您的手机,是否可以确保清晰看到下图中每个字的前提下,完整显示下图所有内容(图片来自网络)。
神经网络架构图.jpg

Inception层
既然谷歌把这个神经网络成为Inception Net,那么就肯定有它的特殊之处,论文中描述了这样的一种层结构。Inception层对前层传输过来的信号进行多维度卷积并行处理,原始的naïve版本经过试验会导致计算量爆表,而修正后的减维度版本则解决了这个问题,出现这种问题的主要原因是5x5的卷积操作和3x3的池化操作不应该并行进行,下图中的b就是减维度版本,仅仅是增加了一些1x1的卷积就解决了这个问题。
Inception层.png

您能在最上面的长图中找出几个Inception层呢?答案就在下面这个说明表中。准确的说,在长图中从下往上看,第二个Max Pool 过后就是第一个Inception层3a了。
Inception层说明表.jpg

一些细节
值得一提的是,AlexNet中的LRN层又出现在了Inception Net v1中,不过很快它将又被移除,感觉LRN真心苦,总被拉拢与抛弃。而另一方面,谷歌对于此架构给予了很高的期望,首先从命名上来看就纪念了LeNet-5,Google Inception Net简称为GoogLeNet。其次自发布本文后,GoogLeNet就一直向Inference(感知)的方向前进,意在将神经网络做的更实用,毕竟这些模型应该是被所有人拿来用的,而不是仅仅供奉在比赛的圣堂中。

本文也描述了很现实的数据问题,即想Image Net这样有专业分类的数据实在难找,例如下面的图像,对于我这种普通人而言,看起来明明就是一样的狗,但在Image Net中却有着更专业的分类。这篇GoogLeNet的开山文就介绍到这里,下回我们继续进入V2版本看看来自Google的人工智能技术如何发展变更。
图像识别.jpg


www.yeslab.net


发表于 2019-12-4 13:57:16 | 显示全部楼层
菜鸟变高手从此走上人生巅峰
沙发 2019-12-4 13:57:16 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2019-12-4 13:57:32 | 显示全部楼层
菜鸟变高手从此走上人生巅峰
地板 2019-12-4 13:57:32 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2019-12-19 17:27:39 来自手机 | 显示全部楼层
thank  you
5# 2019-12-19 17:27:39 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2019-12-22 21:36:33 来自手机 | 显示全部楼层
哈哈有帮助
7# 2019-12-22 21:36:33 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2019-12-22 21:38:03 来自手机 | 显示全部楼层
有帮助哈哈
12# 2019-12-22 21:38:03 回复 收起回复
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 论坛注册

本版积分规则

QQ|Archiver|手机版|小黑屋|sitemap|鸿鹄论坛 ( 京ICP备14027439号 )  

GMT+8, 2025-1-31 07:20 , Processed in 0.063694 second(s), 9 queries , Redis On.  

  Powered by Discuz!

  © 2001-2025 HH010.COM

快速回复 返回顶部 返回列表