设为首页收藏本站language→→ 语言切换

鸿鹄论坛

 找回密码
 论坛注册

QQ登录

先注册再绑定QQ

查看: 582|回复: 8
收起左侧

解锁AI:(04)被VGGNet一巴掌拍懵

[复制链接]
发表于 2019-10-17 12:47:16 | 显示全部楼层 |阅读模式
      继AlexNet与ZFNet之后,VGGNet拿下了2014年ILSVRC(ImageNet Large Scale Visual Recognition Competition)的冠军。VGGNet是牛津大学视觉组构造的深度学习模型,整个架构的特点就是成熟二字,首先系统减少了对参数细节的思考,大量重复参数出现,其次这个网络给予用户多种架构选择,就像买车一样有高中低配,让人使用起来非常舒服。当然这些都不是本文的重点,更让人兴奋的是,这篇论文会对前面的文章重重打脸,让我们拭目以待。
微信图片_20191017124224.jpg



      打脸LRN

      如果你熟悉我们之前的计算机视觉系列文章,应该记得我们讲过一个很玄乎的LRN层,AlexNet架构费尽心思,根据人类大脑抑制保护机制,采取了一种LRN激活抑制方法。此法相当复杂,且需要在每次激活时实施,然而这篇论文中,这种方法被VGGNet直接否定了,并且作者做了专门的对比试验来证明这个事。下图就是VGGNet 的可选结构,我们可以看到A-LRN网络就是作者为了专门打脸做的结构。
A-LRN网络结构.jpg



      网络配置打脸

      AlexNet使用较大的卷积核配置,例如11x11,而ZFNet将第一层改小为7x7,步幅也从4改为2,现在VGGNet站出来说“参数改来改去有什么意思”(个人笑谈),于是把所有卷积层改为3x3,部分特殊层为了实验目的改为1x1,关于1x1网络我们后文再聊,步幅也都统一为1,至此结构统一步伐整齐。看完卷积再来看看池化层,AlexNet精心研究了过载池化技术,就是使用3x3的池化大小,却使用2作为步长,这样每次池化运算都会有重复部分,而在VGGNet看来这样做完全没什么作用,于是VGGNet里面所有池化都采用2x2大小与2作为步长,这样可以节省很多参数,VGGNet的参数量见下图。
VGGNet的参数量.png


      成绩打脸

       这篇文章属于VGGNet V6版本,写于2015年,也就是Google Inception Net已出的时间,故本文的成绩在超过AlexNet和ZFNet的同时,也与最新的Google Inception Net做了比较,仿佛再说这样的话“虽然你是2015年的老大,但我2014年的冠军模型只输你0.1”。下图就是ILSVRC比赛的成绩,Krizhevsky是AlexNet,Zeiler & Fergus是ZFNet。VGGNet就讲解到这里,下回Google Inception Net 再分晓。
VGGNet.jpg


www.yeslab.net

发表于 2019-12-26 22:42:00 来自手机 | 显示全部楼层
太棒了厉害了
5# 2019-12-26 22:42:00 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2019-12-28 17:35:45 来自手机 | 显示全部楼层
我觉得太棒了
6# 2019-12-28 17:35:45 回复 收起回复
回复 支持 反对

使用道具 举报

发表于 2019-12-28 17:35:52 来自手机 | 显示全部楼层
简直厉害了
7# 2019-12-28 17:35:52 回复 收起回复
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 论坛注册

本版积分规则

QQ|Archiver|手机版|小黑屋|sitemap|鸿鹄论坛 ( 京ICP备14027439号 )  

GMT+8, 2024-4-24 08:07 , Processed in 0.063591 second(s), 9 queries , Redis On.  

  Powered by Discuz!

  © 2001-2024 HH010.COM

快速回复 返回顶部 返回列表