资讯专栏INFORMATION COLUMN

熬过深宫十几载,深度学习上位这五年

msup / 525人阅读

摘要:年,发表,至今,深度学习已经发展了十几年了。年的结构图图片来自于论文基于图像识别的深度卷积神经网络这篇文章被称为深度学习的开山之作。还首次提出了使用降层和数据增强来解决过度匹配的问题,对于误差率的降低至关重要。

1998年,Yann LeCun 发表Gradient-Based Learning Applied to Document Recognition,至今,深度学习已经发展了十几年了。以大家熟知的CNNs为代表的技术在近几年内取得了跨越式的发展,但理解深度学习的技术细节往往需要深入的数理知识,导致我们对于深度学习的理解一直停留在较浅的程度。本文就将带你回顾深度学习近些年来的里程碑式成果,就算看不懂技术细节,也可以一睹深度学习的前世今生。

2012年-AlexNet

AlexNet的结构图(图片来自于论文:《基于ImageNet图像识别的深度卷积神经网络》)

这篇文章被称为深度学习的开山之作。当然,也有很多人坚称Yann LeCun 1998年发表的Gradient-Based Learning Applied to Document Recognition才是开山之作,即便这样, 这篇文章使得深度学习进入主流科学界的视野也是毋庸置疑的。事实上,有人的地方就有江湖,这种争论与当年牛顿和莱布尼茨争论微积分的发明权一样都无损于我们作为学习者领略这些成果美妙的思想和灿烂的智慧,这篇文章的作者Alex Krizhevsky, Ilya Sutskever, 和 Geoffrey E. Hinton同Yann Lecun都是最杰出的学者。

特点:

在结构上,AlexNet由8层神经网络组成:其中有5层卷积层和3层全连接层(相比较现在的神经网络,这真是太简单了,但即便是这样,它也足以用来分类1000类图片了)。

AlexNet使用ReLU作为非线性函数,而不是此前一直广泛使用的常规tanh函数。

AlexNet还首次提出了使用Dropout Layers(降层)和Data Augmentation (数据增强)来解决过度匹配的问题,对于误差率的降低至关重要。

这篇文章之所名留青史与其在应用方面的优异表现分不开(时间果然是检验真理的标准啊),AlexNet赢得了2012年的ILSVRC(ImageNet大规模视觉识别挑战赛),误差率为15.4%。甩了当时的第二名十条大街(26.2%) 。

论文:《基于ImageNet图像识别的深度卷积神经网络》- Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton

2013年-ZF Net

ZF net 结构图(图片来自论文:《卷积网络的可视化与理解》)

学术界的反映其实总要比我们想象地要快得多,在2013年的ILSVRC(ImageNet大规模视觉识别挑战赛)上,就出现了大量的CNN模型,而其中夺得桂冠的就是ZF Net(错误率进一步降低到11.2%),其实ZF Net更像是一个AlexNet的升级版,但它仍然有以下特点:

推出了反卷积网络(又名DeConvNet),一种可查看卷积网络(CNN)内部运作的可视化技术。

激活函数用了ReLu,误差函数用了交叉熵损失(cross-entropy      loss),训练使用批量随机梯度下降方法。

大大减少了训练模型使用的图片数量,AlexNet使用了1500万张图片做训练,而ZF Net只用了130万张。

论文:《卷积网络的可视化与理解》- Matthew D. Zeiler, Rob Fergus

2014年-VGG Net

VGG结构图(图片来自Keras的博客:https://blog.keras.io)

看到这里我们已经可以发现深度学习和ILSVRC深深的纠葛,接下来我们要介绍的VGG Net正是ILSVRC 2014“图像识别+定位”组别的获胜者,误差率为7.3%。

VGG Net具有以下特点:

VGG结构在图像识别和定位两个方面都表现出色。

使用了19层网络,3x3的滤波器。 (而不是AlexNet的11x11滤波器和ZF Net的7x7滤波器相比)

提供了可用于分层特征提取的简单深度结构。

利用抖动(scale      jittering)作为训练时数据增强的手段。

VGG Net成为里程碑的主要原因除了它在定位和图像识别两方面都表现突出外,还因为它强调了卷积神经网络需要用到深度网络结构才能把图像数据的层次表达出来,为之后深度学习的发展提供了指导。

论文:《用于大规模图像识别的超深度卷积网络》-  Karen Simonyan, Andrew Zisserman

2014/2015年-GoogLeNet

GoogleNet结构图(图片来自于论文:《深入探索卷积》)

读到这里的读者应该已经能把ILSVRC这个大赛当作老朋友了。在2014年的ILSVRC大赛中,我们刚才介绍的VGG Net只是“图像识别+定位”组别的冠军,而GoogLeNet则凭借6.7%的误差率赢得了ILSVRC 2014图像识别的冠军。

它具有以下特点:

引入了“初始模块”,强调了CNN的层次并不总是必须顺序堆叠的。

初始模块(图片来自论文《深入探索卷积》)

22层深的网络(如果独立计算则总网络超过100层)。

没有使用全连接层,而是以使用平均池化代替,将7x7x1024的输入量转换为1x1x1024的输入量。 这节省了大量的参数。

证明了优化的非顺序结构可能比顺序结构性能更好。

GoogLeNet 的创新主要在于这是第一个真正不通过简单顺序叠加卷积层和池化层来构建的CNN架构之一,为后来CNN在架构上的创新打下了基础。

论文:《深入探索卷积》- Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew Rabinovich, 谷歌公司,北卡罗来纳大学教堂山分校,密歇根大学安娜堡分校,Magic Leap公司

2015年—微软ResNet

ResNet 结构图(图片来自于论文:《图像识别的深度残差学习》)

ResNet是2015年ILSVRC的获胜者(又是ILSVRC!),它的误差率达到了惊人的3.6%,首次在图像识别的准确率上超越了人类(5%-10%),它拥有以下特点:

真的很深,ResNet 具有152层的“极端深度”(原文作者用Ultra-deep这个词来描述它)的结构。

提出了使用残差模块以减轻过度匹配。

残差模块(图片来自于论文:《图像识别的深度残差学习》)

论文:《图像识别的深度残差学习》- Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, 微软亚洲研究院

意义:超越人类还不算意义吗?

深度学习只有CNNs(卷积神经网络)吗?

当!然!不!是!现在我们终于能摆脱被ILSVRC支配的恐惧,谈点其他的了,事实上,深度学习的模型还包括:

Deep Boltzmann Machine(深度玻尔兹曼机)

Deep Belief Networks(深度信念网络)

Stacked Autoencoders(栈式自编码算法)

原文链接:https://medium.com/towards-data-science/milestones-of-deep-learning-1aaa9aef5b18

欢迎加入本站公开兴趣群

商业智能与数据分析群

兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识

QQ群:81035754

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/4591.html

相关文章

  • AWS入华五年,一起走过的日子

    摘要:年月日,一个再普通不过的日子。容永康选择加入,成为中国的第一号员工。在中国选择的运营模式,不止中国此前没有,也未曾经历过,因此需要跟监管部门进行大量的沟通和深入的探讨。2013年12月18日,一个再普通不过的日子。然而由于AWS在中国正式推出云服务的缘故,这一天成为中国云计算发展时间轴上的关键点之一。至今犹记得,当时北京国际饭店那场座无虚席的新闻发布会,过道里也挤满了热情的观众,乃至于酒店方...

    libin19890520 评论0 收藏0
  • CVPR2016主旨演讲及焦点论文速览,深度学习垄断地位遭质疑

    摘要:本届会议共收到论文篇,创下历史记录有效篇。会议接收论文篇接收率。大会共有位主旨演讲人。同样,本届较佳学生论文斯坦福大学的,也是使用深度学习做图像识别。深度学习选择深度学习选择不过,也有人对此表示了担心。指出,这并不是做学术研究的方法。 2016年的计算机视觉领域国际顶尖会议 Computer Vision and Pattern Recognition conference(CVPR2016...

    Corwien 评论0 收藏0
  • 通过28303篇ML论文总结出的27大主流学习框架

    摘要:在过去五年里,我碰巧使用了一个收藏了篇机器学习论文的数据库,这些论文都来自于。因此,本文将这五年间机器学习的发展趋势进行了简单的总结。我们得到了如下结果是的,年月份,接受了多篇与机器学习领域有关的论文。 机器学习的趋势概述如果你用过谷歌趋势(Google Trends),你一定会发现它很酷——你输入一些关键词,你就能够看到这些关键词的谷歌搜索量是如何随着时间而变化的。在过去五年里,我碰巧使用...

    elisa.yang 评论0 收藏0
  • 阿里五年晋升三次,这个程序员要聊聊他的选择

    摘要:小二穆远是蚂蚁金服的一名程序员,五年晋升了三次,他要聊聊自己的五年阿里之旅,那些变化坚持和泪水。在阿里待满五年是一种什么样的体验打怪升级,一路找寻自己的答案。年陈故事会,来自阿里小二的自述。小二穆远是蚂蚁金服的一名程序员,五年晋升了三次,他要聊聊自己的五年阿里之旅,那些变化、坚持和泪水。请看本期的年陈故事会。showImg(https://user-gold-cdn.xitu.io/2019...

    Seay 评论0 收藏0
  • 编程之外,8种拓展方式

    摘要:今天我们就讨论下编程之外的个拓展自己的方式。不同的人对于攀登珠峰可能有不同理解,有些人眼中是特种旅游项目,有些人眼中是超越自身生理心理修行,有些人眼中的炫耀工具,有些人眼中的一生的奋斗目标,有些人眼中的商业生意,有些人眼中的终身事业。 编程不是目的,然而编程之外,有更多精彩需要我们体会,毕竟人生可不止于编程。今天我们就讨论下编程之外的8个拓展自己的方式。如果你有自己的好的方式,欢迎参与...

    刘玉平 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<