摘要:深度学习架构清单现在我们明白了什么是高级架构,并探讨了计算机视觉的任务分类,现在让我们列举并描述一下最重要的深度学习架构吧。是较早的深度架构,它由深度学习先驱及其同僚共同引入。这种巨大的差距由一种名为的特殊结构引起。
时刻跟上深度学习领域的进展变的越来越难,几乎每一天都有创新或新应用。但是,大多数进展隐藏在大量发表的 ArXiv / Springer 研究论文中。
为了时刻了解动态,我们创建了一个阅读小组,在 Analytics Vidhya 内部分享学习成果。我想和大家分享的是一项关于研究社区开发出的高级架构的调查。
本文包括深度学习领域的进展、keras 库中的代码实现以及论文链接。为保证文章简明,我只总结了计算机视觉领域的成功架构。
什么是高级架构?
相比于单一的传统机器学习算法,深度学习算法由多样化的模型组成;这是由于神经网络在构建一个完整的端到端的模型时所提供的灵活性。
神经网络有时可比作乐高块,借助想象力你几乎可以用它建构从简单到复杂的任何结构。
我们可以把高级架构定义为一个具有良好记录的成功模型;这主要见于挑战赛中,比如 ImageNet,其中你的任务是借助给定的数据解决图像识别等问题。
正如下文所描述的每一个架构,其中每一个都与常见的模型有细微不同,在解决问题时这成了一种优势。这些架构同样属于「深度」模型的范畴,因此有可能比浅层模型表现更好。
计算机视觉任务的类型
本文主要聚焦于计算机视觉,因此很自然地描述了计算机视觉任务的分类。顾名思义,计算机视觉即通过创建人工模型来模拟本由人类执行的视觉任务。其本质是人类的感知与观察是一个过程,它可在人工系统中被理解和实现。
计算机视觉任务的主要类型如下:
物体识别/分类:在物体识别中,给出一张原始图像,你的任务是识别出该图像属于哪个类别。
分类+定位:如果图像中只有一个物体,你的任务是找到该物体在图像中的位置,一个更专业的称谓是定位。
物体检测:在物体检测中,你的任务是找到图像中多个物体的各自位置。这些物体可能属于同一类别,或者各自不同。
图像分割:图像分割是一个稍微复杂的任务,其目标是将每一个像素映射到正确的分类。
深度学习架构清单
现在我们明白了什么是高级架构,并探讨了计算机视觉的任务分类,现在让我们列举并描述一下最重要的深度学习架构吧。
1. AlexNet
AlexNet 是较早的深度架构,它由深度学习先驱 Geoffrey Hinton 及其同僚共同引入。AlexNet 是一个简单却功能强大的网络架构,为深度学习的开创性研究铺平了道路。下图是论文作者提出架构的示图。
如图所示,分解后的 AlexNet 像是一个简单的架构,卷积层和池化层层叠加,最上层是全连接层。这是一个非常简单的架构,其早在 80 年代就已被概念化。但是该模型的突出特征是其执行任务的规模与使用 GPU 进行训练。20 世纪 80 年代,训练神经网络使用的是 CPU,而 AlexNet 借助 GPU 将训练提速了 10x。
论文:ImageNet Classification with Deep Convolutional Neural Networks
链接:https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
代码实现:https://gist.github.com/JBed/c2fb3ce8ed299f197eff
2. VGG Net
VGG 网络由牛津可视化图形组(Visual Graphics Group)开发,因此其名称为 VGG。该网络的特点是金字塔形,与图像最近的底层比较宽,而顶层很深。
如上图所示,VGG 包含池化层之后的卷积层,池化层负责使层变窄。他们在论文中提出多个此类网络,不同之处在于架构深度的变化。
VGG 的优势:
适合在特定任务上进行基准测试。
VGG 的预训练网络可在互联网上免费获取,因此被广泛用于各种应用。
另一方面,它的主要缺陷在于如果从头训练,则过程缓慢。即使在性能很好的 GPU 上,也需要一周多的时间才能完成训练。
论文:Very Deep Convolutional Networks for Large-Scale Image Recognition
链接:https://arxiv.org/abs/1409.1556
代码实现:https://github.com/fchollet/keras/blob/master/keras/applications/vgg16.py
3. GoogleNet
GoogleNet(或 Inception 网络)是谷歌研究者设计的一种架构。GoogleNet 是 ImageNet 2014 的冠军,是当时最强大的模型。
该架构中,随着深度增加(它包含 22 层,而 VGG 只有 19 层),研究者还开发了一种叫作「Inception 模块」的新型方法。
如上图所示,它与我们之前看到的序列架构发生了很大改变。单个层中出现了多种「特征抽取器(feature extractor)」。这间接地改善了该网络的性能,因为该网络在训练过程中有多个选项可以选择,来解决该任务。它可以选择与输入进行卷积,也可以直接将其池化。
最终架构包括堆叠在一起的多个 inception 模块。GoogleNet 的训练过程也有稍许不同,即最上层有自己的输出层。这一细微差别帮助模型更快地进行卷积,因为模型内存在联合训练和层本身的并行训练。
GoogleNet 的优势在于:
GoogleNet 训练速度比 VGG 快。
预训练 GoogleNet 的规模比 VGG 小。VGG 模型大于 500 MB,而 GoogleNet 的大小只有 96MB。
GoogleNet 本身没有短期劣势,但是该架构的进一步改变使模型性能更佳。其中一个变化是 Xception 网络,它增加了 inception 模块的发散极限(我们可以从上图中看到 GoogleNet 中有 4 个 inception 模块)。现在从理论上讲,该架构是无限的(因此又叫极限 inception!)。
论文:Rethinking the Inception Architecture for Computer Vision
链接:https://arxiv.org/abs/1512.00567
代码实现:https://github.com/fchollet/keras/blob/master/keras/applications/inception_v3.py
4.ResNet
ResNet 是一个妖怪般的架构,让我们看到了深度学习架构能够有多深。残差网络(ResNet)包含多个后续残差模块,是建立 ResNet 架构的基础。下图是残差模块的表示图:
简言之,一个残差模块有两个选择:完成输入端的一系列函数,或者跳过此步骤。
类似于 GoogleNet,这些残差模块一个接一个地堆叠,组成了完整的端到端网络。
ResNet 引入的新技术有:
使用标准的 SGD,而非适应性学习技术。它联通一个合理的初始化函数(保持训练的完整性)做到的这一点。
输入预处理的变化,输入首先被区分到图像块中,然后输送到网络中。
ResNet 主要的优势是数百,甚至数千的残差层都能被用于创造一个新网络,然后训练。这不同于平常的序列网络,增加层数量时表现会下降。
论文:Deep Residual Learning for Image Recognition
链接:https://arxiv.org/abs/1512.03385
代码实现:https://github.com/fchollet/keras/blob/master/keras/applications/resnet50.py
5. ResNeXt
ResNeXt 据说是解决目标识别问题的较先进技术。它建立在 inception 和 resnet 的概念上,并带来改进的新架构。下图是对 ResNeXt 模块中的残差模块的总结。
图 1. 左:ResNet 块。右:基数=32 的 ResNeXt 块,复杂度大致相同。层显示为(# in channels, filter size, # out channels)。
论文:Aggregated Residual Transformations for Deep Neural Networks
链接:https://arxiv.org/pdf/1611.05431.pdf
代码实现:https://github.com/titu1994/Keras-ResNeXt
6. RCNN (基于区域的 CNN)
基于区域的 CNN 架构据说是所有深度学习架构中对目标检测问题最有影响力的架构。为了解决检测问题,RCNN 尝试在图像中所有物体上画出边界框,然后识别图像中的物体。工作原理如下:
RCNN 结构如下:
论文:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
链接:https://arxiv.org/abs/1506.01497
代码实现:https://github.com/yhenon/keras-frcnn
7. YOLO (You Only Look once)
YOLO 是当前深度学习领域解决图像检测问题较先进的实时系统。如下图所示,YOLO 首先将图像划分为规定的边界框,然后对所有边界框并行运行识别算法,来确定物体所属的类别。确定类别之后,yolo 继续智能地合并这些边界框,在物体周围形成最优边界框。
这些步骤全部并行进行,因此 YOLO 能够实现实时运行,并且每秒处理多达 40 张图像。
尽管相比于 RCNN 它的表现有所降低,但在日常实时的问题中它还是有优势的。下图是 YOLO 架构的示图:
论文:You Only Look Once: Unified, Real-Time Object Detection
链接:https://pjreddie.com/media/files/papers/yolo.pdf
代码实现:https://github.com/allanzelener/YAD2K
8.SqueezeNet
SqueeNet 架构是在移动平台这样的低宽带场景中极其强大的一种架构。这种架构只占用 4.9 MB 的空间,而 Inception 架构大小为 100MB。这种巨大的差距由一种名为 Fire Module 的特殊结构引起。下图是 Fire Module 的表示图:
SqueezeNet 的完整架构如下:
论文:SQUEEZENET: ALEXNET-LEVEL ACCURACY WITH 50X FEWER PARAMETERS AND <0.5MB MODEL SIZE
链接:https://arxiv.org/abs/1602.07360
代码实现:https://github.com/rcmalli/keras-squeezenet
9.SegNet
SegNet 是一个用于解决图像分割问题的深度学习架构。它包含处理层(编码器)序列,之后是对应的解码器序列,用于分类像素。下图是 SegNet 解析图:
SegNet 的一个主要特征是在编码器网络的池化指标与解码器网络的池化指标连接时,分割图像保留高频细节。简言之,直接进行信息迁移,而非卷积它们。在处理图像分割问题时,SgeNet 是较好的模型之一。
论文:SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation
链接:https://arxiv.org/abs/1511.00561
代码实现:https://github.com/imlab-uiip/keras-segnet
10.GAN
GAN 是神经网络架构中完全不同的类别。GAN 中,一种神经网络用于生成全新的、训练集中未曾有过的图像,但却足够真实。例如,以下是 GAN 工作原理的解析图。
论文:Generative Adversarial Networks
链接:https://arxiv.org/abs/1406.2661
代码实现:https://github.com/bstriner/keras-adversarial
原文地址:https://www.analyticsvidhya.com/blog/2017/08/10-advanced-deep-learning-architectures-data-scientists/
欢迎加入本站公开兴趣群商业智能与数据分析群
兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识
QQ群:81035754
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/4595.html
摘要:下图总结了绝大多数上的开源深度学习框架项目,根据项目在的数量来评级,数据采集于年月初。然而,近期宣布将转向作为其推荐深度学习框架因为它支持移动设备开发。该框架可以出色完成图像识别,欺诈检测和自然语言处理任务。 很多神经网络框架已开源多年,支持机器学习和人工智能的专有解决方案也有很多。多年以来,开发人员在Github上发布了一系列的可以支持图像、手写字、视频、语音识别、自然语言处理、物体检测的...
摘要:是你学习从入门到专家必备的学习路线和优质学习资源。的数学基础最主要是高等数学线性代数概率论与数理统计三门课程,这三门课程是本科必修的。其作为机器学习的入门和进阶资料非常适合。书籍介绍深度学习通常又被称为花书,深度学习领域最经典的畅销书。 showImg(https://segmentfault.com/img/remote/1460000019011569); 【导读】本文由知名开源平...
摘要:而道器相融,在我看来,那炼丹就需要一个好的丹炉了,也就是一个优秀的机器学习平台。因此,一个机器学习平台要取得成功,最好具备如下五个特点精辟的核心抽象一个机器学习平台,必须有其灵魂,也就是它的核心抽象。 *本文首发于 AI前线 ,欢迎转载,并请注明出处。 摘要 2017年6月,腾讯正式开源面向机器学习的第三代高性能计算平台 Angel,在GitHub上备受关注;2017年10月19日,腾...
阅读 3722·2021-08-11 11:16
阅读 1567·2019-08-30 15:44
阅读 1970·2019-08-29 18:45
阅读 2236·2019-08-26 18:18
阅读 931·2019-08-26 13:37
阅读 1513·2019-08-26 11:43
阅读 2055·2019-08-26 11:34
阅读 324·2019-08-26 10:59