摘要:简称,是基于聚焦行业应用且提供商业支持的分布式深度学习框架,其宗旨是在合理的时间内解决各类涉及大量数据的问题。是负责开发的用编写,通过引擎加速的深度学习框架,是目前受关注最多的深度学习框架。
作者简介
魏秀参,旷视科技 Face++ 南京研究院负责人。南京大学 LAMDA 研究所博士,主要研究领域为计算机视觉和机器学习。在相关领域较高级国际期刊如 IEEE TIP、IEEE TNNLS、Machine Learning Journal 等和较高级国际会议如 ICCV、IJCAI、ICDM 等发表论文十余篇,并两次获得国际计算机视觉相关竞赛冠亚军。著有《解析深度学习——卷积神经网络原理与视觉实践》一书。曾获 CVPR 2017 较佳审稿人、南京大学博士生校长特别奖学金等荣誉,担任 ICCV、CVPR、ECCV、NIPS、IJCAI、AAAI 等国际会议 PC member。(个人自媒体:知乎“魏秀参”,新浪微博“Wilson_NJUer”)。
14 深度学习开源工具简介
自 2006 年 Hinton 和 Salakhutdinov 在 Science 上发表的深度学习论文点燃了最近一次神经网络复兴的“星星之火”,接着, 2012 年 Alex-Net 在 ImageNet 上夺冠又迅速促成了深度学习在人工智能领域的“燎原之势”。当下深度学习算法可谓主宰了计算机视觉、自然语言学习等众多人工智能应用领域。 与此同时,与学术研究一起快速发展并驾齐驱的还有层出不穷的诸多深度学习 开源开发框架。本章将向读者介绍和对比 9 个目前使用较多的深度学习开源框架,供大家根据自身情况“择优纳之”。
14.1 常用框架对比
表 14.2 中从“开发语言”、“支持平台”、“支持接口”、是否支持“自动求导”、 是否提供“预训练模型”、是否支持“单机多卡并行”运算等 10 个方面,对包 含 Caffe、 MatConvNet、 TensorFlow、 Theano 和 Torch 在内的 9 个目前最常用的深度学习开源框架进行了对比。
14.2 常用框架的各自特点
14.2.1 Caffe
Caffe 是一个广为人知、广泛应用侧重计算机视觉方面的深度学习库,由加州大学伯克利分校 BVLC 组开发,总结来说, Caffe 有以下优缺点:
✓ 适合前馈网络和图像处理;
✓ 适合微调已有的网络模型;
✓ 训练已有网络模型无需编写任何代码;
✓ 提供方便的 Python 和 MATLAB 接口;
✗ 可单机多卡,但不支持多机多卡;
✗ 需要用 C++/CUDA 编写新的 GPU 层;
✗ 不适合循环网络;
✗ 用于大型网络(如, GoogLeNet、 ResNet )时过于繁琐;
✗ 扩展性稍差,代码有些不够精简;
✗ 不提供商业支持;
✗ 框架更新缓慢,可能之后不再更新。
14.2.2 Deeplearning4j
Deeplearning4j 简称 DL4J,是基于JVM、聚焦行业应用且提供商业支持的分布式深度学习框架,其宗旨是在合理的时间内解决各类涉及大量数据的问题。 它与 Hadoop 和 Spark 集成,可使用任意数量的 GPU 或 CPU 运行。 DL4J 是一种适用于各类平台的便携式学习库。开发语言为 Java,可通过调整 JVM 的堆空间、垃圾回收算法、内存管理以及 DL4J 的 ETL 数据加工管道来优化 DL4J 的性能。其优缺点为:
✓ 适用于分布式集群,可高效处理海量数据;
✓ 在多种芯片上的运行已经被优化;
✓ 可跨平台运行,有多种语言接口;
✓ 支持单机多卡和多机多卡;
✓ 支持自动求导,方便编写新的网络层;
✓ 提供商业支持;
✗ 提供的预训练模型有限;
✗ 框架速度不够快。
14.2.3 Keras
Keras 由谷歌软件工程师 Francois Chollet 开发,是一个基于 Theano 和 TensorFlow 的深度学习库,具有一个受 Torch 启发、较为直观的 API。其优缺点如下:
✓ 受 Torch 启发的直观;
✓ 可使用 Theano、TensorFlow 和 Deeplearning4j 后端;
✓ 支持自动求导;
✓ 框架更新速度快。
14.2.4 MXNet
MXNet 是一个提供多种 API 的机器学习框架,主要面向 R、Python 和 Julia 等语言,目前已被亚马逊云服务采用。其优缺点为:
✓ 可跨平台使用;
✓ 支持多种语言接口;
✗ 不支持自动求导。
14.2.5 MatConvNet
MatConvNet 由英国牛津大学著名计算机视觉和机器学习研究组 VGG 负责开发,是主要基于 MATLAB 的深度学习工具包。其优缺点为:
✓ 基于 MATLAB,便于进行图像处理和深度特征后处理;
✓ 提供了丰富的预训练模型;
✓ 提供了充足的文档及教程;
✗ 不支持自动求导;
✗ 跨平台能力差。
14.2.6 TensorFlow
TensorFlow 是 Google 负责开发的用 Python API 编写,通过 C/C++ 引擎加速的深度学习框架,是目前受关注最多的深度学习框架。它使用数据流图集成 深度学习中最常见的单元,并支持许多的 CNN 网络结构以及不同设置的 RNN。其优缺点为:
✓ 具备不局限于深度学习的多种用途,还有支持强化学习和其他算法的工具;
✓ 跨平台运行能力强;
✓ 支持自动求导;
✗ 运行明显比其他框架慢;
✗ 不提供商业支持。
14.2.7 Theano
Theano 是深度学习框架中的元老,用 Python 编写,可与其他学习库配合使用,非常适合学术研究中的模型开发。现在已有大量基于 Theano 的开源深度学习库,包括 Keras、Lasagne 和 Blocks。这些学习库试着在 Theano 有时不够直观的接口之上添加一层便于使用的 API。关于 Theano,有如下特点:
✓ 支持 Python 和 Numpy;
✓ 支持自动求导;
✓ RNN 与计算图匹配良好;
✓ 高级的包装(Keras、Lasagne)可减少使用时的麻烦;
✗ 编译困难,错误信息可能没有帮助;
✗ 运行模型前需编译计算图,大型模型的编译时间较长;
✗ 仅支持单机单卡;
✗ 对预训练模型的支持不够完善。
14.2.8 Torch
Torch 是用 Lua 编写带 API 的科学计算框架,支持机器学习算法。Facebook 和 Twitter 等大型科技公司使用 Torch 的某些版本,由内部团队专门负责定制自己的深度学习平台。其优缺点如下:
✓ 大量模块化组件,容易组合;
✓ 易编写新的网络层;
✓ 支持丰富的预训练模型;
✓ PyTorch 为 Torch 提供了更便利的接口;
✗ 使用 Lua 语言需要学习成本;
✗ 文档质量参差不齐;
✗ 一般需要自己编写训练代码(即插即用相对较少)。
声明:文章收集于网络,如有侵权,请联系小编及时处理,谢谢!
欢迎加入本站公开兴趣群商业智能与数据分析群
兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识
QQ群:81035754
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/4854.html
摘要:相比于直接使用搭建卷积神经网络,将作为高级,并使用作为后端要简单地多。测试一学习模型的类型卷积神经网络数据集任务小图片数据集目标将图片分类为个类别根据每一个的训练速度,要比快那么一点点。 如果我们对 Keras 在数据科学和深度学习方面的流行还有疑问,那么考虑一下所有的主流云平台和深度学习框架的支持情况就能发现它的强大之处。目前,Keras 官方版已经支持谷歌的 TensorFlow、微软的...
摘要:表示,的贾扬清对他的这一项目给予了很多帮助,贾扬清告诉他,的好几个网络,较大瓶颈都是,如果想要实现一流的性能,贾扬清建议较好使用异步,这样会有很大的帮助。,和则是默认启用这项功能。 微软数据科学家Ilia Karmanov做了一个项目,使用高级API测试8种常用深度学习框架的性能(因为Keras有TF,CNTK和Theano,所以实际是10种)。Karmanov希望这个项目能够帮助数据科学家...
摘要:第一个深度学习框架该怎么选对于初学者而言一直是个头疼的问题。简介和是颇受数据科学家欢迎的深度学习开源框架。就训练速度而言,胜过对比总结和都是深度学习框架初学者非常棒的选择。 「第一个深度学习框架该怎么选」对于初学者而言一直是个头疼的问题。本文中,来自 deepsense.ai 的研究员给出了他们在高级框架上的答案。在 Keras 与 PyTorch 的对比中,作者还给出了相同神经网络在不同框...
摘要:但年月,宣布将在年终止的开发和维护。性能并非最优,为何如此受欢迎粉丝团在过去的几年里,出现了不同的开源深度学习框架,就属于其中典型,由谷歌开发和支持,自然引发了很大的关注。 Keras作者François Chollet刚刚在Twitter贴出一张图片,是近三个月来arXiv上提到的深度学习开源框架排行:TensorFlow排名第一,这个或许并不出意外,Keras排名第二,随后是Caffe、...
阅读 3703·2021-11-22 13:52
阅读 3601·2019-12-27 12:20
阅读 2383·2019-08-30 15:55
阅读 2142·2019-08-30 15:44
阅读 2260·2019-08-30 13:16
阅读 572·2019-08-28 18:19
阅读 1880·2019-08-26 11:58
阅读 3434·2019-08-26 11:47