资讯专栏INFORMATION COLUMN

轻量化神经网络

curried / 2048人阅读

摘要:是第一个提出体积小,计算量少,适用于移动设备的卷积神经网络。图卷积运算汇总参考图与神经网络架构搜索卷积神经网络已被广泛用于图像分类人脸识别目标检测和其他领域。

1、基本卷积运算

手工设计轻量化模型主要思想在于设计更高效的“网络计算方式”(主要针对卷积方式),从而使网络参数减少,并且不损失网络性能。本节概述了CNN模型(如MobileNet及其变体)中使用的基本卷积运算单元,并基于空间维度和通道维度,解释计算效率的复杂度。

1.1 标准卷积

图1标准卷积计算图

HxW表示输入特征图空间尺寸(如图1所示,H和W代表特征图的宽度和高度,输入和输出特征图尺寸不变),N是输入特征通道数,KxK表示卷积核尺寸,M表示输出卷积通道数,则标准卷积计算量是HWNK2M。

图2标准卷积计算过程

如图3所示标准卷积在空间维度和通道维度直观说明(以下示意图省略“spatial“,”channel“,”Input“,”Output“),输入特征图和输出特征图之间连接线表示输入和输出之间的依赖关系。以conv3x3为例子,输入和输出空间“spatial”维度密集连接表示局部连接;而通道维度是全连接,卷积运算都是每个通道卷积操作之后的求和(图2),和每个通道特征都有关,所以“channel”是互相连接的关系。

图3标准卷积:空间维度和通道维度示意图

1.2 Grouped Convolution

分组卷积是标准卷积的变体,其中输入特征通道被为G组(图4),并且对于每个分组的信道独立地执行卷积,则分组卷积计算量是HWNK2M/G,为标准卷积计算量的1/G。

图 4分组卷积:空间维度和通道维度示意图

Grouped Convlution最早源于AlexNet。AlexNet在ImageNet LSVRC-2012挑战赛上大显神威,以优势夺得冠军,是卷积神经网络的开山之作,引领了人工智能的新一轮发展。但是AlexNet训练时所用GPU GTX 580显存太小,无法对整个模型训练,所以Alex采用Group convolution将整个网络分成两组后,分别放入一张GPU卡进行训练(如图5所示)。

图5 AlexNet网络架构

1.3 Depthwise convolution

Depthwise convolution[7]最早是由Google提出,是指将NxHxWxC输入特征图分为group=C组(既Depthwise 是Grouped Convlution的特殊简化形式),然后每一组做k*k卷积,计算量为HWK2M(是普通卷积计算量的1/N,通过忽略通道维度的卷积显著降低计算量)。Depthwise相当于多带带收集每个Channel的空间特征。

图6 depthwise卷积

图7 Depthwise卷积:空间维度和通道维度示意图

1.4 pointwise convolution

Pointwise是指对NxHxWxC的输入做 k个普通的 1x1卷积,如图8,主要用于改变输出通道特征维度。Pointwise计算量为HWNM。

Pointwise卷积相当于在通道之间“混合”信息。

图8 Pointwise卷积

图9 Pointwise卷积:空间维度和通道维度示意图

1.5 Channel Shuffle

Grouped Convlution导致模型的信息流限制在各个group内,组与组之间没有信息交换,这会影响模型的表示能力。因此,需要引入group之间信息交换的机制,即Channel Shuffle操作。

Channel shuffle是ShuffleNet提出的(如图 5 AlexNet也有Channel shuffle机制),通过张量的reshape 和transpose,实现改变通道之间顺序。

图10 Channel shuffle:空间维度和通道维度示意图

如图10所示Channel shuffle G=2示意图,Channel shuffle没有卷积计算,仅简单改变通道的顺序。

 

2、人工设计神经网络

MobileNet V1&V2,ShuffleNet V1&V2有一个共同的特点,其神经网络架构都是由基本Block单元堆叠,所以本章节首先分析基本Block架构的异同点,再分析整个神经网络的优缺点。

2.1MobileNet V1

MobileNet V1是Google第一个提出体积小,计算量少,适用于移动设备的卷积神经网络。MobileNet V1之所以如此轻量,背后的思想是用深度可分离卷积(Depthwise separable convolution)代替标准的卷积,并使用宽度因子(width multiply)减少参数量。

深度可分离卷积把标准的卷积因式分解成一个深度卷积(depthwise convolution)和一个逐点卷积(pointwise convolution)。如1.1标准卷积的计算量是HWNK2M,深度可分离卷积总计算量是:

一般网络架构中M(输出特征通道数)>>K2(卷积核尺寸) (e.g. K=3 and M ≥ 32),既深度可分离卷积计算量可显著降低标准卷积计算量的1/8–1/9。

深度可分离卷积思想是channel相关性和spatial相关性解耦图12。

图11 Channel shuffle:标准卷积和深度和分离卷积架构对比

图12深度可分离卷积:空间维度和通道维度示意图

为了进一步降低Mobilenet v1计算量,对输入输出特征通道数M和N乘以宽度因子α(α∈(0,1),d典型值0.25,0.5和0.75),深度可分离卷积总计算量可以进一降低为:

2.2 ShuffleNet V1

ShuffleNet是Face++提出的一种轻量化网络结构,主要思路是使用Group convolution和Channel shuffle改进ResNet,可以看作是ResNet的压缩版本。

图13展示了ShuffleNet的结构,其中(a)就是加入BatchNorm的ResNet bottleneck结构,而(b)和(c)是加入Group convolution和Channel Shuffle的ShuffleNet的结构。

图13 shuffle V1 Block架构

图14 ShuffleNet V1 Block:空间维度和通道维度示意图

如所示,ShuffleNet block最重要的操作是channel shuffle layer,在两个分组卷积之间改变通道的顺序,channel shuffle实现分组卷积的信息交换机制。

ResNet bottleneck计算量:

ShuffleNet stride=1计算量:

对比可知,ShuffleNet和ResNet结构可知,ShuffleNet计算量降低主要是通过分组卷积实现。ShuffleNet虽然降低了计算量,但是引入两个新的问题:

1、channel shuffle在工程实现占用大量内存和指针跳转,这部分很耗时。

2、channel shuffle的规则是人工设计,分组之间信息交流存在随意性,没有理论指导。

2.3 MobileNet V2

MobileNet V1设计时参考传统的VGGNet等链式架构,既传统的“提拉米苏”式卷积神经网络模型,都以层叠卷积层的方式提高网络深度,从而提高识别精度。但层叠过多的卷积层会出现一个问题,就是梯度弥散(Vanishing)。残差网络使信息更容易在各层之间流动,包括在前向传播时提供特征重用,在反向传播时缓解梯度信号消失。于是改进版的MobileNet V2[3]增加skip connection,并且对ResNet和Mobilenet V1基本Block如下改进:

● 继续使用Mobilenet V1的深度可分离卷积降低卷积计算量。

● 增加skip connection,使前向传播时提供特征复用。

● 采用Inverted residual block结构。该结构使用Point wise convolution先对feature map进行升维,再在升维后的特征接ReLU,减少ReLU对特征的破坏。

图15 Mobile V1, Mobile V2,ResNet架构对比

 

2.4 ShuffleNet V2

Mobile V1&V2,shuffle Net V1 在评价维度的共同特征是:使用FLOPS作为模型的评价标准,但是在移动终端设备时需要满足各个条件:参数少、速度快和精度高,单一的参数少并不一定实现速度快和精度高。

Face++提出的ShuffeNet V2,实现使用直接指标(运算速度)代替间接评价指标(例如FLOPS),并在ARM等移动终端进行评估。并且基于减少计算量提出四个原则:

(1)使用输入和输出通道宽度不同增加卷积的计算量;

(2)组卷积增加MAC;

(3)多分支降低运算效率;

(4)元素级运算增加计算量。

如图16所示

(a)ShuffleNet 基本单元;

(b)用于空间下采样 (2×) 的 ShuffleNet 单元;

(c)ShuffleNet V2 的基本单元;

(d)用于空间下采样 (2×) 的 ShuffleNet V2 单元。

ShuffleNet V2 引入通道分割(channel split)操作, 将输入的feature maps分为两部分:一个分支为shortcut流,另一个分支含三个卷积(且三个分支的通道数一样)。分支合并采用拼接(concat),让前后的channel数相同,最后进行Channel Shuffle(完成和ShuffleNet V1一样的功能)。元素级的三个运算channel split、concat、Channel Shuffle合并一个Element-wise,显著降低计算复杂度。

图16 ShuffeNet V1 VS ShuffeNet V2架构

ShuffleNet V2虽然提出减少计算量的四个原则,基本卷积单元仍采用Depthwise和Pointwise降低计算量,但是没有提出如何实现提高准确率,推断延迟等评价指标。

对比MobileNet V1&V2,ShuffleNet V1&V2模型(图17),手工设计轻量化模型主要得益于depth-wise convolution减少计算量,而解决信息不流畅的问题,MobileNet 系列采用了 point-wise convolution,ShuffleNet 采用的是 channel shuffle。

图17 卷积运算汇总参考图

3、NAS与神经网络架构搜索

卷积神经网络(CNN)已被广泛用于图像分类、人脸识别、目标检测和其他领域。然而,为移动设备设计 CNN 是一项具有挑战性的工作,因为移动端模型需要体积小、速度快,还要保持精准。尽管人们已经做了大量努力来设计和改进移动端模型,第二章所总结MobileNet系列、ShuffleNet系列。但手动设计高效模型仍然是一项挑战,因为要考虑的因素太多。AutoML神经架构搜索的发展促进移动端 CNN 模型的自动化设计。

NAS的算法综述可参看本人之前写的一篇综述文章《让算法解放算法工程师----NAS综述》[10]。在综述文章中有关NAS的搜索空间,搜索策略,性能评估策略均已经做了总结,而且NAS的复现比较耗费GPU资源(NasNet做实验时间使用500块GPUx4天,一般项目组的资源难以望其项背),本章节主要是比较NAS设计的网络与传统手工设计神经网络异同,以及NAS的发展方向。

3.1 NasNet

NasNet是基于AutoML方法,首先在CIFAR-10这种小数据集上进行神经网络架构搜索,以便 AutoML 找到较佳卷积层并灵活进行多次堆叠来创建最终网络,并将学到的较好架构迁移到ImageNet图像分类和 COCO 对象检测中。NAS在搜索时使用的基本运算如下,包括常用的depthwise-separable,pool,3x3卷积等,使得block运行时对输入尺寸没有要求(例如卷积,pooling等操作)。这样图像由cifar的32 x32到imagenet的大尺寸图片均可实现分类任务。

NasNet设计基于人类的经验,设计设计两类 Cells:Normal cell 和Reduction cell(图 19) 。Normal cell不改变输入feature map的大小的卷积, 而reduction cell将输入feature map的长宽各减少为原来的一半的卷积,是通过增加stride的大小来降低size。通过NasNet构建堆叠模块(cells)的深度实现架构的设计。

图18 NasNet基本Cell

NasNet首先基于人类的一些先验知识:卷积运算类型、Cell连接方式,Cell内的多分支拓扑结构,这些是积木。NasNet的搜索算法就是搭积木的过程,不断尝试各种可行的架构,通过代理评价指标确定模型的性能,实现全局最优搜索。

图19 NasNet分类任务基本架构

NasNet虽然实现准确率state-of-art水平,但是推断延时较大,在移动端对实时性苛刻场景难以大规模运用。

3.2 MnasNet

MnasNet是Google提出的探索了一种使用强化学习设计移动端模型的自动化神经架构搜索方法,并且实现准确率和运算速率突破。MnasNet 能够找到运行速度比 MobileNet V2快 1.5 倍、比 NASNet 快 2.4 倍的模型,同时达到同样的 ImageNet top-1 准确率。

图20 MnasNet搜索空间

MnasNet的搜索空间与NasNet类似,但是搜索目标函数同时考虑准确率和速率:

m 表示模型,ACC(m) 表示目标模型的准确率,LAT(m) 表示耗时,T 表示目标耗时。而论文提出一种策略,基于梯度的强化学习方法寻找帕雷托最优,同时对 ACC(m) 和 LAT(m) 帕雷托改善。

图21 MnasNet基本架构

如图21显示了 MnasNet 算法的神经网络架构,包含一系列线性连接 blocks,每个 block 虽然包含不同类别的卷积层,每一卷积层都包含 depthwise convolution 卷积操作,较大化模型的计算效率。但是和 MobileNet V1&V2 等算法有明显不同:

1、模型使用更多 5x5 depthwise convolutions。

2、层分级的重要性。很多轻量化模型重复 block 架构,只改变滤波器尺寸和空间维度。论文提出的层级搜索空间允许模型的各个 block 包括不同的卷积层。

3、论文使用强化学习的思路,首先确定了 block 的连接方式,在每个 block 使用层级搜索空间,确定每个卷积层的卷积类型,卷积核、跳跃层连接方式,滤波器的尺寸等。其基本策略还是延续人工设计神经网络思路。

3.3 NAS发展方向

1、NAS的搜索空间有很大的局限性。目前NAS算法仍然使用手工设计的结构和blocks,NAS仅仅是将这些blocks堆叠。人工痕迹太过明显,NAS还不能自行设计网络架构。NAS的一个发展方向是更广泛的搜索空间,寻找真正有效率的架构,当然对搜索策略和性能评估策略提出更高的要求。

2、以google的NAS为基础,很多模型专注于优化模型的准确率而忽视底层硬件和设备,仅考虑准确率高的模型难以在移动终端部署。研究针对多任务和多目标问题的 NAS,基于移动端的多目标神经网络搜索算法,评价指标从准确率扩展到功耗、推断延时、计算复杂度、内存占用、FLOPs等指标,解决移动端实际应用问题。

3、目前的NAS发展是以分类任务为主,在分类任务设计的模型迁移到目标检测语义分割模型中。

Google在Cloud AutoML不断发力,相比较而言之前的工作只是在图像分类领域精耕细作,如今在图像语义分割开疆扩土,在arxiv提交第一篇基于NAS(Neural network architecture)的语义分割模型[12](DPC,dense prediction cell),已经被NIPS2018接收,并且在Cityscapes,PASCAL-Person-Part,PASCAL VOC 2012取得state-of-art的性能(mIOU超过DeepLabv3+),和更高的计算效率(模型参数少,计算量减少)。

如果让强化学习自己选择模型的架构,比如 Encoder-Decoder,U-Net,FPN等,相信在目标检测、实体分割等领域会有更好的表现。

4、AutoML自动模型压缩

CNN模型替代了传统人工设计(hand-crafted)特征和分类器,不仅提供了一种端到端的处理方法,不断逼近计算机视觉任务的精度极限的同时,其深度和尺寸也在成倍增长。工业界不仅在设计轻量化模型(MobileNet V1&V2,ShuffleNet V1&V2系列),也在不断实践如何进一步压缩模型,在便携式终端设备实现准确率、计算速率、设备功耗、内存占用的小型化。

CNN模型压缩是在计算资源有限、能耗预算紧张的移动设备上有效部署神经网络模型的关键技术。本文简介概述CNN模型压缩主流算法,重点介绍如何实现基于AutoML的模型压缩算法。

4.1 CNN模型压缩概述

CNN模型压缩是从压缩模型参数的角度降低模型的计算量。

在第2节介绍的人工设计轻量型神经网络结构,多是依赖Grouped Convlution、Depthwise、Pointwise、Channel Shuffle这些基本单元组成的Block,但是这些设计方法存在偶然性,不是搜索空间的最优解。

韩松提出的Deep compression[5]获得 ICLR2016年的best paper,也是CNN模型压缩领域经典之作。论文提出三种方法:剪枝、权值共享和权值量化、哈夫曼编码。剪枝就是去掉一些不必要的网络权值,只保留对网络重要的权值参数;权值共享就是多个神经元见的连接采用同一个权值,权值量化就是用更少的比特数来表示一个权值。对权值进行哈夫曼编码能进一步的减少冗余。 作者在经典的机器学习算法,AlexNet和VGG-16上运用上面这些模型压缩的方法,在没有精度损失的情况下,把AlexNet模型参数压缩了35倍,把VGG模型参数压缩了49倍,并且在网络速度和网络能耗方面也取得了很好的提升。

CNN模型压缩沿着Deep compression的思路,压缩算法可分为四类:参数修剪和共享、低秩分解、迁移/压缩卷积滤波器和知识蒸馏等。基于参数修剪(parameter pruning)和共享的方法关注于探索模型参数中冗余的部分,并尝试去除冗余和不重要的参数。基于低秩分解(Low-rank factorization)技术的方法使用矩阵/张量分解以估计深层 CNN 中最具信息量的参数。基于迁移/压缩卷积滤波器(transferred/compact convolutional filters)的方法设计了特殊结构的卷积滤波器以减少存储和计算的复杂度。而知识精炼(knowledge distillation)则学习了一个精炼模型,即训练一个更加紧凑的神经网络以再现大型网络的输出结果。

4.2 AMC

传统的模型压缩技术依赖手工设计的启发式和基于规则的策略,需要算法设计者探索较大的设计空间,在模型大小、速度和准确率之间作出权衡,而这通常是次优且耗时的。西安交通大学与Google提出了适用于模型压缩的AMC[8](AutoML for Model Compres- sion,AMC),利用强化学习提供模型压缩策略。

这种基于学习的压缩策略性能优于传统的基于规则的压缩策略,具有更高的压缩比,在更好地保持准确性的同时节省了人力成本。

1、Problem Definition

模型压缩在维度上可分为Fine-grained pruning和Coarse-grained/structured pruning。Fine-grained pruning主要实现剪枝权重的非重要张量,实现非常高的压缩率同时保持准确率。Coarse-grained pruning旨在剪枝权重张量的整个规则区域(例如,通道,行,列,块等),例如在MobileNet V1&V2均存在宽度因子α对通道特征进行瘦身,但是宽度因子α对每一层的通道特征都固定比率压缩。

假设权重张量是n x c x k x k,c,n分别是输入输出通道数,k是卷积核尺寸。对于fine-grained pruning,稀疏度定义为零元素的数量除以总元素的数量既zeros/(n x c x k x h),而channel pruning,权重张量缩小为n x c’ x k x k,既稀疏度为c’/c。

但是压缩模型的精度对每层的稀疏性非常敏感,需要细粒度的动作空间。因此,论文在一个离散的空间上搜索,而是通过 DDPG agent 提出连续压缩比控制策略(图 20),通过反复试验来学习:在精度损失时惩罚,在模型缩小和加速时鼓励。actor-critic 的结构也有助于减少差异,促进更稳定的训练。

图 20 AMC引擎示意图

2、搜索空间

AMC对每一层t定义了11个特征表示st的状态:

t是层序号,卷积核尺寸是n x c x k x k,输入特征尺寸是c x h x w,FLOPs[t]是Lt层的FLOPs,Reduced是上一层减少的FLOPs,Rest表示下一层的FLOPs,这些特征全部归一化到[0, 1]。

3、搜索评估策略

通过限制动作空间既每一卷积层层的稀疏率(sparsity ratio),论文提出分别针对latency-critical和quality-critical应用提出两种损失函数:

对于latency-critical的AI应用(例如,手机APP,自动驾驶汽车和广告排名),AMC采用资源受限的压缩(resource-constrained compression),在较大硬件资源(例如,FLOP,延迟和模型大小)下实现较佳精度;

对于quality-critical的AI应用(例如Google Photos),AMC提出精度保证的压缩(accuracy-guaranteed compression),在实现最小尺寸模型的同时不损失精度。

3、结论

本文提出AutoML模型压缩(AMC),利用增强学习自动搜索设计空间,大大提高了模型压缩质量。我们还设计了两种新的奖励方案来执行资源受限压缩和精度保证压缩。在Cifar和ImageNet上采用AMC方法对MobileNet、MobileNet-v2、ResNet和VGG等模型进行压缩,取得了令人信服的结果。在谷歌Pixel1手机上,我们将MobileNet的推理速度从8.1fps提升到16.0 fps。AMC促进了移动设备上的高效深度神经网络设计。

论文提出的压缩方法,仅仅从通道特征的稀疏度考虑,压缩算法粗放,没有全局考虑模型的其他能力,另外论文目前没有公布源码,论文的复现还需要一些细节需要商榷。

4.3 PocketFlow

腾讯AI Lab机器学习中心近日宣布成功研发出世界上首款自动化深度学习模型压缩框架——PocketFlow,但是截止笔记成稿时仍未公布源码。

PocketFlow框架主要由两部分组件构成,分别是模型压缩/加速算法组件和超参数优化组件,具体结构如所示。

图21 PocketFlow框架示意图

开发者将未压缩的原始模型作为PocketFlow框架的输入,同时指定期望的性能指标,例如模型的压缩和/或加速倍数;在每一轮迭代过程中,超参数优化组件选取一组超参数取值组合,之后模型压缩/加速算法组件基于该超参数取值组合,对原始模型进行压缩,得到一个压缩后的候选模型;基于对候选模型进行性能评估的结果,超参数优化组件调整自身的模型参数,并选取一组新的超参数取值组合,以开始下一轮迭代过程;当迭代终止时,PocketFlow选取最优的超参数取值组合以及对应的候选模型,作为最终输出,返回给开发者用作移动端的模型部署。

4.4 TensorFlow Lite

TensorFlow Lite近日发布了一个新的优化工具包,引入post-training模型量化技术[9], 将模型大小缩小了4倍,执行速度提升了3倍!通过量化模型,开发人员还将获得降低功耗的额外好处。这对于将模型部署到手机之外的终端设备是非常有用的(注:目前无参考文献论述TensorFlow Lite 的post-training模型量化原理,但是从源代码可见压缩方式是采用Int8)。

实验环境需要卸载tensorflow并安装tf-nightly。

pip uninstall -y tensorflow

pip install -U tf-nightly

量化压缩模型实现很简单,一下程序完成下载resnet_v2_101.tgz模型并解压,设置converter.post_training_quantize = True,即可自动化实现,如所示, 作者在GPU M40实验,量化输出resnet_v2_101_quantized.tflite,仅用时3.76秒实现模型resnet_v2_101的量化压缩,模型尺寸从179MB压缩到45MB(图22),优化后的模型在ImageNet  top-1 准确率是76.8,与压缩前模型准确率相同。

图22 post-training模型量化实验目录

以上仅为个人阅读论文后的理解,总结和一些思考,观点难免偏差,望读者以怀疑的态度阅读,欢迎交流指正。

[1]      Chollet, F.: Xception: Deep learning with depthwise separable convolutions. arXiv preprint (2016)

[2]      Howard, A.G., Zhu, M., Chen, B., Kalenichenko, D., Wang, W., Weyand, T., An- dreetto, M., Adam, H.: Mobilenets: Efficient convolutional neural networks for mobile vision applications. arXiv preprint arXiv:1704.04861 (2017)

[3]      Sandler, M., Howard, A., Zhu, M., Zhmoginov, A., Chen, L.C.: Inverted residuals and linear bottlenecks: Mobile networks for classification, detection and segmenta- tion. arXiv preprint arXiv:1801.04381 (2018)

[4]      Zhang, X., Zhou, X., Lin, M., Sun, J.: Shufflenet: An extremely efficient convolu- tional neural network for mobile devices. arXiv preprint arXiv:1707.01083 (2017)

[5]      Han, S., Mao, H., Dally, W.J., 2015a. Deep compression:Compressing deep neural networks with pruning,trained quantization and huffman coding. arXiv preprint arXiv:1510.00149(2015)

[6]      Z. Qin, Z. Zhang, X. Chen, and Y. Peng, “FD-MobileNet: Improved MobileNet with a Fast Downsampling Strategy,” in arXiv:1802.03750, 2018.

[7]      F. Chollet, “Xception: Deep Learning with Depthwise Separable Convolutions,” in Proc. of CVPR, 2017.

[8]      Yihui He, Ji Lin, Zhijian Liu, Hanrui Wang, Li-Jia Li, and Song Han. AMC: AutoML for Model Compression and Acceleration on Mobile Devices. arXiv preprint arXiv: 1802.03494 (2018)

[9]  https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/lite/tutorials/

[10]   让算法解放算法工程师----NAS综述,https://zhuanlan.zhihu.com/p/44576620

[11]   Mingxing Tan, Bo Chen, Ruoming Pang, Vijay Vasudevan, and Quoc V Le. Mnasnet: Platform-aware neural architecture search for mobile. arXiv preprint arXiv:1807.11626, 2018.

[12]   Liang-Chieh Chen,Maxwell D. Collins,Yukun Zhu,George Papandreou: Searching for Efficient Multi-Scale Architectures for Dense Image Prediction .arXiv preprint arXiv:1809.04184 (2018)

声明:文章收集于网络,如有侵权,请联系小编及时处理,谢谢!

欢迎加入本站公开兴趣群

商业智能与数据分析群

兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识

QQ群:81035754

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/4822.html

相关文章

  • 纵览量化卷积神经网络:SqueezeNet、MobileNe

    摘要:目录一引言二轻量化模型三网络对比一引言自年以来,卷积神经网络简称在图像分类图像分割目标检测等领域获得广泛应用。创新点利用和这两个操作来设计卷积神经网络模型以减少模型使用的参数数量。 本文就近年提出的四个轻量化模型进行学习和对比,四个模型分别是:SqueezeNet、MobileNet、ShuffleNet、Xception。目录一、引言 二、轻量化模型     2.1 SqueezeNet ...

    yhaolpz 评论0 收藏0
  • 私有云那家好-六大私有云厂商详细对比!

    对比内容UCloudStackZStackVMwareQingCloud腾讯TStack华为云Stack优势总结•基于公有云自主可控•公有云架构私有化部署•轻量化/轻运维/易用性好•政府行业可复制案例轻量化 IaaS 虚拟化平台•轻量化、产品成熟度高•业内好评度高•功能丰富、交付部署快•中小企业案例多全套虚拟产品及云平台产品•完整生态链、技术成熟•比较全面且健全的渠道•产品成熟度被市场认可,市场占...

    ernest.wang 评论0 收藏0
  • 百度智能云:云产品特惠福利,1核2G量应用服务器仅48元/年

    摘要:百度智能云百度智能云为中小企业与开发者提供云服务器专属福利,双十一上云钜惠盛典活动返场,优惠持续。产品更加轻量化,预装多场景所需的应用软件,精准服务于小中型企业。 百度智能云为中小企业与开发者提供云服务器专属福利,双十一上云钜惠盛典活动返场,优惠持续。新用户专享折扣产品,中小型企业与开发者上云的不二选择,1核2G4M轻量云服务器,60Gb SSD磁盘,流量不限!点击进入:百度...

    番茄西红柿 评论0 收藏2637
  • 将容器算力延伸至边缘侧,UCloud边缘容器服务正式上线

    摘要:随着商用的推进和物联网发展,数据的爆发式增长以及对算力的更高,要求使得边缘计算势不可挡,正式站上市场风口。紧跟技术融合云计算物联网等应用融合场景融合的趋势,边缘容器有望成为基础设施领域的下一个技术趋势,容器服务的推出,正当时。随着5G商用的推进和物联网发展,数据的爆发式增长、以及对算力的更高,要求使得边缘计算势不可挡,正式站上市场风口。将低延迟、高性能的边缘计算,与具备天然轻量化和可移植性的...

    Tecode 评论0 收藏0

发表评论

0条评论

curried

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<