资讯专栏INFORMATION COLUMN

深度学习不再是炼丹术!谷歌给出首个神经网络训练理论证明

zorro / 3598人阅读

摘要:谷歌发布的一篇论文给出了较早的关于深度神经网络训练相关的理论证明,实验观察结果也为初步解释梯度下降强于贝叶斯优化奠定了基础。

谷歌 AI 发布的一篇论文给出了较早的关于深度神经网络训练相关的理论证明,实验观察结果也为初步解释梯度下降强于贝叶斯优化奠定了基础。神经网络的理论面纱,正逐步被揭开。

原来,神经网络实际上跟线性模型并没那么大不同!

谷歌 AI 的研究人员日前在 arxiv 贴出一篇文章,给出了较早的神经网络训练相关的理论证明。

实验中,他们将一个实际的神经网络训练过程与线性模型的训练过程相比,发现两者高度一致。这里用到的神经网络是一个 wide ResNet,包括 ReLU 层、卷积层、pooling 层和 batch normalization;线性模型是用 ResNet 关于其初始 (随机) 参数的泰勒级数建立的网络。

将神经网络的训练过程与线性模型的相比,两者高度一致

在多个不同模型上试验并排除量化误差后,观察结果依旧保持一致。由此,谷歌 AI 研究人员得出结论,当学习率比较小且网络足够宽 (不必无限宽) 的时候,神经网络就是线性模型。

由此得出的一个推论是,使用梯度下降训练的大型网络集成能够用一个高斯过程描述,而且在梯度下降的任意时间都能用完备形式化描述这个高斯过程。

这些观察结果也构成了一个理论框架基础,可以用来初步解释长期以来困扰深度学习研究界的一个难题:梯度下降究竟在哪些情况下,具体是如何优于贝叶斯优化?

在训练深度神经网络被戏谑为 “调参炼丹” 的当下,这一发现犹如一道希望的强光,射进还被排除在 “科学” 之外的深度学习领域,激动人心。

相关论文:使用梯度下降训练的任意深度的 Wide 神经网络与线性模型的一致性

终于,调参不再是炼丹:较早的关于神经网络训练的理论证明

基于深度神经网络的机器学习模型在许多任务中取得了前所未有的性能。通常,这些模型被认为是复杂系统,其中许多类型的理论分析是很棘手的。此外,由于控制优化的通常是高维的非凸损失平面 (non-convex loss surfaces),因此要描述这些模型的基于梯度的训练动态机制具有挑战性。

就像在物理科学中常见的那样,研究这些系统的极限通常可以解释这些难题。对于神经网络来说,其中一个极限就是它的 “无限宽度”(infinite width),指的是完全连接层中的隐藏单元数量,或卷积层中的通道数量。

在此限制下,网络初始化时的输出取自高斯过程 (GP);此外,在使用平方损失进行较精确贝叶斯训练后,网络输出仍然由 GP 控制。除了理论上的简单性,nfinite-width 这一限制也具有实际意义,因为许多研究已经证明,更宽的网络可以更好地进行泛化。

在这项工作中,我们探索了梯度下降下宽的神经网络的学习动态机制 (learning dynamics),并发现动态的权重空间描述变得非常简单:随着宽度变大,神经网络可以有效地被关于其初始化参数的一阶泰勒展开式 (first-order Taylor expansion) 取代。

对于这种诱导的线性模型,梯度下降的动态机制变得易于分析了。虽然线性化只在无限宽度限制下是较精确的,但我们发现,即使是有限宽度的情况下,原始网络的预测与线性化版本的预测仍然非常一致。这种一致性在不同的架构、优化方法和损失函数之间都存在。

对于平方损失 (squared loss),较精确的学习动态机制允许封闭形式的解决方案,这允许我们用 GP 来描述预测分布的演化。这一结果可以看作是 “先采样再优化”(sample-then-optimize) 后验采样对深度神经网络训练的延伸。我们的经验模拟证实,该结果准确地模拟了具有不同随机初始化的有限宽度模型集合中预测的变化。

谷歌 AI 的研究人员表示,这篇论文的几大主要贡献包括:

首先,我们以 Jacot et al. (2018) 最近的研究成果为基础,该成果描述了在 infinite width 限制下,整个梯度下降训练过程中网络输出的较精确动态。他们的结果证明了参数空间的梯度下降对应于函数空间中关于新核的核梯度下降 (kernel gradient descent),即 Neural Tangent Kernel (NTK)。

我们工作的一个关键贡献是证明了参数空间中的动态等价于所有网络参数、权重和偏差集合中的仿射模型的训练动态。无论损失函数的选择如何,这个结果都成立。在平方损失的情况下, dynamics 允许一个封闭形式的解作为时间函数。

无限宽 (infinitely wide) 神经网络初始化时的输出是高斯的,并且如 Jacot et al.(2018) 中所述,平方损失在整个训练过程中始终是高斯的。我们推导了该 GP 的均值和协方差函数的显式时间依赖表达式,并为结果提供了新的解释。

具体来说,该解释对梯度下降与参数的贝叶斯后验采样的不同机制提供了一种定量理解:虽然这两种方法都取自 GP,但梯度下降不会从任何概率模型的后验生成样本。

这一观察结果与 (Matthews et al.,2017) 的 “先采样后优化”(sample-then-optimize) 框架形成了对比,在该框架中,只训练顶层权重,梯度下降从贝叶斯后验采样。

这些观察构成了一个框架,用来分析长期存在的问题,如梯度下降是否、如何以及在何种情况下提供了相对于贝叶斯推理的具体好处。

正如 Chizat & Bach (2018b) 中论述的,这些理论结果可能过于简单,无法适用于现实的神经网络。但是,我们通过实证研究证明了该理论在 finite-width 设置中的适用性,发现它准确地描述了各种条件下的学习动态机制和后验函数分布,包括一些实际的网络架构,如 Wide Residual Network (Zagoruyko & Komodakis, 2016)。

理论结果:无限宽的神经网络就是线性模型

线性化网络 (linearized network)

此处,我们将考虑线性化网络的训练动态,具体地说,就是用一阶泰勒展开代替神经网络的输出:

值得注意的是,flint 是两项之和:第一项是网络的初始输出,在训练过程中保持不变;第二项是在训练过程中捕捉对初始值的变化。

使用这个线性化函数的梯度流的动态受到如下约束:

无限宽度限制产生高斯过程

当隐藏层的宽度接近无穷大时,中心极限定理 (CLT) 意味着初始化 {f0(x)}x∈X 时的输出在分布上收敛于多元高斯分布。这一点可以用归纳法非正式的进行证明。

因此,随机初始化的神经网络对应于一类高斯过程 (以下简称 NNGP),将有利于神经网络的完全贝叶斯处理。

梯度下降训练中的高斯过程

如果我们在初始化之后冻结变量 θ≤L,并且只优化 θ≤L+1,那么原始网络及其线性化是相同的。让宽度趋于无穷,这个特殊的 tangent kernel 的概率将收敛于 K。这是用于评估高斯过程后验的 “先采样后优化” 方法的实现。

我们对比了 NNGP、NTK-GP 和 NN 集合的预测分布,如下图所示:

训练神经网络输出的均值和方差的动态遵循线性化的分析动态机制

黑线表示来自 100 个训练神经网络集合的预测输出分布的时间演变; 蓝色区域表示整个训练中输出分布的分析预测;最后,红色区域表示仅训练顶层的预测,对应于 NNGP。

受过训练的网络有 3 个隐藏层,宽度为 8192。阴影区域和虚线表示平均值的 2 个标准偏差。

无限宽度网络是线性化网络

原始网络的常微分方程 (ODE) 在一般情况下是不可解的。在积分函数梯度范数保持随机有界为n1,n2,…,nL→∞的技术假设下:

值得注意的是,上面公式中的上界只是理论性的,是根据经验观察得到的:

训练过程中 Relative Frobenius 范数的改变

在 MSE 设置中,我们可以对原始网络的输出与其线性化输出之间的差异进行上限:

对于非常宽的网络,我们可以用线性化动态机制来近似训练动态机制。

而从网络线性化中获得的另一个见解是,动态机制等效于随机特征法,其中,特征是模型相对于其权重的梯度。

实验

我们的实验证明,宽的神经网络的训练动态能很好地被线性模型捕获。

我们考虑了全连接、卷积和 wide ResNet 架构,这些架构使用足够小的学习率进行 full-batch 或 mini-batch 梯度下降训练,从而使连续时间近似保持良好。

我们考虑了 CIFAR10 上的 two-class 分类任务 (马匹和飞机),以及 MNIST 和 CIFAR-10 上的 ten-class 分类。

在 MSE loss 的情况下,输出分布在整个训练过程中保持高斯分布。图 3 显示,神经网络及其对应的 GP 的集合显示了在两个训练点之间插值的输入点的预测输出分布。

图 4:对于网络输出和单个权重,模型的 full batch 梯度下降在线性化方面的表现与 analytic dynamics 类似

在图 4 中,我们看到线性模型很好地描述了具有交叉熵损失的 CIFAR-10 所有类分类任务的 learning dynamics。

图 5:卷积网络及其线性化在使用动量优化器进行 full batch 梯度下降训练时表现类似

图 6:在通过 SGD 进行训练时,神经网络及其线性化表现相似,在 MNIST 上的交叉熵损失上具有动量

图 7:两者都利用 SGD 在 CIFAR-10 上训练时, wide ResNet 及其线性化的表现相似

完整论文:

https://arxiv.org/pdf/1902.06720.pdf

声明:文章收集于网络,如有侵权,请联系小编及时处理,谢谢!

欢迎加入本站公开兴趣群

商业智能与数据分析群

兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识

QQ群:81035754

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/4851.html

相关文章

  • 深度学习否以蛮力取胜?

    摘要:第一条是关于深度学习的晚宴,讨论的是背后的数学支撑,以及未来的方向。大数据与深度学习是一种蛮力尽管当场说了很多观点,但是最核心的还是援引了爱因斯坦关于上帝的隐喻。不过,我自己并不同意深度学习必须等同于机器蛮力。 Vladimir Vapnik 介绍:Vladimir Vapnik 被称为统计学习理论之父,他出生于俄罗斯,1990 年底移居美国,在美国贝尔实验室一直工作到 2002 年,之后加...

    CarlBenjamin 评论0 收藏0
  • 大数据与深度学习一种蛮力?

    摘要:进一步说,如果承认深度学习系统在解决问题时不可思议的表现,那么大数据和深度学习,都有某种蛮力的味道。不过,我自己并不同意深度学习必须等同于机器蛮力。 Facebook去年底挖来了一个机器学习大神Vladimir Vapnik,他是统计学习理论和支持向量机的主要发明者。Vladimir Vapnik被称为统计学习理论之父,他出生于俄罗斯,1990年底移居美国,在美国贝尔实验室一直工作到2002...

    lidashuang 评论0 收藏0
  • 大数据与深度学习一种蛮力?

    摘要:大数据与深度学习是一种蛮力尽管当场说了很多观点,但是最核心的还是援引了爱因斯坦关于上帝的隐喻。大数据与深度学习是一种蛮力在算法和模型上,我们是否能发明所有东西认为,在机器学习的算法和模型上,我们并不能发明所有东西。 Facebook去年底挖来了一个机器学习大神Vladimir Vapnik,他是统计学习理论和支持向量机的主要发明者。Vladimir Vapnik被称为统计学习理论之父,他出生...

    yankeys 评论0 收藏0
  • 深度学习out了?深度解读AI领域三大前瞻技术

    摘要:而这种举一反三的能力在机器学习领域同样适用,科学家将其称之为迁移学习。与深度学习相比,我们技术较大优点是具有可证明的性能保证。近几年的人工智能热潮中,深度学习是最主流的技术,以及之后的成功,更是使其几乎成为的代名词。 如今,人类将自己的未来放到了技术手里,无论是让人工智能更像人类思考的算法,还是让机器人大脑运转更快的芯片,都在向奇点靠近。谷歌工程总监、《奇点临近》的作者库兹韦尔认为,一旦智能...

    muddyway 评论0 收藏0

发表评论

0条评论

zorro

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<