摘要:目前,这些选择又称为超参数是通过经验,随机搜索或计算密集型搜索过程来选择的。该技术是超参数优化最常用的两种方法随机搜索和手动调试的结合。随机搜索中会并行训练神经网络的群体,并在训练结束时选择较高性能的模型。
在围棋和Atari游戏、图像识别与语言翻译等领域,神经网络都取得了巨大的成功。但经常被忽视的一点是,神经网络在这些特定应用中的成功往往取决于研究开始时做出的一系列选择,包括:使用何种类型的网络、用于训练的数据和方法等。目前,这些选择(又称为超参数)是通过经验,随机搜索或计算密集型搜索过程来选择的。如何选择参数和调参往往成为训练神经网络的关键问题。
AI科技评论发现,在DeepMind最近一篇名为《Population Based Training of Neural Network》的论文中,DeepMind提出了一种名为PBT(Population Based Training)训练神经网络的新方法,使得实验者能够快速地选择较佳的超参数集和模型。这一技术可同时训练和优化一系列网络,从而可以快速找到较佳的设置。更重要的是,这不会增加额外的计算开销,可以像传统技术一样快速地完成,并且易于集成到现有的机器学习管道中。
该技术是超参数优化最常用的两种方法随机搜索和手动调试的结合。随机搜索中会并行训练神经网络的群体,并在训练结束时选择较高性能的模型。通常情况下,这意味着只有一小部分群体会获得良好的超参数训练,但更多的群体培训效果欠佳,浪费计算机资源。
随机搜索超参数意味着同时并行独立训练多个超参数,某些超参数会让模型表现良好,但大多数不会
如果我们使用手动调整超参数,研究人员必须猜测较好的超参数,使用它们训练模型和评估性能,这样的过程将持续重复,直到研究人员对网络的性能感到满意为止。虽然手动调参可以带来更好的性能,但是缺点是这需要很长时间,有时需要数周甚至数月才能找到完美的设置。虽然有诸如贝叶斯优化等一些自动化方法,但是仍然需要很长的时间,并且需要很多持续的训练来找到较好的超参数。
手动调参及贝叶斯优化等方法通过一次观察多个训练过程来改变超参数,这通常较为缓慢
如同随机搜索一样,PBT首先也会并行训练多个神经网络与随机超参,但是每一个网络不是独立训练的,而是使用来自其他群体的信息来完善超参数,并将计算资源引导到更有优秀的模型。这以算法灵感来自于于遗传算法,每个群体成员都被称为“工人”,并可以利用其余群体成员的信息,如从另一个性能较好的“工人”中复制模型参数,此外,它还可以通过随机更改当前值来探索新的超参数。
随着对神经网络群体训练的不断深入,这一开发和探索的过程会定期进行,以确保所有群体中的“工人”都有一个良好的基础性能水平,并且在此基础上在探索新的超参数。这意味着PBT可以快速利用好的超参数,可以为更有效的模型提供更多的训练时间,而且可以在整个训练过程中调整超参数值,从而自动学习较佳配置。
PBT从随机搜索开始,但允许相互利用更有效的结果,并随着训练的进行探索新的超参数
实验表明,PBT在整个任务和领域都非常有效。DeepMind在DeepMind Lab,Atari和StarCraft II上使用较先进的方法严格测试了一套具有挑战性的强化学习问题,在所有情况下,PBT稳定的训练方式均能很快就找到了好的超参数,并得到了超出基线的结果。
此外,PBT对训练生成对抗网络(GAN)同样有着一定的提升。在DeepMind使用PBT框架来较大化Inception Score(AI科技评论注:Inception Score是衡量视觉保真度的指标之一)的测试中,结果从6.45显著提升到了6.9。
DeepMind也将PBT应用于Google较先进的机器翻译神经网络之一。这些神经网络通常经过精心设计的超参数时间表进行培训,这往往需要数月时间才能有改善。使用PBT可以自动找到超参数的时间表,这些时间表可以匹配甚至超过现有的表现,但不需要任何调整,同时通常只需要一次训练。
图为在CPSAR-10和封闭网络(FuN)用GANs对“吃豆小姐”(Ms Pacman)游戏训练过程中群体的演化过程。粉红色的点代表最初的智能体,蓝色为最终的智能体。
DeepMind认为,这项技术仍然存在很大的扩展空间。PBT对训练引入新超参数的新算法和神经网络体系结构尤其有效,随着不断细化这个过程,PBT有望更好地应用于寻找和开发更复杂和更强大的神经网络模型。
完整论文下载链接:https://deepmind.com/documents/135/population_based_training.pdf
欢迎加入本站公开兴趣群商业智能与数据分析群
兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识
QQ群:81035754
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/4691.html
摘要:近日,发表了一篇文章,详细讨论了为深度学习模型寻找较佳超参数集的有效策略。要知道,与机器学习模型不同,深度学习模型里面充满了各种超参数。此外,在半自动全自动深度学习过程中,超参数搜索也是的一个非常重要的阶段。 在文章开始之前,我想问你一个问题:你已经厌倦了小心翼翼地照看你的深度学习模型吗?如果是的话,那你就来对地方了。近日,FloydHub Blog发表了一篇文章,详细讨论了为深度学习模型寻...
摘要:例如,即插即用生成网络通过优化结合了自动编码器损失,损失,和通过与训练的分类器定于的分类损失的目标函数,得到了较高水平的样本。该论文中,作者提出了结合的原则性方法。 在机器学习研究领域,生成式对抗网络(GAN)在学习生成模型方面占据着统治性的地位,在使用图像数据进行训练的时候,GAN能够生成视觉上以假乱真的图像样本。但是这种灵活的算法也伴随着优化的不稳定性,导致模式崩溃(mode colla...
摘要:文本谷歌神经机器翻译去年,谷歌宣布上线的新模型,并详细介绍了所使用的网络架构循环神经网络。目前唇读的准确度已经超过了人类。在该技术的发展过程中,谷歌还给出了新的,它包含了大量的复杂案例。谷歌收集该数据集的目的是教神经网络画画。 1. 文本1.1 谷歌神经机器翻译去年,谷歌宣布上线 Google Translate 的新模型,并详细介绍了所使用的网络架构——循环神经网络(RNN)。关键结果:与...
摘要:康纳尔大学数学博士博士后则认为,图神经网络可能解决图灵奖得主指出的深度学习无法做因果推理的核心问题。图灵奖得主深度学习的因果推理之殇年初,承接有关深度学习炼金术的辩论,深度学习又迎来了一位重要的批评者。 作为行业的标杆,DeepMind的动向一直是AI业界关注的热点。最近,这家世界最较高级的AI实验室似乎是把他们的重点放在了探索关系上面,6月份以来,接连发布了好几篇带关系的论文,比如:关系归...
阅读 651·2021-11-23 09:51
阅读 3598·2021-11-15 11:38
阅读 926·2021-10-14 09:42
阅读 3161·2021-09-29 09:35
阅读 2104·2021-09-03 10:33
阅读 769·2021-07-30 16:33
阅读 1557·2019-08-30 15:55
阅读 1840·2019-08-30 14:04