资讯专栏INFORMATION COLUMN

Deep Belief Networks资料汇总

WilsonLiu95 / 2387人阅读

摘要:毕设做的是的相关研究,翻过一些资料,在此做个汇总。深度学习的介绍性文章,可做入门材料。可以当作深度学习的学习材料。一份训练的较佳实践。阐述了非监督预训练的作用。这篇博客给出的材料更加全面,作者来自复旦大学,现似乎是在北京研究院工作。

毕设做的是DBNs的相关研究,翻过一些资料,在此做个汇总。

可以通过谷歌学术搜索来下载这些论文。


Arel, I., Rose, D. C. and K arnowski, T. P. Deep machine learning - a new frontier in artificial intelligence research. Computational Intelligence Magazine, IEEE, vol. 5, pp. 13-18, 2010.

深度学习的介绍性文章,可做入门材料。


Bengio, Y. Learning deep architecture for AI. Foundations and Trends in Machine Learning, vol. 2, pp: 1-127, 2009.

深度学习的经典论文,集大成者。可以当作深度学习的学习材料。


Hinton, G. E. Learning multiple layers of representation. Trends in Cognitive Sciences, vol. 11, pp. 428-434, 2007.

不需要太多数学知识即可掌握DBNs的关键算法。这篇论文语言浅白,篇幅短小,适合初学者理解DBNs。


Hinton, G. E. To recognize shapes, first learn to generate images. Technical Report UTML TR 2006-003, University of Toronto, 2006.

多伦多大学的内部讲义。推荐阅读。


Hinton, G. E., Osindero, S. and Teh, Y. W. A fast learning algorithm for deep belief nets. Neural Computation, vol 18, pp. 1527-1554, 2006.

DBNs的开山之作,意义非凡,一定要好好看几遍。在这篇论文中,作者详细阐述了DBNs的方方面面,论证了其和一组层叠的RBMs的等价性,然后引出DBNs的学习算法。


Hinton, G. E. and Salakhutdinov, R. R. Reducing the dimensionality of data with neural networks. Science, vol. 313, no. 5786, pp. 504–507, 2006.

Science上的大作。这篇论文可是算作一个里程碑,它标志着深度学习总算有了高效的可行的算法。


Hinton, G. E. A practical guide to training restricted boltzmann machines. Technical Report UTML TR 2010-003, University of Toronto, 2010.

一份训练RBM的较佳实践。


Erhan, D., Manzagol, P. A., Bengio, Y., Bengio, S. and Vincent, P. The difficulty of training deep architectures and the effect of unsupervised pretraining. In The Twelfth International Conference on Artificial Intelligence and Statistics (AISTATS), pp. 153–160, 2009.


Erhan, D., Courville, A., Bengio, Y. and Vincent, P. Why Does Unsupervised Pre-training Help Deep Learning? In the 13th International Conference on Artificial Intelligence and Statistics (AISTATS), Chia Laguna Resort, Sardinia, Italy, 2010.

阐述了非监督预训练的作用。这两篇可以结合起来一起看。


这篇博客给出的材料更加全面,作者来自复旦大学,现似乎是在Yahoo Labs北京研究院工作。

http://demonstrate.ycool.com/post.3006074.html

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/4283.html

相关文章

  • 机器学习——深度学习(Deep Learning)

    摘要:有监督学习与无监督学习,分类回归,密度估计聚类,深度学习,,有监督学习和无监督学习给定一组数据,为,。由于不需要事先根据训练数据去聚类器,故属于无监督学习。 Deep Learning是机器学习中一个非常接近AI的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,最近研究了机器学习中一些深度学习的相关知识,本文给出一些很有用的资料和心得。Key Words:有监督学习与无监督学习,分类...

    Guakin_Huang 评论0 收藏0
  • Deep Learning 一些标志性的文章

    摘要:的堆叠起来构成,其中训练较高层的时加入了。作为非线性降维方法在图像和文本降维实验中明显优于传统方法。根据实验提出了对的的一种解释。设计实验验证两种因素的作用。传统算法并不是以较大化为目标的,另有证明算法不对应任何优化目标函数 A Fast Learning Algorithm for Deep Belief Nets (2006)- 首 次提出layerwise greedy pretrai...

    iKcamp 评论0 收藏0
  • 深度学习(Deep Learning)算法简介

    摘要:考虑这样一个计算集合,它可以被允许在每一个节点和可能的图结构中,并定义了一个函数族。传统的前馈神经网络能够被看做拥有等于层数的深度比如对于输出层为隐层数加。理论结果证实那些事实上所需要的节点数随着输入的大小指数增长的函数族是存在的。 查看论文 Yoshua Bengio, Learning Deep Architectures for AI, Foundations and Trends i...

    hyuan 评论0 收藏0
  • 神经网络和深度学习简史第四部分:深度学习终迎伟大复兴

    摘要:主流机器学习社区对神经网络兴趣寡然。对于深度学习的社区形成有着巨大的影响。然而,至少有两个不同的方法对此都很有效应用于卷积神经网络的简单梯度下降适用于信号和图像,以及近期的逐层非监督式学习之后的梯度下降。 我们终于来到简史的最后一部分。这一部分,我们会来到故事的尾声并一睹神经网络如何在上世纪九十年代末摆脱颓势并找回自己,也会看到自此以后它获得的惊人先进成果。「试问机器学习领域的任何一人,是什...

    Simon_Zhou 评论0 收藏0
  • Deep Learning深度学习相关入门文章汇摘

    摘要:深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习的概念由等人于年提出。但是自年以来,机器学习领域,取得了突破性的进展。 深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习是无监督学习的一种。 深度学习的概念源于人工神经网络的研究。含多隐层的多层感知...

    Riddler 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<