摘要:监督学习里典型的例子就是。这听起来似乎有点不可思议,但是在我们自身认识世界的过程中很多处都用到了无监督学习。增强学习背后的人工智能深度学习原理初探
CNN
http://blog.csdn.net/darkprin...
http://blog.csdn.net/darkprin...
http://blog.csdn.net/darkprin...
http://blog.csdn.net/u0130880...
深度学习官方
深度学习链接☆ http://lib.csdn.net/base/deep...
算法链接:http://lib.csdn.net/base/data...
一些博客的笔记
http://mt.sohu.com/it/d201705...
http://www.cnblogs.com/TextEd...
http://blog.csdn.net/malefact...
https://deeplearning4j.org/cn...
http://blog.csdn.net/nxcxl88/...
本文主要的 reference 是 Google Brain 的 Chris Olah 和 Shan Carter 所写的关于注意力机制和RNNs 的 Blog, 原文里有非常漂亮的动态图,想看英文的读者推荐直接阅读原文。另外Olah的blog超级赞,可以说是必看。
Citation: Chris Olah & Shan Carter, “Attention and Augmented Recurrent Neural Networks”, Distill, 2016.
http://www.cnblogs.com/wangxi...
赞多多
http://blog.csdn.net/heyonglu...
http://blog.csdn.net/zouxy09/...
RNN入门
http://blog.csdn.net/hjimce/a...
循环神经网络(Recurrent)——介绍
https://zhuanlan.zhihu.com/p/...
http://mt.sohu.com/20160910/n...
http://blog.csdn.net/zouxy09/...
深度学习笔记整理
http://www.sigvc.org/bbs/thre...
Deep Learning(深度学习)整理,RNN,CNN,BP
http://blog.csdn.net/justdoit...
一文读懂 CNN、DNN、RNN 内部网络结构区别
http://www.techweb.com.cn/net...
TensorFlow人工智能引擎入门教程之九 RNN/LSTM循环神经网络长短期记忆网络使用
https://my.oschina.net/yilian...
Deep Learning源代码收集-持续更新…
http://blog.csdn.net/zouxy09/...
一文看懂系列之深入理解 RNN——神经图灵机(附代码)
http://it.sohu.com/20161211/n...
从RNN到LSTM
http://blog.csdn.net/malefact...
深度学习之神经网络结构——RNN_理解LSTM
http://blog.csdn.net/victoria...
Deep learning:四十九(RNN-RBM简单理解)
http://www.cnblogs.com/tornad...
关于人工神经网络,你所应知道的一切都在这里了
http://synchuman.baijia.baidu...
人人都能用Python写出LSTM-RNN的代码![你的神经网络学习最佳起步]
http://blog.csdn.net/zzukun/a...
https://www.zhihu.com/questio...
http://cs231n.stanford.edu/
Tensflowcnn
http://nooverfit.com/wp/pycon...
机器学习的常用方法,主要分为有监督学习(supervised learning)和无监督学习(unsupervised learning)。监督学习,就是人们常说的分类,通过已有的训练样本(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,也就具有了对未知数据进行分类的能力。在人对事物的认识中,我们从孩子开始就被大人们教授这是鸟啊、那是猪啊、那是房子啊,等等。我们所见到的景物就是输入数据,而大人们对这些景物的判断结果(是房子还是鸟啊)就是相应的输出。当我们见识多了以后,脑子里就慢慢地得到了一些泛化的模型,这就是训练得到的那个(或者那些)函数,从而不需要大人在旁边指点的时候,我们也能分辨的出来哪些是房子,哪些是鸟。监督学习里典型的例子就是KNN、SVM。无监督学习(也有人叫非监督学习,反正都差不多)则是另一种研究的比较多的学习方法,它与监督学习的不同之处,在于我们事先没有任何训练样本,而需要直接对数据进行建模。这听起来似乎有点不可思议,但是在我们自身认识世界的过程中很多处都用到了无监督学习。比如我们去参观一个画展,我们完全对艺术一无所知,但是欣赏完多幅作品之后,我们也能把它们分成不同的派别(比如哪些更朦胧一点,哪些更写实一些,即使我们不知道什么叫做朦胧派,什么叫做写实派,但是至少我们能把他们分为两个类)。无监督学习里典型的例子就是聚类了。聚类的目的在于把相似的东西聚在一起,而我们并不关心这一类是什么。因此,一个聚类算法通常只需要知道如何计算相似度就可以开始工作了。k-means
http://blog.csdn.net/jwh_bupt...
github增强学习augmented
https://github.com/distillpub...
DeepMind背后的人工智能:深度学习原理初探
http://www.infoq.com/cn/news/...
https://deepmind.com/
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/67083.html
摘要:监督学习里典型的例子就是。这听起来似乎有点不可思议,但是在我们自身认识世界的过程中很多处都用到了无监督学习。增强学习背后的人工智能深度学习原理初探 CNN http://blog.csdn.net/darkprin... http://blog.csdn.net/darkprin... http://blog.csdn.net/darkprin... http://blog.csdn....
摘要:一时之间,深度学习备受追捧。百度等等公司纷纷开始大量的投入深度学习的应用研究。极验验证就是将深度学习应用于网络安全防御,通过深度学习建模学习人类与机器的行为特征,来区别人与机器,防止恶意程序对网站进行垃圾注册,撞库登录等。 2006年Geoffery Hinton提出了深度学习(多层神经网络),并在2012年的ImageNet竞赛中有非凡的表现,以15.3%的Top-5错误率夺魁,比利用传...
摘要:本文将详细解析深度神经网络识别图形图像的基本原理。卷积神经网络与图像理解卷积神经网络通常被用来张量形式的输入,例如一张彩色图象对应三个二维矩阵,分别表示在三个颜色通道的像素强度。 本文将详细解析深度神经网络识别图形图像的基本原理。针对卷积神经网络,本文将详细探讨网络 中每一层在图像识别中的原理和作用,例如卷积层(convolutional layer),采样层(pooling layer),...
摘要:相比于直接使用搭建卷积神经网络,将作为高级,并使用作为后端要简单地多。测试一学习模型的类型卷积神经网络数据集任务小图片数据集目标将图片分类为个类别根据每一个的训练速度,要比快那么一点点。 如果我们对 Keras 在数据科学和深度学习方面的流行还有疑问,那么考虑一下所有的主流云平台和深度学习框架的支持情况就能发现它的强大之处。目前,Keras 官方版已经支持谷歌的 TensorFlow、微软的...
摘要:年以来,深度学习方法开始在目标跟踪领域展露头脚,并逐渐在性能上超越传统方法,取得巨大的突破。值得一提的是,目前大部分深度学习目标跟踪方法也归属于判别式框架。 开始本文之前,我们首先看上方给出的3张图片,它们分别是同一个视频的第1,40,80帧。在第1帧给出一个跑步者的边框(bounding-box)之后,后续的第40帧,80帧,bounding-box依然准确圈出了同一个跑步者。以上展示的其...
阅读 1871·2021-11-24 11:16
阅读 3237·2021-09-10 10:51
阅读 3136·2021-08-03 14:03
阅读 1232·2019-08-29 17:03
阅读 3218·2019-08-29 12:36
阅读 2173·2019-08-26 14:06
阅读 473·2019-08-23 16:32
阅读 2608·2019-08-23 13:42