资讯专栏INFORMATION COLUMN

为什么你需要计算神经科学(下)

fanux / 1209人阅读

摘要:作为生命科学的神经科学,依然以和蛋白质为基础,横跨分子,细胞,组织,动物行为等各个尺度,描绘神经系统的形态和行为。你埋头在蛋白质的研究中,不代表你对神经网络有任何有效的理解。平衡状态的神经网络具有较大的对外界信号较大的响应能力。

承接上文,计算神经科学是一门超级跨学科的新兴学科,几乎综合信息科学,物理学, 数学,生物学,认知心理学等众多领域的成果。大脑像一台超级计算机,同时它又迥异于计算机,因为它是活生生的细胞组成的,属于生物那个不确定性的世界。

构成一台计算机的原件是晶体管而大脑是细胞。他们属于截然相反的世界。硬邦邦的晶体管只有开和关两个状态,每个晶体管都相同而且始终不变,不变是它的本质,可靠是它的本性。细胞类似一兜水,它的状态无穷多,没有哪两个细胞相同,即使同一个细胞也没有两个时刻是相同的,变化是它的本质,辩通是它的本性(adaptation)。

还有一个重要的事实是计算机是设计出来的,而大脑的形成是生物发育过程中自发演化的产物,并无预先设定的图纸。即使每一个细胞都包含全套DNA编码,但是它所包含的信息依然不能告诉它大脑的全貌,而最多提供演化过程中在特定环境下的行为指令(类似图灵机的行为列表)。 

综上,我说大脑是计算机不如说它是一片胡乱生长的原始森林,每个神经元就是一棵树,都努力的争夺水分阳光拼命生长。但是整体看一片森里却秩序井然。

研究生物的方法研究神经科学够用吗?

生物学的核心任务是认识生物体作为化学反应的机器,并且准确的描述DNA和它们控制的每一种蛋白的功能。 作为生命科学的神经科学,依然以DNA和蛋白质为基础,横跨分子,细胞,组织,动物行为等各个尺度,描绘神经系统的形态和行为。

生物学研究神经科学的目标是,把神经系统当做一个相互连接的电路研究,看清它们每一部分的功能和每个部分之间的联系。好像在做一部记录片,把大脑这片原始森林的每一棵树的春夏秋冬记录下来。

生物学的这套方法取得了巨大的成就,给予我们对我们身体几乎全部的理解。但是神经系统的问题却相比其它系统进步缓慢,原因是什么?

首先一个问题,海量细节,先说人脑的神经元有100亿个,全地球的人口,每个都不同,即使分成大类也无穷无尽,想抓住所有细节几乎做不到,在这样的海洋里抓住关键性的细节,犹如大海捞针。

第二个问题,神经系统元件之间相互作用复杂。神经系统的相互作用,往往是非线性的,根据各种条件变化无穷无尽,很难想研究植物的向光性那样简单得出。

第三个问题,神经系统的研究是个跨尺度问题,从蛋白质分子到细胞到网络,由于第二点提到的非线性,每个级别的跨越都不只是数量的增长,而是呈现全新的性质。你埋头在蛋白质的研究中,不代表你对神经网络有任何有效的理解。

因此在神经系统这片原始森林里,光去拿着放大镜对着每一棵树看难以取得成效(虽然是不可或缺的)。

图: 神经系统的原件--神经元及相互连接的关键-synapse。 可见这样的基本元件已经包含无穷细节。

计算神经科学的灵魂

通过计算神经科学,我们把握的是神经电路的算法,而算法,是这个系统的灵魂。我们都知道,实现一个算法可以用无数手段,甚至完全不同的硬件,但只要算法不变,它所做的事情就是一样的。

一个基本的假设是大脑的各个不同功能区,比如视觉,听觉,嗅觉等, 实际运用的编码(encoding)和解码(decoding)算法是类似的, 而这种相似性基于类似的设计原则

验证这一个假想的惊人例子是,某个特定脑区的功能不是确定不变的。科学家已经成功实现了引导小鼠大脑的听觉区产生类似视觉的功能,只要用视觉信号训练它即可。这个原理被用于给盲人安装“电子眼”的研究,给盲人加上类似蝙蝠的声纳系统,然后引导他们的听觉脑区利用类似处理视觉信号的方法看到物体。

这个例子凸显了有什么样的需求,系统就采取相应的算法与之适应。

终于可以引出计算神经科学的本质目的,研究神经系统处理信息的算法,它是如何在和外界的信息交换中调整自身的。它也关心细节,但是它关注的是细节是如何在更大的尺度上发挥它的影响的。

它关注实现大脑认知功能的”算法“,但与设计一台超级计算机的思路不同的是,它关注的是的随机无序的生物世界如何实现高效有序的计算,而且具备目前计算机不具备的灵活性。与生物学研究的不同的是,他始终关注生物原件的计算特性,生物原件是如何接受大自然的信号,编码他们(coding),表达他们(cognition) 和处理他们(behaivior)。

大脑信息处理的基本原则:

1. 多层神经网络(又称深度网络):

神经网络不能理解为细胞的简单加和,由于细胞之间的作用是非线性的,他们的组合可以产生各种单个体没有的性质-例如对复杂物体的分类识别(classification)。

而另一个基本的性质,即多层网络,则可以大大增加这种功能在复杂输入面前的执行准确度以及识别物体的全局特征,比如某些抽象特征。

关于多层的好处的最简单理解是,增加运算的复杂度。 比如第一层执行加法, 那么第二层就可以在加法之上实现乘法,第三层实现乘方。 越复杂的运算,就越有利于系统把握一些简单运算难以识别的特征,这些特征往往是总体性全局性的信息,而非局部, 比如你要识别一张人脸,光看鼻子或者嘴是没有意义的,而人脑即使对一张模糊的人脸照片也可以立即识别,就是因为它具有多层网络的性质, 能够抓取一些总体性的特征。

图: 多层网络示意图,从输入到输出,中间经过多层级的信息处理。

图: 多层网络,从简单运算到复杂运算(比特加和,数字加和,至乘法)。(图片来源:http://neuralnetworksanddeeplearning.com/chap5.html)

图: 视觉回路, 示范大脑内普遍存在的多层网络特性。 从视网膜到LGN到视觉皮层,是一个典型的多级深度网络(左图)。 而在每一个层级上所执行的运算复杂度逐级上升(右图), 第一层只能识别局部反差,后面开始识别轮廓,直到越来越全局和抽象的信息。 (图片来源:http://facets.kip.uni-heidelberg.de/public/results/1stYear/WP9/)

2. 可塑性与记忆,Plasticity & Memory

神经网络的特点是具备可塑性, 这是我们能够学习和记忆的基础,一个没有可塑性的网络从生到死都执行一样的功能。 这种可塑性用一句话表明就是在一起放电的细胞互相连接会被一起改变。 体现在当一团神经元被激活后, 它们之间的链接会根据互相之间活动的时间关系进行调整。 因此在一起放电的细胞会联系更加紧密,形成一个子网,一旦形成子网,细胞就更容易一起放电,因而更加巩固练习,最终,形成一个整体性的基团(这和人类组织形成并无二致,一起活动就结合在一起,成为小圈子),只要触发其中一个细胞,整个子网都会相应。类似于我们的记忆,所谓触景生情,睹物思人。

最经典的例子莫过于巴甫洛夫的狗的条件反射实验,狗流口水和铃铛响一开始没有什么联系,但是当食物在铃铛响的时候频繁出现之后,狗就会在铃铛响后分泌口水,就是因为代表流口水的神经元和代表铃铛的神经元加强了联系,从而当激活一个时候,另一个就会自动响应。

图: 神经可塑性工作的原理。 一起放电的细胞连接加强而形成集团。红色代表一起放电的神经元,之间的连线代表它们的网络连接,色彩浓度代表连接强度。

3. 阴阳相生相克- 兴奋抑制神经元与平衡神经网络

神经细胞大致分为两类,一类是兴奋性的,其活动的结果是提高其它神经元的活动强度,相当于正反馈。 一类是抑制性的,其活动的结果会降低其它神经元的活跃性,相当于负反馈,负反馈对于整个网络活动的调节具有至关重要的作用,负反馈的缺乏往往导致癫痫一类严重的神经疾病 。一个正常工作的神经网络处在平衡状态上(Balaced State) 这样一种基本结构正如同大自然各个地方一样,体现了一种平衡制约的思维。平衡状态的神经网络具有较大的对外界信号较大的响应能力。

图: 兴奋和抑制神经元的阴阳相抵,下图展示当这种平衡出现差错,抑制神经元的功能不正常的时候一种可能的结果是导致精神分裂症(图片来源:Testing the glutamate hypothesis of schizophrenia ,Nature neuroscience)

4. 贝叶斯网络假设

大脑信息处理有没有通用的法则,如同物理里的牛顿定律呢? 一个大胆的设想是,大脑对信息的处理符合贝叶斯推理的基本框架。即利用大脑已有的经验模型做出猜测,并根据不断取得新的信息调整猜测。

比如后面有一头狮子追你, 你跑呀跑,看到一条湍急的河, 你要在几秒钟决定你是跳到水里, 还是和狮子决一死战。这个时候大脑的预测能力就是生死攸关, 你一定会在你脑子里生成两个图景,一个是跳到水里会是什么样,一个是与狮子决斗会是什么样。这种推理是怎么做出的? 一个基本假设是大脑在执行类似于贝叶斯推理的功能。首先,根据以往的经验(统计规律)看你和狮子决斗是怎样的(脑中生成的图像), 在把对眼下这头狮子的观测和以往对狮子的经验理论结合起来(胖还是瘦,跑的快还是慢),取得一个取胜狮子的概率,这个决策的基础是一个分布函数,因此本身也具有不确定性。也许你这一次是决定和狮子决斗,下次相同的情况就是跳到激流里碰运气。 这种分布式决策对于种群的生存起到决定性的作用。如果所有人都选择斗狮子或者跳激流,而恰恰押错了堵住,那么对生物物种就是毁灭性的。

这种框架性的思路可以帮我们理解神经元放电的可变性及不确定性提供基础,因为你是在不确定的世界做统计推理,而非直接了当的给出确定答案,你的原件本身就需要具有这种不确定性。

5. 跨尺度的复杂性

所谓跨尺度的复杂性,是说与计算机不同的是,神经系统每个级别都具有其自身的复杂性,或者说自身都是一个小网络,小宇宙。 比如神经网络由神经细胞组成,而神经细胞又是由互相作用的离子通道构成,可以看成离子通道的网络。 因此我一直觉得与其说神经网络是一台超级计算机,不如说是一个庞大的计算机网络,因为每一个神经元就相当于一台计算机。

上一级的复杂性如何影响下一级的复杂性,是一个永恒的话题,这样层层嵌套的复杂系统真的需要吗?还是只是进化过程的累赘?

计算神经科学的基本方法

这门学问的研究方法是顶层设计与寻找蛛丝马迹的侦探工作的结合。

那么我们该怎么了解“神经森林”? 一句话--先从上往下看,再由下往上看。

什么叫从上往下看? 生物学家往往看我有什么,我有细胞,我有网络,我看看它们怎么连接。工程师往往看我需要什么,我要做一台计算机,我需要什么元件,怎么连接? 工程师的思路就是从上往下看,我需要什么,我就设计什么。

在研究神经系统时,我们需要用工程师的想法(自上而下)。 我要是有一堆神经元组成的网络,我让它做哪些事情? 比如说记忆,当信息流过一堆细胞,它如何留下之后可以认读的印记?又如何在特殊的条件下被呼唤出来?

这就是计算神经科学在做的事情,我们先主动设计这个一个系统,看看如何做到需要的功能(自上而下),然后拿着这个东西回到生物的世界里去比较(由下而上)。

科学说到底是要能够有预知未来的能力,而计算神经科学帮助整个神经科学插上了预言的翅膀

实现的办法我称作模型与实验的循环。

自上而下。如果要实现一定的任务,需要什么样的网络。类似于把自己比喻成大脑的设计者。

自下而上。但是之前说了大脑没有设计者啊? 所以这里解决这个问题。根据生物实验结果,推测生物的神经元是如何自然的组成网络给出上述设计师的类似构架的。

综合1,2建模。以上完成了顶层设计结合实验结果设计模型的过程,犹如从地上狮子的脚印识别狮子(其实这就是我们的大脑始终在干的事情,反过来我们用它研究大脑)。

由狮子推断狮爪。 现在我们通过伟大的想象力得来了一头活生生的狮子,它可以四处活动留下无数的脚印。我们让它在计算机里活动(所谓Simulation)。得到各种特点的脚印。这就是我们的预测能力的来源,我们可以知道他今天的行动,也可以得到他明天后天的行动。

回到实验检验。 让现实生活中的狮子多跑跑再留下一些脚印,看看是否符合模型推理的结果。

由此可见计算神经科学的威力。我们从一棵树木推断了整片森林,由狮子的脚印探测了狮子。

这个学科的魅力,也在想象与真实时近时远,若即若离的关系。

一个大家可以多专注的典型案例是对海马体(hippocampus)的研究,海马体是大脑解决空间认知(spatial map)和情景记忆(时空轨迹)的超级计算器。这个原件的研究紧密的结合了细胞电生理实验,动物行为学和计算神经科学,也有非常多漂亮的计算模型。

计算神经科学,你真的需要

基础牢固的是细胞神经科学,高端洋气能引起人们关心的是心理学,那么计算神经科学呢,计算神经科学用漂亮的数学式架通两个截然不同的尺度(虽然目前还有距离)。

基于细胞尺度的神经科学在给它提供地基,捕风捉影的心理学在给它引领方向,而他,具有潜力比两者走的更远。

未来可能从计算神经科学中获益的几类人:

1. 在实验室里辛苦做电生理的生物博士们:计算神经科学家利用它们对整个系统运行机制的把握较大可能的对实验数据进行挖掘,并且帮助设计具有突破性的实验。

2. 生物制药公司:帮助设计新药,减少一种新药的试验年限。制药的根本在于某种化学物质对整个神经网络可能产生的影响,做跨尺度的分析恰是计算神经科学的长处。

3. 人工智能:对生物大脑的理解帮助人工智能,类似仿生学。此处请看后文。

4. 脑科及心理医生:每一个好的计算模型都可以帮助设计新的治疗方法。最典型的例子-老年痴呆症,如果能够了解人脑短期和长期记忆的机制就可以帮助人找到记忆衰退的原因并延缓它。

5.普罗大众: 没有什么比脑科学更能帮助每个人生活的更好。

关于计算神经科学与人工智能:

人工智能和机器学习相关的技术代表人类的未来, 未来从家政服务到金融交易都将以这种技术为基础。但是它到底是否和我们真实生物的大脑有关呢? 我们是否应该以人类自己的脑袋为师,还是可以直接通过我们巧妙的设计来超越自然本身? 亦或者这就是上帝的计划的一部分? 让人类产生甚至超越自己的东西?

回答这些问题都为时过早。但是目前已知的是,所有的人工智能算法都利用了和我们神经系统学习和处理信息类似的原则,比如多层网络处理信息。 在视觉处理领域,2012 年一个叫深度卷积网络的技术脱颖而出, 瞬间拿下了所有视觉信息识别的计算机大赛。 深度卷积网络(Deep Convolutional Neural network )是深度网络的一种(见下图), 完全符合前文提到的神经网络的基本原理第一条。

图:用于视觉处理的深度神经网络。从局部到全局,由图像最后判断图像背后的人物是谁。

因此我认为人工智能和计算神经科学具有某种内在的同质性, 的区别可能是人工智能可以不必拘泥生物的限制,或者也是为什么他最终或许会比生物网络表现更好。

* 有一种观点认为好的人工智能算法无需一定是仿生的,我们可以完全从一般性原理出发设计。 比如说常见的数学优化问题, 用随机优化进行学习的机器人已经能够较好的模拟很多人的动作。 事实上我认为一定程度上依然和生物问题殊途同归,甚至能够帮我们更好的理解生物。 

图: 机器人可以利用优化目标函数的方法学习行走跑步等,动作已经十分类似真人。

结语:

有一天,我们知道的比占星术更多一点。我们会在错综复杂的心理现象之间划出一张真正清晰的联系图。并且给每个出生的婴儿这样一张他的心智地图。引导他的一生可以过的比较好一点,让每一个人的天赋都充分发挥不至埋没。 或许有一天机器可以作为大脑的外延,让我们掌握我们此生根本无法想象的咨询和智慧。

计算神经科学,生命终将因你更美好。

由衷感谢:

阿兰图灵: 人工智能之父。第一个物理学的动力学方程解释生物系统的pattern formaiton(图案-如斑马的花纹)。 曾经,人们不敢相信纷繁的生物现实可以产生自简单的物理方程。

Hodgkin and Huxley: 大名鼎鼎的H&H模型,用几个极为漂亮的微分方程提供了单个神经元放电的较精确模型:H&H把电生理实验和物理动力学紧密结合,展示了数理方程在解决这样一个复杂生物问题的威力,堪称生物物理的经典胜利。

Donald Hebb : 第一个建立起来细胞生物学和心理学的联系。提出Hebb learning rule 指出神经系统学习的机制 -经常一起方便的神经元会更强的联系在一起,从而学习记忆。

Hopefield : 第一次将统计物理的方法带入神经网络,解释了神经网络记忆和推理的可能性。

蓝色大脑计划: 一个把巨量神经元放入电脑中模拟计划,企图制造人工大脑。 类似于阿波罗登月的壮举,无论成功与否。网址:http://bluebrain.epfl.ch/

图: 蓝色大脑计划想要复制的人类大脑局部。

推荐阅读(Reference): 

Hodgkin Huxley Model

Hodgkin, Alan L., and Andrew F. Huxley. "A quantitative description of membrane current and its application to conduction and excitation in nerve."The Journal of physiology 117.4 (1952): 500-544.

Hebbian Lerning

Hebb, Donald Olding. The organization of behavior: A neuropsychological theory. Psychology Press, 2005.

Hopefield Model

Hopfield, John J. "Neurons with graded response have collective computational properties like those of two-state neurons." Proceedings of the national academy of sciences 81.10 (1984): 3088-3092.

Balanced Network

van Vreeswijk, Carl, and Haim Sompolinsky. "Chaos in neuronal networks with balanced excitatory and inhibitory activity." Science 274.5293 (1996): 1724-1726.

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/4308.html

相关文章

  • 谷歌大神Jeff Dean:大规模深度学习最新进展

    摘要:在与李世石比赛期间,谷歌天才工程师在汉城校区做了一次关于智能计算机系统的大规模深度学习的演讲。而这些任务完成后,谷歌已经开始进行下一项挑战了。谷歌深度神经网络小历史谷歌大脑计划于年启动,聚焦于真正推动神经网络科学能达到的较先进的技术。 在AlphaGo与李世石比赛期间,谷歌天才工程师Jeff Dean在Google Campus汉城校区做了一次关于智能计算机系统的大规模深度学习(Large-...

    legendaryedu 评论0 收藏0
  • 深度学习教父Hinton专访,AI已跨越重要分水岭

    摘要:福布斯昨日刊登专访。生于英国,被认为是机器学习的先锋,现在是多伦多大学教授,谷歌高级研究员。但是,正如我所说,已经跨越过了这一分水岭。 《福布斯》昨日刊登Geoff Hinton专访。游走在学术和产业的AI大神Hinton谈到了自己研究兴趣的起源、在多伦多大学和谷歌所做的研究工作以及发起的私人俱乐部 NCAP。 在采访中,Hinton谈到,现在计算能力和数据的发展让AI获得巨大进步,并且在很...

    wayneli 评论0 收藏0
  • 如何用70行Java代码实现深度神经网络算法

    摘要:但实际上机器学习算法落地程序并不难写,下面是行代码实现的反向多层神经网络算法,也就是深度学习。神经网络的算法程序实现神经网络的算法程序实现分为初始化向前计算结果,反向修改权重三个过程。 对于现在流行的深度学习,保持学习精神是必要的——程序员尤其是架构师永远都要对核心技术和关键算法保持关注和敏感,必要时要动手写一写掌握下来,先不用关心什么时候用到——用不用是政治问题,会不会写是技术问题,就像军...

    Richard_Gao 评论0 收藏0

发表评论

0条评论

fanux

|高级讲师

TA的文章

阅读更多
最新活动
阅读需要支付1元查看
<