机器学习对抗复杂系统之神经科学篇 机器学习和复杂系统正在诸多领域改变产业界和学术界的传统方法, 其中一个极好的例子正是给机器学习以巨大启发的神经科学本身。 我在此用一个鲜活的例子展示这个方法在该领域的神展开。 文章的开头我想问大家一个问题, 如果你给一只猫建立一个模型, 那么最好的方法是什么? 这个问题很深刻,大家可以边读下文边寻找答案。 神经科学,是一个高度依赖数据的生物学分支, 因为你要理解大脑本来就是用来计算的装置,你要研究它就首先研究它的输入和输出, 然后把它和动物的相应行为联系起来。 这个故事的第一部分有关 复杂系统, 因为神经系统本质上属于 复杂网络的一种。我们希望通过在电脑上建立一个和大脑神经网络类似的复杂网络,来理解神经细胞数据到行为间的联系。 这种努力在8,90年代十分盛行。 比如最早出现的hopefield 网络解释记忆现象等。
我们给出一个典型的例子:
此处科学家发现猴子可以经过训练对不同频率的两个声音进行比较(出错应有惩罚), 这是一个典型的测量短期记忆能力的实验,如果猴子需要比较两个声音, 就要把第一个声音的信号放在脑子里,然后和第二个声音进行比对。 能够综合不同时间的信息进行决策可以说对生物生存至关重要, 而此实验即为其基础。 以往神经科学的研究方法可能只是描述这个行为,然后在猴子的脑子里想法放入电极,测量相应的神经信号是什么。
例如我们可以看到上图中测量的神经元放电信号,这个神经元放电的频率随着声音的频率上升而上升(红色代表高频的声音),因此我们就可以根据这个臆想一个模型出来。 下图测量的细胞则相反。 你能不能根据这两个图设计个模型解释猴子的行为呢?
还真的行! 我们看到最简单的物理模型都可以解释这个现象。左图中我们用山谷里的小球来描述这个模型(算法),这是把整个问题放在极低的维度上方便理解, 整个外界输入(声音)可以看成在猴子神经系统上的一个外力, 外力可以看做某种推动力让猴子的神经元状态发生定向改变,犹如小球(猴子神经系统的状态)在一个被外力塑造的山谷里趋向谷底(出现概率最大的状态,对应物理里能量最低的点),这个谷底的位置就是对第一次信号的记录(记忆),当外力(f1)消失,山谷的地形发生了变化,但外力并不马上改变。 当第二信号(f2)来到的时候,地形再次发生改变,此次的信号引起山谷的隆起,导致小球滚向新的谷底(左右各一个), 而小球最终达到的位置这次就不仅与这次的外力有关, 还与之前外力引起的位置高度相关(综合历史信息进行决策),这无形中就实现了对两个信号进行比较(此处即最简单的图灵机),而且是用一个简单的物理系统哦。 那么如何利用我们刚说到的两种神经元(和外界信号正比或反比)来实现这个功能回路呢? 请见右图,我们甚至可以画出一个电路图来解释这个原理。 正号代表正比神经元, 负号代表反比神经元,E代表一个随时间变化的控制信号,S2根据E改变电路连接,那么你可以设计一个带有记忆功能的减法器来实现它。 然而这个方法说到头是一种类比, 很多真实的神经科学家把这个方法戏称为toy model, 而对其不屑一顾。 因为你无论说你电脑里的程序行为多么像大脑, 其实与真实都差距万里, 而且能够实现某种功能的算法也有很多, 你凭什么说大脑就是按你的臆想工作?用这种方法的计算神经科学家经常纠结于自己的模型需要多大程度仿真的问题上,就好像有些人说的, 你要给一只猫建立模型, 最好就是找一只猫来。 (责任编辑:本港台直播) |