从大脑优化目标函数的方式中,我们可以观察到人类在运动过程中其实有很多的策略,从进化角度考虑,人类必须减少能量的消耗,减少运动的风险,降低受到伤害的几率。我们目前认为目标优化策略机制在大脑中广泛存在,它们形成了不同的特定处理方式。 那么大脑目标函数优化的确切含义是什么?有很多的网络结构,比如馈增网络,有些存在反向通道,STDP 机制和一些相关结构。在经过学习后可以产生和数学上的 BP(错误反穿)一样的效果的学习机制。但目前有关大脑中存在 BP 学习机制还是一种假设。在神经科学中,哪一种运行机制假说是对的还没有定论。但这些假设可以给人带来很多启发。 第二个假设是目标函数在不同脑区和不同发育阶段是不同的。这很容易让人理解,在构造神经网络应用的时候,可能一个网络被用于进行分类、决策,另一个网络会不断地随时间、环境,或者被其他动机驱动,产生变动的目标函数,因此,这个神经网络就会更加适应环境,具有更好的表现。
目前的深度学习正在向无监督方向发展,人脑是否存在真正的无监督学习?我们现在仍然只能进行假设,因为大脑实在太复杂了,目前的神经科学还难以支撑这样的结论。顺着假说的思路,利用无监督学习来解决特定的问题是目前研究者面临的挑战,如果按照刚才的优化目标来看,大脑目标函数是随着时间和不同的发育阶段而变化的。因此,我们需要探讨的问题是,真正的演化是不是根据当前的状态?我们能不能通过一系列目标函数来建立回路和行为? 我们总是希望用较少的数据来训练完美的模型,人类的大脑在进行学习时不需要一个具有数百万已标记数据的数据集来训练。人类只需要一些简单的逻辑和少量事例,就可以触类旁通,开奖,仅需要非常少的数据即可完成训练。 现在,我们希望计算机可以把复杂的问题分解成若干的不同的阶段,每阶段只需少量数据进行训练,输出相应的目标函数,如果这个方向出现了成果,那么人工智能就向前迈进了一步。 第二,在增强学习上,我们目前认为大脑中普遍存在此类机制。增强学习和深度学习正在不断地被整合,此类研究也已经出现了很大的进展。它的基本思想就是用强化学习来产生定义的目标,也就是说所谓的有效错误反弹,它也可以理解为通过学习需要达到的目标,加上强化的过程。我们可以把这种学习方式理解为不断变化的 cost function,加上半监督学习。 第三,专业系统如何进行有效计算的问题,这与实现机制结构相关。不同模式的信息在不同领域中被用来解决各种类型的问题。有些区域是 highly recurrent,有些区域是在不同的激活状态,有些区域好像在做信息的路由,基底区在做增强学习跟离散的决策。在大脑中可能存在一些较为固化的结构在做无监督学习,这意味着深层次的模型可能是大脑中的固定结构,因为深层次模型是不需要监督的。 还有一些有关物理世界固有特性的目标函数,比如说一个物体,我们推动它会产生惯性。在特定结构下做出优化,即使有一组强大的基因来决定,我们的 cost-function 要在一个空白的网络上演化出复杂的认知也是非常困难的。
从大脑中寻找灵感 预设一个结构对解决复杂问题而言是必要条件,优化公式的学习是在复杂的动态的协同过程中完成的。我们知道大脑中存在很多特殊结构,用于完成各种类型的任务,这种机制并不需要经过大量学习。目前,智能研究社区非常关心大脑到底有没有反向传播(backpropagation)机制,我们可以设计一种模型,实现类似大脑的反向传播,但从生物学中更复杂的技术层面上看,类脑的角度是非常有益的。无论如何,一旦生物运算机制被我们破解,我们就可以把它复制到计算机领域中,使得人工智能程序的学习变得更加简单、更加有效。 在演化部分里有这样一个结论:假如我们目前的技术向内容的认知能力方向发展,最后出现的算法将会远远超出目前硬件技术所能容纳的范围。从大脑的角度来看,目前人造的数据驱动方式都无法达到人脑的运行效率。所以,我们需要转变思路,吸收很多的模块化机制,反应偶然性的推理方式,原始物理和心理机制,来构建能够理解感知现实世界的模型。 (责任编辑:本港台直播) |