随着网络的进步,学习一个新的规律后,它可以通过查看无监督的世界模型在学会前后需要编码多少计算资源来测量其新洞察力的深度,前后的差异就是网络的「乐趣」。其洞察力的深度是一个数字,直奔第一个网络,也就是控制器,控制器的任务是将所有的反馈信号最大化,包括从各种内在的愉悦时刻(joy moment)和该网络之前没有的洞察力而来的反馈信号。愉悦时刻类似于一个科学家发现一个以前未知的新物理定律。 你能帮我在我的意识和经验的范围内理解所有的处理吗? 当你行走在这个世界中时,你会遇到很多张人脸,这意味着你做的一些处理工作,在大脑中构建某种循环子网络来压缩观测历史(称之为 compactify)确实有效。「面部编码器」(face encoder)会与原型人脸相对应。所以当一个新面孔出现的时候,你需要做的就是要将这张面孔与原型的差异进行编码。 即便如此,我仍然不确定为什么我们能说这就是有意识。 关于意识有一件很重要的事情是智能体会注意到,在与世界的互动中有一件事总是存在,即智能体自己。 出于数据压缩的目的,用循环世界模型网络(recurrent world-model network)挑出一些神经元对智能体本身进行编码是非常有效率的。它能够通过创造一个符号将整个行为和感知的历史以及属于智能体的其他符号都进行压缩:可能是手、脚等。在解决新问题的过程中,不管你什么时候激活这些与自我符号相关的神经元,智能体都在思考着自身。 所以,在 1991 年的时候,我们就已经达到了这一点。当然,那只是意识的一种基本形式——不像你我的意识这样令人印象深刻,因为我们的大脑要比这些小人工智能体的大脑大得多。我们的大脑皮层中的连接可能多达 10 万亿种,但是目前最大的长短期记忆人工神经网络(Long-Short Term Memory, LSTM)也可能只拥有 10 亿种连接。相比较,你的大脑皮层要大 10 万倍,所以携带的意识当然也要比小小的人造大脑更加可观。但是几乎每 5 年,atv直播,计算的成本就会便宜 10 倍。所以或许我们还需要 25 年的时间,才能第一次获得和大脑皮层连接一样多的长短期记忆人工神经网络。 人造大脑的电子连接比大脑皮层的连接要快。 Schmidhuber 和仿真机器人 用技术行话来说,真正的挑战是「知觉难题」(hard problem of consciousness)。这就像是一种经验一样,哲学家们称之为感质(qualia)。当你拥有了一种经验之后——看日落、听你最喜欢的乐队唱你喜欢的歌、闻卡布奇诺的味道等等——就可以从一些存在的事物当中获取一些经验。只是目前原因我们还不清楚。哲学家 David Chalmers 认为这个问题是一个「难题」,换句话说:「身体上的感受为什么会让我们的内心生活更加丰富呢?」你是否相信这个模型还会让这些人工智能产生感质? 我认同这个观点。从行为上来讲,这些人工智能都非常的相似。当我们让这些人工智能和其他一些能够伤害它们的人工智能面对面的时候——例如在捕食与被捕食(predator-prey)的场景中——它们不想要受伤。当一个人工智能袭击另一个人工智能时,它对疼痛的感知就会上升——而第二个人工智能就会据此进行预测并且避免这种痛苦,比如说藏在窗帘或者是模拟相同的场景。所以说,从这些智能体的行为来看,它们并不喜欢这样。 这是我们很长时间以来所看到的。我们的人工智能正在试图避免痛苦,并将愉悦最大化——包括开心或是内心的喜悦,从洞察力到模式——因为它们已经内置了可以最大化的效用函数(utility function)或是奖励函数(reward function)。人类也生来具有一种奖励函数。这些人工生命的行为至少从性质上来看和高等级的动物或者说是人类非常相似。所以无论如何,我们都应该相信这是可复制的。
这就像是为了讨论思维又发明出了一门新的语言一样。当你在反省的时候,你会不会觉得自己就像是一台计算机一样?你是不是在想:「我大脑中的高级活动区正在处理这个问题,较低级的区域正在进行自动处理?」你是这样反省的吗? (责任编辑:本港台直播) |