阿兰·图灵二战期间的合作者 I.J. Good 曾经写道,比人类更聪明的机器将是我们所做的「最后发明」。许多人认为社会将走到这一步,因为智能机器正愈加侵入我们的日常生活和想象力,而这种入侵正沿着两条战线前进。这些机器愈发被扣上诱发经济变革的帽子,导致一些人质疑工作的必要性。但更深层的是,我们不知道这样的超级智能机器是否会「和我们一样」:他们可能会思考,但他们有感觉吗? 为了帮助锚定后面的问题,Stevan Harnad 提出了符号接地问题(symbol grounding problem)。对机器而言,通过将所听到的单词直接转换为口语来学习构成人类语言的符号的意思是有问题的。这就像试图使用词典学习埃及象形文字,其中每个象形文字是使用其他象形文字定义的。下面来看我刚刚与网络上功率最大的聊天机器的交流内容: 我:你好。 它:你好,最近过得怎么样? 我:不错啊,你呢? 它:我过得很好,谢谢。 我:我最近一直在思考。 它:思考什么? 我:符号接地问题。 它:你可以给我讲一个令人开心的故事吗? 符号接地问题的解决方案是使符号在物理经验丰富的土壤中接地。例如,机器人可以知道符号「跳跃(jump)」与其脚底压力的突然消失有关。这个机器人可以通过让一个人跳跃,观察她的双脚离开地面,并推断这个人类的感觉与它在跳跃时的感觉相同来与人类共情。最后,这样的机器可以递归地将已接地的符号中越来越抽象的符号接地,直到最终它可以在第一次听到成语「don』t jump to conclusions」时理解为「三思而后行」。 公众理当关注这个看似神秘的认知科学角落,因为不以这种方式将符号接地的机器会很危险。来看我与这个聊天机器的交流:它不仅不知道它最后的回复是「错误的」,也没能预测我对于它的回复会感到沮丧还是开心。同样,另一台机器也可能无法预测我对于它的行为的恐惧反应。 如今机器可以在接收到一百万张包含人类的照片和另一百万张不含人类的照片之后,不必经历接地符号便可分辨新照片是否包含人类。但换成由两百万段对话组成的数据集:第一百万中,演讲者正在讨论如何最好地帮助 Bob; 在第二百万中,他们在密谋伤害他。就算目前最先进的机器也不能分辨一个新的对话中的发言者是想帮助还是伤害 Bob。 大多数人可以通过听一段谈话来预测被讨论的人是否处于危险之中。因为我们在现实生活、书籍和电影中听过足够的讨论,从而能够延伸至当前的谈话,而不像在之前未见到的照片中识别人类的计算机,所以我们也许可以对电脑也这样做。然而,我们也可以通过连接词,图像和亲身体验来感同身受:我们可以处于谈论 Bob 的人的立场中或 Bob 自己的立场中。如果一个人说「善有善报」,并伴以一个讽刺的嘲笑,我们可以提取这些语言符号(「一个」,「好」,...)且结合视觉提示,并做一些心理模拟。 首先,我们可以回溯并假装自己是 Bob,并想象他/我们的行为减缓了讲话者的饥饿或消融了另一个身体或情感的痛苦。然后我们做回自己,想象她会说的话。我们不会像她那样做出讽刺的嘲笑,我们的预测失败了。 所以我们再次想象自己是 Bob,但这次精神上模拟在某种程度上想要伤害讲话者。在此行为期间,我们再转变为讲话者并遭受她的痛苦。回到现在,我们想象自己说同样的话,并且预期中报复的感觉出现了,于是我们做出冷笑来匹配讲话者的嘲笑。故而我们预测,讲话者想要伤害 Bob。 神经科学越来越多的证据表明,听到的词点亮了大部分的大脑,而不仅仅是某些本地化的语言模块。这会不会表明一个人扭曲的话、行动、自己之前的感受经历和精神抢到了感官/行动/经历的编织电缆?这些电缆可以作为从他人的行为和感觉转到我们自己的行为和感觉,而后再返回去的桥梁吗? (责任编辑:本港台直播) |