因为环境的相似性和人机通讯的同化效用,一个人工智能系统的经验当然和人类经验会有相当程度的共同性和对应性,但差异仍会非常大。这和系统的智能水平无关。如果两个智力相当的人是在非常不同的自然和社会环境中长大的,那他们获得的“常识”一定是非常不同的。古龙的《绝代双骄》和马克·吐温的《王子与贫儿》讲的都是这种故事。 我们当然可能把人类常识灌输给一个人工智能系统,而利用其强大的记忆和处理能力构造一个包罗万象的知识库。但如果这些知识既不能指导这个系统的行为,又不能根据这个系统的经验被修正,那这个知识库对这个系统就没有意义,尽管它可能对某些旁观者有意义。这正是塞尔的“中文屋”思想实验所批评的情形。一个通用人工智能系统的世界观一定是和人的不完全一样的,否则它就不是真的有智能,而只是人类的应声虫。但另一方面,让智能机器发展它们自己的“常识”会为我们对它们的理解和控制带来挑战,如我在中所讨论的。 深度学习的研究现在仍是聚焦于系统输入-输出之间的数学关系,而极少仔细分析更大范围内的认知和哲学问题。殊不知这些问题是不会随着技术进步而水到渠成地迎刃而解的。把常识简单地处理成输入-输出关系的一个缺点就是不利于使这些关系本身成为思考的对象,直播,而这也是“联结主义”逊于“符号主义”的要点之一。神经元网络另一个技术上的问题是“词语向量”和“思想向量”这类办法在学习知识时是针对一个特定任务的,而常识需要有通用性才行。所谓“迁移学习”(transfer learning)正是针对这一点的,但能走多远还很难说。 纳思和“常识” 我在前面的若干短文中(如)已经介绍了我设计的“纳思”。作为一个通用人工智能系统,纳思自然要处理常识。在这里我只介绍基本想法,而请对细节有兴趣的读者看我的学术著述,如参考材料[2]和我主页上的相关论文。 纳思的设计是不依赖于具体领域的,但其对具体问题的解决能力很大程度上取决于系统当时所具有的相关知识。用我在中引入的区分来说,纳思的“智能”是通用的和先天植入的,体现为“元知识”;而其“技能”是专用的和后天习得的,体现为“领域知识”。常识是后者中那些和其它系统共享,但并未体系化的部分。由于这种知识没有明确边界,也无需特别处理,因此纳思并没有一个特别的“常识推理”机制。和其它领域知识(个人知识或理论知识)相同,常识来自纳思的直接或间接经验,并始终在被组织和修改的过程中。 由于纳思的知识由符号语言表示成概念关系,而且可以循某种逻辑进行推理和修正,它和前面提到的常识知识库和非单调逻辑都有相似之处。但纳思的所有知识都是可以被系统经验所修正的,而这就和以往的(公理化)推理系统不同了。纳思和神经元网络的相似之处体现在对学习的倚重和对不确定性的包容,但纳思中的知识是表示成一个概念网络,因此在技术细节上和思想向量非常不一样。 通过人机交流,人类知识会成为纳思信念的一部分,但不会是全部,而它也会根据自己的经验对有关知识的适用程度进行评估,并决定是否依此行事。因为纳思的信念可以成为它的思维对象,系统可以在一定程度上区分人类教给它的知识和它自己总结出的知识。这就像我们可以了解他人的信念,但并不需要完全接受这些信念。 总而言之,我认为目前计算机已经可以表示和使用人类的某些常识了,而且这方面的能力会越来越强。由于人工智能系统从自己经验中总结出来的知识和人类常识不会完全一样,协调二者的关系仍会是一个重大课题。(本文图片来自网络) 参考资料 [1] George F. Luger, Artificial Intelligence, 6th edition, Addison Wesley, 2009 [2] Pei Wang, Rigid Flexibility: The Logic of Intelligence, Springer, 2006 了解作者信息和他在赛先生上已发表的文章,请点击页面左下角的“阅读原文”访问他的主页。 投稿、授权等请联系:[email protected] (责任编辑:本港台直播) |