被称为”人工智能之父“的图灵,曾经提出一个关于判断机器是否能够思考的著名试验,并创立了一个勒布纳人工智能奖(Loebner prize),旨在奖励能通过图灵测试的程序,由于目前为止还没有谁能获得最高奖项,只能把奖项颁给最接近的程序,如聊天机器人 Mitsuku。 马斯克等持人工智能威胁论者真正担心的其实是超级人工智能,但在人工智能连图灵测试都无法通过的今天,担心遥不可及的超级人工智能是不是太早了? 但未来学家 Ray Kurzweil 曾经提出一个加速回报定律(Law of Accelerating Returns),试图证明这一天的到来会比我们想象中要快得多。 根据这个理论,技术改良以过去的成就为基础,每十年革新的步调会加倍。按照加速回报定律,Kurzweil 认为人类科技水平在 21 世纪的进步将是 20 世纪的 1000 倍。
(加速回报定律示意图,图自:wordpress) 而对于人工智能,也有人提出过一个类似的概念——递归的自我提升。这个理论认为人工智能具有自我提升的机制,每一次提升都会比上一更次容易,最终达到指数级的提升,超级人工智能将会出现,达到人类也再也无法理解的技术奇点。 在今年 2 月马斯克、霍金等科学家推进的阿西洛马人工智能原则中,就包括了“人工智能这重快速自我提升的的方式必须受制于严格的安全和控制标准”。 但无论是加速回报定律,还是递归的自我提升,这些观点在学界和业界都备受争议,正如人们对人工智能的争论。 人工智能思想家 Nick Bostrom 曾在 2013 年对数百位科学家做了问卷调查,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,有一半科学家认为强人工智能出现的中位年份是 2040 年,而 75%的科学家认为在达到强人工智能后 30 年内就会出现超级人工智能。
(《西部世界》中的机器人,图自:Giphy) Nick Bostrom 试图证明人类试图理解超级人工智能终究的徒劳无功的,当人工智能发展到比人类智力水平高出几个量级,人类对抗人工智能就好像一只老鼠试图阻止人类发明捕鼠器一样。 这里要说明的是,传说中的超级人工智能可能不会像《终结者》和《西部世界》中的机器人一样有血有肉有情感,而是一个完全依赖算法的冷血物种,甚至不会有实体形态。正如马斯克所说: 人工智能的可怕之处不是它会化身机器人杀死人类,机器人本身只是一个终端传感器和执行器,人工智能形成算法在网络的无限扩散才是不可阻挡的。 Nick Bostrom 也曾提出过人工智能将核心代码上传到云服务器从而在世界范围内制造纳米机器人,然后不知不觉释放毒气来灭绝人类的设想。
(图自:TED Ideas) 人类不是没考虑过应对的方案,去年 6 月人工智能公司DeepMind 就发表了一篇论文,为预防超级人工智能的反叛设计了一个方案,称只要人工智能一失控,人类只要按下一个“大红按钮”就能阻止人工智能。但如果超级人工智能真的如众多研究者所说的那么厉害,要破解人类这种伎俩也是轻而易举了。 关于人工智能,也有人认为有可能让人类摆脱肉体的限制,把自己的思维上传云端,通过人造的躯体达到永生,马斯克研究脑机连接的新公司就被认为有这种可能。这和众多人工智能威胁论形成两个极端,人工智能带给人类的,是永生还是灭绝?这或许是个无法证伪的命题。 题图来自:《名利场》 爱范儿| 原文链接· · 新浪微博 (责任编辑:本港台直播) |