在奥巴马担任客座编辑的《连线》2016年11月刊里,扎克伯格撰文说科幻小说对末日场景的担心几乎没有什么依据:“如果我们放缓进步脚步而听命于没有根据的担忧,就会妨碍人类取得真正收获。”。他把对AI的神经过敏与当年对飞机的恐惧相提并论,指出:“在首先找出怎么让它们飞起来之前,我们并没有匆忙给飞机制定规则。” 正好在圣诞节前扎克伯格推出了自己的AI管家Jarvis。这位管家有着摩根·弗里曼充满抚慰感的嗓音,可以帮助播放音乐、开灯关灯,甚至还能烤吐司。在Jarvis还处在最早期阶段时我曾经问过真实的钢铁侠Musk对它的看法。Musk回答说:“我不会把家务功能自动化叫做AI。开灯、设定温度这些真不是AI。” 扎克伯格一样可以不屑一顾。在德国被问到Musk的末日预感是“歇斯底里”还是“合理”时,扎克伯格的回答是“歇斯底里”。去年9月,当Musk的SpaceX火箭在发射台爆炸并毁了Facebook租赁的一颗卫星时,扎克伯格冷冷的发文说自己“深感失望。” IV、历史的断裂 Musk等对AI发出告警信号的人有时候被视为小题大做的人。2016年1月,Musk获得了华盛顿一家技术政策智库授予的年度勒德奖。尽管如此,他还是有一些相当好的同僚。霍金告诉BBC说:“我认为完全人工智能的出现将预示着人类的灭亡。”盖茨告诉Charlie Rose说AI有可能比核灾难更加危险。43岁的牛津大学哲学教授Nick Bostrom在其2014年的《超级智能》一书中警告说,“一旦出现不友好的超级智能,就会阻止我们替换它或者改变它的选项。我们的命运就会被封印。”去年基辛格博士也加入了看衰的一方,他在曼哈顿的一个私人俱乐部Brook主持了有顶级AI专家参与的秘密会议,在会上他讨论了自己对智能机器人可能造成历史断裂并破坏文明运作方式的担忧。 2015年1月,Musk、Bostrom等代表着两个阵营的AI界名人聚集到了波多黎各,出席由49岁的MIT物理学教授,位于波士顿的生命未来研究所负责人Max Tegmark主持的一次会议。 Tegmark问我:“你有房吗?你买了火灾保险吗?波多黎各达成的共识是我们需要火灾保险。当我们有了火并搞砸火时,我们发明了灭火器。当我们有了汽车并搞砸汽车时,我们发明了安全带、安全气囊以及红绿灯。但是核武器和AI这两个东西我们可不想从错误中学习。我们要未雨绸缪。”(Musk提醒Tegmark,像安全带这样合情合理的预防措施也曾经引起汽车业的强烈反对。) 启动为避免AI陷阱的研究筹资的Musk说,他将为生命未来研究所提供“1000万个理由”去从事该课题的研究,他赞助了1000万美元。Tegmark麻黄素那个给Bostrom的牛津小组,人类未来研究所捐了150万美元。当时在解释为什么“主动而不是被动”至关重要时,Musk说“设想人类文明无法恢复的场景”当然是有可能的。 波多黎各会议结束6个月后,Musk、霍金、Demis Hassabis、苹果联合创始人Steve Wozniak以及伯克利计算机科学教授,与人合著了人工智能标准教科书的Stuart Russell,以及1000多位其他名人联合署名写信要求禁止进攻性自动武器。Russell告诉我说:“在50年内,我们现在处在的这个18个月对于AI社区的未来度会被看作是至关重要的时期。AI社区终于觉醒了,开始严肃思考如何让未来更美好了。”去年9月,美国的几大科技巨头建立了AI伙伴关系(Partnership on Artificial Intelligence),全面探索包括伦理在内的AI相关问题。(Musk的OpenAI迅速加入了这一阵营)与此同时,欧盟一直在审视机器人和AI出现所引发的法律问题——比如机器人是否有“人格”或者更应被视为罗马法里面的奴隶。 去年1月, 加州Asilomar中心(选址在这里是因为1975年科学家聚集到这里同意限制基因实验),在Tegmark主持的第二次AI安全会议上,该话题不再变得那么的具有争议性。没有出席波多黎各会议的Larry Page这次也去了,Musk指出他们的“对话不再激烈了。” 不过尽管这也许是“AI安全的一次介绍性聚会”(一位与会者的说法),但在Musk看来这是过去1年左右发生的“重大转变”的一部分,但未来还有很长一段路要走。他观察到:“硅谷的技术精英现在无疑已经更加认真地看待AI了——他们已经把它看作风险看待了,但我还不敢确定他们是否认识到了这种风险的显著性。” (责任编辑:本港台直播) |