:COO、执行总编、主编、高级编译、主笔、运营总监、客户经理、咨询总监、行政助理等 9 大岗位全面开放。 简历投递:j[email protected] HR 微信:13552313024 新智元为COO和执行总编提供最高超百万的年薪激励;为骨干员工提供最完整的培训体系、高于业界平均水平的工资和奖金。 加盟新智元,与人工智能业界领袖携手改变世界。 【新智元导读】艾伦人工智能研究所CEO、著名的人工智能研究者Oren Etzioni九月在《麻省理工技术评论》上撰文批评Nick Bostrom的新书《超级智能》,认为对超级智能AI的长期风险的担忧不过是杞人忧天,在可预见的未来不可能出现超级智能AI。对此来自耶鲁大学政治学和加州大学伯克利分校计算机科学的两位教授Allan Dafoe和Stuart Russell在同份杂志上撰文驳斥Etzioni的批评,力挺Bostrom。有意思的是,Etzioni在这篇评论的文末刊登了一段回应,虽不完全同意两位教授的观点,但为自己对Bostrom的人身攻击致歉。 Oren Etzioni,这位著名的AI研究者,对有关未来AI研究的成功将引起潜在的长期风险的新闻报道有颇多不满(见MIT技术评论文章:No, the Experts Don't Think Superintelligent AI is a Threat to Humanity)。Etzioni矛头直指牛津哲学家Nick Bostrom和他的新书《超级智能》(Superintelligence),针对Bostrom书中说“有关人类水平的智能的到来时间,数据主要来源于对AI研究人员的调查”,Etzioni对AI研究人员进行了另一次调查,宣称自己的结果和Bostrom的调查结果相悖。 相悖的调查结果 《超级智能》认为人类水平的智能出现的可能性: 到2022年:10% 到2040年:50% 到2075年:90%
Etzioni的调查结果 Etzioni向193名研究人员提问“你认为什么时候会出现超级智能?”,收到了80份回复(回复率41%)。结果显示,92.5的回答认为在“可预见的未来”(25年内)不可能出现超级智能,其中25%认为超级智能决不可能出现。 需要指出的是,Etzioni甚至没有解释他反驳《超级智能》的理由:书中明确地解释了为什么超级智能AI可能会引发可怕的后果,以及提前意识到这个问题的重要性。Bostrom的论调并不是基于超人AI系统即将来临的预言。他写道,“本书没有认为我们正处于人工智能大突破的入口,也不认为我们能够精确预测这种发展将在什么时候到来。” 因此,在我们看来,Etzioni的文章分散了读者对这本书的核心论点的注意力,并且由于Etzioni对书中的调查结果提出异议而引起读者对Bostrom的人身攻击。我们认为有必要厘清误解。Russell(本文作者之一)甚至参与过Etzioni的调查,发现他的回答完全被曲解了。事实上,我们对调查结果仔细分析后,发现Etzioni的调查结果与Bostrom引用的结果非常一致。
Bostrom的调查结果的累积分布函数图,显示与Etzioni的调查结果(上面饼图)有一致性。 那么,Etzioni是怎样得出不一样的结论的呢?他设计了一个劣于Bostrom的调查工具,且曲解了结果。 那篇文章的副标题是“如果你问那些真正懂行的人,你会发现很少人认为AI会构成对人类的威胁”。因此,读者被误导去相信Etzioni调查的人是真正懂行的,而Bostrom调查的是门外汉。而事实正相反,Bostrom调查的确实是专家,开奖,而Etzioni甚至没有向哪个人提问过。Bostrom调查了被引用数最高的100位AI研究者,回答者中超过一半说他们相信有相当的可能性(大于15%)人类水平的机器智能会对人类造成“一定的危害”("on balance bad") 或“极大的危害”("extremely bad")。而Etzioni的调查没有问及任何关于人类威胁的问题。
针对“超级智能的对人类的长期影响”的调查结果 (责任编辑:本港台直播) |