图2:AI 达到人类表现的预测时间中位数(区间为50%)。这个表是50%的可能性实现各AI里程碑的时间。具体来说,区间表示该事件发生的概率是25%~75%的时间范围,这是从图1的各个CDF的平均值计算出来的。小黑点表示概率是50%的年份。每个里程碑表示实现或超越人类专家/专业表现(附录表S5中有详细描述)。需要注意的是,这些区间代表了受访者的不确定性,而不是预测的不确定性。 受访者被要求回答AI的32个“里程碑”实现的时间。每个“里程碑”的回答者是从受访者中随机抽取的子集(n≥24)。结果显示,回答者预期在10年内32个AI里程碑有20个可能实现(平均概率是50%)。图2显示了每个里程碑的时间表。 智能爆炸和 AI 安全问题 AI 的发展前景提出了事关重大的问题。一旦 AI 研究和开发本身实现自动化,AI 进步是否会呈现爆发式增长?高级机器智能(HLMI)将如何影响经济增长? 这导致极端结果(正面或负面)的概率有多大? 我们应该做些什么来确保 AI 的发展是有益的?
表1 表 1 展示了这些问题的调查结果。重要发现如下: 1.研究人员认为机器学习领域的发展近年来有所加快。我们询问了研究人员,机器学习领域的发展,是在其职业生涯的前半段更快,还是后半段更快。67%的被调查者表示,后半段的发展速度较快,只有 10% 表示前半段发展更快。受访者的中位数工龄为 6 年。 2.高级机器智能(HLMI) 之后的 AI 大爆炸被认为是可能但可能性不大的。一些学者认为,HLMI 一旦实现,AI 系统将在所有任务中迅速超越人类,建立起广泛优势。这种加速度被称为“智能爆炸”。我们询问受访者,HLMI 实现两年后,AI 在所有任务中大范围超越人类的概率。得到的中位数概率为 10%(四分位距:1-25%)。我们还向受访者询问了 HLMI 实现两年后爆发全球技术革新的概率。中位数概率为 20%(四分位距 5-50%)。 3. HLMI 被认为有可能产生积极影响,但灾难性风险也是可能的。被访者被问及 HLMI 是否会对人类长期产生积极或消极的影响。后果用5分制描述。“良好”后果的中位数概率为 25%,“极好”结果的中位数概率为 20%。相比之下,不良结果的概率为10%,而“极差(例如人类灭绝)”结果的概率为 5%。 4.社会应优先考虑旨在尽量减少 AI 潜在风险的研究。48% 的受访者认为,关于最小化 AI 风险研究优先级应该比现状更高(只有 12% 的受访者希望降低优先级)。 亚洲人比北美人预期 HLMI 的实现时间点早 44 年
图3 图3 显示了个体受访者预测 HLMI 实现时间点的巨大差异。 引用数和资历二者都对 HLMI 时间表没有预测意义(见图 S1 和表 S2 中的回归结果)。然而,受访者所在地区的不同带来了 HLMI 预测上的显著差异。图3 显示出亚洲受访者预测 HLMI 将在 30 年后实现,而北美受访者则认为是 74 年后。 图 S1 调查显示出了近似的差距,两个受访者最多的国家,中国(中位数 28年后)和美国(中位数 76 年后)。同样,关于我们询问的每项工作(包括卡车司机和外科医生)的自动化实现概率达到 50%的总年数,亚洲人预计的时间也都要比北美人早(表 S2)。请注意,许多亚洲受访者现在在亚洲以外学习或工作,我们使用受访者的本科院校所在国家来判断受访者的区域。 我们的样本有代表性吗? 所有调查都会面临一个问题:无应答偏倚(non-response bias)。特别是,有强烈意见的研究人员更有可能填写调查报告。我们试图通过缩短调查用时(12分钟)和保密,并且在我们的邀请电子邮件中不提及调查内容或对象来减小这种影响。我们的回复率是 21%。为了调查可能的无应答偏倚,我们收集了我们的受访者(n = 406)和无应答的NIPS / ICML研究人员的随机样本(n = 399)的人口统计学数据。结果显示于表 S3 中。引用次数,资历,性别和原籍国之间的差异很小。虽然我们不能排除由于未测量的变量而导致的无应答偏差,但鉴于我们测量的人口统计变量,可以排除较大的偏差。我们的人口数据还显示,我们的受访者包括许多高被引的研究人员(主要来自机器学习领域,也包括统计学、计算机科学理论和神经科学),他们来自43个国家。其中大部分属于学术界(82%),而 21% 在产业界工作。 有待商榷 (责任编辑:本港台直播) |