本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

报码:【图】人工智能:够聪明之前,还需善约束(2)

时间:2016-11-04 19:40来源:本港台现场报码 作者:118开奖 点击:
人工智能领域的研究和应用在很多方面都取得急速进步,但与之相对应的规范化 约束 方案却严重滞缓。人工智能与核武器、生化技术、基因技术等其他影

  人工智能领域的研究和应用在很多方面都取得急速进步,但与之相对应的规范化约束方案却严重滞缓。人工智能与核武器、生化技术、基因技术等其他影响巨大的技术一样,潜在的威胁和其潜在的利益是成正比的,想要妥善利用这股洪荒之力,在它们“够聪明之前,为其树立一套可靠的行为准则是十分必要的。我们要的不仅仅是娴熟的技术以引燃智能爆炸,还需要在更高水平上掌握控制权,以免我们在智能爆炸中“身首异处”。

  就如科幻小说作家艾萨克?阿西莫夫在他的短篇小说《环舞》中提出的“机器人三大法则”,可以说是一种保护性设计和内置的道德原则。原则一:机器人不可以伤害人类,或看到一个人将受到伤害而不作为;原则二:机器人必须服从人类的命令,除非这些命令与第一项法则矛盾;原则三:在不违反第一、第二项法则的前提下,机器人必须保护自身生存。时至今日,这对现实中的人工智能发展同样具备指导意义。

  目前,全球最大的5家科技公司谷歌母公司Alphabet、亚马逊、FacebookIBM和微软都在率先尝试制定关于人工智能机器人的道德标准,并规划成立人工智能行业组织。虽然尚不清楚,这一行业组织最终会取得什么样的成果。但其基本出发点很明确:确保人工智能的研究专注于造福人类,而非不利于人类。

  此外,开发人工智能已经是全球性的竞争,这样的竞赛机制也许会让某些害怕落后的团队通过增加冒险行为的方式赶上竞争者,非良性的循环会让这一风险直达最高水平。因此,除了围绕人工智能研究制定规则,行业内也须制定自我约束框架。而在这一过程中,政府有效并适时的参与到为人工智能规划目标、价值观和道德规范的过程中来,开奖,也将是一种必然行为,因为人工智能已经将技术发展和社会经济政策更紧密地联系在一起。

开奖 (责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容