“我们肯定有其他调查方法,因为我们有这样的机制。”他说,“我们可以看看,如果输入信息有一些差异,输出结果究竟会有所不同,还是与之前完全一样?所以,从这个角度来看,我们可以调查很多事情。” 不放心的各国政府 虽然从谷歌的角度来看,核查输出结果或许是一种好方法,但个人和政府可能会要求他们和其他所有采用机器学习算法的公司或机构采取更多措施。 △DARPA向往的“可解释的AI” 美国军方就对AI的可解释性透露出了强烈的兴趣。 上个月,(美国国防部高级研究计划局)投入数百万美元,与10支研究团队签订了4年的协议,要开发可解释的新AI系统,和将这些解释传递给人类的交互界面。 今年早些时候,英国政府首席科学顾问在《连线》杂志上撰文称:“我们需要开发各种机制来了解算法的运行模式,尤其是通过机器学习在计算机系统的软件内不断进化的算法。” 欧洲立法者也在这一领域采取各种措施来保护个人用户。 将于2018年5月生效的欧盟《通用数据保护条例》限制使用“严重影响”用户的自动化决策系统。此外还设立了“解释权”,:当一个算法针对用户作出决策后,该用户有权要求其给出相应的解释。 在欧洲供应或运营,“或者监视欧洲人行为”的外国企业,可能也需要遵守这些规定。 虽然Norvig认为“让AI解释自己”这条路行不通,他还是对监管者的关注表示欢迎。 “我们现在开始了解具体的影响了,但现在给出答案还为时尚早。”他说,“随着我们开始看到人工智能的潜力,我们并没有坐以待毙,而是开始提出问题,试图了解日后的去向。这是好事。” 【完】 一则通知 量子位正在组建自动驾驶技术群,面向研究自动驾驶相关领域的在校学生或一线工程师。李开复、王咏刚、王乃岩等大牛都在群里。欢迎大家加量子位微信(qbitbot),备注“自动驾驶”申请加入哈~ 招聘 量子位正在招募编辑记者、运营、产品等岗位,工作地点在北京中关村。相关细节,请在公众号对话界面,回复:“招聘”。 追踪人工智能领域最劲内容 (责任编辑:本港台直播) |