在处理特定类型的杂乱数据,比如图像或者声音方面,Caruana的GAM表现没有AI好,一些神经网络正是靠处理那些数据繁荣起来的。但对于任何能放进电子表格的行列之间的数据(关系表),比如医院记录,这个模型就工作得很好。比方说,Caruana又找回了他原来的肺炎记录。用他其中的一个GAM重新分析那些数据,借此他得以发现为什么AI会从准入数据学到了错误的经验。因为医院通常会将肺炎并发哮喘的病人予以重症监护,从而改善了他们治疗的结果。由于只看到了病人的迅速改善,AI会建议将病人送回家。(对于同时患有胸痛和心脏病的肺炎患者AI也会犯同样的乐观错误) Caruana已经开始向加州医院兜售GAM解决方案,其中就包括洛杉矶儿童医院,该医院的10多位医生评估了他的结果。他们很快就理解了它的决策,在会上把大部分的时间都花在讨论这个东西对判断肺炎是否该住院的意义上。一位医生说:“你对医疗保健懂得不多,但你的模型的确懂。” 有时候你得拥抱黑暗。这是寻求实现可解释性的第三条路径的研究人员的理论。他们说,我们不要去探究神经网络,直播,也用不着回避它们,解释深度学习的办法只要做更多的深度学习就好了。 如果我们无法对为什么它们会做某事提出问题并且获得合理的响应的话,大家就会把它束之高阁 就像许多AI编码者一样,乔治亚理工技术学院Entertainment Intelligence Lab主任Mark Riedl求助于1980年代的视频游戏来测试自己的作品。Frogger是他喜欢的游戏之一,玩家要控制着与游戏同名的这种两栖动物穿越车水马龙的公路去到对面的池塘。训练神经网络玩专业级的Frogger非常容易,但解释AI在做什么却要比通常难很多。 Riedl不去调查那个神经网络,而是让人类受试者玩游戏然后实时描述自己的策略。Riedl把那些话以及青蛙的上下文记录到了游戏的代码里面:“哦,这儿有辆车开过来了;我得往前跳。”在玩家和代码两种语言的帮助下,Riedl训练第二个神经网络在两者之间进行翻译,把代码翻译成英语。然后他再把那个翻译网络植入到原先玩游戏的网络,做出了一个整体的AI,这个AI在车道等待时,会说“我在等待一个洞打开再走。”当被困在屏幕一边时,该AI甚至会发出沮丧的声音,不断抱怨说:“靠,太难了。” Riedl把他的方法叫做“合理化”,旨在利用这种方法帮助日常用户理解很快就将帮我们打理家务和开车的机器人。Riedl说:“如果我们无法对为什么它们会做某事提出问题并且获得合理的响应的话,大家就会把它束之高阁。”但他补充道,那些解释,不管如何给人以慰藉,却会引发另一个问题:“这种合理化错到什么程度才会让大家失去信任?” 再回到Uber,Yosinski被赶出了他的玻璃箱。Uber以城市命名的会议室总是很抢手,而且这里并没有峰时定价(surge pricing)来限制拥堵。他离开了多哈去找蒙特利尔,下意识的模式识别处理引导着穿越迷宫般的办公区——直到他迷路了。他的图像分类器依然是个迷宫,而且就像Riedl一样,他征召了第二个AI来帮他理解第一个。 研究人员创建了一种神经网络,这种网络除了能补全相片以外,还能识别出人工智能的瑕疵。 首先,Yosinski重新编排该分类器来生成图像而不是给图像打标签。然后他和他的同事给该神经网络提供彩色的静态图,再通过它回送一个信号,要求比方说“更多的火山”。他们假设该网络最终会将此噪音塑造成自己认为的火山的样子。从某种程度上来说,它做到了:那个火山在人类的肉眼看来正好是一团灰色的没有特征的东西。AI和人的视角是不一样的。 接下来,该团队放出了一个针对自身图像的生成对抗网络(GAN)。此类AI包含了两种神经网络。这个“生成器”通过一个图像的训练集学会了图像制作的规则并且可以合成图像。第二个“对抗”网络则试图检测出结果图片是真的还是假冒的,提示生成器再来一次。这样不断反复之后最终就可以得出包含有人类可识别特征的粗糙图像。 Yosinski和他之前的实习生Anh Nguyen把这个GAN连接到他们原先分类器网络内部的层。这一次在被告知要创建“更多的火山”时,GAN会将分类器学到的灰色噪音和自己对图片结构的知识结合起来,将其解码为海量的一组合成的、现实主义风格的火山。一些是在休眠的。一些是在晚上的。一些是白天的。还有一些可能是存在瑕疵的——这些都是了解分类器知识鸿沟的线索。 (责任编辑:本港台直播) |