本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

报码:【机器人总统强过特朗普?】技术视角看通用A(3)

时间:2017-07-10 04:53来源:本港台直播 作者:www.wzatv.cc 点击:
例如,2015 年发布的谷歌照片应用程序使用 AI 识别照片的内容,然后对照片进行分类。该应用程序做得不错,却犯了一个明显的错误:它将几张黑人的照片

例如,2015 年发布的谷歌照片应用程序使用 AI 识别照片的内容,然后对照片进行分类。该应用程序做得不错,却犯了一个明显的错误:它将几张黑人的照片标记为“大猩猩”。系统完全意识不到自己犯了怎样的错误,更理解不了其中牵涉的令人震惊的历史和社会背景。当时谷歌做出了道歉,并表示会调查这一问题。

还有一些例子,也影响了人类的生活。一个全国法院都在使用的 AI 能够判断被告重新犯罪的风险,并为法官的判决做出指导。它似乎是这种自动化技术的完美应用。它可以会处理大量的数据,找到人们可能会错过的模式,并避免困扰人类法官和检察官的偏见。但是,ProPublica 的调查报告发现,黑人被告被 AI 系统认为在未来进行暴力犯罪的可能性要比白人被告高出77%(创建该系统的营利性公司对ProPublica 的调查结果提出异议)。AI 系统并没有明确地考虑被告的种族,而是因为一些与贫困和失业相关的因素与种族相关。系统基于这些数据,给出了这样的结果,虽然它的表面上是中立的,却是数百年不平等现象的沉淀。

这对所有计算机来说都是问题:它们的输出只是输入的忠实体现。一个被投喂了种族主义滋养的数据的 AI,就可能生成种族主义的结果。

技术体系无法免于偏见,不会因为只是数字就自动变得公平。”哥伦比亚大学文化人类学家马德琳·克莱尔·伊利(Madeleine Clare Elish)说,“我最大的恐惧是,人们无法接受 AI 技术的人类开发者将自身的偏见和缺陷也编其中。“

奥巴马政府去年 10 月发表的关于 AI 的报告对这一问题也同样关切:怀着最美好初衷、全无偏见的开发者也可能无意中做出有偏见的系统,因为即使是 AI 的开发人员也可能无法完全了解他所开发的系统,无法防止意外结果的产生。

所谓依靠强人工智能来让 AI 自己解决 AI 的现有问题,大多是文字游戏

一旦我们开发出超级人工智能,一些专家认为对偏见的担忧将会烟消云散。Humanity+ 主席 Vita-More 表示,这样一个系统能够“发现偏见”。“会有一个测量仪器。”她说,“可以检测‘信息来自哪里’、‘这些人需要什么’,并说明数据的缺陷。”

黑客问题是另一个使用 AI 可能带来的风险。如果别国黑客黑进机器人总统的系统,从而操作整个美国政府,我们该当如何?我们甚至可能不知道机器人总裁所做的决定是否被操纵。AI 总统的支持者会说,机器人总统足够聪明,不仅可以解决我们国家最大的问题,而且还能阻止任何试图破坏这一努力的人。

努尔巴赫什表示,所谓依靠强人工智能来解决 AI 的现有问题,大多是文字游戏。他说:“如果你提出一个问题,就会有人说‘这些 AI 智能超过人类,所以它们自己会找到解决这个问题的办法。”努尔巴赫什认为,人类必须自己解决问题。

让一台计算机与总统协同工作,可以修正人类总统的一些缺陷

这些障碍会使机器人总统拥趸沮丧和泄气,不过目前也许可以有一个折中的方法,计算机可以处理所有总统需要做的决策,自己并不做出最终选择,而是给予人类元首做决策的指导。这类似于一种人机协作,协作的结果优于任何一方独自决策的结果。

哈佛法学院互联网法学教授 Jonathan Zittrain 认为尽管 AI 存在缺陷,计算机仍可被用于消除人类的做决策时的偏见。在近日的一篇博客中他写道:“经过适当的训练,AI能够系统地识别整体的不公正性及具体的偏见。

也许让一台计算机与总统协同工作,仍旧可以修正人类总统的一些缺陷。

“AI 发挥作用的领域在于理解后果”,Nourbakhs 说道。他指出特朗普的旅行禁令就是一个总统决策带来不良后果的例子,因为其法律及宪法的影响并未被充分理解及考量。计算机则可以提前分析反对者及地方法院有可能做出的反应。

已经有几项研究表明,“人机协作的团队比各自组成的团队更高效”,如奥巴马政府的 AI 报告中所称。“在最近的一项研究中,在被要求针对所给出的淋巴结细胞图像做出病人是否患癌的诊断时,AI 的错误率在 7.5%,人类病理学家的错误率在 3.5%,而人机协作的错误率降至 0.5%”。香港的一家风投公司正在把类似的人机协作应用于实际业务。他们于 2014年宣布为董事会引入一套 AI 系统,用于处理数据及向董事会成员提供投资决策建议。

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容