编者按:替我们的生活做决定的算法越来越多,让我们越来越担心。这些算法决定了我们在互联网上看的是什么、我们多大程度上会变成受害者或者教唆犯罪的人。算法使用数据集合进行校验,但是这些数据集合并不包括各个不同的人群。 相关阅读:学坏容易学好难!人工智能将继承人类的种族和性别偏见 这可能是一个令人感到意外的结果:依赖算法做决定本质上具有倾向性。用谷歌、百度、必应等搜索引擎以“手”或者“婴儿”搜索图片,你会发现,这些图片大部分都是白皮肤。
使用bing搜索“婴儿”图片,首屏只有白皮肤婴儿的结果。 全球白网,平衡搜索结果的肤色占比 2015年,平面设计师Johanna Burai在谷歌上搜索人类“手”的图片,发现谷歌搜索最前面的结果只有白皮肤的手。随后,她发起了“全球白网”(World White Web)计划。通过她的网站,照片上传者分享不同肤色的照片,她的网站就可以提供“可选择”的手部图片,用来平衡不同的肤色占比,因此,谷歌等搜索引擎就可以抓取不同肤色的照片。 谷歌说,它的图片搜索结果是网络内容的反映,包括了某种类型的照片出现的频率、它们在网络上添加的描述。这些反映并不涉及它的“价值观”。
使用谷歌搜索“手”的图片,结果也一样。 Burai女士现在已经不维护她的网站了,直播,她相信事情已经有所改观。她说:“我认为事情正在好转,人们看到了问题。当我发起这个计划的时候,人们很震惊,而现在对于这个问题,人们已经给予了更多的关注。” 算法正义联盟,检测算法是否具有偏见 2016年11月,麻省理工学院(MIT)的研究生Joy Buolamwini创办了算法正义联盟(AJL)。她试着在一个项目中使用面部识别软件,但是该软件不能加载她的面部,因为Buolamwini的肤色很深。 她说:“我肤色很深,而当我戴上白色面具的时候,系统更容易识别。戴上面具其实已经不能说是一张脸了,更适合称呼它为模型,而电脑可以轻易读取该模型。”
Joy Buolamwini发现,她的电脑能识别白色面具,而识别不了她肤色为黑色的脸。 这已经不是她第一次遇到类似的问题了。五年前,她不得不让一个皮肤颜色更浅的室友来帮助她。 “我感慨万千。我很沮丧。因为这是一个五年还没有被解决的问题,”她说:“我很震惊,因为白色面具居然那么容易被识别。” Buolamwini女士说:“如果给你的系统做测试的人跟你很像的话,你的系统会运行地很好,然而你永远也不可能发现这其中有问题。”她把AJL的反响描述为“巨大且强烈的”。 老师们想要把她的工作展示给学生;研究员想请她检测他们自己的算法是否有偏见的迹象;人们向她报告自己的经历……这些人看起来似乎不少:一位研究员想检测皮肤癌确诊算法是否在深色皮肤中有效。 多样性报告,硅谷巨头们本身不具备多样性 Buolamwini女士认为,这种情况的出现,部分原因是技术行业本身就有着证据确凿的多样性缺失。 每年,科技巨头都会发布多样性报告,它们揭示了严肃的现状。 谷歌2016年1月份的最新数据显示,技术人员有19%是女性,只有1%是黑人。 微软2016年9月的数据显示,17.5%的技术人员是女性,2.7%的技术人员是黑人或者非裔美国人。 Facebook2016年6月的数据指出,美国国内的技术人员有17%是女性,1%是黑人。 有偏向的审美,数据集合单一的缺陷 去年有一场特殊的选美比赛,它收集了100个不同国家的大约6000张自拍,并让算法来判定选美结果。在44个获胜者当中,只有一个是非白人,极少数是亚洲人。
该选美比赛当中,18-29岁年龄段的女性获胜者之三,没有黑人,其他年龄段也没有。 Beauty.AI网站的首席科学家Alex Zhavoronkov告诉《卫报》,这个结果有缺陷,因为校验人工智能的数据集合不够具有多样性。他同时说道:“如果数据集合中白种人占比过大,那么实际上有可能得到有偏见的结果。” (责任编辑:本港台直播) |