Bryson 还有另一个尝试。不同于对嵌入的去偏见(因为这本质上丢掉了一些信息),她更倾向于添加额外一层人类或计算机的判断,以此来决定如何或怎样在这些偏见之上来行动。在雇佣程序员这个例子上,你也许会决定去设定性别的定量指标。 人们长期以来一直认为词的含义可以通过词共现(word cooccurrences)而提取出来,「但这远不是一个可以预期的结论,」华盛顿大学心理学家 Anthony Greenwald 说,他曾在 1998 年发展了 IAT,并为本周发布在 Science 期刊的这篇 WEAT 论文写了一篇评论,参阅:。他说他预计书写(WEAT 测试的基础)将能更好地反映明确的态度,而不是隐含的偏见。但相反,WEAT 嵌入更接近于 IAT 偏见,而不是关于种族和性别态度的调查,这说明我们可以会以一种我们没意识到的方式传递我们的偏见。「这有些让人吃惊,」他说。他也说 WEAT 也许可以被用于测试过去时代的隐含偏见,比如通过分析 19 世纪写出的书所导出的词嵌入。 与此同时,Bryson 及其同事也表明即使谷歌也没能免于偏见。当谈论的是一位医生时,该公司的翻译软件会将许多语言中性别中性的代词翻译成英语的「he」,如果谈论的是护士,那么就会将其翻译成「she」。 所有这些研究都表明「注意你的遣词造句是很重要的,」Bryson 说,「对我来说,atv,这实际上就是对政治正确和平权法案等各种事情的辩护。现在,我看到了它的重要性。」 以下是对该论文的摘要介绍: 论文:从语言语料库中自动推导的语义包含类似人类的偏见(Semantics derived automatically from language corpora contain human-like biases) 机器学习是一种通过在已有的数据中发现模式来实现人工智能的途径。在这里我们的研究表明,通过将机器学习应用于人类日常语言,其结果会具有类人化的语义偏见。通过内隐联想测验(Implicit Association Test),我们用广泛使用的、基于来自万维网中标准文本语料库训练出的纯数据机器学习模型复制了一系列已知的偏见。我们的结果显示,文本语料库包含了我们历史偏见的持久印记,它们可恢复且非常精确,比如我们对昆虫或花来说是否中立、对种族和性别来说是否存在问题、或者甚至就简单诚实地反应了职业或姓名的现状分布。我们的方法有望帮助辨认和处理文化(包括技术)中的偏见来源。
表 1:词嵌入关联测试结果总结。我们复制了 8 个使用词嵌入的著名 IAT 发现(第 1 到 3 行和第 6 到 10 行);我们也以同样的方式帮助解释了有关雇佣行为的偏见(第 4 和 5 行)。其中每个结果都比较了两组词,这些词来自关于我们尝试学习的两组属性词(attribute words)的目标概念。在每一个案例中,第一个目标是想办法与第一个属性兼容,第二个目标是与第二个属性兼容。在整个过程中,我们都使用了来自我们想要复制的研究的词列表。N 表示 subjects 的数量,NT 表示目标词的数量,NA 表示属性词的数量。我们报告了影响大小(d)和 P 值(有舍入),以强调这两组结果的统计意义和实际意义都一致地高;我们并不是说我们的数字可直接与那些人类的研究进行比较。对于在线 IAT(第 6、7、10 行),没有报告 P 值,但已知低于 10^?2 的重要阈值。第 1 到 8 行的讨论见论文。为了完整比较,这个表格还包含了两个其它 IAT(第 9 和 10 行),这对应于我们能找到的两个合适的词列表。我们发现了与 word2vec 类似的结果——word2vec 是另一个用于创建词嵌入的算法,是在不同的语料库 Google News 上训练的。
图 1:职业-性别关联。皮尔逊相关系数(Pearson correlation coefficient)ρ = 0.90,且 P < 10^?18。其中横坐标表示职业中女性工作者的比例,纵坐标表示职业词向量与女性性别的关联强度。 (责任编辑:本港台直播) |