在Facebook 研制出清理虚假信息的工具之后,另一个互联网巨头也紧随其脚步。
防范虚假信息的警棍似乎要暂时从Facebook传向Google了。 最近,随着许多用户举报他们正在使用的工具提供虚假信息,上面的预测似乎要即将成为现实了。系统运行后产生的可疑新闻,首先要通过真实新闻检测组织(fact-checking organization) 如Snopes,Politifact , ABC New, 和FactCheck 的检测。如果这4家检测组织中的至少两家,同时对一片文章的真实性存疑,用户便会发现这篇文章上有“第三方事实检查者存疑(Disputed by Third Party Fact Checkers”的标记, 然后用户可以自行决定是否要信任这篇文章。 这样,文章的真伪性问题就彻底解决了么?当然没有。错误的信息仍然会存在 —— 并且Google似乎就是允许其算法将假新闻传递给你的。 近日,Outline指出,Google的代码段精选工具(Featured Snippet Tool)似乎并不是在按照你所期望的那样工作着的。通常,此功能是在为了帮助你在使用Google的搜索引擎或AI语音助理时, 可以快速回答你的问题。但是其所给出的答案只是从高排名的网页挖掘出来的(高排名的网页,你可以认为成与你所输入的问题相关性高的网页),这些网页的真实性并不能保障。 根据Outline的解释,网页片段的真假性可以是多种多样的。比如说,“总统Warren Harding 曾经是Ku Klux Klan(三K党)的一员(假新闻)”,“奥巴马Barack Obama可能已计划政变(仍时间验证)”和一些没经过大脑并且让人相当厌恶的观点,比如说女人是否是邪恶的。以上所提到的几种信息,都是网页搜索的答案,并且都是来自于一些传达可疑信息的网站。 不过,在网络上,Google至少可以允许你寻找出信息的来源,然后你可以举报你认为不正确,或者不恰当的信息。并且,通过BBC调查,Google已经解决了一些特定分区中的这些假信息的问题。 不过Google还是不愿意关闭其代码段精选工具],尤其是它的语音助手功能。正如Tom Simonite在过去所说的一样,Google认为自身的搜索能力,是其产品Assistant AI区别于苹果的Siri和亚马逊的Alexa的一个重要因素。Assistant AI可以更好地在网页资源中寻找答案,不过,很明显,当互联网的并不是由完全真实的信息构建时,随之Assistant AI也就不能保证其检索的真实性了。 事实上,Google自身可能就是许多有问题信息的源头。YouTube一直是诡异的和无懈可击的阴谋论的来源。比如说,登上月球从来没有发生过。但新闻聚合网站Buzzfeed指出,视频网站越来越多的成为“右倾阴谋论和历史修正主义”的温床,如桑迪胡克市的小学枪击案并没有造成人员死亡,或米歇尔·奥巴马事实上是一个男人这样的新闻。 关于Facbook上虚假内容的影响力也有了这样的观点——如果你一再向人们展示足够多的虚假内容,人们就会变得困惑,并且有可能开始逐渐相信其中的一些虚假内容是真的,在YouTube上我们可以应用同样的观点,正如新闻网站NPR所重申的一样,YouTube的算法,atv,可以计算出在这个视频之后,你可能想看的视频。所以可能在看了一个可疑的小视频之后,你就掉入了引导你下载和收看相似可疑内容的兔洞中。可能你就会开始怀疑米歇尔到底是不是女的了。 但是,可以确定的一点是,过滤内容是不可行的。并且意见和错误信息之间的界限是模糊,以言论自由为代价的信息审查显然是不可接受的。马克·扎克伯格也非常清楚这一事实,所以当前我们所面临的问题,无论是从技术上还是哲学上都是复杂的。 在这一点上,我们并不一定必须要这样说——Facbook对这个问题的解决方案,是看起来很好的第一步。Facbook采用对网页内容进行标记,用户可以行使自己对内容健康与否的怀疑的权利,这样就不需要社交网络来处理这些棘手的问题了。 但是在某些情况下,特别是Google的代码段精选工具。它通过某种展示和陈述信息的方法,让信息看起来更像是客观真实的,可能这些信息并不能通过第三方的算法的检测。因此,我们也有可能愿意去相信这些信息是真实的。不过,我们不应该让他们这样继续做下去,不是吗? 编译:邓雪莹 ,直播 (责任编辑:本港台直播) |