但是,O‘reilly 创始人Tim O‘reilly 认为,以上的评论中,存在一个根本的错误,那便是:认为Facebook 应该用人类编辑来协助算法,共同对出现在网站上的新闻和信息真实性进行判断。 Tim O‘reilly说,Facebook 很早之前就越线了。在他们开始加入新闻流而不是简单地根据时间线来推送消息的时候就已经是这样。 他们把自己置于一个中间人的位置,可以决定人们可以看到什么。他们变成了一个守门人、一个指导员。这不是一个本不属于他们的位置。而他们把这些事变成了自己的工作。那么,理所当然的,他们的首要任务就是要把自己变得擅长做这份工作。 但是,那些强烈地认为把好的信息从坏的信息中挑选出来是Facebook不可推卸的责任的人,他们也错了。Lee 说得对,编制新闻流不应该成为新人编辑或者独立合同工的工作。但他的错在于,认为这个工作应该交由“一个有经验的、资深的编辑团队”来完成。 这应该是 Facebook 最强的算法才能完成工作。 Lee 的评论中还有一点也说错了,他认为问题在于Facebook没有聘请了人类编辑来评估新闻写标题。但是问题恰恰出在这个地方。 正如GPS把司机导向了一座已经不存在的桥,Jessica Lessin 和 Timothy Lee 的所沿用的思路都是旧式的地图。在那幅旧地图上,算法由人类来监督,在具体的例子中,人类会对算法进行干预,为算法的错误作出补救。 算法不可能完美,但谷歌一直在努力 谷歌一直以来都用行动证明了你可以在不阻碍言论自由的前提下,引导人们找到更好的搜索结果。和Facebook 一样,谷歌每天也必须在成千上万条信息中做选择,决定哪一些可以出现在网站顶部。最初,开奖,谷歌的法则是,每次的点击都是一次投票,那些来自声誉良好的源头、存在较长时间的链接,要比其他的权重高。这就是最开始谷歌对网站进行区分的工具。但是,经过多年的发展,谷歌如果没有开发出上千个,至少也有几百个衡量标准,用于决定哪一个网站的价值最大。 20年来,谷歌一直坚持不懈地开发一个算法串,建立起内容的消防带,这些内容任何人都能创造,并且,交由算法来决定哪些网站胜出哪些失败。 有一点很关键:他们并不会对网页的内容进行评价。真正的标准是来自元数据,而不是数据。 谷歌教给我们的是,提升算法,以获得更好的搜索结果,这是一场持久战,因为一直会有人会尝试挑战系统。同时,谷歌还教会我们,正确的做法是不要制造人为的干预,删除具体的结果。 谷歌和Facebook都在不断地开发和测试新的算法。是的,他们会加入人的判断。但是,人为判断只能附加在系统的设计上,而不是具体的结果。设计一个高效的搜索或者新闻流算法与设计飞机很像,其目的是让飞机起飞,或者飞得更快,而不是决定飞机该飞往哪儿。 提高网站上文章的“真实性”并不像这一议题正反两方评论者所认为的那样,取决于人为的干预,删除坏的结果,而是在于发现新的衡量标准,让好的结果自动浮出表面。 2011年, 由于搜索结果充斥着虚假网站,当时也有一些文章唱衰谷歌,其中有一篇写“谷歌在与 spammer 的战争中已经失败”。和今天的Facebook一样,当时谷歌已经在全力平复这些担忧,但是公众的反馈促使谷歌在处理这一问题上下大力气,全然不考虑这么做对公司的财政的影响。 谷歌反网页垃圾技术团队的前主管 Matt Cutts在给O‘reilly的回信中说:对于谷歌来说,“内容工厂” 和低质量的网站不断增多,对于用户是否信任谷歌搜索的结果是一个很大的威胁。当外部的评论者开始反映我们内部的讨论和担忧,我们确实应该警惕了。Panda 算法就是谷歌的回应,它寻求回馈高质量的网址,鼓励健康的网站和生态系统。我个人的观点是, Panda 算法和 Facebook 正在经历的事情具有极大的相似性。看起来Facebook的标准是希望连接更多的人,提高参与度。但是,这一标准带来了一些无法避免的东西,参与的黑暗面就是会产生阴暗的故事、恶作剧和错误的信息,或是分级化。 (责任编辑:本港台直播) |