对此,Facebook的全球政策管理负责人Monika Bickert表示,在Facebook超过20亿的用户中寻求一致同意是不可能的:“我们的用户来自世界各地,他们对‘什么内容可以分享’有着截然不同的观点。不论你在哪里画出界限,在界限中也永远都会有‘灰色空间’。” 此外,Facebook和谷歌一样计划在4500名内容审查员以外增加3000人,以应对不断增长的用户群和不断涌入的不良内容。但是,Fortune等分析也对Facebook这一举动提出质疑:即使扩大了审查人手,其指南中暧昧不明的思想也将成为其内容审查的绊脚石。 通过这些科技巨头的计划与政策我们能够看出,在可见的将来,对恐怖主义等不良内容的审查将会仍旧是机器学习+人力审核的模式。由于人工智能目前审核的正确率依旧有不少提升的空间,真人审核员在把握内容上还是有着不可或缺的作用。 但是,如今我们必须认识到网络已经成为了反恐怖主义的“战场”。 在恐怖主义面前,不论是模棱两可的审核条例,还是姑息迁就的审核态度,对于科技公司来说都是不可取的。科技公司不仅应树立清晰明确、符合民意的审查标准,以此加强对恐怖主义、极端思想的审查,更应该像Youtube和Jigsaw一样寻求科技手段反极端、反洗脑的解决方式。 (责任编辑:本港台直播) |