那么,问题来了。“俄罗斯官方到底有没有利用网络黑客攻击帮助特朗普赢得大选”,这算不算政治谣言呢?尽管美国媒体有《宪法第一修正案》的背书,但这并不一定保证它们就能揭穿谣言。 在谣言的分类上,atv,有各种各样的划分方式。比如,按照谣言的社会发生机制,我们可以把谣言分成三类:1、带有主观意图的以假乱真,以达到特定的社会效果;2、人们在特定社会条件下的认知局限或者心智偏见;3、不带有主观意图的传播或者编造假象,源于盲目从众心理或者缺乏判断能力。 同样地,按照谣言制造的社会危害程度,我们同样大抵可以将谣言分为三类:1、严重制造社会群体重大危机和阶层分裂的;2、对于个人人身安全和财产安全带来严重危害的;3、危害轻度甚至可以忽略不计的(如养生鸡汤等等)。 在特定的社会条件下,“腾讯较真”栏目不得不从微信中广泛流传的“养生鸡汤”痛下杀手,这不知道算是治理谣言之大幸呢?还是谣言泛滥大环境下之“大不幸”? 谣言的治理固然可以从三方面入手:一是广受关注的“大数据”算法辟谣机制;二是机器识别之后的专业人士核查机制;三是普罗网民的广泛参与和自我纠查机制。 “政治事实”网站提出了触发言论核查的五个条件:1、被验证;2、对公众产生误导;3、产生一定的政治和社会影响;4、广泛流传;5)有一定的糊性。 结合谣言的上述条件,国外一些机构和个人如《华盛顿邮报》、Facebook和爱尔兰资深记者马克·里特尔(Mark Little)等都开始用机器算法开始对虚假新闻和谣言尝试从源头开始监控和阻止其泛滥传播。 针对“Twitter总统”特朗普现象,《华盛顿邮报》甚至开发了一款专门核查每一条特朗普的Twitter流言的、名为“RealDonaldContext”的浏览器控件,每一条进行事实核查;Facebook因为美国大学中的“假新闻风波”也不堪舆论重负,在2016年年底,联合第三方推出谣言治理机制;而爱尔兰记者马克·里特尔2010年创办的“搜视”(Storyful),则是率领其技术团队全面实施监测各大社交网站上的内容,在机器算法发现可以线索之后,第一时间交由专业团队进行标签化处理,在图片或视频贴上“事实清晰”、“等待回复”、“已经授权”、“尚无回复”等各种不同的标签,以标识其真实可靠程度。 Facebook的谣言举报的功能尤其受到关注,此前有关“教皇支持特朗普”的假消息一度让这个全球第一大社交网站蒙羞。为此,Facebook制定的谣言识别机制分为如下三个步骤: 首先,标记出有争议的故事( flagging stories as disputed); 其次,在被标志的、可怀疑的假新闻被转发前提醒用户注意(informed sharing ) 最后,阻断假新闻发布者的盈利来源 (disrupting financial incentives for spammers) 机器算法、专业识别和大众参与,就能将网络虚拟社会中的谣言全部清场了吗?答案显然是否定的,今天的虚拟社会,不仅和现实世界相互映照和穿透对方,而五毛党、水军、造谣党和养生鸡汤派早就成了我们这个“媒介现实”生态圈中不可或缺的存在,唯一的区别在于,这些谣言更容易和商业利益捆绑在一起,或者有着种种千丝万缕的复杂曲折关系。和前网络时代的社会谣言相比,网络世界中的谣言有着更五彩广博的光谱效应,更能盎惑人心,而且更加能达至曲折幽微的人性最深处。 为了避免类似美国大选中的谣言悲剧,据称,德国立法机构正在考虑相关的网络谣言立法,比如对Facebook这类社交媒体上传播的谣言或者宣扬种族仇恨的不实言论,处以每条高达50万欧元(折合370万元人民币)的严厉罚款。 谣言和真实之间的临界线,在网络空间里,正变得越来越暧味不明,在网络空间里,情感态度比事实真相更受到普通网民的欢迎,面对一个“谣言四伏”、拟态环境已经难分真假的时代,微信朋友圈和腾讯新闻的内容分发平台来说,分发能力越强,责任和挑战也必将是“数千年来前所未有之大变局”。 ————————————————————————————————————————————————————————————— 欢迎订阅本人的微信公众订阅服务号“人在网络”: “站在科技和人文的十字路口,我看见了数字新娘。” (责任编辑:本港台直播) |