Facebook 的数据科学团队非常庞大(最新数据显示为41个人)。相比而言,一个同样拥有15,000名员工的公司,如果要积极推进数据科学研究,大概仅需要5名数据科学家。 然而直到2014年,Facebook 仍然没有任何操作流程来核查被访问的数据和研究用途。一名前 Facebook 数据科学家写道: 在我任职期间,并没有机构审查委员会来审查出于内部目的进行某项实验的决策。但如果有人得到结果并要在期刊发表文章, PR 以及法务部门必定会反复斟酌将被公开的内容。但如果你想运行一个测试,看看人们是点击绿色按钮还是蓝色按钮,你不需要得到批准;或是测试一个新的广告投放系统,看看是否会提高用户的点击率和营收,这同样不需要得到批准。 他继续指出,这对于大部分 SaaS 公司来说司空见惯。但大部分 SaaS 公司并没有在十年中一直储存用户生活中最私密的细节。 他还提到: 大部分在 Facebook 与数据打交道的员工的根本目的是影响和改变用户的情绪和行为。他们一直致力于此,让你更喜欢产品故事,点击更多广告,在网站上逗留更久。 大部分网站的目的也是如此,这无可厚非。但一旦我们每天要在一个旨在影响用户情感的网站上逗留40分钟以上的时候,我们需要三思了。 Facebook 不仅挖掘文本,进行情感研究,还对此进行操纵利用。 Facebook 的 News Feed 功能很适合用于操纵,因为 Facebook 特意将它设计得容易沉迷。这是我们神经系统间的糖衣炮弹。Facebook 希望你花在 News Feed 的时间越多越好,花更多时间浏览婴儿照片以及其他令人愉悦的事物,和能引起争论、愤怒的新闻,这相比平淡的「我今天吃了早餐」这样的状态更能吸引回应。 今天我们所谓的「过滤气泡」(Filter Bubble)就是这样开始的。当人们只点击感兴趣的事物,Facebook 就会更偏向于展示吸引用户互动的事物,而其他观点、朋友、图片将会从你的 Facebook 信息流中消失。这个例子很好地解释了这一流程如何运作:点此查看「红色信息流vs.蓝色信息流」,你会看到自由派与保守派的 Facebook 信息流之间的差异有多么大。 Facebook 还在研究什么呢?比如,他们收集同性恋人群出柜的比例。他们是如何知道的?「在过去一年里,大概有八十万美国人更新了他们的个人资料,表明他们对同性的喜好或者使用自定义性别。」 Facebook 有很多研究着重于图谱理论,即我们与朋友之间的关系。换句话来说,它正在对一群从未表示过同意的对象进行人类学研究。 比如最近,数据科学团队发布了一项关于在美移民社群的社会关系的研究,此处研究人员使用了如下数据: 我们把分析限制于匿名的聚合数据,这些数据来自在进行此项研究之前30天内至少登录过 Facebook 一次的位于美国的用户。我们把用户在个人资料中填写的家乡设定为其国籍。 我们进一步对分析对象设置了限制,他们至少需要有两位现居其母国的好友,和两位现居美国的好友。我们的最终结果建立在超过一千万符合标准的用户样本上面。贯穿整篇论文,所说的「Facebook 用户」都假定符合这些限制。 这些还只是公开的研究。谁知道他们暗地里还在做其他什么研究。 另一个 Facebook 喜欢研究的对象是「人脸」——这不难理解。每一次你在照片中圈出自己,Facebook 都会识别出你并作出相应调整。 Facebook 鼓励你在个人发布的照片中把朋友圈出来,而它则收集这些信息。Facebook 使用一个叫做 DeepFace 的程序来匹配一个人的其他照片。
这个叫做 DeepFace 的程序,是提高标签精准度的一种绝佳方式。但同时也是一种侵犯他人隐私的糟糕方法。比方说,假如你不想被圈出来呢?如果你在参加对政府的示威呢?更简单的例子是,当你与这位朋友而不是另一位朋友参加音乐会,并且不想被别人知道呢? 不幸的是,活动的隐私很快将不由你选择了。Facebook 正在研究识别出隐藏在照片里的人的方法。一篇关于 Facebook DeepFace 的论文指出,「脸部识别技术会给社会和文化带来巨大影响。」但文中完全没有提及,在照片中被圈出来所可能带来的对隐私的侵犯。例如: 「我们很快能令商店里的摄像头识别出进店购物的顾客。」她说。 他们是如何知道这一切的呢? (责任编辑:本港台直播) |