厂牌 Anjunabeats 的主管 Paavo Siljamäki 在 Facebook 发布的一则帖子引起了人们对这个问题的关注。在一次访问 Facebook 洛杉矶办公室的时候,一位员工没有向他索要密码就能轻易访问他的账户。 更多关于 Facebook 员工访问隐私数据的事件描述,请参见这里。 其次,Facebook 把用户当作小白鼠一样进行学术研究。这是数据使用政策条款中没有提到的。有趣的是,Facebook Research 首页上的标题是:「在 Facebook,研究贯彻到我们工作的方方面面。」 Facebook 的数据科学团队非常庞大(最新数据显示为 41 个人)。相比而言,一个同样拥有 15,000 名员工的公司,如果要积极推进数据科学研究,大概仅需要 5 名数据科学家。 然而直到 2014 年,Facebook 仍然没有任何操作流程来核查被访问的数据和研究用途。一名前 Facebook 数据科学家写道: 在我任职期间,并没有机构审查委员会来审查出于内部目的进行某项实验的决策。但如果有人得到结果并要在期刊发表文章, PR 以及法务部门必定会反复斟酌将被公开的内容。但如果你想运行一个测试,看看人们是点击绿色按钮还是蓝色按钮,你不需要得到批准;或是测试一个新的广告投放系统,看看是否会提高用户的点击率和营收,这同样不需要得到批准。 他继续指出,这对于大部分 SaaS 公司来说司空见惯。但大部分 SaaS 公司并没有在十年中一直储存用户生活中最私密的细节。 他还提到: 大部分在 Facebook 与数据打交道的员工的根本目的是影响和改变用户的情绪和行为。他们一直致力于此,让你更喜欢产品故事,点击更多广告,在网站上逗留更久。 大部分网站的目的也是如此,这无可厚非。但一旦我们每天要在一个旨在影响用户情感的网站上逗留 40 分钟以上的时候,我们需要三思了。 Facebook 不仅挖掘文本,进行情感研究,还对此进行操纵利用。 Facebook 的 News Feed 功能很适合用于操纵,因为 Facebook 特意将它设计得容易沉迷。这是我们神经系统间的糖衣炮弹。Facebook 希望你花在 News Feed 的时间越多越好,花更多时间浏览婴儿照片以及其他令人愉悦的事物,和能引起争论、愤怒的新闻,这相比平淡的「我今天吃了早餐」这样的状态更能吸引回应。 今天我们所谓的「过滤气泡」(Filter Bubble)就是这样开始的。当人们只点击感兴趣的事物,Facebook 就会更偏向于展示吸引用户互动的事物,而其他观点、朋友、图片将会从你的 Facebook 信息流中消失。这个例子很好地解释了这一流程如何运作:红色信息流 vs. 蓝色信息流,你会看到自由派与保守派的 Facebook 信息流之间的差异有多么大。 Facebook 还在研究什么呢?比如,他们收集同性恋人群出柜的比例。他们是如何知道的?「在过去一年里,大概有八十万美国人更新了他们的个人资料,表明他们对同性的喜好或者使用自定义性别。」 Facebook 有很多研究着重于图谱理论,即我们与朋友之间的关系。换句话来说,它正在对一群从未表示过同意的对象进行人类学研究。 比如最近,数据科学团队发布了一项关于在美移民社群的社会关系的研究,此处研究人员使用了如下数据: 我们把分析限制于匿名的聚合数据,这些数据来自在进行此项研究之前 30 天内至少登录过 Facebook 一次的位于美国的用户。我们把用户在个人资料中填写的家乡设定为其国籍。 我们进一步对分析对象设置了限制,他们至少需要有两位现居其母国的好友,和两位现居美国的好友。我们的最终结果建立在超过一千万符合标准的用户样本上面。贯穿整篇论文,所说的「Facebook 用户」都假定符合这些限制。 这些还只是公开的研究。谁知道他们暗地里还在做其他什么研究。 另一个 Facebook 喜欢研究的对象是「人脸」——这不难理解。每一次你在照片中圈出自己,Facebook 都会识别出你并作出相应调整。 Facebook 鼓励你在个人发布的照片中把朋友圈出来,而它则收集这些信息。Facebook 使用一个叫做 DeepFace 的程序来匹配一个人的其他照片。
这个叫做 DeepFace 的程序,是提高标签精准度的一种绝佳方式。但同时也是一种侵犯他人隐私的糟糕方法。比方说,假如你不想被圈出来呢?如果你在参加对政府的示威呢?更简单的例子是,当你与这位朋友而不是另一位朋友参加音乐会,并且不想被别人知道呢? (责任编辑:本港台直播) |