下围棋、玩德州扑克,大家看到的往往是AI风光的一面。殊不知训练AI往往却要靠人工提供独特的数据给它学习。由于最近YouTube爆发了在宣扬暴力的视频旁边放置广告的风波,使得《连线》把目光瞄准了训练AI的一个幕后的临时工群体。而这个群体的处境有可能会对AI的品质造成不好的影响。 翻译 | boxi 每天,在美国各地,那些替Google工作的人都会登录进自己的计算机开始观看YouTube,为的是找出视频里面的暴力。他们从视频标题里找出带有仇恨的语言。他们决定某个视频剪辑应该分类为“攻击性”的还是“敏感性”的。他们是Google所谓的“广告质量评估师”,是由外部代理商雇佣的临时工,作为判断机器还没有办法自行做出判断的弥补措施。现在Google显然迫切需要这些人的帮忙。 YouTube,这个Google旗下的视频巨头,每天都要在网站播放的数百万视频当中穿插广告。自动系统确定这些广告在什么地方出现,广告主往往并不知道自己的广告会出现在哪一个视频的旁边。最近这种不确定性已经给Google惹来了大麻烦。在多份报告披露Google允许在宣传仇恨和恐怖主义的视频边上放置广告之后,该公司已经在接受审查。诸如沃尔玛、百事可乐、Verizon等广告主以及范围更广的Google广告网络已经摒弃了这个平台。 Google极力淡化这次事件,说媒体夸张了攻击性视频旁边放置广告问题的严重性。该公司说:标记视频收到的“印象占比还不到广告商总印象的1/1000”。Google的CBO Philipp Schindler则强调问题仅影响到“非常非常少量”的视频。但广告评估师说公司正在集结他们以防问题变糟。 “我们非常清楚在评估内容的时候,人类的眼睛,还有大脑都需要审慎的思考。” 由于Google 90%的收入来自广告主,所以它需要防止定向广告到攻击性视频造成更多的损失。但用户每天上传的新视频长达60万小时,这需要一座小型城市规模的人夜以继日的处理才能看完。所以搜索巨头才会强调,开发出可标记日益增多的攻击性视频的人工智能内容过滤器是很难的。 Schindler说:“这个问题无法由人来解决,也不应该由人来解决。” 问题是公司仍然要靠人来训练AI。于是Google仍然要依赖一群工人去识别和标记攻击性材料,然后把这些作为AI的训练数据。但据一些广告评估师透露,由于Google跟他们的沟通不畅,再加上这份工作的不稳定性,导致了他们没有办法把工作做好。而这个就会影响到AI识别的精确度。 人类任务 技术公司雇佣内容版主由来已久,随着大家上传和分享的内容越来越多,这项工作对于互联网巨头也变得愈发重要。Google的广告评估师工作可不仅仅是监控视频。他们还要读评论区标记出用户爆粗的言语。要检查Google广告网络服务的各种网站,确保符合公司的质量标准。他们还要按照零售、新闻等目录对网站进分类,并且点击广告链接看看是否有效。同时正如他们的名字所示那样,他们还得对广告本身的质量进行评价。 今年3月,在广告商的抵制下,Google让评估师把其他工作都先放到一边,去执行一个“高优先级的评估项目”。新项目意味着这群评估师几乎所有的精力都要集中在YouTube上面——检查视频内容,或者整个频道,看看有没有一系列可能因此广告主反感的东西。这是一个很大的变化。 而且评估师称,从自己手头的工作量来看,数量和速度的优先级要比准确性更高。在某些情况,这帮人甚至要在2分钟内审核时长数小时的视频。在一个匿名的在线论坛上,评估师相互交流省时的办法——比方说,说唱视频就快速浏览一下歌词看看有没有亵渎的话就行了,或者用10秒钟粗略看看视频剪辑而不是完全看完。会有计时器记录每个视频审查所需的时间,尽管这只是建议的期限,但评估师说这给他们增加了压力。有人担心积压的视频过多会害得自己被炒。 广告评估师的工作不仅仅只是把视频标记为不合适。他们还被要求对视频标题和内容进行细颗粒度的评估——要进行分类,比方说,是否包含“不合适语言”,如“亵渎”、“仇恨发言”或者“其他”等;或者是否属于“暴力”,子类包括“恐怖主义”、“战争和冲突”、“死亡和悲剧”等等。此外还有黄毒方面的分类。系统还为广告评估师提供“其他敏感内容”选项——这在比方说有人分享了极端政治言论的时候可以用得上。(AdAge 最近报道称Google现在允许客户取消在“性暗示”、“轰动、耸人听闻”以及包含“亵渎、粗俗”的内容旁展示广告。) (责任编辑:本港台直播) |