大家好,我们是社交网络审核员

时间:2021-08-07 20:04       来源: www.yedashucai.com

「删除,删除,保留,保留,这条删除比较保险……」2018 年上映的纪录片《互联网审查员》(The Cleaners)影像化了内容审核工厂的平时作业:在菲律宾马尼拉一间逼仄的办公室里,一群人坐在各自的电脑屏幕前,用审判的见地看着可能发生在马尼拉千万公里开外的,来自世界各地的帖子。

赤裸的色情、嘶鸣的枪响、血腥的暴力都直白地铺在他们的屏幕上,这部分图片、视频是被网络平台用户举报后聚集到审核队列里的。审查员们面无表情,稍作判断,按下鼠标。

纪录片截图

「(能拍摄到他们)绝不是易事,Facebook、Twitter 和其他公司在马尼拉雇用外包公司,用业界暗语,还会用报复和恐吓等方法,阻止数千名职员披露他们的雇主身份。」导演透露。因此,有的出镜的受访者用了化名,也只露了背影。

互联网审查员的工作内容不可以对外宣讲,甚至,这个人群过去都是被藏起来的。他们有的天天要审核 2.5 万条内容,有些因承受不了暴力内容和雇主重压而选择自杀。

他们在和网络的黑暗面贴身肉搏,做着算法还不可以完全做到的事,就像社交互联网中的「人肉盾牌」,互联网审查员遭到的伤害却极少有人关注。

底层的「审判者」

在大家眼中,互联网审查员好像把握着对平台内容的「生杀大权」,是审查员决定了用户最后能看到什么。网络上也不乏「质问」审查员的声音。

「有些时候你会有那种感觉,对内容的生杀大权学会在大家手里,我让它放就放,不让它放就不放。但其实大家只不过依据规则去实行。审核职员制定标准是极少的。我提出这条规则,会有多方评估,包括风险评控的、运营职员、商品经理的评估……不可能只有一个人。审核职员是是这条链条的最底端。」一位在中国工作的互联网审查员向媒体透露称。

不光没决策权,互联网审核员的工作环境同样让人堪忧,他们就像富士康工厂流水线上的工人,只是手里重复的只不过「删除」和「保留」的动作。

The Verge 记者 Casey Newton 去年对同一企业的十几位互联网审查员进行了深入调查,他获悉,Cognizant 这家受雇于 Facebook 的外包公司提供的工作环境极其恶劣。

譬如,因为内容审查工作需要全天候有人在岗,所以公司分为 4 班轮职,轮值职员共享办公桌等设施。这里的主管连职员上卫生间的时间都严格控管,职员天天上班固定两次 15 分钟休息和 30 分钟的午餐时间,另外还有 9 分钟所谓的「健康时间」(wellness time)。有媒体称,这种公司就像是信息行业的富士康。

这部分审查员不只要承受恶劣工作环境的摧残,还需要适应审核细节的朝令夕改。他们天天几乎要面对一版更新的审核标准,而突发性事件也会致使规范发生变更。但在审查员审核帖子时,有时会用最新的规范审核稍早的帖子,致使标准不一,增加了申诉案件的数目。

尽管审核内容的规范拿捏不一,但 Facebook 对于外包商的「准确率」却有极高的需要。他们设定的准确率需要达到 95%,但 Cognizant 每一个月内容审核的平均准确率大约落在 85% 到 95% 之间。

这群网络最底层的「审判者」好比是人肉机器,他们遵照雇主拟定的规则对内容进行审核,完成 KPI 的同时还要努力保证准确率,这种双重重压的交织显然会让他们在判断上陷入模棱两可的境地。

只是「保留」或「删除」好像又成了社交媒体与用户之间形成的内容价值判断的鸿沟,这种冲突式的对立好像还没标准的解决方法。

在《互联网审查员》中,导演展示了审查员的「误判」过程。他有意让审查员判断伊战美军虐囚事件中的图片,结果并不知道有关历史的审查员直接将其断定为 ISIS 士兵虐囚,并表示图片应该被删除。

值得一提的是,Facebook 曾在平台上「误删」了那张拍摄于 1972 年的著名反越战照片。照片中,被南越空军投掷汽油弹烧伤的小姑娘,万分惊恐地奔逃着、哭喊着。她一丝不挂。这让 Facebook 遭到多方声讨。后来,平台修改了审核细节,允许「反战」原则之下、「具备新闻价值」的裸露,但还是禁止发布「大屠杀背景下的儿童裸身照片」。

互联网审查员的入行门槛并不高,可以吃苦耐劳是基本,遵照审查表删帖并保证准确度即使进阶。这部分也在他们的收入上有所体现。

做个对比,Facebook 正式职员的平均年薪是 24 万USD,但据 The Verge 去年的调查,替 Facebook 做平台审查的外包劳工薪水却只有前者收入的零头——工作时薪仅 15 USD(年薪 2.8 万USD)。

内容审核需要高标准,巨大的工作量和时刻变更的细节,逼仄的工作环境和微博的收入,这部分都让审查员变得不堪重负,更别提他们所要浏览的内容几乎都是网络上最偏激的东西了。

「战场」上归来的士兵

「天天需要浏览 25000 条,我感觉这可以申请世界纪录了。」一位网络内容审查员在纪录片中说道。根据这个指标,以 1 秒 1 条的速度计算,做完也需要整整七个小时。

而被安排去审核色情内容的一名女人审查员,原本对她要审核的内容毫无定义。而目前,这位「鉴黄师」学习了英语里各种有关下半身的脏话、俗语,然后还对男女的人体架构研究透彻,还要知道不少被人难以同意的性癖。下班后,她还要去两性用品店知道新产品。唯有如此,她才能在审核色情内容的时候不出错。按纪录片《互联网审查员》所述,他们每一个月只有三次出错的机会,不然将被辞退。

审核恐怖主义内容的职员平静地说,「我看过上百场斩首的场面。对于一些人而言,他们非常幸运,由于砍在他们脖子上的刀非常锋利」,她还在屏幕比划着,「假如用的是钝一点的刀,切口就不会这么利落了。」

在某家大型内容平台信赖团队工作的 Remy,告诉 Medium 旗下出版物 OneZero:「举例,举重运动员为了承受巨大的重压,身体也适应成了一种奇怪的形状。而审核团队心理上的自适应,就是不断被磨炼的判断力和意志力,永远维持在正确的时间、正确的地址,做正确的决定。」

面对网络上那些难以名状的负面内容,很多互联网审查员都撑不住了。

其中部分人出现了 PTSD(创伤后应激障碍)。这种疾病指的是人在经历过情感、战争、交通事故等创伤事件后,所致使的个体延迟出现和持续存在的精神障碍。审查员和从战场上返家的士兵们症状相同,两者有什么区别在于前者需要隐姓埋名。

他们是一群需要用化名的人|纪录片截图

每天都是接触偏激内容,有的职员也开始被这部分边缘看法「洗脑」了。有一个职员在办公室里成天宣扬「地平论」,另一个前职员则表示「再也不相信 911 是恐怖攻击事件」,他的工作已日渐改变了他的世界观。

据 Facebook 公开透露,2017 年 5 月 3 日,扎克伯格宣布扩大 Facebook 的「社区经营」团队。到 2018 年底,从原有些 4500 位审查员扩展至 30000 位,其中大约有一半负责内容审核。这部分人中,有些已经不堪重负,对社交媒体发起了起诉。

2018 年 9 月,一位名叫 Selena Scola 的审查员向 Facebook 提起诉讼。Scola 在连续 9 个月观看谋杀、自杀等图像后,被诊断为 PTSD。今年 2 月 7 日,双方达成了初步和解。在这个案子中,Facebook 承认内容审核会给职员带来巨大的伤害,并赞同向在职及辞职的审查员支付总额为 5200 万USD的赔款,用以补偿他们因工作产生心理健康问题。假如被诊断出患有 PTSD 或其他有关疾病,每名审查员将获得至少 1000 USD的赔偿。

但外包企业的审查员好像就没这种待遇了。在 The Verge 的报道中,Cognizant 提供了职员一些消除工作重压的方法,他们提供现场的心理健康咨询师,与职员帮助课程等。不过,受访的职员多半觉得这部分资源并不足够。他们空闲时靠抽食大麻疏解重压。

在《互联网审查员》中,一位出身贫苦的审查员对着镜头讲述,爸爸妈妈靠捡垃圾维生,她被教会要好好学习,才能躲避他们的运势。然而坐在电脑前点击「删除」或「保留」,就像是在翻找互联网世界的垃圾。最后,她选择离职,沿着堆满垃圾的沙路走回了家。

偏激内容的「替罪羊」

社交媒体一贯以超高的自由度和灵活的内容呈现方法,让用户深陷其中。但「自由」是相对的,只有遵守平台规则和法律规定的内容才能得以留存,而社交媒体在审核上投入巨资的同时,也让自己站在了所谓的用户「对立面」上,时不时就会承受用户怒火的平台也变得如履薄冰。

然而,社交媒体设置的「转发」和「点赞」,都催生了大家对内容热度的渴求。那些迎合大众、骇人听闻的言论总是能获得更多人的目光。而过滤掉那些愈加偏激内容的工作,被平台外包给第三方公司,「人肉防护」的担子就如此放到了底层的互联网审查员肩上。

而平台和互联网暴民的矛盾也在不断激化。以「美国贴吧」Reddit 为例,在这个月活达 3.3 亿社区里,也不乏宣扬暴力和有色情暗示的主题。譬如,曾有一个名为「r/FatPeopleHate」的讨论组,关注者超越 15 万。这个活跃社区,以探寻超重人士的滑稽照片为乐,帖子主要针对女人,并且会为照片加上刻薄的题注。图片贴出后,Reddit 用户还会把它们转贴到受害者的 Facebook 页面上。

2015 年,官方封禁了「r/FatPeopleHate」等几大活跃的恶意讨论组。Reddit 前商品高级副总裁 Dan McComas 和家人后续就被互联网暴民人肉和袭击。由于这次封禁,Reddit 当时的 CEO Ellen Pao 之后天天都被骂「暴君」。一个月后,她辞了职。

「网络刚开始是一个可以表达自由的堡垒。」她在《华盛顿邮报》上写道,「但目前,大家想要达成平衡愈加难了。互联网暴民赢了。」

网络的日渐兴盛,大家的部分表达空间从现实转移到了互联网,而社交媒体好像更崇尚「流量」,于是,不适合的偏误内容愈加多,也直接催生了「互联网审查员」这个新的工种。

他们被概念为「一群夹在社交媒体平台和用户的中间人」,是这两者矛盾的缓冲角色。平台求得增长,就必然会堆积不够温和的内容。而平台和用户的矛盾,现在也只能主要靠人来解决。

更人道的做法

相比 Reddit 如此的平台,Twitter 和 Facebook 是受众量更大的社区,要做好平衡显然会更难。它们选择把部分重压转嫁到互联网审查员身上。但面对这部分网络底层民工遭到的精神伤害,以技术傍身的大公司却好像没找到更好的解决方案。

Google 负责信赖和安全业务的副总裁 Kristie Canegallo 也曾表示,企业的确正致力于开发机器学习系统来抓取包含不好的内容的视频,但在技术应用的初期,审查员依旧是必不可少的,他们需要帮练习系统。

眼下除去适合地过滤掉一些偏激的声音外,对互联网审查员施以更人道的关怀也是要事。譬如,Google 就正在测试将待审查内容中的血液换成绿色,可能这或有助于降低审查员们的重压。

相关推荐