沈糕
2019-05-20 03:13:14
发布于2018年1月2日下午5点39分
更新时间:2018年1月2日下午6:54

本文中重印的部分帖子的图形内容可能会冒犯一些读者。 然而,我们的信念是,读者无法完全理解如何处理仇恨言论的重要性,而不会看到它没有被玷污和未经编辑。

Facebook的社区标准禁止基于宗教习俗对人们进行暴力威胁。 因此,当ProPublica读者Holly West看到这张Facebook帖子宣称“唯一的好穆斯林是他妈的死人”时,她将其标记为使用社交网络报告系统的仇恨言论。

Facebook宣称这张照片是可以接受的。 该公司向西方发送了一条自动信息,上面写着:“我们查看了照片,虽然它没有违反我们的特定社区标准,但我们知道它可能仍然冒犯您和其他人。”

但在用户反复报道之后,Facebook发布了一条反穆斯林的评论 - 一条宣称“穆斯林死亡”的单行,没有伴随的图像。

这两个帖子都违反了Facebook针对仇恨言论的政策。 但其中只有一人被Facebook的7,500名审查员(称为内容审查员)抓获,他们决定是否允许或删除其20亿用户标记的帖子。 在与ProPublica联系之后,Facebook也取消了西方抱怨的一个人。

这种不一致的Facebook裁决并不罕见,ProPublica在分析提交给我们的900多个帖子时发现,这是对世界上最大的社交网络如何实施其仇恨言论规则的一部分。 基于这一小部分Facebook帖子,其内容审阅者经常对具有相似内容的项目进行不同的调用,并不总是遵守公司的复杂指南。 即使他们确实遵守规则,种族主义或性别歧视语言也可能经受审查,因为它不足以贬低或暴力来满足Facebook对仇恨言论的定义。

我们要求Facebook解释其有关49个项目的样本的决定,这些项目是由维护内容审阅者错误的人发送的,主要是通过发表仇恨言论,或者在少数情况下删除合法表达。 在22起案件中,Facebook表示其审稿人犯了一个错误。 19岁时,它为裁决辩护。 在六个案例中,Facebook表示内容确实违反了其规则,但其评论者实际上并没有以某种方式判断它,因为用户没有正确标记它,或者作者已将其删除。 在另外两个案例中,它表示没有足够的信息来回应。

“我们对我们所犯的错误感到抱歉 - 他们没有反映我们希望帮助建立的社区,”Facebook副总裁贾斯汀奥索夫斯基在一份声明中说。 “我们必须做得更好。”他表示,Facebook将在2018年将包括内容审查员和其他员工在内的安全和安全团队的规模扩大一倍,达到20,000人,以便更好地执行其规则。

他补充说,Facebook每周删除大约66,000个帖子作为仇恨言论,但并不是所有令人反感的内容都是仇恨言论。 “我们的政策允许内容可能引起争议,有时甚至令人反感,但它并没有跨越仇恨言论,”他说。 “这可能包括批评公众人物,宗教,职业和政治意识形态。”

在一些情况下,Facebook忽略了用户一再要求删除违反其指南的仇恨内容。 至少有十几个人,以及2012年的反诽谤联盟,向Facebook提出抗议活动,无法获得一个名为犹太仪式谋杀案的网页。 然而,在ProPublica向Facebook询问该页面后,它被取消了。

Facebook的指导方针在定义仇恨攻击时非常直接,这意味着表达对特定群体的偏见但缺乏明确的敌对或贬低语言的帖子经常熬夜,即使他们使用讽刺,嘲弄或嘲笑来传达相同的信息。 公司发言人表示,由于Facebook试图编写可以跨地区和不同文化一致应用的政策,因此其指导方针有时会比想要的更为明确。

想想看这张照片,上面写着一个黑人男子,他的牙齿缺了一个牙齿,头上戴着肯德基炸鸡。 标题说:“是的,我们需要花费大量资金购买食品券,我们可以用水炸鸡肉。”

ProPublica读者Angie Johnson向Facebook报告了该图像,并被告知它没有违反他们的规定。 当我们要求澄清时,Facebook表示图片和文字都没问题,因为它们没有包含对受保护组的特定攻击。

相比之下,一位不愿透露姓名的ProPublica读者与我们分享了一篇关于种族的文章,其中她表达了对美国种族不平等的愤怒,他说:“白人是最他妈的。”她的评论被Facebook取消了。发表后不久。

Facebook如何处理此类言论非常重要,因为仇恨团体使用世界上最大的社交网络来吸引粉丝并组织示威游行。 今年夏天,在弗吉尼亚州夏洛茨维尔举行的白人至上主义集会之后,首席执行官马克扎克伯格承诺加强监督庆祝“仇恨犯罪或恐怖主义行为”的帖子。然而,一些民权和妇女权利的积极分子最终进入“ ”。由南方贫困法律中心列为仇恨的团体经营的网页上有 。

今年6月,ProPublica报道了Facebook内容审核人员用来决定哪些群体受到仇恨言论“保护”的秘密规则。 我们透露,这些因为“年龄”与种族和性别不同,不属于受保护范畴。 (针对我们的文章,Facebook在其受保护的特征中添加了“年龄”类别。)但是,由于小组没有受到保护,对贫困儿童,美女或印度出租车司机的攻击仍然被认为是可以接受的。

Facebook定义了七种类型的“攻击”,它认为是仇恨言论:要求排斥,要求暴力,要求隔离,降低泛化,解雇,诅咒和诽谤。

对于想要对Facebook的裁决进行竞争的用户,该公司几乎没有追索权。 用户可以提供他们不喜欢的决策的反馈,但没有正式的申诉流程。

在向ProPublica提交帖子的数百名读者中,只有一位表示Facebook根据反馈推翻了一项决定。 获得格莱美奖的音乐家Janis Ian被禁止在Facebook上张贴了几天违反社区标准的内容,因为她张贴了一张背面有一个sw字纹的男子的照片 - 尽管照片上的文字覆盖在照片上,敦促人们说话反对纳粹集会。 Facebook也删除了帖子。

她的一群粉丝抗议她的惩罚,有些人向硅谷的联系人伸出援助之手。 不久之后,该公司扭转了局面,恢复了职位和Ian的访问权限。 “我们团队中的一名成员意外删除了你在Facebook上发布的内容,”它写信给伊恩。 “这是一个错误,我们真诚地为这个错误道歉。 我们已经恢复了内容,你现在应该可以看到它了。“

“作为使用Facebook的人,这对我来说是令人沮丧的事情:当你试图找出社区标准是什么时,就没有地方可去了。 每当有争议时,他们都会毫不犹豫地改变它们,“伊恩说。 “他们让自己变得无法进入。”

在没有上诉程序的情况下,一些Facebook用户已经联合起来反复标记相同的攻击性帖子,希望更多的报告最终能够达到一个富有同情心的主持人。 女权主义活动家安妮拉姆齐(Annie Ramsey)成立了一个名为“双重标准”的组织,动员成员反对令人不安的女性言论。 成员向私人团体发布了令人震惊的例子,例如购物车中的女性形象,就好像她是商品一样。

Facebook的规则禁止非人化和欺凌。 Ramsey的小组一再抱怨图像,但被告知它没有违反社区标准。

当我们将这个例子带到Facebook时,该公司为其决定辩护。 Facebook表示,虽然其规则禁止描述,庆祝或开玩笑未经同意的性接触,但这张图片并未包含足够的背景来展示未经同意的性接触。

拉姆齐的团队在购物车上看到另一张女人的照片更加幸运,这一次的标题是“将我有缺陷的三明治制造商归还给沃尔玛。”该团体反复标记这个帖子,最终被取下。 不同之处可能是这张照片中的女人血迹斑斑,暗示她是性侵犯的受害者。 发言人说,Facebook的指导方针要求删除模仿强奸或非自愿性接触,仇恨犯罪或其他严重身体伤害的受害者的图像。

Facebook表示,它采取措施防止大规模报道,这种策略不仅被“双重标准”使用,而且被其他倡导团体用于影响决策。 据一位Facebook官员称,它使用自动化来识别重复的报告,并限制它查看单个帖子的次数。

拉姆齐集团的成员违反了Facebook关于性别问题坦诚讨论的规则。 Facebook发布了一位名叫Charro Sebring的帖子,他说:“男人真的很垃圾。”

Facebook为其取消所谓的“基于性别的攻击”的决定辩护。

Facebook禁止Ramsey自己在Facebook上发帖30天。 她的进攻是在一个沉睡的女人的另一个Facebook用户的页面上发布一个暗示性的图像和一系列要求强奸的评论。 拉姆齐添加了标题:“女人不会像这样做#meTheProblem的模因或评论”

在ProPublica引起公司关注之后,Facebook恢复了Ramsey的职位。 发言人说,整个内容并没有违反指引,因为照片上的标题谴责性暴力。

Facebook的表面并没有安抚拉姆齐。 “他们给你一点点提供关于你的经历的'反馈',”她说。 “我每次都用大写字母给出反馈意见:你是在阻止错误的人。 这让我想把头伸进墙里。“ - ProPublica | Rappler.com

ProPublica是获得普利策奖的调查新闻编辑室。 注册他们的