取 消
返回

疫情下Facebook让内容审核员回家 技术手段能否胜任成挑战

腾讯科技·2020年3月27日 2091

  3月24日消息,据国外媒体报道,随着新型冠状病毒在全球范围的持续蔓延,Facebook让旗下数千名负责内容审核的外包员工回家隔离,更多依赖人工智能、自动化系统等技术手段审查平台上的不良内容,这对于Facebook来说也是一次重大考验。

  本月初,随着新型冠状病毒在全球蔓延,Facebook大多数员工都收拾行囊,准备在家上班。然而,尽管Facebook公司下令让员工居家办公,但这家社交网络巨头仍未想出如何远程开展其最敏感的工作:清除整个网站上的色情、暴力、恐怖主义以及其他不受欢迎的内容。

  从事这项敏感工作的是Facebook遍布全球20个办公地的近1.5万名外包员工。此前这些非正式员工继续来到办公室上班。直至上周一,来自公众的压力、内部抗议和世界各地的隔离措施迫使Facebook关闭了其内容审核办公室。

  Facebook决定让这群内容管理员带薪休假,也为公司带来了另一项挑战:如何对虚假信息、医疗骗局等不良内容进行监管。

  虽然Facebook、YouTube、Twitter和其他公司长期以来一直在鼓吹人工智能和算法是监管不良内容的未来发展方向,但这些公司最近承认,人类是对付不良内容的最重要防御线。这些外包员工的工资仅为公司正式员工的零头,但每天要花上几个小时的时间审阅被标记为非法或令人不安的内容,删除平台上的那些越界帖子,并常常因为身处这种工作环境中而饱受心理伤害。

  不过,Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)周三在一次媒体电话会议上说,在新型冠状病毒蔓延期间,Facebook将被迫更多地依靠人工智能软件来对平台内容进行审核。该公司还将培训全职员工对高度敏感的内容给予“额外关注”,比如任何涉及自杀、虐童和恐怖主义的内容。扎克伯格说,在Facebook的筛选过程中,用户应该对出现更多错误有心理准备,部分原因是因为只有一小部分人参与其中,而且软件做出的决定比人更直接。

  扎克伯格承认,这个决定可能会导致“误报”,包括删除不应该删除的内容。

  审核决策将“权衡其他可能不会马上给人们带来身体上风险的内容。”不过,扎克伯格仍希望尽快培训更多的员工,因为他“个人非常担心人们隔离在家会带来更多抑郁情绪或心理健康问题,我们希望能在帮助社区方面想在前面。”

  扎克伯格的言论反映出硅谷巨头们在全球健康危机日益严重情况下所做的复杂选择和权衡。这些公司可以保护员工,并遵守当地 “待在家中”的规定。但这种选择可能会危及全球数十亿用户的安全。因为其中许多人被隔离在家中无所事事,整天上网,接触到比以前更多可能令人不安的内容。

  YouTube上周还宣布了一项临时计划,将更多依赖自动化系统来减少上班人数。该公司警告称,此举可能会导致视频内容创作者的投诉流程变慢,并导致更多未经审查的内容被禁止录入搜索引擎或其主页。同一天,Twitter也表示将采取同样行动。由于自动化系统可能会导致错误,所以在此期间不会永久封禁相关帐户。它还将优先处理可能危害更大的违规行为。

  Facebook、YouTube、Twitter和其他社交媒体公司过去曾面临监管内容方面的重大挑战,其中包括如何监管枪击事件视频以及虚假信息宣传等各种不良信息内容。

  这种压力随着有关新型冠状病毒的虚假信息激增而加剧。在Facebook旗下的WhatsApp上,聊天群组正在传播与新型冠状病毒有关航班、酒店和学校的未经证实信息,以及关于美国政府可能采取的举措和该病毒如何传播的错误信息。在Facebook平台上,一则关于洛杉矶病毒爆发的消息四处传播,到处都是关于新型冠状病毒虚假治疗方法的帖子。

  2016年美国总统大选之后,Facebook在菲律宾、印度、都柏林和美国聘请了数千名内容管理员来监管内容,并提高其平台声誉。受雇于埃森哲和Cognizant等外包公司的内容审核员是Facebook的外包员工,他们的工资和福利通常低于正式员工。

  而把这些人送回家,更多依靠技术手段来监管内容的决定不免让一些研究人员忧虑重重。

  微软研究院(Microsoft Research)高级首席研究员玛丽?格雷(Mary Gray)表示:“他们在人工智能领域还没有取得足够大的进步,不足以替代我们所拥有的最佳工具:人类智能来进行识别。”格雷是《幽灵工作:如何阻止硅谷催生一个新的全球下层阶级》(Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass)一书的合著者。她补充说,“这将是一团糟”。

  Facebook发言人德鲁·普萨特利(Drew Pusateri)说:“我们的工作重点是确保人们的安全,确保他们能够在危机期间相互分享信息和进行联系。”“但正如我们在最近的内容审核更新中所说的,我们预计,随着我们更依赖于自动化,一些错误将会发生。”

  Facebook做出这一改变,在很大程度上是因为公司认为这项工作对第三方内容审核员来说过于敏感,不适合在家里进行,其中会涉及到审查用户的私人Facebook账户。该公司还承认,这是一份痛苦的工作,员工在家里得到的支持会更少。一般来说,内容管理员在呼叫中心工作时,包括中断、敲击键盘以及对内容作出判断等每一个动作都会受到严格的管理和监控。

  该公司表示,随着新型冠状病毒疫情的变化,这种情况可能会改变。

  周四晚些时候,Facebook在公司博客上公布了更明确的计划。当用户举报违反政策的内容时,他们会看到一条消息,说明审核量减少,而Facebook正在对那些可能造成最大伤害的内容进行优先审查。

  “这意味着一些报告将不会像以前那样被快速审查,我们将根本得不到一些报告,”博客文章中写道。减少内容审核员还将改变那些认为内容被错误删除的用户申诉程序。当然,用户仍然可以因为他们不认同Facebook的决定而进行报告。

  我们将“监控反馈,以提高我们的准确性,但我们可能不会第二次审查内容,”该公司表示。

  根据该公司最新的《社区标准执行报告》(community standards enforcement report),大约95%涉及成人裸体、恐怖主义、虐童、自杀和自残的帖子,在Facebook用户举报之前就已经被算法删除了。

  但对于需要更细致入微分析的内容,公司的自动化系统往往效率较低。人工智能只捕获了Facebook上涉及欺凌和骚扰帖子的16%,导致80%以上的此类帖子被上报给公司。此外,人工智能只捕获了大约80%的仇恨言论。

  这些数字让公司管理人员意识到,要监控更细微敏感的内容,人工判断仍然是必要的。

  扎克伯格去年在接受采访时表示,“我认为总需要人”对内容做出判断。

  事实上,现在已经有潜在问题的迹象。上周早些时候,有关新型冠状病毒准确信息的相关内容被从Facebook上删除。扎克伯格表示,这是由公司垃圾邮件检测系统中的一个漏洞引起的,与疫情期间内容审核的分类无关。他在上周的媒体电话采访中说:“系统已经修复,这些帖子也已经恢复,希望我们不会很快再次遇到这个问题。”

  网络安全教授、《创造互联网的26个单词》(the 26 Words That Created the Internet)一书作者杰夫·科瑟夫(Jeff Kosseff)说,随着Facebook对监管内容的回应越来越多地转向技术层面,这将是该行业面临的一次重大考验。

  他说:“这将告诉我们很多有关自动审核的情况。” 科塞夫补充说,尽管更加透明,但“我们真的不知道科技公司到底在做什么,也不知道它们的效率有多高。”

  加州大学洛杉矶分校教授萨拉·T·罗伯茨(Sarah T. Roberts)表示,Facebook可能是被迫采取行动的。在菲律宾首都马尼拉,Facebook通过外包公司雇佣了数千名内容管理员,但当地政府在全市范围内实施了隔离。

  不管Facebook的动机是什么,罗伯茨说,这次经历将揭示人类审核员对集体利益和互联网体验的影响有多大,甚至可能会改变硅谷通过工程手段解决问题的既定观念。

  她说:“我们实际上可能无法通过编程摆脱新型冠状病毒蔓延带来的影响。”

特别声明:
转载上述内容请注明出处并加链接。上述内容仅代表作者或发布者的观点,与中国电子商会官网的立场无关。如有任何疑问或了解更多,请与我们联系。电话:4008 900 668 邮箱:service@cecc.org.cn
相关阅读