Facebook今天发布了其年度透明度报告,并首次包含了因违反其内容审核标准而被删除的每个类别项目的数量。虽然该公司似乎非常擅于消除色情和恐怖主义宣传的内容,但在谈到仇恨言论的管控时却不行了。
在报告中提到的六个类别中,在用户报告之前发现的Facebook算法的仇恨言论帖子数量最低:
对于仇恨言论,我们的技术仍然不能很好地发挥作用,因此需要我们的审查小组进行检查。我们在2018年第一季度取消了250万件仇恨言论 - 其中38%是我们的技术标记的。
将该比例与主动清除暴力内容(86%),裸露和色情内容(96%)和垃圾邮件(接近100%)的帖子数量进行比较。
但这并不是说相对较低的数字是由于Facebook的技术不足造成的。试图积极地搜索Facebook进行仇恨言论管控的问题在于,公司的AI目前只能理解这么多。当许多人 与这个概念作斗争时,你如何让AI了解冒犯性和贬损性语言的细微差别 ?
Facebook产品管理副总裁Guy Rosen指出了确定语境背景的困难:
部分原因在于,像人工智能这样的技术虽然很有发展前景,但对于大多数不良内容的有效性的处理还有很长的路要走,因为语境背景非常重要。例如,人工智能还不足以确定是否有人推动仇恨或描述发生在他们身上的事情,以便他们提高对问题的认识。
如果Facebook用户在公开场合发表言论,说他们的经历被称为诽谤,用这个词来产生更大的影响,他们的帖子是否构成仇恨言论?即使我们都同意它不会,人们可以理解但是AI如何才能理解这种细微差别呢?那些在某种语言中冒犯的词语,而在另一种语言环境就不一定是同样的意思?或同形异义?或者,或者,或者 - 警告继续。
当被要求阅读这种微妙之处时,Facebook的AI迄今为止只有38%的成功率,这应该不会令人意外。
Facebook正试图通过由审查员审查每个案例来将误报保持在最低限度。该公司在F8会议上讨论了这个问题:
理解言语语境常常需要人的眼睛 - 是可恨的事情,还是共同谴责仇恨言论或提高对此的认识?...然后,我们的团队会审查内容,这样可以保持良好状态,例如有人描述他们遇到的仇恨言论以提高对问题的认识。
马克·扎克伯格在他的国会证词中表达了关于Facebook使用AI来清除其平台上的仇恨言论的计划:
我乐观地认为,在五到十年的时间里,我们将拥有一些人工智能工具,可以深入了解不同类型内容的语言细微差别,以便更准确。
根据这一估计,如果期望这项技术如扎克伯格所期望的那样准确,那将是荒谬的。我们必须在未来几年检查Facebook的透明度报告,以了解公司的进展情况。
领取专属 10元无门槛券
私享最新 技术干货