据报道,Facebook周四宣布,人工智能软件目前可以检测出平台上删除的94.7%的仇恨言论。
Facebook的首席技术官麦克·斯瑞普菲(Mike Schroepfer)在一篇博客文章中透露了该数字,并补充称,一年前该比例为80.5%,2017年时仅24%。Facebook最新的《社区标准执行报告》中也提到了该数字。
诸如Facebook、Twitter等社交媒体公司经常因为未能从平台上删除仇恨言论(包括种族诽谤、宗教攻击等)而受到批评。
这些公司在全球依靠成千上万名内容审查员来管理平台上分享的帖子、照片和视频。周三,超过200名Facebook审查员在一封写给扎克伯格的公开信中称,疫情期间,公司强制要求他们回到公司上班,是弃他们的生命安全于不顾。
但是光有人类审查员还不够。如今,科技巨头越来越来依赖人工智能,即可以从经验中自动改进算法的机器学习。
“Facebook在人工智能方面的一个核心关注点是部署先进的机器学习技术,以保护人们免受有害内容的侵扰,”斯瑞普菲说。
“随着有数十亿人使用我们的平台,我们依赖人工智能去扩大我们的内容审核工作,并在可能的情况下自动化内容处理决策,”他说,“我们的目标是针对每一种形式的内容以及全球每一种语言和社区,尽可能快速而准确地识别出仇恨言论、虚假信息以及其他违反平台政策的内容形式。”
但是Facebook的人工智能软件依旧很难发现某些违反政策的内容。例如,该软件很难识别图文的含义,对反讽和俚语的识别也不总是很准确。但是在很多情况下,人类可以快速判断一条内容是否违反了Facebook的政策。
Facebook称,该公司最近部署了两项新的人工智能技术,来解决这些难题。第一项技术叫做“增强诚信优化器”(RIO),可以从真实的在线示例和指标中学习,而非使用离线数据集;第二项技术是叫做“Linformer”的人工智能架构,可以允许Facebook使用复杂语言理解模型。之前该模型因为过于庞大而无法大规模使用。
“我们现在在产品中使用RIO和Linformer,以在全球不同地区分析Facebook和Instagram上的内容,”斯瑞普菲说。
Facebook还表示,它还开发了一种新的工具,可以检测deepfakes(计算机合成视频),并对现有的系统“SimSearchNet”做了些许改进。该系统是一个图像匹配工具,旨在检测平台上的虚假信息。
“所有这些创新放在一起,意味着我们的人工智能系统现在可以对内容有更深更广泛的了解,”斯瑞普菲说,“它们如今对平台上分享的内容更加敏感,当新的热词和图像出现并传播时,它们可以更加快速地学习。”
斯瑞普菲还指出,Facebook面临的挑战“十分复杂、细微,并且发展迅速”。他还说,错误地将内容标记为仇恨言论或虚假信息会“阻碍人们自由表达的能力”。