微软公司近日宣布,为应对数百万日活跃用户带来的内容监控挑战,公司正转向使用人工智能工具来「加速」其 Xbox 平台的内容审核工作,这些系统能够在不需要玩家举报的情况下自动标记内容以供人工审查。
微软最新的 Xbox 透明度报告——该公司对社区标准执行情况的第三次公开回顾——首次包含了「利用 AI 推进内容审核和平台安全」的章节。报告特别提到两种工具,微软表示这些工具「使我们能够实现更大的规模,提升我们人工审核员的能力,并减少对敏感内容的接触」。
微软表示,其 Xbox 安全系统现在由 Community Sift 提供支持,这是微软子公司 TwoHat 创建的一种审核工具。根据微软的报告,今年 Community Sift 系统筛选了「数十亿人类互动」,其中包括「超过 3600 万」Xbox 玩家举报,覆盖 22 种语言。该系统评估这些玩家举报,以确定哪些需要人工审核员进一步关注。
此外,微软还在使用 Turing Bletchley v3 人工智能模型来支持「主动」执行任务,这是微软在 2021 年首次推出的工具的更新版本。这个「视觉-语言」模型自动扫描 Xbox 平台上的所有「用户生成的图像」,包括自定义 Gamerpics 和其他个人资料图像。Bletchley 系统然后使用「其世界知识理解基于 Xbox 平台社区标准可接受的图像的许多细微差别」,并将任何可疑内容传递到人工审核队列。
报告还提到,2023 年上半年,Bletchley 系统有助于阻止 470 万张图像,与前六个月相比增长了 39%,这一增长归功于微软对人工智能的投资。
在对「不真实」账户的打击方面,微软表示,目前已采取了 1630 万项针对「被篡改或以不真实方式使用」的账户的执行行动。这些账户包括作弊者、垃圾邮件发送者、好友/关注者帐号充值者,以及其他「最终为我们的玩家创造不公平竞争环境或减少他们体验」的账户。
微软还在报告中表示,自 2022 年调整 Xbox 平台上「粗俗内容」的定义以来,对于粗俗内容的执法行动有了显著的增加。这一定义导致了 2022 年上半年对「粗俗」内容的 328,000 项执法行动,比之前六个月的大约 98,000 项增长了 236%。
微软的报告还为那些希望推翻禁令或禁赛的玩家带来了坏消息。在 2023 年上半年,超过 28 万起此类案件审核中,只有大约 4.1% 被重新启用。这比 2022 年上半年 151,000 起申诉中成功的 6% 略有下降。
自最新透明度报告所涵盖的期间以来,微软已推出了一个新的标准化的八次罚款制度,列出了不同类型和频率违规行为的滑动尺度的处罚。看看下一个计划的透明度报告是否会显示这些新规则生效后玩家或执法行为的任何变化将会很有趣。