社交媒体平台上的极端主义、暴力和仇恨内容,近些年引发了社会舆论的关注,被认为给社会带来了撕裂和负能量,给网络用户的身心健康带来影响。外界要求社交媒体公司加强内容审核。
据外媒最新消息,9月18日,在美国国会参议院举行的一次听证会上,美国主要的社交媒体表示,他们正采取更多措施,在重大社会事件发生后从在线平台上删除暴力或极端主义内容,重点是使用更多新技术和新工具加快删除行动。
据国外媒体报道,一些批评人士认为,在某些新闻事件发生后,太多支持恐怖主义的极端主义团体的暴力视频或帖子并未立即从社交媒体网站中删除。
美国参议员理查德·布卢门撒尔表示,社交媒体公司需要采取更多措施来删除暴力内容。
Facebook全球政策管理负责人比克(Monika Bickert)告诉美国国会参议院商务委员会称,该公司开发的软件检测系统使用了人工智能技术来发现违规内容,目前人工智能技术在Facebook直播服务中发现违规视频所需的平均时间减少到12秒,和几个月之前相比,平均审核时间缩短了90%。
今年5月,Facebook公司表示,它将暂时阻止曾经违反Facebook平台用户规则的用户使用视频直播服务。在此之前,一名枪手在新西兰一个宗教场所制造了大规模枪击事件,导致51人丧生,这名枪手在Facebook直播平台上直播了这次袭击事件。这一事件导致Facebook遭到了国际社会的强烈抗议。
另外在枪击发生后,许多网民在社交媒体平台上传了枪击事件有关的视频,舆论认为平台公司并没有快速删除视频,扩大了对社会的负面影响。
比克表示,Facebook曾经邀请美国执法部门提供帮助,协助人工智能识别系统更准确地查出违规视频内容。
另外,和最近发生的几起大规模枪击事件有关的网络论坛8chan也遭到了外界的批评。本月初,该网站的所有者在美国国会参加了听证会。
周三,推特网站公共政策主管尼克·皮克尔斯表示,该网站在2015年8月至2018年底之间暂停了超过150万个违反恐怖主义行为规范的账户,“其中90%以上的账户因我们的积极措施而被暂停。”
全球最大原创视频网站YouTube的母公司谷歌,其高管也参加了周三的听证会,谷歌负责全球信息政策的总监德里克·斯莱特表示,他们应对社交媒体违规内容的解决方案是科技和人工的结合。其中新科技可以更好,更好地识别违规内容,而工作人员可以帮助处理内容合规的细节问题。
这位高管表示,YouTube在今年三个月内删除了900万个视频,其中87%被人工智能系统标记成违规。
据国外媒体报道,在审核和删除社交媒体违规内容上,相关公司除了技术工具之外,也在使用大量的人力资源。比如Facebook在全世界雇佣了1.5网民内容审核员,基本上是通过外包公司雇佣的外包工。(腾讯科技审校/承曦)