一项研究表明,一些最大的社交媒体平台未能检测并删除危险的自杀和自残内容。
莫莉·罗斯基金会发现,在六大平台做出的超过 1200 万条内容审核决定中,超过 95% 的决定仅被两个网站——Pinterest 和 TikTok 发现并删除。
报告中提到的其他四个平台是 Facebook、Instagram、Snapchat 和 X(原 Twitter)。
该基金会表示,发现大多数平台对此类内容的反应“不一致、不均衡且不符合目的”。
该慈善机构表示,Meta 的 Instagram 和 Facebook 分别对所研究的主要网站检测到的所有自杀和自残内容负有 1% 的责任,而 X 仅对 700 个内容决策负责。
该基金会目前警告称,网络安全法案不足以解决社交媒体公司内容审核方法中明显的系统性失误。
该慈善机构的主席伊恩拉塞尔敦促政府承诺制定一项新的网络安全法案,以进一步加强监管。
拉塞尔先生和他的家人成立了莫莉罗斯基金会来纪念他的女儿, 莫莉2017 年 11 月,14 岁的她在社交媒体上看到有害内容后结束了自己的生命。
拉塞尔表示:“莫莉去世近七年后,令人震惊的是,大多数大型科技公司仍然袖手旁观,选择不采取行动,而不是拯救年轻人的生命。”
“正如过去几周所显示的那样,很明显我们需要更加严格的监管。
“因此,新政府应该完成任务,并致力于加强网络安全法。
“全国各地的父母都会感到震惊,Instagram 和 Facebook 之类的应用虽然承诺了一些温暖的话语,但却继续让孩子遭受本来可以预防的伤害。
“毫无疑问,我们必须采取有力的行动。”
该基金会在报告中表示,发现社交媒体网站经常无法检测其服务中风险最高的部分中的有害内容。
例如,尽管短视频功能 Reels 占据了该应用所有使用时间的一半,但 Instagram 检测到的每 50 条自杀和自残帖子中只有 1 条是视频。
该研究还指责网站未能执行自己的规则,并指出尽管 TikTok 检测到近 300 万条自杀和自残内容,但只暂停了两个账户。
该研究基于欧盟做出的内容审核决定,这些决定必须向公众公开。
针对该研究,Meta 发言人表示:“鼓励自杀和自残的内容违反了我们的规定。
“我们不认为这份报告中的数据反映了我们的努力。仅去年一年,我们就在全球范围内删除了 Facebook 和 Instagram 上 5060 万条此类内容,其中 99% 的内容在收到举报之前就已采取了行动。
“然而,在欧盟我们目前还无法部署在英国和世界其他地区实施的所有措施。”
阅读更多科技新闻
悲痛的父母要求 Ofcom“挺身而出”
孩子们在小学第一次接触暴力内容
《爱情岛》明星谈网络恶搞的影响
Snapchat 的一位发言人表示:“我们社区的安全和福祉是我们的首要任务。Snapchat 的设计与其他平台不同,它不会公开未经审查的内容,并且在公开发布之前会进行内容审核。
“我们严格禁止宣传或鼓励自残或自杀的内容,如果我们发现此类内容,或者有人向我们举报,我们会迅速删除并采取适当的行动。
“当我们意识到社区中有成员处于困境时,我们也会分享自我伤害预防和支持资源,并在适当的时候通知紧急服务部门。
“我们还将继续与英国通讯管理局密切合作,实施《网络安全法案》,包括保护儿童免受此类伤害。”
TikTok 没有发表声明,但表示其规则明确,不允许展示、宣传或分享自杀或自残计划。
英国科学、创新和技术部发言人表示:“社交媒体公司有明确的责任,确保使用其平台的人们的安全,而且他们的流程必须有效。
“根据《网络安全法》,那些故意鼓励自残的人目前将面临最高五年的监禁。一旦该法案全面实施,平台还必须主动删除鼓励严重自残的非法内容,并阻止儿童看到鼓励自残或自杀的材料,即使这些材料没有达到犯罪标准。
“我们希望尽快实施这些新的保护措施,但公司不应该等待法律生效——他们必须立即采取有效行动来保护所有用户。”
Pinterest 和 X 尚未回应置评请求。
关键词: