The news is by your side.

监管机构表示,新法律可以帮助从源头解决人工智能引发的儿童虐待问题科学、气候和科技新闻

12


根据拟议的新法律,处理人工智能生成的儿童性虐待材料的团体可能会被赋予更多权力来保护在线儿童。

互联网观察基金会(IWF)等组织以及人工智能开发人员本身将能够测试人工智能模型在不违反法律的情况下创建此类内容的能力。

IWF 首席执行官克里·史密斯 (Kerry Smith) 表示,这意味着他们可以从源头解决问题,而不必等到非法内容出现才进行处理。

IWF 处理网上虐待儿童的图片,每年删除数十万张。

史密斯女士称拟议的法律是“确保人工智能产品在发布前安全的重要一步”。

图像:
一名 IWF 分析师在工作。图片来源:IWF

法律将如何运作?

这些变化将于今天作为《犯罪和警务法案》的修正案提交。

政府表示,指定机构可能包括人工智能开发商和儿童保护组织,并将聘请专家组以确保测试“安全可靠”地进行。

新规则还意味着可以检查人工智能模型,以确保它们不会产生极端色情或未经同意的亲密图像。

科技部长利兹·肯德尔 (Liz Kendall) 表示:“这些新法律将确保人工智能系统从源头上确保安全,防止可能使儿童面临风险的漏洞。”

“通过授权值得信赖的组织审查他们的人工智能模型,我们确保儿童安全被设计到人工智能系统中,而不是事后添加。”

请使用Chrome浏览器以获得更方便的视频播放器

AI虐待儿童图像制作者被判入狱

人工智能滥用材料呈上升趋势

这一消息发布之际,IWF 发布的新数据显示,人工智能生成的儿童性虐待材料的报告在过去一年增加了一倍多。

数据显示,这段时间内材料的严重程度有所加剧。

最严重的 A 类内容(涉及插入式性行为、动物性行为或虐待狂的图像)已从 2,621 条增加到 3,086 条,占所有非法内容的 56%,而去年为 41%。

阅读天空新闻的更多内容:
抗议者冲击COP30
英国停止与美国分享部分情报

数据显示,到 2025 年,女孩最常成为目标,占非法 AI 图像的 94%。

NSPCC 呼吁新法律更进一步,强制人工智能公司进行此类测试。

该慈善机构儿童安全在线政策经理 Rani Govender 表示:“令人鼓舞的是,新的立法推动人工智能行业承担更大的责任,审查其模型并防止在其平台上创建儿童性虐待材料。”

“但是为了给孩子们带来真正的改变,这不是可选的。

“政府必须确保人工智能开发人员有强制义务使用这一规定,以便防止儿童性虐待成为产品设计的重要组成部分。”



关键词: