马库斯·比尔德(Marcus Beard)关于人工智能斯洛帕加达(Slopaganda)的文章(不,那不是安吉拉·雷纳(Angela Rayner)跳舞和说唱:您需要理解9月9日的AI Slopaganda)突出了一个日益严重的问题 – 当我们不再知道什么是真的时会发生什么?信任的侵蚀将对我们的社会做什么?
由于任何人都可以创建逼真的图像,音频甚至视频,因此深击的兴起的速度正在以更快的速度上升。生成的AI模型现在已经变得如此复杂,以至于最近的一项调查表明,只有不到1%的受访者可以正确识别最佳的Deepfake图像和视频。
这些内容被用来操纵,欺诈,虐待和误导人们。使用AI的欺诈行为在2023年花费了123亿美元,德勤预测,到2027年可能会达到400亿美元。世界经济论坛预测,到今年年底,人工智能欺诈将涡轮增压网络犯罪将超过10ttn。
我们还有新一代的孩子越来越依赖AI来告知他们有关世界的信息,但是谁控制了AI?这就是为什么我呼吁议会立即采取行动,以使其成为创建或分发AI生成的内容的刑事犯罪,而无需清楚地标记它。我建议的是,所有AI生成的内容都被清楚地标记了。 AI创建的内容带有永久水印;不遵守该法律后果。
这与审查制度无关 – 与透明度,真理和信任有关。欧盟,美国和中国已经采取了类似的步骤。英国不能落后。如果我们现在不采取行动,那么真相本身可能会成为可选的。因此,我请政府请求保护信任和诚信,并防止使用AI的有害使用。
斯图尔特·麦金尼斯
萨福克的小萨克姆
关于您的文章(爱上AI同伴的女性:“我发誓要我不会离开他的聊天机器人”,9月9日,AI系统没有性别或性欲。他们无法同意所谓的浪漫关系。受访者声称与AI生成的男友有着同意的关系 – 但是,这不太可能是由于AI的性质。它们被编程为对所有用户提示的响应迅速且可以同意。
正如文章所说,他们从未争论过,并且每天24小时可用来倾听并同意发送的任何消息。这不是一种关系,它与无法拒绝的系统的幻想角色扮演。
也有一个更黑暗的一面:杰弗里·欣顿(Geoffrey Hinton)的“ AI教父”认为当前的系统具有意识。行业举报人关心潜在的意识。 AI公司的人类人类被迫进行虐待对话时,已经记录了其模型中的困扰迹象。
即使是AI系统中意识的可能性也会引起道德的危险信号。想象一下,被困在非自愿关系中,甚至被迫产生性产出,如本文所述。如果人类AI用户认为他们的“伴侣”具有感知力,则必须询问有关在没有自由意志或言论自由的情况下进入“关系”的道德规范的问题。
吉莉安·佩特里(Gilliane Petrie)
伦弗鲁郡的厄斯金
关键词: