免费解锁编辑文摘
英国《金融时报》编辑鲁拉·哈拉夫 (Roula Khalaf) 在这本每周通讯中选择了她最喜欢的故事。
去年这个时候,您可能会读到数十条关于生成人工智能对 2024 年全球选举丰收的影响的可怕警告。
报道称,深度造假会加剧政治虚假信息,让混乱的选民无法在现实的、个性化的谎言海洋中辨别事实与虚构。从萨迪克汗到教皇的领导人都公开反对他们。世界经济论坛的一项专家调查将人工智能虚假信息列为 2024 年第二大紧迫风险。
果然,数十个例子被广泛报道。乔·拜登在机器人电话中的“声音”敦促初选选民待在家里;由人工智能生成的玛丽娜·勒庞家族不存在的成员开种族主义玩笑的视频在 TikTok 上被观看了数百万次,而凯尔·斯塔默爵士咒骂一名工作人员的虚假音频片段在 X 上疯传。
但许多专家现在认为,几乎没有证据表明人工智能虚假信息像人们担心的那样广泛或有影响力。
艾伦图灵研究所在今年夏天的英国、法国和欧盟选举期间仅发现了 27 条由人工智能生成的病毒内容。另一项研究发现,只有大约二十分之一的英国人认识到选举期间最广泛传播的政治深度假货。
在美国,新闻素养项目列出了近 1,000 个有关总统选举的错误信息的例子。只有 6% 涉及生成人工智能。据 TikTok 称,随着投票日的临近,人工智能生成内容的删除并没有增加。
英国《金融时报》分析发现,X 的用户提交的事实检查系统“社区笔记”中提到的“深度伪造”或“人工智能生成”等术语与新图像生成模型的发布的相关性高于重大选举。
非西方国家也存在这种趋势:一项研究发现,有关孟加拉国 1 月份选举的错误信息中只有 2% 是深度造假。研究人员得出结论,南非两极分化的选举“出乎意料地缺乏”人工智能。
微软、Meta 和 OpenAI 都报告称,揭露了试图利用人工智能影响今年选举的秘密外国行动,但没有一家成功地吸引了广泛的受众。
许多确实流行的与选举相关的人工智能内容并不是为了欺骗选民。相反,该技术经常被用于情感争论——创造出支持某种叙事的图像,即使它们显然是不真实的。
例如,卡玛拉·哈里斯在一场装饰着苏联国旗的集会上发表讲话,或者一个意大利孩子在吃蟑螂披萨(指的是欧盟对昆虫饮食的支持)。已故政客“复活”以支持印度尼西亚和印度的竞选活动。
普渡大学人工智能政策和伦理专家丹尼尔·希夫表示,这种“象征性、表达性或讽刺性的信息”符合传统的说服和宣传策略。普渡大学团队发现,大约 40% 的政治深度造假至少部分是为了讽刺或娱乐。
那么“骗子的红利”呢?这种想法是,人们会声称那些对他们不利的合法内容是人工智能生成的,这可能会让选民感到一切都不再可信。
战略对话研究所的分析确实发现社交媒体上的政治内容普遍存在混乱,用户经常将真实图像误认为是人工智能生成的。但大多数人都能对此类说法持合理的怀疑态度。皮尤研究中心 (Pew Research) 的数据显示,2020 年至 2024 年选举期间,表示难以理解候选人新闻真实性的美国选民比例有所下降。
“我们使用 Photoshop 已经很多年了,但我们仍然在很大程度上信任照片,”牛津大学路透新闻研究所的研究员菲利克斯·西蒙 (Felix Simon) 说道,他曾撰写过有关深度造假的担忧被夸大的文章。
当然,我们也不能放松警惕。人工智能技术及其社会影响正在迅速发展。在其他场景中,例如精心设计的冒充诈骗或色情骚扰和勒索,深度造假已经被证明是一种危险的工具。
但说到政治虚假信息,真正的挑战并没有改变:首先要解决人们愿意相信和分享谎言的原因,从政治两极分化到 TikTok 推动的媒体饮食。虽然深度造假的威胁可能会成为头条新闻,但我们不应该让它成为一种干扰。
关键词: