免费解锁编辑文摘
英国《金融时报》编辑鲁拉·哈拉夫(Roula Khalaf)在每周新闻简报中精选了她最喜欢的故事。
全球各地的立法者都在与人工智能展开较量。早期的努力虽然浩如烟海,但进展缓慢。欧盟的《人工智能法案》最早出台,长达 144 页。监管远远落后于创新。欧盟不得不在立法过程中增加一章有关生成式人工智能的内容。
确实,几乎没有什么经济、金融和社会问题不受这种流动技术的影响。这需要很多防护措施。
与欧盟在《通用数据保护条例》(GDPR)中采取的基于原则的数据保护方法不同,《人工智能法案》采取了产品安全方法,类似于汽车或医疗设备的监管。它试图量化和解决风险,并在上市前达到并验证标准。想想在推出汽车模型之前对其进行碰撞测试。
欧盟根据风险状况对能力和后续要求进行排名。金字塔顶端是《黑镜》之类的内容——行为操纵、社交评分——这些是被禁止的。金字塔底部是普通的垃圾邮件过滤器和人工智能游戏,这些内容只需要自愿遵守代码即可。
当然,中间两层对技术开发者及其用户的影响最大。例如,金融服务和其他使用人工智能工具确定信誉或招聘员工的公司将属于这一类。如果用户修改模型,他们也会被归入更高风险类别:公司可能会随着时间的推移改变人工智能的使用方式,比如从筛选简历到决定谁能晋升。
纽卡斯尔大学教授莉莲·爱德华兹表示,一个可能的结果是,人工智能部署者和大型科技供应商之间大量使用合同。
定义生成式人工智能中的系统性风险是一项棘手的任务。欧盟——以及美国在其关于人工智能使用的行政命令中——已经诉诸于计算能力指标。欧盟将其阈值设定为每秒 10²⁵ 次浮点运算,这是计算性能的衡量标准,而美国将其阈值设定为 10²⁶。超出此阈值将触发额外义务。
问题在于,这与用于训练的能力有关。一旦部署,这一数字可能会上升,甚至下降。这也是一个有点虚假的数字:还有许多其他决定因素,包括数据质量和思维链推理,这些因素可以在不需要额外训练计算能力的情况下提高性能。它也会很快过时:今天的大数字明年可能会成为主流。
欧盟法律于 8 月正式生效,目前正在分阶段实施。随着能力的进步,会出现更多障碍。即使规则不断发展,风险仍是它们仍然落后于技术曲线。
louise.lucas@ft.com
关键词: