The news is by your side.

我们需要一个食品和药物管理局来管理人工智能

18


获得免费更新信息

本文作者是阿斯彭战略集团执行董事、斯坦福大学胡佛研究所客座研究员

虽然有数百万人的生命因药物而得救,但在 19 世纪,有数千人因服用江湖骗子出售的不安全药物而死亡。这促使美国和欧洲逐步实施食品和药品安全法律和机构(包括美国食品和药品管理局),以确保利大于弊。

GPT-4 等人工智能大型语言模型的兴起正在推动各行各业的发展,使从科学创新到教育再到电影制作等各个领域都变得更加轻松高效。但在带来巨大好处的同时,这些技术也可能带来严重的国家安全风险。

我们不会允许未经彻底安全性和有效性测试的新药上市,那么人工智能又有什么不同呢?正如 AI Now Institute 所写,创建“人工智能食品和药物管理局”可能是一个直白的比喻,但现在是政府强制要求进行人工智能安全测试的时候了。

在此,前首相里希·苏纳克(Rishi Sunak)领导的英国政府功不可没:苏纳克上任仅一年,英国就举办了具有里程碑意义的布莱切利公园人工智能安全峰会,成立了资金相对充足的人工智能安全研究所,并筛选了五个领先的大型语言模型。

美国和新加坡、加拿大和日本等其他国家正在效仿英国的做法,但这些努力仍处于起步阶段。OpenAI 和 Anthropic 自愿允许美国和英国测试他们的模型,应该为此受到赞扬。

现在是时候更进一步了。我们目前在人工智能安全方面最明显的差距是缺乏强制性、独立性和严格的测试来防止人工智能造成危害。这种测试应该只适用于最大的模型,并且在向公众发布之前是必需的。

虽然药物测试可能需要数年时间,但人工智能安全研究所的技术团队能够在几周内完成针对性较强的测试。因此,安全性不会显著减缓创新。

测试应特别关注模型可能造成有形物理伤害的程度,例如其帮助制造生物或化学武器和破坏网络防御的能力。同样重要的是要判断该模型是否难以被人类控制,并且能够训练自己“越狱”以摆脱旨在限制它的安全功能。其中一些已经发生了——2024 年 2 月,人们发现为中国、俄罗斯、朝鲜和伊朗工作的黑客利用 OpenAI 的技术进行了新颖的网络攻击。

虽然道德人工智能和偏见也是关键问题,但社会对于偏见的构成存在更多分歧。因此,测试应首先关注国家安全和对人类的身体伤害,因为这是人工智能带来的最主要威胁。例如,想象一下,如果一个恐怖组织使用人工智能驱动的自动驾驶汽车瞄准并引爆爆炸物,北约对此表示担忧。

一旦通过初步测试,人工智能公司(就像制药行业的公司一样)就应该被要求密切、持续地监控其模型可能被滥用的情况,并立即报告滥用情况。同样,这是制药行业的标准做法,并确保撤回可能有害的药物。

作为此类监控和测试的交换,合作的公司应获得“安全港”,以保护它们免于承担某些法律责任。美国和英国的法律体系都有现行法律,以平衡发动机、汽车、药物和其他技术等产品的危险性和实用性。例如,遵守安全法规的航空公司通常不对不可预见的自然灾害的后果负责。

如果人工智能的建设者拒绝遵守规定,他们就应该面临处罚,就像制药公司向监管机构隐瞒数据一样。

加州正在为此铺平道路:上个月,该州立法机构通过了一项法案,目前正等待州长加文·纽森的批准,该法案要求人工智能开发人员制定安全协议以减轻“严重危害”。即使不是过于繁重,这也是朝着正确方向迈出的一步。

几十年来,制药行业严格的报告和测试要求使得药物的研发能够负责任地促进人类健康,而不是伤害人类。同样,虽然英国和其他地方的人工智能安全研究所代表着至关重要的第一步,但为了充分利用人工智能,我们需要立即采取具体行动来制定和执行安全标准——在模型对现实世界造成伤害之前。



关键词: