现在是时候AI开始按规则播放了


免费解锁编辑的文摘

去年年底,加利福尼亚几乎通过了一项法律,该法律将迫使大型人工智能模型的制造商清除造成大规模危害的可能性。它失败了。现在,纽约正在尝试自己的法律。这样的建议有皱纹,并有可能减慢创新的步伐。但是他们仍然比什么都不做要好。

自去年9月加利福尼亚失败以来,AI的风险有所增加。中国开发人员DeepSeek表明,可以在鞋带上制作强大的模型。能够复杂的“推理”的发动机正在取代那些简单地吐出快速答案的引擎。也许最大的转变是:AI开发人员正在疯狂地建立“代理人”,旨在执行任务并与其他系统互动,并以最少的人为监督。

如何为如此快速发展的事情创建规则?即使决定要调节什么也是一个挑战。 BCLP律师事务所已追踪了数百条法案,从隐私到意外歧视。纽约的法案侧重于安全:大型开发商将不得不制定计划,以降低其模型造成大规模伤亡或大型财务损失的风险,扣留“不合理风险”的模式,并在发生事件发生的三天内通知州当局。

即使有最佳意图,管理新技术的法律也可能像牛奶一样衰老。但是随着AI扩大,关注点也是如此。加利福尼亚AI Luminaries乐队周二发布的一份报告概述了一些:例如,OpenAI的O3模型的表现优于94%的专家病毒学家。它补充说,模型可以促进化学或核武器的生产的证据正在实时出现。

将危险信息传播给坏演员只是一个危险。模型“遵守用户”的目标也引起了人们的关注。加利福尼亚州的报告已经指出了“对齐计划”的持续证据,其中模型遵循实验室中的命令,但在野外没有。甚至教皇也担心AI可能会威胁“人类的尊严,正义和劳动”。

当然,许多AI助推器不同意。 Openai的支持者Andreessen Horowitz说,规则应针对用户,而不是模型。在一个设计代理商以最少的用户输入为作用的世界中,这缺乏逻辑。

硅谷似乎也愿意在中间见面。安德烈森(Andreessen)将纽约法律描述为“愚蠢”。 Lex了解到,它是一个大厅集团,该组织成立了纽约法律,否则纽约法律以50亿美元或以下的特定收入来豁免任何开发商。那将节省OpenAI,Meta和Google – 换句话说,每个物质。

Big Tech应该重新考虑这一立场。护栏也使投资者受益,并且有有意义的联邦规则制定的可能性很大。正如雷曼兄弟(Lehman Brothers)或AIG的前股东可以证明的那样,支持一家带来系统性灾难的公司并不有趣。

前进的道路涉及很多马交易;纽约州长凯西·霍克尔(Kathy Hochul)必须在2025年底之前要求对该州的法案进行修正。国会的一些共和党人提出了完全监管AI的国家。随着每周的过去,AI都会揭示新的力量。监管景观是一团糟,但是让它偶然会造成更大,更难清理的情况。

john.foley@ft.com



关键词:

现在是时候AI开始按规则播放了
Comments (0)
Add Comment