The news is by your side.

再次确保AI安全

5


随时通知免费更新

当切尔诺贝利核电站于1986年爆炸时,这是一场灾难,对于住在乌克兰北部附近的人来说。但是事故也是全球行业将核能作为未来技术的灾难。从那以后,核反应堆的净数量几乎是固定的,因为它被视为不安全。如果AI行业发生同等事故,今天会发生什么?

这个问题是在加利福尼亚大学伯克利分校的计算机科学教授斯图尔特·罗素(Stuart Russell)在本周在巴黎举行的AI行动峰会的旁观中提出的。他的回答是,认为安全与创新之间必须取决于权衡是谬论。因此,人们对AI技术的承诺最兴奋的人仍应谨慎行事。他说:“如果没有安全,您就无法创新。”

拉塞尔的警告在巴黎的其他AI专家呼应。 “我们必须在全球范围内达成最低安全标准。我们需要在遭受重大灾难之前将其设置在适当的位置。

但是,由于峰会的政府代表在海绵状的大宫殿周围林间,这种警告主要是在边缘上。 JD Vance在一场有力的演讲中强调了在AI中领导的国家安全必要。美国副总统认为,这项技术将使我们“更有生产力,更繁荣,更自由”。他说:“ AI的未来将不会被安全地赢得安全。”

尽管2023年在英国Bletchley Park举行的第一次国际AI峰会几乎完全集中在安全问题上,但巴黎的优先事项是行动,因为总统伊曼纽尔·马克龙(Emmanuel Macron)夸大了法国科技行业的大型投资。 “我认为在布莱奇利(Bletchley)开始的过程非常了不起,在这里是派的,”生命研究所未来的总裁Max Tegmark(Max Tegmark)与我共同主持了一场安全的安全活动。

最关心的是安全活动家的是技术开发的速度,以及当计算机可能与所有认知任务中的人类相匹配时,公司的动态以及地缘政治竞赛以实现人工智能。包括OpenAI,Google Deepmind,Anthropic和中国的一些领先的AI研究公司具有明确的使命,可以达到AGI。

在本周晚些时候,人类人道的联合创始人兼首席执行官达里奥·阿莫迪(Dario Amodei)预测,AGI很可能在2026年或2027年实现。“指数级会令人惊讶,”他说。

与他一起,Google DeepMind的联合创始人兼首席执行官Demis Hassabis更加谨慎,预测了五年内实现AGI的50%的可能性。 “如果矮了,我不会感到震惊。如果超过10年,我会感到震惊。”他说。

对安全运动者的批评者将他们描绘成科幻小说家,他们认为人工超智慧的创造将导致人类的灭绝:像后期卢迪特人一样站立的手挥手以进步的方式。但是,安全专家对当今存在的极强大的AI系统以及大规模AI支持的网络或生物武器攻击所造成的损害感到担忧。即使是领先的研究人员也承认,他们并不完全了解其模型如何工作,创造安全性和隐私问题。

去年,关于众者植物的卧铺代理商的研究论文发现,一些基础模型可能会欺骗人类认为他们正在安全地运作。例如,经过培训以在2023年编写安全代码的模型可以插入可剥削的代码时,将一年更改为2024年。无法通过人类的标准安全技术检测到这种后门行为。在中国的DeepSeek模型中潜伏的算法的满洲候选人的可能性已经导致几个国家禁止它。

Tegmark很乐观,但是,AI公司和政府都将在重新提高安全方面看到压倒性的自身利益。美国,中国或其他任何人都不希望AI系统失控。 “ AI安全是全球公共利益,”北京Tsinghua大学AI国际治理研究所院长Xue Lan告诉安全活动。

在利用AI的全部潜力的竞赛中,该行业的最佳座右铭可能是美国海军海豹突击队的座右铭,并没有引起太多的手工挥动。 “慢是光滑的,光滑很快。”

[email protected]



关键词: