随着人工智能的使用(良性和对抗性)以惊人的速度提高,正在发现更多潜在有害反应的情况。
PixDeluxe | E+ |盖蒂图像
随着人工智能的使用(良性和对抗性)以惊人的速度提高,正在发现更多潜在有害反应的情况。这些包括仇恨言论,版权侵权或性内容。
研究人员告诉CNBC,这些不良行为的出现是由于缺乏法规和不足的测试而使这些不良行为的出现更加复杂。
AI的研究员哈维尔·兰多(Javier Rando)说,让机器学习模型的行为表现也是一项艰巨的任务。
“经过将近15年的研究,答案是,不,我们不知道该怎么做,而且看起来好像我们正在越来越好,”专注于对抗机器学习的Rando告诉CNBC。
但是,有一些方法可以评估AI中的风险,例如红色团队。该做法涉及个人测试和探测人工智能系统以发现和识别任何潜在危害 – 一种在网络安全圈中常见的作案。
AI和政策的研究员,数据出处计划的负责人Shayne Longpre指出,目前没有足够的人在红色团队中工作。
根据Longpre和研究人员发表的论文,虽然AI初创公司现在使用第一方评估人员或签约的第二方来测试其模型,并向诸如普通用户,记者,研究人员和道德黑客等第三方开放测试,这将导致更强大的评估。
朗普雷说:“人们发现的系统中的某些缺陷需要律师,医生实际审查的医生,真正的科学家,他们是专门的主题专家,以找出这是否是缺陷,因为普通人可能无法或没有足够的专业知识。”
本文中提出的一些建议是采用标准化的“ AI缺陷”报告,激励措施和方法来传播有关这些“缺陷”信息的信息。
通过这种做法已在其他领域(例如软件安全性)中成功采用,“我们现在需要在AI中,” Longpre补充说。
Rando说,将这种以用户为中心的实践与治理,政策和其他工具结合在一起,将确保更好地了解AI工具和用户带来的风险。
不再是月球
Moonshot项目就是一种方法,将技术解决方案与政策机制相结合。由新加坡的InfoComm媒体开发局启动,Moonshot是一个大型语言模型评估工具包,该工具包由IBM和位于波士顿的DataRobot等行业参与者开发。
该工具包集成了基准测试,红色小组和测试基线。还有一种评估机制,该机制允许AI初创公司确保他们的模型可以被信任,并且对用户不会损害数据,Anup Kumar在IBM Assia Pacific的数据和AI的负责人Anup Kumar告诉CNBC。
库马尔说,评估是一个连续的过程,应在模型部署之前和之后进行,他指出,对工具包的响应已经混合在一起。
“许多初创公司都是一个平台,因为它是开源的,他们开始利用它。但是,我想,您知道,我们可以做更多的事情。”
展望未来,Moonshot项目旨在包括针对特定行业用例的定制,并启用多语言和多元文化的红色团队。
较高的标准
亚太地区ESSEC商学院统计学教授Pierre Alquier表示,技术公司目前急于未经适当评估而发布其最新的AI模型。
他补充说:“当制药公司设计一种新药时,他们需要几个月的测试,并且非常严重的证据证明,在他们获得政府批准之前,它是有用的,没有有害的。”
Alquier补充说,AI模型需要在批准之前符合一系列严格的条件。 Alquier说,从广泛的AI工具转变为为更具体的任务而设计的工具的转变将使人们更容易预测和控制他们的滥用。
他说:“ LLM可以做太多事情,但它们并不是针对足够具体的任务。”结果,“对于开发人员来说,可能的滥用数量太大了,无法预料所有这些。”
根据Rando参与的一项研究,这种广泛的模型将定义的是确定性的,这是安全和安全的困难。
因此,科技公司应避免超出声明“他们的防御能力比他们更好”。
(Tagstotranslate)Microsoft Corp(T)法院(T)技术(T)生成AI(T)人工智能(T)安全(T)安全(T)版权(T)版权侵权(T)立法(T)新加坡政府(T)新加坡政府(T)新加坡(T)新加坡(T)国际商业机器(T)国际商务新闻(T)
关键词: