生成的AI模型熟练于废话


随时通知免费更新

根据哲学家哈里·法兰克福(Harry Frankfurt)的说法,谎言不是真理的最大敌人。废话更糟。

正如他在经典文章中解释的那样 在胡说八道上 (1986年),骗子和真相柜员正在玩同一游戏,就在相反的一边。每个人都对事实做出回应,因为他们了解事实,要么接受或拒绝真理的权威。但是,一个牛仔师完全忽略了这些要求。 “他没有像骗子那样拒绝真理的权威,并反对自己。他根本不关注它。借助这一点,胡说是真理的更大敌人。”这样的人想说服他人,无论事实如何。

可悲的是,法兰克福于2023年去世,距查盖特(Chatgpt)被释放仅几个月。但是,在生成人工智能时代阅读他的论文会引起令人难以置信的熟悉程度。在一些方面,法兰克福的论文整洁地描述了AI支持的大语言模型的输出。他们不关心真理,因为他们对此没有概念。它们通过统计相关性而不是经验观察。

“他们最大的优势,但也是他们最大的危险,是他们几乎对任何事实准确性的任何话题都具有权威性的能力。换句话说,他们的超级大国是他们超级人类废话的能力。”华盛顿大学的两位教授开设了一个在线课程 – 现代的甲骨文或废话机器? – 仔细检查这些模型。其他人则将机器的输出重命名为Botshit。

LLMS的最著名,令人不安的,但有时甚至是有趣的创意之一是他们的“幻觉”事实,或者只是简单地制作东西。一些研究人员认为,这是概率模型的固有特征,而不是可以解决的错误。但是AI公司试图通过提高数据质量,微调模型并在验证和事实检查系统中构建来解决这个问题。

不过,考虑到人类的律师本月告诉加利福尼亚法院,他们的律师事务所本身无意中提交了AI公司Claude幻觉的错误引文。正如Google对用户的聊天机器人的标志:“双子座可能会犯错,包括关于人,请仔细检查它。”从本周开始,这并没有阻止Google在美国的所有主要服务上推出“ AI模式”。

这些公司试图改善其模型的方式,包括从人类反馈中学习的强化,自身风险引入偏见,失真和未宣布的价值判断。正如FT所表明的那样,来自Openai,Anthropic,Google,Meta,Xai和DeepSeek的AI聊天机器人描述了自己公司首席执行官的素质和竞争对手的素质。埃隆·马斯克(Elon Musk)的格罗克(Grok)还促进了南非的“白人种族灭绝”的模因,以回应完全无关的提示。 Xai说,它已固定了故障,该小故障归咎于“未经授权的修改”。

桑德拉·沃克特(Sandra Wachter),布伦特·米特尔斯塔特(Brent Mittelstadt)和克里斯·罗素(Chris Russell)在牛津互联网研究所的一篇论文中说,这种模型造成了一个新的,甚至更糟糕的潜在危害类别或“粗心的言论”。他们认为,粗心的言论会造成无形,长期和累积的伤害。 Wachter告诉我,这就像“看不见的胡说八道”,使社会笨拙。

至少与政治家或销售人员一起,我们通常可以理解他们的动机。但是聊天机器人没有意图,并且针对合理性和参与而不是真实性进行了优化。他们将无目的地发明事实。他们可以以不可思议的方式污染人类的知识基础。

一个有趣的问题是,是否可以为更高的真实性设计AI模型。他们会有对他们的市场需求吗?还是应该强迫开发人员遵守更高的真实标准,例如适用于广告商,律师和医生? Wachter认为,开发更真实的模型将需要时间,金钱和资源来保存。她说:“这就像希望汽车成为飞机一样。

综上所述,生成的AI模型仍然可以有用且有价值。许多利润丰厚的事业和政治事业是基于胡说八道的。适当使用的生成AI可以用于无数业务用例。但是将这些模型误认为真相机是妄想和危险的。

john.thornhill@ft.com



关键词:

生成的AI模型熟练于废话
Comments (0)
Add Comment