AI推理模型应该是行业的下一个飞跃,有望解决更复杂的问题和超级智能的途径。
最新发行的人工智能参与者,包括Openai,人类, 字母 和DeepSeek是具有推理能力的模型。这些推理模型可以通过“思考”或将问题分解为逻辑步骤并展示其工作来执行更艰难的任务。
现在,一系列最近的研究正在质疑这一点。
六月,一个团队 苹果 研究人员发布了一份名为“思维的幻觉”的白皮书,发现“最先进的(大型推理模型)仍然无法发展可概括的解决问题的能力,而准确性最终在不同环境中的某些复杂性之外最终崩溃至零。”
换句话说,一旦问题变得足够复杂,推理模型就停止工作。更令人担忧的是,这些模型不是“可推广的”,这意味着它们可能只是记住模式,而不是提出真正的新解决方案。
AI Data Analytics Databricks的首席执行官Ali Ghodsi说:“我们可以在基准上表现出色。我们可以在特定任务上做得很好。” “您提到的一些论文并没有概括。因此,尽管这项任务确实很擅长,但您和我在我们睡觉时会做的事情很糟糕。这就是我现在对推理模型的基本限制。”
研究人员在 Salesforce,人类和其他AI实验室也提出了有关推理模型的危险信号。 Salesforce称其为“锯齿状的情报”,并发现“当前(大语模型)功能与现实世界企业需求之间存在显着差距”。
限制可能表明一个故事中的裂缝,该故事已经发送了AI基础设施股票 Nvidia 蓬勃发展。
NVIDIA首席执行官Jensen Huang在3月在该公司的GTC活动中说:“由于推理的结果,由于Agent AI,我们需要的计算量很容易比去年这段时间所需的一百倍。”
可以肯定的是,一些专家说,苹果对推理模型的警告可能是iPhone制造商转移对话的人,因为它被认为是在AI比赛中赶上对话。该公司遇到了一系列的挫折,其AI Services的Apple Intelligence套件高。
最值得注意的是,苹果公司不得不将密钥升级延迟到2026年的某个时候,并且该公司在本月初的年度全球开发人员会议上没有发表很多关于AI的公告。
Futurum Group首席执行官Daniel Newman在CNBC的“交易所”中说:“苹果现在正在发布论文说LLM和推理并不奏效。” WWDC之后,让苹果的纸出来了:“听起来更像是'糟糕,看这里,我们不知道我们在做什么。'”
观看此视频以了解更多信息。
(tagstotranslate)詹森黄(T)
关键词: