The news is by your side.

初创公司通过 RAG 2.0 为企业带来检索增强生成革命

24


约尔格·希勒
2024 年 8 月 30 日 08:36

Contextual AI 的 RAG 2.0 平台提供 10 倍更好的参数准确性和性能,通过集成实时数据检索增强企业解决方案。




总部位于硅谷的初创公司 Contextual AI 推出了一款名为 RAG 2.0 的突破性平台,该平台有望彻底改变企业的检索增强生成 (RAG)。据 NVIDIA 博客称,与竞争产品相比,RAG 2.0 的参数精度和性能提高了约 10 倍。

背景与发展

Contextual AI 首席执行官 Douwe Kiela 是大型语言模型 (LLM) 领域的一位有影响力的人物。受到 Google 和 OpenAI 开创性论文的启发,Kiela 和他的团队很早就认识到了 LLM 在处理实时数据方面的局限性。这种理解促成了 2020 年第一个 RAG 架构的开发。

RAG 旨在不断用新的相关信息更新基础模型。这种方法解决了 LLM 固有的数据新鲜度问题,使其更适合企业应用。Kiela 的团队意识到,如果不能高效且经济地访问实时数据,即使是最复杂的 LLM 也无法为企业带来价值。

RAG 2.0:下一代技术

Contextual AI 的最新产品 RAG 2.0 以原有架构为基础,提供更高的性能和准确性。该平台将实时数据检索与 LLM 集成,使 700 亿个参数的模型能够在仅为 70 亿个参数设计的基础设施上运行,而不会影响准确性。这种优化为边缘用例开辟了新的可能性,在这些用例中,更小、更高效的计算资源至关重要。

“ChatGPT 发布后,现有 LLM 的局限性就暴露无遗了,”Kiela 解释道。“我们知道 RAG 可以解决许多此类问题,而且我们相信可以改进我们最初的设计。”

集成检索器和语言模型

RAG 2.0 的一项关键创新是其检索器架构与 LLM 的紧密集成。检索器处理用户查询,识别相关数据源,并将此信息反馈给 LLM,然后 LLM 生成响应。这种集成方法可确保更高的精度和响应质量,从而降低出现“幻觉”数据的可能性。

Contextual AI 通过反向传播来改进其检索器,将检索器和生成器组件进行对齐,从而实现差异化。这种统一允许同步调整,从而显著提高性能和准确性。

处理复杂用例

RAG 2.0 的设计与 LLM 无关,可与 Mistral 和 Llama 等各种开源模型兼容。该平台利用 NVIDIA 的 Megatron LM 和 Tensor Core GPU 来优化其检索器。Contextual AI 采用“混合检索器”方法来处理各种格式的数据,例如文本、视频和 PDF。

这种混合方法涉及部署不同类型的 RAG 和神经重排算法,以优先考虑最相关的信息。这种方法可确保 LLM 收到最佳数据以生成准确的响应。

“我们的混合检索策略通过利用不同 RAG 类型的优势来最大限度地提高性能,”Kiela 说道。“这种灵活性使我们能够根据特定用例和数据格式定制解决方案。”

RAG 2.0 的优化架构可降低延迟和计算需求,适用于从金融科技和制造业到医疗设备和机器人等众多行业。该平台可部署在云端、本地或完全断开连接的环境中,提供多功能性以满足各种企业需求。

“我们专注于解决最具挑战性的用例,”Kiela 补充道。“我们的目标是增强高价值、知识密集型的角色,使公司能够节省资金并提高生产力。”

图片来源:Shutterstock


(标签翻译)人工智能(t)加密(t)区块链(t)新闻



关键词:AI,crypto,blockchain,news