Terrill Dicki
2025年8月25日23:56
AI一起推出了DeepSeek-V3.1,这是一种提供快速响应和深层推理模式的混合模型,可确保对各种应用程序的效率和可靠性。
AI一起揭开了DeepSeek-V3.1,这是一种高级混合模型,旨在满足快速响应要求和复杂的推理任务。该模型现在可在AI的平台上进行部署,特别是以其双模式功能而引起的,使用户可以在非思维和思考模式之间进行选择,以根据任务复杂性优化性能。
功能和功能
根据AI的说法,DeepSeek-V3.1旨在提供提高效率和可靠性。它以99.9%的SLA支持无服务器部署,从而确保各种用例的稳健性能。该模型的思维模式提供了与其前身DeepSeek-R1相当的质量,但速度有显着提高,使其适合生产环境。
该模型建立在实质性培训数据集的基础上,有600亿个代币的32K上下文和2090亿个令牌,用于128K上下文,增强了其处理扩展对话和大型代码库的能力。这样可以确保该模型适合需要详细分析和多步推理的任务。
现实世界应用
DeepSeek-v3.1在各种应用程序中擅长,包括代码和搜索代理任务。在非思考模式下,它有效地处理了常规任务,例如API端点生成和简单的查询。相反,思维模式非常适合解决复杂的问题解决,例如调试分布式系统和设计零下降的数据库迁移。
对于文档处理,该模型为实体提取和基本解析提供了无思想的功能,而思考模式则支持对合规工作流和法规交叉引用的全面分析。
性能指标
基准测试在两种模式下都揭示了模型的优势。例如,在MMLU-REDUX基准测试中,思维模式达到了93.7%的成功率,超过了非思考模式的1.9%。同样,GPQA-Diamond基准测试在思维模式中显示出5.2%的提高。这些指标强调了该模型在各种任务中提高性能的能力。
部署和集成
DeepSeek-V3.1可通过AI的无服务器API和专用端点提供,提供6710亿个参数和MIT许可以提供广泛应用的技术规格。基础设施是为可靠性而设计的,具有北美数据中心和SOC 2合规性。
开发人员可以使用提供的Python SDK将模型迅速集成到其应用程序中,从而使DeepSeek-V3.1的功能无缝合并到现有系统中。 AI的基础架构共同支持大型专家模型,确保在生产工作负载下有效地思考和非思维模式。
随着DeepSeek-V3.1的推出,AI共同旨在为寻求通过快速响应和深层分析功能增强其AI驱动应用的企业提供多功能解决方案。
图像来源:Shutterstock
(tagstotranslate)AI(T)加密(T)区块链(T)新闻
关键词: