劳伦斯·詹格(Lawrence Jengar)
9月10日,2025年19:13
AI共同推出了其微调平台的重大升级,包括对100B+参数模型的支持,扩展上下文长度以及与拥抱面枢纽的改进集成。
AI共同宣布了对其微调平台的重大升级,旨在简化AI开发人员的模型自定义流程。根据AI的说法,最新的增强功能包括能够使用超过1000亿个参数训练模型,扩展上下文长度以及与拥抱面枢纽的增强集成。
扩展模型容量
该平台现在支持一系列新的大型型号,例如DeepSeek-R1,Qwen3-235b和Llama 4 Maverick。这些模型旨在执行复杂的任务,有时是与专有模型竞争的。该平台的工程优化可以有效地培训这些大型模型,从而减少了成本和时间投资。
更长的上下文长度
响应日益增长的长期处理过程的需求,AI共同努力了其培训系统,以支持增加上下文长度。现在,开发人员可以为某些模型利用高达131k代币的上下文长度,从而增强平台处理复杂而冗长的数据输入的能力。
与拥抱式枢纽集成
与拥抱式枢纽的集成使开发人员可以在平台上微调各种型号。此功能使用户可以从预先适应的模型开始,并将其用于特定任务。此外,训练运行的输出可以直接保存到集线器上的存储库中,从而促进了无缝模型管理。
高级培训目标
AI一起通过新的培训目标(例如长度归一化的DPO和Simpo)扩大了对偏好优化的支持,从而在偏好数据上提供了更大的灵活性。现在,该平台支持最大批次尺寸设置,从而优化了不同型号和模式的训练过程。
这些增强功能是AI共同承诺为AI研究人员和工程师提供尖端工具的承诺的一部分。有了这些新功能,微型平台即使是最苛刻的AI开发任务也可以支持机器学习创新的基石。
图像来源:Shutterstock
(tagstotranslate)AI(T)加密(T)区块链(T)新闻
关键词: