NVIDIA NIM微服务对Azure AI Foundry的AI部署革新


艾里斯·科尔曼(Iris Coleman)
2025年5月13日07:38

NVIDIA的NIM微服务集成到Azure AI Foundry中,通过GPU加速推导推断,增强了AI部署,为企业提供了可扩展和安全的AI解决方案。




根据Nvidia的博客的数据,NVIDIA的NIM微服务集成到Microsoft的Azure AI铸造厂中,这代表了企业AI部署的重大进步。这种合作使组织能够更有效地部署复杂的AI模型,从而利用Azure的安全和可扩展的基础架构。

增强AI部署

NVIDIA的NIM微服务专为GPU加速推理而设计,适用于预验证和自定义AI模型。这些服务将NVIDIA的高级推理技术与社区贡献相结合,优化了最先进的AI模型的响应时间和吞吐量。这项创新是NVIDIA AI Enterprise的一部分,该套件是为安全和高性能AI推论而设计的。

开发人员可以通过标准化的API访问这些AI模型,从而促进了跨语音,图像,视频,3D,药物发现和医学成像等各个领域的AI应用的开发。这种广泛的适用性使NIM微服务成为企业AI解决方案的多功能工具。

Azure AI铸造功能

Azure AI Foundry提供了一个全面的平台,用于设计,自定义和管理AI应用程序。它通过集成的门户,SDK和API提供了丰富的AI功能,从而确保了安全的数据集成和企业级治理。此设置加速了从AI模型选择到生产部署的过渡。

无缝集成和部署

NIM微服务在Azure AI Foundry上受到本地支持,简化了部署过程并消除了对复杂的GPU基础架构管理的需求。这种集成确保了要求AI工作负载的高可用性和可扩展性,从而可以快速部署和AI模型的操作。

简化了部署过程,使用户可以从Azure AI Foundry中的模型目录中选择模型,并以最少的精力将它们集成到AI工作流中。这种用户友好的方法支持在Azure生态系统中创建生成AI应用程序。

高级工具和支持

NVIDIA NIM微服务提供零配置的部署,无缝的Azure集成,企业级可靠性和可扩展的推理功能。这些功能由NVIDIA AI Enterprise支持,确保企业级别使用的稳定性能和安全性更新。

开发人员还可以利用Azure的AI代理服务和Agesic AI框架(例如语义内核),从Dynamo,Tensorrt,Vllm和Pytorch等NVIDIA技术中受益。这些工具确保NIM微服务能够在Azure的托管计算基础架构上有效地扩展规模。

入门

NVIDIA NIM微服务集成到Azure AI Foundry中,使开发人员可以轻松地快速部署,扩展和操作AI模型。 NVIDIA的AI推理平台和Azure的云基础架构的强大组合为高性能AI部署提供了简化的路径。

有关在Azure上部署NVIDIA NIM微服务的更多信息,请访问NVIDIA官方博客。

图像来源:Shutterstock


(tagstotranslate)AI(T)加密(T)区块链(T)新闻



关键词:

Foundry的AI部署革新NIM微服务对AzureNvidia
Comments (0)
Add Comment