丽贝卡·摩恩
2024年8月26日 16:27
NVIDIA 的 AI Workbench 简化了 PC、工作站、数据中心和云环境中的数据科学、ML 和 AI 项目。
据 NVIDIA 技术博客报道,NVIDIA 推出了 AI Workbench,这是一款免费且用户友好的开发环境管理器,旨在简化跨各种系统(包括 PC、工作站、数据中心和云环境)的数据科学、机器学习 (ML) 和人工智能 (AI) 项目。
简化的开发环境
AI Workbench 允许开发人员在 Windows、macOS 和 Ubuntu 等多种操作系统上创建、测试和制作项目原型。它可在本地和远程系统之间无缝传输开发环境和计算任务,从而优化成本、可用性和可扩展性。
该工具专注于增强开发人员体验,同时允许进行大量定制,特别是通过使用容器,这对于 GPU 加速工作至关重要。AI Workbench 还与生态系统合作伙伴合作以改善用户体验。例如,它与 Canonical 的合作有助于使用 Ubuntu WSL 发行版在 Windows 上进行安装。
托管 Docker 桌面安装
最新版本的 AI Workbench 的一个主要功能是其 Docker Desktop 的托管安装,Docker Desktop 是推荐用于 Windows 和 macOS 的容器运行时。以前,设置 Docker 需要手动步骤,但与 Docker 的新合作使直接从 AI Workbench 界面实现无缝安装过程成为可能。
NVIDIA 的 AI Workbench 现在可以自动执行多项任务,包括:
- 安装Docker Desktop: 这样就无需退出 AI Workbench 安装程序来手动安装 Docker。
- 在 Windows 上配置 Docker Desktop: AI Workbench 现在会自动配置 Docker Desktop 以使用其自己的 WSL 发行版 NVIDIA-Workbench。
新的人工智能工作台项目
最新版本还包含旨在帮助开发人员的新示例项目。这些项目的结构为 Git 存储库,用于定义容器化开发环境,支持 Jupyter 和 Visual Studio Code 等 IDE。
一个值得注意的例子是 GitHub 上的 Hybrid-RAG 项目,它允许用户只需单击几下即可克隆项目并运行 RAG 应用程序。该项目可以利用本地 GPU 或云端点进行推理。
代理机构 RAG
Agentic RAG 项目集成了 AI 代理,将网络搜索工具调用纳入 RAG 管道,动态地在线搜索新文档,以更好地响应查询。该项目具有可自定义的 Gradio Chat 应用,可使用各种端点(包括云和自托管微服务)运行推理。
NIM 无处不在
NIM Anywhere 是另一个重要项目,其中包括预配置的 RAG 聊天机器人和 Docker 自动化,用于运行 NIM、Milvus 和 Redis 等服务。它还提供了一个可定制的前端,用于扩展项目和构建新的用例。
微调项目
该版本针对新模型引入了几种微调工作流程,包括:
- Mixtral 8x7B:演示如何微调混合专家 (MoE) 模型。
- Llama 3 8B:展示监督式完全微调和直接偏好优化(DPO)。
- Phi-3 Mini:由于其模型尺寸小且具有量化能力,因此是一个高度可访问的微调示例。
- RTX AI 工具包:为 Windows 应用程序开发人员提供端到端工作流程,支持从 NVIDIA RTX PC 到云端的各种 GPU。
其他新功能
根据用户反馈,最新的 AI Workbench 版本包括:
- SSH 代理: 为企业用户添加对受密码保护的 SSH 密钥的支持。
- Ubuntu 24.04: 扩展支持以包含最新的 Ubuntu 发行版。
- 记录: 在 AI Workbench CLI 中引入支持命令,将元数据和日志导出到 zip 文件中,以便更轻松地进行故障排除。
未来发展
展望未来,NVIDIA 计划在未来版本的 AI Workbench 中引入应用程序共享并简化多容器支持。这些功能旨在进一步增强协作并简化开发人员的复杂工作流程。
有关 AI Workbench 的更多详细信息以及如何开始使用,请访问 NVIDIA 官方技术博客。
图片来源:Shutterstock
(标签翻译)人工智能(t)加密(t)区块链(t)新闻
关键词:AI,crypto,blockchain,news