扎克·安德森
2024 年 10 月 2 日 19:53
Brave 浏览器用户现在可以通过 RTX 加速的 Leo AI 和 Ollama 的集成体验增强的 AI 交互,提供本地处理以提高隐私和效率。
据 NVIDIA 博客称,以注重隐私而闻名的 Brave 浏览器推出了强大的 AI 助手 Leo AI,该助手通过与 Ollama 合作,通过 RTX 加速的本地大语言模型 (LLM) 进行了增强。这种集成旨在通过提供高效、本地处理的人工智能功能来改善用户体验。
通过 RTX 加速增强 AI 体验
Brave 的 Leo AI 由 NVIDIA RTX 技术提供支持,使用户能够直接在浏览器中总结文章、提取见解并回答问题。这是通过使用 NVIDIA Tensor Core 来实现的,该核心旨在通过同时处理大量计算来处理 AI 应用程序。与 Ollama 的合作使 Brave 能够利用开源 llama.cpp 库,该库有助于专门针对 NVIDIA RTX GPU 优化的 AI 推理任务。
本地AI处理的优势
在 PC 上本地运行人工智能模型可提供显着的隐私优势,因为它无需将数据发送到外部服务器。这种本地处理方法可确保用户数据保持私密且可访问,而无需云服务。此外,它允许用户与各种专用模型交互,例如双语或代码生成模型,而无需支付云服务费用。
技术集成和性能
Brave 与 Ollama 和 RTX 技术的集成提供了响应式 AI 体验,Llama 3 8B 模型的处理速度高达每秒 149 个令牌。此设置可确保快速响应用户查询和内容请求,从而增强 Leo AI 的整体浏览体验。
Leo AI 和 Ollama 入门
有兴趣利用这些先进人工智能功能的用户可以从其官方网站轻松安装 Ollama。安装后,Brave 的 Leo AI 可以通过 Ollama 配置为使用本地模型,从而根据需要在云和本地模型之间灵活切换。开发人员可以通过 NVIDIA 提供的资源探索有关使用 Ollama 和 llama.cpp 的更多信息。
图片来源:Shutterstock
关键词:人工智能,加密,区块链,新闻