NVIDIA NIM™ 是一套易于使用的预构建容器工具,可在任何 NVIDIA 加速基础设施 (云、数据中心、工作站和边缘设备) 上快速部署最新 AI 模型。
NVIDIA NIM 兼具托管 API 的易用性和操作简便性,以及与您首选基础设施上自托管模型的灵活性和安全性。NIM 提供 AI 团队所需的一切,包括最新 AI 基础模型、优化推理引擎、行业标准 API 和运行时依赖项,这些都预封在企业级软件容器中,可随时随地部署和扩展。
易于部署、可直接用于生产环境,且专为高性能 AI 而构建,旨在实现无缝协作和经济高效的扩展。借助最新的 AI 模型,您可以更快地构建 AI 智能体和其他企业级生成式 AI 应用程序,这些模型涵盖推理、仿真、语音等领域。
通过为最新 AI 模型预构建经优化的微服务,加速创新并缩短上市时间。借助标准 API,模型可在五分钟内完成部署并轻松集成到应用中。
部署 NVIDIA NIM,由 NVIDIA 通过严格的验证流程和专用功能分支持续管理,并由 NVIDIA 企业级支持提供支持,您还可以直接联系 NVIDIA AI 专家。
通过低延迟、高吞吐量、随云扩展的 AI 推理来降低 TCO,并通过支持开箱即用的微调模型实现极高的精度。
借助预构建云原生微服务在任何地方部署,这些微服务可在各类 NVIDIA 加速基础设施(云、数据中心和工作站)上运行,并在 Kubernetes 和云服务提供商环境中无缝扩展。
NVIDIA NIM 提供经过优化、开箱即用的吞吐量和延迟,可更大限度地提高 token 生成速度,为高峰期并发用户提供支持并改善响应能力。NIM 会使用经过优化的最新推理引擎不断更新,随着时间推移,同一基础设施的性能会不断提升。
配置:Llama 3.1 8B instruct,1 个 H100 SXM;并发请求:200。NIM 开启:FP8、吞吐量 1201 个 token/秒、ITL 32 毫秒。NIM 关闭:FP8,吞吐量 613 个 token/秒,ITL 37 毫秒。
部署 NVIDIA® TensorRT™-LLM、vLLM 或 SGLang 支持的大语言模型 (LLM),在 NVIDIA 加速的基础设施上实现低延迟、高吞吐量的推理。
专为随时随地运行而设计,NIM 微服务提供行业标准 API,可轻松与企业系统和各种应用集成,同时可在 Kubernetes 上无缝扩展,以云级规模提供高吞吐量、低延迟的推理服务。
只需一条命令,即可为您的模型部署 NIM。您还可以使用 NVIDIA TensorRT-LLM、vLLM 或 SGLang 支持的 LLM 轻松运行 NIM,包括微调模型。
借助最佳运行时引擎,在 NVIDIA 加速基础设施的基础上启动并运行 NIM。
仅使用几行代码即可集成自托管 NIM 端点。
了解 NVIDIA NIM 如何为行业用例提供支持,并通过精选示例快速启动 AI 开发。
利用生成式 AI 增强客户体验,改进业务流程。
使用生成式 AI 来加速和自动执行文档处理。
借助 AI 的强大功能提供量身定制的体验,提高客户满意度。
使用 OpenUSD 和生成式 AI 来开发 3D 产品配置器工具和体验,并将其部署到几乎所有设备。