字
字节笔记本
2026年2月22日
NVIDIA DGX Cloud Lepton:统一的 AI 开发与部署平台
NVIDIA DGX Cloud Lepton 是一个统一的 AI 平台,旨在将全球 GPU 计算资源整合在一起,让开发者能够在不考虑基础设施的情况下构建、训练和部署 AI 模型。该平台专为 AI 原生开发者、模型构建者和快速迭代的团队设计,将各种计算环境整合到一个一致的开发、训练和推理体验中。
什么是 NVIDIA DGX Cloud Lepton
DGX Cloud Lepton 将 AI 计算资源整合在一起,为开发、训练和推理提供统一的体验。该平台包含集成的工具,可以简化从原型到生产的路径,而无需管理底层基础设施的复杂性。
DGX Cloud Lepton 汇集了全球 NVIDIA 云合作伙伴(NCPs)、GPU 市场、云服务提供商和本地环境的网络,在一个开发者友好的平台上简化 AI 工作负载的发现、开发和部署。
核心特性
跨任何 GPU 云的无摩擦部署
将 AI PaaS 平台与底层基础设施解耦,以最少的运营负担在多云环境中部署 AI 应用程序,利用集成服务进行推理、测试和训练工作负载。
在数据所在位置运行
从特定区域引入计算资源,实现数据主权法规的合规性,并满足敏感工作负载的低延迟要求。
无与伦比的灵活性和生产力
通过在开发、训练和推理之间提供统一的体验来提高生产力,包括引入最适合的 GPU 到 Cloud Lepton 的能力。
生态系统合作伙伴
DGX Cloud Lepton 与众多云提供商合作,让开发者可以从自己选择的区域访问 NVIDIA 加速计算:
- Andromeda
- AWS
- Coreweave
- Crusoe
- Firebird
- Firmus
- Fluidstack
- Foundry
- Foxconn
- GMI Cloud
- Hugging Face
- Hydra Host
- Lambda
- Mistral AI
- Nebius
- Nscale
- Scaleway
- San Francisco Compute Company
- Together AI
- Yotta
快速开始
开发者可以通过以下方式开始使用 DGX Cloud Lepton:
- 访问 build.nvidia.com - 立即获得 NVIDIA 加速 API 的访问权限,包括无服务器端点、预构建的 NVIDIA NIM 微服务和 GPU 支持的计算
- 阅读解决方案简介 - 深入了解平台架构和功能
- 查看技术文档 - 访问 docs.nvidia.com/dgx-cloud/lepton/guides/ 获取详细的技术指南
遗留 Lepton 访问
现有 Lepton 遗留客户可以使用现有凭证访问仪表板:
相关资源
分享: