字节笔记本

2026年2月22日

NVIDIA DGX Cloud Lepton:统一的 AI 开发与部署平台

NVIDIA DGX Cloud Lepton 是一个统一的 AI 平台,旨在将全球 GPU 计算资源整合在一起,让开发者能够在不考虑基础设施的情况下构建、训练和部署 AI 模型。该平台专为 AI 原生开发者、模型构建者和快速迭代的团队设计,将各种计算环境整合到一个一致的开发、训练和推理体验中。

什么是 NVIDIA DGX Cloud Lepton

DGX Cloud Lepton 将 AI 计算资源整合在一起,为开发、训练和推理提供统一的体验。该平台包含集成的工具,可以简化从原型到生产的路径,而无需管理底层基础设施的复杂性。

DGX Cloud Lepton 汇集了全球 NVIDIA 云合作伙伴(NCPs)、GPU 市场、云服务提供商和本地环境的网络,在一个开发者友好的平台上简化 AI 工作负载的发现、开发和部署。

核心特性

跨任何 GPU 云的无摩擦部署

将 AI PaaS 平台与底层基础设施解耦,以最少的运营负担在多云环境中部署 AI 应用程序,利用集成服务进行推理、测试和训练工作负载。

在数据所在位置运行

从特定区域引入计算资源,实现数据主权法规的合规性,并满足敏感工作负载的低延迟要求。

无与伦比的灵活性和生产力

通过在开发、训练和推理之间提供统一的体验来提高生产力,包括引入最适合的 GPU 到 Cloud Lepton 的能力。

生态系统合作伙伴

DGX Cloud Lepton 与众多云提供商合作,让开发者可以从自己选择的区域访问 NVIDIA 加速计算:

  • Andromeda
  • AWS
  • Coreweave
  • Crusoe
  • Firebird
  • Firmus
  • Fluidstack
  • Foundry
  • Foxconn
  • GMI Cloud
  • Hugging Face
  • Hydra Host
  • Lambda
  • Mistral AI
  • Nebius
  • Nscale
  • Scaleway
  • San Francisco Compute Company
  • Together AI
  • Yotta

快速开始

开发者可以通过以下方式开始使用 DGX Cloud Lepton:

  1. 访问 build.nvidia.com - 立即获得 NVIDIA 加速 API 的访问权限,包括无服务器端点、预构建的 NVIDIA NIM 微服务和 GPU 支持的计算
  2. 阅读解决方案简介 - 深入了解平台架构和功能
  3. 查看技术文档 - 访问 docs.nvidia.com/dgx-cloud/lepton/guides/ 获取详细的技术指南

遗留 Lepton 访问

现有 Lepton 遗留客户可以使用现有凭证访问仪表板:

相关资源

分享: