← 返回 AI 热点新闻 NVIDIA 发布 Blackwell B200 GPU 与 GB200 平台
访问首页
⚡ 算力发布 发布日期:2024-12-05 来源:NVIDIA GTC Keynote

NVIDIA 在 2024 年秋季 GTC 大会上正式发布 Blackwell B200 GPU 及 GB200 NVL72 超级计算平台。新一代架构在推理性能上较 Hopper 提升最高 5 倍,同时引入全新的推理微服务栈,帮助企业以更低能耗运行百亿级以上参数的生成式 AI 模型。

核心指标

  • · 单卡提供 2080 TOPS INT4、192GB HBM3e 与 8 TB/s 内存带宽。
  • · 第六代 NVLink 互联带宽翻倍,可在 72 张卡间实现统一内存编址。
  • · 新增推理引擎可自动量化至 FP4,保证 LLM 推理精度。

平台亮点

  • · GB200 NVL72 集成 Grace CPU 与 72 张 B200 GPU,面向企业私有云部署。
  • · 与 NVIDIA NIM 微服务深度整合,提供模型托管、向量检索与安全防护。
  • · 支持多区域集群管理,兼容云端与本地混合部署策略。

NVIDIA 同步更新 DGX Cloud 与 AI Enterprise 软件栈,推出针对 Blackwell 的容量规划、成本评估与能耗监控工具。企业可以通过 NIM API 将自有模型快速迁移至 Blackwell 平台,并使用新的密钥管理模块保障跨团队访问控制。

对企业 AI 战略的启示

建议的下一步

成立跨部门评估小组,在 PoC 阶段基于 NIM 微服务部署主力模型,并通过混合云测试多区域同步性能,验证对关键业务指标的提升。

原文与延伸阅读