QCT 和 Supermicro 率先使用服务器规范支持 100 多种系统配置来加速 AI、HPC、Omniverse 工作负载
COMPUTEX—— 为满足全球数据中心多样化的加速计算需求,NVIDIA 今天发布了 NVIDIA MGX 服务器规范,该规范为系统制造商提供了模块化参考架构,可以快速且经济高效地构建 100 多种服务器变体,以适应广泛的需求人工智能、高性能计算和 Omniverse 应用程序的范围。
ASRock Rack、ASUS、GIGABYTE、Pegatron、QCT 和 Supermicro 将采用 MGX,可将开发成本削减多达四分之三,并将开发时间缩短三分之二至仅六个月。
NVIDIA GPU 产品副总裁 Kaustubh Sanghani 表示:“企业在构建满足其特定业务和应用需求的数据中心时,正在寻求更多加速计算选项。 “我们创建 MGX 是为了帮助组织引导企业 AI,同时为他们节省大量时间和金钱。”
借助 MGX,制造商从为服务器机箱加速计算优化的基本系统架构开始,然后选择他们的 GPU、DPU 和 CPU。 设计变体可以解决独特的工作负载,例如 HPC、数据科学、大型语言模型、边缘计算、图形和视频、企业 AI 以及设计和模拟。 AI 训练和 5G 等多项任务可以在一台机器上处理,而升级到未来几代硬件可以顺畅进行。 MGX 还可以轻松集成到云和企业数据中心。
与行业领导者合作
QCT 和 Supermicro 将首先推向市场,MGX 设计将于 8 月面世。 今天宣布的 Supermicro 的 ARS-221GL-NR 系统将包括 NVIDIA Grace CPU 超级芯片,而今天同样宣布的 QCT 的 S74G-2U 系统将使用 NVIDIA GH200 Grace Hopper 超级芯片 。
此外,SoftBank Corp. 计划在日本各地推出多个超大规模数据中心,并使用 MGX 在生成 AI 和 5G 应用程序之间动态分配 GPU 资源。
SoftBank Corp. 总裁兼首席执行官 Junichi Miyakawa 表示:“随着生成式 AI 渗透到企业和消费者的生活方式中,以合适的成本构建合适的基础设施是网络运营商面临的最大挑战之一。我们希望 NVIDIA MGX 能够应对这些挑战并允许多用途 AI、5G 等,具体取决于实时工作负载要求。”
针对不同需求的不同设计
数据中心越来越需要满足不断增长的计算能力和减少碳排放以应对气候变化的要求,同时还要降低成本。
NVIDIA 的加速计算服务器长期以来一直提供卓越的计算性能和能效。 现在,MGX 的模块化设计使系统制造商能够更有效地满足每个客户独特的预算、电力输送、热设计和机械要求。
多种外形提供最大的灵活性
MGX 适用于不同的外形规格,并与当前和未来几代 NVIDIA 硬件兼容,包括:
- 机箱:1U、2U、4U(风冷或液冷)
- GPU:完整的 NVIDIA GPU 产品组合,包括最新的 H100、L40、L4
- CPU:NVIDIA Grace CPU Superchip、GH200 Grace Hopper Superchip、x86 CPU
- 网络:NVIDIA BlueField -3 DPU,ConnectX -7 网络适配器
MGX 与 NVIDIA HGX 的不同之处在于,它提供与 NVIDIA 产品的灵活、多代兼容性,以确保系统构建者可以重复使用现有设计并轻松采用下一代产品,而无需进行昂贵的重新设计。 相比之下,HGX 基于 NVLink 连接的多 GPU 底板,专为扩展而定制,以创建终极的 AI 和 HPC 系统。
进一步推动加速的软件
除硬件外,MGX 还得到 NVIDIA 完整软件堆栈的支持,使开发人员和企业能够构建和加速 AI、HPC 和其他应用程序。 这包括 NVIDIA AI Enterprise ,它是 NVIDIA AI 平台的软件层,具有 100 多个框架、预训练模型和开发工具,可加速 AI 和数据科学,以全面支持企业 AI 开发和部署。
MGX 与开放计算项目和电子工业联盟服务器机架兼容,可快速集成到企业和云数据中心。
观看 NVIDIA 创始人兼首席执行官黄仁勋在 COMPUTEX 的主题演讲中讨论 MGX 服务器规范。
文章评论