倍道而进网

英伟达 GB300 NVL72 刷新 MLPerf 纪录:10 分钟训完 4050 亿 AI 参数模型

来源:倍道而进网-工人日报
2026-03-19 02:58:32

11 月 13 日消息,科技媒体 Wccftech 昨日(11 月 12 日)发布博文,报道称在 MLPerf AI 训练基准测试中,英伟达基于 Blackwell Ultra 架构的 GB300 NVL72 平台包揽了全部 7 个项目的冠军,取得了压倒性胜利。

援引博文介绍,本次测试中最亮眼的成绩是,GB300 NVL72 平台仅用时 10 分钟,便完成训练拥有 4050 亿参数的 Llama 3.1 大模型。

此外,在其他关键测试中也表现出色,例如仅需 0.4 分钟即可完成 Llama 2 70B 模型的 LoRA 微调,训练 Llama 3.1 8B 模型也只需 5.2 分钟。

与上一代产品相比,Blackwell Ultra 的性能实现了巨大飞跃。测试结果显示,在 Llama 2 70B 微调任务中,8 块 GB300 GPU 提供的性能是同等数量 H100 GPU 的 5 倍。

而在 Llama 3.1 405B 预训练任务中,GB300 的性能也达到了 H100 的 4 倍以上,并且比同为 Blackwell 架构的 GB200 快了近 2 倍。

该媒体指出这一性能突破的背后,是软硬件协同创新的结果。硬件方面,GB300 NVL72 系统集成了速率高达 800 GB/s 的 Quantum-X800 InfiniBand 高速网络,并为每块 GPU 配备了 279GB 的 HBM3e 高带宽内存,整个系统的总内存容量(GPU+CPU)更是达到了惊人的 40TB。

在软件层面,FP4 精度的全面采用是关键。英伟达通过在模型训练的每一层都应用 FP4 精度,将计算速度提升至 FP8 的两倍,而 Blackwell Ultra 架构则将这一优势进一步放大至 3 倍。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

责任编辑:倍道而进网

媒体矩阵


  • 客户端

  • 微信号

  • 微博号

  • 抖音号

客户端

亿万职工的网上家园

马上体验

关于我们|版权声明| 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2024 by {当前域名}. all rights reserved

扫码关注

倍道而进网微信


倍道而进网微博


倍道而进网抖音


工人日报
客户端
×
分享到微信朋友圈×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。