3 节点集群带宽突破 513GB/s,焱融存储再度登顶 MLPerf Storage 全球榜单
2025 年 8 月 4 日,全球最具权威的 AI 性能基准评测组织 MLCommons® 正式发布最新一轮 MLPerf® Storage v2.0 基准测试结果。焱融科技续写精彩:去年首战 MLPerf v1.0 测试,便以出色成绩从全球知名存储厂商中强势突围;本次 v2.0 测试,再次刷新全球纪录 —— 焱融全闪存储一体机 F9000X 在全部模型测试中性能领先,尤其是在 3D-Unet 模型测试中,三节点存储集群实现了高达 513 GB/s 的总带宽。这一成绩再次证明了焱融存储的高带宽、低延迟表现,以及其应对高强度 AI/ML 工作负载的卓越能力。

MLPerf Storage:AI 存储性能的黄金衡量标准
MLCommons 作为全球人工智能工程联盟,始终致力于规范 AI 技术的准确性、安全性、速度与效率评估,推动 AI 系统性能优化,其权威性得到全球业界广泛认可。而 MLPerf Storage Benchmark 作为该联盟专为 AI 场景打造的存储基准测试,通过模拟真实 AI 训练中的 I/O 操作,精准衡量存储系统向 GPU 输送训练数据的速度与能力。
此次发布的 MLPerf Storage v2.0,在 v1.0 基础上进一步升级:除保留 3D-Unet、ResNet50、CosmoFlow 三大训练模型外,新增 Checkpoint 工作负载,更全面覆盖训练中断点恢复、模型存档等实际场景。为确保结果的严谨性与公正性,v2.0 要求每项基准测试必须多次重复执行(训练任务 5 次、Checkpoint 任务 10 次),且全程连续运行无失败,同步提交完整测试日志,最终结果取多次运行的平均值 —— 这一系列严格规范,使其成为业界衡量 AI 存储性能时最具参考价值的权威标准。
焱融全闪刷新全球纪录 最小规模集群性能第一
焱融科技参与本次 MLPerf 存储基准测试使用的是公司旗舰全闪产品 —— F9000X 分布式全闪存储一体机。该产品基于焱融自研的高性能分布式文件系统 YRCloudFile,专为 AI 训练与推理、高性能计算等高性能场景打造。在本次基准测试中,通过新华三 x86 架构高性能服务器构建焱融全闪 F9000X 存储集群,其中每个存储节点搭载英特尔® 至强® 第 5 代可扩展处理器,存储介质采用国产 PCIe 5.0 NVMe 闪存(包括忆恒创源和大普微),同时配备 4 块 NVIDIA ConnectX-7 400Gbps InfiniBand 网卡。测试环境网络拓扑图如下所示:

环境配置拓扑图
MLPerf Storage 基准测试通过严谨的规则设计,全面衡量存储系统在 AI 训练场景下的真实能力:既支持单个计算节点(客户端)运行多个 ACC(GPU 加速器)的模型测试,也适配分布式训练集群场景 —— 通过多客户端模拟真实数据并行访问存储集群,充分覆盖从单节点到分布式集群的全场景 AI 工作负载。
该基准测试最关键的衡量标准,是在保证高性能 GPU 利用率(3D-Unet 与 ResNet50 模型下为 90%,CosmoFlow 模型下为 70%)的前提下,存储系统所能实现的聚合带宽。这项指标是衡量存储系统实际能力的核心,直接体现其在 AI 训练过程中是否能够充分“喂饱”计算资源,避免造成 GPU 空闲浪费。
MLPerf v2.0 存储基准测试结果显示,在 3D-Unet、ResNet50 以及 CosmoFlow 所有模型的测试场景下,于通用硬件环境中,针对分布式存储的最小规模集群,即三节点存储集群,焱融全闪 F9000X 在全球知名分布式存储厂商参与的测试里,展现出领先性能表现:在集群总带宽等关键指标上,位列全球第一。尤其是在 3D-Unet 模型测试中,集群带宽达到 513 GB/s ,为迄今已公布结果中的最高值。

数据来源:MLComons 官方 https://mlcommons.org/benchmarks/storage/
在三个模型的单客户端场景测试中,焱融全闪存储一体机 F9000X 同样展现出优异性能,进一步验证了其在不同部署规模下的强劲数据处理能力。

此外,在 MLPerf Storage v2.0 新增的 Checkpoint 工作负载测试中,焱融存储同样展现出强劲实力。针对 Llama3-70B 模型测试场景,通过部署 8 个客户端模拟并发请求、搭配 64 个模拟 GPU 环境,实测达成 221 GB/s 读取带宽与 79 GB/s 写入带宽的高性能表现。
这种稳定且高效的带宽支撑能力,可精准保障 Checkpoint 文件在模型训练全流程中实现秒级极速读写,从底层存储层面为 AI 训练任务的断点续训连续性与模型训练稳定性筑牢技术根基,助力企业从容应对大规模模型训练的严苛存储需求。
焱融存储 MLPerf 测试表现背后的技术积淀与展望
焱融存储之所以能在 MLPerf 存储基准测试中持续取得优异成绩,核心在于其长期深耕 AI 大模型训练与推理等核心场景的技术积累:一方面,通过长期深耕大模型训练与推理等核心场景,深度理解 AI 工作负载特性;另一方面,从架构设计到软硬件全技术栈,持续推进系统性创新与优化,构建起应对高性能负载的核心能力。
与此同时,焱融也与 NVIDIA、Intel、新华三(H3C)、忆恒创源(Memblaze)、大普微(DapuStor)等上下游生态伙伴展开深度协同,在网络、芯片、服务器、SSD 等关键环节紧密合作,实现软硬件的深度适配与极致优化,有效保障系统在 AI 基础设施全链路中的高效稳定运行。具体来看,焱融全闪存储基于自研高性能分布式文件系统 YRCloudFile,通过多项关键技术实现性能突破:
采用自研 Multi-Channel 网络带宽聚合技术,可整合多张 InfiniBand/RoCE 网卡性能,在大 IO 场景下充分释放硬件潜力,支撑超高速数据传输;
系统具备负载感知能力,可根据压力智能切换中断与轮询模式,有效提升 IOPS 性能;
在 IO 模型层面,通过异步非阻塞设计减少上下文切换、增强并行处理能力,并通过处理器核心资源的高效分配,降低线程调度开销,支撑高并发数据处理的同时,充分发挥 NVMe SSD 的性能优势;
针对大规模 GPU 集群易出现的网络拥塞问题,专项优化传输机制,保障数据传输的高效与稳定。
随着 AI 大模型的快速演进,底层存算与数据支撑架构面临的挑战持续升级。此次在 MLPerf® Storage v2.0 中的表现,既是对焱融存储技术实力的再次验证,也折射出其在推动 AI 存储领域进步过程中的持续探索。作为专注于 AI 存储的厂商,焱融科技将继续以技术创新为核心驱动力,围绕高性能、高可靠、高扩展的分布式文件系统,打造面向未来的 AI 存储底座,为千行百业的智能化转型提供坚实的数据支撑。
引用链接:
[1] MLPerf Storage Benchmark Suite Results: https://mlcommons.org/benchmarks/storage/
[2] MLPerf Storage rules: https://github.com/mlcommons/storage/blob/main/Submission_guidelines.md
评论