写点什么

F5 携手 NVIDIA 全面增强 AI 时代的性能、多租户与安全能力

作者:科技热闻
  • 2025-07-09
    浙江
  • 本文字数:2210 字

    阅读完需:约 7 分钟

Sesterce 的验证成果彰显了 F5 与 NVIDIA 的协同创新实力,助力客户释放 AI 优先的应用交付价值

巴黎,2025 年 7 月 9 日 – 全球领先的应用交付和 API 安全解决方案提供商 F5(NASDAQ:FFIV),日前宣布 F5 BIG-IP Next for Kubernetes 推出全新功能。该解决方案深度整合 NVIDIA BlueField-3 DPU 以及 NVIDIA DOCA 软件框架,并已通过欧洲客户 Sesterce 的实际部署验证。Sesterce 是欧洲领先的新一代基础设施及主权人工智能(AI)运营商,致力于满足加速计算与 AI 发展的严苛需求。

作为对 F5 应用交付与安全平台(F5 Application Delivery and Security Platform)的进一步扩展,BIG-IP Next for Kubernetes 现可原生运行于 NVIDIA BlueField-3 DPU,为大规模 AI 基础设施提供高性能流量管理与安全防护,从而显著提升 AI 应用的运行效率、控制能力与性能表现。今年早些时候,F5 曾在该解决方案正式发布时公开普遍可用性并展示其卓越性能优势。如今,Sesterce 已完成对该联合解决方案多项关键能力的验证,涵盖以下领域:

●性能、多租户能力与安全性全面增强:达到云级应用交付标准,初步测试显示 GPU 利用率提升达 20%;

●集成 NVIDIA Dynamo 及 KV Cache Manager:显著降低大语言模型(LLM)推理系统延迟,并优化 GPU 与内存资源利用率;

●基于 BlueField DPU 的 LLM 智能路由:与 NVIDIA NIM 微服务协同运行,支持多模型工作负载,帮助客户灵活调用最优模型;

●模型上下文协议(MCP)扩展与安全防护:通过反向代理功能与安全防护机制,提升 LLM 的可扩展性与安全性,助力客户快速、安全地利用 MCP 服务器的强大效能;

●强大的数据可编程能力:依托 F5 iRules 实现快速定制化开发,以满足 AI 应用及日益演进的安全需求。

Sesterce 首席执行官兼联合创始人 Youssef El Manssouri 表示,“早在尚未进行任何测试前,F5 与 NVIDIA 的集成方案就展现出令人瞩目的潜力。通过在 AI 环境中实现高吞吐量的 Kubernetes 入口与出口流量,我们的测试结果印证了 F5 动态负载均衡技术的卓越优势。该解决方案不仅提升了流量分发效率,优化了 GPU 资源利用率,同时也使我们能够为客户提供更多差异化价值。我们很高兴地看到 F5 正不断拓展对 NVIDIA 多样化应用场景的支持,包括增强型多租户功能。我们期待双方在下一代 AI 基础设施领域持续深化合作,推动更多技术创新。”

全新解决方案的核心能力价值包括:

●基于 BIG-IP Next for Kubernetes 的大语言模型路由与动态负载均衡

借助该联合解决方案,企业可将简单的 AI 相关任务路由至成本更低、更轻量级的 LLM 以支持生成式 AI,同时将更复杂的查询留给性能更强大的高阶模型处理。该可定制化的智能路由机制还支持按领域调用特定 LLM,从而提升输出质量并显著改善客户体验。F5 的先进流量管理技术可确保查询精准分发至最适合的模型节点,从而降低延迟并加快首个词元生成时间。

F5 首席创新官 Kunal Anand 表示,“当前,企业日益采用多模型架构以打造先进的 AI 体验,但 LLM 流量智能分类与路由计算资源消耗大,易导致系统性能下降并影响用户体验。F5 BIG-IP Next for Kubernetes 通过在 NVIDIA BlueField-3 DPU 上直接编写路由逻辑,提供了业界当前最高效的 LLM 流量交付与安全解决方案。这仅仅是一个开始——我们的平台正在为 AI 基础设施释放更多潜能。随着企业级 AI 规模持续扩大,我们期待未来持续深化与 NVIDIA 的联合创新。”

●通过 NVIDIA Dynamo 与 KV 缓存集成实现分布式 AI 推理的 GPU 优化

今年早些时候,NVIDIA 推出 Dynamo 框架,旨在为生成式 AI 与推理模型在大规模分布式环境中的部署提供支撑。通过统一调度、流量路由和内存管理等核心任务,NVIDIA Dynamo 有效简化了分布式环境中 AI 推理的复杂性,确保其在动态工作负载下的稳定运行。F5 与 NVIDIA 的联合解决方案的核心优势之一,是将部分计算操作从 CPU 卸载至 BlueField DPU,从而显著提升整体效率。借助 F5 技术,Dynamo KV Cache Manager 可基于容量智能路由请求,并通过键值(KV)缓存机制,显著加速生成式 AI 应用的响应速度。该机制通过复用历史运算信息,避免重复计算,显著降低资源开销。就基础架构而言,企业通过 KV 缓存存储与复用机制,相比直接占用 GPU 昂贵的内存资源,能以更低成本实现性能优化。

NVIDIA AI 网络与安全解决方案生态系统及市场营销高级总监 Ash Bhalgat 表示,“采用 NVIDIA BlueField-3 DPU 加速的 BIG-IP Next for Kubernetes,为企业与服务提供商提供了单点控制,助力 AI 工厂实现高效 GPU 利用率,并加速数据摄取、模型训练、推理、检索增强生成(RAG)及代理式 AI 等各类 AI 流量处理。此外,F5 对多租户的支持以及 iRules 可编程性方面的持续优化,为未来进一步集成 NVIDIA Dynamo 分布式 KV Cache Manager 等先进特性打下了坚实基础。”

●F5 与 NVIDIA 联合强化 MCP 服务器安全防护能力

MCP 是由 Anthropic 推出的一项开放协议,旨在标准化应用向 LLM 提供上下文信息的方式。通过在 MCP 服务器前端部署 F5 与 NVIDIA 联合解决方案,F5 可充当反向代理,从而增强 MCP 解决方案及其所支持 LLM 的安全能力。同时,F5 iRules 提供的全数据可编程能力,能够快速并灵活地响应 AI 协议的快速演进需求,并进一步抵御新兴网络安全风险。

World Wide Technology 全球服务提供商高级副总裁 Greg Schoeny 表示,“实施代理式 AI 的企业日益依赖 MCP 部署来提升 LLM 的安全性与性能。F5 与 NVIDIA 通过为大规模 Kubernetes 环境提供先进的流量管理与安全防护能力,打造了融合可编程性与自动化能力的 AI 功能集,这一集成解决方案目前在业界尚无先例。”

基于 NVIDIA BlueField-3 DPU 平台部署的 F5 BIG-IP Next for Kubernetes 现已全面上市。

如需了解更多技术细节与部署优势,请访问www.f5.com,更多详细信息亦可参阅 F5 发布的配套技术博客

用户头像

科技热闻

关注

还未添加个人签名 2021-05-31 加入

还未添加个人简介

评论

发布
暂无评论
F5携手NVIDIA全面增强AI时代的性能、多租户与安全能力_科技热闻_InfoQ写作社区