写点什么

AI 网关对决:Higress 与 OneAPI 的功能对比

作者:Se7en
  • 2025-02-13
    上海
  • 本文字数:1612 字

    阅读完需:约 5 分钟

AI 网关对决:Higress 与 OneAPI 的功能对比

什么是 AI 网关?

AI 网关旨在统一管理与各种大型语言模型(LLMs)的交互。通过提供单一入口点,它解决了使用来自不同供应商的多个 AI 模型所带来的复杂性问题。这不仅简化了访问流程,提高了系统稳定性,还降低了成本,并灵活地利用了不同模型的优势。

什么是 OneAPI?

OneAPI 是一个开源的 LLM API 管理 & 分发系统,可以帮助统一管理和转发各类大语言模型(如 DeepSeek 等)的 API 请求。它提供了一个兼容 OpenAI API 格式的统一接口,让用户能够方便地切换和管理不同的 AI 模型服务,同时支持令牌管理、负载均衡等功能。

什么是 Higress?

Higress 是一款云原生 API 网关,内核基于 Istio 和 Envoy,可以用 Go/Rust/JS 等编写 Wasm 插件,提供了数十个现成的通用插件。Higress 在阿里内部为解决 Tengine reload 对长连接业务有损,以及 gRPC/Dubbo 负载均衡能力不足而诞生。阿里云基于 Higress 构建了云原生 API 网关产品,为大量企业客户提供 99.99% 的网关高可用保障服务能力。


Higress 同时也能够作为 AI 网关,通过统一的协议对接国内外所有 LLM 模型厂商,同时具备丰富的 AI 可观测、多模型负载均衡/fallback、AI token 流控、AI 缓存等能力。


Higress 和 OneAPI 的对比

下面的表格从多个维度对比了 OneAPI 和 Higress 之前的差异:


Higress 作为 AI 网关的优势

Higress 作为 AI 网关,具备以下几大优势:


  • 统一管理与灵活扩展:Higress 提供一个集中的入口,能够统一管理多个大型语言模型(LLMs),简化了与不同供应商模型的接入和配置,支持灵活扩展,方便在需求变化时加入新的模型。

  • 高可用性与稳定性:Higress 通过自动故障转移机制,确保当某个 AI 模型服务不可用时,能够快速切换到备选模型,保持系统的高可用性和稳定性,极大减少了服务中断的风险。

  • AI 缓存:Higress 支持将 AI 模型的结果缓存在 Elasticsearch、Redis、Weaviate 等数据库中。这样不仅可以在后续处理相似问题的请求时快速返回结果,还能减少 LLM 调用的费用开销。

  • 意图识别:Higress 能根据用户需求智能地选择最合适的 LLM,从而在不同场景下提供最佳响应。

  • API Key 治理:支持配置 API Key 池实现多 Key 均衡,API Key 被限流等不可用情况会自动屏蔽,并在可用时自动恢复。

  • 消费者管理:可以通过创建消费者,实现 API Key 的二次分租,无需将真正的供应商 API Key 暴露给调用方,并且可以精细化管理不同消费者的调用权限和调用额度。

  • 强大的可观测性:Higress 提供关于模型性能、令牌使用情况及安全相关指标的详细洞察,帮助团队全面监控系统健康状况。

  • 云原生集成:与阿里云服务紧密集成,Higress 提供了托管的云原生 API 网关选项,简化了云环境中的部署与管理。

  • 内容安全:Higress 集成了阿里云内容安全技术,为 AI 内容提供强大的安全保障。

快速体验 Higress AI 网关

Higress AI 网关支持一行命令安装:


curl -sS https://higress.cn/ai-gateway/install.sh | bash
复制代码


执行完命令后可以通过命令行初始化配置,可以看到,Higress 的 AI 网关能力支持对接国内外所有主流 LLM 模型供应商:



也可以选择跳过这个步骤,到 Higress 的控制台进行配置对应供应商的 API Key:



配置后,就可以直接使用了,例如使用 OpenAI 的 SDK:


import jsonfrom openai import OpenAI
client = OpenAI( api_key=xxxxx, # 👉 可以通过 Higress 生成消费者 Key 实现 API Key 的二次分租 base_url="http://127.0.0.1:8080/v1")
completion = client.chat.completions.create( model="deepseek-chat", # 👉 可以填写任意模型名称,Higress 会根据模型名称路由到对应的 LLM 供应商 messages=[ {"role": "user", "content": "你好"} ], stream=True)
for chunk in completion: print(chunk.choices[0].delta)
复制代码


可以在监控面板看到每个模型,以及每个消费者的 token 消耗情况以及调用延时:


参考链接

  • Higress:https://github.com/alibaba/higress

  • OneAPI:https://github.com/songquanpeng/one-api

用户头像

Se7en

关注

还未添加个人签名 2020-01-10 加入

喜欢钻研技术,熟悉 Elasticsearch、Kubernetes 。

评论

发布
暂无评论
AI 网关对决:Higress 与 OneAPI 的功能对比_Se7en_InfoQ写作社区