写点什么

《重塑 AI 应用架构》系列: Serverless 与 MCP 融合创新,构建 AI 应用全新智能中枢

  • 2025-04-24
    广东
  • 本文字数:2687 字

    阅读完需:约 9 分钟

《重塑AI应用架构》系列: Serverless与MCP融合创新,构建AI应用全新智能中枢

 本文分享自华为云社区《重塑AI应用架构》系列: Serverless与MCP融合创新,构建AI应用全新智能中枢

作者:华为云 PaaS 服务小智

在人工智能飞速发展的今天,数据孤岛和工具碎片化问题一直是阻碍 AI 应用高效发展的两大难题。由于缺乏统一的标准,AI 应用难以无缝地获取和充分利用数据价值。

为了解决这些问题,2024 年 AI 领域提出了 MCP(Model Context Protocol 模型上下文协议),这一标准化接口协议旨在打破 AI 模型与外部资源之间的壁垒。就像 USB-C 接口一样,为 AI 模型/应用与各种数据源和工具之间提供了一种通用的“即插即用”连接方式,让 AI 模型与外部工具与数据源之间安全双向连接,大大提高了 AI 开发的效率和灵活性。



随着 MCP 作为 AI 连接数据和工具的统一标准逐渐普及,也标志着 AI 应用从“静态推理”向“动态执行”的转型,AI 应用的全新架构也面临着灵活性、性能与安全等诸多挑战。

华为云 AI 原生应用运行平台+MCP,重塑 AI 应用架构新范式

为更好的适应全新 AI 应用架构,华为云推出 AI 原生应用运行平台+MCP 产品组合方案,基于 MCP 整合 Serverless 及一系列平台关键组件,为开发者提供高效、灵活、可靠的 AI 应用开发与部署方案,实现大模型与外部数据源的“即插即用”安全连接,助力开发者快速构建灵活扩展、安全可信的 AI 应用,实现 AI 应用的商业化。



华为云 AI 原生应用运行平台+MCP 产品组合方案

AI 应用架构新范式解析

  • 用户请求:用户向 AI 应用发起请求时,请求流量首先进入流量+ AI 网关(APIG)。APIG 作为应用的入口,维护管理所有 AI Agent、MCP Server 和 LLM 的路由规则,确保每个请求都能快速、准确地找到处理路径,同时支持流式响应,为用户带来更流畅的交互体验。

  • Agent 托管:开发者可通过多种方式自建 Agent,CAE 为 Agent 提供了理想的 Serverless 应用环境,根据负载自动实现资源的动态分配,确保 Agent 始终处于最佳运行状态。

  • 访问 MCP Server 获取外部数据:MCP Server 这类事件驱动型业务尤其适合部署在 Serverless 函数(FunctionGraph)上,通过 Python/Go 等语言快速构建 MCP Server,实现毫秒级弹性扩缩容。

  • 现存业务接入:可经由 MCP 注册/配置中心(CSE)的帮助注册到 Nacos 上并实现自动注册发现,MCP 网关可以将 API 转换成 MCP Server,实现应用的平滑升级。

  • 通过应用中心模板快速部署 Agent/MCP Server:应用中心汇聚丰富的 Agent/MCP 应用模板,开发者只需一键操作即可部署,实现开箱即用。华为云也会将中间件(DCS、DMS、EventGrid)等服务能力以预置 MCP Server 的方式上架到应用中心。

  • 异步推理:在多模态或长周期任务执行场景下,Agent 往往采用异步推理的方式与 LLM 进行交互,消息队列不仅能够起为大模型起到削峰填谷的作用,而且支持主动推送方式提升 LLM 响应的实时性。

Serverless 与 MCP 融合创新,构建 AI 应用全新智能中枢

从上面的整体方案我们可以看到 MCP Server 无疑是整个 AI 应用架构新范式的智能中枢,如何就保障 MCP Server 安全可靠运行与弹性高效扩展显得至关重要。

传统本地搭建 MCP Server 存在挑战:

  • 在传统的 MCP Server 部署模式下,资源静态分配问题尤为突出。企业在搭建 MCP Server 时,需要提前预估流量峰值,以确定所需的资源,但由于业务的不确定性,预估流量往往与实际流量存在较大偏差,导致资源的浪费或性能瓶颈。在业务淡季,大量的服务器资源处于闲置状态,造成了成本的浪费,而在业务高峰期,由于资源不足,MCP Server 可能会出现卡顿甚至崩溃,影响用户体验。

  • 开发成本高。从底层的资源搭建到上层的 MCP 逻辑实现,都需要投入大量的人力和时间,仅开发部分工作量就需要几天时间,且还不包括后续的测试和部署工作。开发者还需要重复实现鉴权、日志等通用功能,进一步增加了开发的复杂性和成本。

  • 安全风险同样不容忽视。在传统的常驻服务模式下,服务进程会一直运行,这就可能导致上下文残留,增加了数据泄露的风险,一旦服务器被攻击,攻击者就有可能获取到残留的上下文信息,从而窃取敏感数据,给企业带来巨大的损失。

Serverless 函数:MCP Server 托管的最优解决方案

Serverless 函数计算作为云上 Serverless 算力的典型代表,在资源弹性、开发效率、安全性等方面具备显著优势,可以为 MCP Server 的托管提供灵活、高效、可靠的运行时环境,直击传统搭建 MCP Server 的核心痛点。

  • 资源智能弹性调度,Serverless 函数计算能够根据实际流量自动调整资源配置。根据函数的负载情况,通过自动化、智能化的资源扩缩容弹性机制,自动完成函数规格的调整,毫秒级弹性轻松应对突发流量冲击,确保服务的稳定运行。而在流量较低时,空闲函数会自动休眠,成本趋近于零,大大降低了企业的运营成本。

  • 极简开发部署与运维。应用中心提供了预置的 MCP 应用模板,如 server-github 等,开发者只需进行简单的配置,即可在 30 秒内完成 MCP Server 部署。Serverless 函数计算还具备免运维的特性,自动处理日志、监控、扩缩容等,让开发者能够专注于业务逻辑开发,大幅度提高了开发效率和质量。

  • 运行安全保障。业务每个请求都在独立的沙箱环境中执行,执行后自动销毁实例,有效防止了上下文残留带来的数据泄露风险。同时支持细粒度权限控制,根据最小化原则授权,只赋予每个请求所需的最小权限,降低了权限滥用的风险。支持临时 Token 认证,进一步增强了认证的安全性和灵活性。

Serverless 与 MCP 结合实践场景演示

传统大语言模型,就像一个有大脑会思考、有嘴巴会讲话的机器人,它可以解答我们各种问题,教我们如何完成一件事,但是它没有手和脚,不能直接去完成各种事情,现如今各种各样的 MCP Server 就如同大模型的手和脚,让其具备了这样的能力。这里我们以 MCP 官方提供的 Everything MCP Server 来演示如何让大模型通过调用 MCP 工具获取环境中的环境变量。

以大模型 DeepSeek V3 演示具体的工具调用,当我们没有启用 MCP 时,向大模型提问可以看到他只能告诉我们如何完成这件事,而不能亲自去做。



而当我们启用 MCP 后,可以看到大模型调用了 printEnv 工具并正确获取到了所有环境变量。



MCP 与 Serverless 的创新融合,正在重塑着 AI 应用架构的未来格局,将为 AI 应用带来更高的灵活性、安全性和效率,为企业和开发者提供更便捷、高效的开发方式,赋能加速 AI 应用的创新和落地。

紧跟智能化时代 AI 技术的飞速发展,华为云 AI 原生应用运行平台+MCP 整体产品组合方案,未来还可以与智能化研发、AI Agent 开发、AIOps 应用可观测、应用韧性评估体系等能力相结合,在生态方面和鸿蒙开发者平台、华为云开发者空间相结合。实现“开发-运行-运维”全链路的 AI 应用新范式,为 AI 原生应用提供一站式极简的构建能力,让开发者能够更专注于业务创新,推动 AI 应用的快速发展和广泛应用。

后续我们将持续推出核心产品组件与 MCP 结合的系列应用场景与方案,产品能力也将逐步上线,欢迎持续关注

用户头像

提供全面深入的云计算技术干货 2020-07-14 加入

生于云,长于云,让开发者成为决定性力量

评论

发布
暂无评论
《重塑AI应用架构》系列: Serverless与MCP融合创新,构建AI应用全新智能中枢_,华为云_华为云开发者联盟_InfoQ写作社区