写点什么

【新模型速递】PAI-Model Gallery 云上一键部署 Qwen3-Coder 模型

  • 2025-07-25
    陕西
  • 本文字数:1893 字

    阅读完需:约 6 分钟

引言

7 月 23 日,阿里通义团队推出 Qwen3-Coder 模型,这是 Qwen 系列迄今为止最具 Agent 能力的代码模型。本文介绍如何在阿里云人工智能平台 PAI 的 Model Gallery 中一键部署 Qwen3-Coder 模型,并尝试了在 Qwen Code 工具中,使用部署的模型进行 Agentic 编程任务。


Qwen3-Coder 的上下文长度可以达到 1M(Kimi K2 只有 128K),因为支持上下文更长,所以在 Qwen Code 工具中基本上一条指令可以让模型自己玩到底,不用拆分任务,方便很多。



模型介绍

7 月 23 日,通义千问最新的 AI 编程大模型 Qwen3-Coder 正式开源。全新的 Qwen3-Coder 模型拥有卓越的代码和 Agent 能力,在 Agentic Coding、Agentic Browser-Use 和 Foundational Coding Tasks 上均取得了开源模型的 SOTA 效果。


Qwen3-Coder 拥有多个尺寸,其最强大变体:Qwen3-Coder-480B-A35B-Instruct 模型是一个 MoE 模型,在编程任务上展现出显著的性能,同时具备长上下文能力。



由于 Qwen3-Coder-480B-A35B-Instruct 模型的参数量达 480B,需要至少 16*96G 显存的计算资源进行推理,云端部署成为企业用户和开发者们部署 Qwen3-Coder-480B-A35B-Instruct 时的优先选择。阿里云 PAI-Model Gallery 已同步接入 Qwen3-Coder-480B-A35B-Instruct 模型,提供企业级部署方案。

PAI-Model Gallery 简介

PAI-Model Gallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域。通过 PAI 对这些模型的适配,用户可以以零代码方式实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。


PAI-Model Gallery 访问地址:https://pai.console.aliyun.com/#/quick-start/models


✅ 零代码一键部署


✅ 自动适配云资源


✅ 部署后开箱即用 API


✅ 全流程运维托管


✅ 企业级安全 数据不出域


一键部署 Qwen3-Coder 模型

  1. 在 PAI-Model Gallery 模型广场找到 Qwen3-Coder-480B-A35B-Instruct 模型,或通过链接直达该模型:https://pai.console.aliyun.com/#/quick-start/models/Qwen3-Coder-480B-A35B-Instruct/intro



  1. 在模型详情页右上角点击「部署」,在选择计算资源后,即可一键完成模型的云上部署。



  1. 部署成功后,在服务页面可以点击“查看调用信息”获取调用的 Endpoint 和 Token,想了解服务调用方式可以点击预训练模型链接,返回模型介绍页查看调用方式说明。



  1. 使用推理服务:您可以使用 API 调用模型服务,也可以使用 PAI 平台提供的在线调试功能,此外您还可以使用 PAI 平台提供的 WebUI 界面与模型进行交互。


在 Agentic CLI 中使用 Qwen3-Coder 模型

以下的实操以 Qwen Code 工具为例做演示,Claude Code、Cline 等 Agentic CLI 工具也支持。


本次随 Qwen3-Coder 模型一同开源的,还有一款面向 Agentic 编程的命令行工具:Qwen Code。


Qwen Code 是基于 Gemini CLI 分支开发,其功能定位与 Gemini CLI 相同。下面我们看一下如何在 Qwen Code 工具中使用我们在云上独立部署的 Qwen3-Coder 模型。

第一步:安装 Qwen Code

安装方式请参考:https://github.com/QwenLM/qwen-code

第二步:配置云上部署的 Qwen3-Coder 模型服务

在 Qwen Code 项目目录中创建 .qwen/.env 或 .env 文件(建议使用 .qwen/.env 文件,以隔离其他环境变量与其他工具的配置),并设置以下信息。


export OPENAI_API_KEY="your_api_key_here"export OPENAI_BASE_URL="your_api_base_url_here"export OPENAI_MODEL="your_api_model_here"
复制代码


其中:


  • OPENAI_API_KEY:PAI 平台模型服务的调用信息中的 Token

  • OPENAI_BASE_URL:PAI 平台模型服务的调用信息中的公网调用地址,需在后面加上“/v1”

  • OPENAI_MODEL:Qwen3-Coder-480B-A35B-Instruct


第三步:测试一个 Case

我们让 Qwen Code 写一个贪吃蛇小游戏,调用的模型已经配置成了我们在 PAI 平台上部署的 Qwen3-Coder-480B-A35B-Instruct。




从结果上看,逻辑完全正确!


执行过程中,Qwen3-Coder 的 plan 部分比 Kimi K2 要更详细,Kimi K2 拆分的子 plan 比较粗,Qwen3-Coder 会更细一些。



除了使用 Qwen Code,您也可以在 **Claude Code、Cline **等其他 Agentic 编程工具中使用 Qwen3-Coder 模型,配置方式与 Qwen Code 类似,具体请参考各工具文档。

更多模型支持

PAI-Model Gallery 持续提供开源社区热门模型快速部署、训练、评测实践。



用户头像

还未添加个人签名 2020-10-15 加入

分享阿里云计算平台的大数据和AI方向的技术创新和趋势、实战案例、经验总结。

评论

发布
暂无评论
【新模型速递】PAI-Model Gallery云上一键部署Qwen3-Coder模型_人工智能_阿里云大数据AI技术_InfoQ写作社区