写点什么

Qoder 负责人揭秘:Qoder 产品背后的思考与未来发展

  • 2025-09-30
    浙江
  • 本文字数:6982 字

    阅读完需:约 23 分钟


各位开发者,大家上午好,今天我很荣幸给大家分享一下 Qoder。Qoder 是阿里巴巴推出的一款全新的 Agentic 编程平台,产品上线刚一个月就收获了数十万用户,非常感谢大家的认可。


今天借着云栖大会,也跟大家分享一下 Qoder 的定位、思考、演进,也希望通过 Qoder 这样的产品,可以引领 Agentic Coding 新范式。


AI Coding 已经成为软件研发的必选项。根据行业的调研,目前全球超过 62% 的开发者正在使用 AI Coding 产品,开发者研发效率提升 30% 以上。当然,有很多开发者用得比较深入,提效超过 50%。当前,全球市场 AI Coding 的使用深度也不同,30% 的中国开发者已经在使用 AI Coding 工具,中国市场在 AI Coding 领域还有很大的上升空间和使用空间。


为什么阿里会发力在 Agentic Coding 这件事情?跟以前更早的辅助编程有什么样的区别?首先,我们可以从模型使用上看到趋势。


第一个是 Anthropic 发布的全球用户如何使用 Claude 模型,可以看到开发者正在以一种更自动化的方式使用大模型,这意味着人们更倾向于把完整的任务交给模型,而不是说仅仅做一个知识问答。


第二份是 GPT 发布的报告,开发者在实际使用过程中,基于任务执行的用量占比最大,就是 Doing 远远大于 Asking,意味着用户更多开始依靠智能体的能力完成大块、完整的任务,而不是过去常用的知识检索过渡到任务自动化。这说明模型能力得到了用户的信任,能够更好地解决完整的任务。


当前,大模型能力得到了快速的发展,模型能力也为 AI Coding 产品带来了比较多的可能性。


此外,AI Coding 领域问题域和场景也在延伸,包括从过去的 Chat 到代码补全,到完成 Task 的开发,完成 Feature 的开发,现在已经延伸到整个软件生命周期,包括开发、测试、验证、写报告甚至可以调用工具做发布,处理能力越来越强,任务的复杂度在增加。


在这个阶段,AI Coding 领域得到了更长远的发展,对于开发者而言提效非常明显,不仅仅是补全,而是给人类做助手和配角。


因此,我们认为今天的 AI Coding 分三个阶段,不是非此即彼的,这三个阶段很多时候是并行存在的。



第一个阶段是大语言模型跟代码助手结合,也就是辅助编程阶段。 开发者自己在控制代码,自己写代码,编程助手可以辅助用户、做到提示、补全等,帮助人类程序员完成代码的编写,这是辅助编程阶段。在这个阶段,人是主导,提效一般能够做到 30%,当前有很大一部分开发者是处于这个阶段。


第二个阶段是 2024-2025 年比较主流的协同编程。 在这个阶段,人通过自然语言而不是代码来给 AI 提需求,代码作为上下文被提交给了大语言模型,大语言模型可以根据人发出的指令和任务再来批量编辑多个代码文件,产生大量的代码,可以调用工具并执行很多动作。协同编程对人类研发的效率带来非常大的提升,平均达到一倍的效率提升。


今天我们讲 Vibe Coding ,其实也在协同编程里。很多产品经理、设计师、自媒体博主、运营等多种泛开发者,都可以把自己的想法通过语言描述,以对话的方式生成代码,构建一个系统,从而把需求落地。


当前,我们正在进入第三个阶段,就是 2025 年开始流行的自主编程。AI 开始有能力长时间执行复杂任务,端到端交付一个完整的结果,这个时候不需要人在后面监督它,跟它实时互动,而是完全让 AI 进行自主编程。人不但可以把任务委派给 AI,还可以并行委派很多任务给不同的智能体,生产力就得到了更大的释放,可以有 1-10 倍效率的提升。


这其实很像在管理一个团队,人通过管理不同数量的智能体并行的开发任务,智能体就好比我们的数字员工,这是我们认为未来主流的研发范式。

Qoder 的产品定位

我们看一下 Qoder 的定位。今天行业的流行跟 Vibe Coding 是共振的,Vibe Coding 发展也是如火如荼,但实际上我们看到大部分的开发者日常操作仍然是在做存量工程。开发者不可能每天创造一个系统,因为原有的这些系统都是长生命周期的,并且有生产和商业价值,用户创造的新系统只是其中一部分,更多时候是发展、维护、演进一个系统,我们认为这种系统叫真实软件,也就是那些真正在商业社会使用的、产生价值的系统,并且需要长期维护。


真实软件是价值高地,因为真实软件正在产生价值,但是维护真实软件的很多需求还没有得到满足,所以 Qoder 诞生的定位就是服务构建真实软件。



随着软件和服务的演进,代码已经是最新的,但是文档大家都知道,写出来就过时了。大家都会维护代码,但很少有人把文档和代码实时地保持同步,把文档当成最重要的资产,所以文档和代码是脱节的。我相信开发者都有体感,代码就是最实时、最准确的一份资产。但是开发者为了传承一个系统、维护一个系统,文档又是不可或缺的,那么这个文档谁来维护,存在哪里?


Qoder Repo Wiki 切中了用户痛点。 通过代码库反推文档,我们定义这个功能是 Repo Wiki,就是 Repo 产生的 Wiki,这个 Wiki 是最实时的,因为代码一旦修改了,文档就跟着变更。通过代码、提交历史,会反推出所有的设计思路、架构、技术栈、时序关系、接口描述等,很多内容都能够反推出来,而且是最准确的。这也是 Repo Wiki 背后的产品哲学——隐性知识的显性化。



RepoWiki 现在支持单库 1 万个文件生成 Wiki, 它卸载了人类认知负载,也降低了 AI 理解工程过程中的消耗,可以事先生成,也可以共享和导出,因此受到开发者的热烈欢迎。


Wiki 可以被很多场景使用,包括人与人之间的沟通、同步、传承、交接、协作。人与 AI 之间认知的对齐也需要靠 Wiki,我们讲上下文工程,是要为大语言模型提供更精准的上下文,这个上下文如果只有代码是不充分的,所以 Wiki 也作为上下文的一种,让它更好地理解整个代码库,而不是推理过程中再尝试理解,这个效率不高,所以我们把这部分工作做在前面,这是 Repo Wiki 解决暗知识的问题。


其次,很多重复、繁琐的编码工作占据了程序员大部分的时间,所以在需求洞察、意图识别、设计文档整理等,程序员精力投入不足,这是行业现状。经常出现一种情况,做完要返工。我们希望未来的开发者更多的把精力放在设计、需求洞察、系统的设计、约束的设定、逻辑关系的编排等,把这样的内容形成一种自然语言的沉淀并翻译成代码,让 AI 来实现,因为 AI 是完全有能力基于这样的内容生成更精准、更确定性的代码,这样人的工作就会被释放出来,系统的返工率也会变低。


另外,过去人跟 AI 协同的方式受限于人的时间和精力,人不断地提问题,不断地给 AI 输入,不断地给 AI 订正做校验,这种模式下是同步的互动。但这里的问题就是没有办法释放更大的生产力,人下班了,AI 也下班了。但我们知道软件最大的价值就是可以无人监督的长时间运行,可以多并发的运行、异步运行、海量的运行,我们怎么能释放这部分的价值?这也是我们在这个产品实践过程当中所思考的。


Qoder 提供的解决方案就是 Spec 驱动开发。 因为大语言模型已经具备了长时间异步运行的能力,调用很多智能体工具解决复杂任务。但是,这里的挑战变成开发者如何把一个需求描述得非常清楚,如果描述的非常清楚,拆解的比较明确,就可以直接让 AI 自主来执行。



因此我们引入了 Spec 驱动概念:先编写规范,明确需求,然后再委托 AI 研发实现,最后做结果的校验,过程不需要太多的交互,让它更长时间的执行,交付更优质的结果,同时可以并发地执行。如果写 Spec 大家觉得也很有挑战,我们就把写 Spec 的过程让 AI 实现,这个过程是强交互的过程,让人更多的输出想法,AI 来完善。


最后,持续增强上下文工程能力是 Qoder 的基本盘。今天想用好大语言模型,上下文工程是最核心的话题。Qoder 不但加强了对工程的理解能力和检索能力,尤其对于真实软件和复杂工程,很多产品都没有解决得很好,Qoder 在真实软件领域的问题处理准备得更充足,对复杂工程理解做得比较好。通过个性化上下文、记忆的整理,让 AI 在实际编程过程中更懂得用户的行为和选择偏好、使用习惯,这样生成的结果就会更满足于用户预期,因此我们会长期投入做持续增强的上下文。

Agent 模式:基于对话的智能体协作模式

智能体模式可以基于对话实时跟用户协作,这是比较主流的功能。通过构建工具、跟模型进行联合优化、深度理解工程、理解工具的使用,可以大规模地生成经过上下文感知比较精准的代码,完成大块的任务。代码检索引擎可以一次检索 10 万个代码文件,Qoder 对于大型工程理解能力在行业中是比较领先的。


随着任务变大,很多大语言模型执行过程中会绕过一些步骤,Qoder 很好地解决了这个问题,我们先做自主规划,然后构建一个 To-Do list,让大语言模型的执行过程中不断地回溯看看是不是按照之前规划的 To-Do list ,这样在执行任务过程中就会有一定确定性,能够保证任务结构化、白盒化,长时间执行不跑偏,同时也确保了结果的准确性。


基于 Agent Mode 构建了强大的智能体能力,想象空间就被打开了,智能体的能力在使用过程中就可以通过实时结对的方式进行更大范围的委派式工作。结合刚才讲的 Spec 驱动,当用户有了非常好的 Spec,就可以把任务委派给智能体,它可以长时间执行任务,因此就诞生了任务委派模式,可以异步委派式的工作方法。

Quest 模式:AI 自主研发

用户表达清楚意图之后,就可以委派给 Agent,因此我们打造了 Quest Mode。Quest Mode 就是 Spec 驱动的 AI 自主编程,这也是 Qoder 非常受欢迎的创新型的功能。



Spec 是开发者最熟悉的意图表达方式,人只需要确认整个意图,Quest Mode 可以生成 Spec,开发者对 Spec 比较满意就可以启动 Quest 执行,执行过程中会校验。用户可以干预和校验整个 Action Flow 的执行,最后再确认结果,或者全权让 AI 来自主完成。


逐步就出现了异步委派的工作方式,先写 Spec->执行可视化的管理->任务完成以后生成一个任务报告,基本就完成了端到端的工作任务委派,就好像你带着实习生一起完成任务。


Quest Mode 擅长做什么呢?擅长做异步长时间的研发任务,并且可以独立去做。比如新功能的交付、自动修复一个缺陷、系统大规模重构等,包括批量任务自动化这类需求。我们经常看到网上新闻说,大语言模型可以长时间运行任务,能跑 7 个小时,试想一下,什么样的任务能跑 7 个小时,你怎么能够驱动 AI 跑 7 个小时,怎么能达到你想要的满意的结果?一定要通过 Spec 驱动,这样才能实现生产力的爆发或生产力的增强。


这样,我们就形成了更强的智能体和驱动大语言模型更长时间工作的能力,并且会打破智能体到大语言模型的时间和空间的边界,更大程度的释放生产力。



第一,AI 自主编程,能够长时间地做。 不要在本机、开发者本地的电脑去做,一定要跳出本机,解决时间问题,把它放在云端。云端有很多好处,可以垂直伸缩、水平伸缩,大规模扩展,开发过程就不受时间空间的限制。


第二,要有非常好云端的沙箱。 能够还原出一个环境,可以安全、隔离、能够快速启停,能够在云端沙箱中完成研发任务,可以起很多并行的沙箱,能够进入到并行的开发阶段,这就拓展了空间的边界。因为你在云端,程序员下班、休假都无所谓,都可以继续做,你不愿意干,Agent 愿意干,还可以长时间地做。


第三,无处不在的智能体。 我们要把智能体的能力,不管是 IDE 还是插件,还是命令行,或者其他的集成方式,能以更多的方式呈现出来,变成一种中后台的能力。你只有在不同的地方都能够触发工作、管理工作、验收工作,才能够更大程度的释放生产力,得到几倍甚至十倍的生产力提升。


为什么不是更多呢?因为人还要做统揽全局的工作,从意图识别、需求设计、文档编写或者文档确认、结果验收,这些工作其实是 AI 做不了的。我们有一个理念叫无处不在的智能编程,可以看到有了沙箱和云端智能体,就可以把智能体透出到任何开发者需要的地方,比如说 IDE、命令行、浏览器、手机端,包括很多的平台,GitHub、GitLab 等各种协同研发的平台,还有各种办公软件包括 Zoom、钉钉等,都可以在任何一个地方唤成智能体完成任务和研发工作,跟文档上下文打通,因为文档也是很重要的上下文,所以这个时候就可以做到多触点、多场景覆盖,触达了更广泛的开发者入口。


此外,通过 CLI 命令行的方式,可以更广泛地被集成。 行业中很多的 IDE 是 VS Code 二开的产品,其实还有很多开发者不是在用 VS Code 的平台,怎么满足这些需求?我们希望通过 CLI 的方式能够被集成使用,因为后端所有的能力通过 CLI 开放出去,所以才能够被广泛的使用。


此外,今天很高兴带来 Quest Remote 模式,把 Spec 驱动的 Quest 任务直接像邮件一样发送到云端,在云端长时期运行,保证云端拉起开发环境,完成研发任务。


在云端可以很好地调度沙箱,云端资源也不需要额外付费,当任务完成以后,AI 可以自主地把产出回传到本地,让开发者做验收、做确认、做合并。


近期我们也会发布 Qoder CLI,把 Qoder 的智能带到每一个终端。 刚才讲了很多终端是没有覆盖的,通过 CLI 可以覆盖掉,对命令行很熟悉的开发者,对极致效率追求的开发者,想保持灵活性与可控性的场景都可以用 CLI 来实现。


Qoder CLI 底层依赖轻量可扩展的架构,包括 Agent 的设计,可以低资源消耗,包括自定义插件、自定义命令、自定义 Sub Agent,能够协同完成开发任务,里面有很多特色的功能,可以流水线式的被集成,把触点广泛的触达出去,让开发者可以在他想要的地方都可以调用智能体。


Qoder 技术优势

接下来,我来简单介绍一下 Qoder 在技术上的设计和优势。从技术上,我们着力于构建三个优势:一是针对软件工程强化的上下文,包括 Wiki、记忆、工程的 embedding 和向量化检索。我们有多种形态组合,最终的目的就是要精准地、并且节省的方式组装上下文,拿到满意的结果,并高效地执行,减少执行的轮次,能够让大家比较快地完成任务,这是针对工程上下文感知的强化。


二是面向 AI 自主编程构建的智能体。 我们对于整个过程都进行了精调,包括规划能力、To-Do、技术设计、代码生成、自主测试、结果验收等都做了增强,所以 Qoder 智能体在长时间、长程完成任务的过程当中表现是比较优秀的。


三是 Qoder 整合了全球最优质的模型。 有很多开发者有疑问,为什么不开放模型选择?我们其实是这么思考的,因为模型选择是需要开发者了解每一款模型的特点、特质、判断是什么任务、什么场景下该怎么切模型,切一次对话流就要改变以适应这个模型,这是一个对话流级别的模型切换。


Qoder 其实是把模型能力整合起来,针对 NES、补全、Chat、自主编程、Wiki 生成、向量检索等,选择了不同的模型组合,目的是达到更好的效果。Qoder 的理念就是机选要比人选好,机选要比人选快,机选可以达到多快好省的效果, 我们也接受任何的比较。


Qoder 新一代技术架构的难点和突破:


  • 实时追踪开发者代码编辑行为,通过 Qoder 自研代码补全、NES 模型,在数百毫秒内,精准推荐代码片段。

  • 十万个代码文件的庞大工程,可快速完成全量索引。并结合 RepoWiki 知识,代码图谱,精确检索工程代码。

  • 根据对话历史、技术设计、人类标注,提取项目知识、经验教训、个人偏好。记忆有效率超过 80%,让智能体执行又快又准又懂开发者。

  • 利用远程沙箱技术,以及多智能体协同技术,轻松完成数十分钟甚至数小时的复杂任务,实现 AI 异步工作模式


AI Coding 产品的落地一直以来存在比较长期的挑战,开发者也都知道,这是一个持续性的话题。在质量、速度、成本三个变量上很难取得一个平衡,一个不可能三角,又要好,又要快,可能就会比较贵。所以我们核心的使命和愿景就是在不可能三角中找到一个最佳的位置,提供给开发者。


因此,我们做了很多的工作,在长程任务执行过程当中,可以看到随着迭代轮次的增加,任务的成功率就下降了,所以通过强化反思,在迭代中自我的反思和纠正,让适配率不要去下降,维持在比较高的水位。



随着迭代轮次增加,整个响应的成本也在增加,通过上下文工程持续地优化,上下文的管理,包括多模型调度,让合适的模型,包括 Sub Agent 能够管理上下文,用合适的模型解决合适的问题,这是我们优化成本的手段。

面向未来

其实阿里巴巴集团 CEO 吴泳铭也讲了很多关于 AI Coding 的预判,我们也相信 AI Coding 将在未来数字世界里面发挥极其重要的作用。今天,代码已经成为现实世界、物理世界与数字世界的连接器,未来大语言模型能够管理和增强更多的场景,从产业的角度,很多的场景会爆发,对 AI Coding 的需求会爆发,代码的产量在过去 20 年、30 年一直是一个瓶颈,未来就不再是一个瓶颈,但是人怎么驾驭 AI 将成为一个新命题。


从行业角度,每一个微小的需求、想法和创意都值得被实现,以前是因为代码的产能不足,大家没有办法把很多的创意想法落地。接下来通过 Qoder 这样的工具,完全广谱开发者的诉求,这些创新的想法完全可以实现。随着代码的产能上升,软件的实现成本也将下降,需求会迎来全面爆发。


代码编写逐渐由大语言模型实现,开发者能力下限会普遍提高,大家会踩在 AI 的肩膀上成为新时代的开发者,这是我们对这个行业的判断。



从产品的角度,未来 80% 的需求就会由 Agent 自主完成,Agent 会比人类有更强的解决问题的能力,可以长时间地执行任务.


异步委派任务将成为主流,模型成本持续降低,不再成为 AI 应用的瓶颈。软件研发模式发生根本性变化,云端异步任务成为主流,云端资源消耗倍增。


编程智能体真正无处不在。AI 帮助我们实现更多的功能和任务,通过多点、多场景的覆盖,智能体会真正做到无处不在。IDE 不是终局,可能只是一个起点,未来在任何一个工作界面都能够使用编程智能体,去触发和管理一些我们的工作。


希望和行业开发者一起努力,通过 Agentic Coding 释放更多的生产力,创造更大的社会价值!

用户头像

阿里云云原生 2019-05-21 加入

还未添加个人简介

评论

发布
暂无评论
Qoder 负责人揭秘:Qoder 产品背后的思考与未来发展_阿里云_阿里巴巴云原生_InfoQ写作社区