写点什么

大模型落地企业研发的正确姿势——暨《DevData25 研发效能基准报告》核心数据发布

  • 2025-05-29
    北京
  • 本文字数:1471 字

    阅读完需:约 5 分钟

大模型落地企业研发的正确姿势——暨《DevData25研发效能基准报告》核心数据发布

大家好,我是思码逸创始人任晶磊。思码逸自创立以来一直深耕代码分析与研发效能度量领域。随着大模型技术的兴起,我们的核心价值不仅没有被替代,反而在数智化转型中愈发关键。我们当前为企业提供基于数字化基座的智能化服务,涵盖 IDE 插件、工作流、智能体、API 智能测试等能力。

我们从去年开始做一件事——以年为单位、以客观数据为基础对不同企业的研发效能进行调研,希望能借此提炼出整个行业的研发效能基准,为大家提供一些数据参考。去年调研了 170+家企业,今年扩展到了 200+家,指标也有新增。今年的数据大致出来了,借此机会跟大家做一个预热分享。

规模增长≠效率滑坡,但会导致贡献不均衡

我们先来看一些组织层面的观察。在过往的惯性认知中,大家通常觉得随着企业规模的增加,代码效率势必会下降。但从今年的数据来看,并不完全如此。毕竟代码生产率是由多个因素共同作用的,如果组织的敏捷程度、管理水平都比较高,那么大型企业在高水平的管理下仍然可以保持较高的代码生产率。但需要注意的是,规模增长确实会在一定程度上导致贡献均衡度下降。所以组织管理者需要关注团队中不同角色的分布和效率水平,避免代码贡献过度集中在少数几个人身上。

注:代码贡献均衡度是由思码逸首创的研发效能度量指标,反映的是项目或团队成员的工作量分布是否均衡。若代码贡献均衡度较低,则说明代码贡献较为集中,可能存在核心成员负担过重的情况;反之,若值较高,则表明团队贡献较为均衡。经验表明,代码贡献均衡度超过 40% 时,通常便可以认为团队成员之间的工作量分配处于比较均衡的状态。

AI 编程助手:有提效,但别高估

AI 辅助编程想必是在座各位最关心的话题之一,好消息是,数据显示使用 AI 工具的团队代码生产率确实提高了——平均涨了 17%,这个数字来自对 200 多家企业的真实研发数据,是实打实的效率提升,而不是“感觉好像快了”的主观印象。

但与此同时,企业普遍反馈 AI 实际带来的效果在“20%以下”或“不明显”,这也与上述代码当量反映的结果高度一致。其实这也正常,AI 的风吹了这么久,大家也逐渐务实起来了。去年可能还是一些 early adopter 在用,到今年,企业管理者已经在理性看待这件事了。其实能通过 AI 实现 20%左右的效率提升,已经算是不错的成绩了。这其中更值得注意的是质量问题——约 40%的企业表示 AI 在提升质量方面“效果不明显”,另有 33%认为提升“小于 20%”。

AI 仍不擅长把关代码质量

结合上文提到的,AI 目前更像是个速度助推器,还不太擅长当质量把关人。原因在于,效率的应用场景,比如代码不全或者“tab”,跟现在大模型能力的匹配度是比较高的,而且过程中人可以灵活干预。但涉及到代码审查、测试用例生成这些比较具体的质量场景时,情况就不同了。前面的讲师也提到类似的情况,即便是在 Code Review 这种外部依赖相对小的场景中,AI 也经常提出无关痛痒的评论,人还得花时间去处理这些建议,反而更费事了。

如下图右侧的两个圈,AI 目前的能力还不能大范围地涵盖质量方面的需求,我们需要在中间找一些发力点,比如 API 测试,这是一个切实可行、易于验证且成本可控的需求点,也是我们正在投入精力去做的。

怎么用 AI 才靠谱?从目标出发,回到度量

很多团队引入 AI 就像追风口,“买买买”之后才思考怎么用。要让 AI 真正帮上忙,我们需要从目标出发,构建完整的效能闭环:不要上来就问“怎么用 AI”,而是先搞清楚我们的“发力点”在哪里。可以和团队一起审视“程序员的一天”,看看大家每天经历的各个环节哪些可以利用 AI 优化。

最后,如果你对即将发布的《DevData 2025 研发效能基准报告》感兴趣,欢迎扫码预约,我们将在报告发布的第一时间将电子版发送给您。


用户头像

数据分析驱动研发效能 2022-04-12 加入

思码逸研发效能分析平台,致力于帮助研发团队解决效率、质量和人才三大痛点,提升研发效率与软件工程质量,助力每一位开发者创造更多价值。

评论

发布
暂无评论
大模型落地企业研发的正确姿势——暨《DevData25研发效能基准报告》核心数据发布_人工智能_思码逸研发效能_InfoQ写作社区