【解决方案】DistilQwen2.5-DS3-0324 蒸馏小模型在 PAI-ModelGallery 的训练、评测、压缩及部署实践
一、引言
在大语言模型领域的快速发展中,如何有效平衡高效推理和模型思维能力之间的矛盾一直是学术界和工业界关注的重点。DeepSeekV3-0324 默认没有采用深度思考的模式,使得模型推理速度更快,兼顾了快速推理和复杂任务处理之间的平衡。
DistilQwen 系列是阿里云人工智能平台 PAI 推出的蒸馏语言模型系列,包括 DistilQwen2、DistilQwen2.5、DistilQwen2.5-R1 等。在此次工作中,我们将 DeepSeekV3-0324 基于快思考的推理能力成功迁移到更轻量的小模型中。
在这一过程中,DistilQwen2.5-DS3-0324 系列不仅继承了原始模型思维链蒸馏的精华,同时还引入了快思考策略,显著提升了推理速度,使得在资源受限的设备和边缘计算场景中,这些模型能够高效执行复杂任务。实验显示,DistilQwen2.5-DS3-0324 系列中的模型在多个基准测试中表现突出,其 32B 模型效果甚至接近参数量接近其 10 倍的闭源大模型(见下图)。它在复杂问题解决方面,也大幅降低了思维链的长度,展示了卓越的效率。DistilQwen2.5-DS3-0324 系列的发布,助力“大模型+快思考”的新模式,逐步成为解决推理难题的标准配置。

PAI-ModelGallery 介绍
PAI-ModelGallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了包括大语言模型,文本生成图片、语音识别等各个领域。通过 PAI 对于这些模型的适配,用户可以通过零代码和 SDK 的方式实现从训练到部署再到推理的全过程,大大简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。
运行环境要求
本示例目前支持在阿里云北京、上海、深圳、杭州、乌兰察布、新加坡等多地域,使用 PAI-ModelGallery 产品运行。
资源配置要求:
训练阶段:PAI-DistilQwen2.5-7B-DS3-0324 量级模型:最低使用 A10(24GB 显存)及以上卡型运行训练任务;PAI-DistilQwen2.5-14B-DS3-0324 量级模型:最低使用单卡 H20-48G,推荐训练机型为 4 卡 H20-48G;PAI-DistilQwen2.5-32B-DS3-0324 量级模型:推荐训练机型为 8 卡 H20-96G
部署阶段:PAI-DistilQwen2.5-7B-DS3-0324 需要的最低卡型配置为单卡 A10、单卡 V100(gn6v)等,推荐部署机型为单卡 GU30、单卡 A10 等;PAI-DistilQwen2.5-14B-DS3-0324 需要的最低卡型配置为双卡 A10,单卡 H20-48G 等,推荐部署机型为 4 卡 A10、单卡 H20-96G 等;PAI-DistilQwen2.5-32B-DS3-0324 需要的最低卡型配置为 4 卡 A10、双卡 H20-48G、单卡 H20-96G 等,推荐部署机型为 4 卡 H20-48G、双卡 H20-96G 等
通过 PAI-ModelGallery 使用模型
开发者可以在 PAI 控制台的“快速开始- Model Gallery”入口,找到 PAI-DistilQwen2.5-DS3-0324 系列模型,以 PAI-DistilQwen2.5-7B-DS3-0324 为例,模型卡片如下图所示:

模型部署和调用
PAI 提供的 PAI-DistilQwen2.5-7B-DS3-0324 预置了模型的部署配置信息,可以选择 SGLang 部署/BladeLLM 部署/vLLM 部署/Transformers 部署,用户仅需提供推理服务的名称以及部署配置使用的资源信息即可将模型部署到 PAI-EAS 推理服务平台。

Blade LLM 部署的推理服务支持使用 ChatLLM WebUI 进行实时交互,示例如下:

推理服务同样支持以 OpenAI API 兼容的方式调用。
模型微调训练
PAI 为 PAI-DistilQwen2.5-7B-DS3-0324 模型配置了 SFT 和 DPO 两种微调算法,支持用户以开箱即用得方式对 PAI-DistilQwen2.5-7B-DS3-0324 进行微调。SFT 训练算法支持使用 Json 格式输入,每条数据由问题、答案组成,分用“instruction”、“output”字段表示,例如:
DPO 训练算法支持使用 Json 格式输入,每条数据由问题、预期模型输出的答案、不希望模型输出的答案组成,分别用"prompt"、"chosen"和"rejected"字段表示,例如:
当完成数据的准备,用户可以将数据上传到对象存储 OSS Bucket 中。PAI-DistilQwen2.5-7B-DS3-0324 至少需要使用 A10(24GB 显存)的 GPU 资源,请确保选择使用的资源配额内有充足的计算资源。

训练算法支持的超参信息如下,用户可以根据使用的数据,计算资源等调整超参,或是使用算法默认配置的超参。

点击“训练”按钮,PAI-QuickStart 开始进行训练,用户可以查看训练任务状态和训练日志。

如果需要将模型部署至 PAI-EAS,可以在同一页面的模型部署卡面选择资源组,并且点击“部署”按钮实现一键部署。模型调用方式和上文直接部署模型的调用方式相同。
如果需要评测微调后模型的性能,可以从任务页面右上角评测按钮进入评测页。详情见下一节:模型评测。
模型评测
PAI 为 PAI-DistilQwen2.5-7B-DS3-0324 模型配置了评测算法,支持用户以开箱即用得方式对 PAI-DistilQwen2.5-7B-DS3-0324 以及微调后模型进行评测。通过评测能帮助用户和其他模型做性能对比,指导用户进行精准地模型选择和优化。
模型评测入口:
从“Model Gallery”页面完成 DistilQwen2.5 开源模型的评测

从训练任务详情页完成微调后模型的评测

模型评测支持自定义数据集评测和公开数据集评测:


自定义数据集评测
模型评测支持文本匹配指标 BLEU/ROUGLE,以及裁判员模型评测(专家模式)。用户可以基于自己场景的独特数据,评测所选模型是否适合自己的场景。
评测需要提供 JSONL 格式的评测集文件,每行数据是一个 List,使用question
标识问题列,answer
标识答案列。示例文件:evaluation_test.jsonl
公开数据集评测
通过对开源的评测数据集按领域分类,对大模型进行综合能力评估。目前 PAI 维护了MMLU、TriviaQA、HellaSwag、GSM8K、C-Eval、TruthfulQA,其他公开数据集陆续接入中。
之后选择评测结果输出路径,并根据系统推荐选择相应计算资源,最后提交评测任务。等待任务完成,在任务页面查看评测结果。自定义数据集和公开数据集评测结果示例如下:


模型压缩
经过训练后的模型在部署之前可以对模型进行量化压缩以减小模型部署资源占用量,在模型训练任务界面可以创建模型压缩任务。和模型训练相同,配置压缩方式、压缩设置、输出配置以及计算资源后,创建压缩任务:

开始压缩之后可以看到压缩任务界面。当压缩完成后,点击部署即可对压缩后的模型进行一键部署。

通过 PAI-ModelGallery 进行大模型蒸馏
除了可以在 PAI-ModelGallery 使用 PAI-DistilQwen2.5-7B-DS3-0324 蒸馏小模型,PAI-ModelGallery 还具备一系列能力对大语言模型训练所需的指令进行扩展和改写。通过在 PAI-ModelGallery 部署教师大语言模型,以及用于指令增强和指令优化的专精小模型,用户可以轻松实现模型蒸馏的各个算法功能。更多技术的最佳实践,请参考先前发布的“大语言模型数据增强与模型蒸馏解决方案”(这里)。对于新出的 DeepSeek-R1 类推理模型的蒸馏,用户也可以参考“蒸馏 DeepSeek-R1 等深度推理大模型”来训练部署自己的推理模型(这里)。
结论
在技术发展的快车道上,阿里云的 Qwen 模型系列和 DistilQwen2.5-DS3-0324 系列模型通过知识蒸馏快思考策略,实现了在资源受限环境中的高效推理,兼顾了快速推理和处理复杂任务的需求。这一系列模型在多个基准测试中表现优异,证明了其卓越的推理能力和实际应用价值。作为“大模型+快思考”新模式的经典案例,DistilQwen2.5-DS3-0324 系列为小模型的广泛应用提供了巨大的空间。未来,我们将继续优化和提升 DistilQwen 系列模型的蒸馏技术,以进一步增强小模型的智能水平和推理效率,推广更多高效、轻量化的语言模型,支持开发者和企业在实际应用中的广泛采用。
相关资源链接
DistilQwen2.5-DS-0324 介绍:
https://developer.aliyun.com/article/1661734
DistilQwen2.5-R1 介绍:
https://developer.aliyun.com/article/1659288
DistilQwen2.5 介绍:
https://developer.aliyun.com/article/1653842
蒸馏 DeepSeek-R1 等深度推理大模型
https://help.aliyun.com/zh/pai/user-guide/distillation-solution-of-llm-for-deep-reasoning
大语言模型数据增强与模型蒸馏解决方案:
https://help.aliyun.com/zh/pai/use-cases/llm-data-enhancement-and-model-distillation-solution
PAI 快速开始:
https://help.aliyun.com/zh/pai/user-guide/quick-start-overview
PAI Python SDK Github:
https://github.com/aliyun/pai-python-sdk
技术交流答疑群

评论