一站式解决 Deepseek 微调三大痛点:数据集、GPU 资源、微调手册与源码

1.Deepseek 微调痛点
Deepseek 模型微调是提升在行业领域表现的关键,但你是否被这些问题卡住?
数据集:不知道如何准备,担心数据泄露?
GPU 算力:算力不足,Deepseek 不同模型尺寸对应的 GPU 配置选择一头雾水?
微调手册与源码:找不到靠谱的教程和代码?

现在,所有问题我们帮你搞定!
领取方式:点击链接,注册即送 10 次完整 DeepSeek LoRA 微调 GPU 算力+微调源码!
👉 点击领取
2.教程案例
在追求轻量级大模型卓越性能的过程中,开发者和研究人员不断探索创新方法。今年以来,DeepSeek 团队开源的成果尤为瞩目,尤其是在模型蒸馏领域的突破,赢得了业内的广泛认可。DeepSeek-R1-Distill-Qwen-7B
模型拥有 70 亿参数,文件大小约为 15GB,展示了在保持高性能的同时显著减少模型规模的能力。
本实践将展示如何基于DeepSeek-R1-Distill-Qwen-7B
蒸馏模型进行微调,以创建针对特定行业的高效应用模型,例如,在医疗行业领域,可以通过使用DeepSeek-R1-Distill-Qwen-7B
作为基础模型,并结合 medical-o1-reasoning-SFT 数据集进行微调,来定制一个专门服务于医疗行业的高级模型。这一过程不仅能够提升模型在特定任务上的表现,同时也为其他行业的模型定制提供了参考路径。通过这种方式,可以有效地将前沿的大模型技术应用于实际场景中,解决具体的行业问题并推动技术创新。
重要
本实践以“北京一区”为例创建弹性集群,后续使用的镜像仓库等,也都属于“北京一区”。若您选择在其他智算中心(北京二区,北京三区等)开通弹性容器集群进行操作实践,请确认您的弹性容器集群和镜像仓库在同一个智算中心。不同镜像仓库地址如下所示。
北京一区:registry.hd-01.alayanew.com:8443
北京二区:registry.hd-02.alayanew.com:8443
北京三区:registry.hd-03.alayanew.com:8443
3.前提条件
用户已经获取 Alaya New 企业账户和密码,如果需要帮助或尚未注册,可参考注册账户及用户管理完成注册。
4.准备工作
4.1 资源准备
用户需开通弹性容器集群
,操作步骤可参看开通弹性容器集群章节所述。本实践弹性容器集群的资源配置至少需要满足以下表格中的要求。

本实践开通弹性容器集群的操作步骤如下所示。
使用已注册的企业账号登录 Alaya NeW 系统,选择[产品/弹性容器集群]菜单项,单击“新建集群”按钮,进入[弹性容器集群]配置页面。
配置基本信息,例如:集群名称,集群描述,智算中心,此次使用的集群配置如下所示。
集群名称:
jskfb-zhaolin
。智算中心:
北京一区
。算力配置:选择
H800
,配额 1 卡。其余参数保持默认值。
弹性容器集群参数配置完成后,单击“立即开通”按钮,开通弹性容器集群操作完成,用户可在[资源中心/弹性容器集群]页面查看已创建的容器集群,弹性容器集群状态为“运行中”表示集群可正常使用.
4.2 准备镜像
提示
本次部署将使用 Docker 进行环境配置,请确保已正确安装 Docker 环境。如果需要帮助或了解具体的安装步骤,可参考安装Docker文档或者访问Docker Desktop产品页面下载最新版本的安装包。
本实践已预置了微调所需的镜像,用户可通过下面的步骤获取。
注意
请将以下命令中的镜像仓库用户名
、镜像仓库密码
及镜像仓库项目名
替换为用户实际的镜像仓库用户名、密码及仓库项目名称。
下载符合操作系统的Docker Desktop,执行如下所示的命令,登录到指定的私有镜像仓库 Harbor。示例如上图高亮①所示。
执行如下所示的命令,从
registry.hd-01.alayanew.com:8443
镜像仓库下载
vc-app_market/unsloth:2025.2.15
镜像,示例如下图高亮②所示。
执行如下所示的命令,为下载后的镜像创建一个新的
tag
,示例如下图高亮③所示。
执行如下所示的命令,登录到用户的私有仓库,本实践以
北京一区
为例,示例如下图高亮④所示。
执行如下所示的命令。将镜像推送到用户的私有仓库,本实践以
北京一区
为例,示例如下图高亮⑤所示。

提示
请根据您的实际配置情况,选择并填写相应的镜像仓库地址。确保您的弹性容器集群与所选镜像仓库位于同一智算中心。以下是各智算中心的仓库地址列表:
北京一区:registry.hd-01.alayanew.com:8443
北京二区:registry.hd-02.alayanew.com:8443
北京三区:registry.hd-03.alayanew.com:8443
4.3 获取 SwanLab API Key
SwanLab是一款开源且轻量级的 AI 模型训练可视化追踪工具。在本次微调任务中,我们将使用 SwanLab 记录整个微调过程。在开始之前,请确保您已经登录SwanLab平台。登录后,点击“设置/常规”,即可获取 API Key,示例如下图所示。

4.4 安装 Aladdin
Aladdin(Alaya AI Add-In)是开发者不可或缺的大模型开发工具,作为一款自主研发的 IDE 插件,它能够更高效地利用 GPU 资源进行代码调试和大规模模型的微调。
1.下载Aladdin插件,启动 VS Code,点击左侧菜单栏的标签

将下载好的Aladdin.vsix
文件拖拽至扩展安装窗口,完成安装。更多有关 Aladdin 的操作用户可参考Aladdin使用手册。
2.点击图标

进入 Aladdin 登录首页,如下图所示,单击“Login”,系统会在 Chrome 浏览器打开智算操作系统登录页面,输入用户名
及密码
登录 Aladdin,登录后选择与镜像仓库相同的智算中心,本实践选择北京一区
。

3.单击“Back to workspace”。进入 Aladdin 功能区,在ENVIRONMENTS
(下图高亮②)功能区即可查看到已导入的unsloth
镜像,如下图所示。

4.5 代码及数据准备
medical-o1-reasoning-SFT
数据集包含 24K+条数据,本数据集包含三列数据,分别是:医疗问题,诊断过程,诊断结果,数据格式如下图蓝色高亮所示,是专为高级医学推理设计的大型语言模型(LLM)。

点击示例代码及数据,即可获取此次微调的数据及代码。用户下载后将文件解压到本地。
5.操作步骤
在 Aladdin 的
WORKSHOP
功能区单击图标
新建一个 Workshop 作为本次微调任务的开发环境,示例如下图所示。

本实践配置的参数配置及说明如下所示。
Name:
medical-sft
,用于唯一标识一个 WORKSHOP。Environment:
unsloth
,此处选择上述步骤已导入的镜像。VKS:
jskfb-zhaolin
,此处选择 Aladdin 账户内的弹性容器集群。PVC MOUNTS:两处均绑定
pvc-capacity-userdata
,SubPath 配置分别为workspace
、model
,ContainerPath 配置分别为/workspace
、/model
。其余参数均保持默认值。
提示
为了防止数据丢失,建议用户在“PVC MOUNTS”配置中绑定持久化存储卷(PVC)。
参数配置完成后,单击“Save”按钮,系统自动打开一个新的 VS Code 窗口,下载相关插件,插件安装完成后,Aladdin Remote 调试页面准备完成,点击“Terminal/NEW Terminal”菜单项,在终端页面执行以下命令,添加环境变量。
保持在上步同一页面,执行如下命令,下载此次微调所需的
DeepSeek-R1-Distill-Qwen-7B
大模型。关于下载模型如何加速的详细使用,可参考工具/模型下载加速文章所述。
保持在上步同一页面,按下
Ctrl+Shift+P
(Windows/Linux),打开命令面板,选择Python: Select Interpreter
,在弹出的选项中选择Python 3.11.10 ('base") /opt/conda/bin/python
,即可完成解释器选择操作。保持在上步同一页面,点击“File/Open Folder”菜单项,在弹框输入“workspace”,示例页面如下图所示。单击“OK”按钮,进入 Workspace 列表页面。

保持在上步同一页面,点击 Workspace 的图标
新建一个文件夹,本实践新建文件的名称为“medical-sft”,将已解压的代码和数据拖拽至新建的文件夹下,示例如下图所示。

单击“medical-sft/sft.py”文件名称,打开“sft.py”文件内容,将获取SwanLab API Key的 API Key 添加到文件的代码中,示例如下图所示。

单击文件名“medical-sft/run.sh”以打开“run.sh”文件。然后,在文件内容的任意位置右键,选择“Run Shell”选项,进入脚本运行环境参数配置页面,参照下图完成参数配置。参数配置完成后,单击“Submit”按钮。即可完成微调任务提交操作。

登录SwanLab查看模型的训练过程,在模型训练过程中,一旦误差等关键参数落入用户预期的范围内,即可查看相应的模型问题解答。

单击文件名“medical-sft/infer.py”以打开文件。然后,在文件内容的任意位置右键,选择“GPU Run”选项,进入脚本运行环境参数配置页面,参照下图完成参数配置,参数配置完成后,单击“Submit”按钮,系统弹出微调终端窗口,在该窗口用户可查看微调后的结果。

针对同个问题“患者为 40 岁男性,头疼、发烧,还有腹泻,持续 2 天了。微调前的回答可参看微调前回答
,微调后回答可参看微调后回答
。
微调前回答
微调后回答
6.总结
从上述微调结果可以明显看出,经过微调的模型在解决用户疑问方面表现更为出色,能够为用户提供更加精准和有效的指导。
本实践成功地将先进的大模型技术与 Aladdin 组件相结合,有效应对了具体的行业挑战,展示了前沿技术在实际场景中的应用实例,实现了从理论到实践的重要跨越。通过这种方式,我们不仅为用户提供了处理复杂问题的新思路,还展示了如何利用这些先进技术解决实际问题,为各行各业带来了创新解决方案。
7. 完整源码下载
下载示例代码及数据
评论