SmolLM2:适用于设备上应用的新型最佳小型模型
SmolLM2 是一个紧凑型语言模型系列,有三种尺寸:135M、360M 和 1.7B 参数。 它们既能解决各种任务,又足够轻便,可以在设备上运行。
1.7B 变体与其前身 SmolLM1-1.7B 相比有显著进步,尤其是在指令遵循、知识、推理和数学方面。 它使用不同的数据集组合在 11 万亿个词块上进行训练: FineWeb-Edu, DCLM, The Stack,以及我们策划并即将发布的新数学和编码数据集。 我们结合使用公共数据集和我们自己策划的数据集,通过监督微调(SFT)开发了指导版本。 然后,我们使用 UltraFeedback 进行了直接偏好优化 (DPO)。
借助 Argilla 开发的 Synth-APIGen-v0.1 等数据集,指导模型还支持文本改写、摘要和函数调用等任务。
基础预训练模型
指令模型
Demo
复制代码
复制代码
Chat in TRL
复制代码
基础预训练模型
指令模型
Demo
复制代码
复制代码
Chat in TRL
复制代码
版权声明: 本文为 InfoQ 作者【吴脑的键客】的原创文章。
原文链接:【http://xie.infoq.cn/article/348e3b7e5479085130de5ab49】。文章转载请联系作者。
评论