写点什么

Orca LLM:模拟 ChatGPT 的推理过程

作者:3D建模设计
  • 2023-09-13
    湖北
  • 本文字数:1311 字

    阅读完需:约 4 分钟

Orca LLM:模拟 ChatGPT 的推理过程

推荐:使用NSDT场景编辑器快速搭建 3D 应用场景

介绍

在大型语言模型(LLM)领域,人们一直在追求在不影响其效率的情况下增强小型模型的功能。传统的方法是使用模仿学习,其中较小的模型从大型基础模型(LFM)生成的输出中学习。然而,这种方法受到一些挑战的损害,包括来自浅层 LFM 输出的有限模仿信号,小规模的同质训练数据以及缺乏严格的评估。这通常会导致较小的模型模仿 LFM 的风格,而不是推理过程。

论文 Orca:从 GPT-4 的复杂解释痕迹中逐步学习介绍了Orca,这是一个 13 亿参数模型,旨在模仿 GPT-4 等大型基础模型(LFM)的推理过程。与传统的大型语言模型(LLM)不同,Orca 采用独特的培训方法,将渐进式学习和教师协助相结合,以克服较小的学生模型与较大的学生模型之间的能力差距。

培训方法

逆戟鲸的训练过程包括两个阶段。

在第一阶段,逆戟鲸接受 FLAN-5M 训练,其中包括 ChatGPT 增强。这个中级助教有助于弥合 Orca 和 GPT-4 之间的容量差距,后者的参数大小要大得多。通过利用 ChatGPT 的功能,Orca 受益于改进的模仿学习性能。

在第二阶段,逆戟鲸接受 FLAN-1M 的训练,其中包括 GPT-4 增强。这种渐进式学习方法遵循课程学习范式,学生模式从更简单的例子中学习,然后再处理更具挑战性的例子。通过逐渐让逆戟鲸接触越来越复杂的推理和逐步解释,该模型增强了其推理能力和模仿能力。

优势和贡献

与传统的 LLM 相比,Orca 的培训方法具有几个优势。

首先,它通过利用中级教师模型解决了能力差距问题,使 Orca 能够从更有能力的来源学习。这种方法已被证明可以提高较小学生模型的模仿学习性能。

其次,Orca 训练的渐进式学习方面使模型能够逐步建立其知识。通过从更简单的例子开始,逐渐引入更复杂的例子,Orca 为推理和解释的生成奠定了更坚实的基础。

此外,Orca 模仿 GPT-4 等 LFM 的推理过程的能力为提高各种任务的性能开辟了可能性。通过利用 GPT-4 的解释轨迹和分步思维过程提供的丰富信号,Orca 获得了宝贵的见解并提高了自己的能力。

性能基准

Orca 在复杂的零镜头推理基准测试中表现出色。它的性能优于传统的最先进的指令调整模型,如 Vicuna-13B,在 Big-Bench Hard(BBH)等基准上超过 100%,在 AGIEval 上超过 42%。此外,Orca 在 BBH 基准测试中取得了与 ChatGPT 相同的分数,并在 SAT、LSAT、GRE 和 GMAT 等专业和学术考试中表现出有竞争力的表现。考虑到这些是没有思维链的零镜头设置,这尤其令人印象深刻,而且 Orca 在落后于 GPT-4 的同时仍然具有竞争力。

影响和未来方向

逆戟鲸的发展代表了 LLM 领域的重大进步。通过从丰富的信号中学习并模仿 LFM 的推理过程,Orca 能够以高度的准确性执行复杂的推理任务。这具有广泛的影响,特别是在需要复杂推理和解决问题的领域。

此外,这项研究表明,从分步 AI 模型解释中学习是提高模型能力的一个有希望的方向。这为法学硕士领域的研究和开发开辟了新的途径。

结论

Orca 提出了一种训练大型语言模型的新方法,将渐进式学习和教师协助相结合,以增强模仿学习。通过利用中级教师模型,逐步将学生模型暴露给更复杂的例子,Orca 克服了能力差距,提高了推理和解释生成能力。该论文的发现有助于模仿学习技术的进步,并对未来语言模型的发展产生影响。


原文链接:Orca LLM:模拟 ChatGPT 的推理过程 (mvrlink.com)

发布于: 刚刚阅读数: 4
用户头像

还未添加个人签名 2023-04-14 加入

还未添加个人简介

评论

发布
暂无评论
Orca LLM:模拟 ChatGPT 的推理过程_ChatGPT_3D建模设计_InfoQ写作社区