GPT 现状终于有人讲清楚了!OpenAI 大牛最新演讲爆火,还得是马斯克钦点的天才
量子位 | 公众号 QbitAI
继 Windows Copilot 发布后,微软 Build 大会热度又被一场演讲引爆。
前特斯拉 AI 总监 Andrej Karpathy 在演讲中认为思维树(tree of thoughts)与 AlphaGo 的蒙特卡洛树搜索(MCTS)有异曲同工之妙!
网友高呼:这是关于如何使用大语言模型和 GPT-4 模型的最详尽有趣的指南!
此外 Karpathy 透露,由于训练和数据的扩展,LLAMA 65B“明显比 GPT-3 175B 更强大”,并介绍了大模型匿名竞技场 ChatBot Arena:
Claude 得分介于 ChatGPT 3.5 和 ChatGPT 4 之间。
网友表示,Karpathy 的演讲一向很棒,而这次的内容也一如既往没有令大家失望。
随着演讲而爆火的,还有推特网友根据演讲整理的一份笔记,足足有 31 条,目前转赞量已超过 3000+:
所以,这段备受关注的演讲,具体提到了哪些内容呢?
如何训练 GPT 助手?
Karpathy 这次的演讲主要分为两个部分。
第一部分,他讲了如何训练一个“GPT 助手”。
Karpathy 主要讲述了 AI 助手的四个训练阶段:预训练(pre-training)、监督微调(supervised fine tuning)、奖励建模(reward modeling)和强化学习(reinforcement learning)。
每一个阶段都需要一个数据集。
在预训练阶段,需要动用大量的计算资源,收集大量的数据集。在大量无监督的数据集上训练出一个基础模型。
Karpathy 用了更多例子作补充:
接下来进入微调阶段。
使用较小的有监督数据集,通过监督学习对这个基础模型进行微调,就能创建一个能够回答问题的助手模型。
他还展示了一些模型的进化过程,相信很多人之前已经看过上面这张“进化树”的图了。
Karpathy 认为目前最好的开源模型是 Meta 的 LLaMA 系列(因为 OpenAI 没有开源任何关于 GPT-4 的内容)。
在这里需要明确指出的是,基础模型不是助手模型。
虽然基础模型可以回答问题,但它所给出的回答并不可靠,可用于回答问题的是助手模型。在基础模型上进行训练的助手模型,通过监督微调,在生成回复和理解文本结构方面的表现将优于基础模型。
在训练语言模型时,强化学习是另一个关键的过程。
通过用人工标记的高质量的数据进行训练,可以使用奖励建模来创建一个损失函数,以改善其性能。然后,通过增加正向的标记,并降低负面标记的概率,来进行强化训练。
而在具有创造性的任务中,利用人类的判断力对于改进 AI 模型至关重要,加入人类的反馈可以更有效地训练模型。
经过人类反馈的强化学习后,就可以得到一个 RLHF 模型了。
模型训练好了,接下来就是如何有效利用这些模型解决问题了。
如何更好地使用模型?
在第二部分,Karpathy 主要讨论了提示策略、微调、快速发展的工具生态系统以及未来的扩展等问题。
Karpathy 又给出了具体示例来说明:
当我们在写文章时候,我们会进行很多的心理活动,需要考虑自己的表述是否正确。而对于 GPT 来说,这只是一个序列标记(a sequence of tokens)。
而提示(prompt)可以弥补这种认知差异。
Karpathy 进一步解释了思维链提示的工作方式。
对于推理问题,要想让自然语言处理中 Transformer 的表现更好,需要让它一步一步地处理信息,而不能直接抛给它一个非常复杂的问题。
如果你给它几个例子,它会模仿这个例子的模版,最终生成的结果会更好。
模型只能按照它的序列来回答问题,如果它生成的内容是错误的,你可以进行提示,让它重新生成。
如果你不要求它检查,它自己是不会检查的。
这就涉及到了 System1 和 System2 的问题。
诺贝尔经济学奖得主丹尼尔卡尼曼在《思考快与慢》中提出,人的认知系统包含 System1 和 System2 两个子系统。System1 主要靠直觉,而 System2 是逻辑分析系统。
通俗来说,System1 是一个快速自动生成的过程,而 System2 是经过深思熟虑的部分。
这在最近一篇挺火的论文“Tree of thought”(思维树)中也有被提及。
深思熟虑指的是,不是简单的给出问题的答案,而更像是与 Python 胶水代码一起使用的 prompt,将许多 prompt 串联在一起。模型必须要维护多个提示,还必须要执行一些树搜索算法,来找出要扩展的提示。
Karpathy 认为这种思路与 AlphaGo 非常相似:
AlphaGo 在下围棋时,需要考虑下一枚棋子下在哪里。最初它是靠模仿人类来学习的。
但除此之外,它还进行了蒙特卡洛树搜索,可以得到具有多种可能性的策略。它可以对多种可能的下法进行评估,仅保留那些较好的策略。我认为这在某种程度上相当于 AlphaGo。
对此,Karpathy 还提到了 AutoGPT:
我认为目前它的效果还不是很好,我不建议大家进行实际应用。我只是认为,随着时间的推移,我们或许可以从它的发展思路中汲取灵感。
其次,还有一个小妙招是检索增强生成(retrieval agumented generation)和有效提示。
窗口上下文的内容就是 transformers 在运行时的记忆(working memory),如果你可以将与任务相关的信息加入到上下文中,那么它的表现就会非常好,因为它可以立即访问这些信息。
简而言之,就是可以为相关数据建立索引让模型可以高效访问。
如果 Transformers 也有可参考的主要文件,它的表现会更好。
最后,Karpathy 简单讲了一下在大语言模型中的约束提示(Constraint prompting)和微调。可以通过约束提示和微调来改进大语言模型。约束提示在大语言模型的输出中强制执行模板,而微调则调整模型的权重以提高性能。
我建议在低风险的应用中使用大语言模型,始终将它们与人工监督相结合,将它们看作是灵感和建议的来源,考虑 copilots 而不是让它们完全自主代理。
关于 Andrej Karpathy
Andrej Karpathy 博士毕业后的第一份工作,是在 OpenAI 研究计算机视觉。
后来 OpenAI 联合创始人之一的马斯克看上了 Karpathy,把人挖到了特斯拉。但也因为这件事,马斯克和 OpenAI 彻底闹翻,最后还被踢出局。在特斯拉,Karpathy 是 Autopilot、FSD 等项目的负责人。
今年二月份,在离开特斯拉 7 个月后,Karpathy 再次加入了 OpenAI。
最近他发推特表示,目前对开源大语言模型生态系统的发展饶有兴趣,有点像早期寒武纪爆发的迹象。
传送门:[1]https://www.youtube.com/watch?v=xO73EUwSegU(演讲视频)[2]https://arxiv.org/pdf/2305.10601.pdf(“Tree of thought”论文)
评论