能取代 90% 人工作的 ChatGPT 到底牛在哪里
人工智能研究实验室 OpenAI 在 2022 年 11 月 30 日发布了自然语言生成模型 ChatGPT,上线两个月就已经超过一亿用户,成为了人工智能界当之无愧的超级大网红。ChatGPT 凭借着自身强大的拟人化及时应答能力迅速破圈,引起了各行各业的热烈讨论。简单来说 ChatGPT 就是可以基于用户文本输入自动生成回答的人工智能聊天机器人。那肯定会有人说这不就是 Siri 嘛,虽然都是交互机器人但是两者的差别可老大了。那么 ChatGPT 在人机交互时为什么会有这么出色的表现?它到底会不会取代搜索引擎?90%的人真的会因为 ChatGPT 的出现而面临失业的危险吗?带着这些疑问我们一起来看看 ChatGPT 到底有哪些过人之处以及未来会给行业带来怎样的变革。
ChatGPT 到底是个啥
谁搞出来的 ChatGPT
OpenAI 的创始人 Sam Altman 是一个 8 岁就会编程的天才,在 2015 年他联合特斯拉老板马斯克、天使投资人彼得·泰尔等一众硅谷大佬创办了 OpenAI,这是一家人工智能研究实验室,主要由盈利组织 OpenAI LP 与母公司非盈利组织 OpenAI Inc 所组成,目的是促进和发展友好的人工智能,避免人工智能脱离人类控制。OpenAI 重点研究开发尖端的人工智能技术,其中包括机器学习算法、强化学习以及自然语言处理等。OpenAI 在 2022 年 11 月 30 日发布了 ChatGPT,正式向外提供实时的在线问答对话服务。
ChatGPT 是什么
《知识的边界》一书中有这样一段话:
当知识变得网络化之后,房间里最聪明的那个,已经不是站在屋子前头给我们上课的那个,也不是房间里所有人的群体智慧。房间里最聪明的人,是房间本身:是容纳了其中所有的人与思想,并把他们与外界相连的这个网。
我对这句话的理解就是,互联网上拥有全人类的知识以及经验,为人工智能提供了海量的学习数据,当这些知识和经验被有序的进行组织之后,也同时为训练一个“懂王”人工智能应用提供了丰沛的数据土壤。而 ChatGPT 就是被互联网海量的文本数据以及语言资料库数据喂养训练之后,它就可以根据你输入文字的内容来生成对应的回答,就好像两个人在一问一答的聊天。它除了可以和你无障碍的进行沟通,甚至让你感觉你对话的不是一个聊天机器人而是一个学识渊博又有点风趣的真实的人,回答出来的答案甚至带有人类的某种语气,这在以往的聊天机器人中是不敢想象的。
这里稍微说明下 ChatGPT 的字面含义,它是一款通用自然语言生成模型,Chat 是对话的意思,而所谓 GPT 就是 Genarative Pre-trained Transformer,意思就是生成型预训练转换模型,听上去是不是有点不明觉厉的感觉。
除此之外,你还可以让他帮你完成一些实际的工作,比如写文案、写剧本甚至可以帮你直接写代码出来还可以帮你找到代码的 bug,这是程序员要把自己饭碗给砸碎而且是稀碎的节奏啊,在文字以及代码层面可以说是无所不能。这种输入问题立马给答案的交互方式,远胜于传统搜索引擎在海量数据中查找自己需要内容的使用感受,因此可以预见在不久的将来 ChatGPT 将会颠覆传统的搜索引擎,彻底改变信息检索的使用方式。
另外 ChatGPT 还可以在上下文语境下回答问题、同时能够主动承认自己的不足以及挑战问题的合理性。以下就是 ChatGPT 在否定我提出来的问题。
PS:帮大家问了 ChatGPT 如何成为世界首富,秘诀在下面。
正因为 ChartGPT 具备这样强大的理解能力、学习能力以及创作能力,促使它成为 AI 人工智能诞生以来,面向 C 端用户增长最快的智能应用产品。在以前,人工智能 C 端产品总是被认为不够智能甚至被嘲笑是“人工智障”,即便在 B 端也只是某些场景下使用,普通人根本感受不到 AI 人工智能的威力,但是 ChatGPT 的出现可能预示着未来人工智能将融入到普通人的生活当中。
PS:我真怕他回答有。
ChatGPT 为什么这么强?
虽然 ChatGPT 是一夜爆红,但是其背后的技术发展却并不是一蹴而就的。因此如果我们要想搞清楚 ChatGPT 为什么如此强悍,我们就得弄明白其背后实现的技术原理到底是怎样的。
语言模型迭代
我们都知道自然语言是人类进行交流沟通的最重要的工具,因此如何让机器可以和人通过自然语言进行无障碍的沟通交流一直是人工智能领域孜孜不倦追求的目标。而 NLP(Natural Language Processing,自然语言处理)就是计算机科学领域和人工智能领域专门研究让机器可以理解自然语言同时在此基础上进行响应的重要研究方向。那么要想让计算机可以识别自然语言,那么需要对应的语言模型来对文本进行分析处理。而语言模型的大致原理就是对语言文本进行概率建模,通过模型来预测下一段输出内容的概率。大致的过程如下所示,通过语言模型将一段话后面的出现概率最高的语句进行输出。
语言模型可以分为统计语言模型以及神经网络语言模型。而 ChatGPT 就属于神经网络语言模型,它在经过多个版本的迭代优化后才有了今天震惊四座的优秀表现。我们可以简单梳理下 LM(Language Model,语言模型)的发展脉络,看看语言模型是怎么一步步进行进化的,这对我们理解 ChatGPT 背后的技术原理非常有帮助。
RNN
RNN(Recurrent Neural Network,循环神经网络)在 NPL 领域有着广泛的应用。上文我们提到的 NLP 要解决的是让机器理解自然语言的问题,因此如果让机器理解一句话的含义,肯定不能只理解这句话中每个单词是什么意思,而应该处理这句话连起来之后的序列所表达的的含义是什么,而 RNN 解决的是就是样本数据为序列的建模问题。
但是 RNN 存在效率问题,在处理语言序列的时候是通过串行化的方式来进行的,也就是说后一个单词的的处理需要等到前一个单词的状态输出后才能进行,另外还有梯度爆炸和遗忘等问题。因此人工智能专家们不断在此基础上进行模型优化。
Transformer
Google Brain 2017 年在《Attention Is All You Need》论文提出了 Transformer 模型,这是一个基于自注意力机制的深度学习模型,主要针对 RNN 的问题进行了优化设计。特别是串行化出列文本序列的问题,Transformer 模型可以同时处理文本序列中所有的单词,同时序列中任意单词的距离都为 1,避免了 RNN 模型中因为序列过长到导致的距离过长问题。Transformer 模型的提出可以说是 NLP 领域跨越式发展的重要标志,因为后续著名的 BERT 模型以及 GPT 模型都是基于 Transformer 模型演化而来的。下图为 Transformer 模型结构。
GPT、GPT-2
无论是原始的 GPT 模型还是最新的 ChatGPT 模型其实都是以 Transformer 模型为核心结构的语言模型。GPT 使用的是 Transformer 模型的 Decoder 组件,比较适合根据上文回答下文的场景。
为了提高训练的精准度,很多机器学习的训练任务都是采用标记的 dataset 来完成,但是实际上标注数据是一个工作量很大的事情会耗费大量的人力和时间。因此随着算力的不断增强,实际上我们需要对更多的未进行人工标记的数据进行训练。因此 GPT 提出了新的自然语言训练范式就是通过海量的文本数据来进行无监督学习从而能实现模型训练。这也是 GPT 采用了 Pre-training + Fine-tuning 的训练模式的原因。GPT 的模型结构如下,它的训练目标就是根据上文来预测下文。
而 GPT-2 实际在模型结构上并没有大的改变,只是进行了简单的调整,主要是 GPT-2 使用了更多的模型参数以及更多的训练数据。它的目标就是训练出一个泛化能力更强的语言模型,所谓泛化就是应对没有遇到过的问题的能力。
GPT-3
2020 年 OpenAI 在论文《Language Models are Few-Shot Learners》中提出了 GPT-3 模型,它使用的模型参数两以及训练数据量都非常大。它主要提出了 LLM 的上下文学习的能力。
GPT-3 探讨了模型在 Zero-shot、One-shot、Few-shot 三种不同输入形式下的效果。它主要考虑如何让通过已有问题预测可能的回答,这里稍微解释下 Zero-shot、One-shot、Few-shot,Zero-shot 意味着只给提示,One-shot 会给一个范例,Few-shot 意味着给多个范例。但是它是没有考虑回答的内容是不是符合人类的预期的,这也是后期 InstructGTP 最主要的优化方向。
通过下表可以看的出来 GPT 训练的参数量级以及数据量级爆发性增长,当模型迭代到 GPT-3 的时候,参数量已经过千亿,预训练数据量达到 45TB,可以说是一个实打实的超级 LLM 模型了。巨大的模型参数量以及预训练数据量也带来了训练成本的不断攀升,GPT-3 的训练成本高达 1200 美元。
ChatGPT 关键能力
目前 OpenAI 还尚未就 ChatGPT 公开对应的论文,但是实际上的它的核心思想和 OpenAI 在 2022 年发表的论文《Training language models to follow instructions with human feedback》基本是一致的,InstructGPT 最重要的优化就是引入了 RLHF(Reinforcement Learning from Human Feedback,基于人类反馈的强化学习 )技术。通过让模型学习人类对话的过程以及让人类标注评价排序模型回答的结果来微调原始模型,使得收敛后的模型在回答问题的时候能够更加符合人类的意图。
另外这篇论文中提出来的 InstructGPT 训练方法实际和 ChatGPT 也基本是一样的,只是在获取数据的方式上稍有差别,因此 InstructGPT 可以说和 ChatGPT 是一对兄弟模型。我们具体来看下 ChatGPT 是怎么被训练出来的,以及 ChatGPT 如何解决让模型回答的答案更加符合人类的意图或者说偏好。
上面的训练过程可能看起来有点复杂,经过简化之后如下图所示,这样应该更加便于同学理解 ChatGPT 模型是怎么被训练出来的。根据官网给出的步骤,它的核心训练思想就是收集反馈数据-》训练奖励模型-》PPO 强化学习。
ChatGPT 训练过程主要分为三个阶段:
阶段一:通过监督学习,微调 GPT-3.5 初始模型
其实对于 LLM(Large Language Model,大语言模型)来说,并不是说训练的样本数据越多越好,为什么这么说呢?因为像 ChatGPT 这种大语言预训练模型都是在超大参数以及海量数据中被训练出来的,这些海量样本数据实际上对于人工智能专家来说时透明的,也是无法控制的。因此如果样本数据中带有一些种族歧视、暴力等不良的数据的时候,可能预训练出来的模型就会带有这些不好的内容属性。但是对于人工智能专家来说,必须要保证人工智能的客观公正不带有任何的偏见,而 ChatGPT 也正是朝着这个方面来进行训练。
因此 ChatGPT 通过监督学习的方式来进行模型训练,所谓监督学习就是要在“有答案”的 dataset 上进行学习。为此,OpenAI 雇佣了 40 家承包商来进行数据标记工作,首先让这些标记人员模拟人机交互进行多轮的语言交互,在这个过程中会产生对应的人工精标数据,这些精标数据用来对 GPT-3.5 模型来进行微调以便于获得 SFT(Supervised Fine-Tuning)模型。
阶段二:构建 Reward Model
随机抽取一批 prompt 数据后,使用第一阶段微调后的模型进行不同问题的自动回复,然后让标记人员对回答出来的结果进行从好到坏排序,排序出来的结果数据用来训练 Reward Model,在此过程中,对排序的结果继续进行两两组合形成排序训练数据对,Reward Model 接受数据对输入来给出回答质量的分数。这个 Reward Model 从本质上来讲就是抽象出来的人类真实意图。因为有了这关键的一步,Reward Model 可以不断引导模型朝着符合人类意图的方向去产生对应的回答结果。
阶段三:PPO(Proximal Policy Optimization,近端策略优化)强化学习微调模型
PPO 是一种信赖域优化算法,它使用梯度约束来确保更新步骤不会破坏学习过程的稳定性。在这个阶段继续抽取一批 prompt 数据之后,使用阶段二构造出来的 Reward Model 来对微调后的训练模型的回答进行打分来更新预训练的参数。通过 Reward Model 对产生高分回答进行奖励,由此产生的策略梯度可以更新 PPO 模型参数。不断循环迭代直至最终收敛模型。
可以看的出来实际上 ChatGPT 训练的过程实际就监督学习结合 RLHF 技术应用落地的过程,ChatGPT 实际上就是靠 RLHF 技术来实现生成一个比较符合人类预期的回答。
通过上面的模型训练过程,我们总结下来 ChatGPT 之所以具备强大的上下文理解能力,主要得益于三个方面的关键能力,分别是强大的基础模型、高质量的样本数据以及基于人类反馈的强化学习。
最核心的还是 RLHF 技术,通过训练来找到最能解释人类判断的 reward 函数,然后不断训练进行强化认知。
ChatGPT 带来哪些变革
取代搜索引擎
当前的搜索引擎只能根据我们搜索的关键字,在搜索引擎的数据库中匹配索引对应的网页进行结果反馈,像百度这样的搜索引擎还动不动给你塞点广告。用户仍然需要在返回的信息中找到自己最想要的。但是 ChatGPT 则不同,所答就是所问,省去了用户大量自己过滤无效搜索结果的时间和精力。ChatGPT 能够非常准确的把握用户实际意图的理解,而传统的搜索引擎还是关键字匹配的搜索方式,实际上并不理解用户输入搜索语句的真实含义,但是 ChatGPT 做到可以理解用户输入的真实意图。另外他还会创造性地回答,帮助用户从繁杂的工作中解脱出来。
PS:微软的 Bing 搜索引擎开始接入 ChatGPT。
取代人工客服
现在所谓的智能客服不过是预设了一些常见的问题进行自动回答,远远称不上所谓的智能的程度,但是在一定程度上可以降低公司在客服人员方面的投入成本。但是如果有了 ChatGPT 之后,由于它可以理解用户的真实意图,而不是机械地回答预设问题,因此更能够帮助用户解决实际客服问题,最大程度将客服人工成本降到最低。
取代内容创作
ChatGPT 不仅可以回答问题,它还可以进行内容创作,比如写一首歌,作一首诗以及写一篇活动策划等等。所以很多关于文字内容创作的从业同学都感觉到了深深的危机,以前一直觉得机器人最先取代的应该是体力劳动工作者,但是谁能想到 ChatGPT 的出现直接把很多脑力工作者的工作干没了。
ChatGPT 局限性
训练数据偏差
ChatGPT 的训练数据是基于互联网世界海量文本数据的,如果这些文本数据本身不准确或者带有某种偏见,目前的 ChatGPT 是无法进行分辨的,因此在回答问题的时候会不可避免的将这种不准确以及偏见传递出来。
适用场景有限
目前 ChatGPT 主要可以处理自然语言方面的问答以及任务,在其他领域比如图像识别、语音识别等还不局必然相应的处理能力,但是相信在不远的将来可能会有 VoiceGPT、ViewGPT,大家拭目以待。
高昂训练成本
ChatGPT 属于 NPL 领域中的非常大的深度学习模型,其训练参数以及训练数据都非常巨大,因此如果想训练 ChatGPT 就需要使用大型数据中心以及云计算资源,以及大量的算力和存储空间来处理海量的训练数据,简单来说训练和使用 ChatGPT 的成本还是非常高的。
总结
AI 人工智能已经说了很多年了,一直处于发展阶段,在一些特定领域已经取得应用成果。但是面对 C 端用户,基本没有可以拿得出手的真真意义上的人工智能应用产品。但是这次 ChatGPT 的发布却是一个里程碑式的节点事件,因为对于普通人来说 AI 人工智能不再是遥不可及的技术名词,而是触手可及实实在在的智能应用工具,可以让普通人真切地感受到 AI 人工智能的威力。另外我想说的是也许 ChatGPT 只是个开始,目前它只是按照人类的指令去完成对应的任务,但是在未来随着人工智能自我学习的不断迭代,可能会有意识,可能会自主的去做事情,到那个时候人类面对的到底是一个无所不能的好帮手还是无法控制的恶龙就不得而知了。
版权声明: 本文为 InfoQ 作者【慕枫技术笔记】的原创文章。
原文链接:【http://xie.infoq.cn/article/91513241881eb3197c9ebd4f3】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论