写点什么

大语言模型必将取代一切?暂时不会!

作者:深数
  • 2023-03-20
    上海
  • 本文字数:2887 字

    阅读完需:约 9 分钟

大语言模型必将取代一切?暂时不会!

伴随 GPT4.0 版本的发布,人们对通用人工智能(AGI)的讨论达到一个新高峰。很多人说 AGI 将颠覆已有的问答、绘画、翻译、语法检测等解决方案,在过程中逐渐形成自我意识,并最终取代人类。笔者认为随着算法精进,训练集扩充,训练成本降低,AGI 能像所描述的那样,迭代成像人类一样能理解、能学习的人工智能。但短期来说,尚不能取代基于深度学习的智能客服、图像识别等专用人工智能解决方案。本篇内容仅代表作者个人看法,有很大的主观性,错漏难免,还请谨慎参考。



必须承认的是,最近这段时间,OpenAI 日行千里,基于转换器的生成式预训练模型(GPT)的大语言模型(LLM)进步神速。以前跟聊天机器人对话,机械式的回答令人乏味。如今,ChatGPT 已经可以“理解”用户的问题,回答递进式的追问,或根据用户的要求进行“创作”,还能根据用户的补充设定,调整回复内容和文案风格。GPT 的强悍表现正推动我们奔向科技变革的浪潮之巅。


实际上,AGI 和专用人工智能,两者发展方向和技术原理并不相同,某种程度上说甚至是相互矛盾的。长远看,强调通用性,能自主学习并具备理解能力的 AGI 势必会成为普世性产品。但仅就目前来说,完全依赖模型自主生成的内容,会挑战行业的专业和严谨性。人工智能生成内容(AIGC)本身的不可预知性,更适合做图文创意、总结归纳、语法检测、翻译闲聊等辅助引导类工作。


科技进步具备颠覆性,在语法检测、文本撰写等领域,ChatGPT 的越维式进步,无意为之就能令一些知名的软件服务商黯淡无光。例如 Grammarly,一款在线英文写作辅助工具,它可以检查单词拼写、纠正标点符号、修正语法错误、调整语气以及给出风格建议。上述这些 ChatGPT 都可以做,且基于聊天的交互形式,支持追问和场景设定,实际使用体验和性能表现要更好。但在金融、医疗、法律、竞赛等专业领域,传统基于深度学习的人工智能方案,诸如 NLP 客服、医学图像识别、AlphaGo 等短期内并不会被取缔。


Source from Medium.com


机器学习,包括深度学习,遵循的是 Data Fitting。从工程角度上说,就是分析近似度找映射关系,通过海量数据(训练集的数据量级远低于 LLM)生成模型,输入一个未知的参数 x,计算与模型内容的近似度,并根据预设参数,输出模型全量参数中与 x 近似度最高的值 y,近似度越高越能明确 y 是什么,获得明确的结果/回答,反之则无法识别。x 需要包含在已训练的数据范畴之类,如果输入一个与训练集风马牛不相及的参数 x,则无法识别。


以图像识别为例更容易理解,用海量的狗和猫照片训练模型识别猫和狗的能力,训练完成后,用一张全新的猫或狗的照片让机器人辨识,往往能辨识出来,如果提供鹦鹉的照片则无法区分。基于深度学习的 NLP 客服解决方案,是将知识库中的标准问题与海量近似问放在一起训练,完成用户问题到标准问题的映射,当用户给出问题 x 后,模型识别到对应的标准问题 y,再根据 y 返回与之对应的经专业人员编辑好的答案。


从本质上说,模型并不知晓图片或用户问题所表示的含义,仅是基于一套复杂“规则”完成从 x 到 y 的近似度计算。在问答场景下,不论识别对错与否,机器人回复的答案始终是“可控”的,无非是下边几种情况:


1、模型明确识别用户问,给出正确答案

2、模型明确识别用户问,给出错误答案

3、模型无法识别用户问,给出可能标准问题列表

4、模型无法识别用户问,给出无法识别提示并引导转人工


不论如何回答,答案都是在知识库里维护好,经专业人员编辑且能对外展示,不易产生误导。业务和工程团队需要关注的,是对训练集的优化以实现更高的识别率和答准率。


基于深度学习的 NLP 模型是在具体的任务场景下用具体的数据进行训练的,数据质量越好,模型效果越好,还要尽量避免不相关的数据,最好是保质又保量,质在量前。而以 LLM 则是另一套模式,需要比 CNN(卷积神经网络)高多个数量级的训练数据,在庞大的训练数据面前质量则稍显次要。


GPT-3.5 的进化历程,from:机器之心


从 2019 年 Transformer 问世,让大语言模型突破了参数和算力限制,从此语言模型也进入参数越多,数据越大,模型效果越好的时代。基于 Transformer 也衍生出 GPT(OpenAI)和 Bert(Google)两种 LLM 方案,自然语言处理效果均远优于传统 NLP。到 2020 年 6 月 GPT3.0 出现,以 OpenAI 为主导的 GPT 方案开始占据上风。后来 OpenAI 通过引入 in-context learning、Codex 大幅降低了 GPT 的非预期输出,并让模型“涌现”出推理的能力。近期通过引入 RLHF(基于人类反馈的强化学习),构建人类反馈数据集,训练一个 reward 模型,让模型迎合人类的聊天喜好,ChatGPT 就此诞生。再次以问答场景为例,面对同样的用户问题,基于深度学习的 NLP 模型不会回复超出知识库外的答案。而受 RLHF 的影响,当 ChatGPT 不知道真正的答案时,提供明确的、有帮助的答案优先级要高于说实话(不知道答案),此时 ChatGPT 可能会盲目且自信的“胡说八道”。在提供写作创意、日常闲聊等场景下,这没什么问题,但在金融、法律、医学等需要对用户问题给出精准释义的领域,仅受有限约束(禁止冒犯性的话和不当言论)ChatGPT 生成式回答则并不合适。


19 世纪初叶,蒸汽火车的出现和发展并没有完全取缔船舶运输,而是在一段时期内,持续提升货船的运量。这是因为长距离运输商品,使用货船的性价比更高,而蒸汽火车的出现,提升了从偏远地区到货运码头的效率,更多的企业主将产品源源不断的运输到码头,卖向世界各地。火车的出现激发了内陆的货运需求,带动了货运总量的提升,货运总量的快速提升,又带动了整个货运行业的高速发展。历史具有相似性,GPT 暂时不会取代垂直场景下,诸如基于深度学习的 NLP 问答等服务,但在训练集生成和优化上又能提供大量支持,反过来通过工程技术将标注与 RLHF 结合,还能实现对 LLM 进行调优,实现双赢。


目前大量研究表明,随着 LLM 模型规模增长,NLP 的效果会得到提升。ChatGPT 已经向我们证明了 LLM 模型能力的一角,未来的技术发展趋将会是追求规模越来越大的 LLM 模型,通过增加预训练数据的多样性,来涵盖越来越多的领域,LLM 自主从领域数据中通过预训练过程学习领域知识,随着模型规模不断增大,很多问题随之得到解决。可以肯定的是朝着 AGI 的方向是明确的,并不需要专门针对某个具体领域问题,冥思苦想去提出专用解决方案,人民需要的是“one LLM solve all things”。研究重心会投入到如何构建这个理想 LLM 模型,而非去解决某个领域的具体问题。与此同时,LLM 将从 NLP 领域向外拓展,通过整合多方能力,引入多模态,支持图片、音频、视频等媒体的输入输出,并通过引入自监督学习,释放模型自主从图像、音频、视频等数据中学习知识的能力。


自从 2016 年 AlphaGO,在与人类围棋冠军对弈中取得历史性的胜利后,人类再也没有在围棋领域战胜过它。有人说,人工智能的发展就像是一列迎面而来的火车,当它从人类的身旁疾驰而过,接下来只会将人类越甩越远。很多人对 AI 的快速发展感到焦虑,其实大可不必,发表在《美国国家科学院院刊》的科学研究表明,因为 AlphaGO 的出现,人类围棋选手们正变得更加有创造力,超级人工智能程序的发展正促使人类选手摆脱传统策略,并探索新颖落子,从而提高了他们的决策水平,支撑他们迈向更高更强。几年前的 AlphaGO 是如此,未来 AGI 亦会是如此,我们都是历史的亲历者和见证者。

发布于: 刚刚阅读数: 2
用户头像

深数

关注

还未添加个人签名 2023-02-21 加入

还未添加个人简介

评论

发布
暂无评论
大语言模型必将取代一切?暂时不会!_人工智能_深数_InfoQ写作社区