零基础解读 ChatPGT:对人类未来工作是威胁还是帮助?
本文分享自华为云社区《零基础解读ChatPGT:对人类未来工作是威胁还是帮助?》,作者:关耳山石。
前言
年前到现在,一直被 ChatGPT 的新闻轰炸,现在还越来越热闹了,关于 ChatGPT 技术,关于人与 ChatGPT 未来发展的讨论,网络上众说纷纭。我就让同事从海外注册账号,直接问了 ChatGPT 这个问题,最后用 Stable Diffusion 生成了 ChatGPT 眼中未来的图像,如下图:
关于,这幅景象,它是这么描述的:
于是,作为一位严谨的“民科”和积极的开发者,立即开始跟随潮流,了解新技术 !希望能与大家一起交流看法,欢迎大家留言讨论~
一、ChatGPT 是什么?
1、ChatGPT 背后的公司们·OpenAI&微软
要聊 ChatGPT,必须得先聊 OpenAI。这本来是一家搞全栈 AI 创新的非盈利组织,重点研究物理机器人,背后甚至还有钢铁侠、彼得·蒂尔、YC 总裁 Sam(任 CEO)等一众硅谷大佬身影,而 GPT 系列模型只是众多研究方向之一。
因为非盈利组织无法进行融资,就搞了个商业的壳子,吸引了微软投资,最后达成的结果是:OpenAI 要优先使用微软的技术(主要是 Azure),微软得到了 OpenAI 技术的使用权,这也是 ChatGPT 与微软之间的联系。
2、ChatGPT 背后技术·GPT-3.5
GPT 这模型已经发展四代了,目前开放了 GPT-3 的 API(收费的),ChatGPT 用的是 GPT-3.5,还有一代 GPT-4 没见过(据说 Bing 融合的就是这个)。
这个东西到底是干啥的,如果感兴趣,建议去看李宏毅老师的视频,省流版就是: 文字接龙机器人,一个学了 2/3 的互联网知识,整个 Wikipedia,多个书籍库,以及一套“自动补齐”能力的文字接龙机器人。
(引至李宏毅老师的视频)
但是平时咱们用的输入法基本也会一些文字接龙,但是接起来的感觉前言不搭后语的,为啥 ChatGPT 就行了呢?网上还找不着 GPT-3.5 相关的材料,只能研究研究 GPT-3 的创新点去推断了:
模型相当大
1750 亿参数,这个参数大概意思是表示每个字/词出现的可能性。到底有多大,看下图就有个直观的感受。
当然,训练数据量也极其的大,大约是 4990 亿个 Token(简单理解为字/词),号称学了 2/3 个互联网、整个 Wikipedia 和几个书籍库。按照这个信息量,一定是高度冗余的,也是绝对充分了。
(图片源于网络)
“加钱”效果相当好
这玩意还有个很神奇的地方,就是有钱能使它推磨,“加价”的效果立竿见影:从趋势来看,模型越大,效果越好。想必将来还会有更大的模型出来,毕竟有多大钱,GPT 能创造多少奇迹嘛!(DeepMind 还做了个推导,算出来一个模型参数与数据量的最优线性关系)
通用性相当好
这也算个特别牛的事情,不用进行额外的“调教”,已经学会了干很多事,简直是 AI 工程师的福音。
举个例子,我们有个相似需求推荐的场景,是基于 BERT 的基础模型,加上一堆(上千条)人工标注的训练数据集,再调优一把,才能使用在我们的场景里。有了这个大力仔,就不需要这一套了,直接拿来即用。而且还有个比较有意思的,哪怕要教模型做点事,也不需要工程师了,直接在输入里写上寥寥几个例子(In Context Learning),模型就学会了。
“意识”涌现相当惊人
学名叫 Chain-of-Thought,思维链,这是最让人惊讶和细思极恐的了。
就是当模型足够大,层数足够多的时候,居然还就从量变到质变了,产生了一些类人的逻辑思维能力。这玩意我没看到更深刻的解释,但是从表象上看,确实会做一些逻辑题了。比如算算数、做一些逻辑推理。
PS:我从网上看到一个数据,列在这里做个备注 - OpenAI 的 GPT 3 的规模为 175B,Google 的 LaMDA 规模为 137B,PaLM 的规模为 540B,DeepMind 的 Gogher 规模为 280B 等,不一而足。国内也有中文巨型模型,比如清华 &智谱 GLM 规模 130B,华为“盘古”规模 200B,百度“文心”规模 260B,浪潮“源 1.0”规模 245B。(规模 = 模型的参数规模,单位是 Billion)
(图片源于网络)
3、从 GPT-3.5 到 ChatGPT 的意义
如果说 GPT-3 是理论或底层能力的创新,那么 ChatGPT 的创新就是工程和商业层面的,甚至是一个里程碑式的。
这是一个“现象级”的产品
首先,我认为,将一个大众无法理解的技术,变成“现象级”产品,是 ChatGPT 的最牛创新,使得“AI 使能”落入寻常百姓家,与每个人产生了化学反应,所以这绝对是划时代的。
Google 2022 年 I/O 大会的时候,我也做了一波洞察,看到 LaMDA、PaLM 的展示,能够体验的人极少,感知到其魅力的也是极少的。而 ChatGPT 做了个简陋的 Playground 就迅速抢占了大众的心智,看到有数据说,从 0~100 万用户只用了 5 天,过亿只用了 2 个月,基本没有额外的获客成本。甚至还让竞争对手意识到,再不搞起早起五更都赶不上晚集了。以至于前几天 Google 不仅召回了两位创始人,快速规划对话式搜索的上线,还大笔投资了 OpenAI 的“港湾”组织 – Anthropic)。
从工程上,我理解 ChatGPT 是 GPT-3.5 的一个优化应用。简单说,就是先人肉标注一些 GPT-3.5 返回数据,以教 GPT-3.5 说话,然后用强化学习的算法来持续评价,最终实现了这么个神奇的模型。(号称用到了 40+的人力来持续教 AI 做事,据说还有肯尼亚的低价劳工。)
可惜不开源
ChatGPT 不开源,GPT-3.5 模型也不开源。两者都不支持在中国使用(包括 HK),所以网络上开始有二道贩子开始倒卖,或直接接到微信上付费使用。两者目前都有商业化的手段,GPT 模型是直接卖 API,ChatGPT 出了 Plus 版,20 美刀一个月,优先使用。(GPT-1 模型和 GPT-2 的部分小规模模型是开源的,OpenAI 的理由是,大规模模型能力太强大,怕被坏人利用)
二、ChatGPT 会对我们产生什么影响?
首先,我们得先认识到,ChatGPT 只是众多 LLM 中比较会秀的一个。GPT 系列属于大规模语言模型(LLM)前沿中的一支,DeepMind(搞 AlphaGo 下围棋的那公司)、Google、FB,都有自己的优秀实践。从技术能力上,我觉得还远没有到比哪个更好的程度,倒是 ChatGPT 这一波秀出圈以后,大家找金主爸爸要钱会更容易了,这是个大家都开心的事儿。
关于替代人类工作的讨论,用微软 CEO 纳德拉的话说:“信息的整合、转译和流通,变得廉价”。因此对于所有与信息整合、转译和流通相关的工作,还是会有影响。
侵入“创造性”工作
GPT 模型已经离谱到,直接把图案转成向量喂给它,就能帮我们补齐图片(image-gpt)的地步,或许我们曾以为的文案、绘图,甚至是编码这些曾经被认为无法被 AI 替代的工作都将被入侵。
取代“搜索和问答”
人类在已有知识的搜索和输出上,可能永远无法超过 AI。Google 已经开始加快 LaMDA 的速度,然后是微软继续加注 OpenAI 并开始在 Bing 中融入,再然后 StackOverflow(技术类知识问答界的明珠)用户量降了 3200 万,所以我觉得,大模型是靠谱的,替代也是迟早的事儿。
让 AI 应用更简单
ChatGPT 的 Zero-shot 效果显著(LLM 有三种学习方式,Few-shot、One-shot、Zero-shot,讲人话就是举多反一、举一反一、无中生有),这个能力在语言模型中,影响极其深远。简单来说,就是我们如果想在项目中引入 AI 能力,GPT 很好的通用性、极少的“调教”量会使得工程上更简单。
ChatGPT 背后基础模型能力成熟且强,更多此类大模型被打造出来后,使得千千万万的 AI 加持变成可能,实现“AI 使能”落入寻常百姓家。
而且,OpenAI 卖通用 AI 的 API 的生意还是可以赚钱的(见下图,1k token 大约等于 750 个字,看着不算贵,默认还有 18 刀的体验费用),这里不得不开个玩笑:AI 工程师们,你们把 AI 的道拓宽了,把自己的道都走窄了啊!
三、ChatGPT 并非万能
从根子上理解,GPT 算法在做的其实是“补齐”工作:即通过学习人类说话的方式,基于上下文,推测后面你打算说啥。具体要回答啥,则完全靠概率计算,靠“违和感”。
如此一来,当下的 GPT 算法势必就有几个特点:
需要海量的数据、算力和钱
搞个这种算法,总共烧了多少钱呢?22 年是 5 个亿刀,前七年 40 亿刀,最近微软新加注 100 亿刀。(我看网上说,ChatGPT 训练下来大约 1200 多万美金,这样看来,微软的投资,还是打好算盘的,钱要花在自己身上才算值)。而且,搜索引擎和信息入口企业已占先机,想要再进入,都需要更多的数据、钱和算力。当然,还需要很多标注人力来调教模型,让其有人的习惯和三观。
真实版“人云亦云”:
类比鹦鹉学舌,有响应不代表有思考,响应够用也不代表足够 优美。虽然它对通识类的知识理解,效果非常好(何谓通识?就是搜索引擎能搜出一堆来的知识,互联网本身信息已经高度冗余了,只是作为个体的人类不太清楚罢了),但其实 AI 也并不知道自己说的对不对,它只是知道,大家一般都这么说,然后做一些看起来不错的回答。(思维链除外,这个东西细思极恐,只是欺负它目前还没有那么成熟)
时效性问题
即目前 ChatGPT 学的是 2021 年前的知识,所以不知道 2022 年世界杯谁赢了,不过对于这个问题是可解的。OpenAI 的 WebGPT 算法,已经与 Bing 结合,把最新的信息投喂给模型,如此一来,它也就知道最新消息了。(我不清楚具体是如何实现,猜测应该不是去实时训练基础模型,而是在上层叠加了什么)
四、我们如何利用 ChatGPT
这个问题我想再扩大一点,扩大到 AIGC 这个话题上,AIGC 已经被 Science 列为 2022 年 TOP10 科学突破,2022 年是当之无愧的 AIGC 元年,结合我们的日常工作,我认为以下方面是可以快速尝试和引入的:
信息摘要和初级创作:主要用于日常办公效率提升的场景
从信息摘要的角度,这就是信息爆炸时代的良药,简要描述为用魔法打败魔法:直接让 AI 从繁杂的信息中摘取需要的重点内容,节约人力;从初级创作性工作替代上来看, AIGC 可以快速帮我们做完早期的工作,更多精力投入“微雕”。
从 OpenAI 的 Codex 来看(支撑 Github Copilot),对于常用算法、业务逻辑代码、重构(包括跨语言的重构,比如从 java 改成 go)、代码注释(福音啊!)等的代码生成能力已经逐渐成型, 我试着面向 GPT 编程,效果相当好:语法工整、注释清晰、变量准确(除了逻辑错了一丢丢 – 返回是月末周日,而不是周六)
通识类问题解答:主要用于通识类知识搜索和问答场景,在公开域搜索信息,以减少人力搜索和辨别的过程。
IT 系统拟人化:主要用于人机交互场景,这个用途好像很少有人提,可能太偏门了。我觉得其实 AIGC 特别合适帮我们 IT 系统的输出更“丝滑”、更“拟人”、更“准确”,优化机器输出更加的“人性化”,符合普遍大众的习惯。
五、写在最后
“吾生也有涯,而知也无涯。以有涯随无涯,殆已!”,我觉得古人的智慧足以回答关于人类与 ChatGPT 未来发展的问题,在我看来,对于 ChatGPT,甚至是更宽广的技术发展来说,科技是为了解放人类的双手,让我们用更充足的精力去进行思考、探索和创造,AI 应该成为我们的辅助能力,而不是竞争者。
想要了解华为“盘古”大模型的,文末领取丰厚资料包~
附件:盘古大模型材料包 .pdf135.66KB
版权声明: 本文为 InfoQ 作者【华为云开发者联盟】的原创文章。
原文链接:【http://xie.infoq.cn/article/b952ac7a0a51e6c486f9add84】。文章转载请联系作者。
评论