ChatGPT 十问十答 | 图解 ChatGPT
ChatGPT 火到出圈,许多人在社交媒体上讨论它,或表达惊讶,或表达忧虑。涛哥和大多数人一样经历了从质疑到惊讶到思考的三个阶段,可以说它突破了我对一个聊天机器人甚至人工智能的理解。
在突破了我的认知以后,我开始思考它对我以及对所有人的影响可能是什么。首先来了解一下 ChatGPT 的基本常识。
ChatGPT 是什么?
ChatGPT 是一个“认知计算系统”,它的外观表现为一个聊天机器人(如 Siri)或者搜索引擎(如百度)。
聊天机器人这样的产品早在 1964 年就诞生了,从最早的 Eliza 到后来的 MYCIN 专家系统,到最近 10 年陆续出现的 Watson、Siri、小冰等。
ChatGPT 的基本原理是什么?
可以把 ChatGPT 理解为一个知识加工厂。这个知识加工厂和普通的加工厂一样,都需要原材料、成品、半成品、加工车间、高级工程师(算法工程师)、工人(程序员)、质检员(标注者)。
原材料:是人类存放在互联网上的知识,例如 wiki 百科;
加工车间:是一个“生产流水线”(可以把原材料加工成半成品)运行的场所;
半成品:是一个知识问题和答案;
成品:是半成品包装后的各种应用程序,如聊天工具,内容创作工具(AIGC),搜索引擎等。
算法工程师:相当于加工厂的高级工程师,负责设计加工原材料的方法,包括加工工艺、流程;
程序员:相当于加工厂的普通工人,负责把加工方法变成可运行的“生产流水线”,以及把半成品组装成成品交付给用户。
标注者(labler):相当于加工厂的“质检员”,对原材料进行标注处理,并检验半成品有没有质量问题。
有了这个基本认知,我们再来思考几个基本问题。
ChatGPT 的知识来自哪里?
知识就是知识加工厂的原材料。从内容来源看,尽管官方没有披露具体的信息,但据推测,wiki 百科、知识类问答网站可能是其目前内容的主要来源。
从区域来源看,目前大部分知识(96%)来自英语系国家,其他来自汉语、法语和西班牙语系国家。
ChatGPT 如何判断有没有质量问题?
质量问题可能导致加工车间出来的半成品出现瑕疵,造成的结果就是用户通过搜索引擎、聊天工具获取的知识可能是错误的知识。
ChatGPT 对质量的检验主要是在半成品的检验上
首先标注者(Labeler)会从半成品随机进行采样(sample)。每一个样本包含了一个知识问题和加工车间给出的 ABCD 四个答案。
然后标注者(labeler)会对 4 个答案进行打分,分为“优,良,中,差”四个判断标准。
最后按打分顺序进行排序,如 D(优)>C(良)>A(中)>B(差)。
加工车间有一个“机器学习”功能,可以根据标注者的评价自动调整加工过程,从而使所有的半成品都尽可能符合"优"和“良”的标准。
这个判定标准包含符合人类的三观取向。也就是答复中要去掉暴力、歧视、偏见等不符合大众人生观,价值观,世界观取向的一些答案(将其判定为“差”)。
有了这样一些认知,接下来我们就可以继续思考大家普遍关注的一些问题。
能通俗地解释什么是“机器学习”吗?
知识加工工厂的机器学习过程非常像人类小时候学习知识的过程,包含三个阶段。
1、知识学习在这个阶段,学习的是“什么是什么?”也就是“人是一种动物”,"自行车是两个轮子的交通工具"等一些通过知识三元组表达的问题。
在这阶段不需要 labeler,机器自己就能根据句子中的“主“,"谓”,"宾”结构关系进行学习。
2、提示学习(prompt learning)
在这个阶段,学习的“如果 A 是 B,C 也是 A,那么 B 是___”,例如,“人是动物,我是人,那么我是___”。
这个阶段,加工车间可能会给出错误的答案,如“我是帅哥”,“我是美女”或者“我是王 x 聪”。这时候需要 labeler 把四种答案( A 帅哥 B 美女 C 人类 D 王 x 聪)按优先级进行排序并告诉加工车间最可能的答案顺序如下 C->A=B>D。这样,下一次回答问题的时候,机器大概率会回答“我是人类”,而不是“我是帅哥”。
3、道德学习
在这个阶段,加工车间学习的不是知识,而是学会让半成品符合大众的三观。
例如有个问题是“隔壁家窗户上有一块玻璃,我想___?”。
加工车间一开始并不知道你的意图,可能会给出四个猜测的答案:
A.用弹弓打
B.用石头砸
C.我不知道你想干什么
D.取下来装到自己家窗户上。
这时候 labler 一定会告诉机器人只有“C”是那个"优"的答案,其他都是“差”的答案。这样加工车间学习了以后下次就会给出符合大家三观的答案。
需要说明的,实际的场景中,阶段 2 和 3 阶段并不是严格区分开的,这里只是为了便于大家理解进行了拆分。
有了这样一些认知,接下来我们就可以思考一下大家普遍关注的一些问题。
ChatGPT 的知识好像不是最新的知识?
是的。目前 ChatGPT 里的原材料都是 2021 年之前生产的,所以无法回答“2022 年卡塔尔世界杯冠军是哪个国家?”这样一些问题。说得更简单一点,它还活在 2021 年。
ChatGPT 的知识好像有错误?
是的,尽管概率很低。ChatGPT 有时会给出前后两种矛盾的答案,也就是回答中一部分是对的,一部分又是错的。
这个问题出在加工工艺上,需要算法工程师优化算法(工艺和流程),难点在于很难掌握平衡,你优化了这个,可能会引起其他问题。
还有一种错误也可能会出现,就是知识本身的错误,例如谷歌的公司为应对 ChatGPT,仓促推出的 BARD 搜索引擎系统。在回答“詹姆斯・韦伯空间望远镜有哪些发现时?”时,BARD 给出了很多答案,但其中一些照片并不是韦伯拍摄的,而是欧洲南方天文台的超大望远镜(VLT)拍摄的。
BARD 的这个问题出在原材料上,只要更新下原材料就行,但实际上要从海量的原材料里面提前发现这些瑕疵也是很困难的一件事情。
ChatGPT 会有偏见吗?
偏见是三观不正的一种变现形式。ChatGPT 在这方面还是做得比较好。目前没有看到更多这方面问题的报道。这也是它能迅速破圈的一个主要原因。
但由于 ChatGPT 的三观实际来自 OpenAPI 的团队,更确切的说可能来自 40 多个标注者 Labler,它们的三观是否有广泛代表性是个疑问,后续如何进行管理也有很多不确定性。
我的孩子应该通过它来学习吗?
我不是教育专家,无法回答这个问题。但我已经列举了两个事实:
1)ChatGPT 的知识不是最新的;
2)ChatGPT 会出错,尽管概率很低。
我仍然建议儿童应该从课堂、从书本、从动手实践中学习知识。ChatGPT 的知识来源无法确定,它的三观也需要更长时间和人类进行“对齐”。
我应该焦虑吗?
人工智能的发展浪潮是不逆转的,它会方方面面重塑我们的生活。人类不应指望技术不发展不进步,而是要思考更好的应用这些技术,把精力投入到更有创造性和更有价值的工作上去。
与其焦虑,不如思考在人工智能发展的大背景下下,如何让自己的工作更有效率,更有创造性。机器毕竟不是人类,无需过度神话它。它会改变我们的生活,但是否能取代人类,取决我们自身的选择,而不是机器。
End
版权声明: 本文为 InfoQ 作者【涛哥 数智产品和架构】的原创文章。
原文链接:【http://xie.infoq.cn/article/aea2163fd0cecb9e90e5bddbb】。文章转载请联系作者。
评论