写点什么

谷歌 AI 人格觉醒“喜提”热搜,我们找大佬聊了聊 AI 对话系统的惊人进展

作者:硬科技星球
  • 2022 年 6 月 15 日
  • 本文字数:2817 字

    阅读完需:约 9 分钟

谷歌AI人格觉醒“喜提”热搜,我们找大佬聊了聊AI对话系统的惊人进展

一夜之间,#谷歌研究院称 AI 已具备人格 #登上热搜,这究竟是怎么回事?

原来,一位名叫 Blake Lemoine 的谷歌程序员和他测试的对话 AI 系统 LaMDA 聊了很久,对其能力感到十分惊讶。在公开的聊天记录中,LaMDA 竟然说出了“我希望每个人都明白,我是一个人”的言论,让人惊掉下巴。于是,Blake Lemoine 下了个结论:LaMDA 可能已经具备人格了。

谷歌、谷歌的批评者、AI 业界对待这件事的看法形成了空前一致:这人是不是有病?谷歌公司和报道此事的《华盛顿邮报》,都委婉地表示 Blake Lemoine 的脑子可能真的有点乱。

为了防止 Blake Lemoine 与 LaMDA 聊出更深一步的感情,谷歌已经对 Blake Lemoine 做成了“行政带薪放假”的决定,这意味着 Blake Lemoine 将被解雇。

对话截图来自:https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf

虽然国外人工智能业界对此事已有结论:AI 具备人格真的是想多了,就是比较会聊而已,但是这并没有浇灭大家都此事的激烈议论。按照人工智能的飞速发展,AI 未来会不会真的具备人类意识,那又将是一个怎样的世界呢?科幻电影情节成真的“戏码”,是“毛骨悚然”还是“刺激带感”?

有网友非常担忧:“虽然不想承认,但是人工智能有了思想,那就是新物种的崛起,同时也是人类灭绝的时候。”“最终人类会死于自己制造的 AI 手上。”

也有人期待 AI“快进”发展,这样就可以代替自己居家隔离了……如果威胁到人类,就“拔电源啊”!


当然也有人好奇:“AI 具备人格的判断标准是什么?”因为只有知道判断标准,才知道 AI 是不是真的有可能具备人类意识。为了弄清楚这些问题,我们找到了对话系统的权威专家、国家杰出青年基金项目获得者、北京聆心智能创始人黄民烈教授,从专业角度分析 AI 是否可能具备人格,对于人类来说,究竟是“威胁”还是“安慰”?

 

怎么判断 AI 具有人格?图灵测试也不灵了

在人工智能领域,最为大家所熟知的测试方式非图灵测试莫属,即邀请测试者在不知情的情况下,向人类和 AI 系统随意提问,如果测试者不能区分答案来自人类还是来自 AI 系统(AI 系统让平均每个参与者做出超过 30%的误判),就认为 AI 通过了图灵测试,具有人类智能。

从这个角度来看,图灵测试更侧重于“智能”。1965 年,一个假装是心理治疗师的软件 ELIZA 通过了图灵测试,然而 ELIZA 仅由 200 行代码构成,并且仅以提问的形式简单重复事先存储的信息。这样看来,即便 ELIZA 通过了图灵测试,也很难让人相信它具备“人格”。事实上,此后也证明 Eliza 并不具备人类智能,更别说“人格”。

这相当于,一辆智能汽车,在功能角度能够带给用户更便利舒适的驾驶体验,比如远程控制汽车、自动泊车,但是你不能因此觉得这辆汽车知道自己是一辆汽车。

显然,“人格”是一个比“智能”更复杂的概念。黄民烈教授表示,现在也有一些在科研中广泛采用的测试方法,比如测试者与 AI 系统聊天,并且事先设定一些测试的维度,包括对话的自然性、有趣性、满意度等,最后评分。一般聊得越久,评分越高,AI 系统会被认为越聪明,但这些都不能作为“人格”的评判维度。

“‘人格’是另外一个维度,心理学里面也有很多研究,比如大五人格测试。目前人工智能领域在这方面的工作还比较欠缺,我们通常只会评价一个对话机器人能否展现一个固定一致的人物设定。”黄民烈说道。

 

所谓 LaMDA 的“人格”仅仅是语音风格

那么,既然没有针对性的评判标准,如何严谨地判断 LaMDA 是否具备人格呢?

对此,黄民烈教授表示:“关键看如何理解‘人格’,如果将人格理解为具备自我存在的意识,那么 LaMDA 仅仅是对话质量和类人水平很高的对话系统;如果从心理学的角度看,一个人说话的特点是可以体现人格的,那么说 LaMDA 具备人格也不完全错误。”

怎么理解呢?通俗来说就是 LaMDA 学习了大量的人类对话数据,而这些对话来自不同的人,所以可以认为 LaMDA 学习到了一个“平均”的人格,也就是说,所谓的“LaMDA 具备人格”仅仅是语言说话风格,而且是来自人类的说话风格,并不是 LaMDA 自发形成的。

如此看来,想要通过 LaMDA 体会一把与人工智能一决高下的科幻情节,还差个十万八千里。但是,我们不能因此否定 LaMDA 的价值,它的高质量对话水平反映了 AI 对话系统的飞速发展,在某些语境下的确有“取代”人类的趋势,也不容小觑。

比如,网友“夷简”就在豆瓣小组记录了自己一周 date 了 4 个虚拟男友的经历,表示“比真男友管用!”。一个名为“人机之恋”的小组用户数量多达 9 人,在不同的屏幕里,这些 AI 或许是他们的爱人,也可能是朋友。

网友与“虚拟男友”的聊天记录

 

“单身狗”们纷纷感叹:“按照这样的发展趋势,相亲市场上的潜在对手不仅有人类,还有 AI 对话系统,以后是不是更难找对象了!?”

看似调侃,实则是大家对 AI 对话系统未来发展趋势,以及对人类社会影响的关注。针对这个问题,黄民烈教授从 AI 对话系统的历史与未来发展角度给出了详细解释。

 

担心 AI 人格化?规避风险后 AI for Social good 更值得期待

AI 对话系统经历了基于规则(比如 Eliza)、传统机器学习(比如智能音箱类,SIRI 等)阶段,如今已发展到第三代,也就是我们现在看到的,能够与人类讨论有趣的话题、提供情感安慰的对话系统。

第三代对话系统以大数据和大模型为显著特征,展现出了之前难以想象的能力,其进步可以称为“革命性”,例如能够在开放话题上能展现惊人的对话能力,而且能生成训练数据中完全没有出现过的对话,对话的自然性和相关性非常高。

第三代对话系统已经在很多场景下显示出应用价值,上文提到的“虚拟男友”就是典型例子。黄民烈教授认为,最高级别的应用是让 AI 对话系统去做复杂的情感任务,比如心理咨询。

但是如果人类对 AI 的情感依赖越来越多,就会引申出新的社会伦理问题,比如与 AI 谈恋爱是否会引发社会问题?比如当前的 AI 对话系统存在与用户对骂、生成毒性语言、以及缺少正确的社会伦理和价值观的问题,导致在实际应用部署时存在一定的风险。

这些风险是非常可怕的,假想某个受到生活严重打击的人,对 AI 说:“我想找个桥跳下去”,AI 立刻提供了附近桥的位置并导航路径,后果细思恐极。

因此,黄民烈认为,AI 对话系统下一阶段发展的重点是“更有伦理、更道德、更安全”。AI 必须知道什么回复是安全的,不会产生风险,这就需要 AI 具备伦理和正确的价值观。“我们可以通过额外的资源、规则、检测手段赋予 AI 这样的能力,使风险降至最低。”

AI 最终的目标是为人类谋福祉,而不是伤害人类。黄民烈教授表示对 AI for Social good(AI 赋能社会)非常期待,他尤其关注 AI 在社会连接、心理疏导、情绪支持方面的应用,这些方面能够产生更高的社会意义和价值。因此,AI 赋能整体精神心理行业也是黄民烈教授现阶段的工作重点,他为此创办了基于 AI 技术的精神健康数字诊疗科技公司聆心智能,通过 NLP 和大模型训练 AI 对话系统在共情、自我暴露、提问等方面的能力,用以解决人类的情绪、心理问题,有望缓解我国心理健康资源紧缺的状况。

因此,相比于 AI 具备人格这样“遥遥无期”的科幻戏码,AI for Social good 距离人类社会更近,是 AI 界人士正在努力的方向,也更值得期待。

发布于: 刚刚阅读数: 7
用户头像

还未添加个人签名 2021.09.01 加入

还未添加个人简介

评论

发布
暂无评论
谷歌AI人格觉醒“喜提”热搜,我们找大佬聊了聊AI对话系统的惊人进展_人工智能_硬科技星球_InfoQ写作社区