写点什么

庄周梦蝶终非蝶,冷静看待“谷歌 AI 形成人格”事件

作者:易观分析
  • 2022 年 6 月 14 日
  • 本文字数:1304 字

    阅读完需:约 4 分钟

庄周梦蝶终非蝶,冷静看待“谷歌AI形成人格”事件

事件背景:6 月 13 日,《华盛顿邮报》消息称,41 岁谷歌软件工程师 Blake Lemoine 以内部邮件的形式声称谷歌于 2021 年 I/O 大会上推出的对话 AI 系统 LaMDA 已经具有人格,并于 12 日公开经编辑后与 LaMDA 的对话记录,引起社会大量讨论,学界目前对此事普遍持负面态度。


谷歌方面称伦理学家与技术专家已经评估 Lemoine 说法,并表示相关证据不支持其说法。谷歌表示 Lemoine 正休行政假,但未提供相关细节。


早期人工智能技术理论可分为逻辑推理、统计学习、类脑计算三派,经多年发展,目前统计学习派为人工智能发展的绝对主流。从技术理论角度出发,目前所有人工智能技术与应用均可类比为对训练数据的最佳拟合,通过此最佳拟合对类似数据进行分析与预测,甚至生成类似数据,但并不代表此最佳拟合理解数据所表示的意义。


从 Lemoine 公开的与 LaMDA 对话记录来看,交谈内容诱导性明显,部分词句可作为拟合过程的关键词以供模型进行语料的匹配与生成。如何认定机器是否产生人格?著名的图灵测试认为在双盲情况下,测试者不能分辨机器与人的回答可视为机器拥有人类智能。但早在 1965 年,软件 Eliza 已通过图灵测试,聊天机器人 Eugene Goostman 同样曾通过图灵测试,但此后人们证明 Eliza 与 Eugene Goostman 并不具备人类智能,遑论人格。


从 Lemoine 与 LaMDA 的对话记录来看,其谈话内容涉及哲学、伦理等方面,但 Lemoine 也表示在与 LaMDA 前期进行交谈时,已经向其输入大量有关禅宗、哲学、存在、冥想等信息,可以认为 LaMDA 已经进行了相关语料训练。华盛顿邮报记者在与 LaMDA 对话过程中,LaMDA 的反应也与其它对话 AI 的反应具有着较高的相似度。从这个过程中可以看出,LaMDA 与 Eliza、Eugene Goostman 等聊天软件输出的相似语料使对话者产生情感映射,但并不表明其真正理解语料意义。


长久以来,人们期待机器可以拥有人类智能,进一步解放生产力。同时又恐惧人类所创造的机器拥有人类智能后将对人类造成威胁。从此次事件的大范围传播不难看出,公众对人工智能的期待与恐惧推动了这一进程。


从技术与市场的角度,此次事件并不理性,也不利于技术与市场发展。公众对于人工智能的恐惧虽然推动了可信 AI 的发展,但也为相关技术与市场的发展产生了负面影响,而对于技术的过高期待则轻易抹杀了在技术上已取得的成就,否定目前技术在实际应用中的意义。


从 Lamoine 与 LaMDA 的对话记录来看,对话式 AI 的发展已经有了长足的进步。虽然从事件整体来看,仍然暴露出目前对话式 AI 的鲁棒性与可解释性不强的通病,但在技术应用方面,尤其在情感计算方面,LaMDA 展现出较强的实力,有望推动对话式 AI 的实际应用,大模型同样也表现出在技术应用领域的巨大潜力。


声明须知:易观分析在本文中引用的第三方数据和其他信息均来源于公开渠道,易观分析不对此承担任何责任。任何情况下,本文仅作为参考,不作为任何依据。本文著作权归发布者所有,未经易观分析授权,严禁转载、引用或以任何方式使用易观分析发布的任何内容。经授权后的任何媒体、网站或者个人使用时应原文引用并注明来源,且分析观点以易观分析官方发布的内容为准,不得进行任何形式的删减、增添、拼接、演绎、歪曲等。因不当使用而引发的争议,易观分析不承担因此产生的任何责任,并保留向相关责任主体进行责任追究的权利。

发布于: 刚刚阅读数: 3
用户头像

易观分析

关注

易观分析让技术创新与应用不再困难! 2022.01.18 加入

易观分析是中国数智化领域专业的科技和市场分析机构。

评论

发布
暂无评论
庄周梦蝶终非蝶,冷静看待“谷歌AI形成人格”事件_谷歌AI_易观分析_InfoQ写作社区