庄周梦蝶终非蝶,冷静看待“谷歌 AI 形成人格”事件
事件背景:6 月 13 日,《华盛顿邮报》消息称,41 岁谷歌软件工程师 Blake Lemoine 以内部邮件的形式声称谷歌于 2021 年 I/O 大会上推出的对话 AI 系统 LaMDA 已经具有人格,并于 12 日公开经编辑后与 LaMDA 的对话记录,引起社会大量讨论,学界目前对此事普遍持负面态度。
谷歌方面称伦理学家与技术专家已经评估 Lemoine 说法,并表示相关证据不支持其说法。谷歌表示 Lemoine 正休行政假,但未提供相关细节。
早期人工智能技术理论可分为逻辑推理、统计学习、类脑计算三派,经多年发展,目前统计学习派为人工智能发展的绝对主流。从技术理论角度出发,目前所有人工智能技术与应用均可类比为对训练数据的最佳拟合,通过此最佳拟合对类似数据进行分析与预测,甚至生成类似数据,但并不代表此最佳拟合理解数据所表示的意义。
从 Lemoine 公开的与 LaMDA 对话记录来看,交谈内容诱导性明显,部分词句可作为拟合过程的关键词以供模型进行语料的匹配与生成。如何认定机器是否产生人格?著名的图灵测试认为在双盲情况下,测试者不能分辨机器与人的回答可视为机器拥有人类智能。但早在 1965 年,软件 Eliza 已通过图灵测试,聊天机器人 Eugene Goostman 同样曾通过图灵测试,但此后人们证明 Eliza 与 Eugene Goostman 并不具备人类智能,遑论人格。
从 Lemoine 与 LaMDA 的对话记录来看,其谈话内容涉及哲学、伦理等方面,但 Lemoine 也表示在与 LaMDA 前期进行交谈时,已经向其输入大量有关禅宗、哲学、存在、冥想等信息,可以认为 LaMDA 已经进行了相关语料训练。华盛顿邮报记者在与 LaMDA 对话过程中,LaMDA 的反应也与其它对话 AI 的反应具有着较高的相似度。从这个过程中可以看出,LaMDA 与 Eliza、Eugene Goostman 等聊天软件输出的相似语料使对话者产生情感映射,但并不表明其真正理解语料意义。
长久以来,人们期待机器可以拥有人类智能,进一步解放生产力。同时又恐惧人类所创造的机器拥有人类智能后将对人类造成威胁。从此次事件的大范围传播不难看出,公众对人工智能的期待与恐惧推动了这一进程。
从技术与市场的角度,此次事件并不理性,也不利于技术与市场发展。公众对于人工智能的恐惧虽然推动了可信 AI 的发展,但也为相关技术与市场的发展产生了负面影响,而对于技术的过高期待则轻易抹杀了在技术上已取得的成就,否定目前技术在实际应用中的意义。
从 Lamoine 与 LaMDA 的对话记录来看,对话式 AI 的发展已经有了长足的进步。虽然从事件整体来看,仍然暴露出目前对话式 AI 的鲁棒性与可解释性不强的通病,但在技术应用方面,尤其在情感计算方面,LaMDA 展现出较强的实力,有望推动对话式 AI 的实际应用,大模型同样也表现出在技术应用领域的巨大潜力。
声明须知:易观分析在本文中引用的第三方数据和其他信息均来源于公开渠道,易观分析不对此承担任何责任。任何情况下,本文仅作为参考,不作为任何依据。本文著作权归发布者所有,未经易观分析授权,严禁转载、引用或以任何方式使用易观分析发布的任何内容。经授权后的任何媒体、网站或者个人使用时应原文引用并注明来源,且分析观点以易观分析官方发布的内容为准,不得进行任何形式的删减、增添、拼接、演绎、歪曲等。因不当使用而引发的争议,易观分析不承担因此产生的任何责任,并保留向相关责任主体进行责任追究的权利。
版权声明: 本文为 InfoQ 作者【易观分析】的原创文章。
原文链接:【http://xie.infoq.cn/article/9c0f4882960e8723513af5640】。文章转载请联系作者。
评论