智能的统一哲学
最近几年随着大数据和人工智能技术的突破性发展,大数据和人工智能已经成为被社会广泛使用和传播的热词,人们对人工智能的未来做出了各种乐观或悲观的预测。不过我们很少看到大家从哲学角度定义什么是智能,什么是数据,什么是知识,我们每天都在使用这些词汇,但是大多数时候我们并没真正想过这些我们每天都在用的词到底是什么意思,彼此之间的区别是什么。
人工智能或机器学习是最近几年非常火爆的一个概念,这些概念和名词甚至已经溢出了 IT 行业的边界,成为了社会各界普遍使用和讨论的概念,但是更诡异的是很少有人讨论人类的智能和人工智能有什么异同?机器的学习和人的学习有没有共同之处?
最近看了一本书叫做《暗知识:机器认知如何颠覆商业和社会》,书中把人工智能掌握的知识称为“暗知识”,如果从这些知识人工智能能够发现但是人类很难发现这个角度来说,暗知识和明知识的分类是可以说得通的,但是这本书更多还是着眼于介绍最新的人工智能技术成果,没有对知识的哲学性和系统性思考。
我在此想提出的是一个通用于人类智能与人工智能的哲学理论,这种理论是一个适应于所有智能的共通哲学,这也是我这篇文章标题的含义。本文由三个部分组成,第一部分是名词定义,是对一些我们日常生活中经常接触的词汇的抽象思考,第二部分是基于新的名词定义详细解释人类智能与人工智能的共同点和区别,第三部分是对人工智能未来发展的探讨,人工智能的发展对人类来说到底是福是祸,人工智能的真正社会风险在哪里。话不多说,接下来让我们进入正题。
第一部分:名词定义:
在这个部分我们要按照新的逻辑关系重新定义一些我们日常都在使用的词汇:
1.体验(或者叫做经验):主体(人或机器)通过感官器官与外界环境进行的交互。无论是人类的眼睛和耳朵还是自动驾驶汽车上的传感器本质上都是一种感官器官,这些感官器官和外界环境不断地进行交互。
2.数据:体验的主体在体验发生之后在内部存储结构中对体验的映射。无论是存储在大脑神经元结构上还是存储到固态硬盘上,数据都是对外界环境交互的映射和模拟。
3.知识:从数据之中发现的某些具有偶然性或因果性的数据之间的联系和模式。人类发现用手触碰火苗会有灼伤的体验,这就是一个知识,不能用手去触碰火。超市的数据分析部门发现很多人在买完尿布之后会顺便买啤酒,这也是知识。
这些知识有些是对偶然联系和模式的描述,比如同时买尿布和啤酒更多是男性顾客,女性顾客并不会这么做。有些则是有很大确定性的因果关系,比如把石头扔上天石头会落下来,这是因为地球的引力。所以不是所有的知识都是确定性的。
4.智能:智能是一种能力,能够把和外界环境的交互映射为数据,能够从数据中发现知识,并根据知识调整行动。如果按照这个定义智能不是只属于人类的一种能力,一些高级的哺乳动物也能够有某种程度的智能。比如说日本的猴子发现冬天泡在温泉里可以保持体温,不会被冻死,于是日本的猴子泡温泉就成了一个著名的旅游参观项目。如果按照智能的这个定义,说一些机器是具有智能的也是没有问题的。
5.科学:人类在最近几个世纪发展出来的一种独特的用于甄别和筛选知识的方法论,根据数学计算和可控实验来验证知识的准确性。在科学方法出现之前,人类没有更好的甄别和筛选知识的手段,一些偶然或是错误的知识被当成正确的知识,并且很多知识被称为“神圣的”,不允许质疑和甄别。现代医学出现之前,欧洲人相信放血可以治疗很多疾病,于是很多人就被活活地放血过多弄死了,比如著名的美国国父华盛顿。在古代希腊人们把打雷闪电当成宙斯在施展神力,古代中国人也把一些自然现象比如日食和地震当做是上天的某种旨意和消息。
6.大数据:计算机与各种智能机器与外界环境交互后记录的数据。大数据的特点不在于数据量大,也不在于数据维度多,大数据的根本特征是(一)大数据是超过人类感官范围之外的,人类的感官是有固定范围的,比如说人类不能感知红外线,人类不能感知某些超低频或超高频的音波,大数据依靠各种机器设备突破了这个限制。(二)大数据的数据量大是因为机器把所有与外界环境交互的结果都映射为数据,在从交互到映射的过程中不做筛选,而人类不是把所有的交互都映射为数据,每天我们的意识中只映射有限的交互行为结果,大量的交互行为在大脑中是没有映射的。
总结:我们的名词定义构建了一个认知的金字塔结构,最下层的是体验,是通过感官器官与外界环境的交互,上面一层是数据,是对交互的映射和存储,再上一层是知识,是从数据中发现的联系和模式。在现代科学出现之前,人类的认知层次只到知识这一层,现代科学让人们可以通过可控实验和数学计算来甄别和验证知识,于是出现了一个新的认知层次,那就是科学化的知识。
科学化的知识经过更多人的验证,具有更好的可复现性,任何一个人按照科学论文中的设备和步骤都应该复现出同样的结果,如果不能复现要么是实验设备和步骤出了问题,要么是知识本身不可靠。以可控实验和可复现的实验结果为基础,科学化的知识要比非科学化的知识有更好的可靠性,但是由于科学方法的严谨和数学化表达,科学化知识的可理解性降低。
图 1:认知金字塔
第二部分:人类智能与人工智能的异同:
既然我们通过名词定义已经建构了一个认知的金字塔结构,我们就拾级而上从塔底到塔顶分别分析一下人类智能与人工智能的异同。
1.体验:人类的感官体验类型是有限的,人类只有眼,耳,鼻,舌,皮肤等有限的感官器官,每种感官器官的感受范围也是有限的,例如人类的眼睛只能感受可见光,对于红外线,紫外线等光线是看不到的,人类也无法用肉眼观察细菌等微生物,在列文虎克发明显微镜之前人们是看不到致病菌的,所以没有消毒意识,也无法把人类的疾病和微生物联系起来。例如人类的耳朵只能听到有限频谱的声音,对于超低频和超高频都无法听到,所以人类很长时间内都无法理解蝙蝠在黑暗之中是如何飞行的。
通过人类科学技术发展,我们现在可以观测到微生物,也可以观测到超低频的声音,甚至能观测到宇宙大爆炸时产生的引力波,但是这些观测都需要某种特殊设备的协助,对于大多数人来说,这些设备和他们的日常生活距离很远。所以大多数人对于这些人类感官能力范围之外的信号还是缺少直观的体验,我们都知道细菌和病毒是一些疾病产生的原因,但是大多数人还是没有机会直接看到这些细菌和病毒的。
借助于科学技术的发展,人工智能可以通过联网自动获取各种观测设备上的数据,这样就可以获得不间断的数据流,并对数据进行分析,提取出知识,在这方面人类要弱一点,人类只能通过间接地观测设备上的信号标志或仪表盘来读取数据,读取频率不如人工智能高,读取不可能是不间断的,读取过程中也可能产生错误,比人工智能通过联网直接获取数据效率要低。
2.数据:人类大脑有 860 亿个神经元,几万亿个神经元连接,所以人脑的存储能力并没有我们想象的那样不堪,但是大脑的并行计算能力赶不上人工智能,人脑的短时记忆只能记住 5 到 7 个信息项,即使是天才也很难超过十个,这就是为什么现在的人类已经无法看懂人工智能是怎么下围棋了。大脑的短时记忆有限,不过大脑的运行能耗要比计算机低得多, 虽然 AlphaGo 能打赢李世石和柯洁,但是能耗要比李世石和柯洁下棋时的能耗高出几个数量级。
为什么人类大脑有着如此经济适用型的能耗呢?至今神经科学家们尚且没有定论,不过我猜测可能是和大脑以预测为主的工作方式有关。我们每天都要从外部环境接受各种各样的信息,但是并不是所有的信息都会进入短时记忆和长时记忆。著名的“看不见的大猩猩”实验揭示了大脑是以预测为基础来接受和存储数据的,实验者要求被试在视频中数出身穿白色球衣的运动员传了几次球,结果没有人注意到一个穿着大猩猩服装的人出现在视频里,因为这不是大脑想预测的内容,所以被直接屏蔽了。如果你乘坐地铁上下班,你可能都不会注意到地铁上的其他乘客(除非是令你惊艳的帅哥或美女)。我们总喜欢说“眼见为实”,其实我们并不能准确记录我们看到的一切,我们看到什么取决于大脑预测机制的焦点和目标。
计算机没有大脑的这种以预测为基础的前置信息筛选和识别机制,人工智能的发展必然会导致对海量数据的需求,因为只有依靠海量数据,人工智能才有可能和人类智能达到同样的效果。人类的大脑有一种神奇的魔法,只要给幼儿看过猫或是狗的图片,即使下次出现在幼儿面前的是卡通化或是抽象化的猫和狗,比如说动画片猫和老鼠中的汤姆,幼儿也能准确地告诉你那是猫。人脑的这种神奇魔法至今仍然让人工智能领域的专家百思不得其解,但是有可能还是和大脑以预测为导向的信息接受存储方式有关。人工智能要想达到同样的识别结果就只能用一力降十会的方式,依靠积累海量数据,从海量数据中提取出知识。从海量数据中提取模式必然需要海量的运算,这就是为什么人工智能领域英伟达的 GPU 应用得比较多的原因,因为需要海量的数学运算。
3.知识:人类从新石器时代末期的智力大飞跃开始就一直在积累知识,按照我们前面的名词定义,所谓的知识就是从大量数据中发现的联系和模式。这些知识有的是有很大确定性的,比如把大麦的种子撒在土地里,经过浇水施肥可以长出新的大麦,只要土壤的肥力没有问题,这么做大概率会得到新的大麦。也有一些知识是完全偶然性的联系,许多原始部落的巫术和一些古老的禁忌在很大程度上就是这些偶然性知识被当成确定性知识的结果,比如苏门答腊地区,女人在播种稻子时,为了使稻子增收,便把长发松散下来披在背上,据说这样可以使稻子长得又长又密。在东非乌干达境内的布干达地区生活的巴干达人相信,一个女人会因为自己生殖力的缺乏,如不孕,而影响丈夫果园果树的收成。
在漫长的人类历史中,确定性知识和非确定性知识是混杂在一起的,无法把它们分开,每个地区的古老文化和信仰都是确定性知识和不确定性知识被时间之火熬成的一锅粥。比如我们今天能够对星座和运程侃侃而谈要感谢古代美索不达尼亚(今天的两河流域,即伊拉克和伊朗,美索不达尼亚就是希腊语两河之间的意思)祭司们长期的天文观测。古代美索不达尼亚的祭司们花了大量的时间观测天空中星星的运行轨迹,他们观测这些是为了从中得出人间权力和秩序的变化,但是他们也因此积累下来大量的天文数据,为后世的天文学打下基础。
中国的“天文学家”和美索不达尼亚的祭司们一样试图通过天上的阴晴圆缺预测出地上的权力游戏结果,虽然董仲舒等人发明的天人感应儒学被抛弃了,但是天象的预测和解释依然是后世王朝中最具敏感性的技术,所以才会有袁天罡和李乘风的传说。掌握了这些技术在古代中国人看来就是得到了上天传递的信息,钦天监历朝历代都是被控制得非常严的地方,因为任何天象都可以被解释为某种不利于统治者的信息,流传出去会引起政局的动荡。虽然官方“天文学家”的观测更多地为了预测人间的权力游戏,但是中国古代因此也积累了大量详细的日食,月食,地震等自然事件的记录,比欧洲人记载得要详细地多。
人工智能本质上就是通过强大的运算能力从人类记录的数据和各种传感器中得到数据中找到知识(模式和联系),因为人工智能的数据源比人类更多样,数据量更大,所以人工智能能够发现一些人类很难发现的知识就是必然的了,比如一些超市的数据分析就发现一些顾客会同时买尿布和啤酒,这是靠人类经验很难发现的模式,但是人工智能得出的结果是不是百分之百有效和正确的呢?当然不是!人工智能的很多数据来源于人类记录的数据,我们前面说了人类大脑不是把所有看到听到的都记录下来的,人类记录的数据难免有错误或是不全面的时候,基于错误或不全面得出的知识也未必是确定性的。
就拿尿布和啤酒的例子来说,我觉得这种联系更有可能在美国的大型量贩超市出现,因为美国的大型量贩超市一般开在市郊,很多时候都是家中的男人周末去一趟搬回来一周的生活用品。男人在给孩子买尿布的时候顺便给自己买点啤酒也是正常的。如果一个开在中国市中心的小超市如果借鉴了这个知识,就有可能没有效果,因为有可能小超市的顾客都是周围的居民,男女都有,女性顾客一般不会在给孩子买尿布时捎上两瓶啤酒吧,这种概率不大。所以人工智能得出的结果未必是确定性的知识,因为得出知识基于的数据有可能是不全面的。
早在几百年前,著名的怀疑论哲学家休谟就提出了人类积累知识时的两个致命性错误,一个是把或然当成必然,一个是把实然和应然混淆。这两个错误翻译成白话就是“你以为你以为的就是你以为的吗?”我们看见一万次白天鹅都不能证明所有的天鹅都是白的。人工智能为了得出结论需要依赖人类投喂的海量数据,所以现在的人工智能同样无法保证能得出确定性的知识,即使有再高级的芯片,数据的有限性也是人工智能无法客服的障碍,除非有一天人工智能可以自主获取数据,当然那时候的人工智能就不会是今天我们看到的弱人工智能了。
4.科学化的知识:在近代出现科学之前,人们积累知识时很难把确定性比较大的知识和偶然性的知识区分开来,东方人尤其是中国人在处理知识时更倾向于使用类比推理,譬如穿山甲会穿洞,有人就用类比推理推测吃穿山甲可以治疗人体内的各种臃堵。又譬如古代中国人认为人和天地是按照类似的运行规则运行的,所以可以根据天地运行的规则来推导出人类社会运行的规则,这套理论就是《易经》。让我们来看看《易经.系辞传》是怎么说的:“易与天地准,故能弥纶天地之道。仰以观于天文,俯以察于地理,是故知幽明之故。原始反终,故知死生之说。精气为物,游魂为变,是故知鬼神之情状。与天地相似,故不违。知周乎万物,而道济天下,故不过。旁行而不流,乐天知命,故不懮。安土敦乎仁,故能爱。范围天地之化而不过,曲成万物而不遗,通乎昼夜之道而知,故神无方而易无体“。
古代中国人在分析问题时喜欢使用类比推理,古代的希腊人在分析问题时喜欢使用逻辑推理。逻辑推理最典型的方法就是柏拉图和亚里士多德使用的三段论,一个大前提,加上一个小前提,能够得出结论。比如那个著名的三段论推理,人都是会死的,苏格拉底是人,所以苏格拉底也是会死的。逻辑推理是不是比类比推理更可靠呢?这倒是未必的,逻辑推理同样可以得出错误的结论,比如亚里士多德认为圆形是最完美的图形,而天上的星星运行的轨迹也是完美的,所以星星的运行轨迹都应该是圆形。这个理论占据欧洲的头脑长达一千多年,直到开普勒根据第谷积累的观测数据计算出行星的运行轨道应该是椭圆形的,当然开普勒时代已经是科学方法开始萌芽的时代,开普勒得出结论也不是根据逻辑,而是根据数据和数学计算。
西方历史上真正的科学革命应该是从伽利略开始的,如果说泰勒斯是西方哲学史上第一个哲学家的话,伽利略应该算是西方科学史上的第一个真正的科学家。科学不再依靠逻辑推理和类比推理,而是依靠可控实验和数学计算得出结论。伽利略是否在比萨斜塔上进行过自由落体实验已经和牛顿的苹果树一样成了一个神话,但是伽利略确实进行过斜坡落体实验,伽利略通过实验推翻了亚里士多德关于物体自带重性,重的物体重性更多的理论。从伽利略开始,科学方法逐渐替代西方原来的逻辑推理方法成为一种得到确定性更大知识的方法论。
科学方法和以前积累知识方法最大的区别在于允许质疑和证伪,科学方法不意味着完全放弃推理,但是科学方法对推理得出的结论持怀疑的态度,推理得出的理论必须经过可控实验的验证并且符合数学公式的运算结果才能被认为是暂时正确的,但是后来的科学家随时可以通过新的实验证据来推翻现有理论或是缩小现有理论的适用范围。即使是牛顿的三大定律和爱因斯坦的相对论也是在得到大量实验结果的支持下才被科学界接受为确定性知识的。有人说爱因斯坦得到诺贝尔奖不是因为相对论是诺贝尔奖颁奖者的错误,我认为这么说的人根本不理解什么是科学,科学并不仅仅是几个天才提出的精彩绝伦的理论,还包含着大量的验证工作,爱因斯坦的相对论是后来被大量实验和观测证实之后才被接受为确定性知识的,而诺贝尔奖不因为相对论授予爱因斯坦诺贝尔奖反而代表着对科学精神的尊重。
现在的人工智能可以依靠各种传感器和外界环境进行更多元化的交互,得到人类感官无法得到的体验,比如说超声波和红外线。现在人工智能几年内搜集和存储的数据比人类历史上搜集和存储的数据总量还要高出几个数量级,人工智能不像人一样在搜集和存储数据时有过滤机制,导致现在的人工智能只好通过搜集和存储海量数据来模拟人类的认知能力,因为人工智能搜集和存储的数据更全面,更中立于人类的偏见和情绪,可以得出更中立的结论。人工智能可以从海量的数据中提取出知识,这也是很多时候人类大脑无法做到的,人类的短时记忆容量有限,无法把大量数据装载到短时记忆进行计算,所以很多人工智能可以得到的知识单纯靠人脑计算是无法得到的。
现在人工智能在认知金字塔的第一层次到第三层次上都有人类无法替代的优势,但是在认知金字塔的顶层,现在人工智能依然存在短板,现在人工智能的问题不在于人工智能的强弱,而在于人们对人工智能的错误使用和错误理解,人们认为人工智能得出的结论就一定是正确的,这本身其实是不符合科学精神的,人工智能提取出来的知识同样也需要可控实验的验证,我们对人工智能得出的知识也要像人类得出的知识一样保持质疑和证伪的过程。科学的发展造就了人工智能阶段,但是装备了人工智能的人类反而背离科学精神越来越远,这不能不说是一种讽刺,这种悖论的出现是由于科学研究的分工过度碎片化,人们只专注于解决具体的科学问题,而忘记了科学的核心精神。
第二部分可以总结为以下的一个图表
图 2:人类智能与人工智能的不同点
第三部分:人工智能的危与机:
我们第一部分定义了一些我们常用的名词以及由四个部分组成的认知金字塔,第二部分我们从认知金字塔的最底层到最高层比较了人类智能与人工智能的异同,第三部分我们聊聊人工智能未来对人类社会的影响,以及人类社会在使用人工智能时有可能遭遇的陷阱。
人工智能这个词最早出现在 1956 年的达特茅斯夏季论坛,最早使用这个词的是约翰.麦卡锡。自从上世纪后期计算机逐渐普及以来,人工智能或是人工智能机器人就成了各种科幻小说和电影的主角。很多人担忧人工智能会产生独立的意识,然后会导致人类的毁灭。霍金和马斯克都曾经对人工智能对人类可能的威胁发出过警告。我不能说他们的警告都是杞人忧天,我也不能预测最近几十年内会不会出现带有自主意识的强人工智能。不过相比人工智能拥有自主意识并毁灭人类的威胁,我个人更担忧人类对人工智能的误解和误用会导致人类社会的衰亡。
现在的人工智能依然是人类的工具,尚且不具备自我意识,但是作为工具的人工智能未必对人类没有威胁,就像希腊神话中太阳神之子法厄同的战车一样,人类现在是否有足够的智慧来使用人工智能这个大杀器其实是个问题。人工智能可能对人类社会造成的威胁有以下几项:
(一)加剧不平等:过去几百年的技术的发展确实为人类社会带来了很大的福音,婴幼儿死亡率下降,人口平均寿命增加,这是不容否认的事实。不过技术的普及是需要时间的,有些技术在普及之前会让技术的拥有者对不拥有这些技术的人形成一种压倒性的优势。如果不明白我这句话是什么意思就请联想一下马克沁机枪,当马克沁机枪被发明之后欧美殖民者对技术落后的殖民地人们就有了一种压倒性的优势,几把马克沁机枪就可以顶住几万中国人对一个小巷子的围攻,也可以让无数拿着大刀长矛冲锋的非洲战士血染沙场。
通过人工智能可以更快地搜集和存储数据,更快地产生知识,这同样让一些掌握了人工智能的人对不掌握人工智能的人产生了更大的优势。外卖平台网站通过大数据掌握了给各种数据,从而得到如何最大化外卖小哥使用率的知识,而不掌握人工智能的外卖小哥就只能选择要么被压榨到毫无喘息地疲于奔命还是彻底放弃这个职业。因为外卖平台网站掌握了大量关于客户口味和习惯的知识,可以做到精确引流,餐厅为了销量就只能满足外卖平台网站的各种不合理要求,比如“二选一”等等。
现在的人工智能发展还处于初级阶段,被影响的行业和工作还不是太多,随着人工智能的进一步发展,人工智能技术会像互联网技术一样影响到各行各业。到了那个时候如何让人工智能的技术成果被更多人共享,让更多人受惠,而不是成为一小撮人工智能精英压榨社会上其他人的技术手段,这是非常考验人类智慧的巨大挑战。
(二)数字化集权:人工智能技术是在互联网技术的基础上发展起来的,没有互联网产生的海量数据,是不可能有人工智能技术今天的发展成果的,不过这不代表着人工智能和互联网有着同样的底层逻辑。互联网技术本质上是趋向于碎片化,长尾化,互联网技术的发展让人们更容易找到和自己兴趣爱好志同道合的人,日常生活中的各种小众和边缘群体都能在互联网上找到大量的同伴,互联网把原来通过报纸和电视塑造的统一文化碎片化了,现在的互联网是由众多彼此不了解也不想了解的小群体组成的,在这些小群体中小众的文化和产品也通过小众群体在互联网上的集结而获得了生存机会,这就是互联网时代长尾化的原因。
如果说互联网底层的逻辑是碎片化,那么人工智能底层的逻辑就是集中化。在人工智能的世界,数据就是石油,数据越多样化,数据之间的关联越多,能够提取出来的知识就越多。很多人想不明白为什么互联网巨头不惜赔本也要进入更多的行业领域,并且这种夸领域的扩张没有停止下来的趋势。其实在人工智能时代,真正有价值的不是产品和服务,而是通过这些产品和服务获取的数据。说得难听一点,低价使用这些产品和服务的人就是数字时代的奶牛,而这些数据接入到人工智能的产品和服务就是挤奶器,我们以为自己是消费者,其实我们和奶牛和被吸胆汁的黑熊一样都是被消费的。
现在无论是哪个国家的互联网巨头都在向人工智能巨头转化,因为他们掌握的数据更多,能提取的知识更多,得到的利益越大。随着互联网巨头向人工智能巨头转化,他们会进入越来越多的行业去汲取数据,除非受到其他力量的遏制。随着人工智能巨头的发展,社会上会不会出现少数几个掌握了所有人各个方面数据的超级人工智能巨头呢?我觉得不能排除这种可能性。当一小撮人变成了掌握了其他所有人全面数据的人工智能巨头,其他没有掌握超级人工智能的人又如何反抗这些人工智能巨头的压榨和统治呢?会不会变成一种人工智能时代的超级集权统治呢?我觉得这种可能性不是没有的,这就是我为什么一直觉得《西部世界》描绘的未来人类社会要比超级人工智能产生自主意识毁灭人类更有可能成为现实。
(三)数字化迷信:我前面说过人工智能得到的知识和人类知识一样是需要验证的。人工智能技术是计算机科学,神经科学,认知科学等各个科学领域合作产生的成果,很多对科学精神缺乏理解的人由此认为人工智能得到的知识是完全准确和可靠的,这种理解反而是一种数字化时代的迷信,是对科学精神的背离。根据科学的核心精神,所有的理论都不具有百分之百的确定性,都需要不断接受新的可控实验的验证和质疑。
人工智能现在可以通过分析海量数据得到和人类类似的结果,但是现在人工智能得到的知识还缺乏足够的透明度和可验证方式。现在的人工智能可以和熟练的放射科医生一样分析 X 光照片和其他医学图像从而找出患有癌症的患者。这种人工智能看起来可以解决熟练放射科医生人手不足的问题,但是现在很多人工智能得到结论的过程是一个黑盒,这其实是一个最大的问题,也就是人工智能得到的知识不是可验证的。
现代医学是科学的一部分,医生根据医学影像得到癌症诊断的过程是有清晰定义并且可复现的,一个医生有可能犯错和误诊,但是他得到诊断结果的过程是可以被其他医生复现的,这样他的错误就有可能被别的医生发现和纠正。现在人工智能得到的诊断结果是否可以被验证呢?如果一个人工智能软件得到了一个错误的医疗诊断结论,其他人工智能能够对结论进行验证并纠正错误吗?如果不能的话,这种无法被验证的知识就不是科学化的知识,就缺乏足够的可信性,就算现在人工智能得出的结论都是正确的也不代表着它永远都是正确的,别忘了休谟几百年前告诉我们的道理,你看见一万次白天鹅都不意味着所有天鹅都是白色的。
如果人工智能得到的知识都缺乏透明性和可验证性,而人类完全依赖这些无法被验证的知识,我们就会回到启蒙时代以前。按照马克思.韦伯的理论,现代化过程就是一个“祛魅”的过程,所谓“祛魅”就是用科学精神去验证一切现有的知识,用可复现性和可证伪性作为验证知识的手段,并且对所有人类积累的知识保持怀疑的态度,用科学方法产生的知识作为人类社会运行的基础。如果我们把未来人类社会运行的基础都建立在不可验证的人工智能知识上,我们会摧毁掉几百年来启蒙运动的成果,回到被迷信掌控的时代,只不过是迷信的对象从“圣人之言”变成人工智能罢了。如果说现在人工智能的重点是如何得到知识,那么未来人工智能最大的挑战就是如何让人工智能得到的结论可以被验证,让人工智能得到结论的过程透明化。
最近我听说亚马逊依靠人工智能给雇员评分,并且根据雇员评分解雇了几个员工。我不知道亚马逊使用的这套人工智能系统是如何得出结论某个员工无法胜任的,这个过程是否可验证。如果未来这种人工智能系统推广到越来越多的公司并且这套系统得到结论的过程是不透明的,我深刻怀疑这种依靠人工智能系统的结论解雇员工的做法是否真的是正确的和对公司有益的,我怀疑这套系统反而会解雇那些有创造性的人才,正是这些人才有可能做出和其他人不一样的行为。
总结一下,人工智能并不是神器,人工智能得到的知识也不是神谕,遗憾地是太多人被炫目的技术名词迷惑了,也忽视了科学的基本精神,在我看来这种误解和误用才是人工智能对人类真正的威胁,恐怕还没等到人工智能产生自主意识去毁灭人类,人类已经用这种超级武器自我毁灭了。人类曾经学会了如何使用火而不被火烧死,希望人类也能学会掌握如何使用人工智能这个新技术。
版权声明: 本文为 InfoQ 作者【木铎】的原创文章。
原文链接:【http://xie.infoq.cn/article/3a14490a462ddc9a053483b22】。文章转载请联系作者。
评论