53. 人工智能不可能真正拥有心智
前文我们已经介绍了功能主义。其核心思想是:心智的本质就在于一系列的抽象的功能,而这些抽象的功能可以多重地实现于不同的物理机制。
功能主义又有一个科技味更浓的版本,即“机器功能主义”。机器功能主义的核心思想就是:人类的心智归根结底就是一台“万能图灵机”(指一种可以运算任何合法的运算式的抽象计算模型)。如果把人类的不同心理状态处理成不同的机器内部状态,并且规定在不同的内部状态中,机器能够给出不同的行为,实际上我们就已经把人类的心理活动加以程序化了。只要这个程序足够复杂精妙,我们就可以模拟各式各样的心智活动——比如说希望、欲望、厌恶,等等。
机器功能主义与人工智能有着非常明显的亲缘关系。而本节所要呈现的对于机器功能主义的批评,就与人工智能密切相关。
中文屋论证:强人工智能是不存在的
美国哲学家约翰·塞尔提出了一个对于机器功能主义的批评,即“中文屋论证”。该论证是要证明,即使人工智能强大到现在的科学技术所难以企及的程度,这样的机器仍然不具备人类智能活动的一个重要方面,即理解语词的意义。换言之,“强人工智能论题”是不成立的。
什么叫“强人工智能论题”?其意思是说,我们迟早能够将人工智能的技术发展到这样的一个阶段,即它不仅貌似具有人类的智能,而实际上是真的具有智能的。
而与该论题相对应的论题则是“弱人工智能”。其含义是:无论人工智能的技术发展到什么地步,它也仅仅只能模拟人类的智能,它归根结底仍然不具有真正的心智的。
约翰·塞尔就认为,弱人工智能是可以实现的,强人工智能是不可能实现的。为了说明这一点,他给出了一个思想实验。
这个思想实验就是说,假设有一个人——姑且就假设这个人就是约翰·塞尔本人吧——他被关在一个房间里面,要与屋外的人笔谈。屋外的人看不到屋里的人,屋里的人看不到屋外的人,他们仅仅能够传递字条。谈话的目的是,屋外的人要确定屋里的人是否懂中文,屋里的人则要欺骗屋外的人,让他误以为自己懂中文。但真相是:屋内的人是根本不懂中文的。
假设现在屋外的人向屋内人递了一张纸条,上写“今天天气怎么样?”。约翰·塞尔一看,这几个汉字没一个认识的,那怎么办呢?
塞尔所在的这个房间,我们称之为“中文屋”。中文屋里面有一个超级字库,里面有所有的汉字。还有一部“规则书”,规则书里面的规则都是这样的格式:“如果你看到屋外的人向你递纸条,上面有294号汉字加上56号汉字加3号汉字,你就扔出字库里面的89号汉字加54号汉字”。
约翰·塞尔就按照这个规则书的要求,给出了一个句子,扔给外面的人。外面人一看,回答的句子是:
“今天天气不错。对了,您吃过了吗?”
屋外人没看出破绽,就与屋内人继续对话了50分钟,最后给出结论:里面的人真的懂中文。
讲到这一步,约翰·塞尔就问了,外面的人觉得我懂中文了,但是我觉得自己懂中文吗?我可不懂中文哦,我做的事情只是搬运符号罢了。而一台计算机在处理各式各样的信息的时候,其工作的实质,与我约翰·塞尔在所谓的中文屋里面所做的工作,又有什么不一样呢?就像进入中文屋中的我不懂中文一样,计算机的CPU也不可能懂任何一种人类语言——而懂人类语言的意义是具有智能的一个必要条件。既然这个必要条件无法被满足,由此就可反推出:任何一台计算机,无论它多么强大,在原则上,它是不可能懂人类语言的意义的,因此,也是不具有真智能的。故此,强人工智能是不可能实现的。
那么约翰·塞尔的论证,到底是成立的还是不成立的呢?
对于中文屋论证的三个反驳
我本人对于中文屋有三个反驳。第一个反驳是:中文屋内的规则书本身是可能写出来的吗?
让我们复习一下:这里所说的“规则书”,就是这样的一个规则集合:该集合穷尽了所有可能的汉语表达式的输入与输出之间的关系。但是,任何人只要用他的常识想一想,就会发现:汉语表达式的数量是无穷多的,因此,如果将这些表达式作为输入的话,与这些输入所对应的输出也是无穷多的,而在输入与输出之间的映射规则也是无穷多的。这样一来,用以囊括这些映射规则的规则书,又怎么可能写得出来呢?别忘记了,不管计算机的程序代码有多长,无限长的代码是不可能被写出来的。
还有一个反驳是:约翰·塞尔预设他自己能够看规则书。但这规则书本身是用啥语言写的呢。
因为约翰·塞尔是以英文为母语的,那显然这个规则书要用英文写。这就冒出了一个问题,约翰·塞尔在看英文的这个规则书的时候,规则书本身的英文他是怎么理解的?
这就说明他至少是懂一种母语的,而且是在这种母语所提供的思想平台上表达出“我不懂汉语”这层意思的。然而,在真正的计算机系统里面,如果我们说有任何一个计算机部件是懂任何一种真正的自然语言的,恐怕会很牵强。
这也就是说,约翰·塞尔说的这个例子未必是和计算机真正相关的。所以,他对于中文屋的攻击,未必能够真正攻击到人工智能。
约翰·塞尔的中文屋思想实验还有一个问题:该论证包含了一个错误的预设,即:未来的人工智能肯定是按照行为主义的方式来运作的,因为只有站在行为主义的立场上看,理解语言的信息处理过程,才需要被简化为在特定的输入集与输出集之间建立起映射关系的过程(而所谓“规则书”的说法,就是这套行为主义说辞的具体化)。但为何未来的人工智能专家需要接受这套行为主义说辞呢?为何他们不能按照功能主义的观点,更为精细地刻画人类心智处理语言信息的过程呢?很显然,在这个节骨眼上,约翰·塞尔犯下了“稻草人谬误”。也就是说,他本来要攻击的是机器功能主义,但是他在描述机器功能主义的时候,却把自己的对手描写成了行为主义的模样。所以,他就像是攻击风车的堂吉诃德一样,是对着错误的目标浪费火力。
看来,塞尔对于机器功能主义的攻击,并不成功。说到我个人对于机器功能主义的观点,我是支持强人工智能论题的。换言之,我认为,有朝一日我们是能够制造出真正具有心智的机器人的。
相信这一点,并不是说我有一个正面的论证,能够一步步地告诉大家机器功能主义为什么对。我只能通过这个类比论证来表述我的观点:如果有外星人的话,那么外星人的智慧的物理实现机制,大概率上会与地球人不同。但这似乎也不妨碍我们承认他们具有真正的智慧。同理,我们又为何要因为人工智能的物理实现方式与人类不同,而先天地阻断其具有真正的智能的可能性呢?