54. 就算重建了大脑数字模型,又能怎样?

字数:3353

约翰·塞尔并不是唯一一个对功能主义提出批评的哲学家。另外一个则是美国哲学家内德·布洛克于1978年所提出的一个论证,“中国人口论证”。

两种反驳论证的同与异

布洛克的中国人口论证也是用来攻击对于心灵的功能主义描述的,它和约翰·塞尔的中文屋论证之间有什么差别呢?

在约翰·塞尔的中文屋论证里,是有一部规则书的。在这部规则书的帮助下,屋中的约翰·塞尔在收到一些来自屋外的输入的时候,便知道自己应当递送出怎样的输出了。与这种场景所对应的人工智能,也就是“基于符号规则的人工智能”。

但是,这并非是做人工智能的唯一方式,也不是实现机器功能主义的唯一方式。机器功能主义也可以不从规则入手,而从对于人类大脑的一些更底层的神经活动的模拟入手。

我们都知道,我们的大脑是由大量神经元所组成的。至于神经元的数量,有些文献说是860亿个,也有些文献认为数量更多。每一个神经元,均是由树突、轴突、髓鞘和细胞核等要素构成的。站在计算机的立场上看,每一个小小的神经元都是一台袖珍计算机,而860亿个神经元则被连接成了一台超级计算机。

而作为一台袖珍计算机的单个神经元,又是怎么运作的呢?其“输入设备”就是树突,以便从其他的神经元接收信号。其“输出设备”就是轴突,以便将神经细胞内部所处理的信息的结果,以生物电的形式,传给其他的神经元。而别的神经元得到这个神经元发出的电信号之后,再与同时从其他神经元那里得到的电信号进行汇总,进行综合处理,以决定是不是要将自己的处理结果再以电信号的形式发送出去。

下面就用一个更形象的例子来说明上述信息传递过程。

假设幼儿园里有很多小朋友,每个人都扮演一个神经元。现在小朋友们领受了任务:投票选出谁是爱卫生的小标兵。

有人提名选小芳了,但是一些小朋友喊支持小芳,另外一些小朋友发言说小芳其实也不是那么爱卫生。这时假设你也在这群小朋友里面。你此刻已大概听到了十份关于小芳是否能够当选的意见。听到这些意见以后,你可以决定站起来,给出一个你心目中认为正确的答案。但很有可能你什么答案也没有给出,这可能是因为这件事对你的刺激不够大,或者是因为支持小芳与反对小芳的声浪势均力敌,让你难以取舍,等等。

不过,只要你也站起来说支持或者反对小芳,你的声音也就会被被人听到,并多少影响到他的决策。最后,集体的最后决策,便体现为这个社交网络的每个个体相互影响后的总的结果。

既然人类可以在宏观层面上模拟神经元网络的运作,那么,人工智能就没有理由不在集成电路的基础上模拟之。这就引出了人工智能研究中的一个重要流派:人工神经元网络。

需要注意的是,人工神经元网络技术仅仅是着力于对人类神经元网络结构进行某种简化的数学建模。这种建模会忽略人脑运作中的一些生化事件,譬如多巴胺与乙酰胆碱的分泌所扮演的角色。具体而言,在这样的一种简化的数学建模结构中,每一个计算单元(即人工神经元)都会从别的计算单元里面获取信息,进行综合信息处理后,再决定自身应该不应该把这个信息传送到下面一个单元里面去。通过这些计算单元之间复杂的联系所构成的网络,整体的计算框架就能够局部模拟人脑的结构。而人类程序员则通过向这个框架喂入训练材料,训练其按照特定的方式给出人类所期望的输出,由此使得其行为具有某些人类智能的特征。

顺便说一句,时下如火如荼的“深度学习”技术,无非就是上面所说的人工神经元网络技术的一种进阶版,其差别仅仅在于该网络结构的中间单元层的层次比较多而已。因此,“深度学习”绝非是“能够深度地进行学习的人工智能”的意思。

另外,即使是深度学习的人工神经元网络,对于真实大脑的模拟仍然是非常片面的,它仍然严重低估了真实的生物脑的复杂性。所以,就有科学家要提出进行“类脑人工智能”的研究。

所谓“类脑人工智能”的终极理想,就是根据大脑真实的生物学结构和神经回路,全面系统地在人工智能的层面上重构出一个电子脑。

在科学界实现此宏图大业之前,好莱坞已经先走一步了。在电影《阿凡达》里面,科学家已经完成了对于海军陆战队队员杰克的大脑的重建。换言之,电影里的黑科技已经能够把人类大脑的860亿个神经元之间的复杂权重和其他相关的参数,全部由一个超级数学模型体现出来。真是太酷了。

未来的科学是不是能够实现科幻电影向我们预报的东西,现在暂且不论。我们关心的是哲学问题。哲学家内德·布洛克指出,就算上面说的这些酷炫的事情,科学家都能够做到,这样的人工智能产品依然是不具有真正的智能的。

中国人口论证:强人工智能是不存在的

内德·布洛克是怎么样论证的?和约翰·塞尔一样,他也给出了一个思想实验。

这个思想实验是这样的:他设想有10亿个中国人——注意:在他最早提出该论证的时候,中国人口也就那么多——集体来扮演人类大脑中所有的神经元的角色(当然,这个思路在数学上是有问题的,因为人类的神经元至少有860亿个,不但全体中国人没有办法扮演所有的神经元,全体地球人都不行。但是我们在这里暂时不去纠结这个细节问题)。

但我们的10亿群演大军,又到底该怎么扮演神经元呢?他们当然无法在生物—化学层面上模拟神经元的运作,而只是在功能上模拟这种运作。也就是说,这10亿个群众演员可以通过彼此发手机信号的方式来使得彼此知道下一步应当做什么。而整个容纳群演的体育场(顺便说一句,我个人很难设想该体育场该有多大)的上方则有一个超级信号牌,向某一个特定组的群演发布实时指令。

假设在某刻,信号牌上就出现了这样的字样:所有来自湖南省的群众演员,现在你们做的事情,就是用自己的手机打下面的号码:888888。这些湖南的群演就依言做了,但他们也不知道这号码什么意思。然后,所有来自上海的群众演员手机都响了,这又是什么情况?然后他们抬头,便看到信号牌上出现了个新指示:所有上海的群众演员,若听到你们的电话铃响了,全部不要理,因为这是骚扰电话。

每个人都不知道他们在干什么——这就好比说,当人脑在执行一个复杂的认知任务的时候,每个神经元都不知道它在干什么。但是非常奇怪的是,在一个很宏观的立场上,这10亿个群众演员的确似乎在执行某项认知任务,比如:回忆自己的初恋情人,或是解一道三角函数题。

那么,内德·布洛克做的这个思想实验的动机是什么?他的思路是:倘若机器功能主义是对的,那么我就能够找10亿个群众演员来扮演人类大脑的整个功能。然而,即使10亿个群众演员的表演都非常认真,毫无差错,这样的一个“大脑”,是不是具有整体意义上的那种主观的意识呢?它是不是有感觉呢?

内德·布洛克认为,答案显然是否定的,因为在这个超级体育场里,你能够看到的,都只是一些机械的运作罢了,而不会寻找到任何大尺度内涌现的感觉或者意识。然而,拥有主观意识,却是智能体之为智能体的一项很关键的指标。譬如,即使是电脑“深蓝”打败了俄罗斯的国际象棋高手卡斯帕罗夫,我们也不会认为“深蓝”真正具有智能,因为它缺乏对于胜利的喜悦感——而这显然是意识的一种。同样的道理,10亿个群众演员玩来玩去,到最后也无法模拟出人脑的宏观感受。如果说关于中国群演的思想实验已经穷尽了人工智能的类脑方向的研究所能够达到的极限的话,那么上述的讨论似乎已经足以引出这样的结论了:人工智能无法将人类智慧的方方面面都加以模拟——所以,强人工智能是不成立的。

——那么,布洛克的这个论证对不对呢?

我认为,他的这个论证是有点问题的。他的思路是:因为我无法设想执行某些复杂程序的全体中国群演体现出了宏观意义上的意识,所以,执行了某些复杂程度的全体中国群演就真的缺乏了宏观意义上的意识。但问题是:为何布洛克无法设想的事情,就不能发生呢?你若去观察真实人脑的微观运作,难道就能够从这些草蛇灰线中看出人脑具有宏观意识的迹象吗?如果不能看出的话,为何我们又不能下结论说,就算是真实的人脑也没有宏观的意识呢?很显然,除非玩弄双重标准,否则布洛克是无法给出一个标准,让我们既能够拒斥中国群演的整体意识,又去肯定人脑的整体意识。

想要对人类心智进行建模,要做减法

在此,我想聊几句关于类脑人工智能的私见。

从哲学上讲,我认为这条思路是走得通的。但我依然对这条思路忧心忡忡。我的忧虑是科学层面上的。我已经说过了,大脑是由至少860亿个神经元构成的。由此牵涉到的数据结构实在是太复杂了,而且,你真的不知道其中哪些结构对于智能的实现来说是重要的,哪些是不重要的。而凭借现有的科技,人类要把这么复杂的人类大脑进行全面的数学建模,工作量也实在是太惊人了。

我认为,要对生物脑进行数据建模,我们必须要做减法,找到核心的结构加以建模,而不能事无巨细,全面建模。

怎么做减法?可能有两个方法。其一是请认知心理学帮忙,在心理学理论的指导下缩小理论聚焦点,寻找相关的脑科学素材,然后进行计算机建模。

另外的一个路径就是:不要老盯着我们人类的大脑,也可以去研究一些比较简单的物种的大脑——甚至是像苍蝇的大脑、果蝇的大脑、蜜蜂的大脑,等等。这样的研究将比较容易操作,因为它们的大脑的神经元数量相对有限。但别看这些脑子的神经元数量少,却也是“麻雀虽小,五脏俱全”,足以维持相关物种的基本信息处理的需要。不难想见,相关的研究结果,对于无人机等设备的研发,也能产生立竿见影的促进作用。


53. 人工智能不可能真正拥有心智55. 变为一只蝙蝠会是什么感觉?