作者:赵南元
一、最牛的概念
“自由意志”最早引起我的注意是缘于一件小事。当时在国外工作,遇到有人上门向我传教。我问他们:世界的万物都是上帝创造的吗?他们说:是的。
我说:那么魔鬼也是上帝创造的了?他们说:不是,上帝只创造了天使,但是天使有自由意志,有的自己变坏,成了魔鬼。
如此说来,在西方的基督教文化里,“自由意志”是个最牛的概念,甚至可以为上帝脱罪。按照这个思路,亚当和夏娃吃了智慧之果,也象征着获得了自
由意志,成了全能的上帝无法控制的东西,上帝只好把他们赶走,除了用洪水把坏蛋都淹死,或是到末日审判时秋后算账,其他一概无计可施。
过去有个关于上帝的全能悖论:上帝能不能造一块自己也举不起来的石头?如果回答不能,上帝就不是全能的。如果回答能,上帝就有举不起来的石头,
仍然不是全能的。不过这种特殊的逻辑悖论可以否定任何万能和全能的事物,并不特指上帝。它造成的无能范围也很小,对上帝的威望破坏力不大,正如哥德尔不
完全性定理并不能摧毁整个数学体系,视网膜上的盲点也不会影响视力。相比之下,如果上帝无法控制人的“自由意志”,固然有利于上帝逃避责任,但上帝的神
通可能就会因此大打折扣了。以下面这个小故事为例:
洪水泛滥,约翰在房顶上祷告,祈求上帝保佑平安。一只船从此经过,请他上船避难。约翰说:谢谢,不用了,上帝会保佑我的。一架直升飞机经过此
地,想要营救约翰,也遭到他相同理由的拒绝。洪水终于淹没了房顶,约翰被淹死见后到了上帝。约翰说:我祷告得如此虔诚,你怎么不保佑我平安?上帝说:我
给你派了一艘船,一架直升飞机,难道做得还不够吗?
在这个故事里,如果上帝不能控制人的自由意志,那么直升飞机和船的驾驶员就是按照自己的自由意志去救援的,上帝派遣之说就是瞎吹牛,上帝是贪天
之功以为己力。如果上帝可以控制人的自由意志,那么约翰拒绝救援也是上帝没控制好,上帝仍然难辞其咎。
二、牛人们的论辩
面对强人工智能,如何在机器中实现自由意志始终是一个“坎”。强人工智能的反对者也大多要拿“自由意志”说事。与此密切相关的概念还有意识、自
我、 灵魂、心灵等等,各个概念侧重有所不同,但说的基本上是一回事。哲学家把这个问题称为“心—脑问题”:人们承认人脑是物质的,甚至也可以承认大脑
就是机器,不过,灵魂、心灵或是自我意识和大脑之间是什么关系呢?强人工智能的支持者认为心灵(Mind)是大脑(Brain)的功能,而反对者则认为
这绝对不可能,一个机器怎么会有“自由意志”或“自我意识”呢?
这个题目意义重大,自然会有很多牛人参与讨论。非常著名的“B-MI理论”(脑—心相互作用理论)就是波普尔(Karl R .Popper,
著名科学哲学家)和艾克尔斯(John C.Eccles,脑生理学家,诺奖得主)两个牛人攒出来的。1977年二人出版了合著的《自我及其大脑
(The Self and Its Brain)》一书。这部鸿篇巨著读起来如同在啃一个“巨大的酸果”,但其中有效的内容并不多,全篇的论述就像撒
谎圆谎的三口相声《扒马褂》——波普尔信口开河撒大谎,艾克尔斯费尽心机也圆不上。所谓B-MI理论,源于波普尔的三个世界理论。波普尔认为存在着物
质、心灵、人造物这三个独立的世界,如果把人造物也归入物质,实际上是两个世界,即物质和精神。
在波普尔看来,精神世界完全是超物质的,这种想法固然对“自由意志”的存在非常有利,因为精神世界可以遵循与物质世界完全不同的规则(甚至没有
规则)。但是,和所有二元论一样,B-MI理论也面临着一个严重的问题:B(物质世界的脑)和M(精神世界的心灵)之间的I(相互作用)到底是如何进行
的?作为哲学家的波普尔,感觉不到这种解释的困难,在他看来顺理成章。因为他可以公然宣布他的理论是“机器里的幽灵”,而不必操心非物质的幽灵如何操作
物质的机器。
但是,作为科学家的艾克尔斯,不认为这件事情可以轻松过关。为了把波普尔的谎话说圆,艾克尔斯发明了一个新概念——“半开放柱”。“柱
(Column)”是大脑皮层中的小区域,直径大约0.5mm,包含上万的神经元,在垂直于皮层表面的方向分成6层,可以执行一个简单的功能,例如视觉
区的某些柱可以检测某个特定方向的线段。艾克尔斯假设这些“柱”中有些是“半开放”的。所谓“半开放”是指这些“柱”可以被精神世界所影响,形成从心灵
到大脑的信息通道。由此必然产生下一个问题:精神是通过什么物理原理来影响“半开放柱”的?艾克尔斯认为是量子力学的效应,即“半开放柱”里的某些物质
的量子力学举动会被精神世界所影响。这个想法自然不是艾克尔斯首创的,他毕竟不是个物理学家。早在20世纪初量子力学刚刚兴起之时,就有物理学家在谈
论“电子的自由意志”(列宁曾经写文章从唯物主义的哲学角度批判过)。
即使假设艾克尔斯关于“半开放柱”的说法成立,这个解释仍然只完成了一半,因为神经元的动作如何影响心灵还没有得到解释。我们似乎可以忽略掉这
个问题,例如可以假设灵魂无需从大脑的视觉区皮层获得信息而能够直接观察世界,就像很多人发高烧时体验过灵魂出窍,飘在高处看见自己躺在床上。但是这种
假设如果成立,会导致很荒唐的结论:我们根本不需要眼睛、耳朵和鼻子,以及它们背后庞大的神经系统,这些感觉器官只是为那些没有灵魂的猪猡准备的。
物质世界与非物质世界的通讯问题只是困扰二元论的小困难。从根本上看,心脑二元论是类似于活力论、人类外星起源说的坏理论。这种坏理论的共同特
点是热衷于把问题推到视线之外,而不是解决它们。我们很容易根据直觉把“心灵”或是“我”看成另一个实体,一个很小的“小人”在观察和操纵大脑,但是这
样一来对于“心灵”就会因为无法分析而陷于一无所知。要想按照这个思路解释“心灵”,“小人”背后还需要更小的“小人”,陷入无限退行。
不过,也有科学家喜欢这种坏理论的,例如和史蒂芬·霍金共事的著名物理学家罗杰·彭罗斯就是一位。他先后写了《皇帝新脑》和《心灵之影》两本
书,介绍他反对强人工智能的观点。而在通讯问题上,他和艾克尔斯一样采用了量子力学解释。不过他还要大胆和具体一些,在细胞里找出一种他称之为“量子微
管”的小器官,代替艾克尔斯的“半开放柱”实现心脑通讯。由于量子微管存在于任何细胞之中,如果彭罗斯的假设成立,那么存在于肌肉细胞里的量子微管应该
可以被心灵直接操纵,无需通过神经系统。
自由意志与量子力学这两个看似风马牛不相及的事物为什么会被扯在一起,是非常耐人寻味的。对此我们可以找到两个原因。
其一是很多量子现象与“观察者”密切相关。根据我们实验设计的不同,光子或电子可以分别显示波动性和粒子性,粒子可以分别被测出位置和动量。这
些事实会给我们造成物质的量子行为受观察者主观意识影响的印象,从而给人以物质的量子行为可以接收精神信息的暗示。然而这种暗示是一种误导。时至今日,
一切所谓观察者对实验结果的影响都是通过物质的实验装置产生的,没有任何证据表明意识可以直接影响量子行为。
其二是在拉普拉斯决定论的背景之下,人们认为自由意志是反决定论的,而量子理论也是反决定论的,于是很自然地在二者之间产生联想。但是从逻辑角
度看,B不是A,C也不是A,并不能推导出B就是C,或B和C必定有关系。从实践的角度看,决定论只有纯哲学的空想意义,对实践本不应产生任何作用。
即使假定决定论是正确的,堪称拉普拉斯妖的超级计算机也不可能存在,因为能够记住宇宙全部粒子推算出未来一切的计算机一定比宇宙还大,这与宇宙
的定义是矛盾的。因此,实际上我们对于随机现象的划分很大程度上依存于我们的认识程度。例如,对于一个搞密码学的人来说,掷骰子或者摇号机所产生的数列
是真正随机的,但是从力学的角度看却是决定论的。一个计算机里的随机函数所产生的伪随机数是决定论的,但是拿这些“伪”随机数来用于需要随机数的数字模
拟实验,结果不会与“真”随机数有什么区别。所以在计算机里并不会设计一个专用的硬件噪声发生器来产生“真”随机数,尽管成本几乎不会增加。
实际上随机的现象尽管难以预测,和自由意志的距离却并不比决定论更近。可以做一个思想实验:如果一个人有一张足够长的表,每一行写着一条指令,
足够他用一辈子,他按照这个表一行一行的顺序执行各种指令,活了一辈子,这样的人是决定论的,我们可以认为他没有“自由意志”。另一个人,也有一张足够
长的表,每一行写了六个指令,他每次都掷骰子,按照骰子的点数从六条指令中选出一条指令来执行,活了一辈子,这个人是随机性的,我们会认为他比前一个人
更接近自由意志吗?显然是不行的。一个执行死硬程序的机器人没有自由意志,但是仅靠在程序中加入随机函数,并不能使这个机器人变得自由。明斯基
(Marvin Minsky 人工智能的先驱者)在他的《心灵的社会(THE SOCIETY OF MIND)》一书中讨论过这个问题,他有个一句
话的总结:“机遇的女神和宿命的女神一样无情。”
如果我们抛弃二元论的假设,采用认知心理学的基本假定——心理过程就是信息处理过程,那么自由意志就仅仅是一种幻觉或错觉。明斯基基本上倾向于
这样一种认识,但是他没有走到非常彻底的地步。在《心灵的社会》这本书中,他用一幅图画形象地表达了这一立场:他画了两个并列的正方形,分别代表“确
定”和“随机”。在两个正方形之间又画了一个很小的正方形,代表“自由意志”。他认为,虽然“自由意志”这一概念在科学上无法立足,但是社会的理由使我
们难以完全抛弃它,因为西方文化中的伦理和法制就是建立在人有“自由意志”的前提之上的。如果这个基础被摧毁,个人就没有理由为自己的行为负责,一切社
会的褒贬赏罚统统失去了根据,现存的社会秩序将不复存在。所以明斯基非常不情愿地保留了这个小方块,给“自由意志”留下一席之地。
在中国的传统文化中不存在这个问题。孔子的“君君臣臣父父子子”并不是从某个基本公理中推导出来的,正如《九章算术》里包括了很多正确的实用算
法,却无需给出任何证明。
三、自由意志错觉的进化论意义
如果我们认为“自由意者”仅仅是一种错觉,那么只是表达了一种哲学立场。哲学可以容纳多种不同甚至对立的立场,而未必能够分出谁对谁错。如果从
科学的角度看,我们就需要解释“自由意志”的错觉从何而来,正如我们支持日心说,也需要解释我们直观的地心错觉是如何产生的。毕竟绝大多数人的直观感觉
是支持“自由意志”存在的。
自由意志错觉可以分为两个方面:外观和内省。外观是指我们观察他人时感觉别人是具有自由意志的,内省是指我们观察自身的思考过程也会感到自己是
具有自由意志的。实际上自由意志错觉的根源是内省,对其他人的观察是其行为方式与我们自己相似,从而推断出他人也和自己一样具有自由意志。但是这种推己
及人的方式并非总是有效的,例如当我们考虑其他动物时就会出现不同意见。笛卡尔认为人是有灵魂的,而其他动物只是自动机器。更有人总结说:养过狗的哲学
家都认为狗有灵魂,而没养过狗的哲学家则认为狗没有灵魂。但是对于昆虫这一级的动物,大概多数人会认为它们没有自由意志。
现在我们还没有凭借外部观察判断人或动物有没有自由意志的可靠判据。通常认为人有自由意志的直观感觉来自一些我们认为与之相关的其它特征,例如
复杂性、多变性、合目的性、非重复性、非机械性等等。但是,这些特征未必能够成为自由意志的根据。例如,普通的国际象棋规则看起来非常简单,王、后、
车、相、马、兵各有固定的走法。我们可以给它加上一条简单规则,创造出新的国际象棋。
这条规则是这样的:棋盘上有64个位置,每个位置有棋子定义为“1”,没有棋子定义为“0”,那么每个棋局就得到一个64位的二进制数,称之
为“棋局数”,再将“棋局数”代入哈希函数,求出“哈希数”,取“哈希数”的最后两位再加一,可以得到从1到4的一个整数,称之为“偏移量”。然后按
照“偏移量”对每个棋子(除了“王”以外)进行“变脸”操作:每个棋子变成“偏移量”之后的棋子。例如,按照“后、车、相、马、兵”的顺序,当“偏移
量”为1时,后变成车,车变成相……兵变成后,当偏移量为2时,后变成相,车变成马,……兵变成车。依此类推。这种新的国际象棋每走一步都会出现新的棋
局,算出新的偏移量,进行一次棋子变脸。当然,让人来下这种变脸象棋恐怕太累了,但是让机器来下,增加的计算量并不多,可以考虑让两台计算机来下变脸象
棋,人们坐下来旁观。
这时候我们看到的两位计算机棋手的行为相当复杂、多变、合目的(取胜)、不重复、不机械,但是说它们具有自由意志还是根据不足,至少编制下棋程
序的人知道程序是完全决定论的。
所以自由意志错觉实际上主要产生于内省过程。虽然弗洛伊德的精神分析方法被波普尔说成是伪科学,但是弗洛伊德关于下意识的学说至今是得到承认
的。现在我们认为,通过内省可以看到的思维活动,或曰可以被意识到的大脑活动只是大脑全部活动的极小部分,只是冰山的一角。人脑的绝大部分活动是在意识
之外的,所以内省产生错觉丝毫也不奇怪。
内省的这种局限性在我们试图用计算机模拟大脑功能时越来越多的暴露出来了。看似简单的人物或文字的识别,用计算机实现却相当费劲,而且效果远不
及人脑。更重要的是,人脑的这一部分信息处理过程处于意识的视野之外,靠内省难以到达。内省所不及的大脑活动还有很多,例如我们知道我们想要拿一个杯
子,手就会伸出去完成任务,但是大脑此时向哪一块肌肉发出多强的脉冲是我们无法通过内省觉察的。我们只能看到行动的结果,却看不到详细的神经活动过
程。
人类行为的非机械性主要体现在其学习能力上。其他动物也有不同程度的学习能力,但是人类能够靠学习改变的内容明显比其他动物多得多。其他动物的
生存技能主要靠本能,学习只是对本能的修饰,而人类的生存技能大部分都是从文化中学习到的。实际上学习也是可以机械化的,“机器学习”是人工智能的重要
领域。学习的实质是优化,而优化也是数学中的一个专门领域。人类或动物的学习是“半工半读”的过程,人做事就是在随时学习,所以人的一切行为(思考也是
内在的行为)都会改变脑中的信息,从而改变今后的行为方式。所以人就会表现出比“变脸象棋”更为复杂多变难以预测的行为。两台计算机对弈“变脸象棋”是
一个封闭系统,而人在生存过程中不断与多变的环境交换信息,这是复杂性的另一个来源。
机器学习的研究虽然十分繁荣,但是对于解释人类行为来说还有差距,主要表现在对人脑如何组织和调度这些局部一时的学习,形成全面终生学习的机制
研究得还不够。可以说,这种调度机制与人的自我意识密切相关。如果我们拒绝导致无限退行的“小人”理论,就需要找出一个对“自我意识”的基于信息处理的
机械论解释。按照明斯基的“心灵社会”理论,我们的大脑是由众多“Agent”组成的“社会”,在(弱)人工智能界通常把Agent翻译成“智能主
体”,但在
这里我宁愿使用其原意“代理者”。
每个代理者可以完成特定的一种或一类任务,代理者可以调用其它代理者帮助它完成任务。通过某种学习算法可以生成和完善新的代理者,使得代理者在
人的生存过程中通过学习不断增加,人的能力(技能)也因此而增加。代理者之上没有“中枢”对它们进行调度,只存在一个简单的竞争上岗机制:每个代理者按
照自己特定的评价函数根据时间和环境参数计算自己的评价值,评价值最高的代理者夺取当时的控制权。
应用代理者社会的模型,如何解释“自我意识”呢?或者说,我们如何感觉到“我”的存在呢?克里克(Francis Harry
Compton Crick ,因提出DNA双螺旋结构模型获诺贝尔奖)晚年致力于意识问题研究,著有《惊人的假说——灵魂的科学探索》
(http://www.tianyabook.com/zhexue/linghun/index.html)一书。在书的第二章《意识的本质》
(http://www.tianyabook.com/zhexue/linghun/004.htm)中,克里克写道:
“早在一百年前,三个基本的观点就已经盛行:
1.并非大脑的全部操作都与意识有关。
2.意识涉及某种形式的记忆,可能是极短时的记忆。
3.意识与注意有密切的关系。”
基于这个一百年前盛行的观点,我们也可以建立起关于意识的简化模型。假设大脑中的每个代理者都具有短时间(数秒钟)的记忆能力(这并不是说没有
长时记忆能力,而是长时记忆不影响自我意识的感觉,一个失忆症患者仍然有意识),当我们遇到“我正在想什么呢?”这类问题时,一个专门的代理者会被启
动,调用之前处于活动状态的代理者的短期记忆,使其处于中断停留的状态。从而获得“我知道自己在想什么”的感觉。
当然,“自我”的感觉只是意识活动的副产品。意识活动与“注意”的密切相关,意味着意识过程的目的是“学习”的组织和调度。一般来说,习以为常
的行为是“自动”完成的,不会引起我们的“注意”。而我们所“注意”的,多是不熟悉(即需要学习或难以预测的)行为和现象。因此“注意”的机制实际上就
指定了当时学习的领域。经过学习使得某一技能或现象变得习以为常之后,“注意”会转向新的领域或层次,引起下一阶段的学习。
在该书的最后《关于“自由意志”的跋》
(http://www.tianyabook.com/zhexue/linghun/021.htm)中,克里克就自由意志的问题谈了一些有趣的看
法,有兴趣的读者可以参考。本文的关注点与克里克有所不同,我们提出的问题是,自由意志的感觉(或曰错觉)在进化过程中起什么作用?或者说自由意志的感
觉有什么好处?
通常,如果没有遇到困难的决策,我们几乎不会感到“自由意志”的存在,我们会按照习惯、常识知道应该去干什么。但是当我们遇到不熟悉的环境或难
以预知结局的境况,会感到决策的困难,各种待选方案浮现于脑中,反复比较之后最终拿定主意。在执行决策之后,如果成功了,我们会回忆起过去的待选方案,
庆幸自己做出正确的决策;如果失败了,我们也会想起过去的备选方案,后悔决策的错误,会想到当时如果选择另一个方案结果会更好。这些过程会使我们感觉到
是“我”在作决策,是“我”在庆幸,是“我”在后悔,这就是“自由意志”存在的感觉。
以上是我们通过内省可以感觉到的思维过程,但还远远不够详细,不足以让我们理解其中的机制。使用代理者模型,我们可以推测出内省所观察不到的深
层过程:在熟悉的环境中,以往的学习为我们建造了足够的代理者,使我们能够不假思索地应付环境。当我们遇到不熟悉的问题时,现成的最佳代理者尚不存在,
只能启动搜索机制,寻找相近的代理者加以修饰转用。此时次佳的代理者会有若干个,何者最佳尚缺乏经验根据,此时的选择可能随机因素的影响更多。待成败的
结局出现之后,选择是否正确也就有了定论,此时回忆选择过程,重新调出当时参与选择的各个代理者,就可以根据这次经验修正各代理者的评价函数,使得今后
遇到相同境况时决策正确的概率增加。
通过上述机制可以看出,自由意志错觉是人类在有长远计划行动能力时提高决策准确度的学习过程的副产品。这就是自由意志错觉的进化论意义。
四、社会责任基础的改建
如果自由意志只是一种错觉,并不真的存在,我们就需要解决明斯基所担心的问题:在一个否认自由意志的世界,我们用什么来作为社会道德赏罚的根
据?
按照一般的常识,我们不可能让一台没有自由意志的机器承担任何责任。但是应该指出的是,这里关于“机器”的印象是十分古老的。一提起“机器”,
我们头脑中总是浮现出像汽车、机床这样一些由齿轮连杆结合在一起,只能死板地执行任务的铁家伙。对于这类“机器”而言,谈论道德、责任、赏罚确实没有意
义。甚至对于我们现在日常所使用的计算机而言,这个判断依然正确,因为目前大多数的计算机应用都不包含学习和决策的功能。
不过如果我们进一步推广“机器”的概念,例如按照“大脑是一部机器”的说法,我们关于“机器”的印象可能需要大为改观才行。机器学习的算法就
是“优化”的算法,机器可以通过学习逐渐改进自己的行为方式。“优化”是数学的一个重要的研究领域,但是数学所研究的是如何提高优化算法的效率,尽快地
找到最佳点,而不研究什么是“优”,什么是“劣”这样的价值观问题。机器学习所依据的的价值观是设计者制定的,而学习过程都需要“奖励”和“惩罚”的机
制。
简单的机器学习需要奖惩,复杂的机器学习遇到另一个问题,即当一个由很多可学习的部分(代理者)组成的系统,总体产生一个好的(或坏的)结果,
我们应该奖励(或惩罚)哪一个代理者呢?还是不分青红皂白各打五十大板?明斯基研究过这个问题,称之为“责任局部化问题”。由此可知,一个能学习的机
器,不仅会涉及奖励和惩罚,也会涉及“责任”,与是否具备“自由意志”无关。
会学习的动物都有先天的生物价值观作为学习的导向,这些先天的价值观是进化的产物,适者生存的机制保障了其正确性。对于有文化传承的动物(特别
是人)而言,还会有很多后天习得的文化价值观。人类不是真社会性动物,却创造了极其复杂的社会结构。为此,也创造出诸多的称为“道德”的社会价值观,以
保障社会的顺利运行。和“心灵社会”中的“代理者”相似,现实社会中的学习个体(个人)同样存在着奖惩和责任归属问题,这与个体是否具有“自由意志”无
关,只是学习调度的需要。
五、自由意志悖论
最后用一个小故事结束本文。这个故事出自于一本关于悖论的小册子,原来的小标题就是自由意志悖论。我觉得这个故事应该算不上悖论,可以算是一个
思想试验吧。
一群外星人来到地球,要对地球人进行关于自由意志的研究。他们募集了一批被试者,在正式实验的前一天夜间趁着被试者睡觉的时候对所有被试者的大
脑进行了全面的扫描,充分了解了每个被试者的思路。
实验很简单,被试者排队依次进入一间小屋,屋里有一张桌子,桌子上放了两个箱子,一个是透明的,可以看到里面放的是一千美元;另一个是黑箱子,
看不到里面装的是什么。被试者可以拿走任何一个箱子,也可以两个都拿走。拿走之后箱子里的内容物就是给被试者的酬劳。排在后面的被试者可以看到前面被试
者的实验结果。他们发现,拿了两个箱子出来的人,那个黑箱子打开一看都是空的;而只拿一个黑箱子出来的人,打开见到箱子里都有一百万美元。
一个不相信自由意志的经验主义者,在看到别人的实验结果之后选择了只拿一个黑箱子,出来打开一看,不出所料获得了一百万美元。
一个相信自由意志的理性主义者是这样思考的:在我进屋之前箱子已经被外星人放好了,无论我如何选择,箱子里的内容都不会改变,从利益最大化原则
出发我应该拿两个箱子出去,这样无论黑箱子里装的是什么,我都会比只拿黑箱子出去要多得一千美元。结果很遗憾,黑箱子是空的,他得到一千美元。
读过这个故事之后我在想:如果我去当被试者会如何选择?
在看到前面的实验结果之后,我肯定会对外星人的大脑扫描技术之高感到十分惊讶,然后会想到进一步测试其预测精度。我可以从兜里掏出一个硬币抛
出,如果落地后正面朝上我就只拿一个黑箱子,反面朝上则拿两个箱子走。看看外星人是否连我抛硬币的力量、姿势和硬币的运动轨迹也能精确预测。
来自新雨丝和Toplanguage的评述.