递归论证止于何处

Where Recursive Justification Hits Bottom

为什么我相信太阳明天会升起?

因为我已经见过太阳在此前成千上万个日子里升起。

啊……可我为什么会相信未来会像过去一样?

即便我不只停留在太阳升起这一表面观察上,而是进一步诉诸看似普遍且毫无例外的引力定律与核物理定律,我仍然还会留下这个问题:「为什么我相信这在明天也仍然会是真的?」

我可以诉诸奥卡姆剃刀,也就是使用最简单且符合事实的理论这一原则……但我为什么要相信奥卡姆剃刀?因为它在过去的问题上很成功?可谁又能说,这就意味着奥卡姆剃刀在明天也会起作用?

于是,那人说道:

Science 也依赖于未经正当化的假设。因此,Science 归根结底同样建立在信仰之上,所以你也别批评我相信[愚蠢信念 #238721]。

正如我此前观察到的

「Science 也是建立在信仰上的,所以你看吧!」——这实在是一种极其奇特的心理。通常说这话的人,还会宣称信仰是件事。那他们为什么要用那种愤怒又洋洋得意的口气说「Science 也是建立在信仰上的!」,而不是把它当成一句赞美?

主张自己应当免受批评,通常都不是什么好征兆。

但这并没有回答那个正当的哲学两难:如果每个信念都必须被正当化,而这些正当化反过来又必须被正当化,那么这条无限递归究竟该如何终止?

如果你被允许停在某个未经正当化就被假定的东西上,那么为什么你不能未经正当化就假定任何老东西

类似的批评有时也会被用来反对贝叶斯主义——说它需要假定某个先验——而提出这种批评的人显然以为,归纳问题是贝叶斯主义特有的问题,你可以通过使用经典统计学来避开它。

但首先,必须明确承认,贝叶斯更新规则本身并不能解决归纳问题。

假设你正在从一个瓮里抽出红球和白球。你观察到,前 9 个球中有 3 个是红的,6 个是白的。下一次抽出的球是红球的概率是多少?

这取决于你对那个瓮原本持有什么先验信念。如果你认为制瓮者先在 01 之间生成了一个均匀随机数,并把那个数用作每个球是红球的固定概率,那么答案就是 4/11(根据拉普拉斯的连续发生法则)。如果你认为那个瓮最初装的是 10 个红球和 10 个白球,那么答案就是 7/11

这也就是说,只要配上合适的先验——或者更准确地说,错误的先验——太阳明天升起的概率,看上去就会随着一天天过去而下降……只要你在先验上绝对确信:外面有一个大桶,每天都会从中抽出一张小纸条,来决定太阳是否升起;而且桶里写着「是」的纸条数量有限,并且这些纸条是不放回抽取的。

一般心智的设计空间里,存在某些可能的心智,它们拥有反奥卡姆式、反拉普拉斯式的先验;它们相信,更简单的理论更不可能正确,而且某件事发生得越频繁,它再次发生的可能性就越低。

当你问这些奇怪生物,为什么它们还要继续使用那些在现实生活中似乎从未奏效的先验时……它们回答说:「因为它以前对我们就从来没起作用过啊!」

现在,你也许会从中得出一条教训:「别生来就带着愚蠢的先验。」这在很多现实问题上都是一条惊人地有帮助的原则,但我怀疑哲学家不会满意。

我是这样亲自处理这个问题的:我会试着把像「我应该信任自己的大脑吗?」或「我应该信任奥卡姆剃刀吗?」这样的问题,当作并没有什么特别之处的问题来对待——至少,就深层问题而言,不算特别。

我应该信任奥卡姆剃刀吗?嗯,(任何一个特定版本的)奥卡姆剃刀在实践中看上去效果如何?我能为它找到什么样的概率论层面的正当化?当我观察宇宙时,它看起来像不像那种奥卡姆剃刀会很好用的宇宙?

我应该信任自己的大脑吗?显然不该;它并不总是有效。尽管如此,人类大脑看起来仍然远比我还能考虑去信任的最复杂计算机程序更强大。我的大脑在实践中效果如何?在哪些类型的问题上效果如何?

当我考察我的大脑的因果历史——它在自然选择中的起源——一方面,我会发现种种具体的怀疑理由;我的大脑被优化出来是为了在祖先稀树草原上运作,而不是为了做数学。但另一方面,从宽泛意义上说,大脑真的可能起作用,这一点也同样很清楚。自然选择会很快淘汰那种完全不适合推理、完全帮助性的脑子,比如带有反奥卡姆式或反拉普拉斯式先验的脑子。

所以,我在实践中所做的事,并不是在我遇到奥卡姆剃刀、我的大脑,或其他某个不可质疑之物时,宣布问题到此为止。我并没有在遇到奥卡姆剃刀、我的大脑,或其他某个不可质疑之物时,就让审视链条停止。审视链条仍会继续——但它继续时,不可避免地要使用我当前的大脑,以及我当前对推理技术的掌握。不然我还能用什么呢?

事实上,不管我对这个两难做什么,做这件事的都仍然会是我。即便我去信任某个别的东西,比如某个计算机程序,那也仍然是我自己作出的信任决定。

一般来说,拒绝那些毫无任何正当性的信念,是一种极其重要的技术。我有时会说,理性的根本问题就是:「你为什么相信你所相信的东西?」我甚至都不想说出任何一句听起来像是在允许「凡事都需要正当化」这条规则出现哪怕一个例外的话。

而这本身也是一种危险的动机;你并不总能避开所有可能带来风险的事情,而且,当某个人因为说了蠢话而惹恼你时,你也不能靠把愚蠢反过来而得到智慧

但尽管如此,我仍然要强调下面这两种说法之间的区别:

这里有一个我无法正当化的假设,它只能被直接接受,而不能被进一步审视。

以及下面这种说法:

在这里,探究仍然会继续审视这个假设,动用的是我当前心智的全部力量——而不是别的什么东西,比如随机数生成器或者 Magic 8-Ball——尽管我当前的心智恰好正是建立在这个假设之上。

不过……如果我们能使用自己当前的智能,就去审视我们究竟该在多大程度上信任自己的大脑,这不是很好吗?如果我们能使用自己当前对理性的把握,就去审视我们应当如何思考,这不是很好吗?

当你这样表述时,答案看起来就开始像是「不行」了。

E. T. Jaynes 过去常说,你必须始终使用你手头所有可用的信息——他是一位贝叶斯概率论者,必须清理那些在计算过程中于不同步骤使用了不同信息的人所制造出的悖论。永远拿出你真正最好的努力这一原则,至少和绝不要做任何看起来可能带有循环之嫌的事一样有吸引力。毕竟,不拿出你最好的努力,替代方案想必就只能是做得比你最好还差。

可尽管如此…… 如果我们能找到某种方式,在假定那些过去曾奏效过的推理方法优于那些一直失败的方法的前提下,去正当化使用奥卡姆剃刀,或者正当化预测未来会与过去相似,这不是很好吗?

如果能存在这样一条正当化链条——它既不终止于某个不可审视的假设,也不被迫在自己的规则之下审视自己,而是能够从绝对的零起点开始,向一位完美空无的理想哲学学生解释清楚——这不是很好吗?

嗯,我当然会很感兴趣,但我并不期待这种事很快就会做到。并不存在什么完美空无的机器幽灵;也不存在某种你能够解释给一块石头听的论证。

哪怕有人解决了第一因问题,并且找出了宇宙为什么是简单的那个真实原因,而这个原因本身并不预设一个简单宇宙……我仍然会预期,这种解释只能被一个有心智的听者理解,而不可能被比如说一块石头理解。一个一开始就没有实现肯定前件(modus ponens)的听者,恐怕就只能碰运气了。

所以,说到底,当有人不停地问我「你为什么相信你所相信的东西?」时,会发生什么?

以我现在的情况来看,当我解释到这一步时,我就开始在一个环里兜圈子了:「我会预测未来会在我所能识别出的最简单、最稳定的组织层级上与过去相似,因为与我试过的其他任何算法相比,这条规则以前通常能给我带来更好的结果;而且,在简单宇宙这一简单假设下,我还能看出它为什么会给出好结果;并且,如果我的观察是正确的,我甚至还能看出我的大脑是如何可能演化得足以在某种程度上准确观察宇宙的。」

但这样一来……我岂不是刚刚给了循环逻辑许可证?

实际上,我给的只是:用你当前的心智,而不是别的什么东西,去反思你自己的心智究竟有多值得信赖这一做法的许可证。

事实上,正是这种反思,才构成了我们一开始拒绝大多数循环逻辑的理由。我们希望拥有一套连贯的因果故事,说明我们的心智是如何知道某件事的;这套故事必须解释:我们用来得出自己信念的那个过程,本身为什么是值得信赖的。这正是理性主义者那个根本问题——「你为什么相信你所相信的东西?」——背后的核心要求。

现在,假设你在一张纸上写下:「(1)这张纸上的一切都是真的;(2)一个氦原子的质量是 20 克。」如果这一招在现实生活中真的管用,那么你只要相信某套声称这一点的循环逻辑,就能知道一个氦原子的真实质量。那就意味着,你只要拉上百叶窗坐在客厅里,就能得到一张关于宇宙的真实地图。这会违反热力学第二定律,因为它会无中生有地产生信息。它也不会是一套关于你的心智如何最终相信某件真实之事的可信故事。

即便你一开始就相信这张纸,你似乎也仍然不会有任何理由说明:为什么这张纸会与现实相对应。那只会是一种奇迹般的巧合:(a)一个氦原子的质量碰巧真的是 20 克,而(b)这张纸碰巧也这么写。

一般而言,相信一组能够自我验证的陈述,看起来并不像是那种能够映射外部现实的办法——当我们把它反思为一套关于心智的因果故事时——当然,做这种反思时,我们使用的仍然是我们当前的心智。

但如果是演化让我们更倾向于相信较简单的信念,并相信那些在过去奏效过的算法在未来也更可能奏效呢?哪怕我们把这件事反思为心智起源的一套因果故事,它看起来仍然像是某种很可能真的能映射现实的机制。

那么,一般地去信任反思一致性又如何呢?如果一个个可能心智被随机生成出来,再被允许沉淀到一种反思一致的状态之中,难道其中绝大多数不都会是错误的吗?啊,但我们是由自然选择演化出来的;我们并不是随机生成的。

如果信任这套论证让你觉得不安,那就先忘掉哲学正当化的问题,转而问问你自己:它究竟是不是真的为真。

(当然,你会用你自己的心智来做这件事。)

这和那个说「我相信《圣经》是上帝的话语,因为《圣经》自己这么说」的人,是同一回事吗?

他们难道不能争辩说,他们那种盲目的信仰同样也是上帝放进他们心里的,因此也是值得信赖的吗?

事实上,当宗教人士最终开始拒绝《圣经》时,他们并不是靠着神奇地跳转到一种非宗教的纯空无状态,在那种非宗教的心智状态中评估自己的宗教信念,然后再跳回一种删去了宗教信念的新状态,才做到这一点的。

人们之所以会从有宗教信仰变成没有宗教信仰,是因为即便处于有宗教信仰的心智状态中,怀疑也会慢慢渗入。他们会注意到,自己的祈祷(更糟的是,那些看上去明明更有价值之人的祈祷)并没有得到回应。他们会注意到,那个在他们心中向他们说话、为宇宙提供看似安慰性答案的上帝,却没法告诉他们圆周率的第一百位小数(如果上帝的目的真是安慰,那这个答案反而会让人安心得多)。他们会去审视上帝创造世界、并谴责不信者的那个故事,而那个故事即便按他们自己的宗教前提来理解,也开始显得说不通。

有宗教信仰并不会让你不再是人类。你的大脑仍然拥有一个人类大脑该有的能力。危险之处在于,有宗教信仰也许会阻止你把那些原生能力应用到你的宗教之上——阻止你对自己进行充分反思。人们并不是靠把自己重置成一位纯然空无的理想哲学家,再从零开始重新审视自己的全部感官经验,来修复自己的错误。人们修复错误,是靠着变得更愿意去质疑自己当前的信念,并使用自己当前心智中更多的力量。

这就是为什么,必须把用你的心智来反思你的心智(反正你也用不了别的)与拥有一个你无法加以反思、不可质疑的假设区分开来。

「我相信《圣经》是上帝的话语,因为《圣经》自己这么说。」好吧,如果《圣经》在其他所有事情上都是一个惊人可靠的信息来源;如果它没有说过蚱蜢有四条腿,也没有说宇宙是在六天内被创造出来的,而是反过来早在化学出现的数个世纪之前就包含了元素周期表——如果《圣经》对我们始终只有益处,只告诉我们真理——那么实际上,我们也许的确会倾向于认真对待《圣经》中那句额外的说法:它是由上帝生成的。

我们也许不会完全相信它,因为也可能是外星人,或者 Matrix 的黑暗魔王,但这至少会是一件值得认真对待的事。

同样地,如果祭司们在其他所有事情上告诉我们的都被证明是真的,那么我们也许会更认真对待他们所说的那句话:信仰是上帝放进我们心里的,而且是一种系统性值得信赖的来源——尤其是如果人们同样还能靠信仰算出圆周率第一百位小数的话。

所以,理解「我相信《圣经》是上帝的话语,因为《圣经》自己这么说」这一说法之循环性的关键,并不主要在于:你将因此拒绝「用你当前的心智来反思你的心智」这一做法。真正关键的地方在于,你会意识到:任何让《圣经》的可信性受到质疑的事情,也同样会让《圣经》对其自身可信性的保证受到质疑。

这对理性同样适用:如果未来不再像过去——哪怕是在其最低、最简单、最稳定且已观察到的组织层级上——那么,好吧,大多数情况下我大概已经死了,因为我大脑的运行过程需要一个化学规律持续有效的守法宇宙。但如果我居然活了下来,那么我就不得不开始质疑那条原则:未来应当被预测为与过去相似。

但就眼下而言……除了说「我要相信:在我所能识别出的最稳定组织层级上,未来会像过去一样,因为与我试过的任何其他算法相比,这条算法以前对我效果最好」之外,还有什么替代方案

难道替代方案是说:「我要相信未来不会像过去,因为那套算法以前总是失败」吗?

说到这里,我觉得自己有义务再把这一点拖出来:理性主义者并不是为了赢过那些完美空无的理想哲学家的辩论;我们只是想赢。为此,我们想尽自己所能尽量接近真相。所以到最后,我拥抱这样一条原则:「质疑你的大脑,质疑你的直觉,质疑你的理性原则,动用你当前心智的全部力量,并在每一个点上都尽你所能做到最好。

如果你当前的某条原则真的显得站不住脚——根据你自己的心智审视,毕竟你无法走到自己之外——那就改掉它!然后再回去重新审视那些事情,使用你新的、改进后的原则。

重点不是要在反思上保持一致。重点是要赢。但如果你审视自己,并且以赢为目标,那么你就会让自己在反思上变得更一致——这正是「在审视自己时仍然以赢为目标」的含义。

一切事物,无一例外,都需要正当性。有时候——至少据我所见,这是不可避免的——这些正当性会走进反思回路之中。我确实认为,反思回路具有一种元层面的性质,应当能让人凭常识把它们与循环逻辑区分开来。但任何会认真考虑循环逻辑的人,在理性问题上多半都已经神游天外了;就算那套循环逻辑只是写着「相信我」的一张纸片,他们也只会坚持说那是一个「反思回路」。好吧,你也不能总是只按照「防止那些一心自毁的人滥用你的理性技术」这一项考虑,来优化你的理性技巧。

重要的是,在你对「如何批评」进行批评时,不要保留任何火力;你也不该把那种回环式正当化的不可避免性,当成一种免于质疑的许可证。

永远使出全力,不管它是否成环——永远尽你所能做到最好,不管它是否成环——而且,归根结底,要为了赢而行动。

[价值理论

(序列)][27]