拟人化的乐观

Anthropomorphic Optimism

拟人化的核心谬误,是当某个事物的因果结构与人类大脑的因果结构如此不同、以至于你根本没有任何理由期待它会那样时,你却仍然期待它能被你大脑这个黑箱所预测。

《群体选择主义的悲剧》中,那些早期(1966 年之前)的生物学家相信:捕食者会自愿克制繁殖,以免过度繁殖、挤爆栖息地并耗尽猎物种群。后来,当 Michael J. Wade 真正在实验室里创造出近乎不可能实现的群体选择条件时,成体却适应出了同类相食:吞食卵与幼虫,尤其是雌性幼虫。1

那么,群体选择主义者为什么可能没有想到这种可能性呢?

假设你是某个部落的一员,并且你知道在不久的将来,你的部落会遭遇资源挤压。你也许会提出这样一个解决方案:每一对夫妇最多只能有一个孩子——第一个孩子之后,这对夫妇就开始避孕。至于「让我们每个人都尽可能多生孩子,然后再去追捕并吃掉彼此的孩子,尤其是女孩」这样的说法,甚至不会在你脑海里作为一种可能性出现。

想象一下:相对于你的目标,存在一个对解决方案的偏好排序。你想要在这个偏好排序里尽可能高的解决方案。你如何找到它?当然是靠大脑!把你的大脑看作一个「高排名解法生成器」——一种搜索过程,它会产出在你天生偏好排序中排名很高的解法。

现实世界问题的解空间通常都相当大,这就是为什么你需要一个高效的大脑:它甚至不会费心去构造绝大多数低排名的解法。

如果你的部落面临资源挤压,你当然也可以尝试单脚到处跳,或者把自己的脚趾咬下来。这些「解决方案」显然行不通,代价巨大——你一看就知道。事实上,你的大脑高效到不会浪费时间考虑这些糟糕的方案;它压根不会生成它们。在搜寻高排名解法时,你的大脑会直接飞向解空间的某些区域,比如「部落里所有人聚在一起,同意在资源挤压过去之前,每对夫妇最多生一个孩子」。

像「每个人尽可能多生孩子,然后吃掉女孩」这样排名极低的解法,并不会在你的搜索过程中被生成出来

但一个选项的排名之所以「低」或「高」,并不是这个选项的某种内在属性。它是进行偏好的优化过程的属性。不同的优化过程,会以不同的顺序进行搜索。

进化而言,个体尽可能繁殖、然后吃掉别人的女儿,是毫不费力的;而个体为了群体利益而自愿克制自身繁殖,则荒谬绝伦。或者,用更不拟人化的说法:第一组等位基因会在一个种群里迅速取代第二组。(而自然选择在这里并没有明显的搜索顺序——这两种替代方案作为突变,看起来同样简单。)

假设某位生物学家说:「如果捕食者种群的资源是有限的,进化就会把它们塑造成会自愿克制繁殖——如果是负责打造捕食者的人,就会这么做。」这就是赤裸裸的拟人化,推理线条完全暴露:会这样做,所以我推断进化也会这样做。

在我的工作中,偶尔也会遇到这种赤裸裸的谬误。但假设你对某人说:「AI 不一定会像你一样运作。」假设你对这位假想的生物学家说:「进化并不像你一样运作。」对方会怎么回答?我可以告诉你一个你绝不会听到的回应:「天哪!我之前没意识到这一点!我的推理中有一步是不成立的;我会丢掉结论,从头开始。」

不,你会听到的反而是:为什么任何 AI 都必须以说话者的方式推理。或者,为什么自然选择尽管遵循着完全不同的优化标准、并使用完全不同的优化方法,却仍然应当做出那些在人类看来是好主意的同样之事

因此,就有了那套精致的想法:群体选择会偏好这样一些捕食者群体,其中个体会自愿放弃繁殖机会。

群体选择主义者在预测上偏离得与那种直接犯下谬误的人一样严重。他们的最终结论与他们公开假设「进化必然像他们自己那样思考」时并无二致。但他们把论证中写在底线之上的部分擦掉了,却没有擦掉真正的底线,然后又写上新的合理化。这样一来,谬误推理就被伪装起来了;推理中那一步显而易见的缺陷被隐藏了——尽管结论仍然完全相同,因此在现实世界中也同样完全错误

但为什么会有科学家这么做呢?最终,数据出来之后反对群体选择主义者,他们感到尴尬。

正如我在《Fake Optimization Criteria》中所说,我们人类似乎进化出了一种本能:主张「我们」偏好的政策几乎可以从任何优化标准中推导出来。政治是祖先环境的一部分;我们是那些最擅长说服别人相信「部落利益」(而不只是他们自己的利益)要求处决他们憎恨的竞争对手 Uglak 的人的后代。我们当然不是 Uglak 的后代;他没能论证出「部落的道德准则」(而不仅仅是他显而易见的私利)要求他活下来。

而且因为我们越是真诚相信就越有说服力,我们也进化出了一种本能:真诚地相信其他人的目标、以及我们部落的道德准则,确实意味着他们应该为了他们自身的利益而按我们的方式行事。

所以,群体选择主义者想象着捕食者克制繁殖这幅美好的图景时,会本能地合理化:为什么自然选择即便按照自然选择自身的目的,也应当按他们的方式做事。狐狸如果克制繁殖,会更适应!不,真的!它们甚至会在繁殖上胜过那些不克制繁殖的狐狸!真的相信我!

试图用论证把自然选择说服得按你想的方式行事,其问题在于:进化并不包含任何会被你的论证所推动的东西。进化不像你一样运作——甚至连「存在某个元素能听见或在意你煞费苦心解释为什么进化应当按你方式行事」的程度都没有。人类论证甚至都无法与自然选择作为一种优化过程的内部结构相度量;人类论证并不会用于推动等位基因,就像人类论证会在人类政治中扮演因果角色一样。

因此,群体选择主义者并没有成功地说服自然选择按他们的方式行事;他们只是当现实以不同方式展开时感到尴尬。

这里有一层相当浓厚的潜台词,关于不友好型 AI。

但这个观点可以推广:这就是一般意义上乐观推理的问题。什么是乐观?它是按你自己的偏好排序对可能性排名,选出其中一个在你的偏好排序里很高的结果,然后不知怎么地,这个结果就变成了你的预测。过程中生成了哪些精致的合理化,大概并没有人们愿意相信的那么重要;回溯认知史,你会发现只是「乐观输入,乐观输出」。但自然,或任何我们正在讨论的其他过程,并不真的、也不在因果上通过在你的偏好排序里给结果排名并选出一个高排名结果来做出选择。因此,大脑无法与环境同步,预测也就无法匹配现实。