算法从内部是什么感觉
How An Algorithm Feels From Inside
❦
「如果一棵树在森林里倒下,而没有人听见,它会发出声音吗?」我记得曾见过有人就这个话题真的吵起来——一场彻头彻尾天真的争论,离贝克莱式主观唯心主义十万八千里。就只是:
「它当然会发出声音,就像任何一棵倒下的树一样!」
「可怎么会有没人听见的声音呢?」
标准的理性主义观点会认为:第一个人说话时,仿佛「声音」意指空气中的声学振动;第二个人说话时,仿佛「声音」意指大脑中的听觉体验。如果你问「有没有声学振动?」或「有没有听觉体验?」,答案立刻就很明显。于是这场争论其实是在争论「声音」这个词的定义。
我认为这种标准分析基本正确。所以让我们把它当作前提,然后问:人们为什么会陷入这种争论?其背后的心理机制是什么?
启发式与偏差研究计划的一个关键观点是:错误往往比正确答案更能揭示认知。围绕「如果一棵树在荒无人烟的森林里倒下,它会不会发出声音」而陷入激烈争执,传统上被视为一种错误。
那么,哪种心智设计会对应这种错误呢?
在伪装的问题一文中,我介绍了 blegg/rube 分类任务:高级分拣员 Susan 解释说,你的工作是把从传送带上下来的物体分拣开来,把蓝色的蛋或「blegg」放进一个箱子,把红色的立方体或「rube」放进 rube 箱子。后来你会发现,这是因为 blegg 含有小块的钒矿石,而 rube 含有小片的钯,两者在工业上都很有用。
只是,大约有 2% 的蓝色蛋状物体里面装的反而是钯。那么,如果你找到一个含钯的蓝色蛋状物体,你是否应该改叫它「rube」?你反正要把它放进 rube 箱子——为什么不叫它「rube」呢?
但当你关掉灯时,几乎所有 blegg 都会在黑暗中发出微弱的光。
而含钯的蓝色蛋状物体,在黑暗中发光的概率与任何其他蓝色蛋状物体一样高。
所以,如果你找到一个含钯的蓝色蛋状物体,并问「它是 blegg 吗?」,答案取决于你要用这个答案做什么。如果你问「这个物体该进哪个箱子?」,你就会像它是 rube 一样去选择。但如果你问「如果我关掉灯,它会发光吗?」,你就会像它是 blegg 一样去预测。在一种情况下,「它是 blegg 吗?」这个问题替代了那个伪装的问题:「它该进哪个箱子?」在另一种情况下,「它是 blegg 吗?」这个问题替代了另一个伪装的问题:「它会在黑暗中发光吗?」
现在设想你有一个物体:它是蓝色的、蛋状的、并且含有钯;而且你已经观察到它有毛、柔韧、不透明,并且会在黑暗中发光。
这回答了每一个查询,观察到了所有被引入的可观测量。再也没有什么伪装的问题可供它替代。
那么,为什么有人仍会冲动地继续争论:这个物体真的是 blegg 吗?
这些来自神经分类的图示展示了两种不同的神经网络,它们可能被用来回答关于 blegg 与 rube 的问题。
网络 1
网络 1 有不少缺点——比如可能出现振荡/混沌行为,或需要 O(N^2) 条连接——但网络 1 的结构相较于网络 2 确有一个重大优势:网络中的每个单元都对应一个可检验的查询。如果你观察了所有可观测量,把每个值都钳定(clamp)住,网络里就不会剩下任何多余的单元。
网络 2
不过,网络 2 更像是人类大脑工作方式的一种更佳候选:它快速、廉价、可扩展——而且在中心多出一个悬空的额外单元;即便我们已经观察了周围每一个节点,它的激活仍然可能变化。
也就是说,即便你已经知道一个物体是蓝还是红、蛋还是立方体、有毛还是光滑、明亮还是黑暗,以及它含钒还是含钯,仍会感觉还有一个剩余的、未回答的问题:但它真的算是 blegg 吗?
通常在日常经验里,声学振动与听觉体验是绑定在一起的。但一棵树在荒无人烟的森林里倒下,把这种常见的关联拆开了。即便你已经知道倒下的树会产生声学振动,却不会产生听觉体验,你仍会感觉还有一个剩余的问题:它算发出声音了吗?
我们知道冥王星在哪里,也知道它要去哪里;我们知道冥王星的形状,也知道冥王星的质量——但它是行星吗?
现在记住:当你看着网络 2(就像我在这里把它画出来的那样)时,你是在从外部看这个算法。人们不会对自己想:「中心单元该不该激活?」就像你也不会想:「我的视觉皮层里的神经元 #12,234,320,242 该不该激活?」
要把大脑从外部想象出来,需要刻意用力——即便如此,你仍看不见你真实的大脑;你只能想象你以为那里有什么。希望这种想象建立在科学之上,但不管怎样,你都无法通过内省直接访问神经网络的结构。这就是为什么古希腊人没有发明计算神经科学。
当你看着网络 2 时,你是在从外部看;但如果你自己就是一颗运行着该算法的大脑,那么这种神经网络结构从内部的感觉是:即便你已经知道物体的每一个特征,你仍会忍不住想:「但它到底是不是 blegg?」
这是一道巨大的鸿沟需要跨越,我见过它把人当场卡住。因为我们不会本能地把自己的直觉看作「直觉」,我们只是把它们看作世界本身。当你看着一个绿色的杯子时,你不会把自己当作在看一幅由视觉皮层重建出来的图像——尽管你确实在看的是那个——你只会看到一个绿色的杯子。你会想:「看,这个杯子是绿色的」,而不是:「我视觉皮层里重建出的这个杯子的图像是绿色的」。
同样地,当人们争论那棵倒下的树是否会发出声音,或冥王星是否是行星时,他们不会把自己看作在争论:自己的神经网络里某个分类是否应该被激活。看起来要么树会发出声音,要么不会。
我们知道冥王星在哪里,也知道它要去哪里;我们知道冥王星的形状,也知道冥王星的质量——但它是行星吗?没错,确实有人说这是一场关于定义的争斗——但即便这种说法也是一种网络 2 式的视角,因为你是在争论中心单元应该如何接线。如果你的心智是按网络 1 的方式构造的,你不会说「这取决于你如何定义『行星』」,你只会说:「既然我们已经知道冥王星的轨道、形状和质量,就没有问题可问了。」或者更准确地说,如果你的心智是按网络 1 的方式构造的,它会感觉如此——它会感觉好像没有问题剩下——这就是那种心智的主观体验。
在你能够质疑自己的直觉之前,你必须意识到,你心眼所看到的东西就是一种直觉——一种从内部看见的认知算法——而不是对「事物真实的样子」的直接知觉。
我认为,人们之所以紧抓自己的直觉不放,与其说是因为他们相信自己的认知算法完美可靠,不如说是因为他们无法把自己的直觉看作:那只是他们的认知算法从内部看起来的样子。
因此,你试图说明「本能的认知算法」是如何偏离正轨的任何话,最终都会被拿来与他们对「事物真实的样子」的直接知觉作对照——并被当作显然错误而丢弃。