从兰道尔极限原理出发判断, AI 对人类的能力增幅有限
很多人在上手 Codex 或者 Claude Code 之后,都会有一种自己突然“强得可怕”的感觉。以前脑子里有很多想法,但不会写代码,或者知道怎么做,却因为工程量太大不了了之。现在情况变了。最好的程序员助手就放在电脑里,一句提示词可以先生成一个网站、一个应用,甚至先搭出一个系统的雏形。能力放大来得太快,时间压缩也来得太猛,于是一种观点开始流行:AI 改变的不是某个具体环节,而是时间本身。
这种说法并不是空穴来风。它确实符合很多人的直观体验。过去一个人要花几天整理的材料,现在模型几十分钟就能做完;过去一个团队要一周打磨的方案,现在一个熟练使用 AI 的人一下午就能同时推出十个版本;过去很多因为人手不足而根本没有机会展开的尝试,今天正在被极低成本地释放出来。你只要掌握了 AI 的使用方法,就会发现变化非常迅猛:信息处理的速度变了,分支探索的密度变了,候选方案的数量变了,甚至连“一个人一天到底能同时推进多少事情”的直觉也都变了。
因为这些变化是真实的,所以“AI 在创造时间”这套叙事才会显得顺理成章。问题是,一件事只要有一半是真的,人们就很容易把另外一半也顺手脑补成事实。AI 确实极大扩张了比特空间中的处理能力、生成能力和并行能力。很多人接下来很自然地推出了另一个更宏大的结论:既然信息空间中的处理能力可以近乎无限扩张,那么现实世界中能够被完成的事情,也会进入一个近乎无上限增长的新阶段。
这个推论的问题在于它跳过了最关键的一步。信息空间里的候选可以无限膨胀,但现实世界里的有效行动,最后到底要经过什么东西,才能真正成立?
阅读原文 ——> 从无限候选空间到有限决策行动:从兰道尔原理看 AI 时代的真正约束
有三个非常直观的基本原理可以洞穿这种谬误。
第一个原理是,人脑的信息处理带宽具有生物学上的有限性。 这是所有高价值信息最后必须通过的窄口,也是最基本的物理约束。比特世界可以继续膨胀,模型可以更快、更便宜、更大规模地生成和处理信息。但只要这些信息最后还要落到现实世界里,落到一个不可逆、要承担后果、要承担责任的行动上,那么它就绕不过一个有限的裁决接口。多数时候,这个接口是人脑。更广义一点说,它也可能是由组织审批、制度门槛、法律责任和治理规则共同构成的决策流程。无论形式是什么,它都不是无限的。
第二个原理是,AI 在比特空间中的扩张性极强。 它不是在简单模拟一个人类助手,而是在信息系统内部建立了一套和碳基个体完全不同的处理机制。它可以大规模并行,可以低成本复制,可以几乎不知疲倦地生成草稿、压缩文本、重组结构、比较方案、搜索路径、做局部推演。很多原本必须绑定在人身上的信息劳动,现在都开始以外部供给的形式出现。
第三个原理也是最容易被忽视的一个:删除信息、收缩可能性、形成决策,这个过程不是免费的。 在比特空间里,生成候选很便宜,保留分支很便宜,同时试十条路径也越来越便宜。但如果你要从中删去大部分候选,把无数可能性压缩成一个真正要进入现实的结论,这个过程就会开始变贵。它要消耗算力、时间、注意力,也要消耗判断者本身的心智资源、责任带宽和承担后果的能力。候选越多,这个消耗很多时候不是越轻,而是越重。从物理学直觉上看,这并不奇怪。兰道尔原理指出,当一个计算过程执行逻辑不可逆操作时,例如把多个可能输入压成同一个输出,尤其是“擦除信息”这类操作,系统在有限温度下至少要向环境耗散一定的能量。人类决策当然不能被简单还原为单个 bit 的擦除,但这个原理提供了一个重要启发:删除信息不是纯抽象动作,而是带有真实代价的。 从开放候选中收缩出一个可以执行的行动,本质上不是免费过程,它伴随着能耗、注意力消耗,以及责任的集中与承担。决策不仅是智力活,更是物理意义上的减熵过程。
这三条都不复杂,甚至可以说都很符合直觉。但把它们放在一起,很多关于 AI 的大叙事就会开始出现裂缝。因为它们共同指向一个更接近现实的结论:AI 放大的并不是现实世界中已经被确认并兑现出来的有效行动,而是信息空间中的候选空间。
未来最稀缺的不会是一般意义上的执行时间,执行时间只会越来越便宜。最稀缺的是那些最后真的能把候选压缩成现实的人和结构。可能是个人,可能是一个管理层,可能是一套治理规则,可能是一组高约束的自动系统。它们的共同点都一样:它们承担着“把无数可能缩成少数被确认动作”的功能。这个层如果不扩展,那么前面无论供给多大,最后真正进入现实的有效产出,都会被它重重限制。
这也意味着,人类要适应 AI 纪元,真正需要准备的,并不只是学会调用更多工具,或者获得更强的生成能力,而是尽可能提高自己处理复杂信息、识别关键差异、承受判断压力和完成高质量删减的能力。未来真正拉开差距的是谁能从海量候选中更稳定地确认出那一小部分真正值得进入现实的东西。
人类需要的不只有知识。