
我看到这两句话的第一反应不是震惊,反倒觉得它们很诚实,而且抓住了这个时代的时代精神。
诚实在哪?诚实在硅谷已经准确判断了,这个时代真正能卖出去的东西,已经不是 " 让你更聪明 "。那种话听上去高级,但产品做不到。
真正能卖出去的是 " 让你不用聪明 "。这两件事不是程度差别,是方向相反。前者要求你投入摩擦,后者承诺帮你绕过摩擦。
今天这篇文章,想说的是一件比 "AI 让人变笨 " 更黑色一点的事:
AI 可能没有让你变蠢,它只是让你失去了变聪明的那段过程。
我下面会反复用一个词来指称这种状态:伪智能。需要先把这个词的意思讲清楚,因为它的重音不在 AI 那一边,在人这一边。
伪智能不是 AI 输出的内容假。AI 大多数时候输出的内容是不假的,而且越来越不假。伪智能是一个人借助 AI 呈现出一种看似聪明的状态,却没有经历聪明背后必需的那段训练。
学生交上来的论文、CEO 看到的市场分析、医生收到的诊断建议、政府收到的政策报告,都 " 看起来对 "。" 看起来对 " 和 " 是对的 " 之间,差着一整个思考过程。" 看起来聪明 " 和 " 真的聪明 " 之间,差着一整段没人愿意走的训练。
聪明从来不是一个状态,是一种习惯。一个人不是因为知道了答案就变得聪明,是因为反复经历了 " 自己摸到答案 " 的那个过程,才长出了下一次还能摸到答案的能力。AI 把过程消掉之后,结果还在,能力没了。
这件事,在三个层次上同时展开。第一层是个体的认知投降,第二层是组织和教育的算法塌缩,第三层是一个不懂技术的政府,把整个文明的判断力外包给一个三分之一到九成时候出错的系统。
下面我们一层一层来。
不是 AI 使人变笨,而是大多数人被困在了不奖励 " 思考 " 的游戏和系统中
每个人都在靠 AI 作弊上大学,传统教育已死
一、认知缴枪:当你不再是判断的来源
2015 年,赫尔辛基阿尔托大学 ( Aalto University ) 商学院的埃斯科 · 彭蒂宁 ( Esko Penttinen ) 教授注意到一件怪事。芬兰一家顶尖金融公司里,一款用来加速会计师工作的关键软件正面临被废弃。问题不是它运行得不好,问题是它运行得太好了。
这款软件负责自动化处理固定资产管理的会计工作,几乎没有出过错。但其中一位会计师告诉彭蒂宁:" 当这份工作被自动化之后,你就不会再开始深入思考事物的本质了。" 关键技能正在变成一种 " 丢失的能力 "。公司高管震惊到,最后的决定是把这款完美运行的软件停掉,重新教员工固定资产管理会计的原理。
为了让公司活下去,这款软件必须死。
这个故事后来被收进彭蒂宁参与撰写的一篇研究论文,题目就叫《技能侵蚀的恶性循环:认知自动化的案例研究》 ( The Vicious Circles of Skill Erosion ) 。这篇论文是一个很早期的预警:当机器开始接管那些原本由人来思考的环节,人不会自动转去思考更重要的事,人会停止思考。
这个判断在 2024 年被一组实验数据精准确认了。
宾夕法尼亚大学沃顿商学院的 Steven Shaw 和 Gideon Nave,设计了一个非常巧的实验。他们让一组志愿者在 AI 协助下回答有难度的问题,故意在 AI 的答案里随机插入错误。结果分两种情况:
当 AI 给出正确答案时,使用 AI 的志愿者表现优于完全靠自己的对照组。这是大家预期的结果。
当 AI 给出错误答案时,使用 AI 的志愿者表现远远低于对照组。也就是说,他们没能识别出 AI 在胡说,他们直接采纳了。Shaw 和 Nave 给这种状态取了一个名字:认知投降 ( cognitive surrender ) 。
这个名字很准。它和 " 认知卸载 " ( cognitive offloading ) 区别很大。认知卸载是说 " 这件事我让工具去做 ",前提是你还在判断 " 这件工具的输出靠不靠谱 "。认知投降是说 " 判断这件事我也让工具去做 "。前者你还是大脑,后者你只是一个传声筒。
AI 越像一个聪明人,人就越容易忘记它只是一个概率系统。
最危险的不是 AI 错,是 AI 错得很自信、很流畅、很有条理。一个明知道自己可能错的工具会让人保持警惕,一个看起来从不犯错的工具会让人完全松手。Cluely 那句广告语之所以能说出来,是因为他们已经看清楚:用户最想要的不是更聪明的助手,是一个让自己可以彻底松手的对象。
但真正让我觉得这件事必须被写下来的,是另一个层次的代价。代价不在于使用 AI 的人在某次任务中错得更多,而在于他们正在失去未来某天独立做对这件事的能力。
这就要谈一件公众号读者很少有人提到的事:很多被认为是低价值的工作,其实是高价值能力的训练场。
初级律师查案例,不是为了找到那个案例,是为了在翻阅几百份案件中长出 " 哪些细节会决定胜负 " 的直觉。
年轻分析师整理资料,不是为了交一份表格,是为了在数据里慢慢摸到 " 这个行业的真正机制是什么 "。
程序员调 bug,不是为了让程序跑起来,是为了在反复定位错误中长出 " 代码在哪些地方最容易坏 " 的判断力。
编辑改稿,不是为了让句子更顺,是为了在改别人的文字中长出自己写文字时不再犯同样错误的本能。
学生写作文,不是为了交一篇作文,是为了在卡住、推翻、重写的过程中,把模糊的感觉变成清楚的语言。
这些工作有一个共同特征:它们看起来低效,但它们提供的是适度困难 ( desirable difficulty ) 。这是 1990 年代加州大学洛杉矶分校的认知心理学家罗伯特 · 比约克 ( Robert Bjork ) 提出的概念,后来被几百项研究验证:学习时如果完全没有摩擦,大脑不会留下深的痕迹;只有在一定程度的挣扎中,长期记忆和迁移能力才会形成。
AI 现在干的事,正好是把这一类工作整段整段吞掉。它不是从工作链条的最高端开始替代,它是从最底端、看起来最不重要的环节开始替代。但被吞掉的恰恰是判断力赖以形成的那段路。
我之前在一篇叫《AI 折叠》的文章里写过一句话:算法最先拿走的,不是你的工作,是你工作里最有成长性的部分。
那篇文章当时是从分配角度讲的:谁在算法上游,谁在算法下游。今天再回头看,这件事比我当时写的更彻底。芬兰那批会计师没有被裁,他们只是不再思考了。Wharton 实验里那批志愿者没有失业,他们只是把判断这件事让出去了。AI 不是抢走了你的工作,是抢走了你工作里那个让你变厉害的环节。
工作还在,人还在,变厉害的可能性没了。
判断力的无产阶级:AI 算法下的第一批炮灰已经诞生
现在看清了:AI 不是平权,它是资本和劳动力的最后一战。越有钱跑得越快
二、算法单一文化:当所有人借同一个外脑思考
英国保守派历史学家尼尔 · 弗格森 ( Niall Ferguson ) 给当下这个时代起了一个名字,叫 " 伪智能 " ( pseudo intelligence ) 。他最初用这个词,是描述大学里学生用 AI 代写论文造成的假智力表现:交上来的东西看起来很专业,实际背后没有任何真正的认知工作。
弗格森用得很窄。我们这篇文章想把这个词的范围拉大,因为同样的现象正在从教室扩散到整个组织世界,而且在组织层产生的后果比在个体层更难逆转。
先说一组数据。
2024 年,Meta 联合两所大学的研究团队发表了一篇研究,扫描了当时市面上 21 个最先进的大语言模型 ( 包括 GPT-4、Claude、Gemini 等 ) ,测试它们对常见问题的回答。结论是一个让人沉默的词:算法单一文化 ( algorithmic monoculture ) 。
这 21 个模型在面对同一个问题时,给出的答案在结构、立场、用词上呈现出强烈的趋同。
这不是巧合。这些模型大量训练数据重叠,对齐流程相似,人类反馈来源接近。它们在底层是同一种模型的不同变体。
那么问题来了:当全世界几亿人在用这 21 个模型问同一类问题、改同一类文档、写同一类报告、做同一类决策时,会发生什么?
麻省理工学院媒体实验室 ( MIT Media Lab ) 的纳塔利娅 · 科斯米纳 ( Nataliya Kosmyna ) 博士给了一个具体回答。她带领团队研究使用 ChatGPT 写论文的学生,对比只用搜索引擎的学生和完全靠自己写的学生。结论是,使用 AI 的小组写出的论文 " 非常同质化,它们都非常相似 "。这些学生反复聚焦在更狭窄的观点集合上,创造性显著降低。
科斯米纳还用脑机接口监测了这些学生的大脑活动。使用 ChatGPT 的学生,与研究主题之间形成的神经连接更浅,批判性思维和长期记忆的形成都受到削弱,而且这种削弱程度甚至超过了用谷歌搜索的学生。
这就是伪智能在组织层的形态:输出看起来更多元,实际是同一个声音的回声。每个人都觉得自己用 AI 拿到了独家见解,实际上几亿人在拿到几乎一样的见解,只是措辞略有差异。
谷歌今年推出的 AI Mode 把这个过程做到了极致。过去你搜索一个问题,谷歌给你十条蓝色链接,你自己点开几条,自己判断哪个可信、哪个值得深读。现在你搜索同一个问题,谷歌直接给你一段 AI 生成的总结。你看到的是 AI 决定让你看到的内容。剩下的链接,你不会再点。
我以前写过一篇文章叫《不是 AI 使人变笨》。当时的核心判断是:社会正系统性地把奖励从 " 深度思考 " 转向 " 煽动情绪 "。
AI 出现之后,这个奖励机制完成了最后一块拼图:现在连 " 煽动情绪 " 都不用你自己干了,模型替你干。你只负责按下生成按钮。
这就引出了海德格尔在 1953 年那篇著名演讲《技术的追问》里讲过的一个判断:技术真正的危险不是它本身,是它把整个世界揭示成可调度、可计算、可优化的资源。在他看来,技术不是中性工具,技术是一种 " 看世界的方式 "。一旦人类开始用这种方式看世界,森林就不再是森林,只是木材储备;河流就不再是河流,只是水电潜力。
AI 是这条逻辑走到今天最干净的样本。它把语言变成可调用资源,把知识变成可调用资源,把观点变成可调用资源,把品味、风格、创意变成可调用资源,最后连 " 像一个聪明人在思考 " 这件事本身,也变成了可调用资源。
当一切都变成可调用,有一件事会被悄悄消灭:停下来真正理解一件事的意愿。
因为理解很慢、很不经济、很不能被复用。它在一个崇拜效率的系统里没有位置。
伪智能不是被强制接受的,是被效率本身筛选出来的。当你周围每个人都用 AI 三十秒生成一份报告、十分钟写完一篇文章、一小时做完一份方案,你坚持自己花三天去理解一件事,你会被认为是浪费时间的人。系统不会奖励你,系统会淘汰你。
这就是伪智能的第二层意思:它不只是一种使用方式,它正在变成一种环境压力。当所有人都借同一个外脑思考,世界不是变得更聪明,是变得更整齐。
永久底层:硅谷的 AI 从业者普遍认为,普通人已经 " 完蛋了 "。
为什么最懂 AI 的人在纷纷离职:" 我凝视过无尽的黑夜 "

柏拉图在《斐德罗篇》 ( Phaedrus ) 里讲过一个埃及神话。
文字的发明者图特 ( Theuth ) 把这件礼物献给国王塔穆斯 ( Thamus ) ,声称它可以增强人的记忆和智慧。塔穆斯回答:不,这只会让人依赖外部符号、削弱真正的记忆。人们将看起来知道很多,实际上只是拥有许多外部记录。
两千五百年之后,塔穆斯的预言每隔几代就被重新激活一次。书写让人担忧记忆,印刷让人担忧专注,广播让人担忧严肃,电视让人担忧深度,搜索让人担忧理解。每一次新工具出现,都有人重述塔穆斯那句话,而每一次,这种担忧都被实践部分证伪、部分证实。
AI 让人担忧的是最后一件事:判断力本身。
而这一次的特殊之处在于,前几次的工具替代的是某种能力,这一次的工具替代的是判断。能力丢了可以重新练,判断让出去了,你连 " 这次让出去得对不对 " 都没法判断。
英国工党政府 2025 年公布了一份《人工智能行动计划》。计划的核心是政府聘请的科技投资者马修 · 克利福德 ( Matthew Clifford ) 提出的:通过 " 全方位数字化 ",在公共部门尽可能普及 AI,据称可以为国家节省 460 亿英镑。
报告里有这样的语言:AI 将缩短等待时间、识别瓶颈、让公共服务 " 感觉更具人情味 ",甚至可以在监狱暴乱发生之前就将其制止。
不过,英国小说家伊万 · 莫里森 ( Ewan Morrison ) 则认为:政府在把一个错误率在 33% 到 90% 之间的东西,引入医疗、军事、教育这些它最不该被引入的领域。
我们没有在拥抱技术。我们在让一个错一半时间的系统替我们做最重要的判断。
更荒诞的是,做出这个决定的人,大多数自己并不懂这个系统是怎么运作的。他们看到的是 PPT 上的省钱数字,是供应商演示里那些精挑细选的成功案例,是其他国家正在做同样的事所制造的紧迫感。
他们没有能力问出最基本的反问:这个系统在什么情况下会失败?失败的代价由谁承担?如果我们离不开它了再发现它有问题,有备份方案吗?
当被治理者懂技术、治理者不懂技术,这件事会出现一种奇特的反转:技术变得像魔法。一个不懂魔法的人怎么治理魔法?他只能信任那些自称懂魔法的人。
这种状态不是没有反例。前 Facebook 工程师格奥尔格 · 佐勒 ( Georg Zoeller ) 现在驻新加坡,担任新加坡政府的技术顾问。他观察到的新加坡是一个不同的样本:技术决策由懂技术的人做,引入 AI 的姿态是工程性的、计算代价的、保留备份的,而不是宗教性的、押注式的、不可逆的。
新加坡的样本意义在于:另一种治理姿态是可能的,一个国家可以认真使用 AI,同时拒绝相信 AI。这件事在英国、在美国、在欧洲大部分国家,都没有成立。
我之前判断 AI 是资本和劳动力的最后一战。今天看下来,这件事在加速,但加速的方式比我当初写的更黑色。劳动力还没来得及组织起反抗,已经先把自己的判断力交出去了。资本不需要剥夺工人的反抗能力,工人正在主动放弃。政府不需要压制公民的判断力,公民正在主动外包。
这让我想起 1909 年英国小说家 E.M. 福斯特写过一篇短篇小说,叫《机器休止》 ( The Machine Stops ) 。故事设定在一个高度依赖一台巨大机器的未来社会,人们的衣食住行、社交、教育、娱乐都通过这台机器实现。久而久之,人们忘记了机器是怎么运作的,也忘记了它是怎么修理的,他们开始把它当作神。
故事的高潮是机器开始出故障。但人们不把这看作危机,而看作神圣的智慧,他们已经把机器变成了不可质疑的对象。等他们终于意识到机器真的会停下来时,已经没有人记得怎么修了。
这本小说写于 1909 年。福斯特那时候没有计算机、没有互联网、没有 AI。他描写的不是技术,是人和技术的一种关系,一种当人完全依赖一个自己不再理解的系统时,会发生的事。
一个不懂技术的政府,把决策外包给一个不懂世界的模型。这不叫治理,这叫赌博。
你已经不再是地球上最聪明的存在了
为什么聪明人正在纷纷逃离社交媒体?
四、把变聪明的机会留下来
有观察家认为," 如果我们正在变得越来越笨,那我们几乎不能把责任推给 AI。这都是我们自己造成的。"
读到这句话的时候我有点不同意。
把责任推给自己听上去很有道德感,但这是另一种偷懒。变笨从来不是个人选择,是一整套奖励机制、政策导向、商业模式、教育体制合谋出来的结果。当你周围每个人都在用 AI 三十秒完成你需要三天才能完成的事,当你的老板拿着 AI 生成的方案问你 " 为什么这周只交了一个想法 ",当你的孩子告诉你他班上每个人都在用 ChatGPT 写作业,你独自一个人选择 " 亲自思考 " 是一种奢侈,而不是一种美德。
真正的问题不是 " 我们怎么变得不那么依赖 AI"。真正的问题是 " 我们怎么重新设计一个奖励思考的环境 "。
这件事不能靠个人意志解决。学校能不能在某些课程里强制下线?公司能不能保留一部分必须人工完成的环节?政府能不能在最敏感的决策领域立法限制 AI 介入?这些都是制度问题,不是道德问题。
但在制度回应到来之前,每个人能做的有限的一件事是:把判断权留在自己这里。不是不用 AI,是用了之后还要再过自己一遍。不是抗拒效率,是知道有些事情慢一点是值得的。不是回到没有 AI 的过去,是在有 AI 的世界里,守住一块不让 AI 进来的地方。
正如麦克卢汉所指出的,每一种新工具都会让某些东西过时,让某些东西复活。AI 让 " 知道答案 " 过时了。它复活的应该是什么?
应该是提出问题的能力。判断答案是否值得相信的能力。在没有答案的地方继续往前走的能力。这些是 AI 永远不能代替的能力。
但前提是,你得还留着它们。
伪智能时代真正稀缺的,不是答案,是还在思考的人。【懂】