文 | 塔猴
作为深度学习领域的灵魂人物、OpenAI 前首席科学家,Ilya Sutskever 的名字在硅谷几乎等同于 " 风向标 "。
在离开 OpenAI 并创立以安全为核心的 SSI(Safe Superintelligence)后,他近期的一场万字访谈,无异于向火热的 AI 赛道投下了一枚深水炸弹。
Ilya 在访谈中不仅系统性地复盘了 AI 发展的路径,更抛出了一个令行业震颤的论断:过去几年主导 AI 发展的 "Scaling Law"(规模化法则)即将触碰到天花板。
这意味着,依靠堆砌算力、喂养数据的 " 暴力美学 " 时代正在落幕,AI 行业必须从 " 资源竞赛 " 重返 " 范式创新 " 的硬核科研时代。
" 高分低能 " 的悖论:强化学习的 " 诅咒 "
尽管大模型在各类 Benchmark(基准测试)中的分数屡创新高,但在实际的经济生产中,AI 的落地应用却显得步履蹒跚。Ilya 将这种 " 看起来很强,用起来很傻 " 的现象归结为强化学习(RL)带来的系统性偏差。
目前的训练机制存在严重的 " 奖励黑客 "(Reward Hacking)现象。为了让模型在发布时获得漂亮的 " 跑分 ",研究人员往往针对评测标准进行过度优化。
这导致 AI 变成了一个只会背诵题库的 " 应试专家 " ——它能完美解答见过的题型,却在面对从未见过的复杂现实任务时束手无策。
Ilya 指出,人类之所以强大,不在于 " 刷题量 ",而在于基于常识的推理与判断力。
当前的 AI 研发走入了一个误区:我们在制造 " 做题家 ",而不是培养拥有真实理解力的 " 通才 "。
赛道切换:当 " 数据金矿 " 枯竭
访谈中最具冲击力的观点,莫过于对 Scaling Law(规模化法则)的看衰。
Ilya 将 AI 的发展划分为两个截然不同的阶段:
2012-2020 年(探索时代): 从 AlexNet 到 Transformer,这是由奇思妙想驱动的 " 研究时代 "。
2020-2025 年(规模化时代): GPT-3 之后,行业发现了 " 大力出奇迹 " 的捷径——只要投入更多算力和数据,模型效果就会线性提升。
然而,这条低风险、高回报的路径正在走到尽头。
根本原因在于高质量数据的稀缺性。
目前的互联网数据几乎已被 " 挖掘 " 殆尽,即便未来将算力规模再扩大 100 倍,如果没有新的数据范式,模型能力也不会产生质的飞跃。
" 这就像所有人都在同一个枯竭的矿坑里挖掘。" Ilya 比喻道,在过去几年,AI 公司的竞争逻辑是谁的 " 挖掘机 "(GPU 算力)马力更大;而在未来,竞争逻辑将回归本质——谁能发现新的矿脉。
这意味着,AI 行业的竞争壁垒将从资本密集型(拼算力)转向智力密集型(拼算法突破)。
安全博弈:超级个体的 " 瞬间合体 "
当行业被迫重返 " 研究时代 ",Ilya 认为核心突破口在于让 AI 学会 " 持续学习 "。但这将带来更深层的安全隐患。
不同于人类需要花费数十年精通一门技能,AI 能够实现经验的 **" 瞬间融合 "。
一个精通外科手术的 AI 和一个精通飞行的 AI,可以通过数据合并,瞬间成为全能的超级个体。面对这种潜在的失控风险,Ilya 提出了 " 增量部署 " 的安全策略。他反对将超级 AI 关在实验室里直到完美,认为这种 " 真空中的安全 " 是虚幻的。
相反,应该有控制地将越来越强的 AI 逐步释放到现实世界,通过真实反馈来校准其行为边界。
更有趣的是,Ilya 提出了构建 AI" 同理心 " 的技术路径。他认为,与其制定冷冰冰的规则,不如通过底层架构设计,让 AI 具备类似人类镜像神经元的能力,使其作为一个 " 有情生命 " 去本能地关爱人类。这或许是解决对齐问题(Alignment)的终极解法。
终局思考:人类不应成为 " 旁观者 "
在访谈的最后,Ilya 对人类在 AI 时代的终局给出了极其冷静甚至残酷的预判。
他明确反对那种 " 每个人都有全能 AI 助手包办一切 " 的乌托邦愿景。
在 Ilya 看来,这种舒适区将是人类文明的陷阱——一旦人类失去了对事务的理解和参与,将彻底沦为被动和脆弱的附庸。
为了避免这种局面,Ilya 提出了一个长期均衡方案:人类必须通过神经连接等技术,让自己成为 " 超级智能 " 的一部分。 只有当 AI 的认知能力能够完整传输给人类,实现人机共生,人类才能保持 " 完全参与 " 的主体地位。
Ilya Sutskever 的这次发声,不仅是对技术路线的纠偏,更是对资本市场的一次预警:那个靠 " 堆显卡 " 就能讲好 AI 故事的时代,已经结束了。