爆火神经网络架构 KAN 一作,毕业新去向已获清华官网认证:
刘子鸣,拟于今年 9 月加入清华大学人工智能学院,任助理教授。

正如论文中所提到,大家关注的重点在于:
KANs 是 MLPs 的有力替代方案,为进一步改进目前重度依赖 MLPs 的深度学习模型提供了新的契机。

KAN 一作回国任教
刘子鸣,武汉人,是武钢三中校友。
他从初中起就是竞赛生,高中投身物理竞赛,在 2015 年以全国第 8 名的成绩入选物理国家集训队,并被保送至北大物理学院。
本科期间,刘子鸣就关注到了物理学和机器学习的交叉领域,并有一作文章发表在 European Physical Journal C、Physical Review C 等刊物和 NeurIPS 2020 等学术会议上。
本科毕业后,刘子鸣赴 MIT 攻读物理博士学位,师从物理学家 Max Tegmark ——这位物理学教授最初是一名宇宙学家,后将研究重心转向了人工智能。
KAN 正是刘子鸣和 Max Tegmark 合作的成果。刘子鸣在 Max Tegmark 指导下,致力于提升神经网络的可解释性,KAN(Kolmogorov-Arnold Networks)的初始灵感,就是想从 Kolmogorov-Arnold 这个数学定理出发,打开神经网络 " 黑盒 "。
具体来说,Kolmogorov-Arnold 定理的核心是:任何定义在有界域上的多元连续函数,都能表示为有限个单变量连续函数的两层嵌套叠加形式。
这为 KAN 的诞生提供了一个思路:将复杂高维函数学习转化为一组单变量函数的学习。
也就是说,KAN 完全无需线性权重:MLP 在节点上使用固定激活函数,而 KAN 则可将学习的激活函数置于边(权重)上,每条边的线性权重被单变量函数替代。

论文发布后迅速引发了强烈的反响。Google Scholar 显示,到现在,KAN 的引用量已经达到 3000+。

刘子鸣本人将 KAN 解读为三个层面的 AI+Science:
Science for AI:原理来自于数学;
Science of AI:澄清了一些关于 Neural Scaling Law 的现象;
AI for Science:依靠 KAN,能够发现科学和工程问题中的符号公式。
而这也正是他的研究方向。

1. 好奇心驱动(觉得好玩)和影响力驱动(也追热点,但更追求长期影响力)。理想情况,希望研究既有科学上的启发,也能有影响力。比如 KAN 就是这样的一个例子,我们希望从科学的角度想象 AI 的更多可能性。
2. 理论和实验结合。理论是物理的严格程度,可能会被数学家喷不严谨哈哈。实验更多的是阐释现象,而不是无脑刷 SOTA。实验告诉我们什么样的理论可能有用的,而理论指导我们如何去设计实验。
3. 研究问题的层次通常介于纯理论和纯应用之间的中间抽象层。抽象的好处是对不同的问题有很强的通用性,但需要抽象本身是高质量的、对实践有用的。所以我会和应用组(具体的科学领域)进行合作,去理解如何进行更好的抽象来贴近应用。
目前,刘子鸣在斯坦福从事博士后研究,合作导师是 Andreas Tolias。
One More Thing
说起来,刘子鸣也并没有放下从高中起就投身的物理学。
他现在每天更新的博客,名为 "physics of AI",意为用研究物理学的方式来研究 AI,旨在回答:什么样的模型,在什么样的数据上,展现出什么样的现象。
" 关键在于‘大量小见解’,而非寄希望于‘少数大发现’。"
从 2025 年 12 月 31 日起,刘子鸣每天都在更新博客内容,用他自己的话说是:
每天只需投入 2 小时,我就能通过玩具模型(toy models)发现关于神经网络的惊人事实。许多见解最终可能微不足道或无关紧要,但其中一些将会产生足以改变领域现状的巨大影响。

[ 1 ] https://collegeai.tsinghua.edu.cn/rydw/qzpi/liuziming.htm
[ 2 ] https://zhuanlan.zhihu.com/p/1907988943389045778
[ 3 ] https://kindxiaoming.github.io/
— 欢迎 AI 产品从业者共建 —
「AI 产品知识库」是量子位智库基于长期产品库追踪和用户行为数据推出的飞书知识库,旨在成为 AI 行业从业者、投资者、研究者的核心信息枢纽与决策支持平台。
一键关注 点亮星标
科技前沿进展每日见
