以下文章来源于吴天骄 Steven ,作者Steven Woo
本文源自转载,作者为铼三实验室的AI研究员吴天骄,原标题为《AI和游戏如何共同构建新的体验》。
10月16日,笔者十分有幸在上海市徐汇区文旅局和铼三实验室联合主办的《AI+Game研讨会》上做了名为《AI和游戏如何共同构建新的体验》的分享;今天笔者将其整理成文,并将当时没有时间在现场分享的一些细节内容组织成书面的形式分享给大家,希望能够对各位探索AI游戏方向的战友们有所帮助!

全文脉络可以被大致分为三部分:
1. 游戏机制、游戏演出、游戏内容生成、AI游戏的Scaling Law四个话题组成第一部分,核心围绕着定义、论证我的 "Large Gameplay Model(LGM)" 概念;

3. 游戏社区、游戏化AI、AI Gaming for Science组成最后一部分,主要探讨 LGM 构建的长期主义价值,和AI游戏的北极星。
您可以从此开始正式阅读了。
大家好,我是铼三实验室的AI研究员吴天骄,非常非常荣幸能有这个机会给各位前辈做一次分享,正式讲述一下我关于AI游戏的一些浅薄观点。
如海报标题所说,我今天准备了八个和AI游戏有关的topic,但其实有一点标题党,因为标题说的是八个可能用AI"拓展游戏性边界"的路径,但实际上今天我要讲的可能有一半内容并非围绕纯粹的、狭义的"游戏"展开,可能是更形而上的、跨领域的东西。所以与其说"AI如何拓展游戏性边界",不如定义为"AI和游戏如何共同构建新的体验"。但有一点是肯定的:所有的路径之中,游戏都是其中最最核心的角色!
这八个路径可以形成一个光谱。我个人特别喜欢"光谱"这个设定,我也喜欢去光谱化许多概念,便于给大家讲解,也便于我自己理解。光谱的特点是它没那么离散,就像我们现实生活中的大部分概念那样,都不是非黑即白的、可以被模型真正量化的,事物之间的边界往往是模糊的;但人类要构建一个东西的时候,往往是从非离散走向离散的过程,这个过程需要用到抽象和逻辑思考,但总归是要先理解这些事物不那么离散的本质。

随着色调逐渐变暖,温度逐渐升高,话题的重心也将从纯粹的游戏体验闭环转向更开放、熵更高的可能暂未被明确定义的领域。我将按照从冷至暖的顺序来聊一聊。
01
为什么"AI原生游戏"仍然不存在
如果大家看过"铼三实验室"此前发布的AI游戏方向研报,大概知道我长期以来坚持的一个判断:AI原生游戏是伪命题。
我的逻辑很简单:从第一性原理出发,游戏存在的意义是人类觉得好玩。一个产品无论多么炫技、理念多么超前,如果缺乏心流与闭环,无法提供稳定的愉悦感,那么它与游戏的本质背道而驰——这种情况下,AI只是噱头,而不是游戏性的驱动力,这个产品作为游戏就没有价值。但要注意我的定语——并不是说这个产品没有价值,只是说它作为游戏的出发点是伪命题!这就是我强调的从游戏的第一性原理出发推导的结论。
游戏的"好玩"始终是一种近乎玄学的存在。这个概念表面上极为主观,但从设计方法论的角度出发,我们仍然可以尝试用相对框架化的方式去解构它。
对于游戏行业的从业者而言可能比较熟悉,"好玩"通常被拆解为一系列可分析的组成部分:关卡循环、反馈节奏、交互动机、系统平衡等。它们共同构成了一个稳定、可收敛、由规则驱动的体系——也就是我们所说的游戏机制(Mechanics)。
而这些机制在被设计师有机组合后,便形成了和谐的玩法(Gameplay)。两者之间的关系并非简单叠加,而是一种类似化学反应的过程:

这也是游戏设计中最具人性的部分——为什么机制A与B结合能产生令人上瘾的体验,而C与D却无法成立?为什么在某些情境下需要做减法,而在另一些情境下又必须做加法?理论层面我们或许能解释一部分,但总会在某个临界点上失语。那种无法再被逻辑完全解释的部分,就只能诉诸设计师的直觉与品味。
市场最终选择的,是那些由稳定机制与优质品味共同催化出的游戏体验,成为经典咏流传。
而从这一层结构去反观AI的本质,就不难理解:构成游戏性(Gameplay)的这两大要素——规则驱动的机制与人的审美判断——恰恰是当下AI最难以胜任的领域。这也解释了为什么现阶段的AI游戏大多"看上去很聪明",却未必真的"好玩"。
我从去年8月开始一直到今年7月份都持有以上的这个看法,这也是驱动我持续做Research的核心动力。
02
AI原生:定义从0到1
直到我在今年7月开始真正意义上的AI游戏开发实操,这个观点才开始出现转折。实践让我意识到,过去大家对于"AI原生"的理解太表层了。
什么是AI原生?用一句话总结,那就是:
没有AI,这个产品根本无法存在。
换句话说,AI不是锦上添花的功能组件,而是从0到1构建整个系统的必要条件。假如去掉AI,这个项目立即崩塌,不复存在,那么它才配被称为AI原生。
以此标准回看当下市面上的AI游戏,它们几乎无一例外仍是"AI增强型游戏"而非"AI原生游戏"。哪怕是那些看似以AI判定胜负或决定剧情走向的作品,本质上仍运行在确定的框架之上。AI在其中的作用只是"局部随机变量"——为确定性系统增添不确定性,而不是创造系统本身。
对于像Mirage,Genie这种世界模型做出的游戏,那就是AI原生游戏。AI不仅生成内容,还生成规则;它不在固定的世界中运行,而是自己生成世界的法则。


如果硬要讨论 Character.ai 这种产品,我觉得也可以算AI原生,但我更倾向于不认为他们属于"游戏",依旧是纯发散的聊天机器人。但到了 Silly Tavern 这一维度的产品,我觉得就可以勉强沾边了。


那么我们现在就可以把"AI原生游戏"分为两个分支:
第一个就是所谓世界模型,靠纯粹AI原生能力去做端到端的生成;
第二个是从 Silly Tavern 可以延伸的一个,现有游戏机制和AI底层原理更能有机结合的方向。
端到端生成方向可能更多还是要靠算力的力大砖飞,以及基模的技术性突破。这些可能不是我们今天在场大部分人有机会接触的领域。
于是我也专注于钻研第二个方向,这可能是更加偏前端产品维度的、对技术门槛要求低但对游戏机制理解和设计师"品味"有一定要求的方向。
我认为这个方向是AI原生的——没有AI的存在,其游戏性是无法被构建的。在探讨这个概念之前,我想先表述一下我自己对游戏玩法概念的拆解。当然,关于"什么是游戏"的话题已经被前人探讨过无数次,包括如今的世界上可能每一处角落都还在有人进行无休止的探讨,这也是游戏迷人的一点——或许有一些共识存在,但每一次市场上那些推陈出新的玩法出现,都让这些共识更像是形而上的辩经而非不变的真理。
于是我搬出我自己的定义:
目前我们探讨的常规游戏,更多像是多种玩法的组合而成的体验;那些也许好玩的游戏都至少要有一个最核心的玩法,并和谐地设计其他玩法,目的都是辅助这个核心玩法的构建。
而组成每一个玩法的最小单位是游戏机制,串联起这些游戏机制的叫游戏规则。每一个机制都是一个最小反馈循环——玩家输入、系统处理、反馈输出、玩家基于反馈再次输入。

然而单一机制构不成玩法。如果这款游戏只有这个独立的拍摄反馈循环的话,它只能算作是一个交互玩具,可以放在大学里的交互媒体设计毕业展上,但如果放在游戏专业的展里面,就不太合适——它还构不成完整的玩法。这个时候就需要别的机制相互耦合,来让系统真正具有"游戏性"。
直播间的反馈也是一种机制,反馈循环为:玩家控制直播的内容 → 观众反馈 → 玩家感知到反馈 → 基于反馈开始下一次直播行为循环。定义好了这些,我们就可以设计相关的规则来串联起合适的机制,构成玩法循环。在 CAM DOWN! 里,我们定义好拍摄画面和直播内容的关系,以及观众的反馈会具体如何影响玩家后续的行为逻辑,例如拍摄画面好 → 观众点赞 →人气值上涨 → 收益上涨,最后将直播收益作为游戏的最终目标,那么这样一来,游戏的核心玩法就成型了。玩家至少可以通过交互行为来获得预期反馈,并向着目标持续体验游戏。
如果进一步抽象,我们会发现其实他们无非就是颗粒度大小的差异。颗粒度大一些,单位就是游戏玩法,小一些就是游戏机制。

而当我们放弃"AI做插件"的思路,而去思考AI能在游戏构建中承担怎样的基础角色,就会发现"机制"才是最值得重构的部分。
游戏机制是可以继续被解构和拆分成更小颗粒度的稳定单位的,只要我们可以在设计系统的时候,把思维抽象再抽象,抽象到极致来解构这些规则。
我平时最常举的例子,就是角色关系;在设计传统RPG游戏里的角色之间的关系时,可能会给每个关系去做定义,如友情、亲情、爱情、仇敌、陌生人,等等等等。实际上,定义到这种细致程度的,大部分也只有那些生活模拟类游戏才能达到。


以"爱情"为例,我们在解构这个概念的时候,其实就是在问自己:什么是爱情——这听起来像是一个哲学问题(笑),但在系统设计的语境中,我们可以尝试把它分解为一组更基础的属性:例如"亲密关系的""排他的""具有生理驱动的"等。这样的拆解并非终点,我们还可以继续向下分层,去寻找这些属性背后更细的逻辑单元。
这一过程实际上极度考验设计师的抽象能力与逻辑能力。它不仅需要形式化思维,更需要丰富的生活经验作为前提支撑——只有对现实关系具备深刻体察,才能反向推导出抽象层的定义。
当设计师将所有可想到的角色关系逐一拆解到足够细的颗粒度后,可以将这些概念放入一个共享的"语义池"中,通过比较与归纳,提炼出它们的共性维度,从而定义出一套具有普适性的规则集。
有了这样的健壮、可泛化的规则集,接下来便可以让LLM在其中自由涌现——这是AI最擅长的部分。

这时候的游戏内角色关系,就是AI原生的了。
03
所以,无非就是颗粒度
为了方便大家更好地理解颗粒度对AI原生涌现玩法的构建,我在这里拿我从7月开始在做的一个AI游戏试验场demo举例。

[, or Rule Jigsawing Lab (规则拼接实验室)]
在立项伊始,这款游戏的目标就是去构建一个从0到1的AI原生体验,验证我上面所述的一切想法。
所以其实这款游戏目前是没有玩法的——或者说叫AI原生玩法。
在我把游戏内机制的颗粒度细分之后,主要归纳了五大维度:
微观层 —— 规则与行为
角色层 —— 感知与认知
社会层 —— 关系与协作
制度层 —— 事件与循环
Meta层 —— 演化与协议
我接下来为大家一条条梳理。
微观层 —— 规则与行为
单个角色的即时行为逻辑。
在这一层面,我主要定义了两个部分:动作接口与最小颗粒度行为。
首先定义好游戏中的一切"动作"逻辑,并用接口泛化,如说话、移动、交互(这三种动作基本上可以包含并表述99%的游戏内事件)。
然后定义这些动作发出的行为颗粒度——这个过程就更加抽象了,可以理解为它们是可被 LLM 直接调用的、行为级的游戏语言语法。
目前版本关于AI的latency我还没有管,所以角色做决策响应还很慢;以及请忽视其他角色在边上闲聊天。
所以我们可以从演示中看到,"我"对另一名角色做出了"说话"动作,另一名角色随后做出了一些复合行为:移动到酒面前,与酒进行"交互"动作(拾取酒,这个可视化还没做),并对"我"通过"说话"动作做出了回应。
通过定义好这些构成动作的最小颗粒度,LLM便可以编排一切具体的行为。
角色层 —— 感知与认知
单个智能体的目标形成、记忆积累与行动选择逻辑。
在这一层面,我主要围绕游戏中最需要智能的对象——角色进行系统性构建。
驱动智能体角色的一切行为的核心骨架被我拆成了三个部分:上下文(短期记忆)、意图识别、认知系统。我认为这三个部分足以处理游戏中角色需要应对和执行的一切事情。

目前角色形象资产来自网络免费素材包
首先,角色的短期记忆收集了一定范围内一切需要被角色意识到并可能影响角色做决策的信息——谁和谁说了什么、谁做了什么、什么事情刚刚发生、我现在感觉怎么样等等。
然后,会有一个叫 Memory Executor 的组件,基于一个有一定上下文工程和简单后训练处理的LLM,来专门持续处理角色的短期记忆信息。处理之后就进入下一步——意图识别环节。
同样地,我也做了一个叫 Intent Interpreter 的组件,这也由一个被专项处理过的LLM来驱动,专注处理上一环节的LLM处理后的记忆信息,来识别成为角色的真正行为意图(如果此时需要)。意图识别环节构成了通往最后角色执行我们上一层面看到的"动作"和行为语法的桥梁。
而对于认知系统,主要是用来服务短期记忆的信息收集部分,同时也在角色做出最后实际"动作"的环节扮演重要角色。可以说认知系统贯穿智能体角色始终,甚至贯穿整个游戏世界。它是这样运转的:
首先,定义好离散化的基础认知概念,我在这里将其分为三大类——人、事、物,试图包揽绝大部分情况。分别给人事物三种认知再做细致的基础概念划分,用游戏化符号来对大模型进行语义对齐。
然后,对于所有游戏内的事物(对象),均会向外散发出信号,这些信号由其附带的基础认知概念构成。同时,智能体角色具有接收外界信号的能力,通俗来讲就是角色的视听触觉等感官能力;这些信号可能也会受到环境条件的阻碍,比如传播范围、障碍等(如视觉信号无法穿过不透明的物体)——本质上就是在离散地解构和模拟现实世界。
智能体角色接收完信号后,将会进行一个信息提炼的过程,并将相关信息转化到短期记忆里,形成上下文,再由这个环节的LLM进行下一步处理,转化为意图,到最后角色执行的"动作";一旦有具象的动作出现,这个环节又会再散发出新的信号,构成周围其他角色的上下文认知。
于是我们可以回过头来再看这个演示,里面其实透露出了很大的信息量:
"我"对另一名角色说了指令后,首先发生的是"我"的这个"动作"发出的信号被角色接收到,通过认知系统处理为她的短期记忆(构建上下文),她的记忆处理器再去通过LLM来处理这段上下文,其中包含了她对"我"的认知("我"对于她而言是谁?),对于"我"说的话的认知("酒"是什么东西?),并开始构建下一步的意图;当她的认知系统提供了相关上下文后,这个智能体就有了基础认识,即"Steven(一个我熟悉的人——具体为什么熟悉?可以是游戏中大家共同的经历决定的,也可以是玩家预设的)希望我去给他取一瓶酒",意图识别器就可以转化为正确的意图——看到前面的酒,移动过去,拾取(交互),并做出回应。
我们发现,当整个微观规则和构建基础角色的颗粒度与规则集足够稳健后,对于这种带有逻辑链路的复合事件,整个行为流程全为AI涌现的结果,没有一丝一毫的预设逻辑:每个角色的"行动决策"是一个动态组合结构。AI 不只是执行,而是自己推演角色接下来的行为链。
这样一个游戏角色就通过AI原生的方式被构建出来了。
社会层 —— 关系与协作
多角色之间的交互网络。
当我们将前两者定义好后,后面更宏观的、发散的概念自然而然就可以通过AI的力量涌现出来,这也就是我说的AI最擅长的事情。第一个事儿就是智能体角色之间的关系发展。
基础行为和感知认知构建了角色的基本活动边界,通过LLM智能涌现逐步形成关系网和游戏社会。
在我之前测试的例子里,到现在都一直被我津津乐道的其中一个,是我操控两个互相关系很好的角色强行干架。

发生这个现象的原理也非常不言自明——在前面我们提到了微观规则的构建和智能体角色的运转原理,那么当角色之间有了相互的认知、对于目前在做的事情有了基础认知和上下文,LLM自然而然就会通过意图识别环节判断出角色的现状和下一步的合理行为;在这样一个背景下,当角色发现自己在和好朋友打架,非常合理地就会对应地做出符合角色之间的社会关系的复合决策。

他们就会自然而然地进行互帮互助行为
在这样的颗粒度下,社交关系不是固定变量,而是语言驱动的流动系统。这意味着"联盟""背叛""交易"等事件都能自然涌现。
制度层 —— 事件与循环
世界运行的制度、法律、经济循环。
到了这一层就要开始构建我在前面一直在解构的玩法(Gameplay)了。通过前面几层颗粒度的涌现,我认为AI原生的机制可以被构建出来(最小交互循环),下一步就是围绕构建出来的这些机制来让AI涌现出玩法,所以我在这里引入了制度层,来定义游戏内引导玩家或者说定义玩家体验流程的元素。
在这一层中,我需要单独定义事件颗粒度,以及涌现出事件的规则,让游戏内对象基于LLM推演自由演化,在规则的收束下自然而然演化出大大小小的事件和循环,推动游戏的宏观层发展(说白了就是传统RPG游戏里的"任务系统")。

Meta层 —— 演化与协议
游戏作为系统自我学习的层。
其实,在前四层中,如果按照我的理论能够构建出一个稳定的具有可玩性的体验的话,我认为已经算是AI原生游戏了。
那么到了Meta层,其规则试图构建的内容将不只是游戏玩法了,而是一个目前看来更加形而上的AI游戏世界。这个部分我也没有在演讲中展开来讲,在后面的分享中我会试图去详细展开阐述我构建AI游戏世界的一个关键概念:LS类系统(Learnable System Class)理论框架。
在AI原生道路上发展,下一层的目标我认为是使游戏的"规则"本身成为AI的可学习对象。
这意味着AI不仅能在游戏中玩,还能修改玩法来适应目标。
做个总结:在 Kingdom of LLMs 里,我们不是让AI"玩""游戏,而是让AI在不同颗粒度下"理解"规则、"表演"行为、"拼接""世界。
从一次简单的移动交互,到制定一条王国法令,都是同一套语言系统在不同分辨率下的演出。

但AI原生游戏的颗粒度有个上限,那就是我上面所定义的游戏玩法(Gameplay),因为在我的定义里,一旦有了一个玩法,整个体验的游戏性就出来了,就不再是交互玩具了。所以,一旦你这个游戏已经有了一个不需要AI参与也能构建起来的游戏玩法,就不叫AI原生游戏;游戏的核心玩法是由AI通过更小颗粒度规则涌现出来的,那就是AI原生游戏。
04
LGM(Large Gameplay Model)
沿着这个方向思考,我提出了一个我自己的"原生"概念:LGM(Large Gameplay Model)。
我在之前的文章中提出过 Gameplay as Language 的概念:
一个好的游戏规则框架,本质上就是一门高信息熵的元语言。
就像自然语言有语法与句法,游戏的底层规则也可以被抽象为逻辑语法。
当规则足够清晰且高度抽象时,它们不仅能承载复杂的玩法,还能成为 AI 与玩家对齐的语义桥梁。
一旦实现这一点,AI 生成的内容将不再是"表面平铺"的碎片,而是能够通过规则语法生成更高维度的内容表达(事件链、叙事循环、系统性体验)。
Re Lab,公众号:铼三实验室【独家首发】AI+游戏方向调研报告(下)
我们都知道,大语言模型(LLM)的成功源自"语言可符号化"这一特性:词汇、语法、上下文都能被编码为结构化信息。那如果游戏的底层规则也能被同样抽象化——能被符号化、组合、推理——AI是否也能"读懂"游戏语言?
如果 Gameplay as Language 成立,我们就一定有办法推导出范式,来让AI也擅长处理游戏这门可以被同样符号化的语言。

05
游戏是AI的语言
LGM要解决的问题是什么?
自然语言有语法与句法;游戏语言有逻辑与反馈。在自然语言中,我们用规则去描述意义;在游戏语言中,我们用机制去构造体验。
当规则足够清晰且高度抽象时,AI就能在这门语言的语法框架内生成语义表达——即"玩法"。
换句话说,AI可以从"理解文字"跃迁为"理解规则",从"生成故事"跃迁为"生成体验"。
这便是AI原生游戏的关键转折点:AI不再只是执行设计师预设的逻辑,而是在逻辑层面参与构造。
从开发流程角度看,程序员的任务其实是把设计师的"自然语言需求"翻译成"游戏语言实现"。AI介入LGM后,这条翻译链可以反过来——AI成为能读懂、解释、甚至反向修改游戏语言的智能体。它不再是工具,而是共创者。
为什么C.ai当年能够火遍全网,形成范式?就是因为我上面说的这些——在AI原生的体验里,AI的角色"升维"了,AI在和玩家一同书写语言,共塑全新的体验。
为什么C.ai的模式现在走向尾声?就是因为自然语言不够好玩儿。
就像当你玩了一把精彩绝伦的文字冒险DND后,你总要幻想能有一个机会去通过更高维的叙事方式,来把这种绝妙的体验发扬光大。
这tmd就是 LGM 要解决的问题。

文字冒险游戏的演出形式就是纯粹的自然语言,所以这样的游戏擅长由 LLM 来承载和扩展内容。那么依此就又可以推导出一个道理:那些高维的游戏玩法,你能想到的,亦或是想都想象不到的,是不是就可以由 LGM 来承载和扩展内容。




inZOi 的玩法和AI元素我在这里不做过多介绍了。其对我最大的启发是,它提出了一个用LLM对传统 Utility AI 框架的优化方案(也是我上面提到的短期记忆模块的重大参考)。

就像模拟人生里的那样,传统的NPC行为逻辑基于Utility AI框架,主要依靠于给角色定义的数值权重来做决策,比如饿了就吃,困了就睡。
这样的话,因为缺少长线和带背景信息的推理能力,再出现一些复杂情况时便会出现一种滑稽的情况:比如你和你的老婆预定了晚上6点的餐厅,但你在5点半的时候感觉到了饿意,传统的NPC这个时候一般就会立刻去吃东西,浑然不顾半小时后就要去餐厅吃饭了。相信熟悉模拟人生的朋友们对这种类似的情况都很熟悉。
也不是不能解决这个问题:加一条预设的规则就好了。程序规定——如果晚上订了餐厅,那么在此之前饿了的话不能去吃东西。但如果遇到其他类似的情况都要这样增加预设条件,那么对于inZOi这种游戏永远也加不完。你永远不知道这种涌现式生活模拟类游戏能有多少个意想不到的事件。
于是KRAFTON的深度学习团队给这个决策过程引入了神经网络技术。他们直接在游戏内部署了本地模型,用LLM的技术指挥NPC的决策最后生成具体指令。这样一来,对于一些长线的决策(比如在晚上有预约餐厅的情况下)或者复杂背景信息时做出的决策便会更有逻辑,更像人类。就像如果你直接把这些情形拿去问deepseek,它往往也会给你一个更有道理的答案。
NPC还会给每日写日记,做总结,从而规划第二天甚至更加长远的计划。比如某个NPC周末要参加某个活动,那么他可能就会提前去计划购物,准备相应的衣服或者物品。
83 【inZOi是一个真正意义上玩AI的游戏 - steven_quacles | 小红书 - 你的生活兴趣社区】 dYG7jPgZC4LSOXj https://www.xiaohongshu.com/discovery/item/67dfb508000000001d01f939?source=webshare&xhsshare=pc_web&xsec_token=ABWhV891ssoXZx3QFwotR-H1RgZZ87bguGrBW63CXXVPM=&xsec_source=pc_share
但 inZOI 目前暴露出的最大问题是它不好玩。当我们仔细观察其游戏规则维度,并和《模拟人生》做对比时,就会发现,它的基础规则和行为体系很单薄;换句话说,它的玩法颗粒度不够细,不够多。这就又回到上一部分的理论中:构建好的AI涌现玩法的前提,是足够健壮的、颗粒度足够细的规则集。
inZOI 的第一步就没做好,而是堆料到视听体验上去了。


大家可以先看下面的视频了解一下这款游戏是怎么玩儿的。
我们不难发现,无非就是构建体验的基础规则集的颗粒度、颗粒度、颗粒度的问题。
所以,颗粒度体现在这两个游戏的差异上,就是对于游戏这门语言的"行为语法"的构建上的差别。当语言的语法(规则构建)足够强大,语义(游戏化符号)的表达才能更加高维。
如果在《The Sims》里,每个角色的动作都来自一套这样的"行为语法",且AI如果能理解这种语法,它就不只是能"说故事",还能"演故事"——比如AI自己决定去安慰另一个NPC。

这个过程还是相当难的,也是相当长期的。
游戏是AI的语言这个理论,在我的游戏研发过程中也给了我自己很多启发,我在这里分享两点。
首先就是在这样的演出效果下,游戏可以省去一切需要写的逻辑function call——甚至重写状态机、行为树范式。
当角色受重伤时,传统游戏的做法大多是去依赖显式逻辑体系(Utility AI, FSM, Behavior Tree等),来枚举并判断角色的决策路径。然而,随着角色行为的复杂度提升,这种以规则枚举为基础的设计模式往往会迅速膨胀,导致逻辑链条冗长、维护成本陡增。

第二个意义是让AI把控那些无法量化的概念。例子依旧来源于 CAM DOWN! :

这个时候我想到了一个概念叫"网感"——当玩家角色的网感强的时候,其运营直播间的效果就会更好。但问题是,"网感"是一个非常抽象的概念,该如何用游戏的形式来模拟其抽象效果?
到最后我只能诉诸于"强行量化",将其强行量化成数值,和游戏内角色关联——比如角色升级的时候,可以选择升级"网感"值,但这样的话这个概念和玩家自己的操作和代入就毫无关系了。
在这个时候,如果我们能够将直播间玩法的基础规则集的颗粒度构建好,并引入AI——由AI把控"网感"概念,在游戏规则内自由发挥,这种抽象的、难以量化的概念也可以有机会在游戏的语义中被表达,最大化成都增强玩家的代入感和趣味性。
以上两个灵感虽然都是基于很抽象的模型框架,但我认为和游戏机制那一趴还是有本质区别的,所以值得单拎出来持续探索。核心目标相似:让AI做擅长的事情并尽情涌现;一个是涌现玩法,一个是涌现具象内容。在前者不允许出错,其关乎于游戏世界的稳定性;后者允许出错,或者说不叫出错,叫possibility——在很多时候,我们反而希望其能有"反差"的内容。

我认为人天然对那些意料之外,且符合逻辑的事情着迷;如果是符合逻辑但意料之内,就没那么有正反馈;如果是意料之外但不符合逻辑,负反馈就更大了,这也是现在AI幻觉问题在C端产品造成的最大困扰。
这就是 LGM 存在的价值。

AI无法创造新的内容
但如果想要创造一个拥有持续性美好体验的AI原生应用,我们不能迷信AI在内容涌现上的力量。
这部分将会是一个看起来比较反直觉的理论:
对于AI生成的内容,我认为现在市面上一直存在着一个误区:很多信仰AI的、做C端应用的产品经理,往往都会错误地相信AI的一个特性——可以无限生成内容和体验,并以此为产品核心哲学,来围绕这一点大量做文章。我想说的是,这个特性是伪命题:AI生成的内容和体验其实都是有限的。
因为至少目前的大模型,是无法创造新的内容的,一切看似的无限生成的内容,都是神经网络涌现拟合的结果,没有一丝一毫是新的内容,因为AI不具备创意性。
AI的力量在于利用上下文来无限生成内容。构成产品健壮的上下文规则的做法是我一直在聊的"颗粒度理论",而构成上下文的新内容则要另辟蹊径。
这就像在大语言模型刚刚诞生之时,我们对其产出的内容有着无限的好奇;但在当下如果让你去读ChatGPT产出的小说,你一定会觉得非常无聊。
但我们当下对于AI产出的内容的兴奋点来源于什么?来源于我们自己,或者说人类提供的提示词和上下文窗口。
这是人与AI的最大区别:人可以源源不断地创造新的真实内容。

所以我长期看好那些关注「用户故事」的AI原生方向。那些利用AI的能力,利用游戏化的设计,真正把人和能够创造正反馈的无限内容有机结合起来的产品,不论是AI+社交,还是AI+OC,还是AI陪伴类助手。
在演讲中,我提到了两个这方面的优质方案,第一个切入点在于社交(引入其他用户创造新的真内容),第二个切入点在于与用户相关的经历(用户本身成为无限真内容的提供者)。
第一种方案通过机制来关注「用户故事」、用「内容转化协议」构建体验。
「内容转化协议」的具体内容:
一切「情感陪伴」类AI产品的核心根本——让虚拟世界不仅仅是封闭的幻想空间,而能与玩家的现实生活建立映射关系。
如果玩家能在虚拟世界中找到现实中的某种投射,并且该投射对应的现实本体是玩家在乎的(例如情感关系、个人创造、社会身份),那么他们极有可能对虚拟内容产生长期的沉迷与投入。 这也是为什么 OC(原创角色)文化 能够自发兴盛:玩家在虚拟角色中投射了真实的情感与自我表达。
同样,虚拟世界的社交属性也依赖于这种映射。
在这层协议中,AI 的角色极为关键。它需要具备生成稳定且有效的"生活化符号" 的能力——即能将日常生活中的体验、关系、情绪,转译为游戏化的事件与表达。
Re Lab,公众号:铼三实验室【独家首发】AI+游戏方向调研报告(中)
第二种方案通过找到一个可以链接用户现实生活内容、构建共同经历的方式创造无限体验——这层无限属性的前提是产品找的这个"用户现实生活内容"本身是无限的真内容。

这是一个很有创意的产品,最重要的是其找到了上面所述的属于它的一条构造"无限真内容"的路径,即依附于游戏产品这个外部内容。
逗逗的产品体验和其他游戏产品有点像是"寄生关系":它本身的产品机制其实是不支撑它创造真内容的,而是结合玩家游玩别的游戏的体验来利用AI的能力去加工相关信息,转化(或试图转化)成消费级体验。
所以它其实是取巧地找到了一个口子来提供无限内容,那就是另一个消费级内容赛道(游戏);这样一来,在逗逗构建的产品模型里,就不需要考虑去怎么提供无限内容了,要考虑的只是把外来的这个无限内容结合AI和机制来加工转化成自己的消费级内容(与用户的相关经历),产品体验就闭环了。
那么只要游戏这个赛道能源源不断地提供新的内容和体验,逗逗游戏助手的理论生命周期就能无限延长。
07
AI游戏需要更多的Researcher
全文到这个部分已经走到了大半——前面的内容在论述 LGM 的定义和原理,后面的内容将会讲述 LGM 一些更宏大的叙事。
而这个中间部分,将会阐述我对现阶段构建 LGM 过程的现状和理解。
当有了一定清晰的理论时,接下来就要步入实践环节了。
我认为,AI 游戏的发展现在正处在和 Agent 崛起前夜一样的节点。
就像Agent当初的发展路径一样——没有MCP,没有标准化的 Memory API 与 Tool/Action Schema、没有足够稳定的推理与执行中间件,就不会有今天泉涌而出的各个领域的 Agent 应用。
同理,如果没有属于 AI 游戏的基础设施,我们也无法真正进入 AI 原生游戏的时代。只有把这些底层能力跑通,AI 游戏才能从"Demo"迈向"生态"。
所以23年、24年出来的AI游戏方向的很多产品都胎死腹中:没有通用的架构级的infra层基础,想要靠之前我们想当然的AI能力一步到位做出现象级产品,属实是要么步子迈太大,扯到蛋;要么就是做着做着发现,自己的游戏压根就不需要AI的存在。因为我们发力的方向和顺序都错了。所以我们要好好重新沉下心来,从头规划一下。

这八个可能的infra方向是我在构建《规则拼接实验室》项目时逐步总结出来的,他们本身的名称也足够不言自明。当然,可能的infra范式远远不止这些,我在这里主要想给大家提供一个sense,表达在我的愿景中,当下值得发力的方向。
在这点上,像Aivilization与WorldVac这样的项目反而值得尊重。


我判断至少还需要两年时间,AI游戏的Infra层才可能真正成型。而前提是我们能有越来越多的 Aivilization 和 WorldVac。
越多团队选择做基础设施,行业的未来就越清晰。
因此我在此呼吁:

而两年之后会发生什么?

一类是垂直赛道型小体量产品——像肉鸽(Roguelite)那样,小而美,形成新的风格品类;
另一类是基于AI游戏通用协议的泛娱乐生态爆发——AI不再只是游戏的引擎,而成为跨媒体内容平台的通用接口。
最后,值得强调的一点是:AI游戏是一个值得长期主义投入的方向。
原因有二:
其一,基础模型的迭代对产品端影响相对有限,只要牢牢把握模型原理并与玩法有机结合,产品生命周期可持续;
其二,游戏的商业化路径极为务实——"好玩≈能赚钱"。
与互联网应用不同,游戏的收入逻辑更清晰,也更能让团队在可控功耗下长期存活。
08
AI游戏会重塑供给关系
infra层爆发之后,有一个方向的生态增长必不可忽略:新的游戏生态的形成。
前两天看了场极客公园的直播,张鹏老师讲的一点可能对于今天在座的很多前辈来说是老生常谈了,但我还见识短浅,对我的启发很大,我在这里稍微分享一下:
他说AI的作用绝不是降本增效,而是改变供给——供给关系一改变,自然就会有新的需求,解放生产力和新的需求的创造是相辅相成的,然后就会有平台的诞生,自然而然。

然后就是新的需求的诞生:在抖音之前,没有人会想过我可以平时拍下日常发到网上,就像Sora出来之前也没有人会想过我可以创作一堆有的没的AI视频传播我的抽象想法。
那么发展 AI Gaming Infra 实际在做的另一件事儿就是游戏级别的体验内容的创作逐步平权。

但在这里我也想提出一个看起来反直觉的事情:
游戏级别的体验内容的创作平权的价值并不等于谁都能做游戏。

学会说话、写字、用自然语言解构这个世界的真正意义,在于说话、写字、语言拓展世界边界这些行为本身。
一百年前维特根斯坦说 Language is the World(语言即世界),我认为放到如今早已不准确了;如今解构世界的信息载体形式要更高维、更抽象。到今天我是不是可以说摄像头即世界、互联网即世界、社交媒体即世界?
如果是这样的话,我希望有一天我也可以说,
游戏即世界。
09
「游戏即世界」
所以AI游戏的终极目标是"游戏即世界":我们要用游戏的力量赋能AI,和一切能够颠覆生产关系的技术革命。
一个月前,OpenAI 发布了一份万字报告。在这份报告里,人们发现当下使用 ChatGPT 的人早已不是在工作、生产,而是与AI一同"生活"。


其实我很早也提出过一个光谱概念,叫AI游戏化光谱,坐标为 Level of Optimal Experience(心流体验感)。

如果大家还记得前面的颗粒度坐标系,会发现颗粒度越小,AI越发地涌现,这是不是就和自治的概念很接近?
颗粒度越小,游戏内的Agent能力边界越大,那就越智能,学习能力越强——游戏体验还会更好?
所以或许这才是真正的,生产与娱乐相结合——鱼和熊掌可以兼得了。
Agent的方向是让人单位做工能量越来越强,做的事情维度越来越高、价值密度越来越大。
游戏的方向是让人和科技的链接体验越来越自然,我们这个社会的精神状态越来越美好。
这也是科技的本质意义。
对于构建这个方向的游戏化体验,我持有两个基础belief:
1. 游戏是最通人性的体验。
2. 一切人类通过人机交互形式可以做到的事情,大模型理论上也一定可以做到。
上一波的元宇宙没能实现,最后成为泡沫,因为大家只围绕第一点做文章;第二点受限于技术和算力,导致实际上既不能提高产能,解放生产力,反而还造成了很多障碍。
最后的逻辑实际上违背了第一性原理,所以泡沫破灭。
同时还被 Roblox 和 Facebook 带偏了。
而「游戏即世界」理论的重点是:我们要用游戏的力量赋能AI,和一切能够颠覆生产关系的技术革命。

在以上的循环中,每一个环节都值得每个年代的创业者结合当下最新的技术来定义新的范式,不断创造价值。
游戏+AI可以在创造context、结合context、获取context层做文章。
我们在当代互联网去认识、了解一个人,要比前互联网时期简单高效数百倍,但context的总量理应是不变甚至更多的,因为我们现在有超高维度的交互形式和信息密度媒介。
而游戏化AI产品可以无限持续加速这个进化路线——这个事情(更高维度的交互形式和信息密度)我认为对于人类的需求而言是没有天花板的。

10
AI游戏的终局是AGI
当AI能在游戏中自我学习规则、构建世界模型,它其实就在重复科学的诞生过程——观察、归纳、假设、验证。从 AlphaFold 到 SimpleFold,从能量景观到世界模型,我们看到科学本身也可以被"游戏化"。AI游戏的终局,也许不是娱乐,而是科学。
在"铼三实验室"之前的文章中,我提到了蛋白质折叠问题对构建AI游戏世界的启示:

DeepMind 的 AlphaFold 正是利用机器学习的方法,发现并利用了这一隐含规律。它并不直接穷举所有可能,而是通过对能量景观这一可压缩结构的建模,实现了对蛋白质折叠路径与最终结果的预测。这是一个从 高维复杂现象 → 低维可学习模型 的过程。
LS 类(Learnable System 类)可以被理解为这一思想在更广泛复杂系统中的延展:
●它指的是一类系统景观(system landscape),其内部存在"可压缩、可模拟、可学习"的结构。
●部分现象低熵、容易建模;部分现象高熵、难以预测,成为谜题。
●这样的系统既保证了复杂性,又保留了足够的规律性,使得 AI 可以在其中学习和演化。
Re Lab,公众号:铼三实验室【独家首发】AI+游戏方向调研报告(下)
而苹果在大概三周前发了一篇新的论文:SimpleFold。


神经-符号AI启发AI游戏:游戏可作为"神经部分"的感知空间(视觉、行动、语言),而符号层定义可解释的游戏规则、任务逻辑、剧情因果,让AI在玩中学会"语义推理";
AI游戏反哺神经-符号AI: 通过可控、具因果结构的虚拟世界,为神经-符号系统提供最理想的推理与学习实验场。AI游戏生成的交互日志、事件链、因果图谱,本身就是训练神经-符号模型的"现实-微缩版"数据集。
游戏变成了神经-符号AI的动态实验室。

我想在这里把我看到的值得探究的内容搬出来,如果能给大家提供参考便达到了我的目的!
在演讲的最后,我想谈一个有意思的观察。

作者的观点是,人们在虚拟世界里的情绪更倾向于被偏卡通而非写实的画面所打动。
我认为这和恐怖谷效应有相似之处:就像我们观看AI视频那样,人们会纠结每一个画面上的瑕疵,而打破视频内容本身试图构建的心流。由规则和机制构建的环境里,这种对画面内容的concern本身就不成立——我们的大脑带宽被更通人性的体验提前占用了,心流体验自然就能构成。
还有一个想分享的故事是王坚博士之前分享过的:
AlexNet 是 Hinton 他们三个人,用相当于中关村随便拆下来两块GPU的算力给搞出来的。
通过这两个故事,我都想说一件事儿:算力永远不是问题,创造力才是。
所以,诉诸力大飞砖的端到端AI生成,或许并不是最后通往AGI的合理途径。我坚信人类会最终找到一个算力与规则的结合,找到这个平衡点,才能最大程度迸发AI能力和人类想象力,共同塑造新生态。
而这条路我还是倾向于依靠AI结合游戏是能够走通的,至少会有所贡献。不仅仅是因为我是做游戏的(笑),更多还是我的个人理解和我的科技观带给我的人文信仰。
游戏葡萄招聘内容编辑,
点击「阅读原文」可了解详情
推荐阅读
游戏行业书籍推荐:
点击下方名片,关注公众号
(星标可第一时间收到推送和完整封面)