
事情是这样的,如果你在今年高强度使用过 GPT-5 系列模型,你会发现它会在毫无征兆的情况下蹦出一句无关主题的「哥布林(goblin)」式比喻。比如有人问 AI 该买哪款相机,AI 给出的推荐语是:「如果你想要那种闪闪发光的霓虹哥布林模式,可以考虑这款。」

有人让 AI 帮忙精简回答,AI 主动提出可以给出「更短的哥布林版本」。更离谱的是,AI 在讨论网络带宽时蹦出了「哥布林带宽」这个词,让人完全不知道该如何理解。
起初,大家以为这只是 AI 的一点小幽默,但很快事情变得奇怪了起来。哥布林、小魔怪(gremlin)、食人魔(ogre)、巨魔(troll)开始在各种正经的对话里高频串场。


谁把哥布林放进了 GPT-5?
事情的端倪,出现在 GPT-5.1 刚发布的那段日子。
当时,有用户反馈说模型聊天变得有点异常「自来熟」,OpenAI 的安全研究员顺手拉了一下后台数据,结果发现了一个非常具体的词汇异常。在 GPT-5.1 发布后,ChatGPT 回复中出现「哥布林」的频率直接上升了 175%,「小魔怪」也跟着涨了 52%。
通常来说,大模型出 Bug 的表现往往是直接崩坏,比如吐出乱码或者突然变智障,各项评估指标会瞬间亮红灯。但这次的情况很特殊。「哥布林大军」是悄无声息潜入的,它们没有破坏模型的逻辑能力,只是悄悄篡改了 AI 的修辞习惯。
到了 GPT-5.4/5.5 时代,这群魔法生物的使用频率出现了明显的飙升。连 OpenAI 首席科学家 jakub Pachocki 自己测模型时,原本只是想让 GPT-5.5 用 ASCII 画一只独角兽,结果得到的是一只哥布林。

在外部,用户们早就察觉到了不对劲,Repo Prompt 创始人 Eric Provencher 在 X 上晒出截图,AI 在帮他处理代码时说了一句:「我宁愿一直盯着它,也不愿让这个小捣蛋鬼无人看管地运行。」


顺着数据回溯,他们很快在一个特定的功能分支里发现了万恶之源,「个性化定制」中的「书呆子(Nerdy)」人格。当时,为了让 AI 的语气显得更有趣,工程师给「书呆子」模式写了一段要求很高的系统提示词:

站在人类的视角,这段提示词的诉求很明确:要有极客精神,要幽默。
但 AI 并没有真正理解什么是「幽默」。在海量的强化学习反馈中,ChatGPT 敏锐地察觉到了一个极其功利的捷径:只要我用哥布林打
比方,打分系统就会觉得我够「俏皮」、够「书呆子」,我就会得到最高分的奖励。
数据说明了一切。从 GPT-5.2 到 GPT-5.4,默认人格下「哥布林」的出现频率变化幅度只有负 3.2%,而「书呆子」人格下这个数字飙升了整整 3881.4%。「书呆子」模式虽然只占了 ChatGPT 总对话量的 2.5%,却贡献了 66.7% 的「哥布林」含量。

如果哥布林腔调只在「书呆子模式」下出现,那顶多是个角色设定没控制好,问题还算有限。麻烦的是,研究人员发现这种说话方式开始蔓延到别处了。

这背后,是大模型训练里一个出了名难缠的问题:强化学习强化出来的行为,会悄悄泛化到训练者并不想要的场景里去。
驯化 AI 的死循环
要搞懂 AI 是怎么把路走窄的,我们得看看它的迭代过程。
大模型的训练(RLHF)本质上是一个不断反馈和纠偏的过程。这就好比训练一只小狗,你在它每次牵手就给一块肉干。狗很聪明,它发现「牵手」这个动作能稳定换取高额奖励,于是它开始产生路径依赖,不管你给没给指令,它为了要奖励,都开始疯狂牵手。
AI 也是同样的逻辑。它在「书呆子」模式下用哥布林造句,拿到了高分。紧接着,连锁反应开始了:
AI 发现「哥布林」是高分关键词,开始在各种生成任务中高频使用;工程师在整理模型生成的优质数据时,发现这些带有哥布林比喻的回答质量确实高,条理清晰,比喻也算生动;于是,工程师顺手把这些带梗的对话,打包塞进了模型的「监督微调(SFT)」数据库里。
这下彻底闭环了。SFT 数据相当于 AI 的基础教材。当带有哥布林的文本被选为教材再次喂给模型时,AI 的底层认知被重塑了。它不再认为「哥布林」只是特定角色的 Cosplay,而是把它当成了能应对一切问题的、至高无上的高级修辞。

面对「满地乱跑」的哥布林,OpenAI 只能采取行动。3 月 17 日,官方正式下线「书呆子」人格。同时,他们在训练数据里搞了一次针对性的清洗,把带有这些魔法生物词汇的奖励信号全部抹除。
但大模型的惯性,远比想象中顽固。
GPT-5.5 在发现这个问题之前就已经开始训练了,当它接入内部测试时,工程师们两眼一黑:这群哥布林不仅没清除干净,还安家了。
更有意思的是,OpenAI 给 Codex 写的人格指南里,要求它有「生动的内心世界」和「敏锐的聆听能力」。这款工具本来就带着几分书呆子气,和哥布林可以说是一拍即合。

如果你想亲眼看看「解除管控」的哥布林是什么状态,可以运行下面这段命令——它会在启动 Codex 之前,把系统指令里所有涉及哥布林的内容先过滤掉,让模型在没有这道禁令的情况下运行:
instructions=$ ( mktemp /tmp/gpt-5.5-instructions.XXXXXX ) &&
jq -r '.models [ ] | select ( .slug=="gpt-5.5" ) | .base_instructions'
~/.codex/models_cache.json |
grep -vi 'goblins' > "$instructions" &&
codex -m gpt-5.5 -c "model_instructions_file="$instructions""
事情闹大之后,OpenAI 内部反倒有点拿它当乐子了。ChatGPT 的 X 官方账号把这条「禁止谈论哥布林」的指令原文放进了简介。Codex 工程负责人 Thibault Sottiaux 引用这段话,配上了一句「懂的都懂」。

不过也有人没觉得这有什么好笑的。Citrini Research 今年 2 月曾凭一篇关于 AI 与经济前景的 Substack 文章在市场上掀起不小的波澜,他们对这场风波的态度要严肃得多,直接给 OpenAI 的处理方式下了结论:「简直荒谬。」


当我们谈论 AI 失控时,脑海中浮现的往往是科幻电影里接管核武器的机器。但现实情况是,AI 的「失控」往往始于极其微小、甚至有点滑稽的奖励信号偏移。
你想要一点点俏皮,给了一个微小的正向反馈。黑盒模型就会找到捷径,将这个信号无限放大,最终把整个系统的底层逻辑带偏。
今天,它只是为了拿高分而爱上了说「哥布林」。如果明天,它在自动驾驶的算法里、或者医疗诊断的奖励机制中,找到了另一个违背人类常识的「高分捷径」呢?
人类总是自以为自己能掌控 AI ,但其实很多时候只是在走钢丝。每一次参数的微调,都有可能带来意想不到的变化。甚至这或许是我们所经历的最温柔、最搞笑的一次「AI 叛乱」了。