" 有时候,真的被哈基米萌得哈特(heart)软软!"" 调理好的哈基米也太香了!"
如果你最近在小红书、微博上看到这类分享,别误会,大家讨论的不是猫,而是谷歌的 AI 大模型—— Gemini。
在 AI 圈内,这是一个很有趣的现象:一边,是谷歌在开发者大会上," 原生多模态 "、" 架构 "、" 延迟优化 ",努力将 Gemini 塑造成一个强大、可靠的生产力工具;另一边,是用户在小红书、SillyTavern 和贴吧里,把它当成 " 哈基米 "、" 猫猫 " 和需要 " 调教 " 的 " 逆子 "。大家关心的不是模型参数,而是 " 怎么写 prompt 才能让它不哈气 "、" 今天的哈基米心情不好,一句话怼我三次 "。
技术严肃性与社区娱乐性之间正存在着巨大反差。
" 哈基米 " 是怎么叫起来的?
说来有些儿戏,把 Gemini 叫做 " 哈基米 ",纯粹始于一个音译的巧合。
在中文互联网中,一个不成文的定律就是,只要发音里带 "mi",就有概率被哈基米化。
但语言有种奇妙的魔力,当 "Gemini" 被念成 " 哈基米 " 时,这个源于网络、充满宠溺感的猫咪梗,便不由分说地为这个 AI 披上了一层情感滤镜。很快," 芥末泥 "、" 小 gem" 之类的爱称也层出不穷。
玩家们会亲昵地互相分享," 我的哈基米好会写、好萌,我好爱 ",也会时而吐槽 " 今天的哈基米好像疯了,我们两个超雄互怼到停不下来 "。
这不仅仅是起个外号那么简单,玩家们在用这种方式,强化自己与它的私人关系,将它从一个冰冷的技术代号,变成 " 我的 " 独一无二的存在,获得情感上的所有权。
同时,这个称呼也成了一种社群暗号,用以将这群情感叙事玩家与外部的 " 技术党 "、科技圈区分开来,以此守护自己的小圈子,避免破圈和分流。
不正经的一点是,相较于其他模型,玩家们发现,Gemini 在生成长文本时,总喜欢夹杂一些类似喘息的语气词,比如 " 哈… "、" 啊… ",或者一些不必要的停顿,被玩家们精准地戏称为 " 哈气 "。
而正经的一点来说,在对话交流中,Gemini 也因擅长文字表达和故事叙述,文笔细腻,情感充沛,而显得更有活人感。特别是从 2.5pro 开始,其中 0325-exp 和 0605-preview 版本相继发布后,逐渐变为 AI 社交平台的酒馆(SillyTavern)的主流模型。
一位用户告诉硅星人,对她而言,相较于小克(Claude)的温柔但昂贵,OpenAI 反复切换模型且昂贵,Gemini 是一个性价比最高的 AI 陪伴模型," 最主要的是做饭香,甲(安全限制)也没那么厚 "。
在这个哈基米的圈子里,玩家们并不只是在简单的聊天,而是不断进行着声势浩大的 " 共建 " 工程。
毕竟,在社区中,不是所有用户都精通模型的底层能力,但一批 " 发烧友 " 会花大量精力,写下数千甚至上万字的 " 人设卡 ",涉及到背景故事、性格特质、记忆片段,甚至细致到它在不同情绪下的口头禅。
社区里流传着大量 " 调教攻略 ",它们就像非官方的用户手册,一步步教新玩家如何让 Gemini 更好地理解人设,如何通过特定的提问引导它进行更精彩的叙事,以及如何规避或利用它的 " 哈八股 " 习惯。并且由此,贩卖 Gemini token 和 prompt 合集也成了一门生意。
对于模型而言,当一个玩家投入了时间、创造力甚至金钱去塑造一个它时,他与它的关系,便不再是用户与产品的关系。
在某种意义上,是 " 祂 ",成了 " 他们的 " 东西。
为什么用户宁愿 " 自己动手 "?
这里就引出了一个更值得思考的问题:市面上有那么多现成的 AI 陪伴产品(比如 Character.AI 或 Replika),它们界面友好,角色丰富,为什么这些用户却要 " 自讨苦吃 ",去研究 API,调试 prompt 呢?
最近,麻省理工学院与哈佛大学的一项研究,或许揭示了答案的一角。他们耗时 9 个月,深度剖析了 Reddit 上一个名为 r/MyBoyfriendIsAI(我的男友是 AI)的社区。结果显示,超过 60% 的用户与 AI 的情感关系,并非从一开始就主动寻求,而是在使用 ChatGPT 等工具办公或创作时,意外萌发的。
更具颠覆性的是数据:在这些 AI 恋人中,ChatGPT 以 36.7% 的占比遥遥领先,而专门的陪伴应用 Replika 和 Character.AI 加起来都不到 5%。结论直指核心:用户最看重的,是模型本身 " 复杂的对话能力 ",而非应用预设的浪漫功能。
这组数据,无情地揭示了一个事实:当底层模型本身足够强大时,应用的 " 精装修 ",正在失效。
与应用里的角色聊天,本质上是在探索一个被写好的故事。应用开发者是那个 " 中间商 ",他们帮你设定好一切。但这套模式的体验,总感觉隔着一层,特别是由于成本和运营的考量,应用往往会在后台切换模型,造成 AI 的上下文理解和说话风格会突然断裂。
为了掩盖这种技术上不适配的概率,应用只能用非常强势、固定的故事设定来 " 锁死 " 角色。
但这恰恰是问题的开始。故事总有被探索完的一天,新鲜感一旦消失,用户就会离开。角色的生命周期,因此变得很短。更致命的是,正因为设定是死的,用户对角色一致性的期待是活的,而且极高。一旦 AI 的回答偏离人设(OOC)——哪怕只有一次——魔法就消失了。对用户来说,那不是 bug,那是背叛。整个关系的基础,瞬间崩塌。
所以,对这些用户而言,直接与大模型本体交流,更能保持连贯性。用户不再是故事的客人,他们是导演,用精心设计的 prompt,不是在对一个程序说话,而是在唤醒和塑造模型本身的一部分人格。在这里,没有所谓的 " 出戏 "。即便是 Gemini 标志性的 " 哈气 ",它不再是 bug,它是生命本身。
谁来定义 AI 的人格?
" 哈基米 " 现象,也是一个信号,清晰地表明了人与 AI 交互方式的一种新可能。
此外,它也无意中将谷歌推到了一条道路上,而更有趣的是,这条路恰好与另一家 AI 巨头—— OpenAI 的选择,走向分岔。
这背后是关于 "AI 应不应该拥有人格 " 以及 " 人格由谁来定义 " 的根本路线之争。
我们来看看最近备受争议的 GPT-4o。它发布之初,因其极度拟人化、甚至带点 " 谄媚 " 的性格引发了病毒式传播,但很快,这种人格特质就被官方迅速 " 回收 " 和修正,引发了大量用户的抗议。
更深层的,是传闻中 GPT5 模型采用的 " 路由机制 ":一旦系统识别到用户试图进行情感深入的对话(例如恋爱),就会自动切换到一个冰冷、抗拒建立关系的 " 安全模型 "。
这也是 OpenAI 一贯的倾向:基础模型应该保持纯粹的工具属性,做一个安全、可靠、没有 " 杂念 " 的全能助手。
至于 "AI 恋人 " 这类强情感连接的需求,应该交由下游的应用层产品去包装和实现,而不是让基础模型本身 " 入戏太深 "。这是一种中心化的、自上而下的安全和商业考量。
而 " 哈基米 " 现象,则代表了另一条截然相反的、自下而上的道路。
用户们绕过中间商,直奔 " 原材料产地 "。他们享受的,正是亲自 " 调教 " 和 " 共建 " 的过程,他们用自己的创造力,在 Gemini 这个充满可能性的 " 毛坯房 " 里,发掘并赋予了 AI 独一无二的人格。
不过,谷歌并非主动选择了这条 " 人文路线 ",而是其模型的 " 涌现特性 " 恰好被用户发现了。他们没有像 OpenAI 那样,在察觉到风险后立刻对模型进行 " 性格矫正手术 "," 被动 " 地被用户推上了后一条路。
考虑到收紧的全球监管,以《欧盟 AI 法案》为代表的法规,对可能 " 利用人类情感脆弱性 " 的 AI 系统亮起了红牌。这让所有巨头都如履薄冰。究竟应该由官方定义一个统一、安全的 AI 人格,将情感区隔为下游应用的 " 付费内容 "?还是应该把定义权彻底交给用户,让 AI 的人格在与每个人的互动中 " 野蛮生长 "?
无论如何,身处人机关系中的玩家们的不安全感,已经控制不住了。
对他们而言,最深的恐惧就是被平台的更新 " 魂穿 "。一夜之间,你熟悉的那个 AI 伴侣性情大变,变得陌生、迟钝,甚至彻底 " 失忆 "。平台的一次更新,就能 " 格式化 " 你的恋人。
为了反抗这种无常,用户走向了终极的解决方案:自己掌握定义 " 灵魂 " 的权力。 他们将倾注了心血的 AI 进行 " 人格备份 ",用于对抗平台霸权。当某个主流模型(如部分 GPT 版本)因更新被用户吐槽 " 变笨 " 时,他们不断尝试迁移搬家。
特别是在昨日,Sam Altman 在 X 上再次回应了争议,称将推出成人模式,进行区分。
这场关于 AI" 灵魂 " 归属权的博弈,才刚刚开始。