文 | 智能降级
近来看到个最好玩的消息,大致下面这样:
这其实意味着大家花了很多时间做所谓的智能体,创造的全是负价值。
原因特简单。
来自过去产研阵营的人类总是觉得,可以通过加入人类以为让 AI 更好的知识(表现为提示词,本质是规则)来提升 AI 在特定方向的表现。
这些所谓的 " 人类知识 " 和 " 小技巧 ",表现出来就是提示词(Prompt),本质上则是一堆给 AI 的规则。
这些东西有助于提高限定目标下的精度,但对于一个大模型来说,实则是一种戕害,是一种 " 智能降级 " 的行为。
大模型的厉害之处在哪?
在于它学了海量的数据,内部形成了一个模拟真实世界的、极其复杂的概率模型。它有种 " 涌现 " 出来的、我们都还没完全搞懂的通用智能。
你加进去的那些规则,就像是给一个想象力无限的画家,硬塞了一本儿童涂色书,还规定他必须在框框里涂色,不能出界。
你以为你在 " 优化 " 他画苹果的能力,实际上你废掉了他创作《星空》的可能。
当你面对的需求,敞口巨大、千奇百怪、无限贴近真实世界的时候——比如一个律师的日常工作——你那点 " 局部优化 " 就变得得不偿失。
你阉割掉的通用智能部分所带来的损失大于你费劲匹配上的那部分需求上的收益。
最终就化成用户的三个字:不好用。
这就是 " 智能降级 ",也就是现在做智能体的典型陷阱。
更要命的是,大模型本身,还有像通用搜索这种脚手架,它进步越快,陷阱就挖得越深。
要规避 " 智能降级 " 这个大天坑,核心就一句话:
别再尝试教 AI" 怎么思考 ",而是要给它 " 思考的材料 "。
(背后的原则就是我们 23 年就开始提到的智能优先)
人类得承认 AI 的 " 脑子 "(底座模型)在无属性的智能上已经比人强了,所以不要尝试当一个蹩脚的 " 老师 ",而是当它的 " 情报官 "。
给它提供它原本接触不到的、高质量的、独家的 " 情报 ",也就是数据和上下文。然后相信它的智商,让它自己去推理、去判断。
当然因为你要更了解你想干什么,所以需要一个比较复杂的评估系统。
(这部分很复杂,本篇不展开)
沿着这个思路,让智能体有价值方向其实很清晰:
方向一:深挖 " 独占性上下文 "
通用大模型,懂的是公域。
它不知道你公司上周开了什么会,不知道你们最重要的客户是谁,更不知道你们的王牌产品是怎么研发出来的。
这些,就是你的 " 独占性上下文 "。这是你唯一的、也是最坚固的护城河。
我们以前的说法:数据的边界是应用的边界。
智能体的首要价值,就是把这些散落在公司各个角落的、内部的、私有的数据,安全、高效地喂给大模型。
说白了,就是给 AI 开 " 内网权限 "。让它能看到所有邮件、聊天记录、会议纪要、代码库、产品文档、客户关系管理系统(CRM)里的数据。
当 AI 能看到这一切的时候,它就不再是一个只会说胡话的 " 互联网嘴替 ",而是一个真正懂你业务的 " 数字员工 "。
人类要做的主要不是用什么技巧提高智能,而是要补数字化的课。上面这事深挖的话,背后是数字成本和生产关系问题。
不管怎么样,人这部分才是最大的成本和障碍。
方向二:提供 " 高势能工具箱 "
光能看还不行,还得能干活。
但这个 " 干活 ",不是你规定好一步两步三步的僵化流程。
而是你给它一堆 " 工具 ",就像给一个聪明的工人一个工具箱,里面有锤子、有扳手、有电钻。然后你告诉他,目标是 " 把墙上那幅画挂起来 "。
他自己会判断,是该用钉子和锤子,还是用膨胀螺丝和电钻。
这个 " 工具箱 ",在数字世界里就是各种 API。比如 " 查库存 "、" 下订单 "、" 发邮件 "、" 创建日历 " ……
一个好的智能体,应该是一个能熟练使用你给的工具箱、去自主完成你交待的目标的 " 高级打杂工 "。它有脑子,也有手脚。
方向三其实是自我优化,这更难搞,这篇文章里面不展开了。
前面的第一二点并非是 Ai 领域的问题,和过去的 ERP、数字化等等重叠度更高。一定程度是补课和融合。陈果同志经常讲的内容,在这里是很有用的。比如:
说了这么多,那到底什么样的产品才能避开 " 智能降级 " 的坑?
我们可以拿市面上两种不同形态的产品做个对比,一下就明白了。
失败的形态:那个 5 万美元的合同 AI
这种产品,我称之为 " 工作流 AI"。
它明显的问题是灵活度不够,而灵活度不够则是因为整合深度不够。
它的逻辑是,在一个封闭的软件内部,预设好一个 " 分析合同 " 的流程。然后让 AI 来填充这个流程里的某些环节。
这时候当人可以和 AI 高频交互的时候,你的工作流带来的就基本是坏处。
它的问题可能是:
1. 上下文缺失:它只知道你上传的这一份合同,不知道这份合同的背景、谈判过程(可能在邮件里)、相关的历史合同(可能在另一个文件夹里)。它是个 " 睁眼瞎 "。
2. 流程僵化:它把你和 AI 都锁死在一个固定的流程里。律师想换个角度问点问题,想让 AI 结合点别的信息,门儿都没有。这就是 " 智能降级 " 的重灾区。
3. 价值孤点:它的价值,仅限于 " 分析合同 " 这一个孤零零的场景。它无法把这个能力,和你公司的其他工作流串联起来。
成功的形态:Glean 这样的产品
Glean 的本质是一个 " 上下文平台 "。
它所有的贡献在于确保我们反复说过的:现实理解纵深。
它什么流程都不预设。它的唯一目标,就是打通一家公司内部所有的数据孤岛,把 Slack、Google Drive、Jira、Salesforce ……所有系统里的数据全都连接起来,形成一个统一的、可供 AI 检索和理解的 " 企业知识图谱 " 或 " 企业大脑 "。
这部分最麻烦的活其实并不是大模型出现后才做好的。
国内当年说的数据中台其实和这活非常类似。
只不过做数据中台的公司估计挂个七七八八了吧,这从一个侧面也反应了 AI 深度应用的现实难度。
下面是我随便找的一个中台的图,大家可以和 Glean 的架构比比:
下面是 Glean 的架构图:
做不好数据中台,智能体一样不好用,至少牵涉生产关系的肯定不好用
Glean 本身,就是那个最牛的 " 情报官 "。它不教 AI 怎么思考,它只负责把最全、最准的 " 情报 " 喂给 AI。
当一个智能体被架设在 Glean 这样的平台上,它就活了。你问它:" 上个季度我们最重要的客户‘ ACME 公司’那边有什么进展和风险?"
一个 " 孤岛 AI" 会一脸懵逼。
但基于 Glean 的智能体是这么干的:
1. 调取 ACME 公司在 CRM 里的所有记录。
2. 调取与 ACME 相关的所有邮件和 Slack 聊天记录。
3. 调取内部关于 ACME 项目的会议纪要和周报。
4. 然后,它调用大模型的通用智能,把这些碎片化的信息综合起来,给出一个有理有据、包含洞察的回答:" 进展是 XX 合同已续签,但风险是他们的关键接口人最近在邮件中抱怨我们的交付延迟,相关讨论在 XX 的 Slack 频道里有记录。"
你看,这整个过程,没有任何人去预设一个 " 客户风险分析 " 的死板流程。
Glean 这种形态,就不太会出现 " 智能降级 " 的问题。
因为它做的不是 " 减法 "(用规则限制 AI),而是 " 乘法 "(用数据拓宽 AI 的视野)。它的核心价值,不在于设计了多厉害的 Prompt,而在于构建了多么厉害的 " 数据通路 "。
当底层大模型从 GPT-4 升级到 GPT-5,那个 5 万美元的 " 孤岛 AI" 可能就废了。
但 Glean 的价值反而会暴增。因为更强的大脑,配上更全的数据,能产生的智能是指数级增长的。
再强调下,上面的内容被我简化了,用于说明方向,真做开发的时候,累计偏差等处理有很复杂的过程。需要架构、领域模型等的综合。我 1 年多以前写过些这类文章。
说到底,这背后是一种根本的范式转变,一种 " 智能优先(AI First)" 的原则。
过去的思路是 " 流程优先 ",我们设计好流程,让 AI 来打辅助。这背后本质是人类优先,流程用于固化某种期望。
而 " 智能优先 " 是倒过来的:我们默认有一个聪明的 " 大脑 " 在 C 位,我们所有的工作,都是为这个大脑搭建一个能让它发挥最大价值的环境。
我们以前管这个叫:if else 调整到 any then 的思维模式。
这个原则推到终极形态,就是 " 无人公司 "。
未来的组织,不再是靠人类员工执行成千上万个僵化的 SOP(标准操作程序)。而是把整个公司的业务逻辑,都封装到一套智能体体系里。
怎么封装? 不是写死板的代码,而是为智能体体系定义好:
1. 目标(Goals):比如," 维持公司产品 A 的库存量在 1000 到 1200 件之间 "。
2. 上下文(Context):给它接入实时的销售数据、供应链数据、物流信息(Glean 模式)。
3. 工具(Tools):给它调用采购系统 API、向供应商发邮件 API、向人类主管发预警 API 的权限。
这些都需要个底座,这个底座就是我们基本干黄的数据中台。
然后,这个智能体体系就会像一个生命体一样,7x24 小时地自主运行,自己做决策,自己调用工具去执行。
人类的角色,从执行者,变成了目标的设定者和最终结果的监督者。
所以,规避给 AI" 上规矩 " 并且最终产生 " 智能降级 " 产品,首先要整明白个基础问题:AI 是啥,是干啥的!
( 不过说起来很尴尬,我写了快两年智能原生、智能优先、无人公司,不说别人,我的朋友们好多好像还是不咋理解或者认同)