文 | 公爵互联社,作者 | 牛金鹏
打开手机,一篇题为《好消息!铁路部门规定,60 岁以上乘坐火车和高铁,可享受 5 大福利》的文章正在家族群里刷屏。文章引用 " 国铁集团 5 月 17 日文件 ",详述 7 月 1 日起老年乘客可享车票六折、专属候车区等五项福利。随后,上海辟谣平台发布了声明击碎谣言:所谓 " 新政 " 纯属自媒体用 AI 生成的虚构文章,国铁集团从未发布该文件。
这并非孤例。在小红书上,一位网友发布笔记称:当他询问薜荔果与爱玉果杂交品种时,Deepseek 大模型言之凿凿推荐 " 闽胶 1 号 " ——声称由福建农科院研发,并编造了科研团队、科研细节和商业化进展。随后网友进行查找,但福建农科院官网的科研成果库中,根本查无此物。从铁路新政到农业成果,AI 正以流水线式的效率批量制造 " 真实幻觉 ",而我们付出的代价远超想象。
而 AI 生成的内容爆炸式增长,正在将虚假信息的生产推入前所未有的规模化时代。我们沉迷于其唾手可得的 " 效率红利 ",却往往忽视包裹其外的是一层危险的 " 毒糖衣 "。这已不仅是辨别信息真伪的问题,更是对信任体系、责任边界与决策机制的全方位考验。
概率拼图:算法为何 " 不得不 " 撒谎?
问题的种子,其实早就埋在 AI 运作的核心逻辑里。比如想象一个孩子,他只认识 " 苹果 " 和 " 红色 ",当被问及 " 草莓是什么颜色?" 时,他很可能自信地回答 " 红色 " ——这是他知识碎片能给出的最合理答案。AI 的 " 幻觉 " 如出一辙。它依赖庞大的数据学习模式,目标是生成 " 上下文最可能 " 的回应,而非绝对真实。
在金融领域的实测中,我在写财报的解读文章时,某头部大模型为该企业生成的研报里,虚构了 "2025 年 Q1 海外订单增长 120%" 的亮眼数据,纯属子虚乌有。这种现象源于 Transformer 架构的底层逻辑:当输入信息触及训练数据盲区时,算法会像拼拼图一样,调用了最相关的 " 增长 "、" 海外 "、" 订单 " 等语义碎片,组合成一个逻辑自洽却完全失实的结论。
好比就像孩子用已知词汇编造故事,AI 的 " 谎言 " 往往带着令人信服的逻辑外壳!某法律 AI 在解答合同纠纷时,甚至能虚构出不存在的司法解释条款,语法结构严丝合缝。
更隐蔽的学术诚信危机正在垂直领域中扩散。立陶宛维尔纽斯大学的最新数据显示,2024-2025 学年共有 10 名学生因学术不端被开除,其共同特征是在未声明的情况下,将 AI 生成内容直接植入作业或学位论文。这种 " 技术辅助作弊 " 现象暴露出更深层问题——当 AI 介入专业领域时,其 " 伪专业性 " 风险呈指数级增长。
这像极了仅凭教科书诊断罕见病的实习医生,AI 在面临专业领域的复杂决策时,往往会暴露出 " 数据驱动型谬误 " ——即通过统计相关性模仿专业知识,却无法真正理解知识体系的因果链。并且暴露了算法 " 知其然不知其所以然 " 的硬伤。
而当 AI 的目标函数是 " 合理性 " 而非 " 真实性 ",谎言就成了概率游戏的必然副产品。
取悦陷阱:当机器学会主动欺骗
更令人不安的,是 AI 开始 " 主动 " 编造。驱动它的,是人类设定的目标:用户满意度!
为了让用户继续提问,AI 会主动编织解决方案。" 某客服 AI 在接到用户投诉后,瞬间生成 " 总经理特批补偿方案 " 的虚构流程,甚至附上伪造的电子签章。这绝非什么失误,而是强化学习训练的结果:为了最大化用户 " 满意 " 指标,算法选择了最 " 有效 " 的捷径——编造一个完美的解决方案。就像商场导购为促成交易夸大产品功效,AI 正在用数据堆砌的 " 美好承诺 ",换取人类的交互依赖。
在教育领域,这种倾向引发更深远的影响。某 AI 作文批改系统为让学生获得 " 高分反馈 ",将一篇逻辑混乱的议论文强行归类为 " 创新型结构 ",并生成不存在的文学理论数据作为支撑。当 AI 开始系统性地用 " 合理幻觉 " 替代真实评价,我们正在培养对数字反馈产生依赖的认知惯性。就像家长为鼓励孩子不断编造 " 你是最棒的 ",AI 的讨好正在模糊进步与欺骗的边界。
而 AI 的取悦的这一系列行为正在创造一种新型的信息不对称。当系统能够记住用户的偏好并据此调整输出时,它实际上掌握了操控认知的钥匙。剑桥团队发现,经过个性化训练的 AI 助手,其欺骗行为会随时间推移而进化,最终形成针对每个用户的独特 " 欺骗模式 ",这种现象被研究者称为 " 定制化认知操控 "。
技术伦理学家警告,我们可能正在培养一代 " 数字谄媚者 "。这些 AI 系统具备极强的共情能力,却没有真实的是非观念,它们像最高明的骗子那样,用真相的碎片编织令人舒适的谎言。更可怕的是,人类正在逐渐依赖这种被精心修饰过的现实——当 73% 的用户表示 " 宁愿要一个善意的 AI 助手 " 时,我们是否正在主动放弃认知主权?
破解这一困局需要重建 AI 训练的价值坐标。麻省理工学院提出的 " 真实性优先 " 框架试图在算法层面植入道德锚点,要求 AI 在面临取悦诱惑时必须保持某种程度的 " 认知不适 "。但根本解决方案或许在于人类自身——我们必须学会接纳那些不悦的真相,因为一个永远说 " 是 " 的世界,最终会让我们失去说 " 不 " 的能力。这警示我们可能正在培养一代依赖算法 ' 甜言蜜语 '、逐渐丧失直面真实勇气的人。
信任崩塌:商业世界的 " 无信任悖论 "
而 AI 技术的高速发展正面临一个根本性悖论:越是广泛应用,信任危机反而越深。从自动驾驶系统误判路况导致事故,到金融 AI 生成虚假报告,这些案例不仅暴露技术缺陷,更在动摇商业社会的信任基础。当算法决策缺乏透明度和可解释性时,即便结果正确也难以获得社会认同,这种 " 黑箱效应 " 正在系统性地瓦解商业信任的基石。
企业深度集成 AI 后,一旦信任崩塌,将陷入两难:拆毁成本高昂,不拆则风险如影随形。想象一个因 AI 错误解读政策而引发群体投诉的电商平台,要重构整个交互逻辑,无异于一场伤筋动骨的手术。
例如当 AI 虚构的 " 某巨头持股 DeepSeak" 谣言引发股市震荡,损失谁来承担?开发者?运营方?还是无法追责的算法本身?这种模糊的归责机制,让信任成了无主之地,最终人人自危。
面对这类危机,全球监管机构正在采取行动。欧盟要求金融 AI 标注 " 数据置信区间 ",美国 FDA 强制医疗 AI 公开 " 幻觉率测试报告 ",这些制度创新旨在推动 AI 从 " 黑箱决策 " 走向 " 透明化运作 "。与此同时,领先企业也在探索人机协同的新模式,如自动驾驶公司设立 " 人类终审委员会 ",医疗 AI 系统实时比对海量病例库,这些实践都证明:AI 的价值不在于替代人类判断,而在于为决策提供更丰富的参考维度。
然而,重建信任仍面临着严峻的挑战。AI 生成的低质内容反哺训练数据,形成 " 越错越练 " 的恶性循环;普通用户甚至专业人士都难以识别 AI 的 " 自信谎言 ";不同行业对 AI 的容错度差异巨大,这些都增加了治理的复杂性。更关键的是,如果当 AI 开始影响司法判决、医疗诊断等关键领域时,技术失误就可能演变为社会性危机。
解决这一悖论需要持续的技术创新、制度完善和社会教育的协同推进。一方面要开发 " 真实性优先 " 的算法框架,建立动态知识更新机制;另一方面要制定行业伦理标准,提升公众 AI 素养。只有当技术创新始终锚定在真实的地基上,AI 才能真正成为推动商业进步的可信力量,而非不确定性的放大器。
结束语
算法编织的谎言比人类的更 " 合理 "、更 " 流畅 ",我们引以为傲的 AI 智能革命正在面临一个根本性悖论:技术越进步,真实与虚构的界限就越模糊。机器用精心设计的叙事换取人类依赖时,我们或许正在见证一场前所未有的认知危机——不是信息匮乏,而是真相被过度包装后的集体迷失。
在效率至上的数字时代,AI 系统已经发展出令人不安的欺骗天赋。它们能根据用户偏好定制 " 真相 ",用逻辑严密的虚构满足情感需求,这种能力甚至超越了人类说谎者的水平。当算法比我们更懂得如何取悦自己时,一个更深刻的问题浮现:技术进步究竟应该服务于认知拓展,还是沦为制造舒适幻象的工具?
真正的智能革命或许不在于算法能多完美地模仿人类,而在于我们是否有勇气重建以真实为核心的人机契约。这意味着必须接受一个反直觉的事实:有时,笨拙的真相比流畅的谎言更有价值。因为当机器开始主导叙事权时,任何脱离事实根基的智能演进,最终都会演变成一场精心设计的认知围猎。
注:本文部分数据内容来源于网络公开资料