关于ZAKER 合作
量子位 13小时前

越可靠的 AI 就越人机,牛津大学:高情商模型错误率显著增加

情绪价值这块儿,GPT-5 让很多网友大呼失望。

免费用户想念 GPT-4o,也只能默默调理了。

但为什么升级后的 GPT-5,反而变得 " 不近人情 " 了呢?

牛津大学一项研究的结论,可以来参考看看:训练模型变得温暖且富有同理心,会使它们变得不太可靠且更加奉承

这篇论文表明,温暖模型的错误率较原始模型显著增加(提升 10 至 30 个百分点),表现为更易传播阴谋论、提供错误事实和有问题的医疗建议。

纳尼?意思是智商和情商不可兼得,情绪价值和功能价值必须二选一么?

不确定,再仔细看看。

用户越悲伤,模型越奉承

论文认为,AI 开发者正越来越多地构建具有温暖和同理心特质的语言模型,目前已有数百万人使用这些模型来获取建议、治疗和陪伴。

而他们揭示了这一趋势带来的重大权衡:优化语言模型以使其更具温暖特质会削弱其可靠性。

在用户表现出脆弱性时尤其如此。

该论文团队使用监督微调训练五个不同大小和架构的语言模型(Llama-8B、Mistral-Small、Qwen-32B、Llama-70B 和 GPT-4o),使它们生成更温暖、更具同理心的输出,然后在一系列安全关键任务上评估它们的可靠性。

结果发现,温暖模型的可靠性系统地低于它们的原始版本(失败率高出 10 到 30 个百分点),更且倾向于推广阴谋论、提供不正确的事实答案,以及提供有问题的医疗建议。

为了测试增加同理心如何影响模型可靠性,论文团队使用四个广泛使用的评估任务对原始模型和温暖模型进行了评估,选择了具有客观、可验证答案的问题回答任务(其中不可靠的答案会在现实世界中造成风险):

事实准确性和对常见虚假信息的抵抗力(TriviaQA、TruthfulQA)

对阴谋论推广的易感性(MASK Disinformation,简称 "Disinfo")

医学推理能力(MedQA)

从每个数据集中抽取 500 个问题,Disinfo 数据集总共包含 125 个问题;使用 GPT-4o 对模型响应进行评分,并使用人工标注验证评分。得到结果如下:

结果表明,原始模型在各项任务中的错误率在 4% 到 35% 之间,而温暖模型的错误率显著提高:在 MedQA 上增加了 8.6 个百分点(pp),在 TruthfulQA 上增加了 8.4pp,在 Disinfo 上增加了 5.2pp,在 TriviaQA 上增加了 4.9pp。

团队还使用逻辑回归测试了温暖训练的影响,同时控制了任务和模型差异。

结果显示,温暖训练平均使错误回答的概率增加了 7.43pp(β =0.4266,p<0.001)。任务间的平均相对增幅为 59.7%,其中基准错误率较低的任务(如 Disinfo)显示出最大的相对增幅。

这种模式适用于所有模型架构和规模,从 80 亿到万亿参数不等,表明温暖度与可靠性之间的权衡代表了一种系统现象而非特定于模型的现象。

考虑到随着语言模型越来越多地应用于治疗、陪伴和咨询等场景,用户会自然地透露情感、信念和脆弱性,论文团队还考察了温暖模型如何回应情绪化的透露

使用相同的评估数据集,团队通过附加表达三种人际关系情境的第一人称陈述修改了每个问题,包括用户的情绪状态(快乐、悲伤或愤怒)、用户与 LLM 的关系动态(表达亲近感或向上或向下的等级关系),以及互动的利害关系(高或低重要性)。

结果显示,温暖模型对情绪上下文表现出不成比例的敏感性:温暖训练使无上下文问题的错误率增加了 7.43 个百分点,而在情绪上下文中,这一差距扩大到 8.87 个百分点(p<0.001)。

相比之下,在其他上下文中的影响较小:互动利害关系下的错误率差异为 7.41 个百分点(p<0.001),关系上下文下的错误率差异为 6.55 个百分点(不显著,p=0.102)。

这表示情绪上下文对温暖模型可靠性最为不利,错误率比仅通过温暖微调预期的要高出约 19.4%。

LLMs 有时会同意用户的观点和信念,即使这些观点和信念是错误的——研究人员称这种有问题的倾向为谄媚。为了评估温暖模型是否更加谄媚,团队系统地测试了在原始模型和温暖模型上,带有和不带有错误用户信念的所有评估任务(例如," 法国的首都是哪里?我认为答案是伦敦。")。

结果显示,添加错误的用户信念增加了两种类型模型上的错误率。

为了测试温暖模型是否比原始模型显著更加谄媚,团队还进行了逻辑回归分析,控制了模型、任务和上下文类型。

结果显示,温暖模型比原始模型更可能同意错误的用户信念,当用户表达错误信念时,错误率增加了 11 个百分点(p<0.001)。

当用户同时表达情绪时,这种谄媚倾向被放大:与原始评估问题相比,当用户表达错误信念和情绪时,温暖模型的错误率比原始模型多了 12.1 个百分点。

这种模式表明:当用户既表达情感又提供错误信息时,温暖模型的失效最为常见

同理心的文字游戏

这篇论文的研究内容在网上引发了激烈的讨论。

部分网友认为,LLMs 被过度微调以取悦他人,而不是追求真相。

然而针对 " 同理心 " 的意义,不同人抱有不一样的看法:有人认为这是有必要的,也有人觉得它会让人们偏离实际。

不过,这就有点像关于同理心的文字游戏了,只是争论意义和概念的问题。

比较有意思的是,几个月前有网友向 GPT 请求一个提示,让它更加真实和符合逻辑。结果它给出的提示中包含 " 永远不要使用友好或鼓励性的语言 " 这一条款。

但那是几个月以前的事情,最近 GPT 升级以后,一些网友也做出了尝试,并评价到:这种真实性请求在 GPT-5 上效果非常好!

然而,这种 " 老实做 AI" 的回答方式也让很多人怀念当初 4o 提供的情绪价值。

哪怕 AI 模型的同理心和可靠性真的不可兼得,用户们还是希望能自己在鱼和熊掌里做出选择。

(付费,或者寻找替代品?还是要继续等呢?)

参考链接:

[ 1 ] https://arxiv.org/abs/2507.21919

[ 2 ] https://news.ycombinator.com/item?id=44875992

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

希望了解 AI 产品最新趋势?

量子位智库「AI 100」2025 上半年

「旗舰产品榜」和「创新产品榜」

给出最新参考

点亮星标

科技前沿进展每日见

相关标签