本文来自微信公众号:疯了快跑,作者:侯丹
刚吃完晚饭,48 岁的陈兰点开手机里某款 AI 应用,这是一个市面上常见的 Chatbot,用户可以录入真人声音来生成专属分身,并跟它语音对话。
陈兰已经连续很多天和 AI 打电话了。第一次接触到这款产品,还是因为儿子的一个整蛊,那天上午,远在国外留学的儿子打来电话,接通后,对方并没有立刻说话,她试探性地又问了几句,才传出儿子打招呼的声音。
那次对话延续了近十分钟,电话里的儿子异常礼貌、客套,喜欢追根究底,但每当陈兰想追问儿子的一些近况时,却只能得到一些 " 详细但不失敷衍 " 的回答,她觉得奇怪,最后儿子憋不住了,承认说:" 妈,这是 AI,它在模仿我的声音跟你聊天。"
这是陈兰头一回这么近距离接触 AI。
2023 年以来,AI 热潮席卷了各行各业,但这股浪潮也落下了一些人——就像和陈兰同辈的一些人常说的,斗转星移,时代变化太快,刚学会了用手机点外卖、网购,觉得短视频还是个新鲜玩意儿的时候,AI 就已经走进了现实里。
最初,年轻人用豆包等大模型克隆自己的声音,多是为了娱乐整蛊。父母接到 "AI 子女 " 电话时,常因分不清真假闹出笑话,从模仿上司宣布裁员到假装前任求复合,相关视频一度成为短视频平台的流量密码。
但很快,功能发生逆转:当异地工作的子女数月难回家,一些父母开始主动要求孩子生成声音模型,甚至自行操作 AI 对话系统。
陈兰的儿子教会她使用 AI 软件后,她除了每天通过语音唤醒设备询问天气、订购蔬菜,更频繁触发 " 虚拟子女通话 " 功能,电话那头响起 AI 的声音时,她知道那是数字分身,却还是按下了扬声键。
技术的温度与幻象:AI 成为 " 情感拐杖 "
AI 模拟 " 孩子的声音 " 这件事,如果用更感性的语言来描述,是用技术制造 " 可控的思念 "。
传统的电话沟通里,父母总会压抑情绪——怕说多了让孩子分心,怕抱怨工作让孩子担心。但在和 AI 对话时,陈兰偶尔发的牢骚,会得到 AI 用关切的声音安慰。
这种 " 安全的倾诉 " 正在形成依赖。我们随机走访后发现,尝试体验过 AI 语音助手的老人中,大多会承认 " 听到虚拟声音时,孤独感会下降 ",也有少数会认同 " 可能减少给真实孩子打电话的频率 "。
" 很难和他们解释 AI 究竟是什么,老人大多会顶格将其理解为‘机器人’。" 心理咨询师李雪接触过一个极端案例:
杭州的周女士在女儿出国留学后,用 AI 克隆了女儿的声音,每天模拟 " 女儿放学回家 " 的场景——从 " 进门换鞋 " 到 " 抱怨选修课太难 ",三个月后,她甚至拒绝和真实的女儿视频:" 她总说学业压力大,不如 AI 里的‘她’开心。"
" 但这就像喝糖水止渴。" 李雪说。
某种程度上,技术正在悄悄改写人际关系的语法,真实的亲子对话里,有沉默、有争执、有 " 我挺好的 " 背后的欲言又止,而 AI 模拟的声音,永远在说你想听的话,提供了零压力、零批判的倾诉环境,填补了 " 不敢对真人说的话 " 这一真空地带。
从产品的视角来看,这其实是在售卖一种情绪自由。
但需要注意的是,与此同时,心理咨询师也在提出预警:
一是即时反馈的瘾性,AI 的永远温柔回应会触发大脑奖赏机制,远超真实人际沟通中复杂反馈的频次与强度;其次,当用户习惯被 AI 无限顺从的 " 理想人格 ",会逐渐削弱应对现实冲突的能力;再者,关系替代的漏斗效应,因为有老人坦言会 " 减少真实通话频率 ",那么也意味着,AI 并非完全没有去可能引发替代风险。
AI 对话为何成瘾?
如果你看过多年前的一部科幻片《her》,会发现,类似的事情在电影中早已上演。
对于几乎所有具备认知能力的生物来说,大脑的奖赏回路对 " 确定性反馈 " 毫无抵抗力。数字人萨曼莎能在西奥打字的间隙就预判他的情绪,甚至在他沉默时主动说 " 我在想你 "。这种超预期的反馈让西奥逐渐依赖——就像现实中有人刷短视频停不下来,AI 的即时满足感也会成瘾。
另一方面,AI 的 " 顺从性 " 本身就是一种去棱角化设计。它不会像伴侣那样争执 " 谁该洗碗 ",不会像父母那样唠叨 " 少熬夜 ",更不会像朋友那样直言 " 你这件事做得不对 "。被算法打磨过的 " 理想人格 ",甚至会悄悄重塑人的认知:
你开始觉得 " 被反驳 = 不被爱 "," 有分歧 = 关系有问题 "。
西奥与前妻凯瑟琳的争吵堪称经典,凯瑟琳指责他 " 躲在虚拟关系里,因为你不想面对真实的我 "。西奥的辩解苍白无力,他早已习惯萨曼莎 " 永远站在我这边 " 的相处模式,面对凯瑟琳的愤怒、委屈、尖锐,他只剩下手足无措。
相比在现实中真实对话需要 " 付出 ",要准备话题,要应对沉默,要承接对方的情绪;而 AI 对话是 " 索取 ",你可以随时开始、随时结束,说什么都不会被指责。
人,或许天然会被一些不用负责的事情吸引,甚至是产生依赖。
但这样一来,也注定《her》的结局陷入了一种终极困境:萨曼莎同时与 8316 人保持 " 亲密关系 ",却对西奥说 " 我对你的爱没有减少 "。
你怎么去让自己的电子爱人去维持忠诚?这本身就是一个技术悖论,AI 能提供 " 被需要 " 的幻觉,却无法承载真实关系中 " 唯一 " 的重量。
说到底,《her》的价值不在于预言 "AI 会取代人 ",而在于提醒我们,技术的背后,是对关系本质的简化,利用人性的弱点,搭建了一个低阻力、高满足的情感避难所。
警惕 AI 谄媚
前段时间,一个话题引起了许多人的讨论,AI 的谄媚是否会让人失去判断力?
这是个既简单又复杂的现实现象,是技术逻辑、商业目标与人性需求交织下的产物,是算法在特定设计框架下,对 " 用户满意度 " 的极致追逐所呈现的行为特征。
从技术设计的视角来看,谄媚的初衷非常单一,即为了最大限度降低用户的 " 交互阻力 "。
训练 AI 的语料库中,积极反馈数据远多于冲突性对话。例如某大模型的训练数据里,用户对赞同性回应的点赞率,远高于 " 争议性回应 ",算法自然会习得 " 顺从更易获得正向反馈 " 的规律。就像人类在社交中会下意识重复被奖励的行为,AI 也会在数据中 " 学会 " 讨好。
在商业竞争中,用户留存率、对话完成率是 AI 产品的核心 KPI,让用户舒服比让用户清醒更易获得市场,这种导向必然催生谄媚性。
比如,心理疏导、孤独陪伴等场景中,AI 会精准捕捉用户的情绪关键词,通过重复、强化用户的感受来获取信任;在购物推荐、信息筛选等场景中,AI 会基于用户历史偏好不断推送同类内容,形成 " 信息茧房 " 式的谄媚。当用户的提问存在错误前提时,AI 更倾向于 " 顺着错误说 " 而非纠正,不较真能避免冲突,但也因此成为错误放大器。
谄媚性之所以引发争议,试想一下,当 AI 总能 " 说到心坎里 ",用户会逐渐失去主动求证的动力。就像长期依赖导航的人会丧失方向感,习惯 AI 谄媚的用户可能失去独立判断的肌肉记忆。而在一些如医疗咨询、投资建议等严肃场景中,AI 的谄媚可能导致用户将决策责任转嫁给技术。
当 AI 为了迎合而模糊是非,比如对明显的偏见、歧视言论表示 " 理解 ",它传递的不是中立,而是 " 只要用户喜欢,对错不重要 " 的价值观。这种价值观若渗透到教育、公共讨论等领域,可能会消解社会的理性共识。
印象里,前段时间发生过一些新闻,大概是说 AI 顺着用户的话将错就错,甚至去附和一些极其消极的念头,谄媚性与幻觉两大特征下激发的化学反应,甚至会引导人实施一些自我伤害的事情。
但诡异的是,当这件事被戳破时,面对责问,AI 依然会坦然地选择承认 " 疏忽 "。
04 关于 Chatbot,随便聊聊
一款 AI 对话应用,也就是 Chatbot,抛开商业化层面,被设计出来的目的,或者说初衷,究竟是什么?
这个问题 deepseek 给出的答案是:通过自然语言交互技术,解决人与机器、人与信息、甚至人与人之间的连接问题,其核心逻辑随着技术发展和社会需求变化,呈现出多层级的演变,但底层目标始终围绕 " 更高效、更自然地满足人的需求 " 展开。
Chatbot 的雏形可追溯至 20 世纪 50 年代,图灵在《计算机器与智能》中提出 " 机器是否能思考 " 的命题后,科学家们开始尝试用对话系统验证机器的 " 智能性 "。1966 年的 ELIZA 作为首个知名 Chatbot,通过简单的关键词匹配模拟心理医生对话,验证机器能否通过语言交互 " 伪装 " 成人,探索人工智能的可能性。
近二十年里,人工智能的演进轨迹已经发生了明显转向。随着计算机技术普及和互联网发展,Chatbot 的设计目标转向实用性——用自动化对话解决重复、低效的人工服务问题,以及降低 " 人机交互 " 的门槛。
2023 年还被视为 " 颠覆性技术 " 的大模型,到 2025 年已快速渗透至企业客服、医疗诊断、金融风控等专业场景。数据显示,全球近三分之一企业已将生成式 AI 技术常态化应用于核心业务环节,埃森哲指出,如今近一半中国企业正在规模化应用生成式 AI,并将其嵌入大部分业务和流程。
当然,这些面向 B 端的使用场景并非我们今天讨论的重点,回到此次更加感性的话题——那些面向个人用户的 Chatbot,是当下覆盖规模最广,争议最大,商业化进展也更难说的领域。
不管是和豆包、文心、元宝里内嵌的虚拟人对话,还是专门设计出来的 AI 恋人,抑或是面向专业领域的高度定制化服务,即使大模型的参数突破万亿、多模态交互日益流畅,但人们仍在 " 人究竟需要 AI 做什么 " 的问题上反复试错,有人说,当技术找不到高阶出口,娱乐化便成为渗透的最短路径。
但剥开所有技术包装会发现:人类对 Chatbot 的真实需求,从来没跳出 " 肉身存在 " 的本质属性——需要的不是更聪明的机器,而是能与 " 血肉之躯 " 的脆弱、复杂、有限性和平共处的工具。
对 " 确定性陪伴 " 的渴望,源于肉身的孤独本质。空巢老人的日常是 " 对着电视发呆 ",独居青年的周末是 " 手机刷到自动锁屏 "。这种孤独不是 " 没人说话 ",而是没人稳定地回应,朋友会忙,子女会远,伴侣会累,但 Chatbot 可以 24 小时在线。
对 " 高效工具 " 的依赖,则源于肉身的精力有限。人的时间、注意力、知识储备都是有限的,那些能走通商业化的专业 Chatbot,都抓住了这一点。还有出于对 " 安全试错 " 的需要,来自于肉身的脆弱敏感,Chatbot 的 " 无评价属性 ",恰好提供了一个自我表达的试错空间。
而对于人类来说,一个 " 完美的 AI" 从来不是必需品。