
作者 | 铅笔道 吴欣晓
编辑 | 铅笔道 邹蔚
封面图丨青心意创
你可能会奇怪:一台不会洗碗、不会劳动的人形机器人,凭什么能融资近亿?但这件事,近期就是发生了。
今年春天,上海 AWE 展上,青心意创创始人牛腾昦看到一个细节。
一个小女孩在一台裹着毛绒外皮的小机器人面前,蹲了四十分钟。最后被妈妈拉走时,还一步三回头。
这台机器人叫 Amoo,来自青心意创。它不会洗碗,不会端茶,也不会搬箱子。它做的事情很简单:眨眼、转头、蹦跶、用肢体动作回应人。
但正是这类看起来 " 不干活 " 的机器人,让牛腾昦越来越确定一件事:具身智能进入家庭的第一站,可能不是劳动,而是陪伴。
过去两年,大多数机器人公司,都在卷 " 能不能干活 ":谁的手更灵巧,谁的动作更复杂,谁能进工厂、进仓库、进服务场景。
青心意创选择了另一条路:先让机器人像一个 " 有生命感的角色 ",进入真实家庭和真实生活。
最近,青心意创完成近亿元融资,由厚雪资本与天际资本联合领投,老股东乐朴资本跟投。自 2023 年 11 月成立以来,它累计融资三轮。

1、眼下机器人进家庭,最适合用来干什么?
答:不是劳动,而是提供情绪价值。
2、陪伴机器人,第一个挑战是啥?
答:动作一顿一顿,不流畅。
3、陪伴机器人,怎么打动用户?
答:不靠说话,靠肢体语言。
4、哪些产品,会快速被淘汰?
答:差不多型、套壳型、用完就扔型。
读完本文,您会收获一个认知:AI 陪伴机器人,哪些是机会,哪些是大坑?
机器人进家庭第一关
我是 90 后,之前在剑桥拿到博士学位,曾在华为自动驾驶核心团队任职。
很多人把人形机器人看作下一代智能手机、新能源车。
虽不算夸张,但漏了一个前提:手机和车,是大家本来就想要,它们才出现的。机器人呢?大家到底需要它干嘛?
今天,大多数公司都在拼谁的手更巧、动作更复杂、控制更准。这条路没错,但我一直在想另一个问题:
有没有一种场景,不用那么高的精度,也能让机器人在真实世界里用起来?
有的,答案就是情绪交互。
机器人如果用来干活,容错率会很低。比如拿杯子,一失败杯子就碎了。但如果用来提供情绪价值,最多就是 " 没那么可爱 ",不会带给用户损失。
这样一来,一直困扰行业的 " 数据 " 难题,也解开了。因为提供情绪价值,不需要那么多数据,它还能自己生产数据(能进入家庭生活)。
自动驾驶为啥能越做越好?因为车的市场大,车在路上跑,自然就采到了大量真实路况数据。
但机器人没有那么多天然数据,没有那么多机器人被人买回家。数据只能靠人专门去采,成本高得吓人。
但如果一台机器人能靠 " 情绪交互 " 进到家里,那就不一样了。
它每天跟用户说话、做表情、动来动去,时间长了,它会记住用户说了什么、什么表情、怎么反应的。这些 " 记得 ",让它用真实的相处,来训练自己,从而越来越能接住用户的情绪。
这样一来," 机器人更懂你更聪明 " 这件事,在相处中就自然发生了。
最近行业里越来越多人开始提 " 进家 "、" 情绪交互 " 等概念,我们一年半前(2024 年底)就开始做了,那时候还没多少人信。
第一个坎:动作卡顿
当然,现在机器人进家庭,还有些现实问题,比如行业老毛病:动作一顿一顿的。
人的动作天然是连贯、丝滑的。在 party 上,你手舞足蹈,突然有人叫你,你会很自然地转头、停下来,根本不需要先把胳膊放回原位。
但市面上大多数机器人,都是一个动作做完,停一下,再做下一个。
为什么?因为大家习惯的做法是:每个动作配一个单独的 " 开关 "。想换动作,得先关掉上一个,再开下一个。
比如手正举着杯子,得先放下来,才能做别的。
这种 " 先复位、再继续 " 的方式,在工厂里没问题。生产线上的机械臂不用跟人聊天,不用看人的表情。但要让机器人进到家里,跟人互动,就别扭了。
在做情绪交互的时候,我们最先撞上的也是这个问题。
我们想让机器人看起来有 " 活气 ",会开心、会好奇、会转头看你。但一开始试下来,动作一顿一顿的,就像个电量不足的玩具。
这个问题困扰行业很久。
理想的做法是,重新设计整个控制系统:用一个 " 总开关 " 同时管几十个动作,让模型自己学会一组动作,并学会怎么在不同动作之间平滑地切换。
这套构想我们先在 Orca 上跑通,验证可行后,又迭代出情绪更丰富、更流畅的 " 情绪步态大模型 "。
有了这个底座,再叠加眼神、语音等多模态,Amoo 灵动的情绪交互,就自然生长出来了。
机器人怎么打动人?肢体语言
如果今后机器人要进家庭,活人感很重要,但很多人可能没意识到。
今年三月中旬,我们带着机器人 "Amoo" 去参加上海 AWE 展会。有个小女孩抱着机器人四十分钟不撒手,最后是被她妈硬拽走的。
后来我们发现,类似的场景在养老院、特殊教育学校,还有独居年轻人的家里,也经常出现。
这些人不在乎机器人能不能扫地、会不会做饭。他们在乎的是:它有表情吗?它会因为开心就蹦跶两下吗?它会因为搞不懂你在干嘛就挠挠头吗?

后来翻了不少心理学的书,发现一个经典结论:人和人聊天,只有 7% 的信息是靠语言,38% 靠语音语调,剩下 55% 全靠肢体动作。
这就是为什么人可以和猫狗产生很深的感情。
把这个结论放到具身智能行业,就会发现一个问题:很多做情绪交互机器人的公司,把重点全放在 " 说话 " 上,觉得机器人能聊天就够了。
但真正打动人心的,往往不是语言,而是那些无声的东西——动作、表情、身体姿态。
比如哆啦 A 梦、帕丁顿熊、玩具总动员里的角色,它们打动你的地方,是它们有 " 活物的感觉 ":会开心、难过、好奇、害怕。不用说话,你看一眼就懂。
因此,要做情绪交互机器人,技术重点不能只放在 " 大脑 " 上——让它更聪明、更能聊——还得放在 " 身体 " 上。
我们先让语义层和物理层匹配,让机器人的眼神、声音和肢体动作能协同,然后让它在拟真场景里反复试验——能用动作表达情绪、流畅地切换状态,最终让你觉得它是 " 活的 "、有温度的。
为了实现这个目标,从硬件到算法,很多东西都得推倒重来。
比如为了给机器人穿上毛绒外衣,我们既要保留动作的灵动感,又不能影响传感器精度,几乎没有现成方案可参考。
怎么办?我们前前后后找了六七百家供应商,折腾了大半年,最后一家团队配合我们从头摸索,才真正搞定。
三类产品面临淘汰
现在都在说,2026 年 AI 陪伴行业会大洗牌。我认为有三类公司最危险:
第一类," 套壳型 "。大模型接个简单硬件,赶紧出产品。短期能靠外形吸引眼球,但没有自己的技术,华强北分分钟给你复制出来。
第二类," 差不多型 "。 桌面机器人、轮式机器人,你买 A、买 B、买 C,用起来都差不多。那就是个 AI 硬件快消品,新鲜劲儿一过就完了。
第三类," 玩两天就扔 " 型。 用户买回去,没有持续使用,就没有数据,也没法迭代升级。没有粘性。
能活下来的公司,得有自己的技术、能跑通的数据循环、真正懂用户。核心就一点——谁先让足够多的机器人进到家庭,谁就有燃料去训练下一代模型。这也是我们正在探索的道路。
相比验证市场需求,落地反而容易。在中国,硬件不怕抄。只要下游需求起来,成本很快就能打下来。哪怕是小型的关节模组,现在市面上没有现成的,但只要需求明确,国内供应商很快就能跟上。

我们希望产品在短期实现 " 高质量陪伴 ",随着规模做大、供应链往下走,成本大幅下降,慢慢变成 " 大众工具 "。
机器人可能还不会帮你洗碗,但它正在学会另一件事——怎么成为你生活里的一部分。
