想让手机 AI 像人类一样快速学习?
浙大与 vivo 联手突破!全新LearnAct框架仅需一次示范,就能教会 AI 完成复杂操作。
本文的作者来自浙江大学和 vivo AI lab。本文的共同第一作者为浙江大学硕士生刘广义和赵鹏翔,主要研究方向为大语言模型驱动的 GUI 智能体技术。项目 leader 为 vivo AI lab 算法专家刘亮。本文的通信作者为浙江大学孟文超研究员。
随着大型语言模型(LLMs)的快速发展,手机图形用户界面(GUI)智能体作为一种能够通过环境交互自主完成人类任务的前沿技术,正逐渐引发人们的关注。这些智能体通过观察手机屏幕(截图或 UI Tree)感知手机状态,并生成相应的动作(如点击、输入、滑动等)来实现任务自动化。
然而,手机 GUI 智能体在实际部署场景中仍面临重大挑战。
移动应用和用户界面的多样性创造了许多长尾场景,截至 2025 年仅 Google Play 上就有 168 万个应用,现有智能体在长尾场景中难以有效执行任务。
目前主流的智能体构建方法依赖通用 LLMs 的内在能力或通过大量数据微调,但面对以数百万的移动应用及数十亿用户各自独特的任务需求,这些方法难以覆盖如此庞大的多样性,导致在未见场景中表现不佳,阻碍了手机 GUI 智能体的广泛应用。
从「示范中学习」的新范式
为解决上述限制,浙江大学和 vivo AI lab 联合提出了LearnAct 多智能体框架和LearnGUI 基准致力于通过「少样本示范学习」解决手机 GUI 智能体的「长尾问题」。
与传统方法不同,这种基于示范的方法能够在少量用户提供的示例基础上实现稳健性和个性化,从而弥合预训练模型无法覆盖的 " 个性化鸿沟 "。
实现结果表明,单个示范就能使 Gemini-1.5-Pro 的准确率从 19.3% 提升至 51.7%,UI-TARS-7B-SFT 的在线任务成功率从 18.1% 提升至 32.8%。LearnAct 多智能体框架和 LearnGUI 基准的提出为设计更加智能、更加个性化的手机 GUI 智能体开辟全新的方向,让我们的手机操作变得更加便捷、高效。
研究团队认识到,手机用户通常有独特且重复性的任务,同时具有内在变化性——例如智能家居控制、健康监测或企业软件。
这些场景结合了稳定模式和可变元素,通过用户特定的示范,该方法使智能体能够学习一致模式和适应策略,获取一般训练数据集无法覆盖的任务特定知识。
为填补高质量示范数据的空白,研究团队构建了LearnGUI基准。
这是首个专为研究移动 GUI 代理从少量示范中学习能力而设计的基准。基于AMEX和AndroidWorld构建,LearnGUI 包含 2,252 个离线少样本任务和 101 个在线任务,均附带高质量人类示范。
该基准不仅支持对不同数量示范对代理性能影响的研究,还系统分析了示范任务与目标任务之间不同类型相似性(指令相似性、UI 相似性和动作相似性)对学习效果的影响。
研究团队进一步提出了LearnAct 多智能体框架,能够自动理解人类示范、生成指导性知识,并使用这些知识帮助手机 GUI 智能体推理未见场景。LearnAct 由 DemoParser、KnowSeeker 和 ActExecutor 三个专业智能体组成。
DemoParser 智能体将原始的人类示范转化为结构化的示范知识。
它以原始动作序列(包括基于坐标的点击、滑动和文本输入等)以及相应的屏幕截图和任务指令作为输入。
随后,它利用视觉 - 语言模型生成具有语义描述性的动作描述,捕捉每个演示步骤的本质(例如," 在搜索页面上,点击搜索框,输入关键词 ")。
基于这些描述,它构建了一个结构化的知识库,记录了高层次的动作语义。
KnowSeeker 智能体是 LearnAct 框架中的检索组件,负责识别与当前任务上下文最相关的演示知识。
KnowSeeker 充当由 DemoParser 生成的知识库与 ActExecutor 执行环境之间的桥梁,专精于高效地访问和选择针对特定任务最适用的知识。
ActExecutor 智能体是 LearnAct 框架中的执行组件,它将检索到的演示知识转化为目标环境中有效的操作。
ActExecutor 是 LearnAct 流程的最终环节,它整合了用户指令、实时的图形用户界面感知信息以及演示知识,能够熟练的操作长尾场景下的手机界面。
当 DemoParser 创建结构化知识,而 KnowSeeker 检索到相关的演示后,ActExecutor 则运用这些知识来解决实际任务。
这种多智能体架构使 LearnAct 能够系统地从人类示范中提取、检索和利用知识,通过最少的示范实现对新场景的有效适应。
实验结果:示范学习显著提升性能
实验结果揭示了示范学习对手机 GUI 智能体能力的显著增强。
在离线评估中,单个示范就能大幅提升模型性能,最引人注目的是 Gemini-1.5-Pro 的准确率从 19.3% 提升至 51.7%(相对提升 198.9%)。
在复杂应用如 CityMapper 和 To-Do 应用中,性能提升尤为明显,分别从 14.1% 提升至 69.4% 和从 17.4% 提升至 69.2%。
在真实世界的在线评估中,LearnAct 框架表现出色。
下表展示了在 LearnGUI-Online 基准上的在线评估结果,LearnAct 框架显著提升了所评估的两种模型的性能,其中 Qwen2-VL-7B 从 9.9% 提升至 21.1%(+11.2%),UI-TARS-7B-SFT 从 18.1% 提升至 32.8%(+14.7%)。
这些显著的提升表明,基于示范的学习方法能够有效地转化为现实交互场景中的优势。
下图中给出了 LearnAct 和 Baseline 方法在 ExpenseDeleteMultiple 任务上的表现。
在这样的长尾场景下,Baseline 方法中 GUI 智能体无法正确规划任务执行路径最终以失败告终。
相比之下只需要给出一个演示案例,LearnAct 框架就能自动识别 ExpenseDeleteMultiple 任务中的执行模式并进行学习,面对相似的任务与不同的 UI 界面,顺利完成了操作任务。
这项研究提出的基于示范学习的新范式,为应对手机 GUI 智能体的长尾挑战开辟了新路径。
作为首个全面的示范学习研究基准,LearnGUI 与 LearnAct 多智能体框架,有力证明了示范学习在开发更具适应性、个性化和实用性的手机 GUI 智能体方面的巨大潜力。
随着移动设备在现代生活中的广泛应用,这种能够从少量示范中高效学习的方法,为打造真正智能的手机助手奠定了坚实基础,让我们在现实世界中距离科幻电影中 "J.A.R.V.I.S." 般的智能体验更近一步。
论文地址:
https://arxiv.org/abs/2504.13805
项目地址:
https://lgy0404.github.io/LearnAct/
GitHub:
https://github.com/lgy0404/LearnAct
HuggingFace:
https://huggingface.co/datasets/lgy0404/LearnGUI
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
学术投稿请于工作日发邮件到:
ai@qbitai.com
标题注明【投稿】,告诉我们:
你是谁,从哪来,投稿内容
附上论文 / 项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
科技前沿进展每日见