复杂的简历,AI 也能读懂了。
阿里巴巴集团研究团队,开发出了一套基于布局感知的简历解析框架。
该框架在简历解析任务上的准确率逼近 Claude-4 等业界顶尖大模型,处理整份简历仅需 1-2 秒。
而且这项创新直击自动化简历解析的三大痛点——版面格式多样、大模型成本高昂及响应速度慢,为智能招聘树立了新的效率与精度标杆。
该技术框架的论文《Layout-Aware Parsing Meets Efficient LLMs: A Unified, Scalable Framework for Resume Information Extraction and Evaluation》已发布。

面对多栏、图文混排等五花八门的简历格式,基于规则的 NER 实体识别和传统 AI 模型常常 " 束手无策 "。
而直接使用强大的通用大语言模型,又面临着响应延迟高、计算成本昂贵的困境,难以满足大规模、高实时的工业级应用需求。
阿里巴巴的这项研究直面以上挑战,提出了一个创新解决方案。
精准 " 读懂 " 复杂简历
传统模型按部就班地阅读文本,遇到简历的复杂布局时,模型使用传统方法需要进行文档理解,链路会带来大量耗时。
而阿里的新框架首先引入了一个 " 布局感知解析器 "。
它如同人类的眼睛一样,能够看懂简历的整体结构,无论是左边的个人信息栏,还是右边的工作经历,都能被识别并分割成独立的逻辑区块。
随后,系统会将这些区块按照人类的阅读习惯重新排列组合,形成一个清晰、有序、带索引的文本。这一步骤解决了布局混乱带来的解析难题,为后续的精准信息提取奠定了坚实基础。

在解决了布局问题后,真正的优势在于其高效的 LLM 提取策略。
研究团队没有选择动用庞大的百亿或千亿参数模型,而是创新性地对一个仅有 0.6B 参数的小模型(Qwen3-0.6B)进行了微调。
通过专门构建的包含数万份简历的指令数据集进行训练,这个小模型学会了精准地从文本中提取关键信息。
更关键的是,团队采用了 " 并行任务分解 " 和 " 索引指针 " 机制。
系统会将提取任务(如基本信息、工作经历、教育背景)拆分,让模型并行处理,大大缩短了响应时间。
在提取大段描述性文字时,模型不再逐字生成,而是直接返回文本所在的 " 行号范围 "(索引),系统再根据行号从原始文本中精确回填。
这不仅将生成 token 的数量降到最低,节约了成本,更保证了内容的 100% 保真,杜绝了模型 " 自由发挥 " 或信息 " 幻觉 " 的可能。
实验结果令人瞩目:在包含大量真实复杂简历的 RealResume 数据集上,这个微调后的 0.6B 模型 F1-score(综合衡量准确率的指标)达到了 0.964。而其处理一份简历的平均耗时仅为 1.54 秒,远快于 Claude-4 的 4.62 秒,实现了 3-4 倍的速度提升。

在线上服务中,整个系统展现出强大的实时处理能力,吞吐量可达每分钟 240-300 份简历,平均响应延迟低于 2 秒,10s 内成功解析率达到 100%。
这项研究证明了,通过创新的系统设计和模型优化,可以在不牺牲准确率的前提下,大幅降低大模型技术的使用门槛和成本。
GitHub 地址
https://github.com/alibaba/SmartResume
论文地址
https://arxiv.org/abs/2510.09722
Demo 地址
https://modelscope.cn/studios/Alibaba-EI/SmartResumeDemo
ModelScope 地址:
https://modelscope.cn/models/Alibaba-EI/SmartResume
HuggingFace 地址:
https://huggingface.co/Alibaba-EI/SmartResume
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
我们正在招聘一名眼疾手快、关注 AI 的学术编辑实习生
感兴趣的小伙伴欢迎关注 了解详情

科技前沿进展每日见