在苹果 AI 中国版一片静默之际,阿里出牌了。
2024 年 6 月 16 日,阿里巴巴 Qwen 团队对外宣布,推出支持苹果 MLX 架构的 Qwen3 模型,包含 4 种精度,用户可以根据硬件资源选择合适的模型。搭载对应芯片的苹果设备可以更流畅、更高效地在本地运行这款来自中国的开源大模型。
继今年 2 月,阿里确认与苹果合作中国区 Apple Intelligence 之后,不断有消息预测上线时间,但前不久的 WWDC(全球开发者大会)上,官方再次沉默,没有新的进展,让外界很是担心。
在这一背景下,此次 Qwen 的官方适配,似乎用代码和性能回应了种种疑虑," 我们准备就绪中 "。
8 个尺寸、4 种精度,不只是适配
这次技术发布的核心,是 Qwen3 模型对苹果 MLX 框架的全面、官方支持。
MLX 是苹果专为 Apple Silicon 芯片设计的高效机器学习框架,提供了类 PyTorch 的 API,兼容 Numpy 语法,支持 C++/Swift 扩展,利用统一内存架构,数据在 CPU/GPU 间共享,可降低功耗、提升处理速度,还具备动态图构建、多模态支持、端侧部署优化等功能,能在 iPhone、iPad、Mac 等设备上高效运行模型,帮助开发者更轻松地进行机器学习模型训练与部署。
随着用户对数据隐私的日益重视和对个性化体验的追求,让 AI 大模型在个人设备上本地运行,正成为不可忽视的趋势。MLX 正是苹果为这股趋势提供的官方解决方案。
而 Qwen3 模型支持 MLX 格式,意味着可以充分利用苹果设备的高性能神经引擎和统一内存架构,在 MacBook、iPad 等设备上实现更快的推理速度和更低的能耗,相比技术迭代,更多的是工程优化。
不过,即使是工程优化,从具体的工作来看,Qwen3 的 MLX 适配也展现了远超 " 完成任务 " 的诚意,几乎将 Qwen 开源模型家族,完整地融入苹果生态,适配范围广、精度深。
此次 Qwen3 一共提供了 32 个 MLX 适配模型,涵盖从 0.6B 到 235B 的 8 个尺寸,以及 4bit、6bit、8bit、BF16 四种精度,允许用户根据硬件资源选择合适的模型精度。对开发者而言,低量化(如 4bit)适合内存有限的设备(如 iPhone),而高精度(如 BF16)适合需要更高推理质量的场景(如 M2/M3 Ultra)。
这意味着,无论是想在 iPhone 上实现轻量级 AI 助手,还是在 Mac Studio 上进行复杂 AI 内容创作,都能找到对应的 Qwen3 模型。
阿里通义千问开源负责人林俊旸在 X 上表示," 这是一个小更新,但是由于模型太多,以及需要测试,所以花了不少时间。"
值得注意的一个细节是,4 月 28 日,Qwen3 发布前夕,苹果 MLX Community 成员就在 X 上率先宣布完成了 Qwen3 的适配。而这一次,发布者变成了 Qwen 官方团队。
从功能效果看,社区适配与官方适配的差别不大,但意义不同。
社区适配更像是基于技术热情的 " 粉丝行为 ",证明模型代码质量优越、社区受欢迎度高,是来自基层的认可。而 Qwen 官方团队的发布,则是正式的、企业级的 " 战略决定 "。
它也在向所有开发者和潜在商业伙伴传递一种态度:我们将为这一技术路线提供持续、稳定、可靠的官方支持,包括未来的模型更新、技术答疑和潜在的 Bug 修复。
苹果 AI,需要阿里催一催
这个适配很有意思,即便苹果官方动作缓慢,阿里因为开源模型的成功,也依然可以主动推进自己在苹果生态里的占位。
Qwen 系列模型已经成为全球范围内最具影响力的开源模型之一,在 HuggingFace 等全球最大的开发者社区上,其下载量和关注度稳居第一梯队,构建了庞大的开发者生态。
Qwen 在不断强化从基模到多模态到工具调用的能力,由此不断拓展 AI 生态。而苹果生态是其中一块重要拼图。
开发者社区已经对此展示出热情。在 Qwen 官方适配 MLX 之前,大量苹果开发者早已在社区引导下,自发地在自己的 MacBook 上部署和测试 Qwen 模型,且在 HuggingFace 平台上,在所有 MLX 模型中,排名前五有两个都是 Qwen3 模型。
所以,今天的苹果,反而需要 AI 技术提供方来倒逼它一把,Qwen 的主动适配,也能让苹果知道这有个 " 即插即用 " 的合作伙伴,在这随时等着它。
国行版的 Apple Intelligence,还在继续。