关于ZAKER 合作
钛媒体 13小时前

大模型最强生态?今天有答案了

数百万大模型用户如今可以在亚马逊云科技上部署 OpenAI 的最新推理模型,这一消息引发业界震动。

8 月 6 日,OpenAI 最新发布的两款开放权重基础模型 gpt-oss-120b 与 gpt-oss-20b,首次可通过 Amazon Bedrock 和 Amazon SageMaker AI 访问,帮助客户快速构建生成式 AI 应用;与此同时,亚马逊投资的 Anthropic 最新一代 Claude Opus 4.1 和 Claude Sonnet 4 混合推理模型也刚上线 Bedrock 平台。两家 AI 领域明星级产品的落地访问,奏响了亚马逊云科技在 Agentic AI 时期的 " 双响炮 "。

目前,Amazon Bedrock 成为汇集了 OpenAI、Anthropic、DeepSeek、Meta、Mistral AI 等 13 家顶级 AI 公司大模型的部署托管平台。一个用户思维惯性也正显现:每当大模型明星产品重磅发布后,用户都能无延时地通过 Amazon Bedrock 或 SageMaker 平台调用它们。以至于有人戏称,大模型争霸赛可以直接在 Amazon Bedrock 上争了。这背后究竟有怎样的战略考量和市场逻辑?

" 选择大于一切 ",AI 巨变时代的战略定力

其实早在大模型争霸赛之前,亚马逊云科技就确定了 " 选择大于一切 " 的战略方向。

2023 年 4 月,亚马逊云科技推出 Amazon Bedrock 平台,率先打破行业对 " 单一终极 AI 模型 " 的追逐,以多样化模型奠定基础。2024 年 re:Invent 大会上,Andy Jassy 提出 "Choice Matters" 战略,其逻辑背景是,没有一款大模型能 " 包打一切 "、适应全部场景,如今这一前瞻性布局已形成包含上百款商业及开源模型的庞大生态,彰显了差异化技术路线的长期价值——随着智能体 Agentic AI 的到来,用户对具备复杂任务执行能力的多样化模型需求持续增长,多元模型选择和多模型协作将是一种趋势。

但当时大模型企业风头正劲,外界目光普遍聚焦在模型性能竞赛中。

而当狂热褪去,亚马逊云科技对市场的商业洞察在两年后得到 Gartner 的印证。Gartner 在 2025 年预测,到 2027 年将有 80% 的中国企业采用多模型策略,确保客户在云上的多模型选择权变得至关重要。

客户自由选择的前提是有的可选。" 选择大于一切 " 战略方向确立的同时,亚马逊云科技发布了模型托管平台 Amazon Bedrock。此后,Amazon Bedrock 成为每个季度亚马逊云科技财报文字描述中出现频率几乎最高的业务词组,每次出现都意味着创新进展。

当前 Amazon Bedrock 有 217 款大模型可供选择调用,回顾各大模型入驻的时间线,可以用步步为营来形容:2023 年 4 月,Anthropic 模型上线 Bedrock 平台,同时还有 AI21 Labs 模型;7 月,Meta 的 Llama 模型入驻;9 月,Stability AI 上线可用,同时亚马逊云科技自研的 Nova 系列产品上线;11 月,Cohere 入驻;2024 年 2 月,Mistral AI 入驻;2025 年 2 月,DeepSeek-R1 上线……直到眼下 OpenAI 的加入,让 " 选择大于一切 " 的战略拼图更加完整。有人戏称,现在就差谷歌的 Gemini 和马斯克的 Grok,Amazon Bedrock 就可以 " 集齐龙珠 " 了。

2024 年,来自 Gartner 的统计显示:有三分之二受访企业高管认为生成式 AI 将带来颠覆性变革,其热潮促使大量试点及概念验证(PoC)项目启动,然而仅有 41% 的项目能进入生产阶段。换句话说," 模型打榜 " 的癫狂氛围让企业纷纷一拥而上,却受困于模型选择背后的成本预算、数据的迁移与管理、实施中的 ROI 投资回报等问题,导致多一半的项目折戟。

" 选择大于一切 " 这一理念来源于亚马逊云科技强大的云服务经验。客户面对大模型选择时,需要在时延、成本、精度三个层面上找到平衡。通常,小的模型成本低、速度快,但精度也低;大的模型恰好相反。模型也不是越大越好,而是要选择适配客户业务、能带来商家价值增量的组合。

就像 OpenAI 刚开放的权重基础模型 gpt-oss-120b 和 gpt-oss-20b,OpenAI 旗下大模型主要以 GPT 和 o 系列命名,此次开源针对的是后者,而非核心 GPT。它能在高端笔记本电脑,甚至手机上运行,且性价比更高,进一步满足下沉需求。

OpenAI 针对这个 " 强大的带有推理能力的全新开放权重(open-weight)模型 " 表示,发布开源系统的原因之一是一些企业和个人更倾向于在自有计算机硬件上运行这类技术。不难看出,如果说一年前业界还热衷于对开源模型和闭源模型的模式之争,现在的热度已转向如何能够以更低成本、更便捷地为终端客户服务。

在 Amazon Bedrock 上,用户非常清楚,不仅有适合单个场景的高性价比和能力适配的模型,也能完成多模型参与场景匹配实现最佳效果。而这一最强生态中,亚马逊云科技亲自下场自研的 Nova 系列四大模型也极为关键,通过与其他优质模型适配,形成了不同使用场景下的模型组合。

例如,在复杂的翻译系统中,DeepSeek R1 和 Claude 3.7 负责处理难度大的专业翻译,Nova Lite 处理日常用语;在聊天机器人中,Nova Lite 先理解用户说什么,Claude 再负责处理复杂问题;做深度研究时,让 DeepSeek R1 和 Claude 4 专门负责推理,Claude Haiku 处理具体的函数调用……

亚马逊云科技始终坚持 " 选择大于一切 ",一方面,客户可以通过更多的选择最大化地实现业务价值;另一方面,亚马逊云科技也可以通过这一战略在生成式 AI 的市场竞争中赢得成功。这也是它区别于其他可能只提供单一模型选择的云服务提供商之处。

AI 比拼的不是冲刺速度

当模型厂商还在纠结是否开放,AWS 已经建立起了最完整的 AI 朋友圈——这意味着最强大的生态,也意味着最庞大的用户基础。

OpenAI 现已正式在 Amazon Bedrock 与 Amazon SageMaker AI 上线其开放权重模型,用户可以通过 Bedrock AgentCore 部署并运行高效 Agent 智能体;也可以在机器学习平台 SageMaker 上结合开放权重模型与完善的工具链实现模型的预训练、评估、微调与部署。目前 SageMaker 平台上大约有 185 款开源模型供选择,加上 Bedrock 平台上的 217 款商业模型,一共有大约 400 款可选。

据测算,目前在 Amazon Bedrock 上运行的 OpenAI 两个开放权重模型中的大尺寸模型,在性价比方面是同类 Gemini 模型的 3 倍、DeepSeek-R1 的 5 倍,以及 OpenAI 自家的 o4 模型的两倍。另据 OpenAI 公布,gpt-oss-120b 模型在竞赛编码、工具调用基准测试中的得分接近或超过自家闭源的 o4-mini 模型。

成本的下降是推进 AI 发展进入拐点的重要因素。斯坦福大学 2025 年人工智能报告指出,过去两年推理成本下降了约 280 倍。推理成本的极速降低使得 Agentic AI 应用的规模化部署成为可能。根据不久前亚马逊云科技中国峰会上亚马逊全球副总裁、亚马逊云科技大中华区总裁储瑞松的判断,如今正处于 AI 发展的拐点——即 Agentic AI 爆发的前夜,将从 " 我问 AI 答 "," 我说 AI 写 ",发展到 " 我说 AI 做 "。

得益于 OpenAI 的开放权重模型兼具紧凑体量与强大性能,并具备先进的推理能力,支持调节推理深度与思维链输出,可将复杂问题分解为清晰的逻辑步骤,因而非常适用于 Agent 工作流、代码生成、科学分析和数学问题求解等场景。其较小的模型甚至能在手机端应用,实现 " 口袋里的 AI"。而 Anthropic 最新一代 Claude Opus 4.1 和 Claude Sonnet 4 模型不仅能持续处理复杂的长周期任务,更能驱动 AI 智能体实现 " 数小时工作分钟级完成 " 的突破性效能。

但总体看来,生成式 AI 现在还处于非常早期的阶段。亚马逊 CEO 安迪 · 贾西在今年二季度财报分析师会议上抛出一个有关大模型部署成本 " 头重脚轻 " 的观点。他认为,现在 AI 部署成本大部分产生于模型训练阶段,也就是 " 头 " 的部分,但当市场趋于成熟、有更多用户将 AI 应用部署到生产上并形成规模化时,80%-90% 的 AI 成本将出现在推理环节。届时用户将更关注所使用的计算和硬件,更重视性价比、安全性与系统稳定。

以这个趋势判断回头去看大模型竞赛,决定 AI 竞赛最终胜负的,并非一时的冲刺速度,或者起跑时的身位,而是全面的战略耐力。现在下结论、排座次为时尚早。

亚马逊云科技从自研芯片到 AI 应用的全栈布局思路,将把握住这个趋势性的发展脉络。它针对生成式 AI 采用三层技术栈,搭建了一个完整的支持系统。在架构上,最底层是以英伟达 GPU 和自研芯片为代表的基础设施,用于模型训练及推理;中间层的核心是 Amazon Bedrock 托管服务;顶层是以 Amazon Q、Kiro 编程助手为代表的开箱即用的生成式 AI 应用工具。

以底层基础设施为例,亚马逊云科技在与英伟达紧密合作的同时,自研芯片迭代加快,其专为大规模模型训练设计的第二代 AI 芯片 Trainium2 号称 " 在性价比上比其他 GPU 供应商高出 30% 到 40%",并已成为 Anthropic 等公司新一代模型训练的支柱。这种成本优势将在客户大规模部署 AI 应用时变得至关重要。

此外,亚马逊云科技是目前稳定性排名第一的云服务商。在 Frost&Sullivan 最新报告《云服务韧性由何决定?》中,亚马逊云科技以 99.99% 的超高可用性,成为中国唯一达到 " 四个九 " 标准的云服务提供商,其稳定性较行业平均水平高出 5 倍。而 Amazon Bedrock 平台上的安全护盾 Guardrails,通过可配置安全策略可拦截高达 88% 的有害内容,提升第三方模型的使用安全性。

庞大的客户基础与生态将是最终的护城河。安迪 · 贾西提醒投资者,生成式 AI 的推理工作负载最终将像计算、存储和数据库一样,成为云服务的一个基础构建模块," 大家肯定希望把 AI 应用和现有系统放一起。今天,在 AWS 上的应用和数据,比其他所有平台加起来还多。"

亚马逊云科技是目前全球最大的云厂商,第二名的规模大约是其 65%。践行 " 选择大于一切 ",亚马逊云科技用三年时间证明了多模型战略的远见,这带来的不仅是规模效应,而且这种与客户现有 IT 架构的深度绑定的模式,将使其在 AI 应用规模化普及时拥有天然的客户黏性优势——这在 AI 竞赛新篇章中至关重要。

相关标签

觉得文章不错,微信扫描分享好友

扫码分享