关于ZAKER Skills 合作
格隆汇 51分钟前

当 AI 进入推理竞速期,拆解联想集团的全线增长逻辑

文 / 罗茜

4 月中下旬,AI 产业的焦点发生转移:市场目光从单纯比拼训练集群规模,转向严格考核推理成本、系统效率和回报周期。

4 月 16 日,阿斯麦 ( ASML ) 和台积电 ( TSMC ) 先后上调全年预期,TSMC 还提高了资本开支。至此,今年 AI 基础设施的资本支出可能超过 8000 亿美元;其中,微软、Meta、亚马逊和 Alphabet 全年资本支出超过 6300 亿美元。钱还在继续投,但买方和投资人关注的指标已经变了,重点落到吞吐、时延、能耗和单次推理成本上。

这个变化,首先体现在产业订单上。4 月 14 日,Meta 把与博通 ( Broadcom ) 的定制 AI 芯片合作延长到 2029 年,首阶段承诺超过 1GW 算力,后续多代 MTIA 芯片明确面向推理。Broadcom 除了提供定制芯片,也会提供以太网互连。对头部云厂商来说,采购逻辑正在从抢通用 GPU 产能,扩大到自研芯片、网络和整机系统的组合。

正如联想集团董事长兼 CEO 杨元庆所指出的,AI 将从训练逐步转至推理。训练仍然重要,但推理已成为新增投入最密集的方向之一。

CPU 因此重新回到市场讨论中心。

4 月 20 日,投行 Morgan Stanley 在最新研报中判断,随着 AI 从内容生成转向自主执行,数据中心的计算瓶颈正向 CPU 和内存移动。该行预计,到 2030 年,agentic AI 有望给一个规模已超过 1000 亿美元的数据中心 CPU 市场,新增 325 亿至 600 亿美元需求。GPU 需求仍然强劲,但市场正在重新给 CPU、内存和系统控制层定价。

4 月 9 日,英特尔与 Google 扩大合作,也验证了这一趋势。Google 将继续在推理和通用计算场景部署 Xeon 处理器,并与英特尔共同开发基础设施处理器 IPU。英特尔的表述很直接:现代 AI 系统需要的是平衡系统,CPU 和 IPU 负责支撑性能、效率与灵活性。这意味着,AI 基础设施的价值分配,正在从单颗加速卡扩展到 CPU、网络、存储、液冷和软件调度。

对联想集团而言,整机系统价值的提升,是比单一芯片行情更直接的利好。进入推理阶段,进入推理阶段后,客户采购更看重总拥有成本、落地速度、能效与数据安全。系统越复杂,整机厂和方案商的行业位置越稳固。

已经可以从财务数据上验证,AI 业务成为了联想集团的重要增长引擎。2026 年 4 月 1 日,联想集团宣布,新财年将是混合式 AI 战略集中兑现的一年。杨元庆指出,今年前三财季全部创下历史同期新高,营收同比提升 670 亿元,同比增长 18%,调整后净利润超过 100 亿元,增速达 28%。以此判断,公司全年营收势必刷新历史纪录,有望达到 5600 亿元。公司 CFO 郑孝明则进一步指出,两年后将实现净利率翻倍至 5% 的目标。

联想集团股价应声上涨。截至 4 月 17 日,联想集团股价重新站上 11 港元关口,周内逆势大涨逾 12%,跑赢恒生指数约 10.7 个百分点。

TurboQuant 横空出世

内存涨价仍是今年初最现实的压力之一。2 月,集邦咨询 ( TrendForce ) 将一季度常规 DRAM 合约价涨幅预期从 55% 至 60% 上调至 90% 至 95%。AI 基础设施建设已吸收大量内存供给,智能手机、PC 和游戏机出货因此面临压力,IDC 预计 2026 年全球 PC 市场将下滑至少 4.9%。

但从 3 月下旬开始,新的迹象出现了。

当时,Google Research 发布 TurboQuant。这是一种无需训练或微调的 KV cache 压缩算法,可将 KV cache 量化至 3 bit,在公开测试中未见准确率损失,并将 KV cache 内存占用压缩至少 6 倍,在 H100 上实现最高 8 倍的注意力分数计算提速。这一技术瞬间撼动科技市场,三星电子、SK 海力士、美光等内存股迅速下跌,市场担忧 AI 硬件需求将因效率提升而放缓。

但分析师们的结论并不悲观。他们认为,TurboQuant 这类压缩技术,会加速 AI 采用,最终对内存需求形成正向催化,更低成本会把 AI 从高价实验拉向更大规模部署。TurboQuant 影响的是推理阶段的 KV cache,而不是训练本身,也不是总硬件需求被简单砍掉 5/6,它本质上是提高单 GPU 产出、降低单次成本,并可能带来更长上下文、更大 batch、更高查询量。TurboQuant 并不是内存产业的末日场景,需求不会因此退化。

正如 Morgan Stanley 亚洲科技研究主管 Shawn Kim 所指出的,TurboQuant 直击成本曲线,降低每 token 成本,这将推动更密集 AI 应用和更大上下文窗口,最终扩大整体硬件需求。

这意味着,谁能把更便宜的推理变成企业可部署、可运维、可计量回报的产品,谁就更可能受益。这,恰恰是联想集团成功卡位之处。

这种底层的重大技术进步具有极强的验证意味,它完美印证了联想集团此前的长期战略眼光。联想高层一直坚定不移地押注混合式 AI 战略,他们坚信:计算资源终将从昂贵的云端数据中心,大举走向边缘计算节点和海量的个人终端设备,推理阶段的市场规模将远大于早期的训练阶段。

目前,联想集团的业务架构已经完整覆盖了整个产业链,底层算法效率的提升犹如一剂强心针,让联想的前期投资迎来了丰厚的收获期。

推理降本的全线增长

通过多年来极其成熟的全球供应链管理,联想集团在存储暴涨的周期中,仍能维持较高的运营利润率。推理降本,成为联想集团对冲内存涨价的新的抓手。

联想集团在 GTC 2026 推出的 Hybrid AI Advantage ( 混合式 AI 优势集 ) 方案,能将本地部署的投资回报率 ( ROI ) 压缩到六个月以内,单 token 成本最高较同类公有云基础设施即服务 ( IaaS ) 低 8 倍,其 ThinkSystem 和 ThinkEdge 新方案均直接切入推理场景。

基础设施方案业务集团 ( ISG ) 是联想集团最直接的受益板块。财报显示,ISG 第三财季收入 52 亿美元,同比增长 31%;AI 基础设施收入增长 59%;Neptune 液冷收入增长 300%;AI 服务器业务管线达到 155 亿美元。公司高管多次承诺,2025/26 财年第四财季将扭亏为盈,并实现持续性盈利。这么说的底气在于,推理需求扩大后,液冷、高密度部署和企业级交付 , 开始带来新的利润来源。

更大的亮点来自一笔近两年的跨国并购落地。北京时间 4 月 10 日,联想集团宣布完成对 Infinidat 的收购。这笔交易将扩展联想的企业级存储产品组合,增强其交付高韧性、智能化、面向 AI 的数据基础设施能力。Infinidat 是高端存储的 " 明珠 ",长期服务金融、医疗、电信和公共部门等高要求行业,近四分之一客户来自世界顶级 50 强。

推理时代的存储价值,过去容易被低估。训练侧投入强调算力峰值,推理侧更看数据读写、持续稳定性、恢复能力和合规。客户把 AI 从试验推向生产,预算会自然流向服务器、存储、网络、液冷和运维。联想官方在并购公告中提到,Infinidat 的能力将与联想的全球覆盖和完整基础设施组合结合,支持数据密集型应用、分析和下一代企业工作负载。这正好补上了联想在高端存储的一块短板,也让 ISG 在推理时代的整机方案更完整。

方案服务业务集团 ( SSG ) 对应的是另一段增长。据第三财季数据,SSG 收入 27 亿美元,同比增长 18%,运营利润率 22.5%;托管服务收入增长 22%,项目与解决方案收入增长 16%,两者合计收入占比已达 59.9%。财报还提到,制造、零售、体育、交通和智慧城市等行业的 AI 方案增长加快。推理工作负载一旦大规模上线,SSG 的服务收入会比硬件更稳定,也更接近利润中心。

智能设备业务集团 ( IDG ) 一直是联想最稳固的核心基本盘,这里的逻辑更像一条慢慢清晰的终端主线:在此之前,端侧大模型对设备的物理内存要求极高,这导致早期的 AI PC 制造成本和售价都居高不下。随着推理成本下降,市面上普通的 16GB 内存轻薄办公电脑,也有可能胜任复杂的本地推理任务。

此次,联想集团押注的不是又一轮传统 PC 换机,而是一种 " 给 AI 用的电脑 ",这是一种全新的品类。3 月 31 日,联想集团正式推出两款 " 龙虾终端 ":YOGA AI Mini 和 Think AI Tiny,搭载 AI 原生操作系统 DingOS,支持 OpenClaw 一键部署,内置安全防护机制。其中,Yoga AI Mini 聚焦个人消费市场,Think AI Tiny 切入企业办公场景,二者联袂直击当下 OpenClaw " 龙虾热潮 " 背后的行业痛点,精准覆盖了个人与企业边缘计算的增量市场,进一步打开了 IDG 的总潜在市场规模,也有望成为联想集团利润增长的第二曲线。

相关标签

相关阅读

最新评论

没有更多评论了

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容