2 月 14 日,大模型云服务商硅基流动(SilliconFlow)宣布联合北京昇腾人工智能计算中心,全面支持基于昇腾算力的 DeepSeek 系列模型的私有化集群部署。
此前,硅基流动大模型云服务平台 SiliconCloud 首发上线了基于昇腾算力的满血版 DeepSeek R1/V3 模型,率先走通了在国产芯片部署 DeepSeek 模型的路径。
时间倒回至春节假期的 2 月 1 日,华为云宣布联合硅基流动推出基于昇腾云服务的 DeepSeek R1/V3 推理服务。彼时,华为云、硅基流动的官方公众号相隔一分钟官宣,标题均突出 " 首发 " 二字,内文用 " 连日攻坚 " 概括了团队的努力。
首发
硅基流动创始人袁进辉曾总结,硅基流动的技术核心是提供一个推理引擎,主要向企业提供高性能 LLM 推理和训练解决方案 , 帮助企业高效地部署 AI 应用。DeepSeek V3 是震惊全球科技圈的开源、推理大模型,硅基流动与之适配提供服务尤其对口。
在 DeepSeek V3 大模型发布前,DeepSeek 创始人梁文锋就曾问袁进辉,硅基流动要不要部署?彼时,梁文锋甚至给出了建议:最少 20 台 H800(英伟达 GPU 芯片),80 台最好,10 台也可以,就是有点慢。
袁进辉算了一笔账:一个月 80 台服务器的净花费就得五六百万," 还不一定能用满,风险太大了 "。他没有下注。
看到 DeepSeek 创造一个又一个奇迹,袁进辉焦急且苦于没有充沛的算力资源,直到一位同事突发奇想," 国产卡多,用国产卡吧 "。
硅基流动向华为云主动提出了合作想法。
华为采用自研的达芬奇架构,开发了昇腾 910 和昇腾 310 两款 AI 处理器芯片,而华为云又上线了昇腾 AI 云服务,至今约一年半时间,面向企业提供一键接入获取 AI 算力的服务。
华为昇腾 AI 云服务有一个 " 百模千态 " 专区,其中除了华为自家的盘古大模型外,还能适配业界主流的上百个开源大模型,从而支撑企业和开发者更快速地创建自己的大模型应用。
开源的 DeepSeek 何其火爆,接入想法让硅基流动和华为云一拍即合。华为云负责调配算力资源,硅基流动负责让模型在 GPU 上可以运行并具备问答能力,同时确保模型运行稳定、不损失精度,且运行速度尽可能快。
2025 年春节,硅基流动团队和华为云各业务团队几乎无休,DeepSeek 团队也在全程提供了很多经验。
2 月 1 日凌晨 1 点多,距离官宣基于华为昇腾的 DeepSeek R1/V3 推理服务上线还有 10 个多小时,硅基流动的一位高管发了一条朋友圈:平台接入了 DeepSeek 系列模型,且 API 服务价格与 DeepSeek 官网同价。
2 月 1 日当天," 硅基流动 " 的微信指数从过去的几乎为 0 环比飙升了 8831.35%。当时,硅基流动是 DeepSeek 官方之外,第一个提供基于国产芯片的 671B 满血模型 MaaS 云服务的平台。
趁着热度,硅基流动也发布了一波招聘计划,其中开放的视觉生成推理引擎工程师、异构硬件适配工程师、交付研发工程师等全职岗位有 15 个,还有与生成式 AI 相关的算法、平台前端、平台后端等方向的实习工程师职位 8 个。
API 服务竞争暗涌
" 要考虑并发,以及后续并发是否有限制。" 一位与华为云合作接入 DeepSeek-R1 的 AI 应用厂商负责人称,这是所有要接入的平台企业或者应用产品都会考虑的事情,背后的难题主要由华为云方面在解决。
布局 DeepSeek API 服务,不只是腾讯、阿里、百度等巨头争抢的生意,不少模型创新企业也参与其中。
提供模型云服务的供应商虽多,但上述硅基流动高管看到,已经有模型测试相关人士给用户提供了一些判断的依据,比如供应商提供的是否为原版的 671B 参数规模?供应商提供服务的上下文窗口(语言模型在进行预测或生成文本时,所考虑的前一个词元即 Token 或文本片段的大小范围)大小是否为正常的 64K+?最后还有 AI 辅助编程请求的通过情况,供应商对 AI 模型技术的应用是否受 TPM(设备管理,一般在 10W 台以上)的限制。
陈天楚在浙江大学 ARClab 负责大模型相关研究,他看到,接入 DeepSeek 的各个云厂商,面向的客户、官宣的成本控制和定价计划有区别。例如,有的厂商提供满血版,有的则是量化压缩版,还有提供蒸馏后的小模型。
陈天楚认为,除了提供标准化的模型 API 服务外,云厂商间的较量主要集中在能否提供个性化服务。像硅基流动就在上线 671B 的 DeepSeek V3/R1 旗舰模型后,又上线了 6 款 DeepSeek R1 蒸馏版模型,其中的 8B、7B、1.5B 模型免费,企业或个人用户、开发者使用模型或基于模型开发 AI 应用时,能直接调用硅基流动的 SiliconCloud 平台上的 API,简单易用。
截至 2 月 13 日,有来自模型测试人士的结果反馈,在提供 DeepSeek API 服务的主流供应商中,和华为云深度合作的硅基流动,其 AI 服务响应的推理、生成以及平均速度,不仅优于承载压力过大的 DeepSeek 官方,更与腾讯云、阿里云等厂商拉开了距离。
"+DeepSeek" 效果待定
得益于春节假期的突击作战,年后上班第一天(2 月 5 日),华为推出了基于原生鸿蒙操作系统的小艺助手 App,既接入了 DeepSeek 模型推理能力,还在 " 智能体 " 选项中上架了 DeepSeek-R1 的 Beta 版。
短短 5 天后,华为智能手机纯血鸿蒙版小艺 App 的 DeepSeek-R1 智能体升级为正式版,新增 " 联网搜索 " 功能,知识库变得更丰富,时效性也更强。
2 月 13 日,记者在广州一家华为手机线下销售门店体验。所有更新为纯血鸿蒙系统的手机上,小艺从过去在系统内可被唤醒的智慧语音助手服务,变成一个独立的应用产品。进入小艺 App,便可以与 " 她 " 问答对话,也能在第三方智能体中直接点击 DeepSeek-R1,进入深度思考对话,不用下载第三方 App。
华为拥有自研的盘古 AI 大模型,小艺就是通过盘古大模型训练出来的。纯血鸿蒙中的小艺,在成为一个独立应用后,其使用界面中有突出 DeepSeek 的方面。
记者看到,门店销售人员手中的参考资料上,除了有 " 怎么说 "" 怎么做 " 来体验小艺,还有盘古大模型区别普通数据模型的一些对比,会强调盘古大模型拥有扎根中文的独特优势。对 DeepSeek,材料并未提及。
上述 AI 应用厂商负责人在接受经济观察网记者采访时,给出了产品接入 DeepSeek 模型能力后关键指标的变化。
" 大模型幻觉变少,任务成功率变高。" 该负责人透露,其团队在用 DeepSeek 的模型执行某项任务时,失败率基本为 0。接入这一明星大模型后,模型幻觉有所减少,但他指出,大模型幻觉作为共性问题,仍有待解决。
其实,该负责人所在的 AI 企业也有巨额投入创新自研的通用大模型以及针对行业应用的专属大模型。他告诉记者,目前业内集体涌向 DeepSeek,普遍做法并非是用 DeepSeek 系列模型与自身现有模型融合,而是用 DeepSeek 的模型来开拓新的应用场景。
这位负责人与陈天楚有共识,DeepSeek 是推理模型,实效性并非其的优势,但却可以通过模型云服务商等 AI 基础设施赋能。
一位平台高管跟很多主流大模型厂商讨论过智能体在各个硬件终端上打通的问题,在她看来,这也是 DeepSeek 未来技术落地以及当前业内 "+DeepSeek" 风潮后的发展方向," 每个硬件都可能成为智能体的入口,通过执行人类的任务来训练专属个人的智能体 "。
为什么是硅基流动
硅基流动创始人袁进辉是一名连续创业者,他在 2017 年成立的一流科技(OneFlow),在国内 2023 年涌起 AI 大模型风潮后,估值一度超数亿美元。
同年,美团联合创始人王慧文创业了大模型公司光年之外,他提出通过并购 OneFlow 的方式,邀请袁进辉加入光年之外成为联合创始人。光年之外后被美团收购,袁进辉在 2023 年 8 月宣布回归到 AI 基础设施领域继续创业,创立了硅基流动。
硅基即芯片,而流动有软件之意,这一名称也与袁进辉此前创立的一流科技形成呼应,让芯片的算力在软件基础上跑起来。
加速 AGI 普惠人类,是硅基流动官方公众号上的简介,袁进辉不止一次在公开场合表示,其目标是为广大的开发者提供基于 AI 模型进行应用创新的关键 " 铲子 ",让开发者实现 Token 自由。
硅基流动去年年中推出 SiliconCloud 后,不仅日均调用量超千亿 Token,针对多个主流模型的服务还提出了永久免费。
" 面向 C 端用户的大模型 App,以后都全面免费了。" 袁进辉 2 月 14 日表示,国内模型厂商很难对 C 端用户收取订阅费,多是厂商自己负担算力成本。
在袁进辉看来,模型厂商只有获取用户后才有办法去变现。
数据显示,DeepSeek 的应用访问使用量正呈现指数级上升,成为目前最快突破 3000 万日活跃用户量的应用程序。