关于ZAKER 合作
雷科技 18分钟前

生成式 AI 进入下一阶段,高通在 MWC 上海指出 AI 发展新趋势

6 月 18 日,GSMA 2025 MWC 上海正式拉开帷幕。本届为期三天的盛会在上海新国际博览中心(SNIEC)举行,汇聚约 400 位演讲嘉宾与思想领袖,带来主旨演讲、峰会论坛及前沿技术展示等精彩内容。今年大会围绕四大核心主题展开:5G 融合、人工智能 +、行业互联与赋能互联。

在大会首日的代理式人工智能峰会上,高通技术公司 AI/ 生成式 AI 产品管理副总裁 Vinesh Sukumar 博士指出,AI 发展正在进入全新阶段,AI 发展重心正在向边缘终端转移。当前,AI 正在向智能体 AI 领域转型,高通相信 AI 将成为新的 UI,并覆盖广泛终端。与此同时,为实现这一愿景,高通公司已经构建了覆盖广泛边缘终端的硬件和软件技术,为智能体 AI 体验在终端侧的发展打造了坚实基础。

以下为演讲全文:

大家下午好,我是 Vinesh Sukumar。在高通,我们主要致力于在感知 AI、生成式 AI、智能体 AI 以及物理 AI(Physical AI)等领域,赋能从手机到汽车等不同终端实现激动人心的 AI 体验。今天我们要讨论生成式 AI,高通在中国和全球 AI 产业生态中扮演的重要角色,以及我们将在不久的将来推出的一些激动人心的体验。

那么首先,纵观 AI 的发展历程,早期 AI 技术主要集中在分割、检测、分类、图像增强等感知 AI 领域,这些技术为赋能智能手机体验奠定了基础。但随着时间的推移,这些体验也发生了很大的演变,类似技术也扩展到了汽车、PC 等市场,以及 XR 和工业网络等新兴领域。在这些领域中,我们都在探讨从感知数据到多模态数据的转变,多模态数据可以是文本、图像或视频形式,且全部都基于提示(prompt)生成。我们将这些技术匹配到不同的应用赛道上,从而帮助在生产力、游戏甚至内容生成领域打造全新的用户体验。而在高通,我们正在将这些知识积累应用到所有相关领域。

正如我之前提到的,高通非常重视生成式 AI 和智能体 AI。实际上我们是最早展示大模型可以完全在边缘运行的芯片平台厂商之一,早在 2023 年的 MWC 巴塞罗那上我们就演示了在端侧基于提示生成对话内容,或基于提示生成 1K x 1K 分辨率的图像。

那 AI 未来的发展方向如何呢?在高通,我们非常重视与众多的模型开发者合作,致力于推动大型基础模型向更加垂直行业或任务专用型模型转变,并助力实现边缘终端运行。这些行业专用模型可能会非常庞大,参数量可能达到 70-100 亿,我们已经开始推动这些模型在不同形态的终端上运行。

在模型领域,过去人们通常认为更大的模型意味着更好的质量,但纵观大模型的发展过程,从通义千问、Meta、Google 或微软推出的模型中可以看出,小模型的质量正在快速提升并追赶大模型的能力。以模型智能指数对比为例,众多的小语言模型(SLM)已经达到了 Llama 3 700 亿参数大模型的水平。

为何边缘模型正在变得愈发重要和关键呢?它们能够在生产力或内容创作领域为用户提供丰富的体验。过去,模型会面临如何真正实现终端侧部署的挑战。针对这一挑战,高通提供了高通 AI 软件栈,能够支持模型完全在边缘平台部署。我们始终致力于为包括开发者在内的生态系统合作伙伴提供机会,让应用能够实现云端训练,并在高通平台赋能的终端上运行。

在过去的 12 到 18 个月里,我们在边缘 AI 领域实现了诸多关键用例的商业化应用。过去,高通每年赋能大约 200 到 300 个 AI 应用。在过去的 12 个月左右,我们更加重视生成式 AI 领域。在消费领域,边缘 AI 已经能够支持内容创作、照片编辑、图像修复、图像扩展等诸多应用;在企业领域,还有代码生成等更多应用。这一切都是可行的,因为我们在基础技术构建方面投入了大量精力,以确保这些应用可以在各类终端上高效运行且实现全面优化。

在过去,生成式 AI 已经带来了诸多助力,但其仅支持单一模态。现在,我们正在向所谓的智能体 AI 领域转型。我们相信,AI 将成为新的 UI(用户界面),并覆盖广泛终端。

要如何实现这一目标?首先要看我们期望打造什么样的用户体验。为此,我们致力于融合多种数据模态。这些数据模态可能基于图像、音频、文本、语音甚至视频。基于这些模态支持,我们可以理解用户意图,并匹配连接多个应用以调用 AI 处理能力,从而满足用户需求。这就催生了 AI 智能体这个概念。智能体 AI 侧重于解读需求并采取行动,从而走向自动化。实现智能体体验颇具挑战性,但高通正在不断强化基础技术构建,为这些智能体 AI 用例筑牢根基。

我们可以推动包括娱乐、电商、礼宾服务、地图导航甚至音乐等多种领域的智能体 AI 用例发展。为了实现这些目标,需要广泛的边缘侧布局,能够理解用户需求且将其转化为恰当操作的强大软件栈。

在将用户意图转化为恰当的操作时,总会出现某一设备可能无法回答或响应用户查询(query)的情况。这时如果用户需要进行设备间通信,我们可以通过高通 AI 软件栈来实现。高通的产品覆盖广泛的边缘终端,涵盖从手机到 PC、XR 等多种产品形态,因此这对我们来说更容易。此外,凭借在这些终端上收集到的海量用户数据,我们也能更成功地解读用户意图并采取行动。

智能体 AI 在进行商用部署时也面临许多挑战,比如智能体 AI 的准确性、可预测性、一致性表现如何?它是否能够精准匹配用户需求?为此,拥有必要的软件栈支持至关重要。我们的高通 AI 软件栈非常强大,经过长期技术积累,可以支持针对特定任务的多种小语言模型。

其次,要实现更好的服务质量意味着当用户提出特定提示(prompt)时,AI 能够以最快速度响应,这需要在硬件方面大力投入。为实现这一目标,高通打造了 CPU、GPU 等通用计算单元,以及 Hexagon NPU 这样的专用加速器。

最后但同样重要的是如何实现规模化扩展,为开发者社区提供灵活性。这一关键在于提供必要的工具和软件支持,使开发者可以更轻松适应不同的环境和情况。

而我们已经为这些需求打造了技术基础设施。各位将在未来 6 个月内,看到更多来自高通公司的发布,我们将助力推出更丰富的面向消费者的应用,敬请关注。

前面我简要提到了该如何提高智能体 AI 的服务质量,我们能够做到这一点,是因为我们拥有高通 Hexagon NPU 这样的专用引擎。作为一个专用引擎,它能够支持矩阵运算、张量运算等任务,这针对需要降低续航影响的持续型用例尤为重要。

现在,随着我们向 AI 推理时代迈进,正如我一直在说的,我们总是会面临边缘平台因性能受限而无法解决用户查询(query)的问题。在这种情况下,如何确保用户体验不受影响?在高通,我们已经将边缘推理进行了跨多个终端的分布式部署。如果某些查询无法通过终端侧算力解决,我们就转而使用基于高通平台的本地边缘服务器来继续查看、理解和回答查询;如果本地边缘平台无法解决,AI 会获取用户的上下文信息,然后将任务转移到中央云子系统,根据用户的个人知识图谱来处理查询,然后给出更合理的回复。

非常感谢这次演讲机会,谢谢大家!

最新评论

没有更多评论了