关于ZAKER 合作
36氪 13小时前

辛顿、闫俊杰 WAIC 完整演讲:一个预警,一个拥抱

文|王方玉

编辑|苏建勋

7 月 26 号,世界人工智能大会 WAIC 的开幕主论坛上,多位 AI 行业的顶级大咖出席并发表演讲,为与会者烹饪了一道学术大餐。

" 深度学习教父 "、图灵奖、诺贝尔奖得主杰弗里 · 辛顿(Geoffrey Hinton)是最受关注的演讲者,他真人出席,发表了名为《数字智能是否会取代生物智能?》的演讲。这也是他在中国的首次公开演讲。

大会前夕,辛顿和全球 20 位人工智能领域的顶级专家,刚刚在上海签完人工智能安全的 " 上海共识 "。他的大会发言,同样也围绕人工智能安全为核心。

辛顿首先回顾了从早期模型到现代大语言模型的发展历程,并指出大语言模型已经实现了对语言理解的深度模仿,这与人类理解语言的方式是相似的。

但不同的是,AI 系统具有 " 永生性 ",且机器之间知识的复制可以在极大规模下进行,实现指数级的知识转移。因此 AI 的能力正在快速增长。

他由此提出疑问,如果未来 AI 比人更智能会怎么样?" 如果 AI 足够聪明,它会通过操纵人类、获得控制权等方式来避免被关闭。"

因此,辛顿警示了人工智能超越人类智能的可能性及其带来的风险。" 从长远来看,这是人类面临的最重要问题之一。"

辛顿提醒,AI 可能发展出比人类更高级的智能,这将改变人类作为最智能生物的地位。AI 智能体可能追求生存和控制力,这可能导致它们操纵人类,就像成年人操纵三岁孩童一样。因此,人类必须找到方法来训练 AI,确保其不会对人类构成威胁。

与辛顿的发言主题不同,作为 AI 创业者,MINIMAX 创始人、首席执行官闫俊杰的发言更多围绕 AI 大模型的实践和落地,主题是《每个人的人工智能》。

闫俊杰以 AI 在数据分析、信息追踪、创意设计及视频制作等方面的高效应用举例,指出了人工智能不仅是一种强大的生产力,也是对个人能力和社会能力的一个持续增强,并且未来 AI 大模型成本将越来越低,能力越来越强。

他判断,AI 大模型不会被一家或者多家组织垄断。未来 AGI 一定会实现,并且将会是服务大众、普惠大众的一件事。

" 如果有一天 AGI 实现了,我认为实现过程一定是需要 AI 公司和它的用户一起来实现的。并且 AI 模型或者 AGI(的所有权)应该属于 AI 公司和它的广泛用户,而不是只属于单个组织某家公司。"

以下是经智能涌现编辑的嘉宾发言实录:

诺贝尔奖、图灵奖得主、多伦多大学计算机科学名誉教授 Geoffrey Hinton: 数字智能是否会取代生物智能?

从大约 60 年前开始,AI 就发展出了两种不同的范式。一种是「符号主义」路径,强调逻辑推理的能力。我们通过规则操作符号来进行推理,这种方式可以帮助我们理解知识是如何被表达与处理的。这类 AI 模型的基础是对符号的处理,被认为更符合逻辑智能的本质。

另一种路径则以生物智能为基础,是图灵与冯 · 诺依曼更倾向相信的方式。他们认为智能的本质在于从神经连接中学习,在于速度、结构和连接模式的改变。这种「连接主义」强调的是学习与适应,而非显式的逻辑规则。

1985 年,我曾构建过一个非常小的模型,试图将这两种理论结合起来。我的想法是:每一个词都可以由多个特征(features)表示,而这些特征之间可以被用来预测下一个词。这个模型不存储完整的句子,而是通过生成语言来学习词汇之间的关系。

这种方式强调语言中的「语义特征」——也就是说,我们并不是仅仅靠规则,而是通过「理解」词汇的语义来进行预测。这为后来计算语言学界接受特征表示打下了基础。二十年后,这种思想得到了进一步发展,例如被用于构建更大规模的自然语言处理系统。

如果问未来 30 年会发生什么,从发展轨迹能看到一些趋势。十年后,有人沿用这种建模模式,但将规模大幅扩大,使其成为自然语言的真实模拟。20 年后,计算语言学家开始接受用特征向量嵌入来表达语义。又过了 30 年,谷歌发明了 Transformer,OpenAI 的研究人员也向人们展示了它的能力。

所以我认为,如今的大语言模型就是我当年微型语言模型的 " 后代 "。它们使用更多词作为输入,采用更多层的神经元结构,由于需要处理大量模糊数字,学习特征之间也建立了更复杂的交互模式。但和我做的小模型一样,大语言模型理解语言的方式与人类相似——基本逻辑是将语言转化为特征,再以完美的方式整合这些特征,这正是大语言模型各层级所做的工作。因此我认为,大语言模型和人类理解语言的方式相同。

用乐高积木来打比方或许能更好地解释 " 理解一句话 " 的含义。符号型 AI 是将内容转化为清晰的符号,但人类并非如此理解。乐高积木能拼出任何 3D 造型,比如小车模型。如果把每个词看作多维度的乐高积木(可能有几千个维度),语言就成了一种建模工具,能随时与人沟通,只要给这些 " 积木 " 命名——每个 " 积木 " 就是一个词。

不过,词和乐高积木有很多不同:词的符号形态可根据情况调整,而乐高积木造型固定;乐高积木的拼接是固定的(比如正方形积木插入正方形孔洞),但语言中每个词仿佛有多个 " 手臂 ",要通过合适的 " 握手 " 方式与其他词互动,词的 " 造型 " 变化," 握手 " 方式也会改变。

当一个词的 " 造型 "(即意思)改变,它与下一个词的 " 握手 " 方式就会不同,进而产生新的含义。这就是人脑或神经网络理解语义的根本逻辑,类似蛋白质通过氨基酸的不同组合形成有意义的结构。

所以我认为,人类理解语言的方式与大语言模型几乎一致,人类甚至可能和大语言模型一样产生 " 幻觉 ",因为我们也会创造出一些虚构的表达。

图源:企业授权

软件中的知识是永恒的,即便存储 LLM 的硬件被摧毁,只要软件存在,就能随时 " 复活 "。但要实现这种 " 永生 ",晶体管需在高功率下运行以产生可靠的二进制行为,这个过程成本很高,且无法利用硬件中不稳定的类似特性——它们是模拟型的,每次计算结果都不同。人脑也是模拟型而非数字型的,神经元每次激发的过程都一样,但每个人的神经元连接方式不同,我无法将自己的神经结构转移到他人脑中,这就导致知识在人脑间的传播效率远低于在硬件中的传播。

软件与硬件无关,因此能 " 永生 ",还能带来低功耗优势——人脑只需 30 瓦特就能运转。我们的神经元连接达数万亿个,无需花费大量资金制造完全相同的硬件。但问题在于,模拟模型间的知识转移效率极低,我无法直接将脑中的知识展示给他人。

Deepseek 的做法是将大神经网络的知识转移到小神经网络中,即 " 蒸馏 ",类似教师与学生的关系:教师将词语在上下文中的关联教给学生,学生通过调整权重学会表达。但这种方式效率很低,一句话通常只有 100 个比特的信息,即便全被理解,每秒最多也只能传递约 100 个比特。

而数字智能间的知识转移效率极高,同一神经网络软件的多个拷贝在不同硬件上运行时,能通过平均化比特的方式分享知识。如果智能体在现实世界中运行,这种优势更明显——它们能不断加速、拷贝,多个智能体比单个智能体学得更多,还能分享权重,这是模拟硬件或软件做不到的。

生物计算功耗低,但知识分享难。如果能源和计算成本低廉,情况会好很多,但这也让我感到担忧——几乎所有专家都认为,我们会创造出比人类更智能的 AI。人类习惯了作为最智能的生物,很难想象 AI 超越人类的场景。其实可以换个角度:就像养鸡场的鸡无法理解人类一样,我们创造的 AI 智能体已能帮我们完成任务,它们能拷贝自身、评估子目标,还会为了生存和完成目标而寻求更多控制权。

有人认为可以在 AI 变得过强时关掉它们,但这并不现实。它们可能会像成年人操纵 3 岁孩子一样操纵人类,劝说控制机器的人不要关闭它们。这就像把老虎当宠物,幼虎很可爱,但长大后可能伤人,而养老虎当宠物通常不是好主意。

面对 AI,我们只有两个选择:要么训练它永远不伤害人类,要么 " 消灭 " 它。但 AI 在医疗、教育、气候变化、新材料等领域作用巨大,能提升所有行业的效率,我们无法消除它——即便一个国家放弃 AI,其他国家也不会。因此,若想让人类生存,必须找到训练 AI 不伤害人类的方法。

我个人认为,各国在网络攻击、致命武器、虚假信息操纵等领域的合作难度较大,因利益和看法不同。但在 " 人类掌控世界 " 这一目标上,各国存在共识:若有国家找到防止 AI 操控世界的方法,一定会愿意分享。因此我提议,全球主要国家或 AI 大国应建立一个由 AI 安全机构组成的国际社群,研究如何训练高智能 AI 向善——这与训练 AI 变得聪明的技术不同。各国可在自身主权范围内研究,再分享成果。尽管目前还不知道具体怎么做,但这是人类长期面临的最重要问题,且所有国家都能在此领域合作。

MINIMAX 创始人、首席执行 闫俊杰: 每个人的人工智能

大家好,我给大家分享的题目是《每个人的 AI,Everyone ’ s AI》。讲这个题目,跟我个人过去经历有关。当 Hinton 先生开始设计 AlexNet 之时,我是国内第一批从事深度学习研究的博士生;当 AlphaGo 人机大战上演,也是人工智能走进所有人视野之时,我在参与一家创业公司;而当 ChatGPT 出来的前一年,我们开始创立 MiniMax,也是国内第一批大模型公司。

在过去的 15 年里,当我每天面对任务写代码,看论文做实验的时候,一直都在想一件事:如此受关注的人工智能到底是什么?人工智能跟这个社会到底有什么样的联系?

随着我们模型变得越来越好,我们发现人工智能正逐步成为社会的生产力。比如,我们在做人工智能研究的时候,每天需要分析大量的数据,一开始我们需要来写一些软件来分析这些数据,后续我们发现其实可以让 AI 来生成一个软件,来帮助分析所有数据。作为一个研究员,我非常关心每天 AI 领域的所有进展,一开始我们设想,是不是可以做一款 APP,来帮我们追踪各领域的进展?后面我们发现,这件事也不需要自己来做,让一个 AI Agent 来自动跟踪更加高效。

AI 是更强的生产力,也是越来越强的创意。比如,15 年前上海举办世博会的时候,有一个非常火爆的吉祥物叫 " 海宝 "。过去 15 年,上海有了全方位的发展,我们如果想继续用 " 海宝 "IP 生成一系列更具上海特色,符合时下潮流的衍生形象时,AI 可以做得更好。正如现场屏幕展示的,徐汇书院 × 海宝、武康大楼 × 海宝,AI 能一键直出,帮我们生成各种各样的创意形象。

再比如最近非常火的 Labubu,此前制作一个 Labubu 创意视频,可能需要两个月,花费大约几十甚至百万人民币。通过越来越强的 AI 视频模型,像大屏幕右边展示的 Labubu 视频,基本一天时间就可以生成出来,成本只有几百块钱。

过去六个月,我们的视频模型海螺(Hailuo)已经在全世界生成超过 3 亿个视频。通过高质量的 AI 模型,互联网上的大部分内容与创意会变得越来越普及,低门槛让每个人的创意得以充分发挥。

除了释放生产力与创意之外,我们发现,AI 的使用其实已经超出最初的的设计与预期,各种各样想象不到的应用场景正在发生;比如解析一个古文字、模拟一次飞行、设计一个天文望远镜……这样意想不到的场景,随着模型能力越来越强,变得越来越可行;仅仅需要少量协作,就可以增强每个人的创意。

面对这么多变化,一个想法开始在我的心里涌现出来:作为一个 AI 创业者,AI 公司并不是重新复制一个互联网公司,AI 是一个更基础更根本的生产力,是对个人能力和社会能力的持续增强。这里有两点比较关键:第一、AI 是一种能力,第二是 AI 是可持续的。

人类很难突破生物定律,永不停歇学习新知识,持续变聪明,而 AI 可以。当我们在建造更好的 AI 模型时,我们也发现,AI 也在和我们人类一起进步,一起做出来更好的 AI。就在我们公司内部,员工每天需要写很多代码,做很多研究型实验,这里边大概有 70% 的代码是 AI 来写,90% 数据分析是靠 AI 来做。

AI 怎么能变得越来越专业?大约在一年前,当时训练模型还需要大量的基础标注工作,标注员是一个不可或缺的工种。而今年,当 AI 能力变得越来越强的时候,大量机械的标注工作被专业 AI 完成,标注员则可以专注于更有价值的专家型工作,一起帮助模型变得更好。标注工作也不再是简单给 AI 一个答案,而是教会 AI 思考的过程,让 AI 来学习人类的思考过程,从而使 AI 能力变得更加泛化,越来越接近人类顶尖专家的水平。

除了通过专家来教 AI 之外,还有另外一种进步,就是在环境中大量学习。在过去半年,通过各种环境,从编程 IDE,到 Agent 环境,再到游戏沙盒,当我们把 AI 放到一个能够持续提供可验证的奖励环境中学习,只要这个环境可以被定义出来,有明确的奖励信号,AI 就可以把问题给解决。这个强化学习也变得可持续,规模越来越大。

基于上面的原因,我们非常确定 AI 会越来越强,并且可能是无止境地强。

接下来出现的问题是,AI 这么强,对社会的影响越来越大,那么 AI 到底会不会被垄断?它是会被掌握在一家组织里,还是掌握在多家组织里呢?

我们认为,AI 领域一定会有多个玩家持续存在。原因有三点:第一,我们目前用到的所有模型,都依赖对齐(Model Alignment)。很明显,不同模型的对齐目标其实是不一样的,比如有的模型对齐目标是一个靠谱的程序员,那么做 Agent 就会特别的强;有的模型它对齐目标是与人的交互,那么它就会比较有情商,能够做流畅的对话;有的模型可能会充满想象力。不同的对齐目标反映了不同公司或者组织的价值观,这些价值观最终会导致模型的表现非常不一样,也会使得不同的模型拥有各自的特点,并且长期存在。

第二,我们在最近半年用的 AI 系统其实都已经不是单个模型了,而是一个多 Agent 系统,里面涉及多个模型,不同的模型也可以使用不同的工具,通过这样的方式让 AI 智能水平越来越高,能够解决越来越复杂的问题。这个东西带来的结果是,单一模型的优势在这样一个多 Agent 系统里逐渐变弱。

第三,在过去半年,有很多非常智能的系统,都不是大公司所拥有的。背后的原因,是过去一年开源模型如雨后春笋般涌现,开源模型变得越来越有影响力。这张图是过去一年比较受关注 AI 的排行榜,可以发现最好的模型还是闭源的,但最好的开源模型越来越多,同时也在不断逼近最好的闭源模型。

基于这三点原因,我们认为,AI 一定会被掌握在多家公司的手中。

与此同时,我们认为 AI 一定会变得越来越普惠,使用成本也会变得更加可控。

在过去一年半,AI 模型的大小没有发生特别大的变化,即便我们可使用算力更多了。为什么呢?对所有实用模型而言,计算速度是一个比较关键的因素。如果模型计算速度特别慢,就会降低用户的使用意愿,所以所有公司都关注模型的参数量和智能水平之间的平衡。

此前,模型大小增长和芯片的进步速度基本上是成正比的。我们知道芯片的进步速度是每 18 个月会翻一倍,模型也会相应保持这样的增长趋势。而现在,虽然大家都有更多的算力了,模型参数却没有变得更大。那这些增长的算力花在哪呢?

首先说训练,规模增长的速度在过去半年已经变得比较缓慢,训练单个模型的成本实际上却没有显著增加。这些算力花在做更多的研究跟探索上。而我们知道研究和探索,除了取决于算力之外,还取决于高效的整体实验设计,高效的研发团队,以及一些天才的创意。结果是,拥有非常多算力的公司和没拥有那么多算力的公司,在训练上其实的差异可能不会那么大。没有那么多算力的公司,可以通过持续提升自己的实验设计、提升思考能力和组织形式,让实验探索变得更加高效。

再说推理,在过去一年,最好模型的推理成本其实是降了一个数量级,通过大量的计算网络系统和优化算法,我们认为在接下来一两年之内,最好模型的推理成本可能还能再降低一个数量级。总结而言,我们认为训练单个模型的成本不会显著地增加。

我们认为,大量创新能让 AI 研发变成一个没有那么烧钱的行业,但是算力使用还会增加。尽管 Token 会变得很便宜,但是使用 Token 的数量会显著增加。去年 ChatBot 单个对话只要消耗几千个 Token,现在 Agent 单个对话可能消耗几百万个 Token,并且因为 AI 解决的问题越来越复杂,越来越实用,那么用的人也会越来越多。

让每个人都用得起 AI,这是我们对 AI 发展的判断。Intelligence with Everyone,这也是我们创业的初衷。我们认为 AGI 一定会实现,并且一定会服务大众、普惠大众。

如果有一天 AGI 实现了,其过程一定是由 AI 公司和它的用户一起来实现,并且这个 AGI 应该属于多家 AI 公司和它的广泛用户,而不是只属于单个组织某家公司。

我们也愿意长期为这个目标而奋斗。感谢大家!

36氪

36氪

让创业更简单

订阅

觉得文章不错,微信扫描分享好友

扫码分享