图片来源:视觉中国
蓝鲸新闻 1 月 15 日讯(记者 朱俊熹)国产开源大模型再添一员强将。1 月 15 日,大模型独角兽 MiniMax 发布并开源了 MiniMax-01 全新系列模型,包含基础语言大模型和视觉多模态大模型两个模型。
据 MiniMax 介绍,其基础语言大模型 MiniMax-Text-01 在多数任务上,追平了 GPT-4o、Claude 3.5 Sonnet 这两个海外公认最先进的闭源模型。在评估模型指令遵循能力的 IFEval 和 C-SimpleQA 中文评测集中,该基础语言大模型的得分也超过了另一国产开源模型 DeepSeek-V3。
与 DeepSeek 模型类似,MiniMax 的新系列模型也对传统的 Transformer 架构进行了创新。MiniMax 称,在模型中首次大规模实现了线性注意力机制,每 8 层中有 7 个是基于 Lightning Attention 的线性注意力,有一层是传统的 SoftMax 注意力。
通俗来讲,如果比喻成要在一群人中找到最重要的那个,传统注意力需要每个人跟其他人都单独聊一遍,逐一比较所有人的重要性。而线性注意力只用查看每个人手中的名片,快速统计出哪些人持有的信息是最重要的。因此,传统注意力机制精准但计算繁重,适合短输入或复杂任务,而线性注意力以其高效更适合超长输入、需要快速处理的任务。
MiniMax 在技术报告中提到,正在研究更高效的模型架构,希望能够完全去除 SoftMax 注意机制,从而实现无限长的上下文窗口,而不会增加计算开销。
幻方量化旗下 AI 公司 DeepSeek 在 12 月底发布了 V3 开源模型,采用的是创新的多头潜在注意力机制(MLA)和 DeepSeekMoE 混合专家架构。在节省内存占用和计算资源的同时,确保资源被高效利用。DeepSeek-V3 以极低的训练成本实现了对齐领军闭源模型的性能,引发国内外科技社区热议。不仅被前 OpenAI 联创 Andrej Karpathy 赞为 " 在资源受限的情况下对研究和工程的一次令人印象深刻的展示 ",也被 OpenAI 列作中国 AI 技术快速发展的范例。
围绕线性注意力机制,MiniMax 对模型的训练和推理系统进行了重构。其模型包含 4560 亿个参数,单次推理激活 459 亿个。能够高效处理最长 400 万 token 的上下文,是 GPT-4o 的 32 倍,Claude 3.5 Sonnet 的 20 倍。在长上下文的测评集上,MiniMax-Text-01 的表现显著领先于其他开闭源模型。
图片来源:MiniMax 官网
MiniMax 表示,01 系列模型将能够支持未来一年内智能体应用的大幅增长需求,因为智能体系统越来越需要更长的上下文处理能力和持续的记忆。" 我们相信 2025 年会是 Agent(智能体)高速发展的一年。" 该公司称," 在这个模型中,我们走出了第一步,并希望使用这个架构持续建立复杂 Agent 所需的基础能力。"
智能体正成为国内外 AI 公司竞相押注的赛道。OpenAI CEO Sam Altman 本月初发文称,到 2025 年,将可能看到第一批 AI 智能体 " 加入劳动力队伍 ",并实质性地改变公司的产出。谷歌在推出新一代 Gemini 2.0 大模型时也表示,这是为智能体时代构建的。该模型主打支持多模态输入和输出,以构建出更接近通用助手愿景的智能体。
MiniMax 在阐述为何选择将模型开源时提到,一是认为这有可能启发更多长上下文的研究和应用,从而更快促进智能体时代的到来。二是通过开源促使其努力做更多创新,更高质量地开展后续的模型研发工作。
MiniMax 成立于 2021 年 12 月,被普遍称为国内 " 大模型六小龙 " 之一。旗下拥有 AI 陪伴应用星野,以及集成了对话、视频、音乐功能的海螺 AI 等代表性产品,在海外市场积累了一定热度。其最新披露的一轮融资还是在去年 3 月,由阿里领投的 6 亿美元 B 轮融资,公司估值达 25 亿美元。此前腾讯、米哈游、高瓴创投等机构也参投了 MiniMax。
六小龙中,各公司的大模型开源进度不一。其中,百川智能、智谱 AI、零一万物开源了多款模型,涵盖大语言模型、多模态模型等。而月之暗面、阶跃星辰仅开源了部分技术,例如月之暗面联合清华大学等机构开源的大模型推理架构 Mooncake,以及阶跃星辰专注提升光学字符识别(OCR)技术的 GOT-OCR2.0 模型。